Google hjerne

Den aktuelle version af siden er endnu ikke blevet gennemgået af erfarne bidragydere og kan afvige væsentligt fra den version , der blev gennemgået den 18. juli 2021; checks kræver 2 redigeringer .

Google Brain er Googles  forskningsprojekt for at udforske kunstig intelligens baseret på dyb læring . Det kombinerer åben maskinlæringsforskning med Google-skala systemudvikling og computerkraft. [en]

Mission

Google Brains mission er at forbedre folks liv ved at bygge smartere maskiner. [2] For at gøre dette fokuserer teamet på at bygge fleksible modeller, der er i stand til selvfunktioner, samt effektiv brug af data og computerkraft.

Google Brain-teamet giver følgende beskrivelse: "Denne tilgang er en del af et bredere felt af maskinlæring end deep learning og sikrer, at vores arbejde vil være af stor betydning for løsning af praktiske problemer. Desuden supplerer vores ekspertise inden for systemer denne tilgang, hvilket giver os mulighed for at skabe værktøjer til at accelerere forskning i maskinlæring og frigøre dens praktiske værdi for verden. [2] »

Historie

Det såkaldte "Google Brain"-projekt begyndte i 2011 som et sideforskningsprojekt af Google Fellow Jeff Dean , Google Researcher Greg Corrado og Stanford University Professor Andrew Ng . [3] [4] [5] Eun har været interesseret i at bruge deep learning metoder til at løse kunstig intelligens problemer siden 2006, og begyndte i 2011 at samarbejde med Dean og Corrado om at bygge et storstilet deep learning system DistBelief [6] ovenpå. af Googles cloud computing- infrastruktur . Google Brain blev lanceret som et Google X- projekt og blev så vellykket, at det vendte tilbage til Google: Astro Teller sagde, at Google Brain betalte hele omkostningerne ved Google X. [7]

I juni 2012 rapporterede New York Times , at en klynge af 16.000 computere designet til at efterligne nogle aspekter af menneskelig hjerneaktivitet havde lært at genkende katte fra 10 millioner digitale billeder hentet fra YouTube-videoer . [5] Denne historie blev også dækket af National Public Radio [8] og Smart Planet . [9]

I marts 2013 hyrede Google Jeffrey Hinton , en førende deep learning -forsker , og købte DNNResearch, et firma drevet af Hinton. Hinton sagde, at han ville dele sin tid mellem forskning på universitetet og arbejde hos Google. [ti]

Den 26. januar 2014 hævdede flere nyhedsmedier, at Google havde købt DeepMind Technologies for et ikke oplyst beløb. Analytikere meddelte senere, at virksomheden var blevet købt for £400 mio. ($650 mio. eller €486 mio.), selvom efterfølgende rapporter vurderede købet til mere end £500 mio. [11] [12] [13] [14] [15] [16] [17] Opkøbet fandt angiveligt sted efter, at Facebook afsluttede forhandlinger med DeepMind Technologies i 2013, der ikke resulterede i en købsaftale. [atten]

Seneste præstationer

Et krypteringssystem udviklet af kunstig intelligens

I oktober 2016 gennemførte Google Brain et eksperiment for at kryptere meddelelser. I den har to sæt AI'er udviklet deres egne kryptografiske algoritmer til at beskytte deres beskeder fra andre AI'er, som igen har til formål at udvikle deres eget system til at bryde den AI-skabte kryptering. Undersøgelsen var vellykket, fordi de to originale AI'er var i stand til at lære at kommunikere med hinanden fra bunden. [19]

I dette eksperiment blev der skabt tre AI'er: Alice, Bob og Eve. Målet med eksperimentet var, at Alice skulle sende en besked til Bob, som ville være i stand til at dekryptere den , og for Eve at forsøge at opsnappe beskeden. Samtidig fik AI ikke klare instruktioner om, hvordan de skulle kryptere deres beskeder. De fik kun tabsfunktionen. Konsekvensen af ​​dette var, at hvis kommunikationen mellem Alice og Bob under eksperimentet ikke var vellykket (Alices besked blev fejlfortolket af Bob eller opsnappet af Eve), så ændres kryptografien i de efterfølgende runder på en sådan måde, at Alice og Bob kan kommunikere sikkert . Faktisk førte denne undersøgelse til den konklusion, at AI kan udvikle sit eget krypteringssystem uden forudskrevne krypteringsalgoritmer, hvilket kan være et gennembrud inden for meddelelseskryptering i fremtiden. [tyve]

Billedforbedring

I februar 2017 annoncerede Google Brain et billedforbedringssystem, der bruger neurale netværk til at udfylde detaljerne for billeder med meget lav opløsning. I de viste eksempler er 8x8 billeder konverteret til 32x32 billeder.

Softwaren bruger to forskellige neurale netværk til at generere billeder. Det første, kaldet et "betinget netværk", kortlægger pixels fra et billede med lav opløsning til pixels i et billede af højere kvalitet, nedskalerer sidstnævnte til 8x8 og forsøger at finde et match. Det andet netværk er det "foreløbige", som analyserer det pixelerede billede og forsøger at tilføje detaljer baseret på et stort antal billeder i høj opløsning. Derefter, når det originale billede skaleres til 8x8, tilføjer systemet pixels baseret på dets viden om, hvad billedet skal være. Til sidst kombineres output fra de to netværk for at skabe det endelige billede. [21]

Dette repræsenterer et gennembrud med hensyn til at forbedre billeder i lav opløsning. Selvom de tilføjede detaljer ikke er en del af det rigtige billede, men kun de bedste gæt, har teknologien vist imponerende resultater i rigtige tests. Når folk blev vist det forbedrede billede og den ægte vare, tog de fejl 10 % af gangene på berømthedsbilleder og 28 % af gangene på billeder i soveværelset. Der foretages en sammenligning med tidligere skuffende resultater, hvor konventionel bikubisk skalering altid er blevet korrekt bestemt af mennesker. [22] [23] [24]

Google Oversæt

For nylig opnåede Google Brain-teamet imponerende resultater i Google Translate , som er en del af Google Brain-projektet. I september 2016 lancerede teamet et nyt system, Google Neural Machine Translation (GNMT) , som er et end-to-end læringssystem, der er i stand til at lære af en lang række eksempler. Selvom implementeringen markant forbedrede kvaliteten af ​​Google Oversæt til pilotsprog, var det meget vanskeligt at skabe sådanne forbedringer for alle 103 understøttede sprog. For at løse dette problem var Google Brain-teamet i stand til at udvikle en flersproget version af GNMT, som udvidede den tidligere og tillod oversættelse mellem flere sprog. Desuden tillod det at udføre direkte oversættelse ( eng.  Zero-Shot Translations ) mellem sprogpar, der ikke var eksplicit indstillet under træningen. [25] Google annoncerede for nylig, at Google Translate kan oversætte ved hjælp af neurale netværk uden at transskribere teksten. Det betyder, at du kan oversætte tale optaget på ét sprog til tekst på et andet sprog uden først at konvertere talen til tekst. Ifølge forskerne ved Google Brain kan dette mellemtrin udelades, når man bruger neurale netværk. For at lære systemet dette, blev det fodret med mange timers spansk tale med engelsk transskription. Forskellige lag af neurale netværk, der efterligner den menneskelige hjerne, var i stand til at kombinere de relevante fragmenter og sekventielt konvertere lydbølgen til engelsk tekst. [26]

I Google-produkter

I øjeblikket bruges projektets teknologi i Android - talegenkendelsessystemet , [27] Google+ fotosøgning [28] og YouTube-videoanbefalinger. [29]

Hold og placering

Google Brain blev oprindeligt skabt af Google Fellow Jeff Dean og gæsteprofessor Andrew Ng fra Stanford [4] (Eun forlod senere projektet for at lede kunstig intelligens-gruppen i Baidu [30] ). For 2017 er teammedlemmerne: Anelia Angelova , Sami Bengio , Greg Corrado , George Dahl (maskinlæringsforsker) , Michael Izard , Anjuli Kannan , Hugo Larocelle , Kwok Le , Chris Ola , Vincent Vanhoke , Vijay Vasudewan og Fernanda Vigas . [31] Chris Lattner , som skabte Apple Swift -programmeringssproget og derefter ledede Teslas selvkørende bilteam i seks måneder, sluttede sig til Google Brain-teamet i august 2017. [32]

Google Brain er baseret i Mountain View og har afdelinger i Cambridge , London , Montreal , New York , San Francisco , Toronto , Zürich og Amsterdam . [33]

Anerkendelse

Google Brain har modtaget omfattende dækning i Wired Magazine , [34] [12] [35] New York Times , [35] Technology Review , [36] [11] National Public Radio [8] og Big Think . [37]

Se også

Noter

  1. Machine Learning Algorithms and Techniques Arkiveret 7. oktober 2017 på Wayback Machine Research hos Google. Hentet 18. maj 2017
  2. 1 2 Google Brain Teams mission (downlink) . Hentet 17. oktober 2017. Arkiveret fra originalen 14. december 2017. 
  3. Googles storskala Deep Neurale Networks Project . Hentet 25. oktober 2015. Arkiveret fra originalen 16. februar 2019.
  4. 1 2 Brug af hjernesimuleringer i stor skala til maskinlæring og kunstig intelligens . Officiel Google-blog (26. juni 2012). Dato for adgang: 26. januar 2015. Arkiveret fra originalen 6. februar 2015.
  5. 1 2 Markoff, John Hvor mange computere kan man identificere en kat? 16.000 . New York Times (25. juni 2012). Dato for adgang: 11. februar 2014. Arkiveret fra originalen 9. maj 2017.
  6. Distributed Deep Networks i stor skala (december 2012). Hentet 25. oktober 2015. Arkiveret fra originalen 26. januar 2016.
  7. Astro Teller, Googles 'Captain of Moonshots' om Making Profits at Google X (16. februar 2015). Dato for adgang: 25. oktober 2015. Arkiveret fra originalen 22. oktober 2015.
  8. 1 2 Et massivt Google-netværk lærer at identificere - Katte . National Public Radio (26. juni 2012). Hentet 11. februar 2014. Arkiveret fra originalen 22. februar 2014.
  9. Shin, Laura Googles hjernesimulator lærer sig selv at genkende katte . SmartPlanet (26. juni 2012). Hentet 11. februar 2014. Arkiveret fra originalen 22. februar 2014.
  10. (12. marts 2013). U of T neurale netværk opstart erhvervet af Google . Pressemeddelelse . Arkiveret fra originalen 8. oktober 2019. Hentet 13. marts 2013 .
  11. 1 2 Regalado, Antonio Er Google et hjørne på markedet for dyb læring? Et banebrydende hjørne af videnskaben bliver bejlet til af Silicon Valley, til nogle akademikeres forfærdelse. . Technology Review (29. januar 2014). Dato for adgang: 11. februar 2014. Arkiveret fra originalen 27. november 2015.
  12. 1 2 Wohlsen, Marcus Googles store plan for at gøre din hjerne irrelevant . Wired Magazine (27. januar 2014). Hentet 11. februar 2014. Arkiveret fra originalen 14. februar 2014.
  13. Google erhverver UK AI-startup Deepmind . The Guardian. Dato for adgang: 27. januar 2014. Arkiveret fra originalen 3. februar 2014.
  14. Rapport om erhvervelse, TechCrunch . teknisk knas. Dato for adgang: 27. januar 2014. Arkiveret fra originalen 28. januar 2014.
  15. Oreskovic, Alexei Reuters-rapport (utilgængeligt link) . Reuters. Hentet 27. januar 2014. Arkiveret fra originalen 26. september 2015. 
  16. Google erhverver kunstig intelligens-start-up DeepMind . Randen. Hentet 27. januar 2014. Arkiveret fra originalen 8. juli 2017.
  17. Google køber AI-pioneren DeepMind Technologies . Ars Technica. Dato for adgang: 27. januar 2014. Arkiveret fra originalen 30. januar 2014.
  18. Google slår Facebook for opkøb af DeepMind-teknologier . Dato for adgang: 27. januar 2014. Arkiveret fra originalen 31. januar 2014.
  19. Google AI inventar sin egen kryptografiske algoritme; ingen ved hvordan det virker . arstechnica.co.uk . Hentet 15. maj 2017. Arkiveret fra originalen 10. juni 2017.
  20. Abadi, Martin; Andersen, David G. Learning to Protect Communications with Adversarial Neural Cryptography  (engelsk)  : tidsskrift. - 2016. - arXiv : 1610.06918 .
  21. Dahl, Ryan; Norouzi, Mohammed; Shlens, Jonathan. Pixel rekursiv superopløsning  (neopr.) . - 2017. - arXiv : 1702.00783 .
  22. Google Brain billedteknologi med superopløsning gør "zoom, forstærk!" ægte . arstechnica.co.uk . Hentet 15. maj 2017. Arkiveret fra originalen 13. juli 2021.
  23. Google har lige gjort 'zoom og forstærk' til en realitet - lidt . cnet.com . Hentet 15. maj 2017. Arkiveret fra originalen 5. september 2021.
  24. Google bruger kunstig intelligens til at gøre billeder i lav opløsning skarpere . engadget.com . Hentet 15. maj 2017. Arkiveret fra originalen 2. maj 2021.
  25. Schuster, Mike; Johnson, Melvin; Thorat, Nikhil Zero-Shot Oversættelse med Googles Multilingual Neural Machine Translation System . Google Research Blog . Hentet 15. maj 2017. Arkiveret fra originalen 10. juli 2017.
  26. Reynolds, Matt Google bruger neurale netværk til at oversætte uden at transskribere . Ny videnskabsmand . Hentet 15. maj 2017. Arkiveret fra originalen 18. april 2021.
  27. Talegenkendelse og dyb indlæring . Google Research Blog . Google (6. august 2012). Hentet 11. februar 2014. Arkiveret fra originalen 6. marts 2014.
  28. Forbedring af fotosøgning: Et skridt på tværs af den semantiske kløft . Google Research Blog . Google (12. juni 2013). Hentet 17. oktober 2017. Arkiveret fra originalen 27. marts 2016.
  29. Dette er Googles plan for at redde YouTube . Tid (18. maj 2015). Hentet 17. oktober 2017. Arkiveret fra originalen 10. september 2016.
  30. Ex-Google Brain Head Andrew Ng skal lede Baidu's kunstige intelligens-drift . South China Morning Post . Hentet 17. oktober 2017. Arkiveret fra originalen 14. januar 2017.
  31. Google Brain-teamets hjemmeside. Tilgået 13/05/2017. https://research.google.com/teams/brain/ Arkiveret 3. maj 2018 på Wayback Machine
  32. Swift-skaberen Chris Lattner slutter sig til Google Brain efter Tesla Autopilot-ophold , TechCrunch  (14. august 2017). Arkiveret fra originalen den 19. august 2021. Hentet 11. oktober 2017.
  33. Forskning hos Google  . research.google.com . Hentet 1. august 2017. Arkiveret fra originalen 3. maj 2018.
  34. Levy, Steven Hvordan Ray Kurzweil vil hjælpe Google med at lave den ultimative AI-hjerne . Wired Magazine (25. april 2013). Dato for adgang: 11. februar 2014. Arkiveret fra originalen 10. februar 2014.
  35. 1 2 Hernandez, Daniela The Man Behind the Google Brain: Andrew Ng and the Quest for the New AI . Wired Magazine (7. maj 2013). Hentet 11. februar 2014. Arkiveret fra originalen 8. februar 2014.
  36. Hof, Robert Deep Learning: Med enorme mængder regnekraft kan maskiner nu genkende objekter og oversætte tale i realtid. Kunstig intelligens bliver endelig smart. . Technology Review (23. april 2013). Hentet 11. februar 2014. Arkiveret fra originalen 9. februar 2014.
  37. Ray Kurzweil og hjernerne bag Google-hjernen . Big Think (8. december 2013). Hentet 11. februar 2014. Arkiveret fra originalen 27. marts 2014.