Google Brain er Googles forskningsprojekt for at udforske kunstig intelligens baseret på dyb læring . Det kombinerer åben maskinlæringsforskning med Google-skala systemudvikling og computerkraft. [en]
Google Brains mission er at forbedre folks liv ved at bygge smartere maskiner. [2] For at gøre dette fokuserer teamet på at bygge fleksible modeller, der er i stand til selvfunktioner, samt effektiv brug af data og computerkraft.
Google Brain-teamet giver følgende beskrivelse: "Denne tilgang er en del af et bredere felt af maskinlæring end deep learning og sikrer, at vores arbejde vil være af stor betydning for løsning af praktiske problemer. Desuden supplerer vores ekspertise inden for systemer denne tilgang, hvilket giver os mulighed for at skabe værktøjer til at accelerere forskning i maskinlæring og frigøre dens praktiske værdi for verden. [2] »
Det såkaldte "Google Brain"-projekt begyndte i 2011 som et sideforskningsprojekt af Google Fellow Jeff Dean , Google Researcher Greg Corrado og Stanford University Professor Andrew Ng . [3] [4] [5] Eun har været interesseret i at bruge deep learning metoder til at løse kunstig intelligens problemer siden 2006, og begyndte i 2011 at samarbejde med Dean og Corrado om at bygge et storstilet deep learning system DistBelief [6] ovenpå. af Googles cloud computing- infrastruktur . Google Brain blev lanceret som et Google X- projekt og blev så vellykket, at det vendte tilbage til Google: Astro Teller sagde, at Google Brain betalte hele omkostningerne ved Google X. [7]
I juni 2012 rapporterede New York Times , at en klynge af 16.000 computere designet til at efterligne nogle aspekter af menneskelig hjerneaktivitet havde lært at genkende katte fra 10 millioner digitale billeder hentet fra YouTube-videoer . [5] Denne historie blev også dækket af National Public Radio [8] og Smart Planet . [9]
I marts 2013 hyrede Google Jeffrey Hinton , en førende deep learning -forsker , og købte DNNResearch, et firma drevet af Hinton. Hinton sagde, at han ville dele sin tid mellem forskning på universitetet og arbejde hos Google. [ti]
Den 26. januar 2014 hævdede flere nyhedsmedier, at Google havde købt DeepMind Technologies for et ikke oplyst beløb. Analytikere meddelte senere, at virksomheden var blevet købt for £400 mio. ($650 mio. eller €486 mio.), selvom efterfølgende rapporter vurderede købet til mere end £500 mio. [11] [12] [13] [14] [15] [16] [17] Opkøbet fandt angiveligt sted efter, at Facebook afsluttede forhandlinger med DeepMind Technologies i 2013, der ikke resulterede i en købsaftale. [atten]
I oktober 2016 gennemførte Google Brain et eksperiment for at kryptere meddelelser. I den har to sæt AI'er udviklet deres egne kryptografiske algoritmer til at beskytte deres beskeder fra andre AI'er, som igen har til formål at udvikle deres eget system til at bryde den AI-skabte kryptering. Undersøgelsen var vellykket, fordi de to originale AI'er var i stand til at lære at kommunikere med hinanden fra bunden. [19]
I dette eksperiment blev der skabt tre AI'er: Alice, Bob og Eve. Målet med eksperimentet var, at Alice skulle sende en besked til Bob, som ville være i stand til at dekryptere den , og for Eve at forsøge at opsnappe beskeden. Samtidig fik AI ikke klare instruktioner om, hvordan de skulle kryptere deres beskeder. De fik kun tabsfunktionen. Konsekvensen af dette var, at hvis kommunikationen mellem Alice og Bob under eksperimentet ikke var vellykket (Alices besked blev fejlfortolket af Bob eller opsnappet af Eve), så ændres kryptografien i de efterfølgende runder på en sådan måde, at Alice og Bob kan kommunikere sikkert . Faktisk førte denne undersøgelse til den konklusion, at AI kan udvikle sit eget krypteringssystem uden forudskrevne krypteringsalgoritmer, hvilket kan være et gennembrud inden for meddelelseskryptering i fremtiden. [tyve]
I februar 2017 annoncerede Google Brain et billedforbedringssystem, der bruger neurale netværk til at udfylde detaljerne for billeder med meget lav opløsning. I de viste eksempler er 8x8 billeder konverteret til 32x32 billeder.
Softwaren bruger to forskellige neurale netværk til at generere billeder. Det første, kaldet et "betinget netværk", kortlægger pixels fra et billede med lav opløsning til pixels i et billede af højere kvalitet, nedskalerer sidstnævnte til 8x8 og forsøger at finde et match. Det andet netværk er det "foreløbige", som analyserer det pixelerede billede og forsøger at tilføje detaljer baseret på et stort antal billeder i høj opløsning. Derefter, når det originale billede skaleres til 8x8, tilføjer systemet pixels baseret på dets viden om, hvad billedet skal være. Til sidst kombineres output fra de to netværk for at skabe det endelige billede. [21]
Dette repræsenterer et gennembrud med hensyn til at forbedre billeder i lav opløsning. Selvom de tilføjede detaljer ikke er en del af det rigtige billede, men kun de bedste gæt, har teknologien vist imponerende resultater i rigtige tests. Når folk blev vist det forbedrede billede og den ægte vare, tog de fejl 10 % af gangene på berømthedsbilleder og 28 % af gangene på billeder i soveværelset. Der foretages en sammenligning med tidligere skuffende resultater, hvor konventionel bikubisk skalering altid er blevet korrekt bestemt af mennesker. [22] [23] [24]
For nylig opnåede Google Brain-teamet imponerende resultater i Google Translate , som er en del af Google Brain-projektet. I september 2016 lancerede teamet et nyt system, Google Neural Machine Translation (GNMT) , som er et end-to-end læringssystem, der er i stand til at lære af en lang række eksempler. Selvom implementeringen markant forbedrede kvaliteten af Google Oversæt til pilotsprog, var det meget vanskeligt at skabe sådanne forbedringer for alle 103 understøttede sprog. For at løse dette problem var Google Brain-teamet i stand til at udvikle en flersproget version af GNMT, som udvidede den tidligere og tillod oversættelse mellem flere sprog. Desuden tillod det at udføre direkte oversættelse ( eng. Zero-Shot Translations ) mellem sprogpar, der ikke var eksplicit indstillet under træningen. [25] Google annoncerede for nylig, at Google Translate kan oversætte ved hjælp af neurale netværk uden at transskribere teksten. Det betyder, at du kan oversætte tale optaget på ét sprog til tekst på et andet sprog uden først at konvertere talen til tekst. Ifølge forskerne ved Google Brain kan dette mellemtrin udelades, når man bruger neurale netværk. For at lære systemet dette, blev det fodret med mange timers spansk tale med engelsk transskription. Forskellige lag af neurale netværk, der efterligner den menneskelige hjerne, var i stand til at kombinere de relevante fragmenter og sekventielt konvertere lydbølgen til engelsk tekst. [26]
I øjeblikket bruges projektets teknologi i Android - talegenkendelsessystemet , [27] Google+ fotosøgning [28] og YouTube-videoanbefalinger. [29]
Google Brain blev oprindeligt skabt af Google Fellow Jeff Dean og gæsteprofessor Andrew Ng fra Stanford [4] (Eun forlod senere projektet for at lede kunstig intelligens-gruppen i Baidu [30] ). For 2017 er teammedlemmerne: Anelia Angelova , Sami Bengio , Greg Corrado , George Dahl (maskinlæringsforsker) , Michael Izard , Anjuli Kannan , Hugo Larocelle , Kwok Le , Chris Ola , Vincent Vanhoke , Vijay Vasudewan og Fernanda Vigas . [31] Chris Lattner , som skabte Apple Swift -programmeringssproget og derefter ledede Teslas selvkørende bilteam i seks måneder, sluttede sig til Google Brain-teamet i august 2017. [32]
Google Brain er baseret i Mountain View og har afdelinger i Cambridge , London , Montreal , New York , San Francisco , Toronto , Zürich og Amsterdam . [33]
Google Brain har modtaget omfattende dækning i Wired Magazine , [34] [12] [35] New York Times , [35] Technology Review , [36] [11] National Public Radio [8] og Big Think . [37]