Deep Mind Technologies Limited | |
---|---|
Type | datterselskab |
Grundlag | 2010 |
Tidligere navne | DeepMind Technologies, Google DeepMind |
Grundlæggere | Shane Legg [d] ,Demis Hassabisog Mustafa Suleiman [d] |
Beliggenhed | 5 New Street Square, London EC4A 3TW, Storbritannien |
Industri | kunstig intelligens |
Produkter | AlphaGo , AlphaFold og AlphaGo Zero |
Antal medarbejdere | 1.000 (pr. december 2019) [1] |
Moderselskab | Alphabet Inc. |
Internet side | deepmind.com _ |
Mediefiler på Wikimedia Commons |
DeepMind Technologies Limited , eller DeepMind , er en britisk kunstig intelligens - virksomhed . Grundlagt i 2010 i London under navnet DeepMind Technologies. Erhvervet af Google i 2014 .
Virksomheden blev kendt for udviklingen af AlphaGo- computersystemet , som besejrede en professionel Go -spiller [2] . DeepMind har skabt et neuralt netværk, der er i stand til at lære at spille videospil på menneskeligt niveau [3] . I 2020 udviklede virksomheden AlphaFold2-programmet, som gør det muligt at løse et af biologisk videnskabs grundlæggende problemer med at bygge tredimensionelle proteinmodeller [4] .
I 2010 grundlagde Demis Hassabis , Shane Legg , Mustafa Suleiman opstarten DeepMind Technologies [5] . Forinden kendte Hassabis og Legg hinanden allerede fra University College London , hvor de arbejdede i Gatsby Computational Neuroscience Unit ( www.gatsby.ucl.ac.uk ) [6] .
Store venturekapitalfonde Horizons Ventures , Founders Fund [7] samt iværksætterne Scott Banister [8] og Elon Musk [9] investerede i virksomheden . Jan Tallinn var en af virksomhedens tidlige investorer og rådgivere [10] .
I 2014 modtog DeepMind prisen "Årets virksomhed" fra Computer Laboratory ved University of Cambridge [11] .
Den 26. januar 2014 annoncerede Google købet af DeepMind Technologies [12] . Ifølge forskellige rapporter varierede transaktionsbeløbet fra 400 til 650 millioner dollars [13] [14] [15] [16] . Handlen fandt angiveligt sted efter , at Facebook afsluttede forhandlingerne om at købe DeepMind Technologies i 2013 [17] . En af betingelserne for DeepMinds aftale med Google var oprettelsen af det sidste panel om de etiske problemer med kunstig intelligens [18] .
Efter købet af Google blev virksomheden kendt som Google DeepMind.
I begyndelsen af september 2016 blev virksomheden overtaget af Googles moderselskab Alphabet , og omtalen af Google forsvandt fra dets navn, nu er det kendt som DeepMind Technologies Limited eller DeepMind. Virksomhedens hjemmeside er også blevet redesignet.
Virksomhedens mål er at "løse problemet med intelligens" [19] . For at gøre dette bruger de "de bedste teknologier, lige fra maskinlæring til systempsykofysiologi , for til sidst at skabe generelle indlæringsalgoritmer" [19] . De arbejder også på formaliseringen af intelligens [20] for ikke kun at implementere den i maskiner, men også for at forstå, hvordan den menneskelige hjerne fungerer. Ifølge Demis Hassabis [21] :
... at prøve at udtrække essensen af intelligens som en algoritmisk konstruktion kan være den bedste måde at forstå de dybeste mysterier i vores sind.
DeepMind ser løsningen på problemet med intelligens i skabelsen af universelle selvlærende intelligente agenter , der ville være i stand til autonomt at lære af rå inputdata og ville være egnede til at løse alle opgaver, i modsætning til "begrænset AI ", såsom Deep Blue eller IBM Watson løser kun én foruddefineret opgave. Forstærkningslæring [22] blev valgt som hovedtilgangen til at bygge intelligente agenter .
Virksomheden forsker i øjeblikket i computersystemer, der kan spille en række forskellige spil, fra strategispil som Go til computerarcadespil . Shane Legge hævder, at kunstig intelligens vil være i stand til at nå menneskeligt niveau "når en maskine lærer at spille en bred klasse af spil ved kun at bruge input- og outputsignalerne fra den perceptuelle strøm og overføre forståelse fra spil til spil ..." [23 ] . Demis Hassabis forklarer fokus på spil, frem for mere traditionel robotteknologi , ved at sige, at " robotter er dyre, langsomme og går ofte i stykker... forskeren distraheres ved at fikse robottens mekaniske dele..." [22] . Det er rapporteret, at Google købte virksomheden efter offentliggørelsen af en undersøgelse om AI , der med succes spillede syv forskellige Atari -spil (Pong, Breakout, Space Invaders, Seaquest, Beamrider, Enduro, Q*bert) [3] .
I begyndelsen af 2018 trænede forskere hos DeepMind et af deres systemer til at spille Quake III Arena PC-spillet . Efter noget tid brugt på træning, med hensyn til spilleniveauet, indhentede dette system først og overhalede folk, der er stærke spillere [24] [25] .
I 2014 udgav DeepMind en hybrid neural netværksarkitektur bestående af et tilbagevendende neuralt netværk og ekstern hukommelse [26] [27] . Det neurale netværk bruger ekstern hukommelse til at skrive og derefter læse information på samme måde som en Turing-maskine gør , af denne grund fik arkitekturen navnet "Neural Turing Machine" (Neural Turing Machine). Som udtænkt af forskerne, imiterer Turings neurale maskine en persons korttidshukommelse og gør det muligt at forstå principperne for dens funktion. I eksperimenter blev det neurale netværk med succes trænet i simple algoritmer: kopiering, sortering, associativ hukommelse.
DeepMind har afsløret et AI-system , der kan lære at spille klassiske spil fra 70'erne og 80'erne. til spillekonsol Atari 2600 [28] [29] [30] [31] [32] . I undersøgelsen blev AI-en trænet til at spille 49 videospil. Som et resultat blev der opnået et spilleniveau, der kunne sammenlignes med et menneskes, og i 22 spil var systemet i stand til at overgå et menneske. DeepMind AI er ikke hårdkodet til et specifikt spil. I starten af træningen ved systemet ikke noget om spillets regler og lærer at spille på egen hånd, idet det kun bruger spillets pixelbillede som input og information om de point, der er modtaget under spillet.
AI er baseret på det, DeepMind kalder deep reinforcement learning, eller deep Q-network (DQN) [28] [30] . Dette er en modelløs variation af forstærkningslæring ved hjælp af Q-learning , hvor hjælpefunktionen er modelleret ved hjælp af et dybt neuralt netværk . Et foldet neuralt netværk blev valgt som arkitekturen for det neurale netværk ; i øjeblikket bruges denne arkitektur effektivt til billedgenkendelse .
DeepMind planlægger at lære AI, bygget på de samme principper, hvordan man spiller mere komplekse 3D-spil fra 90'erne, såsom Doom og racersimulatorer [22] . I februar 2016 blev de første resultater af AI-træning i 3D-spil præsenteret [33] [34] . AI’eren var i stand til at lære at køre bil i 3D- racersimulatoren TORCS [35] , finde udgangen og præmier i den Doom-lignende 3D labyrinth Labyrinth [36] , udføre enkle opgaver ( bevæge sig , balancere, manipulere objekter ) i MuJoCo fysiksimulator ( www.mujoco.org ) [37] . Som før blev kun et pixelbillede af "verden" tilført AI-inputtet. Den neurale netværksarkitektur er blevet udvidet med tilføjelsen af LSTM , en type tilbagevendende neurale netværk .
Alpha StarPå den årlige Blizzcon 2016-festival annoncerede Blizzard , som er initiativtageren til denne begivenhed, sit partnerskab med DeepMind. Denne begivenhed blev derefter offentliggjort i en artikel på begge virksomheders officielle blogs [38] [39] . Formålet med dette samarbejde er at introducere og træne kunstig intelligens i Starcraft II . Ifølge udviklerne af spillet er Starcraft II et ideelt miljø til at lære kunstig intelligens, da spillets komplekse regler tilstrækkeligt afspejler kompleksiteten og alsidigheden i den virkelige verden. Derudover betragtede samfundet selv dette spil som det største problem for AI, som formåede at besejre en person i spillet go, skak og poker [40] .
StarCraft II er det perfekte miljø til at tage AI-forskning til næste niveau. De komplekse spilleregler afspejler i tilstrækkelig grad alsidigheden og tilfældigheden i den virkelige verden. Først lærer du at udvinde ressourcer, derefter bygger du simple bygninger, udforsker kortet og leder efter fjenden. Er det værd at producere flere enheder, eller ville det være bedre at styrke forsvarslinjen? Vil du angribe tidligt eller fokusere på udvikling?
I øjeblikket arbejdes der på "Starcraft 2 API", som giver AI mulighed for fuldt ud at interagere med spilgrænsefladen, alle kan deltage i udviklingen, hvortil der er offentliggjort tekniske opgaver [41] , som er planlagt til at blive implementeret i første kvartal af 2017. AI selv vil lære ved at se gentagelser af andre spillere, der har deltaget i rangerede spil.
I en turnering den 19. december 2018 mellem AlphaStar og to top 100 professionelle spillere TLO og MaNa vandt AlphaStar 10-0. Samtidig formåede MaNa at vinde et ekstra-legal spil [42] [43] [44]
Den 24. januar 2019 blev AlphaStar-programmet introduceret, med speciale i StarCraft II - spillet i realtidsstrategigenren . AlphaStar underviste først i programmet fra optagelser af folks spil, og inkluderede det derefter i "AlphaStar League", hvor AI ikke kun spillede mod sig selv, men også "udnyttende" agenter, som var versioner af AI, der specifikt var målrettet mod AlphaStars svagheder og repræsenterede hver af de tre racer [40] . Træningen sikrede, at AlphaStar ville være en formidabel modstander til alle tre løb og enhver spilstrategi. På tidspunktet for præsentationen havde AlphaStar den viden, der svarer til 200 års spilletid. [45] . Samtidig forsøgte udviklerne at begrænse AI's muligheder, for eksempel ved at begrænse antallet af handlinger pr. minut, og sidestille det med det gennemsnitlige antal handlinger for en god spiller (hvilket ikke forhindrer programmet i at vise resultater umulige for mennesker), på grund af hvilket programmet blev tvunget til at lære at vinde med en langsigtet strategi [40] . Reaktionshastigheden er omkring 3 billeder fra fjendens udseende i sigtbarhedszonen til reaktionen. Reducerede størrelsen af AI'ens synsfelt til spillerens synsfelt.
Ved udgangen af oktober 2019 blev AI’en spillets stormester og oversteg 99,8 % af registrerede menneskelige spillere i Starcraft II. Det tog AlphaStar 44 dages træning at opnå denne præstation. [40] .
I oktober 2015 besejrede DeepMinds AlphaGo [46] go spilsoftware den europæiske Go-mester Fan Hui (2. dan ) 5-0 [2] . Nyheden blev først offentliggjort den 27. januar 2016, samtidig med publiceringen af en artikel i tidsskriftet Nature [2] .
Dette er første gang i historien, at en AI har slået en pro på Go [47] ; før AlphaGo spillede alle kendte AI'er kun Go på amatørniveau. Go betragtes som et spil, der er ret svært for en computer at vinde (sammenlignet med lignende spil, for eksempel skak) på grund af det store antal muligheder for træk, på grund af dette er den traditionelle AI-metode til at opregne træk praktisk talt uanvendelig [ 2] [48] . I marts 2016 vandt programmet en kamp mod en af de stærkeste goister i verden, Lee Sedol , med en score på 4-1.
DeepMind-publikationer dækker følgende emner [49] : naturlig sprogforståelse af maskiner [50] , skabelonbaseret billedgenerering ved hjælp af neurale netværk [51] , talegenkendelse , neurale netværkstræningsalgoritmer.
DeepMind Health er en afdeling af DeepMind, der arbejder inden for kunstig intelligens inden for medicin [52] [53] [54] . Dets åbning blev annonceret den 24. februar 2016 på virksomhedens hjemmeside. Divisionen ledes af Mustafa Suleiman .
I sit arbejde vil DeepMind Health samarbejde med UK National Health Service . DeepMind Health planlægger at give læger den tekniske ekspertise til at udvikle og forbedre patientplejeteknologier. Der vil blive lagt særlig vægt på sikkerheden af patientdata og fortrolighed. Enhedens præstation vil blive gennemgået af en bestyrelse af uafhængige eksperter, herunder Richard Horton ., redaktør af det respekterede medicinske tidsskrift The Lancet .
DeepMind Health arbejder i øjeblikket på at skabe elektroniske værktøjer, der forenkler lægens arbejde. En smartphone-app er blevet introduceret til mere præcist at diagnosticere akut nyreskade . DeepMind købte også en medicinsk applikation, en task manager for læger. Holdet af læger fra Imperial College London , der skabte det, slutter sig til DeepMind Health. Størrelsen af handlen blev ikke oplyst.
I december 2020 annoncerede DeepMind-teamet, at de havde løst det grundlæggende videnskabelige problem med forudsigelse af proteinstruktur. Programmet, udviklet af virksomheden og baseret på neurale netværk, var i stand til at forudsige proteinets struktur med 90 % nøjagtighed (hvilket er bedre end moderne scanningsmetoder). Dette gør det muligt at bygge 3D-proteinmodeller baseret på den kodende genomiske sekvens, hvilket har stor betydning for udviklingen af nye lægemidler og forståelsen af biokemiske processer generelt. [55]
I 2014 starter DeepMind et samarbejde med University of Oxford [56] [57] . DeepMind ansætter to banebrydende AI-hold fra Oxford. Dette er et hold af verdens førende eksperter i anvendelsen af dyb læring til naturlig sprogforståelse ved hjælp af maskiner : Professorerne Nando De Freitas og Phil Blancom, Drs. Edward Grevenstett og Karl Moritz. Og et team af nogle af verdens førende eksperter i maskinsyn : Dr. Karen Simonyan og Max Jadenberg, professor Andrew Zisserman. Som en del af samarbejdet vil Det Datalogiske Fakultet og Det Tekniske Fakultet modtage betydelige midler fra Google. DeepMind planlægger også et studerende praktikprogram, foredrag og seminarer for studerende.
Forskere fra andre universiteter arbejder også med DeepMind. David Silver, medforfatter til AlphaGo papiret [58] og mange andre DeepMind publikationer om forstærkende læring , forelæser på University College London [59] . Nogle DeepMind-publikationer er medforfattet af videnskabsmænd fra følgende organisationer [49] : University of Toronto , University of Montreal , Australian National University , University of Amsterdam , UC Berkeley , INRIA .
I sociale netværk | |
---|---|
Foto, video og lyd | |
Tematiske steder | |
I bibliografiske kataloger |
Alfabet | |||
---|---|---|---|
Underafdelinger | |||
Tidligere | |||
Mennesker |
|