Machine Intelligence Research Institute | |
---|---|
Administrativt center |
|
Organisationstype | organisation uden fortjeneste |
Grundlag | |
Stiftelsesdato | 2000 |
Internet side | intelligence.org _ |
Machine Intelligence Research Institute (MIRI; tidligere Singularity Institute og Singularity Institute for Artificial Intelligence ) er en non-profit organisation, hvis hovedmål er at skabe sikker kunstig intelligens , samt at studere de potentielle farer og muligheder, der kan opstå ved oprettelse af AI. Organisationen støtter de ideer, der oprindeligt blev fremsat af Irving Goode og Vernor Vinge vedrørende den "intellektuelle eksplosion" eller singularitet , og Eliezer Yudkowskys ideer om at skabe venlig AI. Yudkowsky forsker ved Singularity Institute i USA i problemerne med global risiko, som en fremtidig overmenneskelig AI kan skabe, hvis den ikke er programmeret til at være menneskevenlig [ 1] .
Fra 2007 til 2010 var opfinderen og fremtidsforskeren Ray Kurzweil en af organisationens direktører . Organisationens rådgivende personale omfatter Oxford-filosof Nick Bostrom , gerontolog Aubrey de Gray , PayPal -medstifter Peter Thiel og Medstifter af Foresight Nanotech Institute , Christina Paterson.
Organisationen har kontorer i USA og Canada.
Det første projekt fra SIAI (Singularity Institute for Artificial Intelligence) var det "annotative programmeringssprog" (annotative programmeringssprog) Flare [2] , hvis udvikling begyndte i juli 2001. Sproget blev designet til at skabe kimen til AI med det. Projektet blev afsluttet på mindre end et år.
I 2002 udgav SIAI-webstedet et fortryk af kapitlet "Levels of Organization of General Intelligence" [3] fra bogen Real AI: New Approaches to Artificial General Intelligence (redigeret af Ben Herzel og Cassio Pennachin). Senere samme år udgav SIAI to store introduktionskapitler, "What is the Singularity" [4] og "Why Work on the Singularity Approximation" [5] .
I 2003 holdt repræsentanten for organisationen Michael Anissimov en præsentation på den internationale konference Transvision 2003, der blev afholdt på Yale University .
I 2004 oprettede SIAI AsimovLaws.com [6] for at diskutere AI-etikken i sammenhæng med de spørgsmål, der blev rejst i filmen I, Robot , udgivet blot to dage senere. Tidligt næste år flytter instituttets hovedkvarter fra Atlanta til Silicon Valley .
I februar 2006 danner instituttet en fond på 200 tusind dollars [7] . Størstedelen af fonden ($100.000) kom fra Paypal-medstifter Peter Thiel. I maj 2006 blev der på Stanford Singularity Summit truffet en beslutning om at udvide instituttets personale.
Instituttet sponsorerer sammen med KurzweilAI.net og Center for Language and Information Studies Stanford Singularity Summit. Instituttets direktør, Peter Thiel, fungerer som moderator for topmødet [8] . Topmødet samlede omkring 1.300 specialister. Summit-deltagere omfattede Ray Kurzweil , Nick Bostrom , Corey Doctorow , Eric Drexler , Douglas Hofstadter , Steve BillMax , Sebastian Thrun og Eliezer Yudkowsky
I 2007 blev et lignende topmøde afholdt i Palace of the Arts Theatre i San Francisco. Det tredje Singularity Summit fandt sted den 5. oktober 2008 i San Jose.
Instituttet finansierer Open Cognition Framework-projektet ( OpenCog ), som har til formål at give "softwareforskere og -udviklere en fælles platform til at bygge AI-programmer."
I 2013 skiftede organisationen navn til Machine Intelligence Research Institute [9] .
Machine Intelligence Research Institute studerer strategiske spørgsmål relateret til AI, såsom: Hvad kan (og kan) vi ikke forudsige om fremtiden for AI-teknologi? Hvordan kan vi forbedre vores prognoseevner? Hvilke interventioner, der er tilgængelige i dag, ser ud til at være de mest nyttige i betragtning af den lille smule, vi ved? [ti]
Siden 2014 har MIRI finansieret prognosearbejde gennem det uafhængige projekt AI Impacts. AI Impacts studerer historiske eksempler på diskontinuerlige teknologiske forandringer og har udviklet nye mål for den relative processorkraft af mennesker og computerhardware. [11] [12]
MIRI-forskernes interesse for diskontinuerlig AI stammer fra I.J. Goods argument om, at tilstrækkeligt avancerede AI-systemer i sidste ende vil overgå mennesker i softwareudviklingsopgaver, hvilket fører til en feedback-loop af stadig mere dygtige AI-systemer:
Lad en ultra-intelligent maskine defineres som en maskine, der så vidt muligt kan overstige alle intellektuelle aktiviteter for ethvert menneske. Da maskindesign er en af disse intelligente opgaver, kunne en ultra-intelligent maskine designe endnu bedre maskiner; Så ville der utvivlsomt have været en " intelligenseksplosion " (oprindelse: "intelligenseksplosion"), og det menneskelige sind ville være blevet efterladt langt tilbage. Således er den første ultra-intelligente maskine den sidste opfindelse, som mennesket nogensinde skulle lave, forudsat at maskinen er lydig nok til at fortælle os, hvordan vi holder den under kontrol. [13]
Forfattere som Bostrom bruger udtrykket superintelligens i stedet for Goodes ultraintellektuelle. Efter Vernor Vinge blev Goodes idé om en intelligenseksplosion knyttet til ideen om en "teknologisk singularitet". Bostrom og forskere ved MIRI har udtrykt skepsis over for synspunkter fra singularitetsfortalere som Ray Kurzweil , at superintelligens er "rundt om hjørnet". MIRI-forskere slår til lyd for tidligt sikkerhedsarbejde som en forholdsregel og argumenterer for, at tidligere forudsigelser om AI-fremskridt ikke har været pålidelige. [fjorten]
Future of Life Institute (FLI) forskningsprioriteringsdokument siger:
Matematiske værktøjer som formel logik, sandsynlighed og beslutningsteori har givet betydelig indsigt i grundlaget for ræsonnement og beslutningstagning. Men der er stadig mange åbne problemer i hjertet af ræsonnement og beslutninger. Løsninger på disse problemer kan gøre opførslen af meget dygtige systemer meget mere pålidelig og forudsigelig. Eksempler på forskning inden for dette område omfatter ræsonnement og beslutning, inden for begrænsede computerressourcer à la Horvitz og Russell, hvordan man tager højde for sammenhænge mellem adfærden af AI-systemer og adfærden i deres miljø, agenter som agenter indbygget i deres miljø eller andre deterministiske beregninger. Disse emner kan med fordel overvejes sammen, da de ser ud til at være dybt relaterede.
Standardbeslutningsprocedurerne er ikke veldefinerede (for eksempel med hensyn til kontrafakta) for at blive formaliseret som algoritmer. Machine Intelligence Research Institute-forsker Benja Pallenstein og daværende forsker Nate Soares skriver, at kausal beslutningsteori er "reflektiv ustabil" i den forstand, at en rationel agent, der følger kausal beslutningsteori, "korrekt identificerer, at agenten skal ændre sig selv for at stoppe med at bruge teorien om årsagen. og effektuere beslutninger til beslutningstagning." Forskere identificerer "logiske beslutningsteorier" som alternativer, der klarer sig bedre på generelle beslutningsopgaver.
Hvis et AI-system vælger de handlinger, der bedst sætter det i stand til at fuldføre en opgave, så er det et naturligt delmål at undgå forhold, der forhindrer systemet i at fortsætte med at fuldføre opgaven (og omvendt er det nogle gange en nyttig heuristik at finde ubetingede situationer). Dette kan dog blive problematisk, hvis vi ønsker at omfordele systemet, deaktivere det eller væsentligt ændre beslutningsprocessen; Et sådant system ville rationelt undgå disse ændringer. Systemer, der ikke udviser denne adfærd, omtales som korrigerende systemer, og teoretisk og praktisk arbejde på dette område ser ud til at være acceptabelt og nyttigt.
Machine Intelligence Research Institutes prioriteter på disse områder er opsummeret i det tekniske program for 2015 .
I sociale netværk |
---|
transhumanisme | ||
---|---|---|
Grundlæggende | ||
strømme | ||
Organisationer | ||
Mennesker |