Yudkovsky, Eliezer
Eliezer Shlomo Yudkowsky ( engelsk Eliezer S. Yudkowsky , 11. september 1979) er en amerikansk specialist i kunstig intelligens , der studerer problemerne med teknologisk singularitet og går ind for skabelsen af venlig AI [2] [3] . En nøglefigur i det rationalistiske samfund .
Biografi
Eliezer Yudkowsky blev født den 11. september 1979 i en ortodoks jødisk familie [4] .
Videnskabelige interesser
Yudkowsky er medstifter og fellow ved Singularity Institute for Artificial Intelligence (SIAI) [5] . Han er forfatter til bogen "Creating Friendly AI" [6] , artiklerne "Levels of Organization of Universal Intelligence" [7] , "Coherent Extrapolated Will" [8] og "Timeless Decision Theory" [9] [10] . Hans seneste videnskabelige publikationer er to artikler i samlingen "Risks of Global Catastrophe" (2008) redigeret af Nick Bostrom , nemlig "Artificial Intelligence as a positive and negative factor in global risk" og "Cognitive biases in assessment of global risks" [ 11] [12] [13] . Yudkovsky studerede ikke på universiteter og er autodidakt uden en formel uddannelse inden for AI [14] .
Yudkowsky udforsker de AI-konstruktioner, der er i stand til selvforståelse, selvmodifikation og rekursiv selvforbedring ( Seed AI ), såvel som de AI-arkitekturer, der vil have en stabil og positiv motivationsstruktur ( Friendly Artificial Intelligence ). Ud over forskningsarbejde er Yudkowsky kendt for sine forklaringer af komplekse modeller i ikke-akademisk sprog, der er tilgængelige for en bred vifte af læsere, se for eksempel hans artikel "Intuitive Explanation of Bayes' Theorem" [15] [16] .
Yudkowsky var sammen med Robin Hanson en af hovedforfatterne af bloggen Overcoming Bias (overvinde fordomme). I begyndelsen af 2009 var han med til at stifte bloggen LessWrong , der havde til formål at "udvikle menneskelig rationalitet og overvinde kognitive skævheder." Derefter blev Overcoming Bias Hansons personlige blog. Materialet præsenteret på disse blogs var organiseret i tråde af indlæg, der var i stand til at tiltrække tusindvis af læsere - se for eksempel tråden "underholdningsteori" [17] .
Yudkowsky er forfatter til adskillige science fiction-historier, hvori han illustrerer nogle af temaerne relateret til kognitiv videnskab og rationalitet. I ikke-akademiske kredse er han bedre kendt som forfatteren af Harry Potter and the Methods of Rationality fanfiction i regi af Less Wrong [18] .
Kompositioner
- Our Molecular Future: How Nanotechnology, Robotics, Genetics and Artificial Intelligence Will Transform Our World af Douglas Mulhall , 2002, s. 321.
- The Spike: How Our Lives Are Being Transformed By Rapidly Advancing Technologies af Damien Broderick , 2001, s. 236, 265-272, 289, 321, 324, 326, 337-339, 345, 353, 370.
Artikler på russisk
Noter
- ↑ http://www.nndb.com/lists/517/000063328/
- ↑ Russell, Stuart. Artificial Intelligence: A Modern Approach / Stuart Russell, Peter Norvig . - Prentice Hall, 2009. - ISBN 978-0-13-604259-4 .
- ↑ Leighton, Jonathan. Kampen om medfølelse: Etik i et apatisk univers. - Algora, 2011. - ISBN 978-0-87586-870-7 .
- ↑ Undgå din tros virkelige svage punkter . Mindre forkert . Dato for adgang: 31. maj 2021. (ubestemt)
- ↑ Ray Kurzweil . Singulariteten er nær (neopr.) . - New York, USA: Viking Penguin , 2005. - S. 599. - ISBN 0-670-03384-7 .
- ↑ Creating Friendly AI , 2001
- ↑ Levels of Organisation in General Intelligence , 2002
- ↑ Coherent Extrapolated Volition , 2004
- ↑ Timeless Decision Theory , 2010
- ↑ Eliezer Yudkowsky-profil (downlink) . Accelererende Fremtid. Hentet 15. november 2010. Arkiveret fra originalen 4. december 2010. (ubestemt)
- ↑ Kunstig intelligens som en positiv og negativ faktor i global risiko (link ikke tilgængeligt) . Singularity Institute for Artificial Intelligence. Hentet 28. juli 2009. Arkiveret fra originalen 2. marts 2013. (ubestemt)
- ↑ Kognitive skævheder, der potentielt påvirker bedømmelsen af globale risici (link ikke tilgængeligt) . Singularity Institute for Artificial Intelligence. Hentet 29. oktober 2018. Arkiveret fra originalen 7. maj 2015. (ubestemt)
- ↑ Globale katastrofale risici / Bostrom, Nick . - Oxford, Storbritannien: Oxford University Press , 2008. - P. 91-119 , 308-345. — ISBN 978-0-19-857050-9 .
- ↑ GDay World #238: Eliezer Yudkowsky . Podcast-netværket. Dato for adgang: 26. juli 2009. Arkiveret fra originalen den 17. juli 2007. (ubestemt)
- ↑ "En intuitiv forklaring af Bayes' sætning"
- ↑ oversættelse
- ↑ Sekvenser - Lesswrongwiki
- ↑ Yudkowsky - fiktion
Links
- personlig hjemmeside
- Biografiside på KurzweilAI.net
- Biografiside på Singularity Institute
- Dokumenter og bibliografi, der kan downloades
- Overcoming Bias — En blog, som Yudkowsky bidrog regelmæssigt til indtil 2009.
- Less Wrong - "En fællesskabsblog dedikeret til at forfine kunsten af menneskelig rationalitet" grundlagt af Yudkowsky.
- Oversættelser af artikler om rationel tænkning til russisk
- Predicting The Future :: Eliezer Yudkowsky, NYTA Keynote-tale — feb 2003
- Eliezer Yudkowsky på The Agenda med Steve Paikin diskussionspanel, "Robotics Revolution and the Future of Evolution" på Quantum to Cosmos Festival, med Hod Lipson , Michael Belfiore , Cory Doctorow
- Mindre forkerte spørgsmål og svar med Eliezer Yudkowsky: Video Answers
- Kapitel om Yudkowsky i det 21. århundredes teknologi og dens radikale implikationer for sind, samfund og virkelighed
- Ben Goertzel. Superintelligence: Fears, Promises and Potentials // Journal of Evolution and Technology. - 2015. - Bd. 24, nr. 2. - S. 55-87.
- Fanfiction Harry Potter og rationalitetens metoder (oversættelse: Harry Potter og rationalitetens metoder )
I sociale netværk |
|
---|
Ordbøger og encyklopædier |
|
---|
I bibliografiske kataloger |
---|
|
|