Yudkovsky, Eliezer

Eliezer Yudkovsky
engelsk  Eliezer Yudkowsky

Eliezer Yudkowsky ved Stanford Singularity Summit i 2006.
Navn ved fødslen engelsk  Eliezer Shlomo Yudkowsky
Fødselsdato 11. september 1979( 1979-09-11 ) [1] (43 år)
Fødselssted
Land
Videnskabelig sfære Kunstig intelligens
Arbejdsplads Machine Intelligence Research Institute
Kendt som Forfatter til Harry Potter og rationalitetens metoder
Internet side yudkowsky.net
 Mediefiler på Wikimedia Commons

Eliezer Shlomo Yudkowsky ( engelsk  Eliezer S. Yudkowsky , 11. september 1979) er en amerikansk specialist i kunstig intelligens , der studerer problemerne med teknologisk singularitet og går ind for skabelsen af ​​venlig AI [2] [3] . En nøglefigur i det rationalistiske samfund .

Biografi

Eliezer Yudkowsky blev født den 11. september 1979 i en ortodoks jødisk familie [4] .

Videnskabelige interesser

Yudkowsky er medstifter og fellow ved Singularity Institute for Artificial Intelligence (SIAI) [5] . Han er forfatter til bogen "Creating Friendly AI" [6] , artiklerne "Levels of Organization of Universal Intelligence" [7] , "Coherent Extrapolated Will" [8] og "Timeless Decision Theory" [9] [10] . Hans seneste videnskabelige publikationer er to artikler i samlingen "Risks of Global Catastrophe" (2008) redigeret af Nick Bostrom , nemlig "Artificial Intelligence as a positive and negative factor in global risk" og "Cognitive biases in assessment of global risks" [ 11] [12] [13] . Yudkovsky studerede ikke på universiteter og er autodidakt uden en formel uddannelse inden for AI [14] .

Yudkowsky udforsker de AI-konstruktioner, der er i stand til selvforståelse, selvmodifikation og rekursiv selvforbedring ( Seed AI ), såvel som de AI-arkitekturer, der vil have en stabil og positiv motivationsstruktur ( Friendly Artificial Intelligence ). Ud over forskningsarbejde er Yudkowsky kendt for sine forklaringer af komplekse modeller i ikke-akademisk sprog, der er tilgængelige for en bred vifte af læsere, se for eksempel hans artikel "Intuitive Explanation of Bayes' Theorem" [15] [16] .

Yudkowsky var sammen med Robin Hanson en af ​​hovedforfatterne af bloggen Overcoming Bias (overvinde fordomme). I begyndelsen af ​​2009 var han med til at stifte bloggen LessWrong , der havde til formål at "udvikle menneskelig rationalitet og overvinde kognitive skævheder." Derefter blev Overcoming Bias Hansons personlige blog. Materialet præsenteret på disse blogs var organiseret i tråde af indlæg, der var i stand til at tiltrække tusindvis af læsere - se for eksempel tråden "underholdningsteori" [17] .

Yudkowsky er forfatter til adskillige science fiction-historier, hvori han illustrerer nogle af temaerne relateret til kognitiv videnskab og rationalitet. I ikke-akademiske kredse er han bedre kendt som forfatteren af ​​Harry Potter and the Methods of Rationality fanfiction i regi af Less Wrong [18] .

Kompositioner

Artikler på russisk

Noter

  1. http://www.nndb.com/lists/517/000063328/
  2. Russell, Stuart. Artificial Intelligence: A Modern Approach / Stuart Russell, Peter Norvig . - Prentice Hall, 2009. - ISBN 978-0-13-604259-4 .
  3. Leighton, Jonathan. Kampen om medfølelse: Etik i et apatisk univers. - Algora, 2011. - ISBN 978-0-87586-870-7 .
  4. Undgå din tros virkelige svage punkter . Mindre forkert . Dato for adgang: 31. maj 2021.
  5. Ray Kurzweil . Singulariteten er nær  (neopr.) . - New York, USA: Viking Penguin , 2005. - S. 599. - ISBN 0-670-03384-7 .
  6. Creating Friendly AI , 2001
  7. Levels of Organisation in General Intelligence , 2002
  8. Coherent Extrapolated Volition , 2004
  9. Timeless Decision Theory , 2010
  10. Eliezer Yudkowsky-profil (downlink) . Accelererende Fremtid. Hentet 15. november 2010. Arkiveret fra originalen 4. december 2010. 
  11. Kunstig intelligens som en positiv og negativ faktor i global risiko (link ikke tilgængeligt) . Singularity Institute for Artificial Intelligence. Hentet 28. juli 2009. Arkiveret fra originalen 2. marts 2013. 
  12. Kognitive skævheder, der potentielt påvirker bedømmelsen af ​​globale risici (link ikke tilgængeligt) . Singularity Institute for Artificial Intelligence. Hentet 29. oktober 2018. Arkiveret fra originalen 7. maj 2015. 
  13. Globale katastrofale risici  / Bostrom, Nick . - Oxford, Storbritannien: Oxford University Press , 2008. - P.  91-119 , 308-345. — ISBN 978-0-19-857050-9 .
  14. GDay World #238: Eliezer Yudkowsky . Podcast-netværket. Dato for adgang: 26. juli 2009. Arkiveret fra originalen den 17. juli 2007.
  15. "En intuitiv forklaring af Bayes' sætning"
  16. oversættelse
  17. Sekvenser - Lesswrongwiki
  18. Yudkowsky - fiktion

Links