Eliezer Yudkovsky | |
---|---|
engelsk Eliezer Yudkowsky | |
Eliezer Yudkowsky ved Stanford Singularity Summit i 2006. | |
Navn ved fødslen | engelsk Eliezer Shlomo Yudkowsky |
Fødselsdato | 11. september 1979 [1] (43 år) |
Fødselssted | |
Land | |
Videnskabelig sfære | Kunstig intelligens |
Arbejdsplads | Machine Intelligence Research Institute |
Kendt som | Forfatter til Harry Potter og rationalitetens metoder |
Internet side | yudkowsky.net _ |
Mediefiler på Wikimedia Commons |
Eliezer Shlomo Yudkowsky ( engelsk Eliezer S. Yudkowsky , 11. september 1979) er en amerikansk specialist i kunstig intelligens , der studerer problemerne med teknologisk singularitet og går ind for skabelsen af venlig AI [2] [3] . En nøglefigur i det rationalistiske samfund .
Eliezer Yudkowsky blev født den 11. september 1979 i en ortodoks jødisk familie [4] .
Yudkowsky er medstifter og fellow ved Singularity Institute for Artificial Intelligence (SIAI) [5] . Han er forfatter til bogen "Creating Friendly AI" [6] , artiklerne "Levels of Organization of Universal Intelligence" [7] , "Coherent Extrapolated Will" [8] og "Timeless Decision Theory" [9] [10] . Hans seneste videnskabelige publikationer er to artikler i samlingen "Risks of Global Catastrophe" (2008) redigeret af Nick Bostrom , nemlig "Artificial Intelligence as a positive and negative factor in global risk" og "Cognitive biases in assessment of global risks" [ 11] [12] [13] . Yudkovsky studerede ikke på universiteter og er autodidakt uden en formel uddannelse inden for AI [14] .
Yudkowsky udforsker de AI-konstruktioner, der er i stand til selvforståelse, selvmodifikation og rekursiv selvforbedring ( Seed AI ), såvel som de AI-arkitekturer, der vil have en stabil og positiv motivationsstruktur ( Friendly Artificial Intelligence ). Ud over forskningsarbejde er Yudkowsky kendt for sine forklaringer af komplekse modeller i ikke-akademisk sprog, der er tilgængelige for en bred vifte af læsere, se for eksempel hans artikel "Intuitive Explanation of Bayes' Theorem" [15] [16] .
Yudkowsky var sammen med Robin Hanson en af hovedforfatterne af bloggen Overcoming Bias (overvinde fordomme). I begyndelsen af 2009 var han med til at stifte bloggen LessWrong , der havde til formål at "udvikle menneskelig rationalitet og overvinde kognitive skævheder." Derefter blev Overcoming Bias Hansons personlige blog. Materialet præsenteret på disse blogs var organiseret i tråde af indlæg, der var i stand til at tiltrække tusindvis af læsere - se for eksempel tråden "underholdningsteori" [17] .
Yudkowsky er forfatter til adskillige science fiction-historier, hvori han illustrerer nogle af temaerne relateret til kognitiv videnskab og rationalitet. I ikke-akademiske kredse er han bedre kendt som forfatteren af Harry Potter and the Methods of Rationality fanfiction i regi af Less Wrong [18] .
![]() | ||||
---|---|---|---|---|
Ordbøger og encyklopædier | ||||
|