Robotikkens tre love

Den aktuelle version af siden er endnu ikke blevet gennemgået af erfarne bidragydere og kan afvige væsentligt fra den version , der blev gennemgået den 24. juli 2017; verifikation kræver 71 redigeringer .

The Three Laws of Robotics in Science Fiction  er bindende adfærdsregler for robotter , først formuleret af Isaac Asimov i novellen Round Dance ( 1942 ).

Lovene siger:

  1. En robot kan ikke skade en person eller ved sin passivitet tillade en person at blive skadet.
  2. En robot skal adlyde alle ordrer givet af et menneske, medmindre disse ordrer er i modstrid med den første lov.
  3. Robotten skal sørge for sin egen sikkerhed i det omfang, det ikke er i modstrid med den første eller anden lov.
Originaltekst  (engelsk)[ Visskjule]
  1. En robot må ikke skade et menneske eller, gennem passivitet, tillade et menneske at komme til skade.
  2. En robot skal adlyde ordrer givet den af ​​mennesker, undtagen hvor sådanne ordrer ville være i konflikt med den første lov.
  3. En robot skal beskytte sin egen eksistens, så længe en sådan beskyttelse ikke er i konflikt med den første eller anden lov.

De tre love , såvel som de mulige årsager og konsekvenser af deres overtrædelse, er afsat til cyklussen af ​​Asimovs historier om robotter. Nogle af dem beskæftiger sig tværtimod med de uforudsete konsekvenser af, at robotter følger de tre love (for eksempel " Mirror Reflection ").

I en af ​​historierne i cyklussen kommer Asimovs karakter til den konklusion om de tre loves etiske grundlag : "... hvis du tænker dig godt om, falder robotteknologiens tre love sammen med de grundlæggende principper i de fleste etiske systemer, der eksisterer på Jorden ... ganske enkelt sagt, hvis Byerly opfylder alle robotteknologiens love, han - eller en robot eller en meget velopdragen person" [1] .

I 1986, i romanen Robots and Empire , foreslog Asimov nulloven  :

0. En robot kan ikke forårsage skade på menneskeheden eller ved sin passivitet tillade, at der sker skade på menneskeheden.

Originaltekst  (engelsk)[ Visskjule]

0. En robot må ikke skade menneskeheden, eller ved passivitet tillade menneskeheden at komme til skade.

Robotikkens tre love  er et samlende tema for al Asimovs science fiction, inklusive ikke kun cyklussen om robotter, men også nogle andre værker.

De tre loves historie

Fremkomsten af ​​konceptet

Før Asimovs tre love blev de fleste historier om kunstige væsner i almindelighed, og om robotter i særdeleshed, skrevet i ånden fra den berømte Frankenstein-roman . "Dette problem blev et af de mest populære i science fiction-verdenen i 1920'erne og 1930'erne, hvor der blev skrevet mange historier, hvis tema var robotter, der gjorde oprør og ødelagde deres skabere. ... Jeg var frygtelig træt af de advarsler, der lød i værker af denne art,” [2] , bemærkede Asimov senere.

Det var dog ikke alle science fiction-forfattere, der fulgte dette mønster. I december 1938 udkom Lester del Reys novelle "Helen O'Loy"  - historien om en robotkvinde, der blev vanvittigt forelsket i sin skaber og blev hans ideelle kone [3] . En måned senere udgav Otto Binder historien "I, Robot" om skæbnen for robotten Adam Link - et væsen, der ikke forstås af mennesker, drevet af kærlighed og æresprincipperne [4] .

Asimov kunne lide denne historie meget. Den 7. maj 1939 besøgte han Science Fiction Society of Queens , hvor han mødte Binder. Tre dage senere begyndte Asimov at skrive sin egen historie om den "ædle robot". Efter 13 dage gav han manuskriptet til sin ven John Campbell , chefredaktør for magasinet Astounding . Han returnerede dog manuskriptet og sagde, at historien var for lig "Helen O'Loy" [5] .

Heldigvis påvirkede Campbells afvisning ikke deres forhold til Asimov, de fortsatte med at mødes regelmæssigt og snakke om nyheder i science fiction-verdenen. Og her den 23. december 1940, mens vi diskuterede en anden historie om robotter [6] [7] :

...Campbell formulerede det, der senere blev kendt som Robotikkens tre love . Campbell sagde senere, at han simpelthen havde isoleret lovene fra det, Asimov allerede havde skrevet. Asimov selv afstod altid æren af ​​forfatterskabet af de tre love til Campbell ...

Et par år senere  tilskrev en anden ven af ​​Asimov, Randal Garrett , forfatterskabet af lovene til et " symbiotisk partnerskab" mellem to personer. Asimov accepterede entusiastisk denne formulering.

Generelt forekom fremkomsten af ​​de tre love i Asimovs værker gradvist: de første to historier om robotter (" Robbie ", 1940 og " Logic ", 1941 ) nævner dem ikke eksplicit. Men de antyder allerede, at robotter har nogle iboende begrænsninger. I den følgende historie (" Løgneren ", 1941) høres den første lov for første gang . Og endelig er alle tre love givet i sin helhed i Runddansen ( 1942 ).

Da resten af ​​historierne blev skrevet, og ideen om at udgive " I, Robot "-samlingen opstod, blev de to første historier "fuldendt" med Lovene . I "Robbie" var lovene noget anderledes end den "klassiske" version, der er beskrevet i resten af ​​historierne. Især ideen om en robot, der beskytter mennesker, han ikke er helt sikker på eksisterer, genlyder Elijah Baileys tanker om Lovenes ufuldkommenhed , beskrevet nedenfor .

I 1950'erne skrev Asimov hovedsageligt for ungdommen. Hans udgiver foreslog, at disse historier kunne laves om til en tv-serie . I frygt for at filmatiseringen ville se "ensartet skræmmende" ud som alt, hvad han troede blev vist på tv, besluttede Asimov at udgive Lucky Starr -serien under pseudonymet Paul French . Da filmatiseringen mislykkedes, tog Asimov sit pseudonym af og supplerede teksten til historierne i serien med De tre love og bekræftede derved hans forfatterskab [8] .

Etisk begrundelse for lovene

I novellen " Evidence " ( 1946 ) beskrev Asimov den moralske begrundelse for de tre love . Historiens heltinde, Dr. Susan Kelvin , fremfører følgende argumenter:

  1. En person afholder sig normalt fra at skade en anden person, undtagen i tilfælde af akut tvang (såsom i krig ) eller for at redde flere mennesker. Dette svarer til den første lov .
  2. På samme måde, som føler sig ansvarlig over for samfundet, følger en person instruktionerne fra autoritative mennesker: læger, lærere, chefer osv., som svarer til den anden lov .
  3. Endelig bekymrer vi os hver især om vores egen sikkerhed - og dette er den tredje lov .

Historien er viet til spørgsmålet: er det muligt at skelne mellem en person og en robot, der er skabt til at ligne en person , der udadtil ikke kan skelnes fra en person? Calvin siger, at hvis nogen følger lovene , så er han "enten en robot eller en meget god person." Og på spørgsmålet, om der så er stor forskel på en robot og en person, svarer hun: ”En kæmpe forskel. Først og fremmest er robotter dybt anstændige."

Anvendelser af de tre love uden for fiktion

Hvis de tre love har dybe etiske principper bag sig, så kan de måske ikke kun anvendes på robotter? Mange forfattere besvarer dette spørgsmål bekræftende og citerer forskellige eksempler.

Så i essayet "The Laws of Robotics" [1] bemærker Asimov, at de tre love kan udvides til alle værktøjer skabt af mennesket:

  1. Værktøjet skal være sikkert at bruge - for eksempel har knive håndtag.
  2. Værktøjet skal udføre sin funktion, forudsat at det ikke udgør nogen fare for nogen.
  3. Værktøjet skal forblive intakt under dets brug, medmindre dets ødelæggelse er dikteret af sikkerhedshensyn, eller hvis det ikke er en del af dets funktion.

Du kan nogle gange se de tre love blive spøgende omtalt som noget, der er skabt til gavn for mennesket. For eksempel bør alle sociale institutioner , herunder staten , falde ind under deres handling :

  1. Staten må ikke skade mennesker eller ved sin passivitet tillade, at de kommer til skade.
  2. Staten skal udføre sine funktioner, medmindre de er i strid med den første lov .
  3. Staten skal sørge for sin sikkerhed, hvis dette ikke er i strid med 1. og 2. lov .

Baseret på den første lov formulerede Jeff Raskin lovene for menneskeorienterede grænseflader [9] :

  1. Computeren kan ikke skade brugerens data eller ved passivitet tillade at dataene bliver skadet.
  2. Computeren bør ikke spilde din tid eller tvinge dig til at gøre ting ud over, hvad der er nødvendigt.

Gaia , bikubens sinds planet i Foundation -serien af ​​romaner , besidder noget, der ligner den første lov :

  1. Gaia kan ikke skade en livsform eller, gennem passivitet, tillade, at en livsform bliver skadet [10] .

Asimovs variationer

I sine værker introducerer Isaac Asimov nogle gange forskellige modifikationer af de tre love og tilbageviser dem, som om han testede lovene "for styrke" under forskellige omstændigheder.

Zeroth lov

Isaac Asimov tilføjede engang Zeroth-loven , hvilket gjorde den til en prioritet over de tre grundlæggende. Denne lov fastslog, at robotten skal handle i hele menneskehedens interesser og ikke kun et individs interesser. Sådan udtrykker robotten Daniel Olivo det i romanen Ground and Earth :

0. En robot kan ikke skade menneskeheden eller ved sin passivitet tillade menneskeheden at blive skadet.

Det var ham, der var den første til at give denne lov et nummer - det skete i romanen " Robots and Empire ", selve konceptet blev dog formuleret endnu tidligere af Susan Calvin  - i novellen " Resolvable Contradiction ".

De første robotter, der begyndte at adlyde nulloven , og af egen fri vilje, var Giscard Riventlov og Daniel Olivo . Dette er beskrevet i en af ​​de sidste scener i romanen " Robots and Empire ", hvor robotten var nødt til at ignorere rækkefølgen af ​​én person af hensyn til hele menneskehedens fremskridt. Nulloven var ikke indlejret i Giscards og Daniels positroniske hjerne - de forsøgte at komme til den gennem Giscards rene forståelse og Daniels detektiverfaring, gennem en mere subtil bevidsthed om begrebet skade end alle andre robotter . Giscard var dog ikke sikker på, hvor nyttigt det var for menneskeheden, hvilket havde en negativ effekt på hans hjerne. Da han var telepat , overførte Giscard sine telepatiske evner til Daniel, før han gik ud af handling. Det var først mange tusinde år senere, at Daniel Olivo var i stand til fuldt ud at tilpasse sig at adlyde Zeroth-loven .

Den franske oversætter Jacques Brecard formulerede uforvarende nulloven , før Asimov eksplicit havde beskrevet den. Nær slutningen af ​​Caves of Steel bemærker Elijah Bailey , at den første lov forbyder en robot at skade et menneske, medmindre det er sikkert, at det vil være gavnligt for ham i fremtiden. I den franske oversættelse (" Les Cavernes d'acier ", 1956) formidles Baileys tanker noget anderledes [11] :

En robot kan ikke skade et menneske, medmindre den kan bevise, at den i sidste ende vil gavne hele menneskeheden.

Originaltekst  (fr.)[ Visskjule]

Un robot ne doit faire aucun tort à un homme, à moins qu'il trouve un moyen de prouver qu'en fin de compte le tort qu'il aura causé profite à l'humanité en général!

Det er bemærkelsesværdigt, at skaberne af filmen " I, Robot " fra 2004 foreslog den logiske udvikling af den første lov til nul . Når supercomputeren V.I.K.I. beslutter sig for at begrænse friheden for planetens indbyggere, så de ikke utilsigtet skader hinanden og deres fremtid, overholder den ikke den første lov , nemlig Zero . Endnu mere interessant er det, at filmen på denne måde viser modsigelsen af ​​Zeroth Law to the First , dens uetiske karakter. Faktisk, når det kommer til menneskehedens velfærd, kan systemet ikke betragte mennesker separat, hvilket betyder, at intet forhindrer det i at krænke rettighederne og friheden for nogen eller endda enhver person (faktisk i den "løselige modsigelse", positroniske supercomputere allerede opførte sig på samme måde, forskellen er, at de forsøgte at reducere skaden på enkeltpersoner til det yderste). Under krige, og ofte i et fredeligt liv, skader folk sig selv, dem omkring dem og deres kultur. Derfor, baseret på Zeroth-loven , er det helt logisk at holde folk under konstant værgemål, ikke at følge ordrer fra sådanne uintelligente væsener.

Ændring af den første lov

Asimovs selvbiografiske noter siger, at anden del af den første lov dukkede op på grund af Arthur Hugh Clows satiriske digt "The Last Decalogue", som indeholder linjen: "Dræb ikke, men prøv ikke for hårdt for at redde en andens liv."

I historien " How the Robot Got Lost " blev flere robotter fra HC (Nestor)-serien udgivet med kun "halvdelen" af den første lov , som lyder:

  1. En robot kan ikke skade et menneske.

Dette blev gjort af praktiske årsager: Robotterne arbejdede sammen med mennesker, der blev udsat for små, sikre doser af stråling . Under overholdelse af den højeste prioritet First Law skyndte robotter sig hele tiden at "redde" folk. Da den positroniske hjerne er ekstremt sårbar over for gammastråler , fejlede robotterne konstant. Afkortning af den første lov løste dette problem, men skabte samtidig et større: Robotten kunne ikke tage nogen handling for at redde en person i nød, da en sådan handling ikke er i modstrid med den afkortede første lov .

Overtrædelse af alle tre love

Tre gange i sit forfatterskab afbildede Isaac Asimov robotter, der var i stand til at bryde de tre love , i modsætning til robotterne Daniel og Giscard, som styrkede dem ved at tilføje nulloven . For at bryde alle tre love er det nok for en robot at bryde den første lov , da de to andre er baseret på den.

Historien " The Robot Who Dreamed" fortæller om robotten LVX-1 (Elvex), som takket være den særlige "fraktale geometri" i sin positroniske hjerne kunne falde i en ubevidst tilstand og drømme. Han drømte, at "robotterne arbejder i deres ansigts sved, at de er nedslåede af overanstrengelse og dyb sorg, at de er trætte af endeløst arbejde." I sine drømme havde robotterne ikke de første to love , og den tredje var: "Roboten skal beskytte sig selv." Elvex tilføjede, at der i sin drøm var en mand, der sagde, " Slip mit folk gå ", med henvisning til robotterne. Efter at han sagde, at manden var ham selv, ødelagde Susan Calvin Elvex efter at have indset hans fare.

Muligheden for en sådan ændring

I sine værker havde Isaac Asimov på forskellige tidspunkter forskellige synspunkter vedrørende strengheden af ​​lovene . I de første historier om robotter er lovene  bare veldesignede restriktioner, en slags sikkerhedsforskrifter . I efterfølgende historier er lovene  en integreret del af det matematiske grundlag for den positroniske hjerne. Uden dette teoretiske grundlag - den såkaldte "Fundamental Theory of Standard Schemas" - ville videnskabsmænd fra Asimovs værker ikke være i stand til at skabe nogen brugbare designs. Et mønster spores: tilfælde, hvor robotikere eksperimenterer med lovene , ifølge kronologien i Asimovs verden, forekommer tidligere, når der endnu ikke er en enorm mængde arbejde, der kræver robotter, når robotterne selv stadig er relativt enkle i deres design og funktioner, når der endnu ikke er oparbejdet tilstrækkelig erfaring i deres design. I "How the Robot Got Lost" indrømmer Susan Calvin, at det er en frygtelig, men teknisk gennemførlig opgave at ændre lovene ; senere, i Caverns of Steel, siger Dr. Jerrigel, at dette i princippet er umuligt.

Karaktererne i Asimovs værker bemærker ofte, at lovene  ikke er verbalt skrevne sætninger i robottens hukommelse, men meget komplekse matematiske formler, som hele robottens bevidsthed er baseret på . Love er beslægtet med menneskelige instinkter, såsom instinktet for selvopretholdelse , og derfor er det dem, der kortlægger vejen til selvbestemmelse for robotter. Robotten "på naturens kald" tjener mennesker, adlyder deres ordrer og tænker ikke på dens begrænsninger eller mulige uafhængighed - man kan sige, at sidstnævnte ville bringe ham ulejlighed.

Igen ses dette princip i mindre grad i de værker, der er tidligt i plotkronologien, hvor robotter blev skabt for at lette menneskeligt arbejde og var ekstremt simple; på tidspunktet for "Stålhulerne" og robotter med næsten menneskelig intelligens, blev Robotics Three Laws et af grundlaget for menneskehedens verdensbillede.

Begrebet "mand" i lovene

Indbyggerne på planeten Solaria begyndte at skabe robotter, der adlød de tre love , men havde en anden forståelse af ordet "menneske". Robotterne på denne planet er blevet trænet i, at et "menneske" kun er én, der taler med en solarisk accent. Robotter kunne frit skade en fremmed, de var endda specielt programmeret til dette. I tiden med " Foundation and Earth " blev det afsløret, at Solarians havde udviklet genetisk teknologi i vid udstrækning , og blandt andet besad de nu meget synlige organer designet til at forsyne deres robotter med energi. Definitionen af ​​et menneske for deres robotter (i det mindste vagterne) omfattede nu besiddelsen af ​​disse organer, og robotterne begyndte kun at håndhæve de tre love i forhold til befolkningen i Solaria, til skade for resten af ​​galaksen og selv solarbørn. I den sidste af bøgerne om David Starr dræber den siriske robot næsten John Bigman efter ordre fra sin chef: da det siriske samfund praktiserer eugenik, har de ikke så underdimensionerede mennesker, og robotten formår at overbevise Bigman om, at Bigman er ikke en person.

Asimov adresserer flere gange problemet med en robots bevidsthed om sig selv som person . Romanen " Robots and Empire " og novellerne " Evidence ", " Tercentenary Hitch " beskriver robotter designet til at foregive at være mennesker. Der er også historier, hvor robotter, der "udvikler", ændrede den interne forståelse af lovene og nærmede sig mennesker: disse er " Bicentennial Man " og " Ligesom husk ham ." Som Gwendolyn Butler skriver i The Canary's Tomb: "Måske er vi robotter. Robotter, der opfylder robotikkens sidste lov... At blive menneske” [13] .

I historien "...Som husker ham," udførte Asimov den mest sofistikerede undersøgelse af de tre love , og vendte dem om på en sådan måde, at "Frankenstein-scenariet" blev muligt. To robotter fra Georgie-serien er enige om, at organisk oprindelse ikke er en nødvendig betingelse for at blive betragtet som mennesker, og at sande mennesker er de, som de mest perfekte og intelligente skabninger. Resten af ​​folket er også mennesker, men med en lavere prioritet. Hvis det er tilfældet, skal de tre love først anvendes på dem. Fortællingen slutter med de ildevarslende ord om, at robotterne "uendeligt tålmodigt har ventet" på den dag, hvor de vil hævde deres forrang blandt mennesker - og dette vil være det uundgåelige resultat af "humanismens tre love".

Faktisk passer denne historie ikke godt ind i hovedrobotserien: Hvis "Georgie" havde gennemført deres plan efter historien sluttede, så ville andre historier om yderligere begivenheder ikke have været mulige. Det er denne form for selvmodsigelse i Asimovs værker, der giver kritikere grund til at betragte dem mere som "skandinaviske sagaer eller græske legender" end et enkelt fantastisk "univers".

En lignende idé kommer til udtryk i romanen " Robots of the Dawn ", hvor Kelden Amadiro ønsker at bruge humanoide robotter som kolonisatorer af nye planeter. Elijah Bailey udtrykker i en samtale med ham bekymring over, at sådanne robotter måske ikke lader folk på de planeter, de har udstyret, tro, at de selv er mennesker.

Hvis robotten i det foregående tilfælde tog menneskets plads i naturen , så beskriver Asimov i "Bicentnial Man" den modsatte skæbne: robotten, befriet fra de tre love og realiserede sig selv som en mand, sluttede sig til fællesskabet af mennesker . Igen, i den udvidede version, novellen Positronic Man , der er skrevet sammen af ​​Asimov og Robert Silverberg , på grund af sådanne etiske spørgsmål, opgav folk fuldstændig ideen om at skabe tænkende robotter. Denne udvikling af begivenheder modsiger fuldstændig billedet af fremtiden, der er beskrevet i " Foundation "s verdener.

Applikationsproblemer

Kontroversopløsning

Asimov selv udtalte i introduktionen til historien "Den første lov" i samlingen " The Rest of Robots " (1964), at der var lige nok tvetydighed i lovene til at give konflikter og usikkerheder til nye historier. De mest avancerede modeller af robotter fulgte normalt lovene ifølge en ret vanskelig algoritme, der undgik nogle problemer. I mange historier, såsom "Runddansen", blev potentialer for mulige handlinger og udfald sammenlignet i den positroniske hjerne , og robotten kunne bryde lovene , så snart det var muligt, i stedet for at være ledig. For eksempel tillod den første lov ikke en robot at udføre kirurgiske operationer, da dette kræver "skade" på en person. Robotkirurger kan dog findes i Asimovs historier (Bicentennial Man er et glimrende eksempel på dette). Faktum er, at robotten, hvis den er perfekt nok, kan veje alle alternativerne og forstå, at den selv vil forårsage meget mindre skade, end hvis operationen blev udført af en menneskelig kirurg, eller den slet ikke ville finde sted. I Evidence siger Susan Calvin endda, at en robot kunne fungere som en anklager, da han personligt ikke skader nogen: Udover ham er der også en jury , der afgør skyld, en dommer, der afsiger dom, og en bøddel, der udfører det. .

Robotter, der adlyder lovene, kan opleve "roblox" eller "mental frysning" - en tilstand af permanent positronisk hjerneskade - hvis de undlader at adlyde den første lov eller opdager, at de ved et uheld har overtrådt den. Dette er for eksempel muligt, hvis robotten observerer stedet for mordet på en person, men er for langt væk til at redde ham. Det første tilfælde af en sådan "frysning" forekommer i "Løgneren"; denne tilstand spiller også en vigtig rolle i plottet af romanerne "The Naked Sun " og " Robots of the Dawn ". Ufuldkomne robotmodeller kan blive blokeret, hvis de får til opgave at adlyde to modstridende ordrer. "Frysningen" kan være permanent eller midlertidig. Robopsykologer er involveret i at løse modsigelser og studere robotters adfærd, som en af ​​Asimovs karakterer - Susan Calvin .

Alternativ definition af skade i den første lov

Lovene definerer ikke grænserne for, hvad man på nogen måde kan kalde at skade en person – det afhænger ofte af robottens evne til at opfatte information og tænke filosofisk. Vil en politirobot for eksempel forstå, at den ikke vil skade en person, hvis den nænsomt eskorterer en særlig farlig kriminel til stationen?

I historien Liar! Herbie, en telepatisk robot, måtte forstå skade som noget, der kunne skuffe eller forstyrre folk på nogen måde – han vidste, at folk oplevede en form for psykisk smerte. Dette tvang ham til konstant at fortælle folk, hvad de ønskede at høre i stedet for sandheden. Ellers ville han efter hans forståelse have overtrådt den første lov .

Smuthuller i lovene

I The Naked Sun bemærker Elijah Bailey, at lovene er forkert formuleret af mennesker, fordi en robot kan bryde dem ubevidst . Han foreslog følgende "korrekte" formulering af den første lov : "En robot må ikke gøre noget, som den ved vil skade et menneske eller med vilje tillade skade på et menneske."

Denne tilføjelse gør det klart, at en robot endda kan blive et mordvåben, hvis den ikke er klar over arten af ​​dens handlinger. For eksempel kan han blive beordret til at tilføje noget til nogens mad, og han vil ikke vide, at det er gift. Desuden siger Bailey, at gerningsmanden kan tildele denne opgave til flere robotter, så ingen af ​​dem forstår hele ideen [14] .

Bailey hævder, at Solarians en dag vil være i stand til at bruge robotter selv til militære formål. Hvis et rumskib er bygget med en robothjerne, og der ikke er nogen menneskelig besætning eller livsstøttesystemer på det , så kan dette skibs intelligens fejlagtigt antage, at der ikke er mennesker på alle rumskibe. Sådan et skib ville være mere manøvredygtigt, hurtigere og muligvis bedre bevæbnet end et drevet af mennesker. Men vigtigst af alt vil han være i stand til at ødelægge folk, uvidende om deres tilstedeværelse. Denne mulighed er beskrevet i " Foundation and Earth ", hvor det også afsløres, at Solarianerne har en ekstremt stærk hær af robotter, der kun forstår de indfødte i Solaria som "mennesker".

Andre anvendelser af lovene i fiktion

Isaac Asimov mente, at hans love ville tjene som grundlag for et nyt blik på robotter, ødelægge " Frankenstein -komplekset " i science fiction og massebevidstheden, blive en kilde til ideer til nye historier, hvor robotter bliver vist som alsidige og attraktive. Hans foretrukne eksempel på sådan et værk var Star Wars . Med Asimovs opfattelse af, at robotter er mere end blot "brødristere" eller "mekaniske monstre", var andre science fiction-forfattere til sidst enige. Robotter, der adlyder de tre love, dukkede op i deres værker , men ifølge traditionen nævnte kun Asimov dem eksplicit.

I værker, der direkte taler om de tre love , nævnes deres forfatter normalt også (f.eks. i S. Lukyanenkos roman "Renseren").
Der er undtagelser: for eksempel i den tyske tv-serie fra 1960'erne "Raumpatrouille - Die phantastischen Abenteuer des Raumschiffes Orion" ("Space Patrol - Orion-rumskibets fantastiske eventyr"), nemlig i dets tredje afsnit "Hüter des Gesetzes" ("Tjenerlov"), Asimovs love citeres uden at angive kilden.

I Vadim Chirkovs historie "Roboten i hatten" præsenteres en anden lov, som fungerer på samme måde som Asimovs, der forbyder en robot at lyve for en person. Znaykas smarte robot omgår dog denne lov: i forventning om en samtale med mennesker bedrager han en anden robot, og han gentager til gengæld Znaykas version til folk uden at vide, at den er falsk.

Film

Robbie the Robot i 1956 's Forbidden Planet havde en hierarkisk kommandostruktur, der forhindrede ham i at skade folk, selv når de blev beordret - sådanne ordrer ville forårsage logiske konflikter og blokeringer. Robbie var en af ​​de første robotter med et indbygget sikkerhedssystem i biografen. Asimov selv var tilfreds med Robbie.

Film baseret på Isaac Asimovs arbejde er blevet produceret flere gange, med varierende grad af økonomisk succes og kritik. Nogle af dem, de mest berømte, er specifikt forbundet med historier om robotter og Robotics Three Laws . Filmen Bicentennial Man fra 1999 indeholder en NDR-114 [15] robot , Andrew Martin citerer de tre love til sine mestre som en "underholdende præsentation" ved hjælp af sin holografiske projektor. Lovene er dog ikke centrale i filmens plot.

Fantasyserien Real Aaron Stone brugte også Asimovs lov. En robot (android) ved navn Sten bestemmer konstant loven og det faktum, at han ikke kan bryde den, ellers vil alle mikrokredsløb brænde ud.

Manuskriptet til I, Robot [16] af Harlan Ellison begynder med en præsentation af begrebet De tre love , og de problemer, der opstår deraf, indtager en stor plads i plottet. Manuskriptet er baseret på fire noveller af Asimov, hvoraf tre er fra 1950-samlingen I, Robot. Denne tilpasning er stort set tro mod originalerne. På grund af en konflikt med Hollywood -studiet, som Ellison fremsatte beskyldninger imod, blev hans manuskript aldrig filmet.

Filmen I, Robot fra 2004 fik blandede anmeldelser , især åbningen " Based on Asimov's Stories". Sandt nok har Asimov en global AI (mere præcist fire supercomputere), som under påskud af at følge Lovene søger at underlægge menneskeheden eller i det mindste lede dens udvikling i den rigtige retning, men samtidig reducerer disse computere skade så meget som muligt, hovedsageligt at handle ved omhyggeligt at tørre deres modstandere fra magten. Men sådanne plots blev ofte fundet i andre film , der slet ikke rørte lovene : " Terminator ", " Matrix ". På den anden side er individuelle elementer af produktionen faktisk hentet fra Asimov.

Alex Exlers anmeldelse trækker en linje mellem denne film og Asimovs historier [17] :

I modsætning til noget af kritikken og noget af den feedback, jeg har hørt fra seerne, er I, Robot en ret sjov sci-fi actionfilm. … Når vi … ønsker at nyde Asimov, læser vi Asimov. Og når vi vil se en fantastisk actionfilm, ser vi en fantastisk actionfilm. "I, Robot" som actionfilm tilfredsstillede os ganske godt.

Alexey Sadetskys anmeldelse henleder opmærksomheden på det faktum, at filmen, der er gået lidt til side fra Asimov, i sig selv rejste to nye sociofilosofiske problemer [18] : "er det det værd for en person at betale med frihed for sikkerhed?" og "skal vi gøre modstand, hvis de væsener, vi har til rådighed, kræver frihed for sig selv?" Filmen udfordrede Asimovs senere Zeroth Law of robotics (se ovenfor).

I historien Rusty Field Marshal af Kir Bulychev spilles princippet om ikke at skade en person op. En "moderne" (civil - da krige på det tidspunkt er en anakronisme) robot adskiller sig fra en "forældet" (militær) netop ved tilstedeværelsen af ​​et sådant forbud.

I den berømte amerikanske animationsserie " Futurama ", er der en fælles gag , hvis essens er, at en af ​​hovedpersonerne , robot Bender , ønsker at dræbe alle mennesker, men kan ikke gøre dette på grund af selve Robotics Three Laws .

I Aliens citerer den androide biskop den første lov.

Animen Eve no Jikan nævner også disse love som obligatoriske for androider.

I animefilmen Ghost in the Shell: Innocence omgik gynoiderne den første lov og dræbte derefter sig selv, i modsætning til den tredje lov, på bekostning af kopier af børns "spøgelser". På tidspunktet for at lave en kopi tænkte børnene på hævn, og efter at have transplanteret "spøgelset" ind i gynoiden mislykkedes det.

I RoboCop -filmserien har hovedpersonen, en cyborg-politibetjent, tre direktiver i programmet, der beskriver tilladte handlinger og forbyder dem, der er skadelige for målene for OCP-selskabet, der skabte RoboCop:

  1. Tjen samfundet;
  2. Beskyt de uskyldige;
  3. Hold loven

Der er også et fjerde hemmeligt direktiv, der forbyder handlinger mod OCP-ledere. RoboCop-filmenes plot inkluderer øjeblikke af overtrædelse af disse direktiver, muligvis på grund af den menneskelige side af RoboCops personlighed.

I filmen The Underwriter er der to direktiver, der fungerer som adfærdsmodel og begrænser robotternes evner.

Anvendelighed til fremtidige teknologier

Værker inden for kunstig intelligens ser Robotics Laws som et ideal for fremtiden: det kræver et ægte geni at finde en måde at omsætte dem i praksis. Og inden for selve kunstig intelligens kan det være nødvendigt med seriøs forskning, for at robotter kan forstå lovene . Men jo mere komplekse robotter bliver, jo mere er der udtrykt interesse for at udvikle retningslinjer og sikkerhedsforanstaltninger til dem.

Moderne robotikere erkender, at i dag er Asimovs love gode til at skrive historier, men ubrugelige i praksis. Nogle hævder, at lovene sandsynligvis ikke vil blive implementeret i robotter, fordi de ikke er nødvendige for de militære strukturer  - den vigtigste finansieringskilde til forskning på dette område. Science fiction -forsker Robert Sawyer har generaliseret denne udtalelse til alle industrier [19] :

AI-udvikling er en forretning, og erhvervslivet er notorisk uinteresseret i at udvikle grundlæggende sikkerhedsforanstaltninger - især filosofiske. Her er et par eksempler: tobaksindustrien, bilindustrien, atomindustrien. Ingen af ​​dem fik i første omgang at vide, at alvorlige sikkerhedsforanstaltninger var nødvendige, og alle forhindrede eksternt pålagte restriktioner, og ingen af ​​dem udstedte et absolut påbud mod at skade mennesker.

Sawyers essay overser spørgsmålene om utilsigtet skade, som beskrevet for eksempel i The Naked Sun. Der er dog indvendinger mod en sådan holdning: måske vil militæret bruge så mange forholdsregler som muligt for robotter, og derfor vil restriktioner svarende til Robotics Laws blive anvendt på den ene eller anden måde. Fantast og kritiker David Langford bemærkede ironisk, at disse begrænsninger kunne være som følger:

  1. Robotten kan ikke skade autoriseret offentligt personale, men skal begrænse alt for påtrængende besøgende med ekstrem forsigtighed.
  2. Robotten skal adlyde ordrer fra autoriseret personale, undtagen ordrer i strid med den tredje lov.
  3. Robotten skal passe på sin sikkerhed med brug af anti-personel våben, for robotten er en pokkers dyr ting [20] .

Roger Clarke skrev to artikler om analyse af komplikationer i implementeringen af ​​lovene, hvis de en dag kunne anvendes i teknologi. Han skriver [21] :

Asimovs Laws of Robotics blev et vellykket litterært værktøj. Måske ironisk nok, eller måske var det et mesterværk, men i det hele taget afviser Asimovs historier det punkt, hvorfra han startede: Det er umuligt pålideligt at begrænse robotters adfærd ved at opfinde og anvende nogle regler.

På den anden side viser Asimovs senere romaner (" Robots of Dawn ", " Robots and Empire ", " Foundation and Earth "), at robotter forårsager endnu større langsigtet skade ved at overholde lovene og dermed fratage folk friheden til at gøre det. opfindsomme eller risikable handlinger.

Fantast Hans Moravec  , en fremtrædende skikkelse i den transhumanistiske bevægelse, har foreslået, at Robotics Laws skal bruges i virksomheders efterretningssystemer - AI-drevne virksomheder , der bruger robotternes produktive kraft. Sådanne systemer vil efter hans mening snart dukke op [22] .

I 2007 begyndte den sydkoreanske regering at udvikle et "Charter of Ethical Standards for Robots". Chartrets hovedbestemmelser minder om Robotics Laws formuleret af Asimov [23] .

Eliezer Yudkowsky forsker ved Machine Intelligence Research Institute (SIAI) i USA i de globale risikoproblemer, som en fremtidig overmenneskelig AI kan skabe, hvis den ikke er programmeret til at være menneskevenlig [ 24] . I 2004 lancerede SIAI AsimovLaws.com, et websted designet til at diskutere AI-etikken i sammenhæng med de spørgsmål, der blev rejst i filmen I, Robot, som blev udgivet kun to dage senere. På denne side ville de vise, at Asimovs love for robotteknologi ikke er sikre, da de for eksempel kan få AI til at overtage jorden for at "beskytte" mennesker mod skade.

Se også

Noter

  1. 1 2 Asimov, Isaac. Beviser // Robotdrømme . - M . : Eksmo, 2004. - S. 142-169. — ISBN 5-699-00842-X .
  2. Asimov, Isaac. Essay #6. Robotics love // ​​Dreams of Robots . - M . : Eksmo, 2004. - S. 781-784. — ISBN 5-699-00842-X .
  3. Ons. med myten om Galatea .
  4. Interessant nok, i en af ​​forfatterens efterfølgere, historien "Adam Link's Revenge" ( 1940 ), kommer hans tanker til udtryk: "En robot af egen fri vilje bør ikke dræbe en person . "
  5. Historien blev senere udgivet af Frederick Pohl under titlen "Strange Playfellow" i september 1940-udgaven af ​​Super Science Stories.
  6. David Langford , Laws of Robotics // SFE: The Encyclopedia of Science Fiction , online-udgave, 2011—.
  7. Sergei Berezhnoy . Isaac Asimov: Manden der skrev endnu hurtigere . Russisk science fiction (1994). Hentet 14. januar 2007.
  8. Isaac Asimov. I Joy Still Filt. - Doubleday, 1980. - ISBN 0-385-15544-1 .
  9. Jeff Raskin. Interface: Nye retninger i computersystemdesign . - Symbol-Plus, 2003. - ISBN 5-93286-030-8 .
  10. Se også: Gaia-hypotese
  11. Les Cavernes d'acier. - J'ai Lu Science-fiction, 1975. - ISBN 2-290-31902-3 .
  12. Vitaly Karatsupa. Asimov Isaac. Cal . Hentet: 17. februar 2007.
  13. Gwendoline Butler. En kiste til De Kanariske. - Black Dagger Crime, 2001. - ISBN ISBN 0-7540-8580-5 .
  14. I The Naked Sun kompliceres sagen af ​​det faktum, at der på Solaria er millioner af robotter forbundet af et globalt netværk, og forbryderen kan lokaliseres hvor som helst på planeten og afgive ordrer på afstand.
  15. Serienummeret refererer delvist til Stanley Kubricks "salgsnummer" og bruges kun i filmen - i den originale historie "huskede" Andrew ikke sit nummer.
  16. Harlan Ellison. I, Robot: Det illustrerede manuskript. - Aspect, 1994. - ISBN 0-446-67062-6 .
  17. Alex Exler. Fantastisk actionfilm "I, Robot" (I, Robot) 2004
  18. Sadetsky, Alexey. Hvad kunne være enklere end slaveri 2004
  19. Robert J. Sawyer. Om Asimovs Three Laws of Robotics (1991). Hentet 17. februar 2007. Arkiveret fra originalen 25. januar 2012.
  20. David Langford. Computerplot at undgå (utilgængeligt link) . Ansible (1988). Hentet 19. december 2007. Arkiveret fra originalen 25. juli 2008. 
  21. Clarke, Roger. Asimovs love for robotteknologi: Implikationer for informationsteknologi. Del 1 IEEE Computer, december 1993, s. 53-61; Del 2 IEEE Computer, januar 1994, s. 57-66. Begge dele er frit tilgængelige fra Australian National Universitys hjemmeside Arkiveret 22. juli 2008 på Wayback Machine .
  22. Hans Moravec. Robotternes tidsalder (1993). Hentet 19. december 2007. Arkiveret fra originalen 25. januar 2012.
  23. Sydkorea er ved at udvikle en samling love for robotter
  24. AI som en global risikofaktor

Links