Kinesisk værelse

Det kinesiske rum er et  tankeeksperiment i sindets filosofi og kunstig intelligens , først udgivet af John Searle i 1980. Formålet med eksperimentet er at tilbagevise påstanden om, at en digital maskine, udstyret med " kunstig intelligens " ved at programmere den på en bestemt måde, er i stand til at besidde bevidsthed i samme forstand, som en person besidder den. Målet er med andre ord at tilbagevise hypotesen om den såkaldte "stærke" kunstige intelligens og kritisere Turing-testen .

Dette filosofiske argument er stadig et af de mest omdiskuterede inden for kognitiv videnskab . Nogle forskere definerer endda kognitiv videnskab som "et forskningsprojekt for at tilbagevise Searles argument." Alene fra 2010 til 2014 blev mere end 750 artikler publiceret i videnskabelige tidsskrifter, der diskuterede Searles tankeeksperiment [1] .

Generel information

Eksperimentet blev publiceret i 1980 i artiklen "Minds, Brains, and Programs" i The Behavioral and Brain Sciences .". Allerede før offentliggørelsen havde eksperimentet udløst kontrovers, så artiklen indeholdt både Searles oprindelige argument og indvendinger fra 27 kognitive videnskabsmænd , såvel som Searles svar på disse indvendinger. Derudover er eksperimentet beskrevet i bogen Minds, Brains and Science fra 1984 og i januar 1990- udgaven af ​​Scientific American [1] .

Beskrivelse af eksperimentet

Forestil dig et isoleret rum med John Searle, som ikke kender et eneste kinesisk tegn . Han har dog skrevet i bogen nøjagtige instruktioner til at manipulere tegn i formen "Tag sådan og sådan en karakter fra kurv nummer et og læg den ved siden af ​​sådan og sådan karakter fra kurv nummer to", men disse instruktioner indeholder ikke oplysninger om betydningen af ​​disse karakterer, og Searl følger blot disse instruktioner som en computer .

En observatør, der kender kinesiske tegn, sender karakterer med spørgsmål gennem spalten ind i rummet, og forventer at modtage et bevidst svar ved udgangen. Instruktionen er kompileret på en sådan måde, at efter at have anvendt alle trinene på spørgsmålets hieroglyffer, konverteres de til svarets hieroglyffer. Faktisk er en instruktion en slags computeralgoritme, og Searle udfører algoritmen på samme måde som en computer ville udføre den [2] .

I en sådan situation kan observatøren sende ethvert meningsfuldt spørgsmål ind i rummet (f.eks. "Hvilken farve kan du bedst lide?") Og modtage et meningsfuldt svar (f.eks. "Blå"), som når han taler med en person, der er flydende i kinesisk skrift. Samtidig har Searl ikke selv nogen viden om hieroglyffer og kan ikke lære at bruge dem, da han ikke kan finde ud af betydningen af ​​​​en enkelt karakter. Searle forstår ikke det oprindelige spørgsmål eller det svar, han selv skrev. Iagttageren kan til gengæld være sikker på, at der er en person i rummet, som kender og forstår hieroglyffer [2] .

Argument

Searle konkluderer således, at selvom et sådant system kan bestå Turing-testen, er der ingen forståelse af sproget inde i systemet, hvilket betyder, at Turing-testen ikke er en tilstrækkelig test af mentale evner. Searles argumenter er rettet mod at kritisere positionen af ​​den såkaldt "stærke" kunstige intelligens, ifølge hvilken computere med det passende program faktisk kan forstå naturligt sprog, såvel som har andre mentale evner, der er iboende i mennesker. Den svage kunstige intelligens-hypotese siger på den anden side kun, at computere er i stand til at efterligne menneskelige mentale evner, så Searle er ikke interesseret i det.

Formelt kan argumentet fremføres som følger:

  1. Hvis den "stærke" AI-hypotese er korrekt, så er der et program til kinesisk skrift, som, når det køres på et computersystem, vil forstå kinesisk skrift.
  2. Jeg kan køre et kinesisk scriptprogram uden at forstå kinesisk script.
  3. Derfor er den "stærke" AI-hypotese forkert.

Det andet punkt underbygges af tankeeksperimentet om det "kinesiske rum". Konklusionen tyder på, at det at køre et sådant program ikke fører til forståelse af sproget. Searles mere generelle konklusion er, at enhver manipulation af syntaktiske konstruktioner ikke kan føre til forståelse [1] .

Baggrund

Der er 3 vigtige antecedenter til dette filosofiske argument:

Leibniz Mølle

Leibniz-møllen er et tankeeksperiment beskrevet af Gottfried Leibniz i Monadology . Leibniz foreslår at forestille sig en maskine på størrelse med en mølle, der simulerer følelser, tanker og opfattelser. Og hvis du går ind i en sådan maskine, så vil ingen af ​​de bevægelige dele, der sikrer dens drift, ikke være bevidsthed eller en forklaring på opfattelsen. Så Leibniz forsøgte at vise, at fysiske tilstande alene ikke er nok til bevidsthedens funktion [1] .

Turings papirmaskine

" Turing Paper Machine " er en maskinalgoritme til at spille skak, opfundet af Alan Turing i 1951 [3] , hvor et menneske fungerede som den udførende maskine. I dette tilfælde behøvede personen ikke at vide, hvordan man spiller skak, men behøvede blot at udføre algoritmen baseret på inputdata om modstanderens træk (for eksempel "når modstanderen flytter N, flyt dronningen til B7") . Turing mente, at computere ville være i stand til at føre en samtale på et menneskeligt sprog, og til dette udviklede han det, der nu kaldes Turing-testen [1] .

Kinesisk nation

Den "kinesiske nation" er et tankeeksperiment foreslået af Ned Block i 1978 for at tilbagevise funktionalisme . Blocks eksperiment ligner det "kinesiske rum", men Block foreslår at bruge mange kinesere, som hver især ville efterligne en kunstig hjerneneuron. I et sådant system ville hver kineser have et telefonnummer og en liste over andre kineseres numre. Afhængigt af hvornår en bestemt kinesers telefon ringede, ringede han til nogen på sin liste. I dette tilfælde er transmission af en besked via telefon ikke nødvendig, kun et opkald er nødvendigt (der er også en interaktion mellem neuroner). Så, hvis der skabes en funktionel tilstand i et sådant system, som dukker op under opfattelsen af ​​smerte, vil hele den "kinesiske nation" være i en tilstand af smerte, mens ingen af ​​kineserne vil føle denne smerte. Dette gælder alle mentale tilstande og følelser [1] .

Kritik

Tankeeksperimentet har vakt intens kritik i den akademiske verden. Der er blevet fremført forskellige argumenter mod Searles argument.

Argument om systemet

Nogle kritikere mener, at det ikke var en person i et rum, der bestod Turing-testen, men et system bestående af et rum, en bog med regler og en person. Searle, efter deres mening, afleder opmærksomheden fra dette faktum ved at skjule logiske fejl og koncentrere sig om en af ​​komponenterne i systemet, som i dette tilfælde udfører rent mekanisk arbejde [4] . Systemet med regelbogen, person og værelse er efter deres mening rimeligt og forstår det kinesiske sprog. Som et modargument foreslår Searle at tvinge en person til at huske de formelle svarregler for systemet. Ifølge filosoffen vil systemet, som nu kun vil bestå af en person, stadig ikke være i stand til at forstå det kinesiske sprog [1] [5] .

Robot

Nogle kritikere er enige om, at det at følge simple instruktioner på menneskeligt sprog ikke skaber forståelse, men det betyder ikke, at en sådan forståelse principielt ikke kan skabes. For eksempel mener disse kritikere, at effekten af ​​forståelse er opnåelig, hvis man skaber en robot med et selvlærende program, samt udstyrer den med sensorer til at opfatte verden. Sådan en robot kan efter deres mening interagere med verden, erkende den og være i stand til at lære som et barn og derfor begynde at forstå på samme måde som en person. Searle hævdede, at det samme argument gælder i tilfælde af en robot. Searle foreslog at sætte en person inde i robotten, og personen, afhængigt af hieroglyffer set gennem sensorerne, ville flytte robottens krop, og samtidig ville han ikke have nogen forståelse af, hvad der skete, men kun udføre syntaktisk manipulationer på symbolerne [1] [5] .

Kunstig hjerne

Fordi computeralgoritmer ikke fungerer som en rigtig hjerne, har nogle kritikere foreslået at genskabe det neurale netværk hos en person, der taler kinesisk. Så burde et sådant neuralt netværk forstå hieroglyffer på samme måde som en person. Til dette indvendte Searle, at selv simulering af hjernen ikke er nok til at skabe effekten af ​​forståelse, og foreslog et modificeret "kinesisk rum". I et sådant rum kan du i stedet for neuroner forestille dig vandrør, og en person inde i rummet skifter disse rør i henhold til instruktionerne, afhængigt af inputsignalerne. Samtidig optræder forståelsen af ​​hieroglyffer hverken hos en person eller i vandrør [1] [5] .

Andre hoveder

En anden indvending mod det "kinesiske værelse" er baseret på det faktum, at vi afgør, om en person kun forstår kinesiske tegn ved sin adfærd. Hvis en computer opfører sig på samme måde som en person, der taler kinesisk, så skal vi gå ud fra, at computeren også forstår det. Til sådanne kritikere svarede Searle, at pointen med argumentet ikke er, hvordan vi ved, at andre mennesker har mentale tilstande, men at de har mentale tilstande. Fra Searles synspunkt kan mentale tilstande ikke defineres som blot en beregningsproces og dens output, da den ikke kræver en mental tilstand [1] [5] .

Intuition

Mange forskere har kritiseret Searle for at stole på intuition i sine domme om begreberne "forståelse" og "bevidsthed". Mange ting er dog kontraintuitive selv i moderne videnskab, så man bør ikke stole på intuition i domme om kunstig intelligens. Som en illustration citerer S. Pinker et science fiction-essay, hvor rumvæsner med en anden form for bevidsthed ankommer til Jorden og ikke kan tro, at folk er i stand til at forstå noget, da der er kød inde i deres hoveder. Ifølge Pinker svigter intuition aliens på samme måde, som den svigter Searle [1] . D. Hofstadter udtalte også, at forfatteren simpelthen ikke accepterer ideen om muligheden for en stærk AI, idet han insisterede på, at den ville mangle en eller anden mirakuløs "hjernens årsagskraft", som Searle beskriver på forskellige måder og med huller i logikken [4] .

Generelle filosofiske spørgsmål

Syntaks og semantik

Searle mente, at det "kinesiske rum"-eksperiment også rejste et mere generelt filosofisk spørgsmål om forholdet mellem syntaks og semantik . Efter hans mening lykkedes det ikke med eksperimentet at opnå forståelse, fordi personen inde i rummet kun opererede med syntaktiske konstruktioner, mens bevidstheden har mentale tilstande, der indeholder mening. Det menneskelige sind, i modsætning til en computer, opfatter hieroglyffer ikke efter, hvordan de ser ud, men efter den betydning, de indeholder. Og selvom computere kan producere svar i naturligt sprog, tillægger de ikke ord nogen mening. Searle mente, at det var umuligt kun at opnå semantiske betydninger fra formelle symbolmanipulationer [1] .

Til gengæld indvendte kritikere, at det computersystem, der udfører programmet, også har bevidsthed. En algoritme skrevet i en bog og liggende på en bogreol kan faktisk ikke føre til forståelse. Men en algoritme, der kører på en kompleks computer, der både har en fysisk tilstand (spænding på transistoren) og en fortolkning af den fysiske tilstand (symboler) kan godt give en "effekt" af forståelse. Som et parodisk modeksempel til Searles argumenter giver D. Chalmers en opskrift på en kage, som er en rent syntaktisk konstruktion og ikke fører til "effekten" af sprødhed (analogt med Searles "forståelse"), men kager er sprøde, derfor er udførelsen af ​​opskriften ikke nok til at se en kage ud [1] .

Stanislav Lem hævdede, at arbejdet beskrevet i Searle-eksperimentet generelt altid er asemantisk formelt, derfor deltager "forståelse" ikke i selve teksterne, endsige "bevidsthed" (inklusive i "Searl-instruktions"-systemet), - således idé bragt til det absurde punkt, uden at have noget at gøre med AI's reelle problemer [6] [7] .

Sind og krop

Et andet emne i diskussionen var problemet med forholdet mellem krop og sind. Ifølge Searle er bevidsthed en af ​​hjernens eksklusive evner baseret på dens neurale processer. Det vil sige, at Searle er tilhænger af teorien om identitet i sindets filosofi [1] .

Tilhængere af funktionalisme mener tværtimod, at enhver mental tilstand (inklusive bevidsthed) er de funktioner, den udfører. Derfor kan bevidsthed implementeres på enhver platform, der giver dig mulighed for at udføre de samme funktioner [1] .

Moderne forskning inden for neurovidenskab tillader os endnu ikke at sige, om bevidsthed er en abstrakt nok enhed til at blive abstraheret fra neuroner, eller omvendt er stærkt forbundet med det biologiske grundlag for hjernens funktion. Dette spørgsmål forbliver åbent [1] .

Simulering og duplikering

I diskussionen understregede Searle også forskellen mellem simulering og duplikering. Der er jo ingen, der forveksler en computersimulering af vejret med rigtigt vejr. Så ifølge Searle bør man ikke forveksle en computersimulering af forståelse med reel forståelse. Imidlertid er der blevet fremsat krav til dette argument, at det er umuligt at skelne simulering fra duplikering. For eksempel er det ikke klart, om det kunstige hjerte er en simulering af et rigtigt hjerte eller en duplikat. Det samme gælder for proteser: går folk med proteser eller foregiver at gå? Derfor har Searles princip om adskillelse af simulering og duplikering alvorlige problemer [1] .

Indflydelse

På trods af lange diskussioner af forskere fra forskellige områder, mere end 30 år senere, er der stadig ingen konsensus om Searles argument. Nogle kalder dette tankeeksperiment det mest berømte modeksempel i historien, idet det gav funktionalismen et slag, som den aldrig kom sig over. Det er også blevet kaldt det klassiske argument for kognitiv videnskab [8] . Andre (for eksempel D. Hofstadter, D. Dennett , S. Lem ) anser dette argument for at være klart fejlagtigt og vildledende [9] .

Se også

Noter

  1. 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 Cole, David. The Chinese Room Argument  : [ eng. ] // Stanford Encyclopedia of Philosophy . – 2015.
  2. 1 2 Searle, John (januar 1990), Er hjernens sind et computerprogram? , Scientific American bind 262 (1): 26-31, PMID 2294583 
  3. Digitale computere anvendt til spil (kapitel 25: Skak), Faster than Thought , red. BV Bowden, Pitman, London (1953).
  4. 1 2 Refleksioner over Searles artikel Minds, Brains, and Programs // The Mind's I [= "Mind's Eye"]. - Bantam Books, 1981. - [oversat af M. Eskina. - Samara: Bahrakh-M, 2003]
  5. 1 2 3 4 Larry Hauser. Kinesisk rumargument  . Internet Encyclopedia of Philosophy . Hentet 12. november 2015. Arkiveret fra originalen 27. april 2016.
  6. Tajemnica chińskiego pokoju (The Secret of the Chinese Room) // PC Magazine Po Polsku. - 1995.
  7. Tajemnica chińskiego pokoju // Lem Stanisław. Tajemnica chińskiego pokoju [wybór]. - Kraków: Universitas, 1996. - 285 s. - [oversat af V. I. Yaznevich, 2004]
  8. Stevan Harnad. Minds, Machines og Searle 2: Hvad er rigtigt og forkert ved det kinesiske rum-argument  : [ eng. ] // Oxford University Press. – 2001.
  9. Daniel C. Dennett. Intuitionspumper og andre værktøjer til tænkning  : [ eng. ] . - Penguin UK: WW Norton & Company, 2014. - S. 320. - 512 s. — ISBN 0393348784 .

Litteratur

Links