Tilbøjelighed til at bekræfte sit synspunkt ( eng. confirmation bias ), eller confirmation bias - en persons tendens til at søge og fortolke sådan information eller give fortrinsret til sådan information, der er i overensstemmelse med hans synspunkt, tro eller hypotese [Komm. 1] [1] . En type kognitiv bias og bias i induktiv ræsonnement . Effekten er stærkere for følelsesmæssigt vigtige problemer og dybt rodfæstede overbevisninger. Folk har også en tendens til at fortolke tvetydige beviser på en måde, der understøtter deres synspunkt.
Biased søgning, fortolkning og memorering forklarer sådanne effekter som effekten af polarisering af synspunkter (når uenigheder bliver endnu stærkere, på trods af at parterne blev præsenteret for de samme beviser), effekten af persevering of conviction ( eng. belief perseverance , når udtalelsen forbliver selv dengang, når beviserne, der understøtter den, blev tilbagevist), forrangseffekten ( eng. forrangseffekt , tendensen til at give fortrinsret til information modtaget først), illusorisk korrelation (tendensen til at se sammenhængen mellem to fænomener eller situationer, hvor der er ingen).
En række eksperimenter udført i 1960'erne viste, at folk har en tendens til at bekræfte deres tro. Efterfølgende forskning har givet anledning til at gense disse resultater og antyde, at folk har en tendens til at teste deres hypoteser på en forudindtaget måde, idet de kun fokuserer på én mulighed og ignorerer alternativer. I nogle situationer kan denne tendens skævvride folks konklusioner. Forklaringer på de observerede kognitive forvrængninger kan være effekten af ønsketænkning og begrænset menneskelig evne til at bearbejde information. En anden forklaring er, at folk er mere tilbøjelige til at vurdere de mulige omkostninger ved at indrømme, at de tager fejl, i stedet for at se situationen på en neutral, videnskabelig måde.
Bekræftelsesbias påvirker en persons overtillid til deres egne vurderinger og kan opretholde og forstærke overbevisninger, når beviser for det modsatte opnås. Disse kognitive forvrængninger afspejles i dårlige beslutninger taget i politiske og organisatoriske sammenhænge [2] [Komm. 2] .
Bekræftelsestilbøjelighed - effekter af informationsbehandling, der adskiller sig fra effekten af adfærdsbekræftelse; de kaldes også " selvopfyldende profetier ", når adfærd påvirket af forventninger fører til, at disse forventninger er berettigede [3] . Nogle psykologer bruger udtrykket "bekræftelsesbias" om tendensen til at undgå at afvise overbevisninger, når de leder efter, fortolker eller genkalder beviser. Andre psykologer begrænser brugen af dette udtryk til den selektive søgning efter information [4] [Komm. 3] .
Eksperimenter har gentagne gange vist, at folk har en tendens til at vurdere den ene eller den anden hypotese ensidigt, på udkig efter beviser, der stemmer overens med deres nuværende hypotese [6] [7] . I stedet for at søge med alle tilgængelige beviser, formulerer de spørgsmålet på en sådan måde, at de får et bekræftende svar, der understøtter deres hypotese [8] . De leder efter de konsekvenser, som de ville forvente, hvis deres hypotese var korrekte, i stedet for dem, der ville opstå, hvis den var fejlagtig [8] . For eksempel, når de bruger ja/nej-spørgsmål til at finde ud af det tal, som en person tror er tre, spørger de måske: "Er det et ulige tal?" Folk foretrækker denne type spørgsmål, kaldet en "positiv test", selvom en negativ test, såsom "Er dette et lige tal?", ville give nøjagtig den samme information [9] . Det betyder dog ikke, at folk leder efter "tests", der garanterer et positivt svar. I undersøgelser, hvor deltagerne kunne vælge enten sådanne "pseudo-tests" eller rigtige diagnostiske tests, foretrak de de diagnostiske [10] [11] .
Præferencen for "positive tests" er ikke i sig selv en bias, da de også kan være meget informative [12] . Men i kombination med andre effekter kan en sådan strategi bekræfte eksisterende overbevisninger eller antagelser, uanset om de er korrekte [13] . I den virkelige verden er beviser ofte komplekse og blandede. For eksempel kan modstridende meninger om den samme person bekræftes ved at fokusere på forskellige aspekter af hans eller hendes adfærd. Derfor vil søgningen efter beviser til støtte for den eksisterende hypotese sandsynligvis lykkes [13] . Spørgsmålets ordlyd kan ændre svaret markant [7] : især personer, der blev stillet spørgsmålet "Er du tilfreds med dit personlige liv?", viser en højere grad af tilfredshed end dem, der blev spurgt "Er du ikke tilfreds med dit personlige liv?" [14] .
Selv en lille ændring i ordlyden af et spørgsmål kan påvirke, hvordan folk søger efter svar fra den tilgængelige information, og dermed de konklusioner, de kommer til. Dette er blevet påvist i en fiktiv forældremyndighedssag [15] . Deltagerne læste, at den ene forælder (A) var moderat i stand til at fungere som værge på mange måder. Den anden forælder (B) havde en blanding af stærke gode og dårlige egenskaber: et tæt forhold til barnet, men et arbejde, der krævede rejser i lange perioder. Da respondenterne blev stillet spørgsmålet "Hvilken forælder skal have forældremyndigheden over barnet?", svarede størstedelen af deltagerne B, idet de overvejende overvejede positive egenskaber. Men da de blev spurgt "Hvilken forælder skal nægtes forældremyndigheden over barnet?", vurderede de allerede negative træk, og flertallet svarede, at B skulle nægtes, hvilket indebar, at forældremyndigheden skulle gives til A [15] .
Lignende undersøgelser har vist, hvor forudindtaget folk er i informationssøgning, men også at dette fænomen kan være begrænset til at give fortrinsret til rigtige diagnostiske tests. I det indledende eksperiment bedømte deltagerne en anden person i personlighedskategorier på en introversion-udadvendt skala baseret på interviews. De kunne vælge spørgsmål til interviewet fra den medfølgende liste. Da personen, der blev interviewet, blev introduceret som en introvert, valgte deltagerne spørgsmål, der inkluderede introversion, såsom "Hvad kan du ikke lide ved larmende fester?" Når sådan en person blev præsenteret som en udadvendt, inkluderede næsten alle spørgsmål udadvendthed, for eksempel: "Hvad ville du gøre for at forbedre en kedelig fest?" Disse spørgsmål med undertekst tillod ikke (eller gav ringe chance) for den interviewede person at modbevise hypotesen om sig selv [16] . I en senere version af eksperimentet fik deltagerne et mindre rigidt sæt spørgsmål at vælge imellem, såsom "Hvorfor undgår du social interaktion?" [17] . Deltagerne foretrak disse mere diagnostiske spørgsmål og viste kun en lille bias til fordel for positive tests. Denne tendens til en præference for flere diagnostiske tests er blevet bekræftet af andre undersøgelser [17] .
Personlighedstræk påvirker og interagerer med processen med forudindtaget informationssøgning [18] . Folk adskiller sig i deres evne til at beskytte deres forhold mod ydre påvirkninger med hensyn til selektiv opfattelse. Selektiv opfattelse opstår, når folk leder efter information, der matcher snarere end modsiger deres personlige overbevisninger [19] . Et eksperiment blev udført, der undersøgte, i hvor høj grad folk kan modbevise beviser, der modsiger deres personlige overbevisninger. For at formulere beviser er mere selvsikre mennesker mere tilbøjelige til at opsøge information, der modsiger deres personlige mening [18] . Usikre mennesker leder ikke efter modstridende informationer og foretrækker information, der understøtter sandheden i deres egen mening. Folk skaber og vurderer vidnesbyrd i beviser, der er forudindtaget til fordel for deres egne overbevisninger og meninger [20] . Højere niveauer af tillid reducerer graden af præference for information, der understøtter ens egen overbevisning.
I et andet eksperiment skulle deltagerne udføre en kompleks regelfindende opgave, der involverede bevægelse af objekter ved hjælp af computersimuleringer [21] . Objekter på computerskærmen bevægede sig efter bestemte regler, og deltagerne skulle finde ud af dem. Deltagerne kunne "skyde" på skærmen for at teste deres hypoteser. Men på trods af adskillige forsøg i løbet af det 10-timers eksperiment, gættede ingen af deltagerne systemets regler. De forsøgte overvejende at bekræfte snarere end at afkræfte deres hypoteser og var tilbageholdende med at overveje alternativer. Selv efter at have modtaget objektive beviser, der modsagde deres hypoteser, gentog de ofte de samme tests. Nogle deltagere fik at vide den korrekte måde at teste hypoteser på, men denne viden havde næsten ingen effekt på deres handlinger [21] .
"Smarte mennesker tror på mærkelige ting, fordi de er erfarne i at forsvare overbevisninger, de har fundet på af urimelige grunde."
— Michael Shermer [22]Bekræftelsesbias er ikke begrænset til søgningen efter beviser. Selvom to personer har den samme information, kan fortolkningen være forudindtaget.
Et hold ved Stanford University udførte et eksperiment med deltagere, der havde en stærk overbevisning om dødsstraf (halvdelen af deltagerne var for og halvdelen var imod) [23] [24] . Hver deltager læste beskrivelser af to undersøgelser: sammenligning af amerikanske stater med og uden dødsstraf og sammenligning af statsdrab før og efter indførelsen af dødsstraf. Efter at deltagerne havde læst et resumé af hver undersøgelse, blev de spurgt, om deres overbevisning havde ændret sig. Derefter læste de en mere fuldstændig beskrivelse af proceduren for udførelse af hvert af undersøgelserne og skulle vurdere, om undersøgelsen var korrekt udført og overbevisende [23] . Faktisk blev begge undersøgelser lavet op, hvor halvdelen af deltagerne fik at vide, at den første af undersøgelserne understøtter tilstedeværelsen af en afskrækkende effekt, mens den anden benægter det, mens den anden halvdel af deltagerne fik at vide det modsatte [23] [24] .
Deltagerne (både tilhængere og modstandere af dødsstraf) rapporterede om ringe ændring i deres holdninger i retning af resultaterne af den første undersøgelse, de læste. Efter at de havde læst en mere detaljeret beskrivelse af procedurerne i de to undersøgelser, vendte næsten alle tilbage til deres oprindelige overbevisninger på trods af de fremlagte beviser, idet de påpegede detaljer, der understøttede deres synspunkt, og afviste alt, der modsagde det. Deltagerne beskrev undersøgelser, der understøttede deres opfattelse, som mere pålidelige end dem, der modsagde det, og gav detaljer om, hvorfor de troede det [23] [25] . For eksempel skrev en tilhænger af dødsstraf, der beskrev en undersøgelse, der angiveligt nægtede den afskrækkende effekt: "Undersøgelsen dækker ikke en tilstrækkelig lang periode," mens en modstander af dens brug af samme undersøgelse sagde følgende: "Væsentlige beviser, der ville modsige forskerne, blev ikke givet" [23] . Resultaterne viste, at folk sætter høje standarder for at bevise en hypotese, der er i modstrid med deres nuværende overbevisninger eller forventninger. Denne effekt, kendt som "ikke-bekræftelsesbias", er blevet bevist af andre eksperimenter [26] .
En anden undersøgelse af forudindtaget fortolkning blev udført under den amerikanske præsidentkampagne i 2004 og omfattede deltagere, som var stærke tilhængere af begge kandidater. Disse deltagere blev vist tilsyneladende modstridende udsagn fra enten den republikanske kandidat George W. Bush eller den demokratiske kandidat John Kerry eller en politisk neutral offentlig person. De blev også forsynet med erklæringer, der forklarede eller eliminerede denne inkonsekvens. På baggrund af disse tre oplysninger skulle deltagerne tage stilling til, om udsagnet var inkonsistent [27] :1948 . Som et resultat blev der opnået en signifikant forskel i vurderinger, hvor deltagere meget mere tilbøjelige til at vurdere udsagnet fra den "udenlandske" kandidat som inkonsekvent [27] :1951 .
I dette eksperiment gav deltagerne deres score, mens de var i en MR, der sporede deres hjerneaktivitet. Da deltagerne vurderede deres kandidats modstridende udsagn, blev hjernens følelsesmæssige centre vækket. Og ved vurdering af andre udsagn skete dette ikke. Eksperimentatorerne antog, at de forskellige svar på udsagnet ikke skyldtes passive fejl i dømmekraften, men fordi deltagerne aktivt reducerede den kognitive dissonans forårsaget af, hvad de havde læst om deres yndlingskandidats irrationelle eller hykleriske adfærd [27] .
Bias i fortolkningen af overbevisninger er meget stabil, uanset niveauet af intelligens. Deltagerne tog SAT (US College Admission Test) for at vurdere deres intelligensniveau. Efter testen stiftede de bekendtskab med oplysningerne om bilers sikkerhed, hvor forsøgslederne ændrede bilens oprindelsesland. Deltagere fra USA udtrykte deres mening om biler, der burde forbydes i landet, på en seks-trins skala, hvor "én" betød "bestemt ja" og "seks" betød "bestemt ikke". Først vurderede deltagerne, om de ville frigive en farlig tysk bil på gaden i Amerika og en farlig amerikansk bil på gaden i Tyskland. Deltagerne bemærkede, at en farlig tysk bil i Amerika burde forbydes hurtigere end en farlig amerikansk bil i Tyskland. Forskellen i intelligens spillede ingen rolle for, hvordan deltagerne scorede bilforbuddet [20] .
Forudindtaget fortolkning er ikke begrænset til følelsesmæssigt vigtige emner. I et andet eksperiment fik deltagerne fortalt en historie om et tyveri. De var i stand til at vurdere vigtigheden af beviser til at vidne for eller imod en bestemt persons skyld. Når de lavede antagelser om skyld, vurderede de udsagn, der understøttede deres hypotese, som vigtigere end dem, der modsagde dem [28] .
Selvom folk indsamler og fortolker information på en neutral måde, kan de stadig huske det selektivt for at styrke deres forventninger. Denne effekt kaldes "selektiv tilbagekaldelse", "bekræftelseshukommelse" eller "hukommelse ved adgang" [29] . Psykologiske teorier om selektiv genkaldelse varierer. Skema teori giver, at information, der matcher tidligere forventninger, lettere huskes og bevares end information, der ikke matcher dem [30] . Nogle alternative tilgange mener, at uventede oplysninger fremhæves og derfor huskes [30] . Postulaterne for begge disse teorier er blevet bekræftet under forskellige eksperimentelle forhold, og derfor har ingen af teorierne endnu opnået fordele [31] .
I et studie læste deltagerne information om en kvinde, der havde en blanding af udadvendt og indadvendt adfærd, hvorefter de skulle genkalde sig eksempler på hendes udadvendthed og indadvendthed. Den ene gruppe fik at vide, at det var nødvendigt at vurdere deres egnethed til stillingen som bibliotekar, og den anden - til stillingen som ejendomsmægler. Som et resultat blev der opnået en signifikant forskel mellem, hvad disse to grupper huskede: den første genkaldte mere indadvendte eksempler, og den anden mere udadvendte eksempler [32] .
Effekten af selektiv genkaldelse er også blevet påvist i eksperimenter, der manipulerer en personlighedstypes tiltrækningskraft [30] [33] . I et af disse eksperimenter fik den ene gruppe deltagere bevis for, at udadvendte personer er mere succesrige end introverte, og den anden gruppe fik bevis for, at de var mere succesrige end introverte. I den næste undersøgelse, der ikke formelt var relateret til den første, blev begge grupper bedt om at huske begivenheder i deres liv, når de ledte indadvendt eller udadvendt. Hver af grupperne gav flere eksempler relateret til den mere attraktive type og genkaldte sådanne tilfælde hurtigere [34] .
Ændringer i følelsesmæssig tilstand kan også påvirke genkaldelse [35] [36] . Deltagerne vurderede, hvordan de havde det, da de første gang fandt ud af, at OJ Simpson var blevet frikendt for anklagen om mord [35] . De beskrev deres følelsesmæssige reaktioner og niveau af tillid i dommen en uge, to måneder og et år efter retssagen. Resultaterne viste, at deltagernes vurdering af Simpsons skyld varierede over tid. Jo flere ændringer i deltagernes mening om dommen, jo mindre stabile var deres erindringer om deres primære følelsesmæssige reaktioner. Da deltagerne huskede deres primære følelsesmæssige reaktioner to måneder senere og et år senere, var deres vurdering af det tidligere svar meget lig deres vurdering af det nuværende svar. Folk udviser en ganske betydelig bekræftelsesbias, når de diskuterer deres meninger om kontroversielle spørgsmål [20] . Genkaldelse og konstruktion af erfaring revideres afhængigt af de tilsvarende følelsesmæssige tilstande.
Bekræftelsesbias påvirker genkaldelsesnøjagtigheden [36] . I en undersøgelse vurderede enker og enkemænd intensiteten af deres sorg seks måneder og fem år efter deres mands eller kones død. Deltagerne bemærkede en højere grad af sorg efter 6 måneder sammenlignet med 5 år. Men da de blev spurgt 5 år senere om, hvordan de havde det 6 måneder efter deres betydelige andens død, var styrken af den sorg, de huskede, stærkt korreleret med deres nuværende følelser. Det er blevet foreslået, at følelsesmæssige erindringer genkaldes i forhold til deres nuværende følelsesmæssige tilstand, hvilket betyder, at folk sandsynligvis vil bruge deres nuværende følelsesmæssige tilstand til at analysere, hvordan de havde det tidligere [35] .
En anden undersøgelse har vist, hvordan selektiv genkaldelse kan understøtte overbevisninger om ekstrasensorisk perception [37] . Mennesker, der troede og ikke troede på en sådan opfattelse, fik vist beskrivelser af eksperimenter med ekstrasensorisk perception. Halvdelen af deltagerne i hver af de to grupper fik at vide, at de eksperimentelle resultater understøttede eksistensen af en sådan opfattelse, og halvdelen var ikke. Derefter huskede størstedelen af deltagerne under testen korrekt det materiale, der blev vist dem, undtagen dem, der troede, som læste beviserne for dets ikke-eksistens. Denne gruppe huskede væsentligt mindre af den givne information, og nogle huskede også fejlagtigt resultaterne som understøttende ekstrasensorisk perception [37] .
Når mennesker med modsatrettede synspunkter fortolker ny information på en forudindtaget måde, kan deres synspunkter divergere endnu mere. Dette kaldes "relationspolarisering" [38] . Effekten blev demonstreret i et eksperiment, hvor rækker af røde og sorte kugler blev trukket fra en eller anden skjult kasse. Deltagerne vidste, at en af kasserne indeholdt 60 % sorte og 40 % røde kugler, og den anden 40 % sorte og 60 % røde. Forsøgslederne observerede, hvad der skete, når kugler af forskellige farver blev tegnet på skift, det vil sige i en sekvens, der ikke gav "fordel" til nogen af kasserne. Efterhånden som hver enkelt kugle blev tegnet, blev deltagerne i en af grupperne bedt om at sige højt deres domme om sandsynligheden for, at kuglen var trukket fra den ene eller den anden kasse. Og disse deltagere blev mere sikre i deres skøn for hver efterfølgende marmor - uanset om de troede, at marmoren var mere tilbøjelig til at blive trukket fra en boks med 60 % sort eller en kasse med 60 % rød, steg deres sandsynlighedsscore. En anden gruppe deltagere blev først bedt om at markere sandsynlighedsestimatet for, hvilken kasse serien af kugler blev trukket fra, efter at sekvensen var afsluttet. De viste ikke en polariseringseffekt, hvilket tyder på, at det ikke nødvendigvis opstår, når mennesker blot har modsatrettede værdier, men kun når de åbent navngiver dem [39] .
En mindre abstrakt undersøgelse var Stanford-eksperimentet[ afklare ] med en forudindtaget fortolkning, hvor deltagere med stærke holdninger til dødsstraf blev udsat for blandede eksperimentelle beviser. Treogtyve procent af deltagerne rapporterede, at deres overbevisning steg, og denne ændring var stærkt korreleret med deres oprindelige holdninger [23] . I senere eksperimenter rapporterede deltagerne også, at deres tanker blev skarpere efter at have modtaget tvetydig information, men sammenligning af deres forhold før og efter modtagelse af nye beviser viste ikke væsentlige ændringer, hvilket kan tyde på, at selvvurderede ændringer måske ikke eksisterer. [26] [38] [40] . Baseret på disse eksperimenter konkluderede Dianna Kuhn og Joseph Lao, at polarisering er et reelt fænomen, men langt fra uundgåeligt og kun sker i et lille antal tilfælde. De fandt ud af, at sådanne fordomme ikke kun er motiveret af overvejelser om blandede beviser, men blot ved at tænke over et sådant spørgsmål [38] .
Charles Taber og Milton Lodge hævdede, at Stanford-holdets resultat var vanskeligt at kopiere, fordi beviserne, der blev brugt i efterfølgende eksperimenter, var for abstrakte eller uklare til at generere en følelsesmæssig reaktion. Taber og Lodges forskning brugte de følelsesladede temaer om våbenkontrol og positiv handling i USA [26] . De målte deltagernes holdning til disse spørgsmål før og efter at have læst beviserne fra hver side af debatten. To grupper af deltagere demonstrerede polariseringen af relationer: mennesker med stærke forudgående meninger om disse spørgsmål og politisk kyndige. For en del af denne undersøgelse valgte deltagerne, hvilke informationskilder de skulle læse fra en liste udarbejdet af videnskabsmænd. For eksempel kunne de læse våbenkontrolbeviser fra National Rifle Association og Brady Coalition Against Guns. Selv efter at være blevet instrueret i at være neutrale, var deltagerne stadig mere tilbøjelige til at vælge beviser, der understøttede deres eksisterende forhold. Denne skæve søgning efter information er blevet korreleret med polarisationseffekten [26] .
"Bagudsvirkning" er et udtryk, der anvendes til en situation, hvor folk, når de vidner mod deres tro, kan droppe vidnesbyrdet og blive mere selvsikre [41] [42] . Udtrykket blev først brugt af Brandon Nian og Jason Reifler [43] .
Overbevisninger kan modstå de stærkeste logiske eller empiriske indvendinger. De kan overleve og endda intensivere på grundlag af de beviser, som de fleste upartiske iagttagere mener bør svække sådanne overbevisninger. De kan endda overleve den fuldstændige ødelæggelse af deres oprindelige bevisgrundlag."
- Lee Ross og Craig Anderson [44]Bekræftelsesbias kan bruges til at forklare, hvorfor visse overbevisninger fortsætter, når deres oprindelige beviser forsvinder [45] . Denne persistens af overbevisninger blev demonstreret i en række eksperimenter, der brugte det såkaldte "rapportparadigme": (1) deltagerne læste om falske beviser for en hypotese, ændringen i deres holdninger måles; (2) de bliver derefter forklaret i detaljer, hvad manipulationen af beviserne var ("debunk"), og ændringen i deres holdninger måles igen for at se, om deres synspunkter er vendt tilbage til det oprindelige niveau [44] .
Det overordnede resultat for disse eksperimenter er, at i det mindste en del af den oprindelige tro forbliver efter en sådan "debunking" [46] . I et eksperiment blev deltagerne bedt om at skelne mellem ægte og falske selvmordsbreve. Forskernes svar på udtalelser fra deltagerne i eksperimentet blev givet tilfældigt: nogle af dem sagde, at de gættede godt, andre at de gættede dårligt. Og selv efter at deltagerne blev fortalt detaljeret om eksperimentet og tilfældighederne af svarene, var deltagerne stadig påvirket af de svar, de fik: de fortsatte med at tro, at de var bedre eller dårligere end gennemsnittet til sådanne opgaver, afhængigt af hvilken svar de modtog oprindeligt [47] .
I en anden undersøgelse læste deltagerne præstationsevalueringer af to brandmænd og deres reaktioner på en risikoaversionstest [44] . Disse data blev fremstillet på en sådan måde, at de viste en negativ eller positiv sammenhæng: nogle af deltagerne gav information om, at den brandmand, der kan lide at tage risici, havde bedre succes end den forsigtige, mens andre ikke gjorde det [48] . Selv hvis disse data var reelle, er to vurderinger meget dårlige videnskabelige beviser for at drage konklusioner om alle brandmænd. Men for deltagerne var de subjektivt overbevisende [48] . Da deltagerne fik at vide, at dataene var sammensat, faldt deres tro på sammenhængen, men forblev på omkring halvdelen af den oprindelige effekt [44] . Interviews efter eksperimentet bekræftede, at deltagerne forstod "debunkingen" og tog det alvorligt; de troede på ham, men afviste denne information som uforenelig med deres personlige overbevisning [48] .
Eksperimenter har vist, at information vejer tungere, hvis den modtages tidligere, selv når rækkefølgen den modtages i ikke er vigtig. For eksempel danner folk mere positive indtryk af nogen som "fornuftig, hårdtarbejdende, impulsiv, kritisk, stædig, misundelig", end når de samme karakteristika præsenteres i omvendt rækkefølge [49] . Denne "irrationelle primat"-effekt er uafhængig af forrangseffekten, hvor tidligere elementer (ord) i en sekvens efterlader et større hukommelsesfodaftryk [49] . En forklaring på denne effekt er fortolkningsbias: når en person ser det oprindelige bevis, danner det en arbejdshypotese, der påvirker, hvordan den fortolker al efterfølgende information [45] .
En demonstration af irrationel forrang brugte farvede tokens, der blev "trukket" fra to kasser. Deltagerne blev fortalt om fordelingen af farver i disse kasser og bedt om at vurdere sandsynligheden for, at der blev trukket et token fra hver af disse kasser [49] . Faktisk blev tokens arrangeret i en særlig rækkefølge: de første tredive blev trukket fra den første boks, og de næste tredive fra den anden [45] . Sekvensen var generelt neutral, så det giver mening, at begge kasser var lige sandsynlige. Efter 60 trækninger foretrak deltagerne i eksperimentet dog den boks, der dukkede op oftere i de første 30 trækninger [49] .
Et andet eksperiment inkluderede et diasshow af det samme emne, der var meget sløret i starten, hvor fokus blev forbedret på hvert efterfølgende dias [49] . Efter hvert dias skulle deltagerne give udtryk for deres gæt om det afbildede objekt. Deltagere, hvis indledende gæt var forkerte, fortsatte med disse gæt, selv når billedet allerede var så fokuseret, at andre mennesker let genkendte emnet [45] .
Illusorisk korrelation er tendensen til at se sammenhænge i et sæt data, der faktisk mangler [50] . Denne tendens blev først påvist i en række eksperimenter i slutningen af 1960'erne [51] . I et eksperiment læste deltagerne adskillige praktiske psykologiske forskningsmaterialer, der inkluderede svar på en Rorschach-test . De konkluderede, at homoseksuelle er mere tilbøjelige til at se balder eller andre seksuelt tvetydige figurer i testfigurer end heteroseksuelle. Faktisk var alle disse forskningsmaterialer fuldstændig opfundet, og i en version af eksperimentet viste det sig ud fra materialerne generelt, at homoseksuelle ser sådanne figurer i test sjældnere end heteroseksuelle [50] . I undersøgelsen gentog en gruppe erfarne psykoanalytikere de samme illusoriske konklusioner om forholdet mellem reaktionen på tegningerne og homoseksualitet [50] [51] .
En anden undersøgelse registrerede gigtpatienters symptomer og vejrforhold i 15 måneder. Næsten alle patienter rapporterede, at deres smerter var relateret til vejret, selvom den reelle sammenhæng var nul [52] .
Denne effekt er en form for skæv (biased) fortolkning, hvor objektivt neutrale eller negative beviser fortolkes for at understøtte eksisterende overbevisninger. Det er også forbundet med skævheder i hypotesetestningsadfærd [53] . Når man vurderer forholdet mellem to begivenheder, såsom sygdom og dårligt vejr, stoler folk i høj grad på antallet af positive positive tilfælde: i dette eksempel smerte og dårligt vejr på samme tid. De er relativt lidt opmærksomme på andre former for observationer (ingen smerte og/eller godt vejr) [54] . Dette svarer til at forvente gode resultater i en hypotesetest, men kan også være tegn på selektiv genkaldelse, hvor folk føler, at to begivenheder er relaterede, da det er lettere at huske tilfælde, hvor de skete på samme tid [53] .
Længe før psykologiske studier kan tendensen til at bekræfte omtalen af dette fænomen findes hos forfattere, for eksempel hos den antikke græske historiker Thukydides (ca. 460 f.Kr. - ca. 395 f.Kr.), den italienske digter Dante Alighieri (1265-1321) ), engelsk filosof og videnskabsmand Francis Bacon (1561-1626) [55] og russisk forfatter Leo Tolstoy (1828-1910). Thukydides skrev i The History of the Peleponnesian War: "... fordi det er menneskehedens vane at blive udsat for tankeløst håb om, hvad de ønsker, og at bruge deres egen dømmekraft til at kassere det, de ikke kan lide" [56] . I digtet Den guddommelige komedie råder St. Thomas Aquinas Dante, når de mødes i Paradis: "de, der hurtigt danner deres egne meninger, kan tage fejl, og så binder og omslutter tilknytningen til ens egen mening sindet" [57] .
Bacon skrev i sin New Organon [58] :
At forstå en person, når han allerede er kommet til en eller anden tanke ... tiltrækker alle ting til at støtte det og harmonisere med det. Og selvom der er et stort antal og vægt af argumenter på den anden side, forsømmer eller foragter han dem, eller af en eller anden grund afviser eller afviser han dem.
Bacon skrev, at forudindtaget evaluering af beviser driver "enhver fordom, i astrologi, drømme, tegn, guddommelig retfærdighed og lignende" [58] .
I essayet "Hvad er kunst?" L.N. Tolstoy skrev [59] :
Jeg ved, at flertallet af mennesker, der ikke kun betragtes som intelligente, men virkelig meget intelligente mennesker, der er i stand til at forstå de sværeste videnskabelige, matematiske, filosofiske ræsonnementer, meget sjældent kan forstå selv den enkleste og mest åbenlyse sandhed, men sådan, som en resultat, hvoraf man må indrømme, at de sammensatte de nogle gange med stor indsats dømmer om et emne, en bedømmelse, som de er stolte af, at de har undervist andre, på grundlag af hvilken de har indrettet hele deres liv - at dette dommen kan være falsk.
Udtrykket "confirmation bias" blev opfundet af den engelske psykolog Peter Veyson [60] . I et eksperiment offentliggjort i 1960 bad han deltagerne om at formulere en regel om tripler af tal. I begyndelsen fik de at vide, at de tre (2,4,6) matchede reglen. Deltagerne kunne foreslå deres egne tripler, og eksperimentatoren fortalte dem, om sådan en triple passede til reglen eller ej [61] [62] .
Selvom reglen faktisk lød som "enhver stigende sekvens", var det meget svært for deltagerne at gætte. Samtidig foreslog de ofte mere komplekse regler, for eksempel: "det andet tal er gennemsnittet mellem det første og det tredje" [61] . Deltagerne testede kun tripler for et positivt eksempel, det vil sige dem, der matchede deres hypotese om reglen. For eksempel, hvis de troede, at reglen lød som "det næste tal er to mere end det forrige", så foreslog de en tredobbelt, der besvarede den, for eksempel (11,13,15), og ikke en tredobbelt, der modsiger den, for eksempel (11 ,12,19) [63] .
Wason troede på falsifikationisme, ifølge hvilken videnskabelig test af en hypotese er et seriøst forsøg på at modbevise den, og derfor fortolkede han resultaterne af eksperimentet på en sådan måde, at deltagerne foretrak bekræftelse frem for gendrivelse, deraf udtrykket "bekræftelsesbias" [Komm. . 4] [64] . Han brugte også bekræftelsesbias til at forklare resultaterne af sit valgopgaveeksperiment [65] . I denne opgave fik deltagerne delvis information om et sæt elementer, og de skulle bestemme, hvilke yderligere oplysninger de havde brug for for at sige, om den betingede regel ("Hvis A, så B") gælder for dette sæt. Gentagne undersøgelser har vist, at folk præsterer meget dårligt på forskellige former for denne test, i de fleste tilfælde ignorerer informationer, der potentielt kan tilsidesætte reglen [66] [67] .
I et papir fra 1987 argumenterede Joshua Kleiman og Ha Young Won for, at Wason-eksperimenterne faktisk ikke viste en bekræftelsesbias. I stedet fortolkede de resultaterne som en tendens til, at folk tog test, der er i overensstemmelse med arbejdshypotesen [68] og kaldte dette en "positiv teststrategi" [7] . Denne strategi er et eksempel på en heuristik - en "genvej" når man diskuterer, som ikke er ideel, men nem at implementere [1] . For deres standard i test af hypoteser brugte Kleiman og Ha ikke falsifikationisme, men Bayesiansk sandsynlighed og informationsteori. Ifølge disse ideer giver hvert svar på et spørgsmål en forskellig mængde information, afhængigt af personens eksisterende overbevisning. Derfor er videnskabelig afprøvning af hypotesen, hvad der bør bringe mere information. Da sammensætningen af information afhænger af indledende sandsynligheder, kan en positiv test være meget eller uinformativ. Kleiman og Ha hævdede, at når folk tænker på realistiske problemer, leder de efter et specifikt svar med en lav initial sandsynlighed. I dette tilfælde er positive tests normalt mere informative end negative [12] . Men i Wason-regelfindingsproblemet er svaret "tre tal i stigende rækkefølge" meget bredt, så det er usandsynligt, at positive test giver informative svar. Kleiman og Ha understøttede deres analyse med et eksempel på et eksperiment, der brugte etiketterne "DAX" og "MED" i stedet for "svarer til reglen" og "svarer ikke til reglen". Dette undgik antagelsen om, at målet er at finde en regel med lav sandsynlighed. I denne version af eksperimentet var deltagerne meget mere succesrige [69] [70] .
I lyset af denne og andre kritikpunkter er forskningens fokus flyttet fra bekræftelse versus afkræftelse til, om folk tester hypoteser på en informativ måde eller på en uinformativ, men positiv måde. Søgningen efter "rigtig" bekræftelsesbias har fået psykologer til at overveje den brede vifte af implikationer af menneskelig informationsbehandling [71] .
Bekræftelsesbias defineres ofte som resultatet af automatiske, utilsigtede strategier snarere end bevidst bedrag [72] [73] . Ifølge Robert McCune sker den mest partiske informationsbehandling som et resultat af en kombination af "kolde" (kognitive) og "varme" (motiverede, følelsesmæssige) mekanismer [74] .
Kognitive forklaringer på bekræftelsesbias er baseret på begrænsningerne i menneskets evne til at bearbejde komplekse opgaver og de tilsvarende genveje i den anvendte vej, og kaldes heuristik [75] . For eksempel kan folk vurdere pålideligheden af beviser ved hjælp af tilgængelighedsheuristikken, det vil sige hvor let en idé kommer til at tænke på [76] . Det er også muligt, at folk kun kan fokusere på én tanke om en given problemstilling ad gangen, så det er svært for dem at teste alternative hypoteser sideløbende [77] . En anden heuristik er den positive teststrategi, som Kleiman og Ha opdagede, det vil sige, når folk tester en hypotese ved at undersøge de tilfælde, hvor de forventer, at en funktion eller begivenhed opstår, som de understøtter. Denne heuristik undgår den vanskelige eller umulige opgave at finde ud af, hvor diagnostisk hvert muligt spørgsmål ville være. Men sådan en heuristik er ikke fuldstændig pålidelig, så folk ser ikke udfordringer med deres eksisterende overbevisninger [12] [78] .
Motiverende forklaringer på bekræftelsesbias omfatter ønskets indflydelse på troen, nogle gange omtalt som "ønsketænkning" [79] [80] . Det er kendt, at folk foretrækker behagelige tanker frem for ubehagelige på mange måder ("Polyanna-princippet") [81] . Når den anvendes på argumenter eller beviskilder, kan denne holdning forklare, hvorfor man er mere tilbøjelig til at tro på ønskede konklusioner [79] . Ifølge resultaterne af eksperimenter, der manipulerede ønskværdigheden af en konklusion, kræver folk en høj kvalitet af beviser for usmagelige ideer og accepterer en lav standard for ideer, de foretrækker. Med andre ord, for nogle ideer spørger de: "Kan jeg tro på dette?" og for andre, "skal jeg tro på det?" [82] [83] . Selvom konsistens er et ønskeligt kendetegn ved et forhold, er et overdrevent ønske om konsistens en potentiel kilde til bias, fordi det kan forhindre en person i neutralt at vurdere ny, uventet information [79] . Socialpsykologen Ziva Kunda kombinerede kognitiv og motivationsteori og hævdede, at motivation skaber fordomme, men det er kognitive faktorer, der bestemmer dens størrelse [84] .
Forklaring i form af fordele og omkostninger tyder på, at folk ikke bare neutralt tester hypoteser, men estimerer "omkostningerne" ved forskellige fejl [85] . Ved at bruge ideerne om evolutionær psykologi foreslår James Friedrich, at når man tester en hypotese, forsøger en person først og fremmest at undgå de mest "dyre" fejl og ikke at finde sandheden. For eksempel kan arbejdsgivere stille ensidige spørgsmål, når de interviewer en potentiel medarbejder, da deres fokus er på at identificere uegnede kandidater [86] . Forfiningen af denne teori af Jacob Trope og Akiva Lieberman antyder, at en person sammenligner to forskellige typer fejl: at acceptere en falsk hypotese og afvise en sand hypotese. For eksempel, hvis nogen undervurderer en vens ærlighed, kan de være mistænksomme over for dem og miste deres venskab; at overvurdere sin ærlighed kan også være dyrt, men forholdsvis mindre. I dette tilfælde er den rationelle udvej at lede efter, vurdere og huske vennens ærlighed i en skævhed mod hans egeninteresse [87] . Når en persons første indtryk er, at vedkommende er indadvendt eller udadvendt, virker spørgsmål, der svarer til dette indtryk, mere empatiske [88] . Derfor, når man taler med en formodet introvert, virker det som om, at en demonstration af bedre sociale færdigheder er at spørge: "Føler du dig utilpas i sociale situationer?" snarere end "Kan du lide larmende fester?" Sammenhængen mellem konfirmationsbias og sociale færdigheder blev understøttet af en undersøgelse, hvor eleverne blev introduceret til andre mennesker. Studerende med en høj grad af selvmonitorering, som var mere følsomme over for deres miljø og sociale normer, stillede mere relevante spørgsmål, når de talte med universitetsprofessorer med høj status, end når de mødte medstuderende [88] .
Psykologerne Jennifer Lerner og Philip Tetlock skelner mellem to forskellige typer tankeprocesser. Forklarende tænkning betragter neutralt forskellige synspunkter og forsøger at sørge for alle mulige indvendinger mod en bestemt holdning, mens bekræftende tænkning forsøger at retfærdiggøre (bekræfte) et bestemt synspunkt. Lerner og Tetlock finder ud af, at når folk forventer at skulle retfærdiggøre deres holdning over for andre mennesker, hvis position de allerede kender, har de en tendens til at indtage en holdning, der ligner disse menneskers og derefter bruge positiv tænkning til at styrke deres egen position. Men hvis det ydre er alt for aggressivt eller kritisk, opgiver folk helt at ræsonnere og forsøger simpelthen at etablere deres holdning uden begrundelse [89] . Lerner og Tetlock hævder, at folk først tvinger sig selv til at tænke kritisk og logisk, når de på forhånd ved, at de bliver nødt til at forklare deres tanker til andre velinformerede mennesker, der virkelig er interesserede i sandheden, og hvis synspunkter de endnu ikke kender [90 ] . Da alle disse tilstande sjældent falder sammen, ifølge de nævnte psykologer, bruger folk det meste af tiden bekræftende tænkning [91] .
På grund af bekræftelsesbias kan investorer handle med overmod og ignorere alle signaler om, at deres strategier vil føre til et tab af penge [5] [92] . I undersøgelser af politiske (valgmæssige) aktiemarkeder (det vil sige markeder knyttet til valgresultater) tjente investorer flere penge, hvis de ikke var forudindtaget. For eksempel var deltagere, der reagerede neutralt snarere end lige så begejstrede for en kandidats præstation, mere tilbøjelige til at tjene penge [93] . For at neutralisere den indflydelse, der bekræfter skævheden, kan investorer forsøge midlertidigt at indtage det modsatte synspunkt [94] . I en teknik skal de forestille sig, at deres investering er fuldstændig fejlet, og forklare sig selv, hvorfor dette kan ske [5] .
Psykolog Raymond Nickerson bebrejder bekræftelsesbias på ineffektive medicinske procedurer brugt i århundreder før fremkomsten af videnskabelig medicin [95] . Hvis patienten kom sig, anså lægerne, at behandlingen var vellykket frem for at teste alternative forklaringer, såsom det afsluttede sygdomsforløb [95] . Forudsat generalisering er også en faktor i den nuværende appel af alternativ medicin , hvis tilhængere accepterer anekdotiske beviser for dens positive virkninger, men er stærkt kritiske over for de videnskabelige beviser [96] [97] [98] .
Kognitiv psykoterapi, udviklet af Aaron Beck i begyndelsen af 1960'erne, er for nylig blevet en populær tilgang. [99] . Ifølge Beck er forudindtaget informationsbehandling en faktor i depression [100] . Hans tilgang lærer folk at behandle information upartisk i stedet for selektivt at forstærke negative livssyn [55] . Ifølge forskning bruger fobier og hypokondrier også bekræftelsesbias, når en person bliver konfronteret med skræmmende eller farlig information [101] .
Nickerson hævder, at domme i juridiske og politiske sammenhænge nogle gange er ubevidst forudindtaget og derfor foretrækkes frem for konklusioner, der allerede er blevet accepteret af dommere, juryer eller regeringer [102] . Fordi beviser eller vidnesbyrd ved en nævningeting kan være komplekse, tvetydige, og nævninge ofte når deres dom ret tidligt i processen, må der forventes en polariserende effekt. Denne hypotese (at nævninge bliver mere kategoriske i deres synspunkter, efterhånden som retten overvejer beviser eller beviser) blev bekræftet i eksperimenter med "legedomstole" (sham-domstole, der bruges til at praktisere advokaters taler eller til at undervise elever om retspraksis) [103] [104] . Bekræftelsesbias har indflydelse både i det efterforskningsmæssige strafferetssystem i romersk-germansk ret og i det kontradiktoriske strafferetssystem i angelsaksisk ret [105] .
Bekræftelsesbias kan være en faktor i at skabe eller forlænge konflikter, fra følelsesladede stridigheder til krige: Ved at fortolke beviserne og beviserne til deres fordel, kan hver side af konflikten blive alt for sikker på, at dens position er stærkere [106] . På den anden side kan bekræftelsesbias føre til ignorering eller fejlfortolkning af tegnene på en begyndende eller begyndende konflikt. For eksempel mente psykologerne Stuart Sutherland og Thomas Kida hver især, at den amerikanske admiralmand Kimmel viste bekræftelsesbias, da han ignorerede de tidlige tegn på det japanske angreb på Pearl Harbor [66] [107] .
Den amerikanske professor Philip Tetlock har forsket i politiske eksperter i to årtier (28 tusinde prognoser blev indsamlet) og fandt ud af, at deres prognoser generelt adskilte sig lidt fra tilfældige og var værre end en computeralgoritme. Han inddelte eksperterne i "ræve", som havde en række forskellige hypoteser, og "pindsvin", som var mere dogmatiske. Generelt var pindsvineprognoser mindre nøjagtige. Tetlock tilskrev deres manglende bekræftelsesbias - især deres manglende evne til at bruge ny information, der modsiger deres teorier [108] .
En faktor i tiltrækningen af psykiske "læsninger" er, at de, der konsulterer synske, bruger bekræftelsesbias til at forene den synskes udsagn med deres eget liv [109] . Når en synsk siger mange tvetydige udsagn, giver han klienten flere muligheder for at finde et match. Dette er en af de "koldlæsnings"-teknikker, hvor den psykiske kan give en subjektivt imponerende beskrivelse af klienten uden nogen primær information om ham [109] . Den velkendte canadisk-amerikanske illusionist og skeptiker James Randi sammenlignede dechiffreringen af det "læste" og klientens beretning om det og bemærkede, at klienten havde en udtalt selektiv genkaldelse af "hittet" [110] .
En slående illustration af tilbøjeligheden til at bekræfte i den virkelige verden (og ikke i laboratoriet) betragter Nickerson numerologisk pyramidologi (praksis med at finde værdier og viden i proportionerne af de egyptiske pyramider) [111] . Da der er et betydeligt antal målinger, der kan foretages, for eksempel i Cheops-pyramiden, og mange måder at kombinere og fortolke dem på, vil de, der ser selektivt på dataene, finde næsten 100 % imponerende konsistens, f.eks. målinger af Jorden [111] .
Videnskabelig tænkning adskiller sig fra andre typer tænkning i søgen efter ikke kun bekræftende, men også tilbagevise beviser [112] . Mere end én gang i videnskabens historie har videnskabsmænd imidlertid modstået nye opdagelser som følge af selektiv fortolkning eller uvidenhed om "uacceptable" data [112] . Tidligere undersøgelser har vist, at evaluering af kvaliteten af videnskabelig forskning er særligt følsom over for bekræftelsesbias, nemlig at videnskabsmænd mere end én gang vurderede undersøgelser, der matchede videnskabsmændenes tidligere overbevisninger, højere end dem, der ikke gjorde det [73] [113] [114] . Selvom inden for rammerne af videnskabelig tænkning, hvis spørgsmålet, der undersøges, er mere væsentligt, designet af eksperimentet er mere korrekt, og dataene er klart og fuldstændigt beskrevet, så er resultaterne vigtige for det videnskabelige samfund og bør ikke overvejes med fordomme, uanset om de svarer til aktuelle teorier eller ej [114] .
I forbindelse med videnskabelig forskning kan bekræftelsesbias understøtte teorier eller forskningsprogrammer, selvom beviserne til at understøtte dem er utilstrækkelige eller modstridende [66] [115] ; dette skete især ofte inden for parapsykologien [116] .
En forsøgsleders bekræftelsesbias kan potentielt påvirke, hvilke data de rapporterer. Data, der går imod hans forventninger, kan lettere "kasseres", hvilket fører til den såkaldte "dokumentboks"-effekt [117] . For at overvinde denne tendens omfatter uddannelsen af videnskabsmænd måder at forhindre denne skævhed på. For eksempel er ting som eksperimentelt design for tilfældige kontrolprøver (kombineret med deres systematiske gennemgang) rettet mod at minimere kilder til bias [117] [118] . Den sociale proces med peer review menes også at være en måde at reducere indflydelsen fra individuelle videnskabsmænds skævheder [119] , selvom peer review i sig selv kan være påvirket af sådanne skævheder [114] [120] . Bekræftelsesbias kan således være særligt skadeligt for objektive vurderinger af de resultater, der ikke passer til hypotesen, da forudindtaget individer kan anse sådanne resultater for at være iboende svage og ikke tænke på behovet for at genoverveje deres overbevisninger [113] . Forskere, der foreslår noget nyt, møder ofte modstand fra det videnskabelige samfund, og undersøgelser med kontroversielle resultater modtager ofte ødelæggende anmeldelser [121] .
Socialpsykologer har identificeret to tendenser i, hvordan mennesker søger eller fortolker information om sig selv: selvbekræftelse, ønsket om at forstærke eller forstærke eksisterende selvværd og selv-valorisering, ønsket om at modtage en positiv respons [122] . Begge tendenser realiseres med inddragelse af bekræftelsestilbøjelighed. I eksperimenter, når folk modtog en selvreaktion, der modsagde deres selvværd, var de mindre tilbøjelige til at være opmærksomme på det eller huske det, end når de modtog en bekræftende reaktion [123] [124] [125] . De reducerede virkningen af sådan information ved at fortolke den som upålidelig [123] [126] [127] . Lignende eksperimenter har vist, at folk foretrækker positive reaktioner og mennesker, der reagerer passende på negative [122] .
Stædighed, en kilde til selvbedrag, er en faktor, der spiller en overraskende stor rolle i regeringen. Det består i at evaluere en situation i forhold til tidligere afholdte meninger om den, fuldstændig ignorere eller afvise eventuelle modstridende synspunkter. Det er at handle, som du vil, mens du ikke lader dig distrahere af fakta. Dens højdepunkt er historikernes udsagn om Filip II af Habsburg, hvis stædighed overgik alle herskeres stædighed: "intet eksempel på fiaskoen i hans politik satte spørgsmålstegn ved hans tro på denne politiks iboende perfektion." (s. 7)
Dumhed er efter hendes mening en form for selvbedrag, karakteriseret ved "insisteren på tanker, der har slået rod, uanset beviser for det modsatte." (s. 209)
Ordbøger og encyklopædier |
---|