Læringsbroer - 1. Kognitive Biaser

Falske Selvmordsbreve

Vidste du, at vi lader os påvirke af information, selvom vi VED at den er forkert?

In 1975, lavede en gruppe forskere ved Stanford University et eksperiment, hvor de bad forsøgsdeltagerne om at vurdere ægtheden af selvmordsbreve. De blev præsenteret for to selvmordsbreve af gangen; det ene var et ægte selvmordsbrev, der var skrevet af en person der senere havde begået selvmord. Det andet brev var skrevet af en tilfældig spillevende person.

Resultaterne viste, at nogle af forsøgsdeltagerne var geniale til at spotte de ægte breve, og andre var virkelig dårlige. De højt scorende fandt 24 ud af 25 ægte selvmordsbreve, de lavt scorende kun 10 ud af 25.

Det var i hvert fald hvad forskerne fortalte forsøgsdeltagerne. I virkeligheden var de gode forsøgsdeltagere ikke bedre end de dårlige.

Som det ofte er tilfældet i den slags forsøg, så løj forskerne om formålet.

I anden fase af forsøget fortalte forskerne, at forsøget i virkeligheden gik ud på at måle deltagernes respons på om de havde ret eller ej. (Hvilket faktisk heller ikke var sandt).

I tredje og sidste fase af forsøget, bad forskerne forsøgsdeltagerne om at vurdere, hvor mange breve de faktisk havde vurderet korrekt.

På trods af at forsøgsdeltagerne havde fået at vide at de IKKE var hhv. bedre eller dårligere end de andre, så vurdere de ”højt scorende” forsøgsdeltagere, at de havde gjort det markant bedre end en gennemsnitlig person ville have gjort. Det samme gjorde sig gældende for de lavt scorende, der vurderede at de klarede sig markant dårligere end gennemsnittet.

Lorteglas

Lad os lige prøve at lave et eksperiment, der gerne skulle vise dig at det faktisk forholder sig sådan, og som lader dig mærke det på egen krop. (Du kan eventuelt prøve det af på en ven eller kollega bagefter, hvis du har en ved hånden.)

Forestil dig at der står to glas foran dig. Begge er fuldstændigt rene.

Forestil dig nu at glasset til højre tidligere har været fyldt med lort.

Menneskelort.

Spørg dig selv hvilket et af de to glas vil du helst vil drikke et glas vand fra? Lige om lidt.

Det til venstre eller lorteglasset til højre?

De fleste mennesker vil have en præference for glasset til venstre, selvom de VED at det hele er pure opspind.  Naturligvis vil nogen vælge ”lorteglasset” i trods, men det ændrer ikke ved at jeg kan manipulere med dig med falsk information - også selvom du måske vælger lorteglasset i trods.

Det mentale haglgevær

Psykologen og Nobelpristageren, Daniel Kahnemann, har skrevet bogen. ”At Tænke – hurtigt og langsomt”. I den siger han at vi har to systemer som vi bruger til at forstå verden med: System 1 og System 2.

System 1 tænker hurtigt, er ”billigt i drift”, ubevidst, kører hele tiden og har en tendens til at generalisere. System 1 leder konstant efter sammenhænge mellem det vi oplever, og finder meget ofte sammenhænge - også hvor der ikke er nogen. Kahnemann kalder System 1 for ”Det mentale haglgevær”, fordi det skyder upræcist, men rammer meget af dét, det skal ramme.

System 1 er ligesom den man gik i klasse med, som altid rakte hånden op ved alle spørgsmål og sagde ”mig! mig! Mig!”.

System 2 tænker langsomt, er dyrt i drift, bevidst, meget mere præcist, men er anstrengende at bruge længe, så det undgår vi, hvis vi kan slippe afsted med det.

Normalt er det system 1 der træffer beslutningerne i vores liv, og System 2 accepterer uden videre at det er sådan - uden at vi er klar oven det.

Lad os lige teste hvordan de to systemer fungerer med en lille opgave. Selvom den er meget simpel, fejlede jeg selv med et brag, første gang jeg prøvede at løse den - og det er de færreste der svarer rigtigt. Faktisk fejler jeg stadigvæk - selvom jeg kender svaret.

En pølse og et brød koster tilsammen 1,10 krone. Hvis pølsen koster en krone mere end brødet, hvad koster brødet så?

Umiddelbart vil de fleste mennesker sige at brødet koster 10 øre. Men det er ikke rigtigt.

Prøv lige at tænke over det igen…

Her vil mange insistere på at de HAR tænkt, og at svaret ER 10 øre, og det er der ingen grund til at overveje yderligere. Det har jeg i hvert fald oplevet mange gange.

Hvis brødet koster 10 øre, og pølse med brød samlet koster 1,10 ville det betyde at pølsen kostede 1 kr. Men hvis pølsen koster en krone og brødet 10 øre, koster pølsen ikke en krone mere end brødet, men kun 90 øre mere.

Det rigtige svar er at pølsen koster en krone og 5 øre og brødet koster 5 øre.

Det der sker, er at System 1 lynhurtigt finder et svar der virker plausibelt, og det accepterer system 2 uden videre.

En anden opgave der også demonstrerer det, er følgende spørgsmål:

 

Hvor mange dyr af hver slags havde Moses med i sin ark?

 

Hvis du siger eller tænker ’to’, så er det ikke helt ved siden af. Problemet med det svar er naturligvis, at det jo ikke var Moses, men Noah, der ifølge biblen lavede en ark. Når du nu -i bakspejlet- reflekterer over det, vil du måske indvende, at det lagde du faktisk også mærke til. Men du svarede ’to’, fordi du ubevist forstod intentionen med spørgsmålet. Det er normalt også meget fornuftigt. Pointen med at stille spørgsmålet er blot at vise, at den slags overvejelser overlader vi også trygt til System 1.

Jeg nævnte også at system 1 finder sammenhænge, også hvor der ikke er nogen. Kahnemann refererer i bogen til et forsøg, hvor deltagerne på en skala skulle vurdere hvor lykkelige de var, og herefter angive antallet af dates de havde været på.

Deltagerne blev delt op i to grupper. Den første gruppe fik de to spørgsmål stillet i den nævnte rækkefølge. I denne gruppe var der ingen sammenhæng mellem antallet af dates de havde været på, og på hvor lykkelige de følte sig.

Den anden gruppe fik de samme spørgsmål, men her var rækkefølgen byttet rundt, så de først skulle svare på hvor mange dates de havde været på, inden de skulle svare på hvor lykkelige de var. I den anden gruppe var der stor sammenhæng mellem hvor mange dates de havde været på, og hvor lykkelige deltagerne svarede at de følte sig.

I den anden gruppe lavede deltagerne en sammenhæng mellem to forskellige spørgsmål således at det påvirkede svarene.

Jeg synes at det er vigtigt at forstå ideen om System 1 og System 2 som en model der kan beskrive vores adfærd. Man skal dog ikke tage det alt for bogstaveligt. Vi mennesker har udviklet som os HELE mennesker og vores ”systemer” fungerer i samspil med hinanden og det vi miljø vi befinder os i.

Jeg kan varmt anbefale dig at læse ”At Tænke – hurtigt og langsomt”. Som jeg vist fik nævnt tidligere, mener jeg at bogen børe være et fast element i alle menneskers uddannelse - og dannelse.

Sig hallo til Halo effekten

Psykologen Solomon E. Asch lavede i 1946 et forsøg hvor han undersøgte Halo-effekten, en kendt kognitiv bias. Og jeg vil nu prøve at genskabe hans eksperiment.

Jeg vil bede dig mærke efter hvad I synes om 2 personer, Alan og Ben, som jeg nu vil fortælle jer om.

Her er først nogle egenskaber der beskriver Alan.

Alan: Intelligent – flittig – impulsiv – kritisk – stædig – misundelig.

Prøv at danne dig et mentalt billede af Alan.

Og nu vil jeg fortælle dig om Ben

Ben: Misundelig – stædig – kritisk – impulsiv – flittig - intelligent

Prøv nu at danne dig et mentalt billede af Ben.

Hvem kan du bedst lide?

Som du formentligt har opdaget, har Alan og Ben de samme egenskaber, rækkefølgen var blot vendt rundt så de positive kom først ved Alan, og til sidst ved Ben. De fleste, jeg selv inklusive, kan bedst lide Alan.   

Som du kan se har vores første indtryk stor betydning for vores samlede vurdering. Det har det, fordi alle vores vurderinger af de efterfølgende egenskaber, bliver påvirket af de første vi møder. Jeg kan huske at jeg, da jeg læste om Alan første gang, begyndte at undskylde for hans dårlige egenskaber (kritisk og stædig) med henvisning til at han var Intelligent, så ”han havde jo nok noget at have det i”.

Halo-effekten er en betegnelse for at en egenskab smitter af på den samlede vurdering. Det er Halo-effekten der er i spil, når kendte smukke mennesker bruges i reklamer. Vores positive vurdering af dem smitter af på produktet.

Kahnemann, der på et tidspunkt arbejdede som underviser, beskriver i sin bog, hvordan han på et tidspunkt begynder at fundere over, om han var påvirket af Halo effekten når han rettede opgaver. Han fandt ud af at hvis en studerende lavede en god besvarelse af den første opgave, så ville hans positive vurdering af dén opgave, smitte af på hans vurdering af den studerendes efterfølgende opgaver. Han ændrede herefter sin praksis til at rette opgave ét for alle studerende, herefter opgave to for alle studerende osv.

Framing

Langt det meste af vores adfærd og de beslutninger vi træffer, er afhængig af den sammenhæng vi er i.

Dette gør at vi er sårbare for manipulation, idet man blot ved at beskrive sammenhængen, eller rammen, anderledes kan påvirke vores ”frie” valg.

Daniel Kahnemann og hans ven og arbejdspartner, Amos Tversky, fandt i 1981 en forklaring på hvorfor det betød alverden, hvordan kræftlæger præsenterede risikoen ved en kræftsvulstoperation. Hvis lægen sagde til patienterne at der var 90 procents chance for at overleve en operation, så valgte 82 procent den behandling. Hvis lægen derimod sagde at der var 10 procents risiko for at dø af operationen, ja, så valgte kun 54% af patienterne at lade sig operere, selvom risikoen er fuldstændig den samme. Det vil sige at den måde patienterne blev informeret om risikoen på, havde en meget stor indflydelse på deres valg. Dette selvom den reelle risiko jo ikke ændrer sig.

Skib ohøj

Kahnemann og Tversky udtænkte også følgende eksperiment:

Du har nu 5 sekunder til at svare på følgende regnestykke: 8 x 7 x 6 x 5 x 4 x 3 x 2 x 1

Skynd dig at skrive svaret ned.

Nu følger anden del af opgaven

Du har nu 5 sekunder op at svare på følgende regnestykke: 1 x 2 x 3 x 4 x 5 x 6 x 7 x 8

Jeg gætter på, at det gider du nok ikke at gøre, når du sidder og læser denne tekst, men hvis du gjorde, så ville du typisk ikke have tid nok til at regne svaret ud, og måtte derfor gætte.

Kahnemann og Tversky udsatte to grupper for de to forskellige regnestykker. Herefter talte de deltagernes svar sammen og beregnede gennemsnittet for hver gruppe. Gennemsnittet for den gruppe der startede med de store tal, var 2250. Gennemsnittet for den gruppe der startede med de lave tal, var 512. Det rigtige svar er 40.320.

Men andre ord, så betyder det meget, om man hører et højt eller et lavt tal først. Dette kaldes et anker, fordi det første tal man hører fungerer som et anker der ”trækker” i svaret.  Hvis du går i en elektronikbutik og ser et TV til 40.000, så er det ikke sikkert at butikken regner med at sælge et eneste af disse fjernsyn. Grunden til at de har dem stående er, at deres pris kan tjene som anker, og få et TV til 20.000 eller 10.000 til at se relativt billigere ud. Ankre er noget der meget ofte bliver anvendt, ikke mindst under lønforhandlinger. Ankre er endnu en kendt kognitiv bias der, ligesom alle de andre, er meget svært at slippe af med. Kahnemann, der også underviste i forhandlingsteknik, anbefaler i bogen ”At Tænke – hurtigt og langsomt” ligefrem helt at trække sig fra en forhandling, hvis der kommer et urealistisk anker på bordet.

Tilgængelighedsbias.

I sommeren 2017 gik jeg på hærvejen mellem Viborg og Engesvang med min familie. Turen går igennem en række plantager og små landeveje, hvor man ikke møder et øje. Efter et par dage siger jeg til min familie, at ”Midtjylland må være det område i Danmark, hvor der er mest øde”. Hvorefter det slår mig at jeg jo aktivt har søgt steder hen hvor der er øde i Midtjylland, og at jeg havde gået, ikke kørt, igennem det og det har taget lang tid. Min hjerne er på det tidspunkt nærmest marineret i den ide, at der ikke findes mennesker i Midtjylland.

Det der skete med mig hedder tilgængelighedsbias, og betegner det fænomen, at vi fejlagtigt tillægger information der er mentalt let tilgængelig for os, større værdi end ting vi skal bruge mere mental energi på at hente frem. Umiddelbart lyder det jo også meget rimeligt, at det vi bedst kan huske, også er mere hyppigt forekommende, men det er det ikke.

Det fungerer sådan, at ting vi synes er svære at huske, synes vi er mindre udbredt – og omvendt.

Craig R. Fox, fra UCLA, lavede et studie hvor han ville finde ud af hvordan tilgængelighedsbias fungerer i relation til kursusevalueringer (ja, det ER et lidt smalt emne😊)

I sit studie bad han to grupper udfylde en kursusevaluering. Den første gruppe bad han om at komme med to forslag til forbedringer af kurset, en kognitivt let opgave. Den anden gruppe bad han om at komme med ti forslag til forbedringer, en kognitivt svær opgave. Herefter bad han begge grupper vurdere kurset på en skala fra et til syv. Den gruppe der blev bedt om at komme med 10 forslag til forbedringer gav kurset bedre vurderinger, end gruppen der kun skulle komme med to forslag til forbedringer. Med andre ord: Når det er let at finde forbedringer til et kursus, har man en tendens til at synes at et kursus er dårligt, og når det opleves som svært at finde forbedringer, så synes man kurset er godt.

Det vil sige, at hvis man vil manipulere en gruppe mennesker til at synes at noget ikke er særligt udbredt, kan man bede dem om at komme med mange eksempler på det. Omvendt vil enkeltsager, eksempelvis i pressen, få folk til at mene at ét ekstremt eksempel er udtryk for et problem, der er større end det egentligt er. Indsæt selv her et eksempel på din yndlingsaversion fra medierne, skattesnyd, socialt bedrageri osv.

Confirmation Bias

Der var to problemer ved den oplevelse som jeg omtalte i forordet. Selvfølgelig var det meget bekymrende at have forkert faglig viden - og pinlig at have handlet efter den i så mange år. Men det helt store spørgsmål var, hvordan jeg dog havde kunnet undgå at vide det? Jeg og mine kolleger havde jo netop holdt os fagligt opdaterede? I det store hele var der ikke noget af den viden jeg har nu, som jeg eller mine kolleger ikke havde kunnet tilegnet sig længe før mit panikanfald.

Svaret hedder Confirmation Bias, altså bekræftelses bias.

Kort fortalt er Confirmation Bias et fænomen, der dækker over at vi mennesker forsøger at ignorere information, som ikke passer med det vi i forvejen tror på.  Når vi bliver forelagt information der ikke ”passer i vores kram”, vil vi typisk forsøge at miskreditere informationen eller afsenderen, eller på anden vis tage afstand fra informationen.  Man er heller ikke særligt tilbøjelig til aktivt at lede efter information der afkræfter noget man tror på. Hvorfor skulle man dog det?

Her er et eksempel på hvordan Confirmation Bias kan påvirke os i praksis. Min kone, Anne Mette, og jeg er vinterbadere. Hver morgen kører vi til Ballehage ved Aarhus for at bade. En morgen i bilen, på vej til vores morgenbad, begyndte vi at diskutere om det egentligt er sundt eller usundt at vinterbade. Vi syntes jo begge at det måtte være sundt, og vi føler os begge vældigt opløftede efter vores morgenbad. Jeg googlede det hurtigt på min telefon og fandt to undersøgelser: En fra Danmark der sagde at det sagde at det øgede livslængden en anelse, og én fra Kina der sagde at der var en overhyppighed af hjerteanfald blandt vinterbadere. Vores første indskydelse var: ”Jamen det er jo også en Kinesisk undersøgelse, og den er nok dårligt udført.”. Men sjovt nok stillede vi ikke samme spørgsmål omkring den videnskabelige kvalitet ved den danske undersøgelse, der bekræftede det synspunkt vi godt kunne lide. (Begge konklusioner lader sig i øvrigt fint gøre samtidigt. Man kan fint både have øget livslængde og en overhyppighed af hjerteanfald som konsekvens af vinterbadning – om end ikke i samme person. Det ene udelukker ikke det andet.) Vi bader stadig – ikke fordi det nødvendigvis er mere sundt end at lade være, men fordi vi godt kan lide det.

Når vi nu taler om Confirmation bias, er det relevant at nævne Facebook, der er programmeret til at give os mere af det vi i forvejen kan lide. Det inviterer jo ikke ligefrem til kritisk tænkning.

”Så brug dog den sunde fornuft©

En indvending jeg ofte hører når jeg taler om biaser er, at det da må være rigeligt fint at bruge sin ”sunde fornuft”. Det er i den forbindelse på sin plads at minde om, at vores hjerne og det vi kalder ”sund fornuft” er udviklet igennem evolution med det formål at holde os i live og løse problemer, i et miljø der fandtes for 200.000 år siden i naturen i Afrika, hvor vi levede i små grupper og hvor selve det at overleve var en konstant kamp. Vores hjerne er, med andre ord, en stenalderhjerne.

Vi har en tendens til at mene, at den måde vi ser verden på er den rigtige, og at vi er toppen af al evolution.

Naturen er som naturen er, og man kan ikke sige at den er rigtig eller forkert. En foton er en foton. Man vil vel ikke sige at en foton ikke findes, blot fordi et eller andet dyr ikke kan se den, vel? Sådan er forskellige væsener tilpasset det miljø de lever i.

En knælerreje har 13 forskellige receptorer i deres øjne. Mennesker har kun 3.

De 13 forskellige receptorer gør at den blandt andet kan se infrarødt lys og en masse andre ting, som vi ikke kan se, og det gør at Knælerrejen har bedre overlevelseschancer - i det miljø den lever i. [1]

Det samme princip gælder hjerner.

Bare fordi vores hjerne har svært ved at forstå Relativitetsteorien eller Kvantemekanik, betyder det jo ikke, at det ikke findes. Og omvendt: Hvis vores hjerner systematisk lader sig påvirke af faktorer, der ikke er relevante, når vi træffer beslutninger, bliver de jo ikke relevante, bare fordi vi føler at det er rigtigt.

Vores hjerne har, som nævnt, udviklet sig til den form den har nu, for ca. 200.000 år siden i Afrika i et miljø hvor det var hårdt at skaffe føde nok til bare at overleve. Samtidig er hjernen enormt energikrævende. Et menneskes hjerne udgør kun ca. 5% af den samlede kropsvægt, men den står for ca. 25% af det samlede energiforbrug[2]. Derfor er er der et enormt pres på hjernen for at spare på energien hvor den kan, og være så effektiv som muligt. Derfor er hjernen altid ude på at optimere og automatisere, og derfor ser den virkelig ikke nogen grund til at bruge det anstrengende system 2 når system 1 nu klarer det OK. Og den er heller ikke synderlig tilbøjelig til at ændre mening, når først den har dannet én.

Vi er altså stadig udstyret med en stenalderhjerne her i vores moderne, digitale verden, hvor det IKKE er en kamp bare at overleve, og hvor kravene til os er nogle ganske andre end de var på stepperne for 200.000 år siden i Afrika.

Vi har en forkærlighed for fedt, sukker, salt, og en modvilje mod motion. Med andre ord; en forkærlighed for at optage så meget energi som muligt, og for at spare så meget som muligt på den.

Mennesket har udviklet sig til at leve sammen i mindre grupper. Samarbejdende grupper af mennesker har større chancer for at overleve end ikke-samarbejdende mennesker. Så alle egenskaber i mennesker der styrker fællesskaber er blevet fremelsket igennem evolution. Det er derfor vi bliver motiveret af at være sammen med andre mennesker, og også derfor vi næsten(?) kan blive afhængige af sociale medier. For 200.000 år siden var det livsvigtigt at holde sig orienteret socialt.

Denne tilpasning via evolution har også påvirket den måde vi træffer beslutninger på.

Lidt firkantet sagt kan man sige, at når vi træffer beslutninger så gør vi det på meget kort tid, uden at forholde os til ret meget information. Faktisk er der forskning der viser, at vi IKKE forholder os til al tilgængelig information, men træffer en beslutning når vi synes vi har information ”nok”. Beslutningen flugter typisk med vores eksisterende holdninger, og flugter typisk også med den socialgruppe vi føler os en del af. Bagefter efterrationaliserer vi os frem til hvorfor den beslutning vi allerede har truffet er den rigtige. Al information der modsiger vores beslutninger miskrediteres eller ignoreres. Alt dette sker helt ubevidst.

Der er for nyligt kommet et bud på HVORFOR vi mennesker i det hele taget har evnen til at tænke rationelt (når vi gør os umage). Det kommer fra Hugo Mercier og Dan Sperber, der i deres bog ”The Enigma of Reason” argumenterer for, at grunden til at vi har et ”fornuftsmodul” er, så vi kan forklare vores beslutninger for andre. Dette gør at vi kan vi bedre kan samarbejde og finde fælles løsninger - til gavn for alle i gruppen.

Rent evolutionsbiologisk giver det fin mening. Vi behøver slet ikke at kunne tænke rationelt for at kunne overleve og give vores gener videre. Vi kunne sagtens overleve udelukkede ved brug af det Kahnemann kalder system 1 for 200.000 år siden. Mange dyr overlever fint med meget mindre. Når evnen til rationel tænkning alligevel udviklede sig, var det fordi individer i grupper der var gode til at samarbejde havde højere overlevelse, og derfor kunne give disse gener videre.

Spar på energien, Stå fast, og vær social.

Lad os lige opsummere de overordnede karakteristika for hjernen der stammer fra vores stenalderhjerner:

  • Hjernen vil gerne spare energi, og derfor er den ”doven” - eller energi-effektiv om du vil.
  • Hjernen laver kun meget nødigt om i noget som den én gang har besluttet sig for. Dvs. det meste af vores adfærd er automatiseret i form af vaner og hurtige beslutninger.
  • Vi er sociale dyr, så vi bekymrer os om hvad andre mennesker synes om os.

Disse tre elementer er helt nødvendig at forstå, når vi senere skal tale om hvad der motiverer os mennesker.

Biaser i vurdering af læring

I 2011 lavede forskerne Jeffrey D. Karpicke og Janell R. Blunt, fra Perdue Universitet et forsøg [3], der bl.a. undersøgte hvor stor forskel der var på læringsudbyttet, afhængigt af om man blot øvede sig i at huske det man havde lært, frem for at man arbejdede visuelt med stoffet og organiserede det i diagrammer hvor man illustrerede sammenhænge mellem elementer i det der arbejdedes med, også kaldet udvidet koncept mapning (elaborate concept mapping).

Karpicke og Blunt delte forsøgspersonerne op i fire grupper. Alle forsøgspersonerne læste en tekst om et naturvidenskabeligt emne. Gruppe 1 læste teksten én gang. Gruppe 2 læste teksten fire gange med tid i mellem. Gruppe 3 læste teksten en gang, og arbejdede derefter med at forbinde begreberne fra teksten i ”Concept maps”. Gruppe 4 blev bedt om at læse teksten en gang, og derefter blev de bedt om at øve sig i at huske så meget som de kunne fra teksten, også kaldet ”Retrival Practice”. Efter de havde øvet sig i at huske, fik de lov at læse teksten igen og øve sig i at huske igen. 

Der blev brugt præcis samme mængde tid til læring i gruppe 2,3 og 4.

Herefter blev de forskellige grupper bedt om at vurdere hvor meget de havde lært.

Hvilken gruppe vil du umiddelbart tro havde lært mest?

En uge efter den første del af forsøget blev forsøgsdeltagerne testet. Det var både spørgsmål der testede om deltagerne kunne huske konkrete elementer i det de havde studeret (Verbatim Questions), men også spørgsmål der krævede at de kunne forbinde forskellige koncepter fra det de havde studeret (Inference Questions).

Her kan du se resultatet:

 

Som du kan se var ”Retrieval Practice” gruppen, (gruppe 4) meget bedre end ”Concept Mapping” gruppen (Gruppe 3), der var nogenlunde sammenlignelig med gruppe 2, ”Repeated Study”. Ikke overraskende var gruppe 1 dårligst.

Måske forventede du at gruppe 3, ”Concept Mapping” gruppen, havde klaret sig bedst? Det gjorde jeg i hvert fald da jeg første gang læste om det.

Det er i sig selv interessant at ”Retrieval Practice” er mest effektivt, men når vi så begynder at kigge på hvad forsøgspersonerne selv vurderede som den mest effektive metode, så bliver det endnu mere interessant.

Forsøgsdeltagerne troede at ”Retrival Practice” var den mindst effektive måde at lære på, hvor det faktisk forholdt sig præcist omvendt.

Karpicke og Blunt udvidede deres forsøg for at undersøge om effekten og opfattelse af effekten var den samme ved andre former for indhold.

Du kan se svaret herunder.

 

Blå søjler viser ”Concept Mapping” gruppen, Grøn, ”Retrieval practice” gruppen

Graferne A, B, C og D viser forsøgsdeltagernes faktiske performance på fire forskellige typer opgaver.  I alle tilfælde klarer ”Retrieval Practice” gruppen sig bedst.

Graferne E, F, G og H viser forsøgsdeltagernes forventning til hvordan de ville klare sig. I alle tilfælde er vurderingen at ”Concept Mapping” gruppen ville klare sig bedst. Men det gjorde den altså ikke.

For at opsummere så er ”Retrieval Practice” meget mere effektivt end ”Concept Mapping” uanset hvad der skal læres, men langt de fleste tror at det forholder sig omvendt.

Hvorfor mon det?

Et bud på et svar kunne være: Selvovervurdering og en indbygget trang til at spare på energi.

Selvovervurdering

Der er mange undersøgelser der viser at vi overvurderer vores egen evner[4].   En undersøgelse undersøgte hvor godt svenske og amerikanske personer vurderede deres evner som bilister. 93% af de amerikanske forsøgsdeltagerne og 69% af de svenske forsøgsdeltagere vurderede at de var bedre end gennemsnittet. Og det kan jo i sagens natur ikke være sandt.

De kulturelle forskelle er naturligvis interessante, men for nu er det vist nok at nøjes med at konstatere, at begge grupper overvurderede deres evner.

Undersøgelser viser også, at kun én ud af 661 personer siger at de er mere påvirkede af kognitive biaser end gennemsnittet.[5] Dette fænomen kaldes Bias blind spot.

Da jeg første gang læste om Karpicke og Blunts forsøg, tænkte jeg at ”Concept Mapping” lød som en dejlig visuel måde at arbejde med stoffet på, og at ”Retrieval Practice” lød ret meget som både dumt og hårdt arbejde.

Da hjernen jo ikke kan lide at arbejde hårdere end højest nødvendigt, er det ”praktisk” for den, at vi vurderer metoder hvor vi ikke skal bruge ret meget energi, som værende den mest effektive. Men det giver en illusion af læring.

Det minder om den klassiske historie om Euklid der svarede kong Ptolemæus II, at der ”ikke findes en kongevej til at lære geometri”. Kongen havde spurgt Euklid om der ikke fandtes en lettere måde at lære geometri end at læse Euklids bog, ”Elementerne”.

Rigtig mange drømmer om en genvej til læring, men der er typisk en sammenhæng mellem den mentale energi der anvendes, og hvor godt man lærer. Det er meget vigtigt lige at fastslå, at hvis du læser dette afsnit som om at jeg advokerer for udenadslære i stor stil, så er det ikke min hensigt. Du kan læse mere om Karpickes meget spændende forskning her: http://www.apa.org/science/about/psa/2016/06/learning-memory.aspx

Karpicke og Blunts undersøgelse viser tydeligt at man skal være meget varsom med at basere sine vurderinger af hvad der fungerer indenfor læring, på egne og andres subjektive vurderinger, og at man i stedet bør søge at lave objektivt verificerbare målinger.

Dunning-Kruger effekten

Nu vi er ved selvovervurdering så vil jeg gerne fortælle dig historien om McArthur Wheeler, en mand fra Pittsburgh USA, der i 1995 forsøgte at røve en bank, med citronsaft i ansigtet som den eneste forklædning(!). Wheeler havde som barn lært at citronsaft kunne bruges som usynligt blæk, og fik derfor den idé, at citronsaft ville skjule hans ansigt og gøre det usynligt.

Da han ikke havde gjort yderligere for at skjule sin identitet, blev han fanget uden de helt store problemer. Da han blev præsenteret for overvågningsvideo hvor han selvfølgelig var fuldt genkendelig, udtrykte han oprigtig overraskelse, og kunne ikke forstå hvorfor hans plan havde fejlet.

Historien om Wheeler inspirerede David Dunning og Justin Kruger fra Cornell Universitet til at undersøge sammenhængen mellem det vi faktisk ved, og hvordan det påvirker vores vurdering af det vi tror vi ved. (Unskilled and unaware of it: how difficulties in recognizing one's own incompetence lead to inflated self-assessments.[6])

Dunning og Kruger fandt ud af, at jo mindre deltagerne i deres forsøg faktisk vidste om et emne, jo bedre vurderede de sig selv. I takt med at deltagerne fik mere viden om emnet, sænkede de deres vurdering af deres evner så de blev mere realistiske. Nogen sænkede dem faktisk så meget at de undervurderer deres evner i forhold til andre (dette kaldes også kaldet impostor syndrom).

Det er Dunning-Kruger effekten, der eksempelvis får dig til at tro, at du ved næsten lige så meget om medicin som en ansatte ved sundhedsstyrelsen, der typisk har læst Medicin i 6 år -  efter at du har lavet en googlesøgning og brugt 30 minutter på at læse en artikel.

Din uvidenhed er IKKE lige så god som min viden

Isaac Asimov sagde allerede i 1980 i Newsweek at: “Der er en kult af uvidenhed i USA, og det har der altid været. Denne anti-intellektualisme har været en konstant tråd der trækker sin vej igennem vores politiske og kulturelle liv, og er næret af den falske forestilling om at ”din uvidenhed er lige så god som min viden."

Jeg kan tilføje at det nok forholder sig sådan alle steder hvor der er mennesker, og ikke blot i USA.

Vi mennesker elsker nemme svar på komplicerede problemer.

Og de fleste problemer er komplicerede, når man bruger tid på at undersøge dem. Men det er de færreste der gider, eller har forudsætninger for at gøre det.

Tag nu evolution. Jeg er overbevist om at videnskaben har undersøgt beviserne tilstrækkeligt for at evolution faktisk beskriver hvordan livet på denne klode har udviklet sig. Jeg har mødt en person, der efter at have set en 30 minutters video på YouTube, havde alle mulige argumenter for hvorfor evolution ikke passede. Nu har jeg faktisk brugt lang tid på at studere dette, har læst en del bøger skrevet af folk der har brugt endnu længere tid på at studere dette. Men jeg har da ikke faglige forudsætninger for at kunne vurdere om de forskellige beviser passer eller ej. Og kan da slet ikke overbevise en person der er bevæbnet med en overbevisning og 30 minutters (forkert) viden om emnet. Jeg må stole på videnskaben.

Man møder også ofte udsagn som, ”de er dumme nede i EU”, ”de styrer sygehusene forkert”, ”politikerne er dumme”, ”medicinalindustrien er med i en stor sammensværgelse”. Efterfulgt af en let løsning på problemet. Selvfølgelig findes der inkompetente og grådige mennesker, men mange af de førnævnte udsagn bunder i at man simpelthen tror, at man uden dybere indsigt, ved bedre end en stor gruppe veluddannede mennesker, der arbejder hårdt på at finde balancerede løsninger, på komplicerede problemer. Det er helt OK at synes at ”de er dumme nede i EU” og så videre, men så må det være på et oplyst grundlag. Din uvidenhed er nemlig IKKE lige så god som min viden.

The Deficit Model. Hvordan ændrer man bedst folks overbevisninger?

Typisk har man antaget, at hvis der var noget folk havde en fejlagtig eller mangelfuld opfattelse af, så var løsningen at give dem den information der manglede (kendt som ”The Deficit Model”). Erfaringer har vist at det ikke fungerer. Det er meget svært for mennesker at skifte holdning, da deres holdninger typisk er en meget stor del af deres identitet.

I et interview i Scientific American [7]fortæller klimaforsker, Katharine Hayhoe, om sine erfaringer med at få folk til at tro på menneskeskabte klimaændringer. I USA er det typisk religiøse, kristne republikanere der er klimaskeptikere. Katharine Hayhoe beskriver sig selv som værende i ”udkanten af mange stammer” (”On the fringes of many tribes”). Udover at være klimaforsker og universitetsprofessor i samfundsvidenskab er hun også direktør i et klimakonsulentfirma, og har lavet en ”myth-busting” webserie, ”Global Weirding”. Sidst men ikke mindst er hun Evangelisk Kristen. Især det sidste giver hende nok væsentligt mere taletid og troværdighed, end de fleste andre klimaforskere har i religiøse grupper. Hun beskriver hvordan hun, efter at have præsenteret forskning om klimaændringer for et klimaskeptisk publikum, har oplevet at folk siger til hende: ”Der giver meget god mening, det du siger, og jeg ville ønske at jeg kunne tro på dig. Men det kan jeg altså ikke, for det vil betyde at jeg er enig med Al Gore”. Hvis det ikke er tydeligt nok, skal det i parentes bemærkes at Al Gore er MEGET upopulær i de grupper.

Katharine Hayhoe fortæller hvordan hun er meget påpasselig med hvordan hun kommunikerer sine budskaber afhængigt af målgruppen. I nogle grupper siger hun ikke ordene ”klima” og ”ændring” efter hinanden. Når hun taler med kristne, taler hun om biblens budskab om at passe på jorden, med libertanere/”Liberale” taler hun om markedskræfter og økonomiske fordele ved grøn teknologi. Med mødre taler hun om at forurening påvirker vores børns helbred. Men landmænd taler hun om tørke og regn. Hun forsøger at undgå at polarisere, og fokuserer i stedet på konkrete nærværende problemer og på mulige løsninger. Undersøgelser der har beskæftiget sig med hvordan man overbeviser vaccineskeptikere, har også bekræftet at det er en bedre at strategi at fokusere på fordelene ved vacciner, (dvs. undgå at dit barn dør af en sygdom som du kan forhindre med en vaccine), end at fokusere på, at de data man har er rigtige og at modpartens er forkerte.

Den blinde vinkel

Forskning viser, at vi ikke kan ”undslippe” vores biaser, og at vi har en ”blind vinkel” i forhold til at erkende vores egne biaser. Vi kan simpelthen have svært ved at erkende at vores beslutningsapparat er fejlbehæftet. [8] Dette kaldes ”Bias Blindspot”

For eksempel mener de fleste læger ikke at de selv bliver påvirkede af gaver og rejser fra medicinalindustrien, men de samme læger mener at læger i almindelighed kan påvirkes af gaver og rejser fra medicinalindustrien. En typisk - og naturlig - reaktion på denne information er at tænke, at det sikkert kun gælder de adspurgte læger. Den gælder i hvert fald ikke dig. Men alle mennesker bliver påvirket af biaser. Forskning har også vist at den mest effektive måde at imødegå bias er ved at kende til dem og aktivt søge at undgå dem.

Fake news

Det er oplagt at forstå begrebet Fake News i lyset af kognitive biaser.

Oprindeligt betød begrebet Fake News, nyheder der er faktuelt forkerte. Siden er det blevet brugt om nyheder der er faktuelt rigtige, men som man ikke kan lide. Derved sår man tvivl om afsenderen, og laver en ”fake news” på selve begrebet Fake news.

Hvis (falsk) information gentages tilstrækkeligt mange gange, vil det typisk have den konsekvens at man begynder at tillægge informationen en vis værdi. Som vi så med forsøget med de falske selvmordsbreve, og som du måske selv kunne mærke i afsnittet om lorteglasset, så kan man ikke engang ignorere information selvom man VED at det er forkert. Man begynder uvægerligt at tænke som det gamle ordsprog ”Der går ikke røg af en brand uden ild”, eller ”der er nok noget om snakken” og nærmest ”mødes på halvvejen” i mellem sandt og falsk. 

I mange tilfælde kan det også være meget svært at vurdere om noget information er sandt eller falsk; det kan være at man ikke har faglige forudsætninger for at forstå et emne, eller at man ikke har tid til at sætte sig ordentligt ind i det.

Naomi Oreskes, professor ved Harvard, har skrevet en bog der hedder ”Merchants of Doubt”, hvori hun beskriver hvordan tobaksindustrien og miljøskadelige virksomheder systematisk har søgt at skabe tvivl om ubekvem forskning, ved at publicere information der såede tvivl om budskabernes rigtighed. Oreskes har for nylig, sammen med Postdoc Geoffrey Supran, påvist at et af verdens største oliefirmaer, ExxonMobil, udadtil betvivlede menneskeskabte klimaforandringer, samtidig med at deres egen forskere beviste dem.[9]

Fake News blev også med stor succes anvendt imod Hillary Clinton ved præsidentvalget i USA 2016. Republikanerne omtalte hende konsekvent som ’Crooked Hillary’, og nævnte forskellige skandaler, heriblandt ”e-mail skandalen”.

Hvis man gider at læse en saglig gennemgang af e-mail ”skandalen”, og har faglig indsigt i emnet, vil en enhver kunne se, at vel havde hun opført sig kritisabelt fordi hun ikke er stærk til IT, (tænk ”din bedstemors omgang med IT/Passwords”), men ikke kriminelt, og at mange andre, også politiske modstandere, har opført sig på samme måde. Problemet er, at de fleste ikke orker at sætte sig ordentligt ind i sagerne, og måske mangler de også den faglig indsigt. Du kan læse en fin overordnet, men stadig lidt lang, gennemgang her: http://www.bbc.com/news/world-us-canada-31806907

Bundlinjen er, at sagen blev brugt imod hende igen og igen, også selvom der ikke var ret meget at komme efter.

I Rusland opererer de efter Gerasimov Doktrinen (efter den russiske General Valery Gerasimov), hvor de systematisk spreder misinformation i verden, for at fremme deres egne interesser. Til formålet har de oprettet ”nyhedsbureauer” der fabrikerer historier. Du kan læse et eksempel på hvordan Rusland afsporede en debat om Sveriges mulige optagelse i Nato her: https://www.nytimes.com/2016/08/29/world/europe/russia-sweden-disinformation.html?mcubz=1

Her kan du læse om hvordan Russiske medier spreder falske nyheder om dyresex i Danmark; https://www.bt.dk/danmark/russiske-medier-spreder-falske-nyheder-om-dyresex-i-danmark. Her er motivet lidt mere uklart, end det at forsøge at forpurre et muligt svensk medlemskab af Nato, men mon ikke det skal findes i retning af at skabe en følelse af moralsk overlegenhed. Det kunne jo være at det kunne bruges på et senere tidspunkt. Gys.

Her kan du læse hvordan falske Facebook-konti oprettet af et russisk firma ”med forbindelser til Kreml”, i august 2016, oprettede grupper og events med Anti-immigrations dagsorden, der flugtede med Donald Trumps budskaber: https://www.nytimes.com/2017/09/12/us/politics/russia-facebook-election.html?mcubz=1

Jeg mødte for nylig en sød, veluddannet amerikaner ved et middagsselskab i Danmark, der udtalte at Donald Trump vandt både the electoral vote og the popular vote. Jeg indvendte høfligt at Hillary Clinton fik knap 3 millioner flere stemmer end Trump.  Han svarede:” No, they looked into it and he won both”. Læg mærke til brugen af det uspecifikke ”they”, dvs. et udsagn angivet som et faktum uden kildeangivelse. For ikke at spolere den gode stemning skiftede jeg emne.

Nu er det jo ikke nyt at politikere og fremmede magter anvender propaganda til at fremme egen interesser, men det er ret skræmmende at se hvor effektivt det er her i 2017, og hvor systematisk det bliver anvendt.

Den røde pille­­

Nu er det vist på tide at komme med en indrømmelse.

Jeg fortalte ikke hele sandheden da jeg skrev at grunden til at du skulle lære om kognitive biaser var så du kunne se ANDRES kognitive biaser.

Det er faktisk vigtigere at du får øje på dine EGNE, og især på confirmation bias. 

Hvis du er kommet hertil i din læsning, uden at føle dig ramt af dine biaser er det sikkert fordi du har tænkt ”Det sker kun for de der skøre amerikanere”, eller ”Lige det der forsøg er der nok noget galt med” eller noget lignende. ”Kognitive biaser gælder ikke mig. JEG er speciel og unik.” Det tænker jeg i hvert fald selv.

Men nu går den ikke længere. Altså, unik er du selvfølgelig, men du ER også underlagt kognitive biaser lige som alle andre mennesker på jorden. Det er et vilkår ved det at være menneske.

Jeg fortalte på et tidspunkt en af mine gode venner om kognitive biaser, som hun på det tidspunkt aldrig havde hørt om. Trods det, mente hun sagtens at hun kunne tage højde for dem – uden at kende dem.

Daniel Kahnemann, der har brugt et helt liv på at undersøge menneskers kognitive biaser, er ofte blevet spurgt, om han så ikke bare kan lade være med at lade sig påvirke af dem, når han nu kender dem så godt. Hans svar er, at han højst kan være heldig at observere når han bliver påvirket af dem.  Og så må man jo efter bedste evne prøve at imødegå effekterne, eksempelvis ved at ændre praksis for hvordan man retter opgaver.

Den Perfekte storm

Confirmation bias fungerer som en effektiv sikring imod at du lærer noget, der ikke matcher det du tror på i forvejen. Sammen med Dunning-Kruger og Bias Blindspot så udgør de den perfekte storm i forhold til at du ikke ændrer markant ved status quo af det du ved.

Hvis du virkelig gerne vil lære, må du være klar til at opgive alt hvad du i forvejen tror på, hvis evidensen peger i en anden retning.

Jamen TROR du da ikke på noget?

Der er mange der spørger, om jeg tror på et eller andet, eksempelvis ”Tror du på evolution?”

Svaret er, at jeg ikke tror på noget som helst.

Jeg ”tror” heller ikke på videnskab. Jeg vælger at acceptere plausible fakta når de bliver præsenteret for mig. Hvis jeg bliver præsenteret for plausible fakta, der modsiger noget jeg tror på, så ændrer jeg holdning. Sådan vil jeg i hvert fald gerne have det. Helt ærligt så er det ikke altid det lykkes, men jeg prøver.

Der er ÉN undtagelse. Jeg tror på kærlighed og medmenneskelighed, og det bliver jeg ved med, også hvis der skulle vise sig et videnskabeligt bevis, der siger det modsatte.

Jeg syntes egentligt, at jeg var ret videnskabeligt orienteret inden mit panikanfald, men jeg har fundamentalt ændret min opfattelse af betydningen af videnskab. Videnskab handler ikke om at bekræfte det man tror på, men om at prøve at falsificere det man tror på.  Hvis der er noget information man ”godt kan lide”, er det en god dag hvis man stadig tror på det, efter en kritisk google søgning, hvor man oprigtigt har forsøgt at afkræfte det.

Siden jeg lærte om mine kognitive biaser, er jeg begyndt at se på mine holdninger, de fakta jeg tror på og de beslutninger jeg træffer, ikke som en del af mig, men som et produkt af mig. Det er blot noget min hjerne producerer, ud fra den information den har til rådighed, min biologi, og de erfaringer jeg har gjort mig. Og de er selvfølgeligt påvirket af mine kognitive biaser.

Det gør det også lettere for mig at skifte holdning, når jeg opdager at jeg tager fejl. Det er ikke mig der er noget galt med, det er blot mine kognitive biaser der er løbet af med mig.

Helt ærligt, så kan det indimellem være ret besværligt. Jeg tænker nogle gange på at det var lettere før, hvor jeg ikke vidste alt det jeg ved nu. Hvor jeg havde det sådan, at hvis det føltes rigtigt, så var det rigtig, og jeg havde mere eller mindre ret i alting hele tiden.

Jeg har det lidt ligesom om jeg har slugt den røde pille i filmen the Matrix. Der hvor Morpheus siger til Neo:

”This is your last chance. After this, there is no turning back. You take the blue pill—the story ends, you wake up in your bed and believe whatever you want to believe. You take the red pill—you stay in Wonderland, and I show you how deep the rabbit hole goes. Remember: all I'm offering is the truth. Nothing more.”

Hvis du ikke har set The Matrix, betyder det blot at når du har taget den røde pille, så opnår du en indsigt som ikke kan tages væk igen. Også selvom man godt kunne ønske det.

Under arbejdet med denne bog, er jeg ofte blevet spurgt ”Hvad skriver du om?”. Når jeg så begynder at fortælle om kognitive biaser, kan jeg godt se at blikket bliver noget langt hos de fleste. Nogle få lytter med lidt længere tid og jeg får tydeligt fornemmelse at de synes at ”det er mildt interessant, men det vedrører ikke mig.”.

Indimellem får jeg også at vide af dem jeg diskuterer med at ”jeg synes jeg ved det hele”.

Det synes jeg i høj grad ikke. Jeg føler mig ikke bedre end andre mennesker, og jeg ved ikke alt. Men jeg ved en del om emnet, og Jeg VED, at jeg i høj grad bliver påvirket af mine kognitive biaser, og at andre også bliver det. Når jeg diskuterer dette emne med personer der ikke kender til biaser og ikke anerkender at de bliver påvirket af dem, så er det indimellem lidt svært at komme særligt langt i diskussionen.

Jeg har ikke fået mange nye venner med det budskab jeg kommer med: ”Du (og jeg) er meget mere fejlbarlig end du tror, og du kan ikke lide at indrømme det.” Men jeg kan ikke lade være med at blive ved med at forsøge at udbrede det jeg ved, og det er også derfor jeg skriver dette. For det er alt for vigtigt til at jeg kan slippe det.

Det der er på spil er, at vi mennesker beviseligt har alvorlige indbyggede fejl i vores opfattelses- og beslutningsapparat. Og at langt de fleste mennesker ikke ved det. Og at vi har et værn imod at komme til at vide det, i form af konfirmation bias. Og at forskning viser at den bedste måde på at undgå effekten af biaser er at kende til dem. Trods det, foregår der ikke en systematisk uddannelse af befolkningen om dette. Det påvirker dommere, læger, lærere, dem der tager sig at din pensionsopsparing, alle politikere der træffer beslutninger om hvordan vi indretter vores samfund, din mor, din far, din kollega, din chef, dine børn, dine børns lærere - og dig.  Og det betyder mere end du tror for dig og din dagligdag.

Det synes jeg at vi alle bør gøre noget ved.

 

Hvis du vil vide lidt mere om hvad bogen indeholder, kan du læse indholdsfortegnelsen.

 

Noter

[1] http://www.iflscience.com/plants-and-animals/this-is-what-the-world-looks-like-to-a-mantis-shrimp/

[2]   Suzana Herculano-Houzel: What is so special about the human brain?

[3] http://science.sciencemag.org/content/331/6018/772.full

[4] https://en.wikipedia.org/wiki/Illusory_superiority

[5] https://www.cmu.edu/news/stories/archives/2015/june/bias-blind-spot.html

[6] https://www.ncbi.nlm.nih.gov/pubmed/10626367

[7] Scientific American. October 2017, The Roots of Science Denial.

[8] https://sciencealert.com/our-biases-are-stronger-than-our-ability-to-perceive-facts

[9] Først fundet i artiklen ”Tvivlens Købmænd”  i Weekendavisen 1. september 2017. Samme historie findes omtalt online her: http://www.latimes.com/opinion/op-ed/la-oe-oreskes-supran-exxonmobil-20170901-story.html

Tomas Lund er ekspert indenfor læring og elæring.

comments powered by Disqus

Hmmm... Hvad nu?

Vi håber at du har set noget du synes var din tid værd og får lyst til at høre mere om hvordan vi kan hjælpe dig.

Vi har knap 20 års erfaring indenfor læring, der gør en forskel, så vi kan helt sikkert også hjælpe dig.  Giv os et kald på 86 18 48 66 og lad os hjælpe dig godt videre.