Denken als een wetenschapper is erg moeilijk, zelfs voor een wetenschapper. Eerdere overtuigingen moeten aan de kant worden gezet, de kwaliteit en betekenis van het bewijs geëvalueerd en afgewogen worden tegenover de context van eerdere bevindingen. Maar je eigen overtuigingen opzij leggen en objectief blijven, zit niet in de menselijke aard.
Er is een overweldigende hoeveelheid wetenschappelijk bewijs dat de theorie van evolutie ondersteunt en toch zegt één derde van de Amerikanen dat de theorie volkomen verkeerd is. Net zo is er overweldigende wetenschappelijke overeenstemming dat menselijke activiteit bijdraagt aan klimaatverandering en toch twijfelt één derde van de amerikanen.
In Engeland zijn ze er net zo aan toe. In een recente survey zei 96 procent van de leraren dat ze geloofden dat studenten beter leren wanneer ze les krijgen volgens hun persoonlijke leerstijl, en dat terwijl er nauwelijks wetenschappelijke bewijs is voor dat idee. In een nieuw deel van de serie Psychology of Learning and Motivation, bekijken Priti Shah en haar collega’s van de universiteit van Michigan in detail naar de redenen waarom mensen zo slecht zijn in wetenschappelijk denken. In dit artikel beschrijf ik vijf belangrijke inzichten.
We worden makkelijk beïnvloed door anekdotes
Wanneer we alledaagse beslissingen nemen, zoals het beginnen van een nieuwe behandeling of het inschrijven voor een bepaald vak op de universiteit, zullen de meeste van ons krachtiger beïnvloed worden door de persoonlijk getuigenis van één persoon dan door een onpersoonlijke beoordeling of uitslagen die gemiddeld zijn over veel mensen. Dit is de kracht van een anekdote die onze kritische vermogens dooft. In een studie die vorig jaar uit is gekomen, vroegen Fernando Rodriguez en zijn collega’s tientallen studenten om wetenschappelijke nieuwsberichten te beoordelen die onteechte conclusies trokken uit zwak bewijs. Sommige van die berichten begonnen met een anekdote die de foutieve conclusies ondersteunde, andere verslagen bevatte geen anekdotes en functioneerden als controle. Ongeacht hun universitaire niveau of kennis van wetenschappelijke concepten, waren de studenten minder goed in het kritisch evalueren van de berichten als ze met een anekdote begonnen. “Anekdotische verhalen kunnen ons vermogen om wetenschappelijk onderbouwde uitspraken te doen in reële situaties ondermijnen”, zeiden de onderzoekers. Natuurlijk wordt gezondheids- en wetenschapsnieuws in de media gebracht door middel van anekdotes, de kans dat de nieuwsconsument alle beweringen in het bericht voor waar aanneemt, wordt zo vergroot.
We zijn te zelfverzekerd
Wanneer we geconfronteerd worden met een wetenschappelijke bewering, vinden veel mensen het moeilijk om wetenschappelijk te denken over de desbetreffende bewering, omdat we ons begrip van de wetenschap overschatten. Een studie van 2003 vroeg honderden universiteitsstudenten om verschillende wetenschappelijke nieuwsberichten te lezen, te interpreteren en hun begrip te beoordelen. De studenten maakten veel interpretatiefouten, zoals het verwarren van correlatie en oorzakelijk verband zelfs wanneer ze dachten dat ze de materie begrepen. Dit doet sterk denken aan een enquête uit de jaren 80 onder duizenden Britten en Amerikanen: bijna 60 procent zei dat ze matig of goed geïnformeerd waren over nieuwe wetenschappelijke bevindingen en toch kon een veel lager percentage, eenvoudige vragen over elementaire wetenschap beantwoorden. Een deel van het probleem lijkt er in te schuilen dat we onze begrip van wetenschappelijke tekst baseren op hoe goed we de gebruikte taal snappen. Dit betekent dat populaire wetenschappelijke verhalen geschreven in lekentaal bij kunnen dragen aan een vals vertrouwen. Deze “tekstvaardigheidsbias” kan je ook terugzien bij wetenschapslezingen: een recente studie laat zien dat studenten de kennis die ze hadden opgedaan bij een lezing, overschatten als die gegeven was door een boeiende spreker.
We zijn bevooroordeeld door onze eerdere overtuigingen.
Dit obstakel voor een wetenschappelijke objectieve blik is aangetoond in een nu klassieke studie uit de jaren ’70 waarbin deelnemers gevraagd werde om wetenschappelijke onderzoek te beoordelen dat in strijd was met hun eerdere overtuiging, of die juist ondersteunde. Een van die studies liet bijvoorbeeld zien dat het aantal moorden lager was in Amerkaanse staten waar de doodstraf nog werd uitgevoerd. Deelnemers lieten een duidelijke bias in hun beoordeling zien. Als ze voor de doodstraf waren, dan oordeelden ze positiever over de studie over doodstraf. Als ze echter tegen de doodstraf waren, dan zagen ze er sneller fouten in.
Wetenschappelijke vaardigheden bieden weinig bescherming tegen deze cognitieve voorkeur, ze kunnen deze voorkeur zelfs versterken. Een studie uit 2013 vroeg deelnemers om een onderzoeksartikel te beoordelen over wapenwetgeving. De deelnemers die cijfermatig beter onderlegd waren, waren nog duidelijker bevooroordeeld: als de bevindingen van de studie hun overtuiging ondersteunden, was hun oordeel positief, maar als de bevindingen in strijd waren met hun overtuiging, gebruikten ze hun vaardigheden om de bevindingen neer te sabelen. Dit verschijnsel wordt “identiteitsbeschermende cognitie” genoemd wordt.
We worden verleid door grafieken, formules en inhoudsloze neurowetenschap.
De gemiddelde kranten- of tijdschriftlezer raakt makkelijk verblind met de oppervlakkige rekwisieten van de wetenschap, zoals formules, grafieken en vaktaal. Neem de volgende studie van Ibrahim et al,: onderzoekers vroegen deelnemers gevraagd een nieuwsbericht te bekijken over een correlatiestudie over genetisch gemodificeerde voedsel, dat ofwel in lijn was met het bestaande bewijs dat laat zien dat het veilig is, ofwel het daar niet mee in overeenstemming was en suggereerde dat het schadelijk zou kunnen zijn. Het bericht was wel of niet vergezeld van een spreidingsdiagram. Als het bericht dat niet overeenkwam met het onderzoek van het verleden zo’n grafische weergave had van het correlatieonderzoek, waren de deelnemers eerder geneigd om het onderzoek te interpreteren als bewijs voor het idee dat “genetisch gemodificeerde voedsel schadelijk zijn”, dan wanneer de deelnemers hetzelfde bericht hadden gelezen zonder grafiek. “Dit is zorgelijk”, schreef Shah et al., “want het demonstreert hoe makkelijk mensen overtuigd kunnen worden door nieuwe data, ongeacht de wetenschappelijke merites van de resultaten.” Soortgelijk onderzoek naar de kritische vaardigheden van lezers heeft aangetoond dat zij op een soort gelijke manier als verblind worden door ongegronde neurowetenschappelijke jargon en zinloze formules.
Alleen slim zijn is niet genoeg.
Zelfs ervaren onderzoekers leiden aan de menselijke tekortkomingen die wetenschappelijk denken ondermijnen. Hun kritische vermogens worden besmet door hun doelstelling, door hun uiteindelijke motivatie voor het doen van hun experimenten. Dit is waarom de open science revolutie die momenteel gaande is in psychologie zo belangrijk is: wanneer onderzoekers hun methodes en hypotheses transparant maken, en ze hun studies vooraf registreren, dat is de kans kleiner dat ze afgeleid, of zelfs bedorven worden door confirmatie bias (het uitkiezen van bewijs dat past bij hun bestaande overtuiging).
Kijk bijvoorbeeld naar systematische reviews in de psychotherapie: een recente analyse laat zien dat de conclusies van veel onderzoek zodanig verdraaid wordt dat de conclusie de voorkeur van de onderzoekers ondersteunt. In andere gevallen liet het hele bouwerk van de wetenschapspublicatie, van journals tot wetenschapsjournalisten, hun kritische vaardigheden vallen, alleen maar omdat men het eens wat met de boodschap die opduikt uit een onderzoek.
In hun boek, laten Shah en haar collega’s zien dat ruwe cognitieve vaardigheid (IQ) geen goede voorspeller voor iemands vaardigheid om als een wetenschapper te denken. Belangrijker is de mentale attidude, iemands “behoefte aan kennis” en zijn vaardigheid of motivatie om hun buikgevoel te negeren en diep na te denken. Een positieve noot is dat deze talenten ogenschijnlijk meer kneedbaar zijn, en dus trainbaar, dan intelligentie op zich. Maar er is nog heel wat stevig bewijs voor nodig om dat idee te testen.
Bovenstaande is uit het Engels vertaald met goedkeuring van de auteur:
Christian Jarrett – 5 Reasons It’s So Hard To Think Like A Scientist.