De Franse neurowetenschapper Arnaud Delorme deed een onderzoek naar de mogelijkheid om aan iemands foto te kunnen zien of die persoon nog leeft of reeds is overleden. Zijn resultaten publiceerde hij in april dit jaar in het open access journal Frontiers in Human Neuroscience. Het onderzoek wees uit dat de deelnemers het iets beter deden dan je zou verwachten als de keuzes louter toevallig zouden zijn (53,8 procent). Het artikel is nu echter ingetrokken.
Delorme is als neurowetenschapper verbonden aan een aantal universiteiten in Frankrijk en de Verenigde Staten, maar klust blijkbaar ook bij als parapsychologisch onderzoeker aan het Institute of Noetic Sciences. Dean Radin, de laatste genoemde auteur van het artikel (‘Prediction of Mortality Based on Facial Characteristics‘), is een bekende parapsycholoog, die nogal stevig bekritiseerd is door skeptici als Chris French en Ray Hyman.
In het onderzoek werden twaalf mediums op de proef gesteld. Ze kregen ruim 400 portretfoto’s voorgeschoteld afkomstig van jaarboeken van verschillende periodes, maar ook recentere foto’s van voornamelijk politici en zakenmensen uit een andere staat (niet Californië, waar de mediums vandaan kwamen).
Participants were asked to press a button if they thought the person in a photo was living or deceased. Overall mean accuracy on this task was 53.8%, where 50% was expected by chance (p < 0.004, two-tail). Statistically significant accuracy was independently obtained in 5 of the 12 participants.
Op zich lijkt dit onderzoek helemaal niet zo slecht opgezet, maar in het oog springt dat er helemaal geen controlegroep was. Je weet dus helemaal niet of die 53,8 procent nu echt bijzonder is. De verwachte 50 procent is gebaseerd op het gegeven dat de deelnemers evenveel foto’s van nog levenden als overledenen te zien kregen. De onderzoekers hebben wel hun best gedaan om er voor te zorgen dat die verzamelingen met foto’s van levenden en overledenen niet van elkaar afwijken op allerlei visuele kenmerken, maar een vrij voor hand liggende laatste controle met proefpersonen die zichzelf niet als helderziend beschouwen, hebben ze nagelaten. Wellicht zijn er daarom toch subtiele verschillen tussen de personen op de foto’s die zouden kunnen duiden op een verschil in gezondheid dat je misschien onbewust zou kunnen oppikken. Ook het gegeven dat vooral bij de recentere foto’s ‘positieve’ resultaten werden geboekt, geeft te denken.
Wat de editors van Frontiers in Human Neuroscience nu precies heeft bewogen om het artikel in te trekken is niet zo duidelijk. Ze geven alleen de volgende verklaring:
Following publication, concerns were raised regarding the scientific validity of the article. The Chief Editors subsequently concluded that aspects of the paper’s findings and assertions were not sufficiently matched by the level of verifiable evidence presented.
De auteurs zijn het helemaal niet eens met de intrekking. Delorme laat in een reactie op Retraction Watch ook weten het ontbreken van de controlegroep helemaal niet relevant is, omdat ze alleen onderzochten of een groep ‘beter’ zou kunnen scoren dan een verwachte 50 procent – niet of ze beter zouden scoren dan een controlegroep. Op zich staat dat ook in het artikel en in de Discussion wordt ook wel enige voorzichtigheid betracht bij het duiden van het resultaat:
… an adequate explanation may rest upon subtle clues that might have been unconsciously exploited. Of interest in this regard is that post-session interviews with the participants indicated that they sometimes “felt” a difference between images of deceased vs. living individuals, which was consistent with their claims. However, overall their accuracy levels were only modestly above chance, so that feeling was apparently not as accurate as they may have thought. Regarding alleged claims of clairvoyance by the tested subjects, our data does not allow for a rigorous test of that hypothesis, but it is certainly compatible with it. Our data does warrant further investigation of that hypothesis.
Maar die laatste zinnen maken stiekem toch duidelijk dat de onderzoekers wel wat zien in die hypothese en bereid zijn om de misschien niet eens significante resultaten van dit onderzoek op te rekken tot een ondersteuning daarvan.
Dat het helemaal niet makkelijk is om een goede set foto’s voor een dergelijk onderzoek samen te stellen, weten ze bij de werkgroep Utrecht van Skepsis ook. Iemand had zich gemeld bij Skepsis omdat hij zijn gave wel eens op de proef gesteld wilde zien. Hij zou op basis van een foto met een pendel kunnen vaststellen of de persoon of de foto overleden is of nog leeft. De proef wees uit dat het wel meeviel met die gave.
Lees verder bij:
Constantia says
Wie van deze personen is dood?:
??????????????????
Degene die het als eerste goed heeft, mag op mijn kosten samen met mij uit eten in Davis, Californië (reis zelf betalen).
Hans1263 says
De kerstman… Heeft die ooit geleefd?
Of leeft hij nu op dit moment? Dat hangt van je geloof af…
Eerst definiëren in dit geval dus wat we verstaan onder dood en levend.
Een duur etentje voor de winnaar! Sigaar uit eigen doos…
Constantia says
I had a good laugh out of it, Hans. Hopelijk wordt dát goedgerekend. Maar de vraag staat nog open. Dat het origineelste antwoord moge winnen. Maar als jouw reactie de enige blijft, geef ik de sigaar uit eigen doos aan jou.
Jan Willem Nienhuys says
Even wat getallen. Helaas zie ik het oorspronkelijke artikel niet meer staan.
Er waren 404 foto’s. Bij een verwachting van 50% goed wil dat zeggen: 202 goed.
Je moet er dan meer dan 222 goed hebben (i.e. minstens 21 meer dan verwacht) om van “statistisch significant” (= moeite waard om eens te kijken of er iets aan de hand is) te kunnen spreken.
Maar er waren 12 mediums. Er werden dus 4848 oordelen over een foto gegeven. Het beweerde succespercentage was 53,8%, dus geen 2424 goed maar 2608 goed, dus 184 meer dan verwacht. De standaarddeviatie is de wortel uit 4848/4 dus 34,8. De prestatie zit dus 184/34,8 = 5,29 standaarddeviaties boven de verwachtingswaarde.
Dat is zo groot dat tabellenboeken e.d. dat niet meer geven, maar het komt uit op een p-waarde in de orde van 0,0000001. Dat is veel kleiner dan de gerapporteerde 0,004.
Je kunt ook terugrekenen. Bij welk aantal oordelen krijg je p=0,004 (tweezijdig) uit 53,8% succes? Dat is bij 1436 of daaromtrent. Zouden de verzamelde mediums in maar 1400 of zo (30% van de gevallen) ja of nee hebben durven zeggen?
In
http://neurocritic.blogspot.nl/2016/08/scientific-study-shows-mediums-are.html
staat inderdaad uitgelegd dat de mediums konden kiezen uit levend, dood en weet niet.
Waarom zou men beter presteren bij nieuwe foto’s?
Als je jaarboeken uit 1940 neemt zitten daar natuurlijk heel wat overledenen bij. Bij nieuwere foto’s is het lastiger om een goed evenwicht te krijgen. Kijk eens naar de prestatie van S09: die scoort een stuk slechter dan kans bij de oude foto’s en veel beter dan kans bij de nieuwe foto’s.
We weten alleen maar dat het totaal aantal levenden 50% was. Als de onderzoekers er niet voor gezorgd hadden dat in elk deelbestand het percentage levenden 50% was dan kan iemand die vaak ‘levend’ gokt min of meer vanzelf zo scoren als S09, nl. exact 50% goed over het hele bestand maar flink vaak fout bij het oude bestand en flink vaak goed bij het nieuwe bestand. Wie zich laat leiden door de nieuwheid van de foto (nieuwe foto = levend, oude foto = dood) kan het ook heel aardig doen. Het lijkt er dus op of deze kleine afwijking van de kansverwachting (wat is nou 53,8% vergeleken met 50%) veroorzaakt is door een onzorgvuldigheid in de proef. Als je maar vaak genoeg een experiment herhaalt, komt elke fout in de proefopzet genadeloos aan het licht.
Bij de Skepsis-proef was er maar 1 bestand, uit 1 jaarboek, en bij de gepresenteerde foto’s was de helft levend.
Pepijn van Erp says
Het artikel staat nog wel op de site van Frontiers (nu met groot rood ‘RETRACTED’ over de tekst) maar die site doet wel een beetje raar af en toe. Dit is volgens mij een werkende directe link naar die pdf: http://journal-cdn.frontiersin.org/article/180186/files/pubmed-zip/versions/2/pdf
Marco van Zwetselaar says
Tabel 1 in het artikel laat zien dat geen van de 12 proefpersonen een significant (p<0.05) resultaat scoorde op de eerste set foto's (108 schoolfoto's uit 1939-1941), of op de tweede set foto's (126 schoolfoto's uit 1962-1968). Alleen op de derde set fotos (160 foto's uit 1995-2005) scoorde de helft van de proefpersonen significant afwijkend van een toevalsuitkomst.
Waar bestond de derde set foto's uit? "The third database was comprised of photos of state politicians for about two-thirds of the images, as well as from photos accompanying obituaries of businessmen." Is het nog nodig om dit te fileren?
De conclusie uit het onderzoek had moeten luiden: de onderzochte mediums bleken niet in staat om op basis van een foto te voorspellen of een hen onbekend persoon leeft. De helft van de mediums bleek hiertoe ook niet in staat wanneer het ging om foto's van personen met een recente publieke functie. De overige 6 mediums bleken in sommige gevallen op de hoogte te zijn van het overlijden van personen van wie het overlijden publiek is bekendgemaakt. Het correct voorspellen van het nog in leven zijn van daadwerkelijk levende personen ging de mediums slechter af dan een blinde gok (45.9% juist), zij het zoals te verwachten niet significant slechter.
De onderzoekers concluderen "regarding alleged claims of clairvoyance by the tested subjects, our data does not allow for a rigorous test of that hypothesis, but it is certainly compatible with it". Ja, in zoverre dat de data eveneens compatibel is met de aannemelijker conclusie dat helderziende mediums niet bestaan, aangezien ook dit onderzoek geen bewijs wist te leveren. Waarom dan niet de meest aannemelijke conclusie getrokken?
De obligate "Our data does warrant further investigation of that hypothesis" is onterecht, en bovendien: watch out what you're wishing for. De volgende keer eisen we toetsen bij p<0.025, want ook een ingetrokken onderzoek telt mee voor multiple testing.
disqus_VmJiIVPLgx says
Dit laat ook weer eens zien dat een kleine p op zichzelf nog niets zegt, behalve dat het resultaat niet door toeval alleen kan worden verklaard. Dat betekent nog niet dat die extra factor DUS paranormaal of iets heel exotisch moet zijn. Dit zie je steeds weer in de hele geschiedenis van de paranormale “wetenschappen” terugkeren. Ik zie iets door de lucht vliegen, ik kan er geen vliegtuig of ballon in herkennen, nou dan is het natuurlijk een ruimteschip afkomstig uit de Plejaden! Op zichzelf ook wel boeiend om te lezen hoe reuzesubtiel de clues soms kunnen zijn die het mensen mogelijk maken om (vaak onbewust) een bepaalde test significant beter te maken dan wat je volgens het toeval zou verwachten, waarbij het effect overigens vaak heel klein is. In dit geval is de extra factor echter allesbehalve subtiel, politici en zakenmensen uit een andere staat, pfff…
Constantia says
@ disqus_VmJiIVPLgx/
Klopt! Men zal met iets heel groots moeten komen: geen subtiele afwijkingen in de testresultaten, maar een imponerende landing in de tuin van het Witte Huis. ?
We wachten de dag af.
Jan Willem Nienhuys says
Dank. Ik kan in het artikel niets vinden over de aantallen keren dat een medium een duidelijke uitspraak had gedaan. Wel zie ik dat bijv. S06 90% keer (van het totaal of van de keren dat hij/zij zich uitsprak) als oordeel “dood” had. Ook zijn nergens gegevens te vinden in de trant van Dataset X had a foto’s, van wie b levend. Maar dan weer wel allerlei EEG meetgegevens van de betrokkenen.
Wat zou er trouwens gebeurd zijn als er een controlegroep was geweest die het ook net iets beter dan kans had gedaan? Zou dan de conclusie zijn: de mediums kunnen er niks van of ‘gewone mensen zijn ook een beetje paranormaal begaafd’?
FVerweven says
Bij dit soort percentages krijg ik altijd een “Brexit-gevoel”.
Want vanwege een miniem verschil van een paar procent ga je een 40 jarig EU-huwelijk ontbinden met vergaande consequenties terwijl die paar procent weleens de waan van de dag zou kunnen zijn. Ik had een meerderheid van 66,7% geëist voordat je een systeem compleet overhoop gooit, net als bij grondwetswijzigingen.
Dus bij dit soort (paranormale) onderwerpen zou je mijns inziens ook veel hogere drempels moeten opleggen. Want zelfs als die 53,8% waar zou zijn met controlegroep e.d., dan blijft het totaal onwerkbaar. Want een politieagent met een foto van een vermiste persoon kan hier niets mee. Hij kan net zo goed zelf een muntje opgooien in plaats van 12 paranormaal begaafden te consulteren die bovendien al 30% met “weet niet” afwijzen. En het sluit niet eens aan bij het aanbieden van honderden foto’s waarvan 50% is overleden. En “weet niet” is gewoon fout. Punt.
Een boekhouder mag wel een foutje maken maar toch moet 99% van zijn berekeningen kloppen want anders geloven we niet dat hij een boekhouder is.
Waarom mag je dan een onderzoek publiceren waarbij 12 “helderzienden” met een populatie van 50/50 mochten gokken onder aftrek van 30% “weet niet” en dan slechts +3,8% aan de goede kant zaten? Ondertussen staan de helderzienden vast te pochen met het resultaat, want met een “p-waarde van maar liefst 0,004” en mensen zullen er nog intrappen ook.
Ik wil gewoon een helderziende die in minstens 75% van de gevallen goed zit en dan komt hij er nog veel genadiger vanaf dan de boekhouder.
Hans1263 says
Ik ben niet bepaald een statisticus, dus in die zin ga ik me niet uitlaten.
Het komt me echter voor dat je van een foto van een persoon op een of andere manier veel kunt afleiden qua leeftijd. Daarbij denk ik aan kapsel, opmaak, brilmontuur, kleding. Zelfs de scherptediepte in portretten speelt een rol. In oude portretten is die heel anders dan in portretten die gemaakt zijn met moderne lenzen. Daardoor wordt de “helderziende” dan toch beinvloed?
Daarom zou ik veel eerder een proef hebben gedaan met geblindeerde foto’s, in een enveloppe dus. Het zijn toch helderzienden, (althans die helderziendheid claimen ze)? Die kijken toch door een blindering heen?
JennyJ0 says
Dat lijkt mij ook Hans. “Helderzien” met je eigen ogen is gewoon kijken. Niks bovennatuurlijks aan.
FVerweven says
Dat was exact wat ik me afvroeg bij de Skepsis pendelproef waar in het artikel naar gelinkt werd. De pendelaar mocht de foto’s zien. Een pendel kan toch wel voelen door een stukje papier heen?
Een helderZIENDE kan nog als verweer geven dat ze iemand moeten ZIEN.
Jan Willem Nienhuys says
Ik krijg de indruk uit het artikel dat ze per batch (hele oude, oude, nieuwe) wel hadden gezorgd voor ‘evenwicht’. Foto’s voor een jaarboek zijn waarschijnlijk allemaal tegelijk gemaakt van personen die ook nog eens ongeveer even oud zijn.
Helaas ontbreken details wat dat betreft.
Maar met de batch ‘nieuwe’ foto’s hebben de onderzoekers een groter risico genomen.
Een groot verschil met Skepsis-proeven is dat wij met de proefpersonen eerst iets afspreken op basis van een duidelijke claim. Die claim is doorgaans niet ‘ik een ietsiepietsie beter dan kans presteren’, maar ‘ik heb het bijna altijd goed’. Dan komt er meetsal uit dat de nulhypothese luidt: 50% goed en de alternatieve hypthese 80% goed, en dan kun je een omvang en een slaagcriterium afspreken, waarbij enerzijds de kandidaat een faire slaagkans heeft als-ie kan wat-ie beweert, en anderzijds de slaagkans onder de nulhypothese behoorlijk klein is.
In het artikel is me niet opgevallen dat de helderzienden de een of andere slaagkans claimden.
Er is nog een vershc
FVerweven says
Dank voor de toelichting, zou iedereen maar met dat soort criteria werken.
Het is zo lachwekkend en tegelijk triest dat ze met zijn twaalven van zeg 130 foto’s van 50/50 dode/levenden er eerst 30 weg mogen gooien en dan 53 van de honderd correct inschatten. Gemiddeld. Met persoonlijk flinke uitschieters.