Sicuramente avrete notato il dibattito furioso sorto intorno ad un articolo di Daryl Bem dal suggestivo titolo Feeling the future: Experimental Evidence for Anomalous Retroactive Influences on Cognition and Affect.
L'autore (che, detto per inciso, si occupa di "parapsicologia" più che altro come hobby, essendo il suo campo principale di ricerca la psicologia dell'orientamento sessuale) afferma di offrire prove supportanti la possibilità della precognizione.
Detto così, sembra una delle tante cose esoteriche aggirantisi al confine tra la Scienza e Giacobbo. Le cose però sono un po' più complesse. Per prima cosa, a causa dell'autore che non è un ciarlatano di mestiere, ma cha ha una rispettabile storia di scienziato. Poi per il giornale, che con il suo impact factor di 5+ e una riconosciuta autorevolezza, non è certo il luogo dove si pensa che si possano trovare ciarlatanerie. E infine, forse cosa più importante, per l'idea alla base dello studio.
Una delle critiche più comuni agli studi sul psi (utilizziamo questo termine, che è quello comune nell'ambiente scientifico, piuttosto che quello lievemente dispregiativo di "parapsicologia") è di usare paradigmi sperimentali e metodi statistici poco comuni, o comunque estremamente complessi, con la conseguenza di essere poco riproducibili. Si veda a proposito la storia degli esperimenti ganzfeld.
La strategia seguita da Bem è quella esattamente opposita. Bem ha scelto 9 paradigmi classici della psicologia moderna, li ha lievemente modificati (spiego dopo come) e li ha analizzati con tecniche standard; inoltre mette a disposizione dei richiedenti il software usato per eseguire gli esperimenti.
Il fenomeno che Bem vuole studiare è il cosiddetto "priming". Ovvero l'influenza che hanno sulle scelte di un soggetto dei segnali precoscienti (subliminali). L'esperimento base (ripetuto mille volte da psicologi di ogni tipo) funziona così: un soggetto è messo di fronte a due possibilità (di solito di fronte ad un computer: due finestre, una a destra e una a sinistra) e deve effettuare una scelta. Prima che effettui la scelta viene mostrata un'immagine per un tempo molto breve (tale che non raggiunga la coscienza del soggetto) dietro una delle finestre. Se l'immagine è di un certo tipo (immagini erotiche funzionano molto bene), la probabilità che la finestra con l'immagine subliminale venga scelta è più alta, e questa cosa si può rilevare statisticamente ripetendo l'esperimento più volte.
Questo esperimento è stato cambiato da Bem in questa maniera: l'immagine subliminale veniva mostrata DOPO che il soggetto aveva effettuato la scelta; in realtà gli esperimenti che lui effettua sono 9, ma sono tutti, più o meno, varianti di questo esperimento classico. Lui ha trovato che in 8 dei 9 esperimenti, l'immagine subliminale mostrata dopo aveva un effetto facilitante sulla scelta precedente, ad un livello statistico che verrebbe considerato convincente dalla maggior parte degli studiosi.
Alcune obiezioni vengono subito in mente:
1) Spesso questi esperimenti sono inficiati dal fatto che lo sperimentatore interagisce direttamente con i soggetti. Per eliminare questo problema, l'esperimento era disegnato in modo tale che le istruzioni venissero tramite computer.
2) Ovviamente, il numero dei soggetti è importante. Bem ha utilizzato circa 100 soggetti per esperimento, un numero abbastanza convincente.
3) È importante anche come la scelta del computer della finestra dove mostrare l'immagine subliminale viene randomizzata. Bem ha scelto di utilizzare come generatore di numeri casuali il CD Marsaglia. Se ricordo bene, in un esperimento ha addirittura usato un generatore di numberi casuali veri.
4) Il problema dei sottogruppi: fra le altre cose, Bem mostra che quella che lui chiama "psi-performance", cioè l'efficienza con cui i soggetti hanno azzeccato la loro predizione, correla con alcuni tratti della personalità comunemente associati a capacità psi: apertura mentale, essere estroversi etc... In alcuni forum, Bem è stato accusato di formare sottogruppi dei suoi sample per costruire le sue prove. A me non pare che sia così: i suoi risultati sono indipendenti da questi sottogruppi. Solo, successivamente e addizionalmente, egli mostra che questa "psi-performance" correla con altri fattori.
5) Alcuni matematici olandesi hanno polemizzato col tipo di test statistici utilizzati da Bem, affermando che è necessario usare test più raffinati. Per prevenire questa obiezione, Bem ha utilizzato test statistici considerati standard nel campo della psicologia. Per cui la critica di Wagenmakers et al. è un po' a doppio taglio, perchè, se giusta, invaliderebbe più o meno tutta la ricerca nelle scienza sociali (e non solo) fatta negli ultimi 50 anni.
mercoledì, gennaio 12, 2011
Retroactive facilitation?
Etichette:
complessità,
hypothesis testing,
previsioni,
psi,
realtá fisica,
statistica
Iscriviti a:
Commenti sul post (Atom)
8 commenti:
Veramente notevole, a prima vista bulletproof. Non ho letto l'articolo per intero, ma leggendo i metodi e la discussione ho notato che l'autore ha preso in considerazione tutte le mie obiezioni, tranne una, che magari non è valida.
È interessante il risultato che correla l'estroversione e il tratto "stimulus seeking" con la distanza (positiva) dalla baseline. Facciamo alcune osservazioni:
1. Almeno in alcuni casi (nei primi 2 esp. ad esempio) gli stimoli sono pochi (36, suddivisi in 3 categorie).
2. Il metodo di randomizzazione è essenziale e l'autore ne discute molto: è importante in particolare che egli abbia fatto un test virtuale con un risolutore casuale del suo task.
3. Il fatto che alcuni tratti della personalità correlino con il risultato suggerisce una nuova ipotesi nulla: che esista una strategia di ottimizzazione (dunque, non casuale).
A te, matematico, domando: in una serie random, la probabilità in ogni trial che si abbia un evento o un altro è la stessa. È vero questo anche per tutti i sottogruppi di dimensione k presi da questa distribuzione casuale di n eventi? Ovvero, è altrettanto probabile avere, su 12 eventi, per ogni 2 eventi consecutivi, le sequenze aa, ab, ba, bb?
Il caveat che io propongo è il seguente: può darsi che la strategia "cambio pacco" ottimizzi il risultato. In altri termini, dopo una immagine erotica cambio lato, confidando che la prossima probabilmente sarà sull'altro lato; sopo un rinforzo negativo resto sullo stesso lato, dopo un evento neutro mi comporto casualmente. È importante che vi siano 3 strategie differenti, perché l'autore sottolinea come garanzia il fatto che i risultati dipendono dagli stimoli.
Per testare questa ipotesi sarebbe necessario sviluppare una serie di programmi "soggetto" che facciano il test virtualmente, possibilmente variando il bilancio exploration/exploitation (ossia, può darsi che la strategia ottimale non consista nell'applicare la massimizzazione nel 100% dei casi, ma nel 90, nell'80, etc.)
Cosa ne pensi?
Ho dimenticato di dire che se il mio argomento fosse valido, i migliori risultati degli estroversi sarebbero da accreditare a una maggior disponibilità a modificare le risposte nel corso dell'esperimento.
Ovvero, è altrettanto probabile avere, su 12 eventi, per ogni 2 eventi consecutivi, le sequenze aa, ab, ba, bb?
Si.
Se la distribuzione della sequenza è veramente casuale, non c'è una strategia vincente.
E penso che sia esattamente per questo motivo che Bem usa il CD d numeri casuagli di Marsaglia (che superano il Marsaglia Diehard Battery Test, volto proprio ad identificare i problemi che menzioni)
Il problema che ho sollevato ha a che fare col ridotto numero di trial... se in media escono 6 immagini a destra e 6 a sinistra, dopo la prima immagine target, poniamo a sinistra, in media usciranno 5 immagini a sinistra e 6 a destra, quindi conviene andare a destra. Se avessi 1000 trial la differenza sarebbe insensibile. Ma qui sono 12.
Mmmmhhh...
Giulio, quella che stai dicendo è una piccola eresia statistica. Se il randomizzatore è corretto, il fatto che "a priori" la media di 6 e 6 non vuol dire affatto che, dato che la prima è dx, allora poi è più probabile che le altre siano sx.
È come col lotto. Anche se il 21 non è uscito per 50 anni, questo non vuol dire che è più probabile che esca in futuro.
(Tutto, ovviamente, nell'ipotesi che il randomizzatore sia corretto)
Avrà falsificato i dati. Oppure una fluttuazione statistica. Qualcun altro ha eseguito l'esperimento?
Lap(l)aciano, non sono sicuro che sia come dici tu, perché la tua affermazione è vera sui grandi numeri. Ma scusami, se io ho 2 trial, con 2 eventi che si verificano ciascuno con p = .5, la probabilità che ogni singolo trial può anche essere sempre .5, ma la probabilità che in entrambi i trial, presi congiuntamente, si abbia il medesimo evento, non è .5.
Se il 21 non è uscito per 50 anni nulla dice che domani uscirà (single trial), tuttavia nel corso di mille anni di estrazioni tutti i numeri in teoria dovrebbero uscire più o meno lo stesso numero di volte. Penso che sia questo che fa la randomizzazione.
@tomate: nessun altro ha ancora replicato l'esperimento; effettivamente Bem dice esattamente questo nell'articolo: replicatelo! Potrebbe essere una fluttuatzione. Comunque sia, i vari t-test et similia servono proprio a questo: ad stimare quanto dovrebbe essere improbabile una tale fluttuazione statistica.
Quanto alla falsificazione dei dati, mi sembra un atteggiamento poco scientifico: se l'esperimento non va come dico io, allora è sbagliato, no?
@bbb: no, ti sbagli. Se la serie è indipendente (e questo e l'obiettivo dei MRN), allora la probabilità condizionata di osservare sx (o dx) è sempre 0.5, indipendentemente da quello che è avvenuto fino ad ora. altrimenti, ripeto, la teoria dei ritardi del lotto avrebbe una sua giustificazione.
Posta un commento