Qualche giorno fa ci è stato accettato un articolo in cui esploriamo con dei modelli le possibili cause di alcuni sintomi del morbo di Parkinson.
Il morbo di Parkinson è caratterizzato da deficit motori e cognitivi. Fra questi, il più conosciuto è il tremore. Questi sintomi hanno un correlato neurale molto preciso: il segnale elettrico nel nucleo subtalamico mostra delle oscillazioni molto marcate intorno alla frequenza di 20 Hz, assenti nello stato sano del cervello. È stato scoperto che sopprimere queste oscillazioni, ad esempio tramite la stimolazione cerebrale profonda, porta alla scomparsa quasi immediata dei sintomi.
Nel nostro studio (e qua andremo un po' sul tecnico) abbiamo tentato di portare un po' di chiarezza sulle possibili cause di queste oscillazioni. Quello che si sa con certezza (più o meno) è che queste oscillazioni sono generate tramite un processo di feedback negativo-positivo tra il nucleo subtalamico e la parte esterna del globo pallido. La teoria dominante sulla causa dell'insorgere delle oscillazioni è l'aumento della connettività tra queste due strutture. Purtroppo, però, i dati sperimentali non supportano questa ipotesi.
La nostra teoria alternativa prevede che le oscillazioni siano generate da un livello di attività maggiore nella struttura a monte del globo pallido: il corpo striato. Il globo pallido riceve la maggior parte dei suoi input (di tipo inibitore) dal corpo striato. Quello che noi abbiamo mostrato in un modello computazionale è che un aumento dell'input inibitore al globo pallido è da solo in grado di generare oscillazioni.
sabato, ottobre 08, 2011
martedì, settembre 13, 2011
Podcasts & co
Oggi il nostro responsabile per le relazioni esterne ha messo in rete la versione italiana di What are computational neuroscience?
(Tradotta e detta dal sottoscritto)
(Tradotta e detta dal sottoscritto)
martedì, settembre 06, 2011
martedì, luglio 26, 2011
Networks with distance dependent connectivity, part I
Today I will give a short tutorial about the generation of random networks with distance dependent connectivity. Which means: we place the nodes somewhere in the space and we connect them with some probability which depends on the distance. Here you can find the python script.
Let me first discuss how to construct the matrix of distances between a set of vectors
For the Euclidean distance $p=2$ and we have
This is good, then using the linearity of the scalar product, we obtain
Now, we construct the matrix
Let me first discuss how to construct the matrix of distances between a set of vectors
\{v_i\}
. The idea is, obviously, to use the fact that the p-distance between two vectors is given by the formula d_p(v_1,v_2) = \|v_1-v_2\|_p = \left(\sum_k (v^k_1-v^k_2)^p\right)^{1/p}
For the Euclidean distance $p=2$ and we have
\|v\|^2 = (v,v)
. So the squared distance is nothing but \|v_1-v_2\|^2 = (v_1-v_2,v_1-v_2)
This is good, then using the linearity of the scalar product, we obtain
\|v_1-v_2\|^2 = \|v_1\|^2 + \|v_2\|^2 -2(v_1,v_2)
This expression can be computed with matrix multiplications. In python you can do it using numpy as follows. First, onstruct the matrix of the positions, i.e. stack all 'size' vectors of lenght 'dimension' on the top of each other import numpyHere I have chosen uniformly distributed vectors, but you can use others of course.
dimension = 2
size = 100
positions = numpy.random.uniform(0,1, (size,dimension))
Now, we construct the matrix
s_{ij} = \|v_i\|^2 +\|v_j\|^2
by repeating, reshaping and transposing the vector of the norms. This is as easy as this# construct the matrix s_ij = |v_i|**2+|v_j|**2'sum_matrix' is what you are looking for. The scalar product is even easier. Indeed the matrix of the products
norms = numpy.sum( positions**2. , axis = 1 )
tmp = numpy.reshape(norms.repeat(size),(size,size))
sum_matrix = tmp + tmp.transpose()
x_{ij} = (v_i,v_j)
is just the multiplication of the vector matrix with its transpose (try on 2x2 example to see that it works). So you can do it easily by# construct the matrix x_ij = (v_i,v_j)
scalars = numpy.dot(positions,positions.transpose())
mercoledì, luglio 13, 2011
Testamento biologico: un'assurdità
L'applicazione dei biotestamento scatta solo per chi è "nell'incapacità permanente di comprendere le informazioni circa il trattamento sanitario e le sue conseguenze per accertata assenza di attività cerebrale integrativa cortico-sottocorticale e, pertanto, non può assumere decisioni che lo riguardano"
Ma si può? Tanto valeva vietarlo, il testamento biologico.
martedì, giugno 28, 2011
Retroactive facilitation (updated)
Qualche tempo fa, vi avevo raccontato di un articolo, apparso nel Journal of personality and social psychology riportava di alcuni effetti osservati in esperimenti di larga scala spiegabili solo con la precognizione. Ovviamente, ne era seguito un furioso dibattito. La mia obiezione 5) era:
Circa un mese fa è apparso un articolo in cui Rouder e Morey migliorano il metodo Bayesiano utilizzato precedentemente per realizzare meta-analisi dei dati raccolti da Bem. Il metodo utilizzato in quell'articolo, infatti, non teneva conto del fatto che tutti gli esperimenti di Bem andavano nella stessa direzione.
Armati di questo nuovo metodo, hanno rianalizzato i dati di Bem, trovando per uno dei 4 tipi di stimoli un fattore di Bayes di 40, che è "noteworthy", per citare gli autori, ma non sufficiente evidenza per effetti di precognizione, contraddicendo le conclusioni di Bem.
A che pro tutto questo discorso? Per prima cosa per motivarvi a leggere l'articolo di Rouder e Morey, che è molto chiaro riguardo i rischi dei test di verifica di ipotesi. In secondo luogo, per convincere gli scettici tra di voi (a buon intenditor...) che Bayes è superiore ai test di verifica di ipotesi, secondo i quali, adesso, dovremmo tutti credere all'ESP.
Alcuni matematici olandesi hanno polemizzato col tipo di test statistici utilizzati da Bem, affermando che è necessario usare test più raffinati. Per prevenire questa obiezione, Bem ha utilizzato test statistici considerati standard nel campo della psicologia. Per cui la critica di Wagenmakers et al. è un po' a doppio taglio, perchè, se giusta, invaliderebbe più o meno tutta la ricerca nelle scienza sociali (e non solo) fatta negli ultimi 50 anni.Ho continuato a seguire il dibattito per un po', e per questo ed altri motivi, ho cominciato a studiare un po' meglio le tecniche di inferenza Bayesiana.
Circa un mese fa è apparso un articolo in cui Rouder e Morey migliorano il metodo Bayesiano utilizzato precedentemente per realizzare meta-analisi dei dati raccolti da Bem. Il metodo utilizzato in quell'articolo, infatti, non teneva conto del fatto che tutti gli esperimenti di Bem andavano nella stessa direzione.
Armati di questo nuovo metodo, hanno rianalizzato i dati di Bem, trovando per uno dei 4 tipi di stimoli un fattore di Bayes di 40, che è "noteworthy", per citare gli autori, ma non sufficiente evidenza per effetti di precognizione, contraddicendo le conclusioni di Bem.
A che pro tutto questo discorso? Per prima cosa per motivarvi a leggere l'articolo di Rouder e Morey, che è molto chiaro riguardo i rischi dei test di verifica di ipotesi. In secondo luogo, per convincere gli scettici tra di voi (a buon intenditor...) che Bayes è superiore ai test di verifica di ipotesi, secondo i quali, adesso, dovremmo tutti credere all'ESP.
Etichette:
Bayes,
hypothesis testing,
psi,
realtá fisica,
statistica
sabato, maggio 21, 2011
No ai Prerequisiti! (riflessione su un vecchio post su Borborigmi)
A distanza di più di un anno sono andato a rileggermi un vecchio post su Borborigmi e l'interessante discussione che ne è seguita (anche se ha rischiato più volte di degenerare in un flame).
Mi ero ripromesso, allora, di dire la mia con calma.
Oggetto del discutere è: quanto è necessario conoscere tutti i prerequisiti di una certa materia per potersene fare un opinione competente? Per fare un esempio: è possibile che io affermi di capire qualcosa di meccanica quantistica avendo solo un'infarinature di calcolo delle probabilità? Oppure ancora: posso capire il calcolo delle probabilità senza conoscere la teoria della misura? Oppure ancora [ad libitum sfumando...]
Secondo Marco (l'autore di Borborigmi) la risposta è: molto. (In realtà la sua opinione è un po' più elaborata: invito a leggere il post e la seguente discussione).
Secondo me la risposta è: poco.
Dopo qualche anno passato a fare ricerca attiva (in due campi completamente differenti) mi sono fatto questa idea: ogni comunità scientifica ha degli assiomi da cui si sviluppa la ricerca. Questi assiomi sono dei fatti provenienti da discipline più basilari che sono riconosciuti come veri e importanti da gli scienziati che lavorano in un certo campo. Tuttavia, possono essere oggetto di ricerca per scienziati in un altro campo. La conoscenza di tali assiomi è ciò che è necessario per formarsi un'opinione competente.
Faccio un esempio con qualcosa che mi è familiare: nei corsi di Analisi Funzionale si insegna generalmente il teorema di Hahn-Banach (afferma che ci sono un numero sufficiente di forme lineari definite su uno spazio di Banach, più o meno). Questo fatto è accettato come un dogma dai "semigruppisti" (la comunità, per così dire, dove lavoravo prima di andare a fare neuroscienze) (sono dei matematici che risolvono le equazioni differenziali alle derivate parziali usando l'analisi funzionale). Tuttavia, per alti matematici, che magari lavorano su temi più di base: il teorema di Hahn-Banach (o argomenti correlati) è un campo di ricerca a se stante: in quali spazi vale? qual'è la dimostrazione minima? quali ne sono le generalizzazioni?
Tutto ciò però non serve ai semigruppisti: a loro interessa solo che tale teorema esista per provare i loro teoremi. Ad esempio: il teorema di Hille-Yosida (specifica le condizioni di buona positura per problemi di Cauchy astratti).
Facendo un salto avanti, potremmo adesso rivolgersi a quanto fanno i meccanici quantistici (?!) quando studiano l'equazione di Schrödinger, calcolandone attentamente lo spettro. Di solito non si pongono il problema della buona positura. Suppongono semplicemente che il problema lo sia. Per loro, per così dire, l'assioma è il teorema di Hille-Yosida, che però è per i semigruppisti un attivo terreno di ricerca.
Risalendo la gerarchia arriviamo ai fisici dei laser, o magari ai chimici, su su fino ai biologi, psicologi e scienziati sociali. [E qua mi fermo, ad essere sinceri non so se ho voglia di includere i letterati in questa gerarchia del sapere :-)].
Quindi: ciò che è necessario per farsi un'opininone competente in una materia non è la conoscenza dei prerequisiti, ma la conoscenza degli assiomi della materia in considerazione. La conoscenza dei prerequisiti è certamente un vantaggio, e fa magari la differenza fra un buon scienziato e uno scienziato eccellente, ma certamente non è necessaria all'uomo della strada per capire di cosa parlano gli scienziati.
Mi ero ripromesso, allora, di dire la mia con calma.
Oggetto del discutere è: quanto è necessario conoscere tutti i prerequisiti di una certa materia per potersene fare un opinione competente? Per fare un esempio: è possibile che io affermi di capire qualcosa di meccanica quantistica avendo solo un'infarinature di calcolo delle probabilità? Oppure ancora: posso capire il calcolo delle probabilità senza conoscere la teoria della misura? Oppure ancora [ad libitum sfumando...]
Secondo Marco (l'autore di Borborigmi) la risposta è: molto. (In realtà la sua opinione è un po' più elaborata: invito a leggere il post e la seguente discussione).
Secondo me la risposta è: poco.
Dopo qualche anno passato a fare ricerca attiva (in due campi completamente differenti) mi sono fatto questa idea: ogni comunità scientifica ha degli assiomi da cui si sviluppa la ricerca. Questi assiomi sono dei fatti provenienti da discipline più basilari che sono riconosciuti come veri e importanti da gli scienziati che lavorano in un certo campo. Tuttavia, possono essere oggetto di ricerca per scienziati in un altro campo. La conoscenza di tali assiomi è ciò che è necessario per formarsi un'opinione competente.
Faccio un esempio con qualcosa che mi è familiare: nei corsi di Analisi Funzionale si insegna generalmente il teorema di Hahn-Banach (afferma che ci sono un numero sufficiente di forme lineari definite su uno spazio di Banach, più o meno). Questo fatto è accettato come un dogma dai "semigruppisti" (la comunità, per così dire, dove lavoravo prima di andare a fare neuroscienze) (sono dei matematici che risolvono le equazioni differenziali alle derivate parziali usando l'analisi funzionale). Tuttavia, per alti matematici, che magari lavorano su temi più di base: il teorema di Hahn-Banach (o argomenti correlati) è un campo di ricerca a se stante: in quali spazi vale? qual'è la dimostrazione minima? quali ne sono le generalizzazioni?
Tutto ciò però non serve ai semigruppisti: a loro interessa solo che tale teorema esista per provare i loro teoremi. Ad esempio: il teorema di Hille-Yosida (specifica le condizioni di buona positura per problemi di Cauchy astratti).
Facendo un salto avanti, potremmo adesso rivolgersi a quanto fanno i meccanici quantistici (?!) quando studiano l'equazione di Schrödinger, calcolandone attentamente lo spettro. Di solito non si pongono il problema della buona positura. Suppongono semplicemente che il problema lo sia. Per loro, per così dire, l'assioma è il teorema di Hille-Yosida, che però è per i semigruppisti un attivo terreno di ricerca.
Risalendo la gerarchia arriviamo ai fisici dei laser, o magari ai chimici, su su fino ai biologi, psicologi e scienziati sociali. [E qua mi fermo, ad essere sinceri non so se ho voglia di includere i letterati in questa gerarchia del sapere :-)].
Quindi: ciò che è necessario per farsi un'opininone competente in una materia non è la conoscenza dei prerequisiti, ma la conoscenza degli assiomi della materia in considerazione. La conoscenza dei prerequisiti è certamente un vantaggio, e fa magari la differenza fra un buon scienziato e uno scienziato eccellente, ma certamente non è necessaria all'uomo della strada per capire di cosa parlano gli scienziati.
Etichette:
analisi funzionale,
apprendimento,
complessità,
divulgazione
venerdì, maggio 20, 2011
Correlazioni in popolazioni neurali
Settimana ricca di soddisfazioni!
Oggi è apparso un altro articolo in cui sono coautore: Volker, un dottorando del nostro centro, ha passato l'anno scorso a impratichirsi dei segreti della teoria di Hawkes sulle reti di processi puntuali interagenti linearmente.
Il risultato è un approccio capace di decomporre le correlazioni fra le attività dei nodi in una tale rete grazie ad alcune proprietà della serie geometrica.
Non voglio togliervi il gusto della scoperta: qua si trova l'articolo originale, open access su PLoS Comp Bio e qua la press release del BCF, in inglese.
Oggi è apparso un altro articolo in cui sono coautore: Volker, un dottorando del nostro centro, ha passato l'anno scorso a impratichirsi dei segreti della teoria di Hawkes sulle reti di processi puntuali interagenti linearmente.
Il risultato è un approccio capace di decomporre le correlazioni fra le attività dei nodi in una tale rete grazie ad alcune proprietà della serie geometrica.
Non voglio togliervi il gusto della scoperta: qua si trova l'articolo originale, open access su PLoS Comp Bio e qua la press release del BCF, in inglese.
Etichette:
cervello,
grafi,
hawkes,
processi puntuali,
serie
lunedì, maggio 16, 2011
Particelle perse nel nulla di uno spazio infinito
Su Linear Algebra and its Applications è stata appena pubblicata la mia ultima fatica.
Il messaggio principale dell'articolo è il seguente: l'equazione di diffusione su un grafo infinito non soddisfa necessariamente la conservazione di probabilità. Per essere più precisi: la conserva se e solo se tutti i nodi hanno grado finito.
La dimostrazione è abbastanza semplice, ma vorrei tentare di spiegare in maniera non tecnica qual'è la ragione di questo comportamento bizzarro.
Il problema è il seguente: immaginate di avere un grafo e una particella che si muova di moto browniano in prossimità di un nodo. Quando codesta particella arriva all'incrocio dei vari lati, che si incontrano nel nodo, non avrà una velocità ben definita, come accade per particelle che si muovono di moto browniano: la sua velocità cambia in continuazione in maniera discontinua.
Tale particella dunque, nel suo muoversi disordinato, proverà prima un lato, poi l'altro, e poi alla fine, una serie di fluttuazioni che indichino in continuazione un certo lato la porteranno abbastanza lontano dal nodo da non ricaderci più dentro.
Quello che succede se però il nodo è di grado infinito è che la particella non ha maniera di decidersi per un lato! Non appena una fluttuazione la porta su un lato, la fluttuazione "successiva" la porterà necessariamente su un altro, dato che sono infiniti, e così via fluttuando.
Una particella arrivata su un nodo di grado infinito non ne può più uscire. Al nodo si applica, in pratica, una condizione al bordo di Dirichlet.
E come vi è sicuramente noto, le equazioni di diffusione con condizioni di Dirichlet non conservano la probabilità!
Il messaggio principale dell'articolo è il seguente: l'equazione di diffusione su un grafo infinito non soddisfa necessariamente la conservazione di probabilità. Per essere più precisi: la conserva se e solo se tutti i nodi hanno grado finito.
La dimostrazione è abbastanza semplice, ma vorrei tentare di spiegare in maniera non tecnica qual'è la ragione di questo comportamento bizzarro.
Il problema è il seguente: immaginate di avere un grafo e una particella che si muova di moto browniano in prossimità di un nodo. Quando codesta particella arriva all'incrocio dei vari lati, che si incontrano nel nodo, non avrà una velocità ben definita, come accade per particelle che si muovono di moto browniano: la sua velocità cambia in continuazione in maniera discontinua.
Tale particella dunque, nel suo muoversi disordinato, proverà prima un lato, poi l'altro, e poi alla fine, una serie di fluttuazioni che indichino in continuazione un certo lato la porteranno abbastanza lontano dal nodo da non ricaderci più dentro.
Quello che succede se però il nodo è di grado infinito è che la particella non ha maniera di decidersi per un lato! Non appena una fluttuazione la porta su un lato, la fluttuazione "successiva" la porterà necessariamente su un altro, dato che sono infiniti, e così via fluttuando.
Una particella arrivata su un nodo di grado infinito non ne può più uscire. Al nodo si applica, in pratica, una condizione al bordo di Dirichlet.
E come vi è sicuramente noto, le equazioni di diffusione con condizioni di Dirichlet non conservano la probabilità!
Etichette:
analisi funzionale,
dimensione infinita,
grafi,
stocastica
venerdì, aprile 01, 2011
martedì, marzo 15, 2011
Large deviations
Una piccola riflessione su quello che sta accadendo in Giappone può essere innescata da un'osservazione di Rubbia, qui il link.
"Non esiste un nucleare sicuro. O a bassa produzione di scorie. Esiste un calcolo delle probabilità, per cui ogni cento anni un incidente nucleare è possibile: e questo evidentemente aumenta con il numero delle centrali."
Peraltro, dato che molti fenomeni naturali hanno una coda lunga bisogna stare molto attenti a non sottostimare le probabilità di eventi catastrofici.
"Non esiste un nucleare sicuro. O a bassa produzione di scorie. Esiste un calcolo delle probabilità, per cui ogni cento anni un incidente nucleare è possibile: e questo evidentemente aumenta con il numero delle centrali."
Peraltro, dato che molti fenomeni naturali hanno una coda lunga bisogna stare molto attenti a non sottostimare le probabilità di eventi catastrofici.
Etichette:
carlo rubbia,
energia,
stocastica,
strategia
giovedì, marzo 10, 2011
Il mondo come rappresentazione
, e quanto alla volontà un giorno magari ci arriviamo.
Ho deciso che riprendo a scrivere sul blog di cose meno matematiche, dato che la quantità di matematica nella mia vita di scienziato sta, purtroppo, decrescendo.
Oggi abbiamo avuto un articolo molto interessante di un gruppo di scienziati della Brandeis University.
Allora, hanno preso dei furetti neonati e li hanno impiantati con degli elettrodi per misurare l'attività neurale. Quindi li hanno sottoposti per vari mesi a tipi diversi di stimoli visuali: immagini naturali, barre in movimento e rumore bianco. (Il rumore bianco lo potete ammirare qui sotto in tutto il suo splendore).
Insomma, cosa hanno scoperto?
Hanno scoperto che man mano che il furetto cresceva, le statistiche dell'attività spontanea diventavano sempre più simili a quelle dell'attività neurale stimolata con le immagini naturali, cosicchè, dopo 5 mesi, la distribuzione di attività spontanea era identica alla distribuzione stimolata con immagini naturali.
Questo sembrerebbe banale, se non fosse che le immagini "naturali" di naturale avevano soltanto, per così dire, la statistica. Infatti hanno utilizzato il trailer del primo film di Matrix, come sample di immagini naturali, immagino appunto per far si che solo le statistiche generali dell'immagine combaciassero con quelle dell'ambiente del povero furetto.
Questo vuol dire, in parole povere, che la statistica dell'attività spontanea del cervello si evolve durante la prima fase della vita (almeno nel furetto) verso una distribuzione in cui un'immagine attesa non ha alcuna rappresentazione particolare dal punto di vista delle statistiche globali della rete neurale!
Ho deciso che riprendo a scrivere sul blog di cose meno matematiche, dato che la quantità di matematica nella mia vita di scienziato sta, purtroppo, decrescendo.
Oggi abbiamo avuto un articolo molto interessante di un gruppo di scienziati della Brandeis University.
Allora, hanno preso dei furetti neonati e li hanno impiantati con degli elettrodi per misurare l'attività neurale. Quindi li hanno sottoposti per vari mesi a tipi diversi di stimoli visuali: immagini naturali, barre in movimento e rumore bianco. (Il rumore bianco lo potete ammirare qui sotto in tutto il suo splendore).
Insomma, cosa hanno scoperto?
Hanno scoperto che man mano che il furetto cresceva, le statistiche dell'attività spontanea diventavano sempre più simili a quelle dell'attività neurale stimolata con le immagini naturali, cosicchè, dopo 5 mesi, la distribuzione di attività spontanea era identica alla distribuzione stimolata con immagini naturali.
Questo sembrerebbe banale, se non fosse che le immagini "naturali" di naturale avevano soltanto, per così dire, la statistica. Infatti hanno utilizzato il trailer del primo film di Matrix, come sample di immagini naturali, immagino appunto per far si che solo le statistiche generali dell'immagine combaciassero con quelle dell'ambiente del povero furetto.
Questo vuol dire, in parole povere, che la statistica dell'attività spontanea del cervello si evolve durante la prima fase della vita (almeno nel furetto) verso una distribuzione in cui un'immagine attesa non ha alcuna rappresentazione particolare dal punto di vista delle statistiche globali della rete neurale!
Etichette:
apprendimento,
cervello,
neurone,
statistica
mercoledì, febbraio 09, 2011
Orwell fra noi
Una delle chiavi del successo del bispensiero in 1984, quella su cui Orwell insiste di più è la sua manipolazione del linguaggio e della verità. Il bispensiero è (almeno in parte) la separazione del linguaggio dalla realtà (logica e/o fisica).
In Italia vi è adesso un tentativo di regime tecnicamente Orwelliano. Un sintomo, un segnale inquietante è il fatto che un parlamentare, un rappresentante del popolo possa andare in parlamento e mentire, sapendo di mentire e sapendo che gli altri sanno che lui sta mentendo, senza che questo abbia alcuna conseguenza reale. Ma proprio nessuna.
La società descritta in 1984 ci sembra fantascientifica e impossibile da raggiungere, ma i suoi assiomi, la sua base sono già fra noi.
In Italia vi è adesso un tentativo di regime tecnicamente Orwelliano. Un sintomo, un segnale inquietante è il fatto che un parlamentare, un rappresentante del popolo possa andare in parlamento e mentire, sapendo di mentire e sapendo che gli altri sanno che lui sta mentendo, senza che questo abbia alcuna conseguenza reale. Ma proprio nessuna.
La società descritta in 1984 ci sembra fantascientifica e impossibile da raggiungere, ma i suoi assiomi, la sua base sono già fra noi.
venerdì, gennaio 28, 2011
(Un'altra) discussione sul riscaldamento climatico
Ultimamente mi sono (di nuovo) impelagato in una discussione sul blog di Vietti riguardo il riscaldamento globale.
E ho sentito i soliti argomenti triti e ritriti sul perchè non c'è riscaldamento globable e se c'è non è antropico. Rispondo qui, così non vado a visitare ogni giorno Vietti per una discussione sull'aria fritta.
Una temperatura media sulla terra è però qualcosa di differente. Siamo d'accordo che sia ragionevole dire: "stamattina a Roma c'erano 18 gradi". Di nuovo, tecnicamente, questa cosa non ha senso perchè "Roma" non è un sistema termodinamico in equilibrio. Tuttavia, sappiamo cosa significa questa frase: si prendono i vari rilevatori di temperatura a Roma e si fa la media (magari pesata) ad un certo punto della giornata. Questo numero lo chiamiamo "temperatura media". Adesso, questo è un processo stocastico, quindi questa temperatura media a Roma cambierà nel tempo. Stamattina 18°C, domattina 20°C. Da buon processo stocastico, avrà un valore atteso, no? Questo valore atteso, lo chiamiamo temperatura media annuale a Roma.
(Ora non sono un metereologo, quindi probabilmente i dettagli sono diversi, volevo solo far notare che non vi è nulla di assurdo nel parlare di una temperatura media).
Negli ultimi 30 anni la temperatura media è aumentata di circa 0.2°C per decade
http://en.wikipedia.org/wiki/Global_warming
Ci sono una serie di articoli degli anni '70-'80 in cui si prevedeva un riscaldamento esattamente di queste dimensioni; ve ne linko 2, segnalandovi accanto il (grande) numero di citazioni raccolte per mostrare come fossero articoli main stream e che non sono andato a cercarmi delle cose troppo favorevoli (ho impiegato, tra l'altro, meno di 5 min).
Dickinson, Cicerone, Nature (1986) (citato 384 volte su Scholar)
Hansen et al., J. Geophy. Res. (1988) (citato 612 volte su Scholar)
Un'altra cosa interessante: nel 2007 Rahmstorf e altri avevano già fatto un lavoro del genere, ovvero di confrontare le previsioni fatte dal '90 in poi con i dati effettivamente raccolti, col risultato che le previsioni tendevano a sottostimare la dimensione del riscaldamento globale.
E ho sentito i soliti argomenti triti e ritriti sul perchè non c'è riscaldamento globable e se c'è non è antropico. Rispondo qui, così non vado a visitare ogni giorno Vietti per una discussione sull'aria fritta.
Obiezione 1: Non c'è nessun riscaldamento. I dati che mostrano il riscaldamento non valgono perchè usano una grandezza, la temperatura media della terra, che non ha senso.Quello della non esistenza della temperatura media è uno degli argomenti prediletti dei negazionisti del riscaldamento globale. Mettiamo le cose in chiaro da un punto di vista termodinamico: ciò che non esiste è la temperatura della terra, dato che la terra non è un sistema termodinamico in equilibrio e dunque non ha una temperatura di per se.
Una temperatura media sulla terra è però qualcosa di differente. Siamo d'accordo che sia ragionevole dire: "stamattina a Roma c'erano 18 gradi". Di nuovo, tecnicamente, questa cosa non ha senso perchè "Roma" non è un sistema termodinamico in equilibrio. Tuttavia, sappiamo cosa significa questa frase: si prendono i vari rilevatori di temperatura a Roma e si fa la media (magari pesata) ad un certo punto della giornata. Questo numero lo chiamiamo "temperatura media". Adesso, questo è un processo stocastico, quindi questa temperatura media a Roma cambierà nel tempo. Stamattina 18°C, domattina 20°C. Da buon processo stocastico, avrà un valore atteso, no? Questo valore atteso, lo chiamiamo temperatura media annuale a Roma.
(Ora non sono un metereologo, quindi probabilmente i dettagli sono diversi, volevo solo far notare che non vi è nulla di assurdo nel parlare di una temperatura media).
Obiezione 2: I climatologi hanno finora fatto solo previsioni sbagliate, quindi sbaglieranno anche in futuro.A parte l'evidente assurdità intrinseca di questo argomento, è semplicemente falso che i climatologi abbiano fatto previsioni sbagliate.
Negli ultimi 30 anni la temperatura media è aumentata di circa 0.2°C per decade
http://en.wikipedia.org/wiki/Global_warming
Ci sono una serie di articoli degli anni '70-'80 in cui si prevedeva un riscaldamento esattamente di queste dimensioni; ve ne linko 2, segnalandovi accanto il (grande) numero di citazioni raccolte per mostrare come fossero articoli main stream e che non sono andato a cercarmi delle cose troppo favorevoli (ho impiegato, tra l'altro, meno di 5 min).
Dickinson, Cicerone, Nature (1986) (citato 384 volte su Scholar)
Hansen et al., J. Geophy. Res. (1988) (citato 612 volte su Scholar)
Un'altra cosa interessante: nel 2007 Rahmstorf e altri avevano già fatto un lavoro del genere, ovvero di confrontare le previsioni fatte dal '90 in poi con i dati effettivamente raccolti, col risultato che le previsioni tendevano a sottostimare la dimensione del riscaldamento globale.
giovedì, gennaio 20, 2011
Ma che faccia tosta!
Per divertirmi stavo leggendo questo editoriale del Giornale.
Che ha la faccia tosta di affermare prima
Che ha la faccia tosta di affermare prima
Peccato, però, che la «nuova» inchiesta riveli [...] frequenti violazioni delle guarentigie parlamentarie poi
si parla di centinaia di telefonate del premier a Ruby. Ma di queste chiacchiere non c’è traccia nelle intercettazioni, non c’è un passaggio negli atti.facendo finta di dimenticare che una di queste ``guarentigie'' è appunto il fatto che le intercettazioni di un parlamentare non si possono utilizzare! Ma come si fa ad essere così privi di scrupoli?
mercoledì, gennaio 12, 2011
Retroactive facilitation?
Sicuramente avrete notato il dibattito furioso sorto intorno ad un articolo di Daryl Bem dal suggestivo titolo Feeling the future: Experimental Evidence for Anomalous Retroactive Influences on Cognition and Affect.
L'autore (che, detto per inciso, si occupa di "parapsicologia" più che altro come hobby, essendo il suo campo principale di ricerca la psicologia dell'orientamento sessuale) afferma di offrire prove supportanti la possibilità della precognizione.
Detto così, sembra una delle tante cose esoteriche aggirantisi al confine tra la Scienza e Giacobbo. Le cose però sono un po' più complesse. Per prima cosa, a causa dell'autore che non è un ciarlatano di mestiere, ma cha ha una rispettabile storia di scienziato. Poi per il giornale, che con il suo impact factor di 5+ e una riconosciuta autorevolezza, non è certo il luogo dove si pensa che si possano trovare ciarlatanerie. E infine, forse cosa più importante, per l'idea alla base dello studio.
Una delle critiche più comuni agli studi sul psi (utilizziamo questo termine, che è quello comune nell'ambiente scientifico, piuttosto che quello lievemente dispregiativo di "parapsicologia") è di usare paradigmi sperimentali e metodi statistici poco comuni, o comunque estremamente complessi, con la conseguenza di essere poco riproducibili. Si veda a proposito la storia degli esperimenti ganzfeld.
La strategia seguita da Bem è quella esattamente opposita. Bem ha scelto 9 paradigmi classici della psicologia moderna, li ha lievemente modificati (spiego dopo come) e li ha analizzati con tecniche standard; inoltre mette a disposizione dei richiedenti il software usato per eseguire gli esperimenti.
Il fenomeno che Bem vuole studiare è il cosiddetto "priming". Ovvero l'influenza che hanno sulle scelte di un soggetto dei segnali precoscienti (subliminali). L'esperimento base (ripetuto mille volte da psicologi di ogni tipo) funziona così: un soggetto è messo di fronte a due possibilità (di solito di fronte ad un computer: due finestre, una a destra e una a sinistra) e deve effettuare una scelta. Prima che effettui la scelta viene mostrata un'immagine per un tempo molto breve (tale che non raggiunga la coscienza del soggetto) dietro una delle finestre. Se l'immagine è di un certo tipo (immagini erotiche funzionano molto bene), la probabilità che la finestra con l'immagine subliminale venga scelta è più alta, e questa cosa si può rilevare statisticamente ripetendo l'esperimento più volte.
Questo esperimento è stato cambiato da Bem in questa maniera: l'immagine subliminale veniva mostrata DOPO che il soggetto aveva effettuato la scelta; in realtà gli esperimenti che lui effettua sono 9, ma sono tutti, più o meno, varianti di questo esperimento classico. Lui ha trovato che in 8 dei 9 esperimenti, l'immagine subliminale mostrata dopo aveva un effetto facilitante sulla scelta precedente, ad un livello statistico che verrebbe considerato convincente dalla maggior parte degli studiosi.
Alcune obiezioni vengono subito in mente:
1) Spesso questi esperimenti sono inficiati dal fatto che lo sperimentatore interagisce direttamente con i soggetti. Per eliminare questo problema, l'esperimento era disegnato in modo tale che le istruzioni venissero tramite computer.
2) Ovviamente, il numero dei soggetti è importante. Bem ha utilizzato circa 100 soggetti per esperimento, un numero abbastanza convincente.
3) È importante anche come la scelta del computer della finestra dove mostrare l'immagine subliminale viene randomizzata. Bem ha scelto di utilizzare come generatore di numeri casuali il CD Marsaglia. Se ricordo bene, in un esperimento ha addirittura usato un generatore di numberi casuali veri.
4) Il problema dei sottogruppi: fra le altre cose, Bem mostra che quella che lui chiama "psi-performance", cioè l'efficienza con cui i soggetti hanno azzeccato la loro predizione, correla con alcuni tratti della personalità comunemente associati a capacità psi: apertura mentale, essere estroversi etc... In alcuni forum, Bem è stato accusato di formare sottogruppi dei suoi sample per costruire le sue prove. A me non pare che sia così: i suoi risultati sono indipendenti da questi sottogruppi. Solo, successivamente e addizionalmente, egli mostra che questa "psi-performance" correla con altri fattori.
5) Alcuni matematici olandesi hanno polemizzato col tipo di test statistici utilizzati da Bem, affermando che è necessario usare test più raffinati. Per prevenire questa obiezione, Bem ha utilizzato test statistici considerati standard nel campo della psicologia. Per cui la critica di Wagenmakers et al. è un po' a doppio taglio, perchè, se giusta, invaliderebbe più o meno tutta la ricerca nelle scienza sociali (e non solo) fatta negli ultimi 50 anni.
L'autore (che, detto per inciso, si occupa di "parapsicologia" più che altro come hobby, essendo il suo campo principale di ricerca la psicologia dell'orientamento sessuale) afferma di offrire prove supportanti la possibilità della precognizione.
Detto così, sembra una delle tante cose esoteriche aggirantisi al confine tra la Scienza e Giacobbo. Le cose però sono un po' più complesse. Per prima cosa, a causa dell'autore che non è un ciarlatano di mestiere, ma cha ha una rispettabile storia di scienziato. Poi per il giornale, che con il suo impact factor di 5+ e una riconosciuta autorevolezza, non è certo il luogo dove si pensa che si possano trovare ciarlatanerie. E infine, forse cosa più importante, per l'idea alla base dello studio.
Una delle critiche più comuni agli studi sul psi (utilizziamo questo termine, che è quello comune nell'ambiente scientifico, piuttosto che quello lievemente dispregiativo di "parapsicologia") è di usare paradigmi sperimentali e metodi statistici poco comuni, o comunque estremamente complessi, con la conseguenza di essere poco riproducibili. Si veda a proposito la storia degli esperimenti ganzfeld.
La strategia seguita da Bem è quella esattamente opposita. Bem ha scelto 9 paradigmi classici della psicologia moderna, li ha lievemente modificati (spiego dopo come) e li ha analizzati con tecniche standard; inoltre mette a disposizione dei richiedenti il software usato per eseguire gli esperimenti.
Il fenomeno che Bem vuole studiare è il cosiddetto "priming". Ovvero l'influenza che hanno sulle scelte di un soggetto dei segnali precoscienti (subliminali). L'esperimento base (ripetuto mille volte da psicologi di ogni tipo) funziona così: un soggetto è messo di fronte a due possibilità (di solito di fronte ad un computer: due finestre, una a destra e una a sinistra) e deve effettuare una scelta. Prima che effettui la scelta viene mostrata un'immagine per un tempo molto breve (tale che non raggiunga la coscienza del soggetto) dietro una delle finestre. Se l'immagine è di un certo tipo (immagini erotiche funzionano molto bene), la probabilità che la finestra con l'immagine subliminale venga scelta è più alta, e questa cosa si può rilevare statisticamente ripetendo l'esperimento più volte.
Questo esperimento è stato cambiato da Bem in questa maniera: l'immagine subliminale veniva mostrata DOPO che il soggetto aveva effettuato la scelta; in realtà gli esperimenti che lui effettua sono 9, ma sono tutti, più o meno, varianti di questo esperimento classico. Lui ha trovato che in 8 dei 9 esperimenti, l'immagine subliminale mostrata dopo aveva un effetto facilitante sulla scelta precedente, ad un livello statistico che verrebbe considerato convincente dalla maggior parte degli studiosi.
Alcune obiezioni vengono subito in mente:
1) Spesso questi esperimenti sono inficiati dal fatto che lo sperimentatore interagisce direttamente con i soggetti. Per eliminare questo problema, l'esperimento era disegnato in modo tale che le istruzioni venissero tramite computer.
2) Ovviamente, il numero dei soggetti è importante. Bem ha utilizzato circa 100 soggetti per esperimento, un numero abbastanza convincente.
3) È importante anche come la scelta del computer della finestra dove mostrare l'immagine subliminale viene randomizzata. Bem ha scelto di utilizzare come generatore di numeri casuali il CD Marsaglia. Se ricordo bene, in un esperimento ha addirittura usato un generatore di numberi casuali veri.
4) Il problema dei sottogruppi: fra le altre cose, Bem mostra che quella che lui chiama "psi-performance", cioè l'efficienza con cui i soggetti hanno azzeccato la loro predizione, correla con alcuni tratti della personalità comunemente associati a capacità psi: apertura mentale, essere estroversi etc... In alcuni forum, Bem è stato accusato di formare sottogruppi dei suoi sample per costruire le sue prove. A me non pare che sia così: i suoi risultati sono indipendenti da questi sottogruppi. Solo, successivamente e addizionalmente, egli mostra che questa "psi-performance" correla con altri fattori.
5) Alcuni matematici olandesi hanno polemizzato col tipo di test statistici utilizzati da Bem, affermando che è necessario usare test più raffinati. Per prevenire questa obiezione, Bem ha utilizzato test statistici considerati standard nel campo della psicologia. Per cui la critica di Wagenmakers et al. è un po' a doppio taglio, perchè, se giusta, invaliderebbe più o meno tutta la ricerca nelle scienza sociali (e non solo) fatta negli ultimi 50 anni.
Etichette:
complessità,
hypothesis testing,
previsioni,
psi,
realtá fisica,
statistica
Iscriviti a:
Post (Atom)