giovedì, novembre 27, 2008

Respiro

Tre settimane fa: EURANDOM ad Eindhoven.

Due settimane fa: preparazione di due workshop.

Sabato scorso: Molloy a Tübingen per i 35 anni dell'AGFA.

Oggi: seminario a Friburgo.

Nel frattempo: esercitazioni di neuroscienze computazionali.

Speriamo che da domani riesca a mettermi a fare un po' di ricerca attiva, prima di dimenticarmi la matematica.

martedì, novembre 25, 2008

MCCN V

Sono un po' in ritardo con gli aggiornamenti dalla lezione. La settimana scorsa abbiamo spiegato due cose fondamentali: il teorema del limite centrale e il processo di Wiener. Parliamo un po' del primo.

Il teorema del limite centrale è quella legge che afferma che la somma di variabili casuali i.i.d. converge ad una distribuzione normale. La dimostrazione si può trovare dappertutto: non è difficile, e sono richiesti alcuni ingredienti.

Uno lo voglio spiegare oggi.

Ingrediente 1: la funzione caratteristica e i momenti di una variabile casuale

La funzione caratteristica di una variabile casuale X è definita tramite

\phi_X(t) := {\mathbb E}(e^{itX})

Se X ha una densità, allora la funzione caratteristica altro non è che la trasformata di Fourier della densità. Sfruttando il fatto che si possono scambiare integrale e derivata facciamo questo piccolo calcolo:

\left.\frac{d}{dt}\int e^{itx} f(x)dx \right|_{t=0} = \int ix f(x) dx = i {\mathbb E}(X)

Si vede che il valore atteso di X è la derivata in 0 della funzione caratteristica moltiplicato per -i. Integrando analogamente e inducendo, si ottiene la famosa formula

i^{-n}\left.\frac{d^n}{dt^n}\int e^{itx} f(x)dx \right|_{t=0} = {\mathbb E}(X^n)


Per completezza elenco gli ingredienti necessari a comprendere la dimostrazione classica del teorema del limite centrale.

Ingrediente 2: la formula di Eulero per la definizione di e. Cioè la prima caratterizzazione qui.

Ingrediente 3: lo sviluppo in serie di Taylor di una funzione.

Ingrediente 4: il fatto che la distribuzione normale è invariante sotto l'azione della trasformata di Fourier. Questo è un mistero che ricorre in tutte le parti della matematica.

domenica, novembre 23, 2008

PISA

Quando parlo a miei amici di ciò che mi da fastidio dell'Italia, uno dei miei esempi preferiti è la mancanza di considerazione per il lavoro intellettuale, ed, in genere per la cultura.

Un esempio evidente è quello della reazione agli studi studi PISA,
una indagine internazionale promossa dall'OCSE nata con lo scopo di valutare con periodicità triennale il livello di istruzione degli adolescenti dei principali paesi industrializzati,
per citare Wikipedia.

Quando arrivarono i risultati della prima tornata, nel 2000, in Germania si aprì un grande dibattito perchè i risultati degli studenti tedeschi non corrispondevano a quello che ci si immaginava, essi erano circa al 20° posto su 40 nazioni. Obiettivo del dibattito: trovare una soluzione per migliorare la qualità dell'insegnamento, magari prendendo ad esempio paesi come la Finlandia risultati ai vertici della graduatoria. Ovviamente non ci sono state soluzioni condivise o grandi azioni politche, ma per lo meno c'era un interesse pubblico alla qualità dell'istruzione. Fatto sta che la Germania ha ottenuto dei notevoli miglioramenti fra il 2000 e il 2006, guadagnando quasi una decina di posizioni, soprattutto nelle discipline scientifiche.

E in Italia? Data la scarsa risonanza avuta dallo studio in Italia, si sarebbe portati a pensare che l'Italia è uscita alla grande da questi test; d'altra parte, è diffusa in Italia la convinzione di possedere un sistema scolastico d'eccellenza.

La verità è ben altra: nella prima valutazione, quella del 2000, l'Italia si è piazzata intorno al 24° posto, con una posizione più o meno a seconda della disciplina. C'è stato un dibattito? No. Che io sappia, la maggior parte degli italiani ignora l'esistenza di tale valutazione internazionale.

E l'effetto di questa scarsa considerazione è che l'Italia non ha migliorato i propri punteggi. In "Matematica" e "Scienze" è rimasta sostanzialmente stabile. Nella categoria "Lettura" ha perso circa 20 punti; se si pensa che un anno scolastico corrisponde a circa 25-30 punti, la cosa è inquietante.

giovedì, novembre 20, 2008

Una cosa poco nota...

Tutti conoscono il teorema del limite centrale: media di una sequenza di variabili i.i.d. con media 0 converge a N(0,n), dove N è la distribuzione normale, in formule

\frac{X_1 + \ldots + X_n}{n} \to {\mathcal N}(0,n),\quad n \to \infty

Meno nota è una sua semplice applicazione. Supponiamo che la nostra sequenza i.i.d. abbia 1 come valore atteso. Invece di considerare la media aritmetica, consideriamone la media geometrica data da

\sqrt[n]{X_1 \times \ldots \times X_n}

Il logaritmo della media geometrica è dato da

\frac{\log X_1 + \ldots + \log X_n}{n}

Queste sono variabili indipendenti, e quindi convergono a una distribuzione normale.
Esponenziando tutto quello che c'era all'inizio otteniamo: il prodotto di variabili i.i.d. con media 1 converge ad una distribuzione logonormale.

PS: tutto quello che ho detto vale a meno di qualche normalizzazione opportuna...

lunedì, novembre 17, 2008

MCCN0809 - III & IV

Per una settimana sono mancato e la lezione l'ha tenuta un collega.

Giovedì abbiamo introdotto i processi puntuali. Secondo la mia personale opinione, la maniera più elegante per descrivere un processo puntuale è quella tramite l'hazard function che è spiegata nella terza parte dell'1.5 della dispensa.

L'idea (banale) è quella di considerare un processo puntuale come una funzione indicatrice con supporto casuale, e poi determinare la probabilità infinitesimale che ogni punto della retta reale cada nel supporto (casuale) di tale indicatrice.

(Nella precedente lezione si era fatto solo un po' di trasformata di Fourier, nulla di grandioso).

domenica, novembre 16, 2008

Bernoulli

Spesso mi piace pensarlo: uno dei piaceri più sottili della matematica è scoprire banalità di cui non ci si era mai accorti.

Consideriamo, a mo' d'esempio, una variabile casuale di Bernoulli (non so quante volte ho già linkato la pagina di Wiki sulle variabili casuali...). Essa vale 1 con probabilità 1/2 e vale -1 con probabilità 1/2. Nel caso di una famiglia composta da due variabili di Bernoulli indipendenti è semplice capire come faremo ad assegnare le probabilità: ognuno dei quattro valori possibili, cioè


(1,1), (1,-1), (-1,1), (-1,-1)


è assunto dalla nostra famiglia di variabili casuali con probabilità 1/4.

Ugualmente si prosegue per una famiglia composta da N variabili di Bernoulli indipendenti. Ognuno dei 2^N valori ha probabilità 2^-N e siamo tutti contenti.

Ma che succede se consideriamo infinite variabili indipendenti di Bernoulli? Succedono due cose gravi. La prima è che se divido 1 per 2^N ottengo 0 e quindi non è chiaro che misura debba avere ognuna delle successioni del tipo (1,1,-1,1,-1,...) nel nostro spazio di probabilità.

Più che grave, questa faccenda sarebbe solo un po' ironica, perchè se mi è richiesto di simulare una tale sequenza, scrivo rapidamente un programmo in pseudocodice

while 0<1:
print random in {0,1}

e mi cavo d'impiccio. Quindi sono ina situazione in cui so esattamente di cosa parlo, ma non so scriverlo in matematica.

Allora potrebbe venirmi in mente di usare una qualche variante della NSA e assegnare ad ogni successione un valore infinitesimo pari 1/|2^N|.

E qua arriva la seconda cosa grave: quel numero infinito |2^N| è un mostro, perchè è più che numerabile!

Non so perchè, ma quando mi sono accorto di questo inghippo sono rimasto un po' basito.

martedì, novembre 11, 2008

Ferrovie

L'altro giorno ero in treno e pensavo al fatto che anche la ferrovia tedesca fa ritardi. O tempora, o mores! dicevo fra me e me. Tanto vale me ne rimanevo in Italia.

Ma come mai allora ho l'impressione che in Germania sia connessi meglio col treno?

Perchè Bochum-Freiburg (501 km su google maps) viene compiuta, con un cambio, in 4h10', alla signora media oraria di 120 Km/h.

Mentre in Italia Bari-Roma (455 km, diretto) viene compiuta in 4h37', alla media oraria di 98 Km/h. E il treno tedesco fa anche 10 stazioni intermedie, una ogni 50 Km, quello italiano 4, una ogni 110 Km.

Opperbacco, potenza dei numeri!

sabato, novembre 01, 2008

EURANDOM

Da domani sono qua per una settimana. Se avrò internet, proverò ad aggiornare un po' il blog con i contenuti della conferenza. Altrimenti starò una settimana in silenzio.

La conferenza è organizzata da EURANDOM, una fondazione finanziata dall'NWO e dall'università di Eindhoven che spiega così il suo obiettivo.

The mission of EURANDOM is to foster research in the stochastic sciences and their applications. It achieves this mission:

* by recruiting and training talented young researchers and helping them to find their way to tenured positions in academia and industry

* by carrying out and facilitating research through postdoctoral and graduate appointments, visitor exchange and workshops

* by taking initiatives for collaborative research at the European level.


Faccio notare che l'NWO è un'agenzia statale olandese. Forse bisogna spiegare a Brunetta che risultati nell'ambito della ricerca e della formazione non si ottengono tagliando i fondi...