mercoledì, ottobre 31, 2007

implicazioni

l'intelligenza non è misurabile: non esiste

pietro greco dell'unità

ho già discusso di pietro greco, il giornalista scientifico dell'unità. precisamente qui e qui.

oggi decide di affermare qui che l'intelligenza non è misurabile perchè non esiste. ora accetto che lui voglia dimostrare con tutti i mezzi che watson dice cretinate. però bisogna essere giusti e dire che anche greco dice cretinate.

se leggete l'articolo egli ragiona in questa maniera: l'intelligenza non esiste. infatti tutti i tentativi di misurarla con un solo parametro sono falliti. quindi ne deduciamo che non esiste e quindi watson ha torto.

ora, premesso che mi sembra una dimostrazione di questo tipo, mi sembra anche che sia semplicemente sbagliato: l'intelligenza si può misurare; non ha un solo parametro e non è costante nel tempo (come peraltro greco fa giustamente notare nel corso dell'articolo), però esiste ed è misurabile.

ps: a questo proposito segnalo il post di oggi di chris chatham.

lunedì, ottobre 29, 2007

grafi funzionali (II)

qui consideravo la possibilità di associare ad un grafo una funzione bilineare su un qualche spazio ancora da identificare. il problema nel risolvere questo esercizio è che non è possibile scegliere l'insieme potenza di V corredato dell'operazione di unione, dato che in tal caso la matrice di adiacenza induce una forma sublineare.

ecco una possibilità: si consideri un insieme di punti V e l'insieme delle funzioni definite su V e assumenti valori nei numeri naturali che denoto


C(V):=\{f: V \to N\}


si noti che ad ognunga di queste funzioni si può canonicamente associare un sottoinsieme pesato di V. il peso di ogni punto è pari al valore assunto dalla funzione nel punto.

si consideri adesso la matrice delle adiacenze A di un grafo G avente come insieme di vertici V. si consideri la funzione F: C(V) x C(V) --> N definita specificando i suoi valori sugli elementi della base canonica


F(u,v)=a_{uv}, \qquad u,v \in V


per costruzione F è bilinerare, se non ho fatto errori.

fissata F, esiste un grafo che induce F?

venerdì, ottobre 26, 2007

grafi funzionali (I)

convergenze parallele è un'espressione tipica della lingua italiana, e in particolare del lessico politico o politichese.

wikipedia


oggi ho ricominciato a lavorare alla mia tesi e ho aggiunto un paragrafo sui diversi formalismi possibili quando si parla di grafi.

uno dei formalismi più utili, se non si ritiene necessario numerare i lati, è quello che considera la matrice delle adiacenze A che è definita ponendo a_{ij}=1 se e solo se un lato va dal vertice i a quello j e 0 altrimenti.

se consideriamo un grafo semplice, cioè senza lati multipli, allora è facile vedere che questa matrice di adiacenza è identificabile con una funzione F a valori booleani definita sull'insieme dei vertici V dalla relazione

F(i,j):=a_{ij}, \qquad i,j \in V

si vede che questo formalismo si estende senza difficoltà al caso in cui il grafo abbia lati mutlipli se si concede a F di assumere valori nei naturali. ora però voglio estenderlo un po' di più. voglio sostituire vertici i e j con sottoinsiemi I e J dell'insieme dei vertici V. è facile farlo. si definisca F(I,J) come il numero dei vertici che congiungono un qualsiasi elemento di I a un qualsiasi elemento di J. in formule

F(I,J):= \sum_{i \in I}\sum_{j\in J} F(i,j)

sarebbe bello che F fosse lineare rispetto alla somma definita tramite l'unione di sottoinsiemi. solo che non lo è: è solo subilineare. e quindi questo tentativo di definire una forma sesqulineare discreta sullo spazio delle configurazioni di punti fallisce miseramente.

giovedì, ottobre 25, 2007

random neurons (I)

gott würfelt nicht

albert einstein


martedì ho tenuto il seminario conclusivo del mio soggiorno a freiburgo. mi è piaciuto molto questo periodo qui e cerco quindi di spiegare cosa ho imparato. così spiego anche cosa intendevo in questo post.

l'ipotesi zero è che i neuroni scarichino potenziali d'azione in maniera casuale. l'obbiettivo finale è di scoprire tramite registrazioni di serie di potenziali d'azione provenienti contemporaneamente da diversi neuroni quali sono le carrateristiche statistiche dei neuroni singoli.

il modello matematico che scegliamo per un singolo neurone è quello di un processo di rinnovamento: ogni neurone singolo viene identificato con una successione di variabili aleatorie (X_i)_{i \in N} che rapprestano i tempi intercorrenti fra potenziali d'azioni successivi. si suppone che tali variabili siano indipendenti e identicamente distribuite.

ciò che si osserva nelle immagini che ho linkato sopra è allora nient'altro che una realizzazione della successione (S_n)_{n \in N} di variabili casuali che definisco tramite

S_n:=\sum_{i=1}^n X_i

si noti che abbiamo implicitamente posto l'origine del riferimento temporale coincidente col primo potenziale d'azione: quindi, S_n non è altro che il tempo a cui si registra l'n+1esimo potenziale d'azione.

una grandezza fondamentale per tale successione è la funzione di rinnovamento H che è definita ponendo H(t) uguale al valore atteso del numero dei potenziali d'azione registrati fino a t. indicando con N_t il numero di potenziali d'azione registrati nella nostra particolare realizzazione, si scrive in formule

H(t):= E(N_t)

si noti che N_t è essa stessa, per ogni t, una variabile aleatoria, e quindi se ne possono prendere K diverse copie indipendenti, ognuna che possiamo identificare con un singolo neurone di quelli che fanno parte della popolazione che abbiamo registrato. volendo possiamo assegnare ad ogni neurone un'etichetta, diciamo k, per distinguerli l'uno dall'altro. per cui le variabili aleatorie in questione diventano N^k_t.

in uno dei prossimi post mi propongo di dimostrare l'utile e facile formula

H(t)=\lim_{K \to \infty} \sum_{k=1}^K \frac{N^k_t}{k}

di interpretarla e di trarne qualche interessante conseguenza.

mercoledì, ottobre 24, 2007

ghiaccio

la desertificazione è il processo di degradazione del suolo causato da numerosi fattori, tra cui variazioni climatiche e attività umane.

wikipedia


prendendo spunto da questa discussione facciamo un conto che risponda a questa domanda: verremo sommersi dai ghiacci dell'antardide? per rispondere a questa domanda è necessario risolvere questo semplice esercizio:

Esercizio

Si stimi l'innalzamento degli oceani osservabile nel caso del riscaldamento di 1°C dell'atmosfera.

Si utilizzino le costanti presentu su Wikipedia.

Soluzione

Passo 1

Dato che la terra è approssimativamente in equilibrio termico si può cominciare stimando al rialzo la quantità di calore necessaria per ottenere l'innalzamento di 1°C delle calotte polari. Le calotte polari e tuti i ghiacciai contengono 25x10^6 Km^3 di ghiaccio. Supponiamo che si trovino tutte in antartide; 25x10^6 Km^3 corrispondono a un po' meno di 2.5x10^22 grammi di acqua. A circa 4 J per grado per grammo si ottengono 10^23 joule necessari per ottenere questo riscaldamento.

Passo 2

Supponiamo adesso che tutto questo calore destinato alla massa di ghiaccio non venga utilizzato equamente per riscaldare le molecole, ciascuna secondo la sua temperatura, ma vengano utilizzate tutte per sciogliere il ghiaccio che si trova a zero gradi, ciò che vengano utilizzate tutte per superare l'energia latente del ghiaccio. Il calore latente dell'acqua è 3.35x10^2 J per grammo. Cosicchè si ottiene che possiamo scogliere 3x10^20 grammi di ghiaccio, che corrispondono a circa 3x10^4 chilometri cubi di ghiacci.

Passo 3

Dividiamo adesso questi chilometri cubi di ghiaccio per la superficie degli oceani: 3x10^8 Km^2. Come vi vede subito, si ottengono 10^-4 Km di innalzamento del livello dei mari per ogni grado di innalzamento.

cosa abbiamo calcolato? che per ogni grado di cui la temperatura si alza, il livello del mare si può alzare al massimo di 10 cm. si noti che abbiamo fatto tutti i conti in abbondante vantaggio di stabilità. c'è da preoccuparsi? si noti che per ottenere un innalzamento di 1 metro, che non riuscirebbe nemmeno a sommergere tutto il lungomare di bari, sarebbe necessario un innalzamento della temperatura di 10 gradi (dieci!) centigradi. sempre in questo calcolo dove abbiamo approssimato tutto a favore dei catastrofisti...

il vero problema del riscaldamento globale non è lo scioglimento dei ghiacci, ma la desertificazione, che però, come spiega wiki, spesso ha origine dallo sfruttamento intensivo della popolazione che si stabilisce nel territorio per coltivarlo oppure dalle necessità industriali e di utilizzo per il pascolo.

specifico: non sono contro kyoto o per il petrolio o il nucleare, anzi! solo che preferisco si parli delle cose così come stanno. o perlomeno che si cerchi di ragionarci. soprattutto vedendo cosa siamo riusciti ad affermare nel passato...

ps: ho già fatto un calcolo del genere, una volta...

lunedì, ottobre 22, 2007

delusioni

prima di tutto dobbiamo guardarci dal credere, trascinando così la nostra anima in questa opinione, che non ci sia alcun ragionamento sano. piuttosto, dobbiamo credere che siamo noi a non essere sani; proprio per questo, però, dobbiamo farci coraggio e impegnarci con tutte le forze per diventare sani

socrate


consiglio di leggere tutto il passo in questione del fedone; si trova un po' dopo la metà, quando socrate incomincia a rispondere a simmia e cebete (90-91).

socrate spiega perchè si diventa avversi ai ragionamenti; come spesso ci si affida prematuramente agli uomini, così ci si affida anche prematuramente a ragionamenti, rimanendo poi profondamente delusi se essi si rivelano fallaci. e conclude spiegando che ciò porta a diventare "odiatori di ragionamenti".

che poi è la stessa terribile sensazione che si prova quando qualcuno ti fa vedere che la tua dimostrazione era sbagliata...

venerdì, ottobre 19, 2007

apologia

meglio tardi che mai

mio nonno


la matematica è una cosa strana: m si studia per anni e anni un argomento, e non si capisce mai quale ne sia il senso, e lo si disprezza, e ci si dice "si, dovrei studiare anche questo", ma non se ne ha voglia e si cerca di evitare.

fino a quando, un giorno, d'improvviso, mentre si cerca di dimostrare un risultato per la densità spettrale di sequenze di potenziali d'azioni, si viene fulminati dal vero significato della vita.

in questo caso, delle variabili aleatorie.

consideriamo un insieme finito di numeri reali A=(a_1, ... , a_k). si definisca adesso una successione tramite

x_n:= a_{n{\rm mod}k}, \qquad n \in \mathbb N

in pratica percorriamo tutti gli a_j dal primo all'ultimo, e poi ricominciamo. è evidente che tale successione non converge: ha esattamente k punti di accumulazione. tuttavia, se consideriamo il limite secondo cesaro, di cui ho parlato anche l'ultima volta, allora si vede subito che

\lim^C_{n\to \infty} x_n= \frac{1}{k}\sum_{j=1}^k a_j

in realtà, si vede subito che non è necessario definire la successione in tale maniera artificiosa. come prima generalizzazione si scelga ad ogni "giro" un nuovo ordine in cui vengono assunti i valori. si vede, quindi, che è possibile definirla in una maniera arbitraria, purchè la densità relativa che i valori valori a_j sia uguale. se le densità sono diverse (si noti che non ho ancora definito cos'è questa densità e che non lo farò), allora il limite secondo cesaro altro non sarà che una media pesata, dove il peso altro non è che la densità del valore in questione.

ora, supponiamo di non volerci fissare su una specifica, per quanto arbitraria, scelta dell'ordine dei valori assunti dalla successione. vogliamo lasciare la massima libertà, e scegliere una successione in maniera in parte algoritmica cioè deterministica, e in parte casuale, cioè stocastica.

per ogni n scegliamo un numero a caso fra gli elementi di A, purchè alla fine (per n grande) siano rispettate le densità relative. cosa abbiamo fatto? non abbiamo fatto altro che definire una successione indipendente di variabili aleatorie X, ognuna di esse avente la seguente distribuzione: con probabilità p_j pari alla densità del numero in questione, viene assunto il valore a_j.

per capire la connessione tra limite secondo cesaro e il valore atteso si consideri ogni successione scelta secondo tale algoritmo come una particolare realizzazione di questa successione di variabili aleatorie. il limite secondo cesaro di tale realizzazione esiste ed è uguale al valore atteso della variabile aleatoria. cioè, indicando con X tale variabile aleatoria,

\lim^C_{n\to \infty} x_n=E(X)

qua si vede il vantaggio dell'approccio stocastico: non è necessario fermarsi a variabili aleatorie a valori in un insieme finito, o numerabile. si può assumere che la variabile aleatoria abbia valori reali. e mentre nel caso numerabile sarebbe possibile definire la successione in questione in maniera algoritmica, dato che è possibile assegnare ad ogni valore che può assumere X una densità finita maggiore di 0, ciò diventa impossibile nel caso continuo, rendendo necessario il ricorso al concetto di variabile aleatoria.

prima o poi devo spiegare cosa ha che fare tutto ciò con la densità spettrale di una popolazione neuronale.

martedì, ottobre 16, 2007

sinapsi, catene di markov multiple e limiti secondo cesaro

i have never done anything 'useful'. no discovery of mine has made, or is likely to make, directly or indirectly, for good or ill, the least difference to the amenity of the world

g. h. hardy


in questi giorni discutevo con un ragazzo di friburgo, che sta studiando un modello di sinapsi per il riconoscimento locale di correlazioni. fra gli altri problemi che deve risolvere, me ne ha presentato uno, per lui statistico, per me di analisi funzionale, che vi presento in una forma lievemente modificata.

il nostro scenario è il seguente: ci sono una certa quantità di particelle che si muovono in uno spazio-tempo discreto. ad ogni step temporale si muovono dallo stato i allo stato j con probabilità a_{ij}. con questi a_{ij} si può formare una matrice, detta matrice di transizione. la nostra situazione è però un po' più complicata. ad ogni step temporale, si sceglie la matrice di transizione da un insieme di M matrici transizione, secondo un certo vettore di probabilità p=(p_k). per comodità diamo un nome a queste matrici di transizione

A_k:=(a^k_{ij})_{i,j=1,\ldots,N}, \qquad k=1,\ldots,M

la domanda che ci poniamo: esiste, ed in che senso, una distribuzione limite delle particelle? più precisamente ci si chiede se il limite

\lim_{t \to \infty}{\mathrm Prob_t}(x \in j)

esista ed a che condizioni.

se avessimo a che fare con una singola matrice di transizione, assumendo che essa sia primitiva, cioè che le sue potenze convergano ad una proiezione unidimensionale, cioè che l'unico autovalore sul cerchio unitario sia 1 e che abbia dimensione dell'autospazio relativo pari a 1, allora si dimostra facilmente che la probabilità che una particella x si trovi nello stato j converge verso

{\mathrm Prob}_\infty (x \in j)= \frac{v_j}{||v||_1}

qui v è uno qualsiasi degli autovettori nell'autospazio relativo all'autovalore 1. si potrebbe dunque pensare che nel caso di M matrici di transizione il tutto si comporti come se la matrice di transizione fosse

A:= \sum_{k=1}^M p_k A_k

qui p è il vettore di probabilità le cui componenti p_k sono le probabilità con cui A_k viene scelta in uno step temporale.

simulando al computer (per un numero alto ma fisso di particelle e di iterazioni) questo sistema dinamico discreto abbiamo subito notato che non erà così, ma che lo era solo se si faceva la media di varie simulazioni. mentro ero in bicicletta ho capito perchè: facendo la media su varie simulazioni non facevamo altro che passare dal limite della distribuzione di probabilità, che evidentemente non esiste a a causa delle oscillazioni dovute al passare da una catena di markov all'altra, al limite secondo cesaro che, altrettanto ovviamente, esiste.

la cosa più divertente è che quando ho tentato di spiegare al mio collega, fisico, che stavamo tentando di calcolare un limite che non esiste, lui non riusciva a capacitarsi di questo fenomeno...

venerdì, ottobre 12, 2007

baden (II)

si scopron le tombe, si levano i morti,
i martiri nostri, son tutti risorti,
le spade nel pugno, gli allori alle chiome,
la fiamma ed il nome, d'italia sul cuor

inno di garibaldi




una foto dal siegesdenkmal di freiburg.

maledetti prussiani! come hanno osato respingere gli attacchi di bourbaki!

che sia un segno del destino che mi dice di fermarmi qui?

vuoto temporale

dove andiamo noi, non c'è bisogno di strade

e. l. "doc" brown


al momento sto studiando la teoria dei processi di rinnovamento, cioè la teoria che si occupa di modellare il ricorrere di eventi quando il tempo che intercorre fra un evento e l'altro è determinato da una variabile aleatoria.

ciò che ci fanno i neuroscienziati è
1) approssimare la serie dei potenziali di azione di un neurone tramite un processo di rinnovamento,
2) sovrappore le serie provenienti da vari neuroni dopo averli resi statisticamente dipendenti, e
3) tentare di sviluppare metodi statistici per districare le dipendenze osservando il processo sovrapposto.

tutto ciò viene fatto in via teorica, con l'idea di applicarlo, appena il metodo funzionerà, come metodo per verificare quanto i neuroni si discostino dall'ipotesi zero di un banale generatore casuale di potenziali d'azione.

questa settimana non ho fatto altro che tentare di orientarmi nella giungla di pubblicazioni, e ho scoperto una cosa veramente divertente; si comincia nel 1948, quando willi k. feller pubblica un articolo dal titolo "fluctuation theory of recurrent events" che tratta il caso di un tempo discretizzato.

dopodicchè tutto il mondo sembra voler estendere ad ogni caso possibile la teoria di feller (che, a proposito, doveva essere uno mica male). fino a quando, nel 1976, un matematico russo, b. a. sevastyanov, pubblica un survey.

poi per dieci anni, sembra non accadere nulla, fino a quando tutto il campo non si rianima in un contesto completamente diverso.

o io non ho capito niente, com'è probabile dato che sono nuovo del campo, oppure è molto divertente...

ps: solo ora mi accorgo che qui avevo già citato cox e miller (1965), il quale cox, a sua volta, è l'idolo dei neuroscienziati locali.

mercoledì, ottobre 10, 2007

l'ultima crociata

guarda, ci sono molti tipi di dimostrazione. uno di essi è un metodo a cascata, in cui parti da un numero e riesci a proseguire per tutti i numeri naturali.

p. milella


giusto per portare acqua al mio mulino: gowers fa notare che una dimostrazione índuttiva sui numeri naturali può sempre essere trasformata in una dimostrazione per assurdo.

io vado un po' più in la: dico che la dimostrazione giusta è quella induttiva, e che quella per assurdo è solo una complicazione inutile. e questo perchè una dimostrazione induttiva ha sempre nascosto dentro di se un algoritmo, a differenza di quella per assurdo.

martedì, ottobre 09, 2007

forme sesquilineari (I)

in mathematics you don’t understand things. you just get used to them.

j. von neumann


john von neumann mi diviene sempre più simpatico, col passare del tempo. e dire che non l'ho mai amato nella mia fanciullezza. per il progetto manhattan e quelle storie lì, s'intende.

cerco, dunque, di "get used" al concetto di forma sesquilineare, dopo due anni di dottorato passati a lavorarci. partiamo considerando un hamiltoniano H di un sistema quantistico. questo hamiltoniano avrà degli autovalori, se è stato fornito delle giuste condizioni al bordo. ogni buon fisico sa che tali autovalori sono le energie che può possedere il sistema quantistico quando viene osservato.

matematicamente, non c`è nessun motivo preciso per considerare le energie solo di un sistema osservato; in generale, l'energia contenuta da una funzione d'onda la posso definire tramite la dualità dello spazio di hilbert dove sto lavorando come

E(\psi):=\langle H \psi \mid \psi \rangle

astraendo ancora di più, dato che sappiamo che il sistema si "muove" nella direzione dell'hamiltoniano, possiamo dire con un abuso di terminologia che i puristi mi perdoneranno, che la quantità di moto del sistema, che deve essere quindi un vettore dello spazio di hilbert, è dato dall'hamiltoniano applicato al sistema stesso.

non sto affermando che l'operatore quantistico della quantità di moto sia l'hamiltoniano! sto solo affermando la tautologia che la direzione e velocità del sistema dinamico definito dall'equazione di schödinger

i\frac{d}{dt}{\psi}(t)= H\psi(t)

possa essere identificata da H&psi(t), a meno di una moltiplicazione con uno scalare. la qual cosa, ripeto, è una tautologia. quello che mi interessa, in questo momento, è identificare il vettore H&psi(t).

per il teorema di rappresentazione di riesz possiamo identificare questo vettore nello spazio di hilbert, osservandone il prodotto scalare con gli altri vettori. chiamando dunque Q(&psi,&phi) la quantità di moto dello stato &psi nella direzione &phi si ottiene

Q(\psi, \phi):= \langle H \psi \mid \phi \rangle

Q è allora la nostra "applicazione della quantità di moto". il prossimo passo è quello di definire le proprietà essenziali di questa applicazione della quantità di moto Q che abbiamo appena definito. ogni applicazione avente tale proprietà definisce una forma sesquilineare per cui è possibile sviluppare una teoria unificata e coerente.

ma non oggi.

lunedì, ottobre 08, 2007

corsi e ricorsi

meditate gente, meditate!

renzo arbore


trascrivo l'indice di "Lectures on Theoretical Physics", H. A. Lorentz, Princeton University Press, 1927.

Aether theories and aether models

I. Aberration of Light
1. Stoke's Theory: The Earth drags the Surrounding Aether.
2. Velocity Potential in an Incompressible Aether.
3. Planck's Theory: Compressible Aether.
4. Fresnel's Theory: Fixed Aether.
5. Dragging Coefficient.
6. Theory of Aberration.
7. Michelson's Experiment.
8. Contraction in the Direction of Motion.

II. Mechanical Aether Theories

et cetera et cetera...

ovviamente non voglio prendermi gioco di h. a. lorentz, premio nobel per la fisica nel 1902. solo: ciò di cui allora era normale parlare ci sembra oggi una assurdità infantile...

il testo è preso dal progetto gutenberg, se interessa.

domenica, ottobre 07, 2007

dall´analogico al digitale all´analogico (II)

nec procul afuerunt telluris margine summae:
hic, ne deficeret, metuens avidusque videndi
flexit amans oculos, et protinus illa relapsa est.

publio ovidio nasone

qui a friburgo sono nuovamente affascinato dalle neuroscienze; torno allora su un tema che ho già trattato in passato.

uno dei miei argomenti preferiti per giustificare il passaggio dello studio delle reti neurali come sistemi dinamici continui alle reti di spiking neurons si basa sulle equazioni di fitzhugh-nagumo, d'ora in poi fn. sono una semplificazione fenomenologica delle equazioni di hodgkin-huxley, che descrivono con ammirevole precisione il comportamento elettrico delle membrane dei neuroni. il modello fn è particolarmente istruttivo, perchè, se si tralascia l'accoppiamento del voltaggio con la variabile di recupero, che gli conferisce un carattere "periodico", permettono di capire esattamente il significato del concetto di soglia in un sistema dinamico.

le fn, private dell'accoppiamento con la variabile di recupero, hanno la forma

\left\{\begin{array}{rcl}y'(t)&=&-y(t)(y(t)-T)(y(t)-A), \\y(0)&=&y_0.\end{array}\right\.

qui T denota la soglia e A l'ampiezza per motivi che spiego immediatamente: sostituendo a y_0 i valori 0,T,A, si vede che essi sono punti stazionari. d'altra parte y' è minore di 0 per valori maggiori di A, oppure fra 0 e T, maggiore di 0 per valori fra T e A oppure per valori minori di 0. dato che le soluzioni di un sistema dinamico non possono incrociarsi per il teorema di picard-lindelöf, ne consegue che la soluzione converge ad A (l'ampiezza!) per dati iniziali maggiori di T (la soglia!) e converge a 0 per valori iniziali minori di T.

detto in altre parole, il sistema dinamico associato all'equazione di cui sopra non è altro che un dispositio che trasforma un segnale analogico (il dato iniziale scelto in R) in un segnale digitale (il valore a cui converge la soluzione scelto in {0,A}). è possibile, inoltre, accelerare o rallentare questo dispositivo aggiungendo un fattore V, rispettivamente maggiore o minore di 1, davanti al lato destro dell'equazione. questa è un'ottima giustificazione, a mio parere, per considerare le reti neurali di spiking neurons una buona approssimazione di quellie rappresentate da sistemi dinamici continui. inoltre è anche un buon esempio di come ottenere buona positura globale per un'equazione differenziale ordinaria che abbia un lato destro non globalmente lipschitziano.

qualche considerazione, adesso, sul concetto astratto di soglia; per esprimersi con precisione, bisognerebbe dire che A è un punto fisso dell'equazione, con bacino di attrazione (T,\infty). da qui si può generalizzare il concetto di soglia, definendo la soglia di un punto fisso di un sistema dinamico come il bordo del suo bacino di attrazione.

questa erkenntnis sicuramente non è nuova, come la maggior parte delle mie illuminazioni. tuttavia mi riservo di tornare sull'argomento, magari con qualche riflessione sui cicli limite e onde viaggianti...

venerdì, ottobre 05, 2007

semafori

gullit è come cervo che esce di foresta

v. boskov

ieri ho avuto un'illuminazione, mentre seguivo un talk sui potenziali locali di campo nel cervello. eccovela qua, fresca di lampadina:

un circuito elettrico è come un semaforo ideale: quando diventa verde, tutte le cariche si muovon insieme.

che poi mi ricorda la recensione di un cortometraggio che non son riuscito a vedere al platform nobudget di tübingen. era su un tipo che voleva spiegare al mondo come coordinarsi per essere come un circuito elettrico.

mercoledì, ottobre 03, 2007

baden (I)

i want to ride my bike

the queen


questa città di freiburg ha qualcosa di inquietante: il numero abnorme di biciclette. ci sono (di gran lunga) più biciclette che macchine. ci sono strade riservate alla biciclette. non piste ciclabili, ma strade riservate alle biciclette. oppure promiscue con le macchine, dove però le macchine hanno il limite di 20 km/h. è vero che la città è piatta, e quindi si presta. però è qusi eccessivo.

la seconda cosa inquietante: la mole della pagina di wiki. certe cose mi rendono le città immediatamente simpatiche. e se sfogliate un po' l'articolo noterete che ci sono molti articoli correlati.

una cosa bella è l'accento: lento, un po' come in svizzera, piacevole e tranquillo e senza eccessi di sch...

lunedì, ottobre 01, 2007

fantasia al potere

musa, quell'uom di multiforme ingegno dimmi

i. pindemonte


solo per lodare un ragazzo di nome frank endler che, annoiato dal materiale scadente che riceveva per i suoi esperimenti di elettrofisiologia, ha deciso di scrivere un software che gli permette di usare delle schede sonore commerciali al posto dei carissimi, quanto inefficienti, apparecchi ricevuti.