I want to show today that working in the paradigm of test-driven-development, we can develop a working definition of a convergent sequence. Metaphorically speaking, we want to develop a mathematical "program" that, given a sequence, says to us that this sequence is convergent in some useful sense.
I will start with an easy example (which will be our first test). We look at the sequence of numbers, which we will call
Test sequence 1
$$1, \frac{1}{2}, \frac{1}{3}, \frac{1}{4}, ...$$
or, in other, terms $\{\frac{1}{n}\}_n$
It is clear (by intuition) that the numbers in this sequence (in the following sequence 1) become smaller and smaller approaching, but never touching 0. For this reason we will use this as our first test case, and try to derive a formal definition of what is a sequence of numbers that converges to 0.
By looking at the sequence 2 things become apparent: 1) the numbers get smaller and smaller and 2) the numbers always are positive. So we try our first defintion.
Convergent sequences, take 1
A sequence of positive numbers is said to be convergent to 0 if the numbers become smaller and smaller.
Let us try now to put it in more formal terms
Convergent sequences, take 2
A sequence of positive numbers $x_n\geq0$ is said to be convergent to 0 if $x_{n+1}< x_n$ for all $n$ index of the sequence.
Since now $\frac{1}{n+1}<\frac{1}{n}$, this definition seems to include our test tesequence 1, in the sense that according to this definition, our sequence converges to 0. Can we stop now? No. We have written a small test (checking whether the sequence 1 is converging) and a small piece of code (our take 2). But our mathematical insight is not yet satisfied, because our test does not cover many possible inputs (in form of test sequences of course). So, we have to extend our test.
In particular, it is maybe useful to have a sequence of which we know (always by intuition) that it does not converge to 0 so that we can check that our definition also fails when it must. The simplest thing to do is to consider the sequence 1 and add 1 to all members.
Test sequence 2
$$2, 1+\frac{1}{2}, 1+\frac{1}{3}, 1+\frac{1}{4}, ...$$
Now, since our sequence is composed of decreasing positive numbers, our tentative definition would call it convergent. Since we know that this sequence does not converge, that means that our program (take 2) does not pass the test. In fact the point is that our test sequence 2 is always at least 1 away from 0. So, let us add to our definition that the sequence cannot have a definite distance from 0.
Convergent sequences, take 3
A sequence of positive numbers $x_n\geq0$ is said to be convergent to 0 if $x_{n+1}< x_n$ for all $n$ index of the sequence and for any positive number $\epsilon$, it is not true that all numbers in the sequence are larger than $\epsilon$.
This looks good. Let us build some new test to check whether we are really there. Say, we take the sequence 2 and we put some 0 here and there. The resulting sequence should not converge according to our definition, since we are not getting closer and closer to 0 with all numbers!
Test sequence 3
$$2, 0, 1+\frac{1}{2}, 0, 1+\frac{1}{3}, 0, 1+\frac{1}{4}, ...$$
Now we have problem. The sequence is clearly non convergent: if we take the odd indexes, we go to 1, otherwise we go to 0. Since we have 0s over and over again in our sequence, we cannot find an $\epsilon$ such that all numbers are larger than that, so for that reason the sequence would be classified as convergent. But: since we inserted 0 over and over again, the numbers are not decreasing, and the sequence is classified as not convergent for that reason. This sounds weird. It looks that we pass the test, but for the wrong reason. Let us keep in mind that there is some problem with the decreasing property and let us correct the part regarding the distance from 0.
Convergent sequences, take 4
A sequence of positive numbers $x_n\geq0$ is said to be convergent to 0 if $x_{n+1}< x_n$ for all $n$ index of the sequence and for any positive number $\epsilon$, we can find some index $k$ (dependent on $\epsilon$) such that all numbers with index larger than $k$ are smaller than $\epsilon$.
Now we are on the safer side with the test sequences 2 and 3. Indeed, if I choose my $\epsilon = 0.9$ I am not able to find any index such that the numbers with larger index are smaller than 0.9, since I have over and over again some $1+\frac{1}{n}$ popping up in my sequence. Are we still on the safe side with sequence 1? Yes, since if I choose $k=\frac{1}{\epsilon}$, it is clear that for all larger index the numbers in the sequence are smaller than $\epsilon$ (this is undergraduate algebra, just try it). Note that now the test sequence 3 is classified as not convergent for both not being decreasing and for being not arbitrary small.
Now let us go back to the problem with the decreasing sequences.. If I have a sequence of numbers and scramble the order, I do not want that this scrambling changes whether we call the sequence convergent or not. So, we come with a second test sequences that has to converge.
Test sequence 4
$$\frac{1}{2}, 1, \frac{1}{4}, \frac{1}{3}, ...$$
We just switched the position of the neighbours. Now, this sequence is intuitevly convergent, but our take 4 says it is not, since the elements are not decreasing. So, what if we drop the assumption of having decreasing numbers?
Convergent sequences, take 5
A sequence of positive numbers $x_n\geq0$ is said to be convergent to 0 if for any positive number $\epsilon$, we can find some index $k$ (dependent on $\epsilon$) such that all numbers with index larger than $k$ are smaller than $\epsilon$.
This sounds familiar. Surprising as it is, real world mathematics really feel like that often: you start with some hypothesis of a theorem, try out some examples, until you are confident enough. Constructing the examples exactly gives you the boundaries of the hypothetical theorem. Can we build proofs by this method?
Visualizzazione post con etichetta definizioni. Mostra tutti i post
Visualizzazione post con etichetta definizioni. Mostra tutti i post
venerdì, maggio 31, 2013
giovedì, dicembre 09, 2010
martedì, settembre 16, 2008
De memoris
In questo post sul blog che tengo con due miei cari amici si è sviluppata una interessante discussione sulla differenza fra la memoria procedurale e la memoria dichiarativa.
Stavo riflettendo che in matematica c'è un'interessante analogia che riguarda la definizione delle funzioni.
Cos'è una funzione? (Versione dichiarativa)
La risposta rigorosa, diciamo Bourbakistica è questa.
Definizione
Una funzione è una terna (A,B,R) dove A e B sono insiemi e R è un sottoinsieme del prodotto cartesiano A x B tale che se (a,b) e (a',b') sono in R, allora b=b'
L'idea sottesa a questa definizione è che una funzione altro non è che una lista, che accanto ad ogni valore della variabile indipendente (gli a in A) riporta uno ed un solo valore della variabile dipendente (il b in B tale che (a,b) in R).
Definire una funzione in questa maniera è rigoroso e utile. Tuttavia non corrisponde alla maniera in cui pensiamo. Quando definiamo una funzione, infatti, pensiamo a delle operazioni da eseguire, e non ad una lista di valori!
Cos'è una funzione? (Versione procedurale)
La risposta intuitiva, empirica, è quella che si dava nel 1800. Una funzione è una legge di associazione. Una funzione è definita se per ogni valore x so calcolare f(x).
Vantaggi e svantaggi
Cominciamo coi vantaggi della maniera procedurale. I vantaggi della maniera dichiarativa li sappiamo: è la maniera rigorosa con la quale si fa matematica.
Però pensiamo adesso di voler definire la funzione quadrato, cioè f(x):=x**2. Se vogliamo definirla in maniera dichiarativa, dobbiamo decidere in quali insieme tale funzione deve vivere. Dobbiamo scrivere, ad esempio, f:R-->R, f(x)=x**2 se vogliamo parlare del quadrato nei numeri reali, f:C-->C, f(x)=x**2 se vogliamo parlare del quadrato nei numeri complessi. Un po' complicato, no?
Ovviamente possiamo salvarci definendo f:A-->A, f(x)=x*x, dove A è uncampo, ma non è questo il punto. Il punto è che non possiamo dire: sia f(x)=x*x ogni qualvolta abbia senso, perchè staremmo quantificando su l'insieme totale che contiene tutte le strutture algebriche.
Fin qua è solo un problema formalistico, quasi di estesi. Un problema più grave si presenta nel caso in cui alla mia funzione definita in maniera procedurale non corrisponda nessuna funzione dichiarativa. Fissiamo una funzione continua f a valori reali. Decidiamo di definire la funzione g tramite l'operazione
g(x) = lim n(f(x+1/n)-f(x))
Ovviamente questo limite può esistere o non esistere. (O scelto di prendere il limite rispetto a n invece della definizione normale di derivata per evitare polemiche del tipo: ma guarda che non puoi definire il limite di una funzione se la funzione non è definita in maniera dichiarativa, etc...)
Il problema adesso è che non è possibile definire g in maniera dichiarativa, se non applicando una sorta di ragionamento circolare: trovo l'insieme D dove il limite esiste, e poi scrivo
g: D-->R, g(x) := lim n(f(x+1/n)-f(x))
In pratica, la definizione dichiarativa di g deve contenere la definizione procedurale di g. Poco soddisfacente.
Stavo riflettendo che in matematica c'è un'interessante analogia che riguarda la definizione delle funzioni.
Cos'è una funzione? (Versione dichiarativa)
La risposta rigorosa, diciamo Bourbakistica è questa.
Definizione
Una funzione è una terna (A,B,R) dove A e B sono insiemi e R è un sottoinsieme del prodotto cartesiano A x B tale che se (a,b) e (a',b') sono in R, allora b=b'
L'idea sottesa a questa definizione è che una funzione altro non è che una lista, che accanto ad ogni valore della variabile indipendente (gli a in A) riporta uno ed un solo valore della variabile dipendente (il b in B tale che (a,b) in R).
Definire una funzione in questa maniera è rigoroso e utile. Tuttavia non corrisponde alla maniera in cui pensiamo. Quando definiamo una funzione, infatti, pensiamo a delle operazioni da eseguire, e non ad una lista di valori!
Cos'è una funzione? (Versione procedurale)
La risposta intuitiva, empirica, è quella che si dava nel 1800. Una funzione è una legge di associazione. Una funzione è definita se per ogni valore x so calcolare f(x).
Vantaggi e svantaggi
Cominciamo coi vantaggi della maniera procedurale. I vantaggi della maniera dichiarativa li sappiamo: è la maniera rigorosa con la quale si fa matematica.
Però pensiamo adesso di voler definire la funzione quadrato, cioè f(x):=x**2. Se vogliamo definirla in maniera dichiarativa, dobbiamo decidere in quali insieme tale funzione deve vivere. Dobbiamo scrivere, ad esempio, f:R-->R, f(x)=x**2 se vogliamo parlare del quadrato nei numeri reali, f:C-->C, f(x)=x**2 se vogliamo parlare del quadrato nei numeri complessi. Un po' complicato, no?
Ovviamente possiamo salvarci definendo f:A-->A, f(x)=x*x, dove A è uncampo, ma non è questo il punto. Il punto è che non possiamo dire: sia f(x)=x*x ogni qualvolta abbia senso, perchè staremmo quantificando su l'insieme totale che contiene tutte le strutture algebriche.
Fin qua è solo un problema formalistico, quasi di estesi. Un problema più grave si presenta nel caso in cui alla mia funzione definita in maniera procedurale non corrisponda nessuna funzione dichiarativa. Fissiamo una funzione continua f a valori reali. Decidiamo di definire la funzione g tramite l'operazione
g(x) = lim n(f(x+1/n)-f(x))
Ovviamente questo limite può esistere o non esistere. (O scelto di prendere il limite rispetto a n invece della definizione normale di derivata per evitare polemiche del tipo: ma guarda che non puoi definire il limite di una funzione se la funzione non è definita in maniera dichiarativa, etc...)
Il problema adesso è che non è possibile definire g in maniera dichiarativa, se non applicando una sorta di ragionamento circolare: trovo l'insieme D dove il limite esiste, e poi scrivo
g: D-->R, g(x) := lim n(f(x+1/n)-f(x))
In pratica, la definizione dichiarativa di g deve contenere la definizione procedurale di g. Poco soddisfacente.
Etichette:
algoritmico,
bourbaki,
definizioni
sabato, giugno 21, 2008
Processi (!?) Puntuali
Nomina sunt consequentia rerum
Giustiniano
Ieri, discutendo con una mia collega, ho realizzato che il termine processo puntuale è uno dei termini scelti peggio della storia della matematica.
(Per gli appassionati di neuroscienze, dove i processi di rinnovamento, caso speciale di quelli puntuali, sono molto usati: e qui una breve spiegazione di come il concetto viene usato in questa disciplina. Per gli appassionati di matematica: qui una breve storia del concetto nella comunità matematica.)
Cos'è un processo puntuale? In breve: è un insieme di punti casuali in uno spazio euclideo. Se lo spazio euclideo è R, allora è possibile pensare questo insieme di punti casuali come una sequenza di potenziali d'azione.
Cosa voglio dire con "un insieme di punti casuali"? Voglio dire che una realizzazione di un processo puntuale è un insieme di punti. Se rappresentiamo questo insieme di punti come la somma delle delta di dirac in detti punti, si ottiene che le realizzazione di un processo casuale sono misure su un certo spazio euclideo. Più precisamente sono misure di conteggio.
Ripeto: le realizzazioni di un processo puntuale sono misure di conteggio. Cioè: un processo puntuale è una funzione misurabile da uno spazio di probabilità allo spazio delle misure di conteggio. Cioè è una variabile casuale a valori nello spazio delle misure di conteggio.
Ma allora, se un processo puntuale è una variabile casuale, allora non è un processo stocastico.
E quindi: perchè chiamarlo processo puntuale?
Giustiniano
Ieri, discutendo con una mia collega, ho realizzato che il termine processo puntuale è uno dei termini scelti peggio della storia della matematica.
(Per gli appassionati di neuroscienze, dove i processi di rinnovamento, caso speciale di quelli puntuali, sono molto usati: e qui una breve spiegazione di come il concetto viene usato in questa disciplina. Per gli appassionati di matematica: qui una breve storia del concetto nella comunità matematica.)
Cos'è un processo puntuale? In breve: è un insieme di punti casuali in uno spazio euclideo. Se lo spazio euclideo è R, allora è possibile pensare questo insieme di punti casuali come una sequenza di potenziali d'azione.
Cosa voglio dire con "un insieme di punti casuali"? Voglio dire che una realizzazione di un processo puntuale è un insieme di punti. Se rappresentiamo questo insieme di punti come la somma delle delta di dirac in detti punti, si ottiene che le realizzazione di un processo casuale sono misure su un certo spazio euclideo. Più precisamente sono misure di conteggio.
Ripeto: le realizzazioni di un processo puntuale sono misure di conteggio. Cioè: un processo puntuale è una funzione misurabile da uno spazio di probabilità allo spazio delle misure di conteggio. Cioè è una variabile casuale a valori nello spazio delle misure di conteggio.
Ma allora, se un processo puntuale è una variabile casuale, allora non è un processo stocastico.
E quindi: perchè chiamarlo processo puntuale?
Etichette:
definizioni,
giustiniano,
neurone,
stocastica
giovedì, maggio 15, 2008
Infinito
Nessuno potrà cacciarci dal Paradiso che Cantor ha creato
David Hilbert
Oggi, mentre ero ad un seminario, l'oratore ha affermato una cosa interessante. Cioè voleva convincerci del fatto che uno spazio di parametri fosse "quasi infinite dimensional". Voleva dire, in realtà che vi erano molti parametri: circa 1000000.
Così, mentre ero sotto la doccia, mi sono ricordato della spiegazione che mi diede una volta mio padre dell'infinito: un numero così grande che è più grande di qualsiasi altro numero che tu possa immaginare.
Certo è una buona spiegazione, ma poi porta a errori mentali come affermare che R^10000000 sia quasi infinito dimensionale. Questo perchè, dal punto di vista di noi uomini, prendere un numero più grande ci "avvicina" in qualche maniera all'infinito. Quindi, se prendo un numero molto grande, allora sarò molto vicino all'infinito.
Niente di più falso, per il semplice motivo che l'infinito non è un numero! Mettetevi infatti nei panni dell'infinito e considerate il numero 1. Allora 1/infinito è sicuramente più piccolo di 1/10, dato che infinito è maggiore di 10. Ma anche di 1/100. Ma anche di 1/1000 e così via. Adesso se considero il numero 11111111111111, che di certo è molto più grande di 1, ragionando nella stessa maniera, scopro che 11111111111111/infinito è minore di 1/10, di 1/100, di 1/1000 etc... Cioè, per l'infinito tutti gli altri numeri valgono 0, non conta quanto siano grandi.
Cos'è l'infinito, allora? Per ottenere la risposta, dobbiamo capire cos'è la grandezza di un insieme. In matematica si dice che due insiemi A e B sono ugualmente grandi o, più precisamente, equipotenti, se esiste una funzione f da A a B che sia bigettiva. Ad esempio, l'insieme dei giorni di una settimana e dei re di Roma sono equipotenti. Per vederlo, si consideri la funzione f che associa al lunedì Romolo, al martedì Numa Pompilio, al mercoledì Tullio Ostilio etc... questa funzione è chiaramente ingettiva, perchè si arriva ad ogni re da un solo giorno ed è anche surgettiva perchè si arriva a tutti i re.
In una visione ingenua della matematica, il numero 7 si può allora definire come la proprietà di essere equipotente all'insieme dei re di Roma.
Ora siamo pronti per dare una definizione. Come nel caso del numero 7, non diremo cos'è l'infinito, ma diremo come riconoscere un insieme che ha infiniti elementi.
Definizione
Un insieme è infinito se possiede un sottoinsieme proprio equipotente a se stesso.
Esempio
Ci sono infiniti numeri naturali. Per vederlo, si prenda la funzione che ad ogni naturale associa il proprio quadrato. Questa funzione è bigettiva dall'insieme dei naturali all'insieme dei quadrati perfetti. Dato che quest'ultimo è un sottoinsieme proprio dei numeri naturali, abbiamo provato l'asserto.
Eppoi, questa maniera di voler arrivare all'infinito per addizione mi sembra come voler arrivare al cielo costruendo una torre. Di Babele, è ovvio.
David Hilbert
Oggi, mentre ero ad un seminario, l'oratore ha affermato una cosa interessante. Cioè voleva convincerci del fatto che uno spazio di parametri fosse "quasi infinite dimensional". Voleva dire, in realtà che vi erano molti parametri: circa 1000000.
Così, mentre ero sotto la doccia, mi sono ricordato della spiegazione che mi diede una volta mio padre dell'infinito: un numero così grande che è più grande di qualsiasi altro numero che tu possa immaginare.
Certo è una buona spiegazione, ma poi porta a errori mentali come affermare che R^10000000 sia quasi infinito dimensionale. Questo perchè, dal punto di vista di noi uomini, prendere un numero più grande ci "avvicina" in qualche maniera all'infinito. Quindi, se prendo un numero molto grande, allora sarò molto vicino all'infinito.
Niente di più falso, per il semplice motivo che l'infinito non è un numero! Mettetevi infatti nei panni dell'infinito e considerate il numero 1. Allora 1/infinito è sicuramente più piccolo di 1/10, dato che infinito è maggiore di 10. Ma anche di 1/100. Ma anche di 1/1000 e così via. Adesso se considero il numero 11111111111111, che di certo è molto più grande di 1, ragionando nella stessa maniera, scopro che 11111111111111/infinito è minore di 1/10, di 1/100, di 1/1000 etc... Cioè, per l'infinito tutti gli altri numeri valgono 0, non conta quanto siano grandi.
Cos'è l'infinito, allora? Per ottenere la risposta, dobbiamo capire cos'è la grandezza di un insieme. In matematica si dice che due insiemi A e B sono ugualmente grandi o, più precisamente, equipotenti, se esiste una funzione f da A a B che sia bigettiva. Ad esempio, l'insieme dei giorni di una settimana e dei re di Roma sono equipotenti. Per vederlo, si consideri la funzione f che associa al lunedì Romolo, al martedì Numa Pompilio, al mercoledì Tullio Ostilio etc... questa funzione è chiaramente ingettiva, perchè si arriva ad ogni re da un solo giorno ed è anche surgettiva perchè si arriva a tutti i re.
In una visione ingenua della matematica, il numero 7 si può allora definire come la proprietà di essere equipotente all'insieme dei re di Roma.
Ora siamo pronti per dare una definizione. Come nel caso del numero 7, non diremo cos'è l'infinito, ma diremo come riconoscere un insieme che ha infiniti elementi.
Definizione
Un insieme è infinito se possiede un sottoinsieme proprio equipotente a se stesso.
Esempio
Ci sono infiniti numeri naturali. Per vederlo, si prenda la funzione che ad ogni naturale associa il proprio quadrato. Questa funzione è bigettiva dall'insieme dei naturali all'insieme dei quadrati perfetti. Dato che quest'ultimo è un sottoinsieme proprio dei numeri naturali, abbiamo provato l'asserto.
Eppoi, questa maniera di voler arrivare all'infinito per addizione mi sembra come voler arrivare al cielo costruendo una torre. Di Babele, è ovvio.
Etichette:
cantor,
definizioni,
dimensione finita,
hilbert,
infinito,
numeri naturali
giovedì, febbraio 28, 2008
Simmetrie di gauge (II)
Qualche giorno fa esponevo a d.m. la mia dicotomica divisione fra dicotomie per il concetto di simmetria nella fisica.
La prima dicotomia è quella fra simmetrie di gauge e simmetrie spaziali. La seconda dicotomia è quella fra simmetrie locali e globali.
Qual'è il problema, mi chiedevo ieri, nel considerare simmetrie spaziali locali?
Come ho già fatto notare, per considerare simmetrie spaziali, è necessario che il dominio D su cui è definita la nostra funzione possieda un gruppo di simmetrie parametrizzazo tramite un certo gruppo Z.
Se adesso vogliamo che la simmetria sia locale, abbiamo bisogno di una famiglia a due parametri di trasformazioni di D in D, diciamo

Il problema, adesso, è che questa famiglia di simmetrie deve essere un gruppo secondo l'operazione di composizione; questo vuol dire (mi sembra in questo momento) che fissato z, la famiglia
debba essere un gruppo, rispetto alla legge di gruppo in D.
Ma allora stiamo chiedendo a D di avere un gruppo di simmetrie parametrizzato in D stesso!
Due cose non mi sono chiare:
La prima, se il mio ragionamento di cui sopra è corretto.
La seconda, se esistono domini (a parte le palle unitarie) che hanno questa bizzarra proprietà.
La prima dicotomia è quella fra simmetrie di gauge e simmetrie spaziali. La seconda dicotomia è quella fra simmetrie locali e globali.
Qual'è il problema, mi chiedevo ieri, nel considerare simmetrie spaziali locali?
Come ho già fatto notare, per considerare simmetrie spaziali, è necessario che il dominio D su cui è definita la nostra funzione possieda un gruppo di simmetrie parametrizzazo tramite un certo gruppo Z.
Se adesso vogliamo che la simmetria sia locale, abbiamo bisogno di una famiglia a due parametri di trasformazioni di D in D, diciamo
Il problema, adesso, è che questa famiglia di simmetrie deve essere un gruppo secondo l'operazione di composizione; questo vuol dire (mi sembra in questo momento) che fissato z, la famiglia
Ma allora stiamo chiedendo a D di avere un gruppo di simmetrie parametrizzato in D stesso!
Due cose non mi sono chiare:
La prima, se il mio ragionamento di cui sopra è corretto.
La seconda, se esistono domini (a parte le palle unitarie) che hanno questa bizzarra proprietà.
Etichette:
definizioni,
dicotomie,
gauge,
simmetrie
lunedì, luglio 30, 2007
basi, parentesi e successioni
il meglio è nemico del bene
mio nonno
mi sento di dissentire da mio nonno, una volta tanto. talvolta, il meglio è amico del bene. in particolare quando si vuole capire meglio certi concetti matematici, senza accontentarsi di capirli bene.
questo a proposito di una mia opinione, già espressa in questa discussione, dove ho spiegato quale è il motivo per cui è male rappresentare successioni all'interno di parentesi graffe.
il casus belli è il seguente: è corretto rappresentare una successione come {x_n : n\in N}, o è necessario rappresentarla come (x_n)_n \in N? sembra una question allemande, ma, come ho già detto, il meglio è amico del bene.
partiamo dal presupposto che la rappresentazione tramite parentesi graffe, che in matematica denotano solitamente insiemi è sbagliata. tuttavia, molti si sentono autorizzati ad usare lo stesso tale notazione.
quello che è accaduto, a mio parere, è una sorta di back propagation dalla notazione per le basi a quella per le successioni. quasi tutti, e fra poco spiegherò perchè, scrivono le basi in parentesi graffe, pur intendendole come insiemi ordinati. dato, quindi, che è accettato lo scrivere le basi in parentesi graffe, avrà pensato qualcuno, allora deve essere possibile scrivere anche le successioni all'interno di parentesi graffe. d'altra parte, il concetto di base e quello di successione sono imparentati - nel senso che vivono nella stessa aerea della matematica.
perchè, allora, qualcuno si sente autorizzato a scrivere le basi in parentesi graffe? il motivo è semplice, e dipende da come viene insegnata l'algebra lineare. come si spiega il concetto di base? prima si introduce il concetto di un insieme di vettori linearmente indipendenti, poi quello di sottospazio generato da un insieme di vettori, per poi concludere, trionfalmente, che se un insieme di vettori genera l'intero spazio, allora è una base dello spazio in questione.
a questo punto bisogna purtroppo scegliere. se si desidera introdurre la rappresentazione matriciale degli operatori lineari su spazi vettoriali, allora è necessario che l'insieme di vettori linearmente indipendenti generanti lo spazio venga ordinato, a formare quella che viene solitamente definita una base - da cui, peraltro, il termine "matrice del cambiamento di base".
se invece, si desidera mantenere la consistenza della definizione di una base come insieme di vettori linearmente indipendenti generanti lo spazio ambiente, allora bisogna rinunciare alla rappresentazione matriciale - o considerarla modulo permutazioni dei vettori della base.
mio nonno
mi sento di dissentire da mio nonno, una volta tanto. talvolta, il meglio è amico del bene. in particolare quando si vuole capire meglio certi concetti matematici, senza accontentarsi di capirli bene.
questo a proposito di una mia opinione, già espressa in questa discussione, dove ho spiegato quale è il motivo per cui è male rappresentare successioni all'interno di parentesi graffe.
il casus belli è il seguente: è corretto rappresentare una successione come {x_n : n\in N}, o è necessario rappresentarla come (x_n)_n \in N? sembra una question allemande, ma, come ho già detto, il meglio è amico del bene.
partiamo dal presupposto che la rappresentazione tramite parentesi graffe, che in matematica denotano solitamente insiemi è sbagliata. tuttavia, molti si sentono autorizzati ad usare lo stesso tale notazione.
quello che è accaduto, a mio parere, è una sorta di back propagation dalla notazione per le basi a quella per le successioni. quasi tutti, e fra poco spiegherò perchè, scrivono le basi in parentesi graffe, pur intendendole come insiemi ordinati. dato, quindi, che è accettato lo scrivere le basi in parentesi graffe, avrà pensato qualcuno, allora deve essere possibile scrivere anche le successioni all'interno di parentesi graffe. d'altra parte, il concetto di base e quello di successione sono imparentati - nel senso che vivono nella stessa aerea della matematica.
perchè, allora, qualcuno si sente autorizzato a scrivere le basi in parentesi graffe? il motivo è semplice, e dipende da come viene insegnata l'algebra lineare. come si spiega il concetto di base? prima si introduce il concetto di un insieme di vettori linearmente indipendenti, poi quello di sottospazio generato da un insieme di vettori, per poi concludere, trionfalmente, che se un insieme di vettori genera l'intero spazio, allora è una base dello spazio in questione.
a questo punto bisogna purtroppo scegliere. se si desidera introdurre la rappresentazione matriciale degli operatori lineari su spazi vettoriali, allora è necessario che l'insieme di vettori linearmente indipendenti generanti lo spazio venga ordinato, a formare quella che viene solitamente definita una base - da cui, peraltro, il termine "matrice del cambiamento di base".
se invece, si desidera mantenere la consistenza della definizione di una base come insieme di vettori linearmente indipendenti generanti lo spazio ambiente, allora bisogna rinunciare alla rappresentazione matriciale - o considerarla modulo permutazioni dei vettori della base.
Etichette:
algebra lineare,
definizioni,
notazioni,
successioni,
wikipedia
venerdì, giugno 08, 2007
definizioni
definiscimi una libreria
d.m.
altrettanto che da gödel, sono in questo periodo ossessionato dal concetto di definizione. in particolare mi disurba l'impossibilitá di definire con precisione fabbricati umani. per esempio, non mi pare che sia possibile definire con esattezza il concetto, ad esempio, di "libreria". o di "tavolo". o di qualsiasi altra cosa sia stata prodotta nel mondo fisico dall'uomo.
in realtá, come ho giá fatto notare in precedenza, mi risulta difficile definire con precisione anche oggetti fisici non prodotti dall'uomo. in generale mi irrita non essere in grado di dire la realtá sensibile che mi circonda. non di spiegarla: chiamarla per nome mi risulta giá ostico.
gli unici oggetti della cui definizione possa dirmi soddisfatto sono quelli matematici. forse é per questo che tendo ad attribuire loro una esistenza certa e indubitabile.
d.m.
altrettanto che da gödel, sono in questo periodo ossessionato dal concetto di definizione. in particolare mi disurba l'impossibilitá di definire con precisione fabbricati umani. per esempio, non mi pare che sia possibile definire con esattezza il concetto, ad esempio, di "libreria". o di "tavolo". o di qualsiasi altra cosa sia stata prodotta nel mondo fisico dall'uomo.
in realtá, come ho giá fatto notare in precedenza, mi risulta difficile definire con precisione anche oggetti fisici non prodotti dall'uomo. in generale mi irrita non essere in grado di dire la realtá sensibile che mi circonda. non di spiegarla: chiamarla per nome mi risulta giá ostico.
gli unici oggetti della cui definizione possa dirmi soddisfatto sono quelli matematici. forse é per questo che tendo ad attribuire loro una esistenza certa e indubitabile.
Etichette:
definizioni,
platonismo,
realtá fisica
Iscriviti a:
Post (Atom)