Autovettore e autovalore

Da Wikipedia, l'enciclopedia libera.
In questa trasformazione lineare della Gioconda l'immagine è modificata ma l'asse centrale verticale rimane fisso. Il vettore blu ha cambiato lievemente direzione, mentre quello rosso no. Quindi il vettore rosso è un autovettore della trasformazione e quello blu no. Inoltre, poiché il vettore rosso non è stato né allungato, né compresso, né ribaltato, il suo autovalore è 1. Tutti i vettori sull'asse verticale sono multipli scalari del vettore rosso, e sono tutti autovettori: assieme all'origine formano l'autospazio relativo all'autovalore 1.

In matematica, in particolare in algebra lineare, un autovettore di una trasformazione lineare tra spazi vettoriali è un vettore la cui immagine è il vettore stesso moltiplicato per uno scalare, detto autovalore.[1]

Si definisce autospazio il sottospazio generato da tutti gli autovettori aventi in comune lo stesso autovalore.[2]

Si tratta di un concetto fondamentale utilizzato in molti settori della matematica e della fisica. In meccanica classica gli autovettori delle equazioni che descrivono un sistema fisico corrispondono spesso ai modi di vibrazione di un corpo, e gli autovalori alle loro frequenze. In meccanica quantistica gli operatori corrispondono a variabili osservabili, gli autovettori sono chiamati anche autostati e gli autovalori di un operatore rappresentano quei valori della variabile corrispondente che hanno probabilità non nulla di essere misurati.

Il termine autovettore è stato tradotto dalla parola tedesca Eigenvektor, coniata da Hilbert nel 1904. Eigen significa "proprio", "caratteristico". Anche nella letteratura italiana si trova spesso l'autovettore indicato come vettore proprio, vettore caratteristico o vettore latente.

Introduzione informale[modifica | modifica wikitesto]

Esempio di trasformazione lineare: rotazione di una figura piana intorno a un punto O
.

Il piano cartesiano e lo spazio euclideo sono esempi particolari di spazi vettoriali: ogni punto dello spazio può essere descritto tramite un vettore, rappresentato graficamente da un segmento che collega l'origine al punto. In uno spazio vettoriale è possibile effettuare trasformazioni lineari sui vettori che lo costituiscono: esempi di trasformazioni lineari sono le rotazioni, le omotetie (che consentono a un vettore di essere amplificato o contratto) e le riflessioni (che consentono a un vettore di essere trasformato nel suo speculare rispetto a un punto, retta o piano assegnati).

Un autovettore per la trasformazione lineare L è un vettore \mathbf v \ne 0 che a seguito dell'applicazione di L non cambia la sua direzione, limitandosi ad essere moltiplicato per uno scalare \lambda, il rispettivo autovalore. Il vettore può quindi soltanto cambiare modulo (venendo amplificato o contratto) e verso (venendo ribaltato):

  • se \lambda > 0 il verso di \mathbf v rimane inalterato, mentre se \lambda < 0 il verso di \mathbf v cambia
  • se | \lambda | = 1 il modulo di \mathbf v rimane inalterato, se | \lambda | > 1 il modulo cresce, se | \lambda | < 1 decresce.
Un'onda stazionaria in una corda fissata agli estremi è una autofunzione della trasformazione data dallo scorrere del tempo.

Autovettori e autovalori sono definiti e usati in matematica e fisica nell'ambito di spazi vettoriali più complessi e astratti di quello tridimensionale della fisica classica. Questi spazi possono avere dimensione maggiore di 3 o addirittura infinita (un esempio è dato dallo spazio di Hilbert). Anche le possibili posizioni di una corda vibrante in una chitarra formano uno spazio di questo tipo: una vibrazione della corda è quindi interpretata come trasformazione di questo spazio e i suoi autovettori (più precisamente, le sue autofunzioni) sono le onde stazionarie.

Esempi[modifica | modifica wikitesto]

Esempi nel piano[modifica | modifica wikitesto]

Fra le trasformazioni del piano cartesiano \R^2 si possono distinguere i seguenti casi speciali:

  • Rotazione antioraria di angolo \theta. Se \theta non è un multiplo intero di \pi non esiste alcun autovettore, infatti ogni vettore viene ruotato e cambia di direzione. Se invece \theta = k \pi, con k intero dispari, ogni vettore viene trasformato nel suo opposto, quindi ogni vettore non nullo è autovettore della rotazione con autovalore -1. Se invece k è pari la trasformazione non è altro che l'identità, per cui ogni vettore non nullo è autovettore con autovalore +1.
La rotazione può essere rappresentata dalla seguente matrice:
 
 \begin{bmatrix}
  \cos\theta & -\sin\theta \\
  \sin\theta & \cos\theta \\
 \end{bmatrix}
  • Riflessione rispetto a una retta r passante per l'origine. I vettori in r restano fermi e sono quindi autovettori con autovalore 1, mentre quelli della retta s perpendicolare a r e passante per l'origine vengono ribaltati, e quindi sono autovettori con autovalore -1. Non esistono altri autovettori.
La riflessione, nel caso di retta r orizzontale, può essere rappresentata dalla seguente matrice:
 
 \begin{bmatrix}
  1 & 0 \\
  0 & -1 \\
 \end{bmatrix}
  • Omotetia. Ogni vettore viene moltiplicato per uno scalare \lambda e quindi tutti i vettori non nulli sono autovettori con autovalore \lambda.
L'omotetia può essere rappresentata dalla seguente matrice:

 \begin{bmatrix}
  \lambda & 0 \\
  0 & \lambda \\
 \end{bmatrix}
  • Proiezione ortogonale su una retta r passante per l'origine. I vettori su r restano fermi e quindi sono autovettori con autovalore 1, mentre i vettori sulla retta s ortogonale a r e passante per l'origine sono mappati tutti sull'origine e quindi sono autovettori con autovalore 0. Non ci sono altri autovettori.
La proiezione ortogonale può essere rappresentata dalla seguente matrice:

 \begin{bmatrix}
  1 & 0 \\
  0 & 0 \\
 \end{bmatrix}

Esempi nello spazio[modifica | modifica wikitesto]

Non tutte le trasformazioni del piano e dello spazio ricadono in una delle 4 tipologie viste negli esempi del piano sopra riportate.

In generale, un endomorfismo di \R^n (cioè una trasformazione lineare di \R^n in sé) è rappresentabile tramite una matrice quadrata con n righe. Si consideri per esempio l'endomorfismo di \R^3 indotto dalla matrice:

A =
\begin{bmatrix}
  \; 0 & 1 &   -1 \\
  \; 1 & 1 & \; 0 \\
    -1 & 0 & \; 1 
\end{bmatrix}

Se si considera il vettore v_1:

 v_1= \begin{bmatrix} \; 1 \\ \; 1 \\ -1 \end{bmatrix}

e si esegue la moltiplicazione fra matrice e vettore, si vede che:

 
A \begin{bmatrix} \; 1 \\ \; 1 \\ -1 \end{bmatrix} 
= \begin{bmatrix} \; 2 \\ \; 2 \\ -2 \end{bmatrix} 
= 2 \begin{bmatrix} \; 1 \\ \; 1 \\ -1 \end{bmatrix}

Quindi l'endomorfismo rappresentato da A ha un autovettore dato da v_1 con autovalore 2. Per trovarne tutti gli autovalori si deve scrivere il polinomio caratteristico di A. Poiché la trasformazione è già scritta in forma di matrice, si procede con il calcolarne il polinomio caratteristico:

p(x) = \det( A - xI) =
 \begin{vmatrix}
-x &  1  & -1 \\
 1 & 1-x &  0 \\
-1 &  0  & 1-x \end{vmatrix} = -x^3 + 2x^2 + x - 2 = -(x - 2) (x - 1) (x + 1)

Quindi gli autovalori di A sono 2, 1 e −1. I tre autovettori ortogonali sono:

v_1 = \begin{bmatrix}\; 1  \\ \;1 \\   -1 \end{bmatrix} \qquad v_2 = \begin{bmatrix}\; 0\;\\   1 \\    1 \end{bmatrix} \qquad v_3 = \begin{bmatrix}\; 2  \\  -1 \\ \; 1 \end{bmatrix}

Per quanto detto prima, la trasformazione assume una forma molto semplice rispetto a questa base: ogni vettore x in \R^3 può essere scritto in modo unico come:

x = x_1 v_1 + x_2 v_2 + x_3 v_3

e dunque si ha:

A x = 2x_1 v_1 + x_2 v_2 - x_3 v_3

Data infine una trasformazione lineare T, si è visto che se il polinomio caratteristico di T ha tutte le radici in K con molteplicità 1, allora T è diagonalizzabile. Se invece il polinomio caratteristico di T ha tutte le radici in K ma alcune di esse hanno molteplicità maggiore di 1, allora T non è necessariamente diagonalizzabile. Ad esempio la matrice:

A=\left( \begin{matrix} 1 & 0 \\ -a & 1 \end{matrix} \right)

che rappresenta la trasformazione della Gioconda in figura ha come polinomio caratteristico (x-1)^2, e non è diagonalizzabile per a\neq 0.

Esempi di calcolo[modifica | modifica wikitesto]

Data la matrice di trasformazione:

Deformazione dello spazio bidimensionale a seguito della trasformazione operata dalla matrice A=\bigl[ \begin{smallmatrix} 2 & 1\\ 1 & 2 \end{smallmatrix} \bigr]. I vettori blu (che hanno la stessa direzione dell'autovettore \scriptstyle v_1=\bigl[ \begin{smallmatrix} 1 \\ 1 \end{smallmatrix} \bigr]) e i vettori viola (che hanno la stessa direzione dell'autovettore \scriptstyle v_2=\bigl[ \begin{smallmatrix} 1 \\ -1 \end{smallmatrix} \bigr]) conservano la loro direzione anche dopo la trasformazione, a differenza dei vettori in rosso che sono orientati diversamente. Il quadrato iniziale a seguito della trasformazione si deforma diventando un rombo: i vettori blu triplicano il loro modulo avendo autovalore 3 mentre i viola restano inalterati avendo autovalore 1.
A = \begin{bmatrix} 3 & 1\\1 & 3 \end{bmatrix}

il vettore:

v = \begin{bmatrix} 4 \\ -4 \end{bmatrix}

è un autovettore con autovalore 2. Infatti:

A*v = \begin{bmatrix} 3 & 1\\1 & 3 \end{bmatrix} \begin{bmatrix} 4 \\ -4 \end{bmatrix} = \begin{bmatrix} 3 \cdot 4 + 1 \cdot (-4) \\ 1 \cdot 4 + 3 \cdot (-4) \end{bmatrix} = \begin{bmatrix} 8 \\ -8 \end{bmatrix} = 2 \cdot \begin{bmatrix} 4 \\ -4 \end{bmatrix}

Per contro il vettore:

v = \begin{bmatrix} 0 \\ 1 \end{bmatrix}

non è un autovettore in quanto il vettore trasformato è:

\begin{bmatrix} 3 & 1\\1 & 3 \end{bmatrix} \begin{bmatrix} 0 \\ 1 \end{bmatrix} = \begin{bmatrix} 3 \cdot 0 + 1 \cdot 1 \\ 1 \cdot 0 + 3 \cdot 1 \end{bmatrix} = \begin{bmatrix} 1 \\ 3 \end{bmatrix}

e, come si nota facilmente, manca la proporzionalità tra il vettore trasformato \bigl[\begin{smallmatrix} 1 \\ 3 \end{smallmatrix}\bigr] e il vettore originale  \bigl[\begin{smallmatrix} 0 \\ 1 \end{smallmatrix}\bigr], condizione necessaria per il parallelismo.

Come secondo esempio, si consideri la matrice di trasformazione:

A = \begin{bmatrix} 2 & 1\\1 & 2 \end{bmatrix}

è facile verificare che i vettori:

v_1 = \begin{bmatrix} 1 \\ 1 \end{bmatrix} \qquad v_2 = \begin{bmatrix} 1 \\ -1 \end{bmatrix}

sono autovettori con autovalori 3 e 1 rispettivamente.

Definizione[modifica | modifica wikitesto]

Sia  V uno spazio vettoriale su un campo  K , che può essere ad esempio il campo dei numeri reali  \R o il campo dei complessi  \C . Sia  T un endomorfismo di  V , cioè una trasformazione lineare:

 T:V\to V

Se  \mathbf {v} \ è un vettore non nullo in  V e \lambda è uno scalare tali che:

T(\mathbf {v}) = \lambda \mathbf {v}

allora  \mathbf {v} è un autovettore della trasformazione  T, e \lambda è il suo autovalore.[1]

Poiché  T è lineare, se  \mathbf {v} è un autovettore con autovalore  \lambda , allora ogni multiplo non-nullo di \mathbf {v} è anch'esso un autovettore con lo stesso autovalore  \lambda . Infatti, detto  \mathbf {u} un qualsiasi vettore tale che  \mathbf {u} = k \mathbf {v}, con k \in K , si avrà T( \mathbf {u}) = T(k \mathbf {v}) = kT(\mathbf {v}) poiché T è lineare. Ma essendo T( \mathbf {v}) = \lambda \mathbf {v}, si ha che:

T( \mathbf {u}) = kT( \mathbf {v}) = k \lambda \mathbf {v} = \lambda k \mathbf {v} = \lambda \mathbf {u}

cioè T( \mathbf {u}) = \lambda \mathbf {u}.

Più in generale, gli autovettori aventi lo stesso fissato autovalore \lambda , insieme al vettore nullo, generano un sottospazio di  V chiamato l'autospazio relativo all'autovalore \lambda , solitamente indicato con  V_\lambda .[2]

Lo spettro di T è l'insieme dei suoi autovalori. Il raggio spettrale di T è l'estremo superiore dei moduli dei suoi autovalori.

Descrizione matriciale[modifica | modifica wikitesto]

Nel caso in cui V sia di dimensione finita, per ogni scelta di basi a T è associata univocamente una matrice, detta matrice di trasformazione.[3] Gli autovettori e autovalori associati a un'applicazione possono essere associati alla matrice di trasformazione nel medesimo modo. Sia \mathbf {x} il vettore delle coordinate di \mathbf v rispetto a una base e sia A la matrice di trasformazione rappresentante  T rispetto alla medesima base. Si ha:[4]

A \mathbf {x} = \lambda \mathbf {x}

In particolare, gli autovalori di A non dipendono dalla base scelta.

Nella rappresentazione matriciale \mathbf {x} è detto autovettore destro, in quanto è possibile definire l'autovettore sinistro \mathbf x_L come:

\mathbf x_L A  = \lambda_L \mathbf x_L

e facendo la trasposizione di entrambi i membri:

(\mathbf x_L A)^T = A^T \mathbf x_L^T = \lambda_L \mathbf x_L^T

Si ottiene dunque:

(A^T - \lambda_L I) \mathbf x_L^T = \mathbf 0

ovvero:

\det(A^T - \lambda_L I)= \det(A^T - \lambda_L I^T) = \det(A - \lambda_L I)^T = 0

Poiché il determinante è indipendente dalla trasposizione della matrice su cui si calcola:

\det(A - \lambda_L I)^T = \det(A - \lambda_L I) = 0

si deve verificare, grazie all'arbitrarietà della scelta di autovettori e matrice, che \lambda = \lambda_L . Gli autovalori destro e sinistro coincidono, ma questo non vale per gli autovettori: per esempio se A è una matrice hermitiana, cioè rappresenta un operatore hermitiano, gli autovettori destro e sinistro sono l'uno il complesso coniugato dell'altro.

Autofunzioni[modifica | modifica wikitesto]

Exquisite-kfind.png Lo stesso argomento in dettaglio: Autofunzione.

Spesso gli autovettori sono a loro volta funzioni, e in tal caso si parla di autofunzioni di un operatore. Un esempio molto significativo in matematica e fisica è quello dell'autofunzione:

f_k(x) = e^{kx}

dell'operatore differenziale derivata:

\mathcal A = \frac{d}{dx}

a cui corrisponde l'autovalore \lambda = k in quanto:

\mathcal A(e^{kx}) = ke^{kx}

per le usuali regole di derivazione. Su questo fatto si basa una vasta area della matematica, essendo alla base della trasformata di Fourier e dell'analisi armonica.

Polinomio caratteristico[modifica | modifica wikitesto]

Exquisite-kfind.png Lo stesso argomento in dettaglio: Polinomio caratteristico.

Si definisce polinomio caratteristico p(\lambda) nella variabile \lambda associato a una matrice quadrata A il determinante:[5]

 p(\lambda) = \det(A - \lambda I)

dove I è la matrice identità con lo stesso numero di righe di A. In particolare, le radici del polinomio caratteristico sono tutti gli autovalori di T.[6]

Due matrici che rappresentano un endomorfismo T di uno spazio vettoriale V a dimensione finita sono simili, e in particolare hanno il medesimo polinomio caratteristico, e dunque gli stessi autovalori. Si tratta di uno strumento di grande importanza, che ha permesso di sviluppare un metodo generale per l'individuazione di autovalori e autovettori di un endomorfismo nel caso in cui lo spazio vettoriale V abbia dimensione finita.[7]

Il polinomio permette inoltre di stabilire l'esistenza di autovalori e autovettori per un'applicazione lineare:
  • Il polinomio caratteristico di T ha grado n, e quindi ha al più n radici: segue che T ha al più n autovalori distinti.
  • Se K è algebricamente chiuso allora il polinomio caratteristico ha sempre almeno una radice: segue che T ha almeno un autovalore, e quindi anche almeno un autovettore.[8] Nel caso reale questo non succede sempre, ad esempio si possono trovare autovalori complessi.
  • Se la dimensione n di V è dispari e K = \R è il campo dei numeri reali, il polinomio caratteristico ha grado dispari, e quindi ha sempre almeno una radice reale. Ad esempio, ogni endomorfismo di \R^3 ha almeno un autovettore.
  • Inoltre se il polinomio caratteristico di T è completamente fattorizzabile allora T è triangolabile, ossia esiste base di V tale per cui la matrice associata è una matrice triangolare.

Diagonalizzabilità[modifica | modifica wikitesto]

Exquisite-kfind.png Lo stesso argomento in dettaglio: Diagonalizzabilità.

Sia T un endomorfismo di uno spazio vettoriale V, cioè una trasformazione lineare T: V \to V. Si dice che T è diagonalizzabile se esiste una base di V rispetto alla quale la matrice che rappresenta T è diagonale.[9] In particolare, la base che diagonalizza T è composta da suoi autovettori.

In modo equivalente, una matrice quadrata è diagonalizzabile se è simile a una matrice diagonale.[10] La matrice T è quindi diagonalizzabile nel campo di appartenenza se esiste una matrice invertibile P tale che:

P^{-1}TP=\begin{pmatrix}\lambda_{1}\\
& \lambda_{2}\\
& & \ddots\\
& & & \lambda_{n}\end{pmatrix}

ovvero:

TP=P\begin{pmatrix}\lambda_{1}\\
& \lambda_{2}\\
& & \ddots\\
& & & \lambda_{n}\end{pmatrix}

Scrivendo P in termini dei vettori colonna:

P=\begin{pmatrix} \mathbf P^1 & \mathbf P^2 & \cdots & \mathbf P^n \end{pmatrix}

la precedente relazione diventa:

T \mathbf P^{i}=\lambda_{i} \mathbf P^{i} \qquad(i=1,2,\cdots,n)

I vettori colonna di P sono dunque autovettori di T, e i corrispondenti elementi della matrice diagonale sono i rispettivi autovalori. L'invertibilità di P implica inoltre l'indipendenza lineare degli autovettori, che formano una base dello spazio.

Il teorema spettrale[modifica | modifica wikitesto]

Exquisite-kfind.png Lo stesso argomento in dettaglio: Teorema spettrale.

Nel caso complesso finito-dimensionale il teorema spettrale afferma che l'endomorfismo T è normale se e solo se esiste una base ortonormale di V fatta di suoi autovettori.[11] In tal caso la matrice P è unitaria. Questo fondamentale risultato fornisce le condizioni per cui sia possibile diagonalizzare un operatore lineare rispetto a una base ortonormale: nel caso finito-dimensionale, quando questo risulta possibile succede che ad autovalori distinti corrispondono autovettori mutuamente ortogonali, e pertanto gli autospazi sono in somma diretta.

La decomposizione spettrale è un caso particolare della decomposizione di Schur. È anche un caso particolare della decomposizione ai valori singolari. Un operatore normale può, di conseguenza, essere scritto come una combinazione lineare di proiettori ortogonali sugli autospazi, i cui coefficienti sono gli autovalori relativi a ogni autospazio.

Nel caso infinito-dimensionale la normalità, e in particolare l'autoaggiuntezza, non garantisce la diagonalizzabilità. In generale un operatore normale non può essere più scritto come combinazione lineare di proiettori ortogonali. Tuttavia, attraverso una misura a valori di proiettore è possibile ottenere una scrittura integrale che permette di descrivere l'operatore in termini del suo spettro.

Spettro di un operatore[modifica | modifica wikitesto]

Exquisite-kfind.png Lo stesso argomento in dettaglio: Spettro (matematica).

In uno spazio di dimensione infinita la definizione di autovalore è identica al caso di dimensione finita. Tuttavia, il polinomio caratteristico non è uno strumento disponibile in questo caso in quanto si rende necessario considerare ulteriori elementi dello spettro.

Sia T un operatore lineare limitato definito su uno spazio di Banach complesso X. Si definisce insieme risolvente di T l'insieme \rho(T) dei numeri complessi \lambda tali per cui l'operatore \lambda I - T è invertibile, ovvero ha un inverso che è un operatore lineare limitato. Si definisce risolvente di T la funzione:

R_\lambda (T) = (\lambda I - T)^{-1} \

Lo spettro di T è l'insieme \sigma(T) dei numeri complessi \lambda che non appartengono all'insieme risolvente, ovvero tali per cui l'operatore \lambda I - T non è invertibile.[12]

Dal momento che \lambda I - T è un operatore lineare, se il suo inverso esiste esso è lineare. Inoltre, per il teorema del grafico chiuso l'inverso di un operatore lineare limitato è limitato. Segue che l'insieme risolvente è l'insieme dei valori che rendono \lambda I - T bigettivo.

Lo spettro di un operatore non può essere vuoto, e si possono distinguere tre suoi sottoinsiemi disgiunti:

  • Si definisce spettro puntuale o discreto di T l'insieme degli autovalori di T, ovvero i numeri complessi \lambda tali che:
T(x) = \lambda x \qquad x \ne 0 \
Gli autovalori sono quindi i numeri tali per cui T(x) - \lambda x = 0 , ovvero (T - \lambda I)(x) = 0 : la funzione T - \lambda I non è invertibile se il suo nucleo non è costituito dal solo vettore nullo, ovvero esistono dei vettori x tali per cui esiste un \lambda tale che T(x) - \lambda x = 0 . In modo equivalente, \lambda è autovalore di T se e solo se T - \lambda I non è iniettivo, oppure se e solo se \det(T - \lambda I) =0.
  • Si definisce spettro continuo di T l'insieme dei numeri \lambda tali per cui (\lambda I - T)^{-1} non è limitato, pur essendo densamente definito.
  • Si definisce spettro residuo di T l'insieme dei numeri \lambda che non sono autovalori e tali per cui l'operatore \lambda I - T non ha immagine densa in X.[13]

Operatori aggiunti e autoaggiunti[modifica | modifica wikitesto]

Exquisite-kfind.png Lo stesso argomento in dettaglio: Operatore aggiunto e Operatore autoaggiunto.

La definizione di operatore aggiunto si diversifica a seconda che ci si trovi in uno spazio di Hilbert o in uno spazio di Banach. A causa di ciò, lo spettro di un operatore definito su uno spazio di Banach coincide con quello del suo aggiunto, mentre in uno spazio di Hilbert, denotando l'aggiunto di con T con T^*, si ha che:

\sigma(T^*) = \{\lambda : \bar \lambda \in \sigma(T) \}

Inoltre, se \lambda appartiene allo spettro residuo di T, allora \lambda appartiene allo spettro puntuale dell'aggiunto T'. Se invece \lambda appartiene allo spettro puntuale di T, allora esso appartiene sia allo spettro puntuale e sia allo spettro residuo di T'.[14]

Se T è autoaggiunto su uno spazio di Hilbert, si ha inoltre:

  • T non ha spettro residuo.
  • \sigma(T) è un sottoinsieme di \R,ovvero gli autovalori sono reali.
  • Autovettori relativi ad autovalori distinti sono ortogonali.

Applicazioni[modifica | modifica wikitesto]

Lo studio degli autovalori e autovettori relativi a una trasformazione lineare, che consiste nell'autoteoria, è una delle problematiche principali affrontate dall'algebra lineare, e ha vastissime applicazioni in diversi ambiti della scienza.

Operatori in meccanica quantistica[modifica | modifica wikitesto]

Exquisite-kfind.png Lo stesso argomento in dettaglio: Postulati della meccanica quantistica.
Le funzioni d'onda associate agli stati di un elettrone in un atomo d'idrogeno sono gli autovettori sia della Hamiltoniana dell'atomo di idrogeno sia del momento angolare. Gli autovalori associati sono interpretati come le loro energie (crescenti dall'alto in basso n=1,2,3,...) e momenti angolari (crescenti da sinistra a destra: s, p, d,...). Sono disegnati qui i quadrati dei valori assoluti delle autofunzioni. Aree più luminose corrispondono a densità di probabilità maggiori per la posizione in una misurazione. Il centro di ogni figura è il nucleo dell'atomo, un protone.

In meccanica quantistica ad un vettore (detto in tale contesto autoket) si associa uno "stato" o autostato dell'oggetto considerato. In termini informali, per evidenziare il fatto che in generale non si conosce questo stato, lo si descrive come una combinazione lineare (o sovrapposizione) di autovettori (autostati) noti di un qualche operatore. L'operatore in questione "rappresenta" una certa osservabile, alla quale corrisponde una grandezza fisica: ad esempio l'operatore hamiltoniano H è associato all'energia dell'oggetto. Se si sceglie di scrivere lo stato dell'oggetto tramite una combinazione lineare di autovettori di H, a ogni autovettore  \left | \psi_E  \right \rangle è associato un possibile valore E dell'energia dell'oggetto, che è il relativo autovalore:

H \left | \psi_E \right \rangle = E \left | \psi_E \right \rangle

Una tale rappresentazione matriciale dell'equazione di Schrödinger indipendente dal tempo è possibile se, come spesso accade (ad esempio studiando gli stati legati), \psi_E è una funzione quadrato sommabile: tali funzioni formano uno spazio di Hilbert infinito-dimensionale con prodotto interno \left \langle | \right \rangle.

L'operazione che tramite l'applicazione di H restituisce uno degli autovalori è detta misura, e fa "collassare" o "precipitare" lo stato dell'oggetto in un autostato dell'osservabile che si sta misurando. La misura altera irrimediabilmente lo stato del sistema, che viene a trovarsi in un autostato ben preciso. L'insieme dei valori (autovalori) possibili per la misura di una grandezza osservabile è lo spettro dell'operatore ad essa associato. Dovendo quantificare una grandezza fisica, è inoltre necessario che H sia un operatore hermitiano: in questo modo gli autovalori sono tutti reali, e i suoi autostati (normalizzati) formano una base ortonormale dello spazio. Grazie al prodotto interno \left \langle | \right \rangle è possibile proiettare l'autostato  \left | \psi_E  \right \rangle sulla una base di autostati di un altro operatore, come la base di autovettori \left \langle x \right | dell'operatore posizione. La proiezione:

\Psi_E (x) = \left \langle x |  \psi_E \right \rangle

definisce la funzione d'onda \Psi_E, una descrizione probabilistica della posizione dell'oggetto. La funzione d'onda \Psi_E (x) è dunque un'autofunzione di H corrispondente all'autovalore E:

H \left \langle x |  \psi_E \right \rangle= E \left \langle x |  \psi_E \right \rangle \qquad H  \Psi_E (x)= E  \Psi_E (x)

Il prodotto interno nello spazio di Hilbert è inoltre dato da:

\left \langle \psi_1 | \psi_2  \right \rangle  = \int_{D} \left \langle \psi_1 | x \right \rangle \left \langle x | \psi_2  \right \rangle \mbox{d}x= \int_{D} \Psi_1^{*} ( x ) \Psi_2 ( x ) \mbox{d} x

dove * indica la coniugazione complessa. Questo limita la possibilità di scelta dello spazio di Hilbert allo spazio delle funzioni a quadrato integrabile sul dominio scelto D, che può al limite essere tutto \R.

Teoria dei numeri[modifica | modifica wikitesto]

Lo studio degli autovalori di una matrice ha importanti applicazioni anche nella teoria dei numeri. In particolare, si congettura che alcune statistiche sugli zeri non banali della funzione zeta di Riemann, quali ad esempio quelle sulla distanza tra zeri consecutivi, siano le stesse di quelle relative alle matrici hermitiane aleatorie (rispetto alla misura di Haar) di dimensione N al tendere di N all'infinito. Inoltre, è stato congetturato che anche la distribuzione dei valori della funzione zeta di Riemann sia ben approssimata, in media, dai valori assunti dal polinomio caratteristico di tali matrici. Analoghe considerazioni si possono fare su altre famiglie di funzioni speciali, quali ad esempio le funzioni L di Dirichlet, coinvolgendo anche altre famiglie di matrici aleatorie, come ad esempio le matrici simplettiche o ortogonali. Tale connessione ha avuto come risultato un fiorire di una serie di nuove congetture in teoria dei numeri.[15]

Autofacce[modifica | modifica wikitesto]

Le autofacce sono esempi di autovettori.

Nella elaborazione digitale delle immagini, le immagini di facce possono essere viste come vettori le cui componenti sono la luminosità dei singoli pixel.[16] La dimensione dello spazio vettoriale in cui sono ambientati è pari al numero di pixel, e gli autovettori di una particolare matrice, detta matrice di covarianza, sono chiamati autofacce. Essi sono molto utili per esprimere ogni faccia come una combinazione lineare di queste autofacce, e sono quindi anche un ottimo strumento di compressione dei dati per memorizzare e identificare un alto numero di facce.

Tensore d'inerzia[modifica | modifica wikitesto]

In meccanica, gli autovettori del tensore di inerzia definiscono gli assi principali di un corpo rigido. Il tensore di inerzia è una quantità chiave, necessaria per determinare la rotazione di un corpo rigido intorno al suo baricentro. Gli autovettori del tensore delle deformazioni definiscono gli assi principali di deformazione.

Note[modifica | modifica wikitesto]

  1. ^ a b S. Lang, Pag. 220
  2. ^ a b S. Lang, Pag. 221
  3. ^ S. Lang, Pag. 104
  4. ^ S. Lang, Pag. 105
  5. ^ S. Lang, Pag. 227
  6. ^ S. Lang, Pag. 228
  7. ^ Nella pratica gli autovalori di grandi matrici non vengono calcolati usando il polinomio caratteristico, esistendo metodi numerici più veloci e sufficientemente stabili.
  8. ^ S. Lang, Pag. 223
  9. ^ S. Lang, Pag. 114
  10. ^ S. Lang, Pag. 115
  11. ^ S. Lang, Pag. 251
  12. ^ Reed, Simon, Pag. 188
  13. ^ Lo shift unilaterale su l^2(N) ne fornisce un esempio: tale operatore è una isometria, ed è quindi limitato ma non invertibile poiché non è surriettivo.
  14. ^ Reed, Simon, Pag. 194
  15. ^ (EN) Jon Keating, L-functions and the Characteristic Polynomials of Random Matrices in Francesco Mezzadri e Nina Snaith (a cura di), Recent perspectives in random matrix theory and number theory, Cambridge, Cambridge University Press, 2005, pp. 251-278, ISBN 978-0-521-62058-1.
  16. ^ A. Xirouhakis, G. Votsis e A. Delopoulus, Estimation of 3D motion and structure of human faces (PDF), Online paper in PDF format, National Technical University of Athens, 2004.

Bibliografia[modifica | modifica wikitesto]

Voci correlate[modifica | modifica wikitesto]

Altri progetti[modifica | modifica wikitesto]

Collegamenti esterni[modifica | modifica wikitesto]

Calcolatrici online