Autovettore e autovalore

Da Wikipedia, l'enciclopedia libera.
In questa trasformazione lineare della Gioconda l'immagine è modificata ma l'asse centrale verticale rimane fisso. Il vettore blu ha cambiato lievemente direzione, mentre quello rosso no. Quindi il vettore rosso è un autovettore della trasformazione e quello blu no. Inoltre, poiché il vettore rosso non è stato né allungato, né compresso, né ribaltato, il suo autovalore è 1. Tutti i vettori sull'asse verticale sono multipli scalari del vettore rosso, e sono tutti autovettori: assieme all'origine formano l'autospazio relativo all'autovalore 1.

In matematica, in particolare in algebra lineare, un autovettore di una trasformazione lineare tra spazi vettoriali è un vettore la cui immagine è il vettore stesso moltiplicato per uno scalare, detto autovalore.[1] Gli autovalori e autovettori sono definiti solo per matrici quadrate (cioè solo per matrici associate ad Endomorfismi).

Si definisce autospazio il sottospazio generato da tutti gli autovettori aventi in comune lo stesso autovalore.[2]

Si tratta di un concetto fondamentale utilizzato in molti settori della matematica e della fisica. In meccanica classica gli autovettori delle equazioni che descrivono un sistema fisico corrispondono spesso ai modi di vibrazione di un corpo, e gli autovalori alle loro frequenze. In meccanica quantistica gli operatori corrispondono a variabili osservabili, gli autovettori sono chiamati anche autostati e gli autovalori di un operatore rappresentano quei valori della variabile corrispondente che hanno probabilità non nulla di essere misurati.

Il termine autovettore è stato tradotto dalla parola tedesca Eigenvektor, coniata da Hilbert nel 1904. Eigen significa proprio caratteristico. Anche nella letteratura italiana si trova spesso l'autovettore indicato come vettore proprio, vettore caratteristico o vettore latente.

Introduzione informale[modifica | modifica sorgente]

Una sfera che ruota intorno a un suo asse.
Rotazione del piano intorno a un punto

Il piano cartesiano e lo spazio euclideo sono esempi particolari di spazi vettoriali: ogni punto dello spazio può essere descritto tramite un vettore che collega l'origine al punto. Rotazioni, omotetie e riflessioni sono esempi particolari di trasformazioni lineari dello spazio: ciascuna di queste trasformazioni viene descritta agevolmente dall'effetto che produce sui vettori.

In particolare, un autovettore è un vettore  \mathbf {v} \neq \mathbf {0} che nella trasformazione viene moltiplicato per un fattore scalare \lambda . Nel piano o nello spazio cartesiano, questo equivale a dire che il vettore non cambia direzione. Può però cambiare verso se \lambda <0 , e modulo per un fattore dato dal valore assoluto |\lambda| :

  • se |\lambda|=1 il modulo resta inalterato,
  • se |\lambda|>1 il modulo cresce,
  • se |\lambda|<1 il modulo decresce.

Il valore \lambda è l'autovalore di  \mathbf {v} .

Ad esempio, in una rotazione spaziale il vettore coincidente con l'asse di rotazione resta fisso: in altre parole, è un vettore che non cambia né direzione, né verso, né modulo, ed è quindi un autovettore con autovalore 1. I vettori perpendicolari all'asse, invece, ruotano di un certo angolo e cambiano direzione: ogni rotazione piana (di angolo diverso da 0 e \pi) non possiede autovettori.

Un'onda stazionaria in una corda fissata agli estremi è una autofunzione della trasformazione data dallo scorrere del tempo.

Autovettori e autovalori sono definiti e usati in matematica e fisica nell'ambito di spazi più complessi e astratti di quello tridimensionale della fisica classica. Questi spazi possono avere dimensione maggiore di 3 o addirittura infinita (ad esempio, possono essere uno spazio di Hilbert). Ad esempio, le possibili posizioni di una corda vibrante in una chitarra formano uno spazio di questo tipo: una vibrazione della corda è quindi interpretata come trasformazione di questo spazio, e i suoi autovettori (più precisamente, le sue autofunzioni) sono le onde stazionarie.

Definizione[modifica | modifica sorgente]

Sia  V uno spazio vettoriale su un campo  K , che può essere ad esempio il campo dei numeri reali  \R o il campo dei complessi  \C . Sia  T un endomorfismo di  V , cioè una trasformazione lineare:

 T:V\to V

Se  \mathbf {v} \ è un vettore non nullo in  V e \lambda è uno scalare tali che:

T(\mathbf {v}) = \lambda \mathbf {v}

allora  \mathbf {v} è un autovettore della trasformazione  T, e \lambda è il suo autovalore.[1]

Poiché  T è lineare, se  \mathbf {v} è un autovettore con autovalore  \lambda , allora ogni multiplo non-nullo di \mathbf {v} è anch'esso un autovettore con lo stesso autovalore  \lambda . Infatti, detto  \mathbf {u} un qualsiasi vettore tale che  \mathbf {u} = k \mathbf {v}, con k \in K , si avrà T( \mathbf {u}) = T(k \mathbf {v}) = kT(\mathbf {v}) poiché T è lineare. Ma essendo T( \mathbf {v}) = \lambda \mathbf {v}, si ha che:

T( \mathbf {u}) = kT( \mathbf {v}) = k \lambda \mathbf {v} = \lambda k \mathbf {v} = \lambda \mathbf {u}

cioè T( \mathbf {u}) = \lambda \mathbf {u}.

Più in generale, gli autovettori aventi lo stesso fissato autovalore \lambda , insieme al vettore nullo, generano un sottospazio di  V chiamato l'autospazio relativo all'autovalore \lambda , solitamente indicato con  V_\lambda .[2]

Lo spettro di T è l'insieme dei suoi autovalori. Il raggio spettrale di T è l'estremo superiore dei moduli dei suoi autovalori.

Descrizione matriciale[modifica | modifica sorgente]

Nel caso in cui V sia di dimensione finita, per ogni scelta di basi a T è associata univocamente una matrice, detta matrice di trasformazione.[3] Gli autovettori e autovalori associati a un'applicazione possono essere associati alla matrice di trasformazione nel medesimo modo. Sia \mathbf {x} il vettore delle coordinate di \mathbf v rispetto a una base e sia A la matrice di trasformazione rappresentante  T rispetto alla medesima base. Si ha:[4]

A \mathbf {x} = \lambda \mathbf {x}

In particolare, gli autovalori di A non dipendono dalla base scelta.

Nella rappresentazione matriciale \mathbf {x} è detto autovettore destro, in quanto è possibile definire l'autovettore sinistro \mathbf x_L come:

\mathbf x_L A  = \lambda_L \mathbf x_L

e facendo la trasposizione di entrambi i membri:

(\mathbf x_L A)^T = A^T \mathbf x_L^T = \lambda_L \mathbf x_L^T

Si ottiene dunque:

(A^T - \lambda_L I) \mathbf x_L^T = \mathbf 0

ovvero:

\det(A^T - \lambda_L I)= \det(A^T - \lambda_L I^T) = \det(A - \lambda_L I)^T = 0

Poiché il determinante è indipendente dalla trasposizione della matrice su cui si calcola:

\det(A - \lambda_L I)^T = \det(A - \lambda_L I) = 0

si deve verificare, grazie all'arbitrarietà della scelta di autovettori e matrice, che \lambda = \lambda_L . Gli autovalori destro e sinistro coincidono, ma questo non vale per gli autovettori: per esempio se A è una matrice hermitiana, cioè rappresenta un operatore hermitiano, gli autovettori destro e sinistro sono l'uno il complesso coniugato dell'altro.

Autofunzioni[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi Autofunzione.

Spesso gli autovettori sono a loro volta funzioni, e in tal caso si parla di autofunzioni di un operatore. Un esempio molto significativo in matematica e fisica è quello dell'autofunzione:

f_k(x) = e^{kx}

dell'operatore differenziale derivata:

\mathcal A = \frac{d}{dx}

a cui corrisponde l'autovalore \lambda = k in quanto:

\mathcal A(e^{kx}) = ke^{kx}

per le usuali regole di derivazione. Su questo fatto si basa una vasta area della matematica, essendo alla base della trasformata di Fourier e dell'analisi armonica.

Polinomio caratteristico[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi Polinomio caratteristico.

Si definisce polinomio caratteristico p(\lambda) nella variabile \lambda associato a una matrice quadrata A il determinante:[5]

 p(\lambda) = \det(A - \lambda I)

dove I è la matrice identità con lo stesso numero di righe di A. In particolare, le radici del polinomio caratteristico sono tutti gli autovalori di T.[6]

Due matrici che rappresentano un endomorfismo T di uno spazio vettoriale  V a dimensione finita sono simili, e in particolare hanno il medesimo polinomio caratteristico, e dunque gli stessi autovalori. Si tratta di uno strumento di grande importanza, che ha permesso di sviluppare un metodo generale per l'individuazione di autovalori e autovettori di un endomorfismo nel caso in cui lo spazio vettoriale V abbia dimensione finita.[7] Il polinomio permette inoltre di stabilire l'esistenza di autovalori e autovettori per un'applicazione lineare:

  • Il polinomio caratteristico di T ha grado n, e quindi ha al più n radici: segue che T ha al più n autovalori distinti.
  • Se K è algebricamente chiuso allora il polinomio caratteristico ha sempre almeno una radice: segue che T ha almeno un autovalore, e quindi anche almeno un autovettore.[8] Nel caso reale questo non succede sempre, ad esempio si possono trovare autovalori complessi.
  • Se la dimensione n di V è dispari e K = \R è il campo dei numeri reali, il polinomio caratteristico ha grado dispari, e quindi ha sempre almeno una radice reale. Ad esempio, ogni endomorfismo di \R^3 ha almeno un autovettore.

Diagonalizzabilità[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi Diagonalizzabilità.

Sia T un endomorfismo di uno spazio vettoriale V, cioè una trasformazione lineare T: V \to V. Si dice che T è diagonalizzabile se esiste una base di V rispetto alla quale la matrice che rappresenta T è diagonale.[9] In particolare, la base che diagonalizza T è composta da suoi autovettori.

In modo equivalente, una matrice quadrata è diagonalizzabile se è simile a una matrice diagonale.[10] La matrice T è quindi diagonalizzabile nel campo di appartenenza se esiste una matrice invertibile P tale che:

P^{-1}TP=\begin{pmatrix}\lambda_{1}\\
& \lambda_{2}\\
& & \ddots\\
& & & \lambda_{n}\end{pmatrix}

ovvero:

TP=P\begin{pmatrix}\lambda_{1}\\
& \lambda_{2}\\
& & \ddots\\
& & & \lambda_{n}\end{pmatrix}

Scrivendo P in termini dei vettori colonna:

P=\begin{pmatrix} \mathbf P^1 & \mathbf P^2 & \cdots & \mathbf P^n \end{pmatrix}

la precedente relazione diventa:

T \mathbf P^{i}=\lambda_{i} \mathbf P^{i} \qquad(i=1,2,\cdots,n)

I vettori colonna di P sono dunque autovettori di T, e i corrispondenti elementi della matrice diagonale sono i rispettivi autovalori. L'invertibilità di P implica inoltre l'indipendenza lineare degli autovettori, che formano una base dello spazio.

Il teorema spettrale[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi Teorema spettrale.

Nel caso complesso finito-dimensionale il teorema spettrale afferma che l'endomorfismo T è normale se e solo se esiste una base ortonormale di V fatta di suoi autovettori.[11] In tal caso la matrice P è unitaria. Questo fondamentale risultato fornisce le condizioni per cui sia possibile diagonalizzare un operatore lineare rispetto a una base ortonormale: nel caso finito-dimensionale, quando questo risulta possibile succede che ad autovalori distinti corrispondono autovettori mutuamente ortogonali, e pertanto gli autospazi sono in somma diretta.

La decomposizione spettrale è un caso particolare della decomposizione di Schur. È anche un caso particolare della decomposizione ai valori singolari. Un operatore normale può, di conseguenza, essere scritto come una combinazione lineare di proiettori ortogonali sugli autospazi, i cui coefficienti sono gli autovalori relativi a ogni autospazio.

Nel caso infinito-dimensionale la normalità, e in particolare l'autoaggiuntezza, non garantisce la diagonalizzabilità. In generale un operatore normale non può essere più scritto come combinazione lineare di proiettori ortogonali. Tuttavia, attraverso una misura a valori di proiettore è possibile ottenere una scrittura integrale che permette di descrivere l'operatore in termini del suo spettro.

Spettro di un operatore[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi Spettro (matematica).

In uno spazio di dimensione infinita la definizione di autovalore è identica al caso di dimensione finita. Tuttavia, il polinomio caratteristico non è uno strumento disponibile in questo caso in quanto si rende necessario considerare ulteriori elementi dello spettro.

Sia T un operatore lineare limitato definito su uno spazio di Banach complesso X. Si definisce insieme risolvente di T l'insieme \rho(T) dei numeri complessi \lambda tali per cui l'operatore \lambda I - T è invertibile, ovvero ha un inverso che è un operatore lineare limitato. Si definisce risolvente di T la funzione:

R_\lambda (T) = (\lambda I - T)^{-1} \

Lo spettro di T è l'insieme \sigma(T) dei numeri complessi \lambda che non appartengono all'insieme risolvente, ovvero tali per cui l'operatore \lambda I - T non è invertibile.[12]

Dal momento che \lambda I - T è un operatore lineare, se il suo inverso esiste esso è lineare. Inoltre, per il teorema del grafico chiuso l'inverso di un operatore lineare limitato è limitato. Segue che l'insieme risolvente è l'insieme dei valori che rendono \lambda I - T bigettivo.

Lo spettro di un operatore non può essere vuoto, e si possono distinguere tre suoi sottoinsiemi disgiunti:

  • Si definisce spettro puntuale o discreto di T l'insieme degli autovalori di T, ovvero i numeri complessi \lambda tali che:
T(x) = \lambda x \qquad x \ne 0 \
Gli autovalori sono quindi i numeri tali per cui T(x) - \lambda x = 0 , ovvero (T - \lambda I)(x) = 0 : la funzione T - \lambda I non è invertibile se il suo nucleo non è costituito dal solo vettore nullo, ovvero esistono dei vettori x tali per cui esiste un \lambda tale che T(x) - \lambda x = 0 . In modo equivalente, \lambda è autovalore di T se e solo se T - \lambda I non è iniettivo, oppure se e solo se \det(T - \lambda I) =0.
  • Si definisce spettro continuo di T l'insieme dei numeri \lambda tali per cui (\lambda I - T)^{-1} non è limitato, pur essendo densamente definito.
  • Si definisce spettro residuo di T l'insieme dei numeri \lambda che non sono autovalori e tali per cui l'operatore \lambda I - T non ha immagine densa in X.[13]

Operatori aggiunti e autoaggiunti[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi Operatore aggiunto e Operatore autoaggiunto.

La definizione di operatore aggiunto si diversifica a seconda che ci si trovi in uno spazio di Hilbert o in uno spazio di Banach. A causa di ciò, lo spettro di un operatore definito su uno spazio di Banach coincide con quello del suo aggiunto, mentre in uno spazio di Hilbert, denotando l'aggiunto di con T con T^*, si ha che:

\sigma(T^*) = \{\lambda : \bar \lambda \in \sigma(T) \}

Inoltre, se \lambda appartiene allo spettro residuo di T, allora \lambda appartiene allo spettro puntuale dell'aggiunto T'. Se invece \lambda appartiene allo spettro puntuale di T, allora esso appartiene sia allo spettro puntuale e sia allo spettro residuo di T'.[14]

Se T è autoaggiunto su uno spazio di Hilbert, si ha inoltre:

  • T non ha spettro residuo.
  • \sigma(T) è un sottoinsieme di \R,ovvero gli autovalori sono reali.
  • Autovettori relativi ad autovalori distinti sono ortogonali.

Applicazioni[modifica | modifica sorgente]

Lo studio degli autovalori e autovettori relativi a una trasformazione lineare, che consiste nell'autoteoria, è una delle problematiche principali affrontate dall'algebra lineare, e ha vastissime applicazioni in diversi ambiti della scienza.

Operatori in meccanica quantistica[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi Postulati della meccanica quantistica.
Le funzioni d'onda associate agli stati di un elettrone in un atomo d'idrogeno sono gli autovettori sia della Hamiltoniana dell'atomo di idrogeno sia del momento angolare. Gli autovalori associati sono interpretati come le loro energie (crescenti dall'alto in basso n=1,2,3,...) e momenti angolari (crescenti da sinistra a destra: s, p, d,...). Sono disegnati qui i quadrati dei valori assoluti delle autofunzioni. Aree più luminose corrispondono a densità di probabilità maggiori per la posizione in una misurazione. Il centro di ogni figura è il nucleo dell'atomo, un protone.

In meccanica quantistica ad un vettore (detto in tale contesto autoket) si associa uno "stato" o autostato dell'oggetto considerato. In termini informali, per evidenziare il fatto che in generale non si conosce questo stato, lo si descrive come una combinazione lineare (o sovrapposizione) di autovettori (autostati) noti di un qualche operatore. L'operatore in questione "rappresenta" una certa osservabile, alla quale corrisponde una grandezza fisica: ad esempio l'operatore hamiltoniano H è associato all'energia dell'oggetto. Se si sceglie di scrivere lo stato dell'oggetto tramite una combinazione lineare di autovettori di H, a ogni autovettore  \left | \psi_E  \right \rangle è associato un possibile valore E dell'energia dell'oggetto, che è il relativo autovalore:

H \left | \psi_E \right \rangle = E \left | \psi_E \right \rangle

Questa rappresentazione matriciale dell'equazione di Schrödinger indipendentemente dal tempo è possibile se, come spesso accade (ad esempio, studiando gli stati legati), \psi_E è una funzione quadrato sommabile. Infatti tali funzioni formano uno spazio di Hilbert infinito-dimensionale con prodotto interno \left \langle | \right \rangle.

L'operazione che tramite l'applicazione di H restituisce uno degli autovalori è detta misura, e fa "collassare" o "precipitare" lo stato dell'oggetto in un autostato dell'osservabile che si sta misurando. La misura altera irrimediabilmente lo stato del sistema, che viene a trovarsi in un autostato ben preciso. L'insieme dei valori (autovalori) possibili per la misura di una grandezza osservabile è lo spettro dell'operatore ad essa associato. Dovendo quantificare una grandezza fisica è inoltre necessariamente che H sia un operatore hermitiano: in questo modo gli autovalori sono tutti reali, e i suoi autostati formano una base ortonormale dello spazio. Grazie al prodotto interno \left \langle | \right \rangle è possibile proiettare l'autostato  \left | \psi_E  \right \rangle sulla una base di autostati di un altro operatore, come la base di autovettori \left \langle x \right | dell'operatore posizione. La proiezione:

\Psi_E (x) = \left \langle x |  \psi_E \right \rangle

definisce la funzione d'onda \Psi_E, una descrizione probabilistica della posizione dell'oggetto. La funzione d'onda \Psi_E (x) è dunque un'autofunzione di H corrispondente all'autovalore E:

H \left \langle x |  \psi_E \right \rangle= E \left \langle x |  \psi_E \right \rangle \qquad H  \Psi_E (x)= E  \Psi_E (x)

Il prodotto interno nello spazio di Hilbert è inoltre dato da:

\left \langle \psi_1 | \psi_2  \right \rangle  = \int_{D} \left \langle \psi_1 | x \right \rangle \left \langle x | \psi_2  \right \rangle \mbox{d}x= \int_{D} \Psi_1^{*} ( x ) \Psi_2 ( x ) \mbox{d} x

dove * indica la coniugazione complessa. Questo limita la possibilità di scelta dello spazio di Hilbert allo spazio delle funzioni a quadrato integrabile sul dominio scelto D, che può al limite essere tutto \R.

Teoria dei numeri[modifica | modifica sorgente]

Lo studio degli autovalori di una matrice ha importanti applicazioni anche nella teoria dei numeri. In particolare, si congettura che alcune statistiche sugli zeri non banali della funzione zeta di Riemann, quali ad esempio quelle sulla distanza tra zeri consecutivi, siano le stesse di quelle relative alle matrici hermitiane aleatorie (rispetto alla Misura di Haar) di dimensione N al tendere di N all'infinito. Inoltre, è stato congetturato che anche la distribuzione dei valori della funzione zeta di Riemann sia ben approssimata, in media, dai valori assunti dal polinomio caratteristico di tali matrici. Analoghe considerazioni si possono fare su altre famiglie di funzioni speciali, quali ad esempio le funzioni L di Dirichlet, coinvolgendo anche altre famiglie di matrici aleatorie, come ad esempio le matrici simplettiche o ortogonali. Tale connessione ha avuto come risultato un fiorire di una serie di nuove congetture in teoria dei numeri.[15]

Autofacce[modifica | modifica sorgente]

Le autofacce sono esempi di autovettori.

Nella elaborazione digitale delle immagini, le immagini di facce possono essere viste come vettori le cui componenti sono la luminosità dei singoli pixel.[16] La dimensione dello spazio vettoriale in cui sono ambientati è pari al numero di pixel, e gli autovettori di una particolare matrice, detta matrice di covarianza, sono chiamati autofacce. Essi sono molto utili per esprimere ogni faccia come una combinazione lineare di queste autofacce, e sono quindi anche un ottimo strumento di compressione dei dati per memorizzare e identificare un alto numero di facce.

Tensore d'inerzia[modifica | modifica sorgente]

In meccanica, gli autovettori del tensore di inerzia definiscono gli assi principali di un corpo rigido. Il tensore di inerzia è una quantità chiave, necessaria per determinare la rotazione di un corpo rigido intorno al suo baricentro. Gli autovettori del tensore delle deformazioni definiscono gli assi principali di deformazione.

Esempi nel piano e nello spazio[modifica | modifica sorgente]

Fra le trasformazioni del piano cartesiano \R^2 si possono distinguere i seguenti casi speciali:

  • Rotazione antioraria di angolo \theta. Se \theta non è un multiplo intero di \pi non esiste alcun autovettore, infatti ogni vettore viene ruotato e cambia di direzione. Se invece \theta = k \pi, con k intero dispari, ogni vettore viene trasformato nel suo opposto, quindi ogni vettore non nullo è autovettore della rotazione con autovalore -1. Se invece k è pari la trasformazione non è altro che l'identità, per cui ogni vettore non nullo è autovettore con autovalore +1.
  • Riflessione rispetto a una retta r passante per l'origine. I vettori in r restano fermi e sono quindi autovettori con autovalore 1, mentre quelli della retta s perpendicolare a r e passante per l'origine vengono ribaltati, e quindi sono autovettori con autovalore -1. Non esistono altri autovettori.
  • Omotetia. Ogni vettore viene moltiplicato per uno scalare \lambda e quindi tutti i vettori non nulli sono autovettori con autovalore \lambda.
  • Proiezione ortogonale su una retta r passante per l'origine. I vettori su r restano fermi e quindi sono autovettori con autovalore 1, mentre i vettori sulla retta s ortogonale a r e passante per l'origine sono mappati tutti sull'origine e quindi sono autovettori con autovalore 0. Non ci sono altri autovettori.

Gli esempi appena elencati possono essere rappresentati rispettivamente dalle seguenti matrici, dove per semplicità la retta r è l'asse orizzontale:

 
 \begin{bmatrix}
  \cos\theta & -\sin\theta \\
  \sin\theta & \cos\theta \\
 \end{bmatrix}
\quad
 \begin{bmatrix}
  1 & 0 \\
  0 & -1 \\
 \end{bmatrix}
\quad
 \begin{bmatrix}
  \lambda & 0 \\
  0 & \lambda \\
 \end{bmatrix}
\quad
 \begin{bmatrix}
  1 & 0 \\
  0 & 0 \\
 \end{bmatrix}

Non tutte le trasformazioni del piano e dello spazio ricadono in uno degli esempi mostrati sopra. In generale, un endomorfismo di \R^n (cioè una trasformazione lineare di \R^n in sé) è rappresentabile tramite una matrice quadrata con n righe. Si consideri per esempio l'endomorfismo di \R^3 indotto dalla matrice:

A =
\begin{bmatrix}
  \; 0 & 1 &   -1 \\
  \; 1 & 1 & \; 0 \\
    -1 & 0 & \; 1 
\end{bmatrix}.

Usando la moltiplicazione fra matrice e vettore si vede che:

 
A \begin{bmatrix} \; 1 \\ \; 1 \\ -1 \end{bmatrix} 
= \begin{bmatrix} \; 2 \\ \; 2 \\ -2 \end{bmatrix} 
= 2 \begin{bmatrix} \; 1 \\ \; 1 \\ -1 \end{bmatrix}

e quindi l'endomorfismo rappresentato da A ha un autovettore con autovalore 2.

Si vuole ora trovare il polinomio caratteristico di A. Poiché la trasformazione è già scritta in forma di matrice, si passa al punto 2 e si calcola il polinomio caratteristico:

p(x) = \det( A - xI) =
 \begin{vmatrix}
-x &  1  & -1 \\
 1 & 1-x &  0 \\
-1 &  0  & 1-x \end{vmatrix} = -x^3 + 2x^2 + x - 2 = -(x - 2) (x - 1) (x + 1)

Quindi gli autovalori di A sono 2, 1 e −1.

I tre autovettori ortogonali sono:

v_1 = \begin{bmatrix}\; 1  \\ \;1 \\   -1 \end{bmatrix} \qquad v_2 = \begin{bmatrix}\; 0\;\\   1 \\    1 \end{bmatrix} \qquad v_3 = \begin{bmatrix}\; 2  \\  -1 \\ \; 1 \end{bmatrix}

Per quanto detto prima, la trasformazione assume una forma molto semplice rispetto a questa base: ogni vettore x in \R^3 può essere scritto in modo unico come:

x = x_1 v_1 + x_2 v_2 + x_3 v_3

e quindi si ha:

A x = 2x_1 v_1 + x_2 v_2 - x_3 v_3

Data infine una trasformazione lineare T, si è visto che se il polinomio caratteristico di T ha tutte le radici in K con molteplicità 1, allora T è diagonalizzabile. Se invece il polinomio caratteristico di T ha tutte le radici in K ma alcune di esse hanno molteplicità maggiore di 1, allora T non è necessariamente diagonalizzabile. Ad esempio la matrice:

A=\left( \begin{matrix} 1 & 0 \\ -a & 1 \end{matrix} \right)

che rappresenta la trasformazione della Gioconda in figura ha come polinomio caratteristico (x-1)^2, e non è diagonalizzabile per a\neq 0.

Note[modifica | modifica sorgente]

  1. ^ a b S. Lang, op. cit., Pag. 220
  2. ^ a b S. Lang, op. cit., Pag. 221
  3. ^ S. Lang, op. cit., Pag. 104
  4. ^ S. Lang, op. cit., Pag. 105
  5. ^ S. Lang, op. cit., Pag. 227
  6. ^ S. Lang, op. cit., Pag. 228
  7. ^ Nella pratica gli autovalori di grandi matrici non vengono calcolati usando il polinomio caratteristico, esistendo metodi numerici più veloci e sufficientemente stabili.
  8. ^ S. Lang, op. cit., Pag. 223
  9. ^ S. Lang, op. cit., Pag. 114
  10. ^ S. Lang, op. cit., Pag. 115
  11. ^ S. Lang, op. cit., Pag. 251
  12. ^ Reed, Simon, op. cit., Pag. 188
  13. ^ Lo shift unilaterale su l^2(N) ne fornisce un esempio: tale operatore è una isometria, ed è quindi limitato ma non invertibile poiché non è surriettivo.
  14. ^ Reed, Simon, op. cit., Pag. 194
  15. ^ (EN) Jon Keating, L-functions and the Characteristic Polynomials of Random Matrices in Francesco Mezzadri e Nina Snaith (a cura di), Recent perspectives in random matrix theory and number theory, Cambridge, Cambridge University Press, 2005, pp. 251-278, ISBN 978-0-521-62058-1.
  16. ^ A. Xirouhakis, G. Votsis e A. Delopoulus, Estimation of 3D motion and structure of human faces (PDF), Online paper in PDF format, National Technical University of Athens, 2004.

Bibliografia[modifica | modifica sorgente]

Voci correlate[modifica | modifica sorgente]

Altri progetti[modifica | modifica sorgente]

Collegamenti esterni[modifica | modifica sorgente]

Calcolatrici online