Diagonalizzabilità

Da Wikipedia, l'enciclopedia libera.

In matematica, e più precisamente in algebra lineare, una trasformazione lineare di uno spazio vettoriale è diagonalizzabile o semplice se esiste una base dello spazio rispetto alla quale la matrice di trasformazione è diagonale. In modo equivalente, una matrice quadrata è diagonalizzabile se è simile ad una matrice diagonale.[1]

Una trasformazione lineare è diagonalizzabile se esistono n "assi" passanti per l'origine la cui direzione rimane invariata nella trasformazione stessa: ognuno di tali assi è un autospazio relativo ad un autovettore della trasformazione, e la trasformazione effettua una omotetia. Diagonalizzare una trasformazione significa porsi in un sistema di riferimento che rimane "solidale" con essa, e la trasformazione risulta completamente definita quando si conosce il suo comportamento sugli assi del sistema.

Definizione[modifica | modifica wikitesto]

Sia T un endomorfismo di uno spazio vettoriale V, cioè una trasformazione lineare T: V \to V. Si dice che T è diagonalizzabile se esiste una base di V rispetto alla quale la matrice che rappresenta T è diagonale.[2] In particolare, la base che diagonalizza T è composta da suoi autovettori.

In modo equivalente, una matrice quadrata è diagonalizzabile se è simile ad una matrice diagonale.[3] La matrice T è quindi diagonalizzabile nel campo di appartenenza se esiste una matrice invertibile P tale che:

P^{-1}TP=\begin{pmatrix}\lambda_{1}\\
& \lambda_{2}\\
& & \ddots\\
& & & \lambda_{n}\end{pmatrix}

ovvero:

TP=P\begin{pmatrix}\lambda_{1}\\
& \lambda_{2}\\
& & \ddots\\
& & & \lambda_{n}\end{pmatrix}

Scrivendo P in termini dei vettori colonna:

P=\begin{pmatrix} P^1 & P^2 & \cdots & P^n \end{pmatrix}

la precedente relazione diventa:

T P^{i}=\lambda_{i} P^{i} \qquad(i=1,2,\cdots,n)

I vettori colonna di P sono dunque autovettori di T, ed i corrispondenti elementi della matrice diagonale sono i rispettivi autovalori. L'invertibilità di P implica inoltre l'indipendenza lineare degli autovettori, che formano una base dello spazio.

Per il teorema spettrale, se T è normale e diagonalizzabile allora la base di V che è composta da suoi autovettori è una base ortonormale. In tal caso P è unitaria.

Polinomio caratteristico[modifica | modifica wikitesto]

Exquisite-kfind.png Per approfondire, vedi Polinomio caratteristico e Teorema di diagonalizzabilità.

Un modo per verificare che una applicazione è diagonalizzabile è quello di studiare la diagonalizzabilità della sua matrice associata A nelle base degli insiemi di partenza e di arrivo. A tal fine, uno strumento di notevole importanza è il polinomio caratteristico, che permette di ottenere gli autovalori con la loro molteplicità.

Sia A una matrice quadrata con n righe a valori in un campo K. Il polinomio caratteristico di A è un polinomio di grado n definito nel modo seguente:

 p(\lambda) = \det (A-\lambda I)

Le radici \lambda_1, \dots \lambda_k di p(\lambda) appartenenti al campo K sono gli autovalori di A.[4] Ogni autovalore \lambda_i ha una sua molteplicità come radice del polinomio caratteristico, detta molteplicità algebrica.[5] Un autovalore con molteplicità algebrica 1 si dice semplice.

Il teorema di diagonalizzabilità fornisce un criterio necessario e sufficiente che permette di stabilire se un'applicazione lineare è diagonalizzabile. Una matrice quadrata A con n righe è diagonalizzabile se e solo se valgono entrambi i fatti seguenti:

  • La somma delle molteplicità algebriche dei suoi autovalori è n, ovvero il polinomio caratteristico può essere fattorizzato nel campo attraverso polinomi di primo grado.
  • Le molteplicità algebriche e geometriche di ogni autovalore sono coincidenti, ovvero la dimensione degli autospazi è pari alla molteplicità con la quale il relativo autovalore è radice del polinomio caratteristico. Poiché la molteplicità geometrica è sempre minore o uguale di quella algebrica, se l'applicazione ha n autovalori distinti nel campo allora è diagonalizzabile.

Teorema spettrale[modifica | modifica wikitesto]

Exquisite-kfind.png Per approfondire, vedi Teorema spettrale.

Il teorema spettrale mostra che una condizione necessaria e sufficiente affinché esista una base ortonormale di autovettori di un endomorfismo è che esso sia autoaggiunto. Il teorema può essere esteso al caso complesso, dove l'enunciato vale per la classe più generale degli operatori normali.

Caso finito-dimensionale[modifica | modifica wikitesto]

Sia T un endomorfismo su uno spazio vettoriale reale V di dimensione n sul quale è definito un prodotto scalare definito positivo. Allora T è autoaggiunto se e solo se esiste una base ortonormale di V fatta di autovettori per T.[6] L'endomorfismo T è quindi diagonalizzabile.

Una versione equivalente del teorema, enunciata con le matrici, afferma che ogni matrice simmetrica è simile ad una matrice diagonale tramite una matrice ortogonale.[7]

Come conseguenza del teorema, per ogni matrice simmetrica S esistono una matrice ortogonale M ed una matrice diagonale D tali per cui:[8]

 D = M^{-1} S M = M^T S M \

In particolare, gli autovalori di una matrice simmetrica sono tutti reali.

Come conseguenza del teorema, una matrice quadrata A di rango n sul campo F è diagonalizzabile se e solo se la somma delle dimensioni dei suoi autospazi è pari a n. Infatti, tale condizione si verifica se e solo se esiste una base di F^n composta da autovettori di A, e se la base esiste è possibile definire una matrice P avente i vettori di tale base come colonne: in tal caso P^{-1}AP è diagonale, e gli elementi della diagonale sono gli autovalori di A. Le condizioni di diagonalizzabilità per le applicazioni lineari sono equivalenti a quelle per le matrici rappresentative.

Caso infinito-dimensionale[modifica | modifica wikitesto]

Il caso infinito-dimensionale costituisce una generalizzazione del caso precedente, ed esistono diverse formulazioni del teorema a seconda della classe di operatori che si vuole considerare. La principale distinzione riguarda gli operatori limitati e non limitati.

Il teorema spettrale afferma che un operatore limitato e autoaggiunto A definito su uno spazio di Hilbert H è un operatore di moltiplicazione.

In modo equivalente, esiste una famiglia di misure \{\mu_n \} sullo spettro  \sigma(A) di A ed esiste un operatore unitario:

U:H \to \bigoplus_{n=1}^N L^2(\R,d\mu_n)

tali che:[9]

(UAU^{-1} \psi)_n (\lambda) = \lambda \psi_n(\lambda)

con:

 \psi = \{ \psi_n(\lambda) \} \in \bigoplus_{n=1}^N L^2(\R,d\mu_n)

Una tale scrittura di A è detta rappresentazione spettrale dell'operatore.

Come corollario, segue che esiste una misura \mu su uno spazio di misura M ed esiste un operatore unitario:

U:H \to L^2(M,d\mu)

tali che:[10]

(UAU^{-1} f)(x) = F(x)f(x) \

per una qualche funzione misurabile limitata ed a valori reali F su M.

Decomposizione spettrale[modifica | modifica wikitesto]

Il teorema spettrale fornisce le condizioni per cui sia possibile diagonalizzare un operatore rispetto ad una base ortonormale. Quando questo risulta possibile nel caso finito-dimensionale, ad autovalori distinti corrispondono autovettori mutuamente ortogonali, e pertanto gli autospazi sono in somma diretta. Un operatore normale può, di conseguenza, essere scritto come una combinazione lineare di proiettori ortogonali sugli autospazi, i cui coefficienti sono gli autovalori relativi ad ogni autospazio.

Nel caso infinito-dimensionale la normalità, ed in particolare l'autoaggiuntezza, non garantisce la diagonalizzabilità. In generale un operatore normale non può essere più scritto come combinazione lineare di proiettori ortogonali. Attraverso la misura a valori di proiettore è tuttavia possibile ottenere una scrittura integrale che permette di descrivere l'operatore in termini del suo spettro.

Caso finito-dimensionale[modifica | modifica wikitesto]

Exquisite-kfind.png Per approfondire, vedi Proiezione ortogonale.

Come conseguenza del teorema spettrale, sia nel caso reale che nel caso complesso, il teorema di decomposizione spettrale afferma che gli autospazi di T sono ortogonali e in somma diretta:

 V = V_{\lambda_1}\oplus\ldots\oplus V_{\lambda_k}

Equivalentemente, se P_\lambda è la proiezione ortogonale su V_\lambda, si ha:

 A =\lambda_1 P_{\lambda_1} +\cdots+\lambda_k P_{\lambda_k} \qquad P_\lambda  P_\mu=0 \quad \lambda \neq \mu

La decomposizione spettrale è un caso particolare della decomposizione di Schur. È anche un caso particolare della decomposizione ai valori singolari.

Caso infinito-dimensionale[modifica | modifica wikitesto]

Exquisite-kfind.png Per approfondire, vedi Misura a valori di proiettore.

Sia A un operatore normale limitato definito su uno spazio di Hilbert H. Il teorema di decomposizione spettrale per operatori normali afferma che esiste un'unica misura a valori di proiettore P^A tale per cui:

A = \int_{\sigma(A)} z dP^A(x,y) \qquad z := (x,y) \to x+iy \in \C \quad (x,y) \in \R^2

dove \sigma(A) = \mbox{supp}(P^A) è lo spettro di A. Si dice che P^A è la misura a valori di proiettore associata ad A.

In particolare, se A è un operatore autoaggiunto si può definire una misura a valori di proiettore limitata:

P^A(\Omega) = \chi_\Omega(A) \

definita sullo spettro \sigma(A) di A, in cui \chi_\Omega è la funzione indicatrice. Tale misura può essere univocamente associata ad A nel seguente modo:

 (\phi, f(A) \psi) := \int_{\sigma(A)} f(\lambda) d (\phi, P^A (\lambda) \psi) \quad \forall \phi,\psi \in H

per ogni funzione misurabile limitata f, e in tal caso si ha:

A = \int_{\sigma(A)} \lambda d P^A \qquad f(A) = \int_{\sigma(A)} f(\lambda) d P^A

La formula a sinistra è detta diagonalizzazione di A.[11]

Se da un lato è possibile definire univocamente un operatore autoaggiunto (o, più in generale, un operatore normale) A a partire da una misura a valori di proiettore, dall'altro se è possibile diagonalizzare A tramite una misura a valori di proiettore limitata P^A allora P^A è la misura a valori di proiettore associata univocamente ad A.

Operatori non limitati[modifica | modifica wikitesto]

Exquisite-kfind.png Per approfondire, vedi Trasformata di Cayley.

Si consideri un operatore autoaggiunto A non limitato. Attraverso la trasformata di Cayley U(A) associata ad A:

 U(A) = (A - \bold{i}I) (A + \bold{i}I)^{-1} \qquad A = \bold{i}(I + U(A)) (I - U(A))^{-1}

è possibile definire, a partire da A, una misura a valori di proiettore P^{U(A)} nel modo seguente:

P^A(\Omega) := P^{U(A)}(U(\Omega)) \qquad \Omega \subset \sigma(A)

L'insieme \Omega è un borelliano contenuto nello spettro (reale) \sigma(A) di A, e U(\Omega) è il risultato ottenuto applicando la trasformata di Cayley su \C.

Si dimostra che se la funzione identità, definita su \sigma(A), è di classe L^2 rispetto alla misura (x,P^A(\Omega)x), allora P^{U(A)} definisce una misura a valori di proiettore su \sigma(A).

In particolare, è possibile scrivere:

A = \int_{\sigma(A)} \lambda d P^A (\lambda)

Anche nel caso di A non limitato la corrispondenza tra A ed una misura a valori di proiettore è biunivoca.

Esempi[modifica | modifica wikitesto]

Esempio di calcolo[modifica | modifica wikitesto]

Si consideri la matrice:

A=\begin{bmatrix}
1 & 2  & 0 \\
0 & 3  & 0 \\
2 & -4 & 2 \end{bmatrix}

Il polinomio caratteristico è:

\det(A-\lambda I)=\det\begin{bmatrix}
1-\lambda & 2  & 0 \\
0 & 3-\lambda  & 0 \\
2 & -4 & 2-\lambda \end{bmatrix} = (2-\lambda) \det\begin{bmatrix}
1-\lambda & 2 \\
0 & 3-\lambda \end{bmatrix} = (1-\lambda)(2-\lambda)(3-\lambda)

che si annulla per gli autovalori:

 \lambda_1 = 3 \quad \lambda_2 = 2 \quad \lambda_3= 1

Quindi ha 3 autovalori distinti. Per il primo criterio esposto precedentemente, la matrice è diagonalizzabile.

Se si è interessati a trovare esplicitamente una base di autovettori si deve fare del lavoro ulteriore: per ogni autovalore, si imposta l'equazione A v_k = \lambda_k v_k e si risolve cercando i valori del vettore  v_k che la soddisfano, sostituendo volta per volta i tre autovalori precedentemente calcolati.

Una base di autovettori per esempio è data da:

 v_1 = \begin{bmatrix} -1 \\ -1 \\ 2 \end{bmatrix} \quad v_2 = \begin{bmatrix} 0 \\ 0 \\ 1 \end{bmatrix} \quad v_3 = \begin{bmatrix} -1 \\ 0 \\ 2 \end{bmatrix}

Si vede facilmente che sono indipendenti, quindi formano una base, e che sono autovettori, infatti A v_k = \lambda_k v_k\;.

Si può scrivere esplicitamente la matrice di cambiamento di base incolonnando i vettori trovati:

P=
\begin{bmatrix}
-1 & 0 & -1 \\
-1 & 0  & 0 \\
2 & 1 & 2 \end{bmatrix}

Quindi la matrice invertibile P diagonalizza A, come si verifica calcolando:

P^{-1}AP =
\begin{bmatrix}
0 & -1 & 0 \\
2 & 0  & 1 \\
-1 & 1 & 0 \end{bmatrix}
\begin{bmatrix}
1 & 2  & 0 \\
0 & 3  & 0 \\
2 & -4 & 2 \end{bmatrix}
\begin{bmatrix}
-1 & 0 & -1 \\
-1 & 0  & 0 \\
2 & 1 & 2 \end{bmatrix} =
\begin{bmatrix}
3 & 0 & 0 \\
0 & 2 & 0 \\
0 & 0 & 1\end{bmatrix}

La matrice finale deve essere diagonale e contenere gli autovalori, ciascuno con la sua molteplicità. È utile osservare come al variare dell'ordine dei vettori colonna in P varia l'ordine degli autovalori nella matrice D; in particolare all'autovalore dell'n-esima colonna di D è associato un autovettore del suo autospazio nell'n-esima colonna di P.

Numeri complessi[modifica | modifica wikitesto]

Se il campo su cui si lavora è quello dei numeri complessi, una matrice n per n ha n autovalori (contando ciascuno con la relativa molteplicità, per il teorema fondamentale dell'algebra). Se le molteplicità sono tutte 1, la matrice è diagonalizzabile. Altrimenti, dipende. Un esempio di matrice complessa non diagonalizzabile è descritto sotto.

Il fatto che vi siano comunque n autovalori implica che è sempre possibile ridurre una matrice complessa ad una forma triangolare: questa proprietà, più debole della diagonalizzabilità, è detta triangolarizzabilità.

Numeri reali[modifica | modifica wikitesto]

Sui numeri reali le cose cambiano, perché la somma delle molteplicità di un polinomio di grado n può essere inferiore a n. Ad esempio la matrice:

 B = \begin{bmatrix} 0 & 1 \\ -1 & 0 \end{bmatrix}

non ha autovalori, perché il suo polinomio caratteristico  p(x) = x^2 + 1 non ha radici reali. Quindi non esiste nessuna matrice reale Q tale che Q^{-1}BQ sia diagonale! D'altro canto, la stessa matrice B vista con i numeri complessi ha due autovalori distinti i e -i, e quindi è diagonalizzabile. Infatti prendendo:

 Q = \begin{bmatrix} 1 & \textrm{i} \\ \textrm{i} & 1 \end{bmatrix}

si trova che Q^{-1}BQ è diagonale. La matrice B considerata sui reali invece non è neppure triangolabile.

Ci sono anche matrici che non sono diagonalizzabili né sui reali né sui complessi. Questo accade in alcuni casi, in cui ci sono degli autovalori con molteplicità maggiore di uno. Ad esempio, si consideri:

 C = \begin{bmatrix} 0 & 1 \\ 0 & 0 \end{bmatrix}

Questa matrice non è diagonalizzabile: ha 0 come unico autovalore con molteplicità 2, e se fosse diagonalizzabile sarebbe simile alla matrice nulla, cosa impossibile a prescindere dal campo reale o complesso.

Note[modifica | modifica wikitesto]

  1. ^ F. Odetti, Pag. 246
  2. ^ S. Lang, Pag. 114
  3. ^ S. Lang, Pag. 115
  4. ^ S. Lang, Pag. 228
  5. ^ S. Lang, Pag. 230
  6. ^ S. Lang, Pag. 245
  7. ^ S. Lang, Pag. 248
  8. ^ S. Lang, Pag. 246
  9. ^ Reed, Simon, Pag. 227
  10. ^ Reed, Simon, Pag. 221
  11. ^ Reed, Simon, Pag. 234

Bibliografia[modifica | modifica wikitesto]

  • Serge Lang, Algebra lineare, Torino, Bollati Boringhieri, 1992, ISBN 88-339-5035-2.
  • (EN) Michael Reed, Barry Simon, Methods of Modern Mathematical Physics, Vol. 1: Functional Analysis, 2ª ed., San Diego, California, Academic press inc., 1980, ISBN 0-12-585050-6.
  • F. Odetti, M. Raimondo, Elementi di Algebra Lineare e Geometria Analitica, ECIG, 1992, ISBN 88-7545-717-4.
  • (EN) Roger A. Horn e Charles R. Johnson, Matrix Analysis, Cambridge University Press, 1985, ISBN 978-0-521-38632-6.

Voci correlate[modifica | modifica wikitesto]

Altri progetti[modifica | modifica wikitesto]

matematica Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica