Matrice esponenziale

Da Wikipedia, l'enciclopedia libera.

In algebra lineare, l'esponenziale di matrice è la funzione di matrice corrispondente alla funzione esponenziale di una matrice quadrata.

La matrice esponenziale compare ad esempio nella risoluzione dei sistemi lineari di equazioni differenziali. Ha quindi un'importante applicazione nella teoria dei sistemi e nella teoria dei controlli automatici.

Definizione[modifica | modifica wikitesto]

Sia A una matrice quadrata n \times n a coefficienti reali o complessi. La matrice esponenziale di A, indicata con e^{A} , è una matrice quadrata n \times n ottenuta con lo sviluppo in serie di potenze:

e^{A} = \sum_{k=0}^\infty \frac{A^k}{k!}

Si tratta di una serie che è sempre convergente, quindi la matrice esponenziale è ben definita. Si nota che se A è una matrice 1 \times 1 (quindi A è un numero reale o complesso), la serie della matrice esponenziale corrisponde alla definizione formale della funzione esponenziale.

Proprietà[modifica | modifica wikitesto]

La matrice esponenziale definisce una mappa:

\exp \colon M_n(\mathbb C) \to \mathrm{GL}(n,\mathbb C)

dallo spazio delle matrici n \times n al gruppo generale lineare di grado n, ovvero il gruppo delle matrici invertibili. Si tratta di una mappa suriettiva, infatti ogni matrice invertibile può essere scritta come l'esponenziale di qualche altra matrice (considerando il campo complesso).

Date due matrici X e Y, si ha:

 \| e^{X+Y} - e^X \| \le \|Y\| e^{\|X\|} e^{\|Y\|}

con  \|  \| la norma matriciale. Segue che la matrice esponenziale è continua e lipschitziana su sottoinsiemi compatti di M_n(\C).

Siano X e Y due matrici complesse di dimensione n \times n e siano a e b due numeri complessi. Si indica la matrice identità con I e la matrice nulla con 0. La matrice esponenziale soddisfa le seguenti proprietà:

Derivata[modifica | modifica wikitesto]

La mappa:

t \mapsto e^{tX} \qquad t \in \mathbb R

definisce una curva liscia nel gruppo generale lineare che passa per l'identità se t=0. La derivata in t è data da:

\frac{d}{dt}e^{tX} = Xe^{tX} = e^{tX}X

Più in generale, per un esponente dipendente da t:

\frac{d}{dt}e^{X(t)} = \int_0^1 e^{\alpha X(t)} \frac{dX(t)}{dt} e^{(1-\alpha) X(t)}\,d\alpha

Portanto e^{X(t)} fuori dall'integrale, ed espandendo quest'ultimo tramite la formula di Baker-Campbell-Hausdorff, si ottiene l'espressione:

\left(\frac{d}{dt}e^{X(t)}\right)e^{-X(t)} = \frac{d}{dt}X(t) + \frac{1}{2!}[X(t),\frac{d}{dt}X(t)] + \frac{1}{3!}[X(t),[X(t),\frac{d}{dt}X(t)]]+\cdots

Determinante[modifica | modifica wikitesto]

Per ogni matrice quadrata sul campo dei numeri complessi si ha, grazie alla formula di Jacobi:

 \det (e^A)= e^{\operatorname{tr}(A)}

Tale formula mostra che una matrice esponenziale è sempre invertibile, dato che il termine a destra non è mai nullo e quindi il determinante non è mai nullo.

Nel campo dei numeri reali la mappa:

\exp \colon M_n(\mathbb R) \to \mathrm{GL}(n,\mathbb R)

non è invece suriettiva.

Calcolo della matrice esponenziale[modifica | modifica wikitesto]

Per il calcolo della matrice esponenziale e^A non viene utilizzata la serie di potenze dato che è costituita da una sommatoria di infiniti addendi. Utilizzando gli autovettori si ricava una serie con un numero finito di termini.

Considerando la diagonalizzabilità della matrice A si hanno due casi distinti.

Il caso di A diagonalizzabile[modifica | modifica wikitesto]

Se la matrice A è diagonalizzabile significa che ha n autovettori linearmente indipendenti \mathbf{t}_1, \mathbf{t}_2, \dots ,\mathbf{t}_n. Si può quindi scrivere:

\begin{matrix} A \mathbf{t}_1 = \mathbf{t}_1 \lambda_1 \\ A \mathbf{t}_2 = \mathbf{t}_2 \lambda_2 \\ \vdots \\ A \mathbf{t}_n = \mathbf{t}_n \lambda_n \end{matrix}

Con \mathbf{t}_i autovettore associato all'autovalore \lambda_i. Si raggruppano tutti gli autovettori in un'unica matrice:

[ \begin{matrix} A \mathbf{t}_1 & \dots & A \mathbf{t}_n \end{matrix}] = [ \begin{matrix} \mathbf{t}_1 \lambda_1 & \dots & \mathbf{t}_n \lambda_n \end{matrix}]
A [ \begin{matrix}  \mathbf{t}_1 & \dots & \mathbf{t}_n \end{matrix}] = [\begin{matrix}  \mathbf{t}_1 & \dots & \mathbf{t}_n \end{matrix} ] \begin{bmatrix} \lambda_1 & 0 & 0 & 0 & \dots \\ 
0 & \lambda_2 & 0 & 0 & \dots \\ 0 & 0 & \lambda_3 & 0 & \dots \\ \vdots & \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & 0 & \dots & \lambda_n \\ \end{bmatrix}

Ponendo la matrice formata dagli autovettori pari a T e la matrice diagonale degli autovalori pari a \Lambda si ottiene:

A T = T \Lambda

Introducendo la matrice S=T^{-1}, inversa di T, si ottengono le seguenti relazioni:

 S A T = \Lambda \qquad A = T \Lambda S \qquad S A = \Lambda S

Dalla seconda relazione si ricava:

A^k = (T \Lambda S)^k = T \cdot \Lambda \cdot S \cdot T \cdot \Lambda \cdot S \dots = T \Lambda^k S

Quindi:

e^{A} = \sum_{k=0}^\infty \frac{A^k}{k!} = T \left[ \sum_{k=0}^\infty \frac{\Lambda^k}{k!} \right] S = T e^\Lambda S

Si calcola e^\Lambda:

e^\Lambda = \sum_{k=0}^\infty \frac{\Lambda^k}{k!} = I + \begin{bmatrix} \lambda_1 & 0 & 0 & \dots \\ 
0 & \lambda_2 & 0 & \dots \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \dots & \lambda_n \\ \end{bmatrix} \frac{1}{1!} + \begin{bmatrix} \lambda_1^2 & 0 & 0 & \dots \\ 
0 & \lambda_2^2 & 0 & \dots \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \dots & \lambda_n^2 \\ \end{bmatrix} \frac{1}{2!} + \dots =
= \begin{bmatrix} 1 + \frac{\lambda_1}{1!} + \frac{\lambda_1^2}{2!} + \dots & 0 & 0 & \dots \\ 
0 & 1 + \frac{\lambda_2}{1!} + \frac{\lambda_2^2}{2!} + \dots  & 0 & \dots \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \dots & 1 + \frac{\lambda_n}{1!} + \frac{\lambda_n^2}{2!} + \dots  \\ \end{bmatrix} = \begin{bmatrix} e^{\lambda_1} & 0 & 0 & \dots \\ 
0 & e^{\lambda_2} & 0 & \dots \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \dots & e^{\lambda_n} \\ \end{bmatrix}

Si considera ora l'ultima relazione precedentemente ricavata e si applica la trasposta:

S A = \Lambda S \Rightarrow (S A)^T = (\Lambda S)^T \Rightarrow A^T S^T = S^T \Lambda^T \Rightarrow A^T S^T = S^T \Lambda

Si può quindi scrivere:

A^T [ \begin{matrix}  \mathbf{s}_1^T & \dots & \mathbf{s}_n^T \end{matrix}] = [\begin{matrix}  \mathbf{s}_1^T & \dots & \mathbf{s}_n^T \end{matrix} ] \begin{bmatrix} \lambda_1 & 0 & 0 & 0 & \dots \\ 
0 & \lambda_2 & 0 & 0 & \dots \\ 0 & 0 & \lambda_3 & 0 & \dots \\ \vdots & \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & 0 & \dots & \lambda_n \\ \end{bmatrix}

Si nota quindi che gli \mathbf{s}_n^T sono autovettori sinistri di A. Si può quindi partizionare la matrice S per righe:

S = \left[ \begin{matrix}  \mathbf{s}_1^T \\ \mathbf{s}_2^T \\ \vdots \\ \mathbf{s}_n^T \end{matrix} \right]

In questo modo si ottiene:

e^A = [\begin{matrix}  \mathbf{t}_1 & \dots & \mathbf{t}_n \end{matrix} ] \begin{bmatrix} e^{\lambda_1} & 0 & \dots \\ \vdots & \ddots & \vdots \\ 0 & \dots & e^{\lambda_n} \\ \end{bmatrix} \left[ \begin{matrix}  \mathbf{s}_1^T \\ \vdots \\ \mathbf{s}_n^T \end{matrix} \right] = \mathbf{t}_1 e^{\lambda_1} \mathbf{s}_1^T + \mathbf{t}_2 e^{\lambda}_2 \mathbf{s}_2^T + \dots + \mathbf{t}_n e^{\lambda_n} \mathbf{s}_n^T


In conclusione, nel caso A sia diagonalizzabile, si ha:

e^A = \sum_{k=1}^n \mathbf{t}_k \cdot \mathbf{s}_k^T \cdot e^{\lambda_k}

con \mathbf{t}_k autovettore destro e \mathbf{s}_k^T autovettore sinistro, entrambi associati all'autovalore \lambda_k

Il caso di A non diagonalizzabile[modifica | modifica wikitesto]

Exquisite-kfind.png Per approfondire, vedi Forma canonica di Jordan.

Se A non è diagonalizzabile si ricorre alla forma di Jordan. In questo caso si ha A = T J S  , con J matrice diagonale a blocchi:

J = \begin{bmatrix} J_1 & 0 & 0 & \cdots \\ 0 & J_2 & 0 & \cdots \\ \vdots & \vdots & \ddots & \cdots \\ 0 & 0 & \cdots & J_k \end{bmatrix}

dove il k-esimo blocco è della forma:

J_k = \begin{bmatrix} \lambda_k & 1 & 0 & \cdots \\ 0 & \lambda_k & 1 & \cdots \\ \vdots & \vdots & \ddots & 1 \\ 0 & 0 & \cdots & \lambda_k \end{bmatrix} = \begin{bmatrix} \lambda_k & 0 & 0 & \cdots \\ 0 & \lambda_k & 0 & \cdots \\ \vdots & \vdots & \ddots & 0 \\ 0 & 0 & \cdots & \lambda_k \end{bmatrix} + \begin{bmatrix} 0 & 1 & 0 & \cdots \\ 0 & 0 & 1 & \cdots \\ \vdots & \vdots & \ddots & 1 \\ 0 & 0 & \cdots & 0 \end{bmatrix} = \Lambda_k + J_{k0}

Le matrici J_k vengono detti blocchi di Jordan. Utilizzando il procedimento seguito nel caso di A diagonalizzabile si ottiene:

e^A = T e^J S

dove:

e^J = \begin{bmatrix} e^{J_1} & 0 & 0 & \cdots \\ 0 & e^{J_2} & 0 & \cdots \\ \vdots & \vdots & \ddots & \cdots \\ 0 & 0 & \cdots & e^{J_k} \end{bmatrix}

Si nota che il prodotto delle matrici \Lambda_k e J_{k0} è commutativo. Si può quindi scrivere:

e^{J_k} = e^{\lambda_k I}e^{J_{k0}}

Si calcola ora e^{J_{k0}}:

e^{J_{k0}} = \sum_{k=0}^\infty \frac{J_{k0}^k}{k!}

Si verifica facilmente che J_{k0}^k si calcola spostando in alto e a destra la diagonale formata dagli 1:

J_{k0} = \begin{bmatrix} 0 & 1 & 0 & 0 & \dots \\ 0 & 0 & 1 & 0 & \dots \\ 0 & 0 & 0 & 1 & \dots \\ \vdots & \vdots & \vdots & \ddots & 1 \\ 0 & 0 & 0 & \dots & 0 \end{bmatrix} \qquad J_{k0}^2 = \begin{bmatrix} 0 & 0 & 1 & \dots & 0 \\ 0 & 0 & 0 & 1 & \vdots \\ 0 & 0 & 0 & \dots & \vdots \\ \vdots & \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & 0 & \dots & 0 \end{bmatrix}
J_{k0}^{\nu_k - 1} = \begin{bmatrix} 0 & 0 & 0 & \dots & 1 \\ 0 & 0 & 0 & \dots & 0 \\ 0 & 0 & 0 & \dots & 0 \\ \vdots & \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & 0 & \dots & 0 \end{bmatrix} \qquad J_{k0}^{\nu_k} = \begin{bmatrix} 0 & 0 & 0 & \dots & 0 \\ 0 & 0 & 0 & \dots & 0 \\ 0 & 0 & 0 & \dots & 0 \\ \vdots & \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & 0 & \dots & 0 \end{bmatrix}

Dove \nu_k è la dimensione di J_{k0}. Per potenze superiori a \nu_k si ha la matrice nulla.

Quindi:

e^{J_{k0}} = \sum_{k=0}^{\nu_k - 1} \frac{J_{k0}^k}{k!}

Inoltre:

e^{\lambda_k I} = \begin{bmatrix} e^{\lambda_k} & 0 & 0 & 0 & \dots \\ 0 & e^{\lambda_k} & 0 & 0 & \dots \\ 0 & 0 & e^{\lambda_k} & 0 & \dots \\ \vdots & \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & 0 & \dots & 0 \end{bmatrix} = e^{\lambda_k}I

Quindi il k-esimo blocco di e^{J} ha la seguente espressione:

e^{J_k} = e^{\lambda_k I}e^{J_{k0}} = \sum_{k=0}^{\nu_k - 1} \frac{J_{k0}^k}{k!}e^{\lambda_k}

La matrice esponenziale vale:

e^A = [\begin{matrix}  T_1 & \dots & T_s \end{matrix} ] \begin{bmatrix} e^{J_1} & 0 & \dots \\ \vdots & \ddots & \vdots \\ 0 & \dots & e^{J_n} \\ \end{bmatrix} \left[ \begin{matrix}  S_1^T \\ \vdots \\ S_s^T \end{matrix} \right] = \sum_{k=1}^s[ T_k e^{J_k}S_k^T ] = \sum_{k=1}^s \sum_{i=1}^{\nu_k - 1} \frac{T_k J_{k0}^i S_k^T}{i!}e^{\lambda_k}

dove T_k \in \mathbb{R}^{n \times \nu_k} e S_k^T \in \mathbb{R}^{\nu_k \times n}. La matrice T non è costituita dagli autovettori di A. Il calcolo della matrice di trasformazione T è più complesso rispetto al caso di A diagonalizzabile.

Applicazione ai sistemi di equazioni differenziali[modifica | modifica wikitesto]

La funzione esponenziale di una matrice viene frequentemente utilizzata per risolvere sistemi di equazioni differenziali. La soluzione di:

 \frac{d}{dt} y(t) = Ay(t) \qquad y(0) = y_0

con A una matrice cotante, è data da:

 y(t) = e^{At} y_0

Si può anche utilizzare la funzione esponenziale di una matrice per studiare l'equazione non omogenea:

 \frac{d}{dt} y(t) = Ay(t) + z(t) \qquad y(0) = y_0

Non esiste invece nessuna soluzione in forma chiusa per equazioni del tipo:

 \frac{d}{dt} y(t) = A(t) \, y(t) \qquad y(0) = y_0

con A non costante, tuttavia è possibile trovare una soluzione nella forma di somma infinita.

Bibliografia[modifica | modifica wikitesto]

Voci correlate[modifica | modifica wikitesto]

Collegamenti esterni[modifica | modifica wikitesto]

matematica Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica