Matrice esponenziale

Da Wikipedia, l'enciclopedia libera.

1leftarrow.pngVoce principale: Funzione di matrice.

In algebra lineare, l'esponenziale di matrice è la funzione esponenziale di una matrice quadrata.

La matrice esponenziale compare ad esempio nella risoluzione dei sistemi lineari di equazioni differenziali. Ha quindi un'importante applicazione nella teoria dei sistemi e nella teoria dei controlli automatici.

Definizione[modifica | modifica sorgente]

Sia A una matrice quadrata n \times n a coefficienti reali o complessi. La matrice esponenziale di A, indicata con e^{A} , è una matrice quadrata n \times n ottenuta con lo sviluppo in serie di potenze

e^{A} = \sum_{k=0}^\infty \frac{A^k}{k!}

Questa serie è sempre convergente, quindi la matrice esponenziale è ben definita. Si nota che se A è una matrice 1 \times 1 (quindi A è un numero reale o complesso), la serie della matrice esponenziale corrisponde alla definizione formale della funzione esponenziale.

Proprietà[modifica | modifica sorgente]

Siano X e Y due matrici complesse di dimensione n \times n e siano a e b due numeri complessi. Si indica la matrice identità con I e la matrice nulla con 0. La matrice esponenziale soddisfa le seguenti proprietà:

Calcolo della matrice esponenziale[modifica | modifica sorgente]

Per il calcolo della matrice esponenziale e^A non viene utilizzata la serie di potenze dato che è costituita da una sommatoria di infiniti addendi. Utilizzando gli autovettori si ricava una serie con un numero finito di termini.

Considerando la diagonalizzabilità della matrice A si hanno due casi distinti.

Il caso di A diagonalizzabile[modifica | modifica sorgente]

Se la matrice A è diagonalizzabile significa che ha n autovettori linearmente indipendenti \vec{t_1}, \vec{t_2}, \dots ,\vec{t_n}. Si può quindi scrivere

\begin{matrix} A \vec{t_1} = \vec{t_1} \lambda_1 \\ A \vec{t_2} = \vec{t_2} \lambda_2 \\ \vdots \\ A \vec{t_n} = \vec{t_n} \lambda_n \end{matrix}


Con \vec{t_i} autovettore associato all'autovalore \lambda_i.

Si raggruppano tutti gli autovettori in un'unica matrice

[ \begin{matrix} A \vec{t_1} & \dots & A \vec{t_n} \end{matrix}] = [ \begin{matrix} \vec{t_1} \lambda_1 & \dots & \vec{t_n} \lambda_n \end{matrix}]


A [ \begin{matrix}  \vec{t_1} & \dots & \vec{t_n} \end{matrix}] = [\begin{matrix}  \vec{t_1} & \dots & \vec{t_n} \end{matrix} ] \begin{bmatrix} \lambda_1 & 0 & 0 & 0 & \dots \\ 
0 & \lambda_2 & 0 & 0 & \dots \\ 0 & 0 & \lambda_3 & 0 & \dots \\ \vdots & \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & 0 & \dots & \lambda_n \\ \end{bmatrix}


Ponendo la matrice formata dagli autovettori pari a T e la matrice diagonale degli autovalori pari a \Lambda si ottiene

A T = T \Lambda

Introducendo la matrice S, inversa di T, si ottengono le seguenti relazioni

\begin{matrix} S A T = \Lambda \\ A = T \Lambda S \\ S A = \Lambda S \end{matrix}


Dalla seconda relazione si ricava

A^k = (T \Lambda S)^k = T \cdot \Lambda \cdot S \cdot T \cdot \Lambda \cdot S \dots = T \Lambda^k S


Quindi

e^{A} = \sum_{k=0}^\infty \frac{A^k}{k!} = T \left[ \sum_{k=0}^\infty \frac{\Lambda^k}{k!} \right] S = T e^\Lambda S


Si calcola e^\Lambda

e^\Lambda = \sum_{k=0}^\infty \frac{\Lambda^k}{k!} = I + \begin{bmatrix} \lambda_1 & 0 & 0 & \dots \\ 
0 & \lambda_2 & 0 & \dots \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \dots & \lambda_n \\ \end{bmatrix} \frac{1}{1!} + \begin{bmatrix} \lambda_1^2 & 0 & 0 & \dots \\ 
0 & \lambda_2^2 & 0 & \dots \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \dots & \lambda_n^2 \\ \end{bmatrix} \frac{1}{2!} + \dots =
= \begin{bmatrix} 1 + \frac{\lambda_1}{1!} + \frac{\lambda_1^2}{2!} + \dots & 0 & 0 & \dots \\ 
0 & 1 + \frac{\lambda_2}{1!} + \frac{\lambda_2^2}{2!} + \dots  & 0 & \dots \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \dots & 1 + \frac{\lambda_n}{1!} + \frac{\lambda_n^2}{2!} + \dots  \\ \end{bmatrix} = \begin{bmatrix} e^{\lambda_1} & 0 & 0 & \dots \\ 
0 & e^{\lambda_2} & 0 & \dots \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \dots & e^{\lambda_n} \\ \end{bmatrix}


Si considera ora l'ultima relazione precedentemente ricavata e si applica la trasposta

S A = \Lambda S \Rightarrow (S A)^T = (\Lambda S)^T \Rightarrow A^T S^T = S^T \Lambda^T \Rightarrow A^T S^T = S^T \Lambda


Si può quindi scrivere

A^T [ \begin{matrix}  \vec{s_1^T} & \dots & \vec{s_n^T} \end{matrix}] = [\begin{matrix}  \vec{s_1^T} & \dots & \vec{s_n^T} \end{matrix} ] \begin{bmatrix} \lambda_1 & 0 & 0 & 0 & \dots \\ 
0 & \lambda_2 & 0 & 0 & \dots \\ 0 & 0 & \lambda_3 & 0 & \dots \\ \vdots & \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & 0 & \dots & \lambda_n \\ \end{bmatrix}


Si nota quindi che gli \vec{s_n^T} sono autovettori sinistri di A. Si può quindi partizionare la matrice S per righe

S = \left[ \begin{matrix}  \vec{s_1^T} \\ \vec{s_2^T} \\ \vdots \\ \vec{s_n^T} \end{matrix} \right]

In questo modo si ottiene

e^A = [\begin{matrix}  \vec{t_1} & \dots & \vec{t_n} \end{matrix} ] \begin{bmatrix} e^{\lambda_1} & 0 & \dots \\ \vdots & \ddots & \vdots \\ 0 & \dots & e^{\lambda_n} \\ \end{bmatrix} \left[ \begin{matrix}  \vec{s_1^T} \\ \vdots \\ \vec{s_n^T} \end{matrix} \right] = \vec{t_1}e^{\lambda_1} \vec{s_1^T} + \vec{t_2}e^{\lambda_2} \vec{s_2^T} + \dots + \vec{t_n}e^{\lambda_n} \vec{s_n^T}


In conclusione, nel caso A sia diagonalizzabile, si ha

e^A = \sum_{k=1}^n \vec{t_k} \cdot \vec{s_k^T} \cdot e^{\lambda_k}

con \vec{t_k} autovettore destro e \vec{s_k^T} autovettore sinistro, entrambi associati all'autovalore \lambda_k

Il caso di A non diagonalizzabile[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi forma canonica di Jordan.

Se A non è diagonalizzabile si ricorre alla forma di Jordan.

In questo caso si ha A = T J S  , con J matrice diagonale a blocchi

J = \begin{bmatrix} J_1 & 0 & 0 & \cdots \\ 0 & J_2 & 0 & \cdots \\ \vdots & \vdots & \ddots & \cdots \\ 0 & 0 & \cdots & J_k \end{bmatrix}

dove il k-esimo blocco è della forma

J_k = \begin{bmatrix} \lambda_k & 1 & 0 & \cdots \\ 0 & \lambda_k & 1 & \cdots \\ \vdots & \vdots & \ddots & 1 \\ 0 & 0 & \cdots & \lambda_k \end{bmatrix} = \begin{bmatrix} \lambda_k & 0 & 0 & \cdots \\ 0 & \lambda_k & 0 & \cdots \\ \vdots & \vdots & \ddots & 0 \\ 0 & 0 & \cdots & \lambda_k \end{bmatrix} + \begin{bmatrix} 0 & 1 & 0 & \cdots \\ 0 & 0 & 1 & \cdots \\ \vdots & \vdots & \ddots & 1 \\ 0 & 0 & \cdots & 0 \end{bmatrix} = \Lambda_k + J_{k0}

Le matrici J_k vengono detti blocchi di Jordan.

Utilizzando il procedimento seguito nel caso di A diagonalizzabile si ottiene

e^A = T e^J S

dove

e^J = \begin{bmatrix} e^{J_1} & 0 & 0 & \cdots \\ 0 & e^{J_2} & 0 & \cdots \\ \vdots & \vdots & \ddots & \cdots \\ 0 & 0 & \cdots & e^{J_k} \end{bmatrix}

Si nota che il prodotto delle matrici \Lambda_k e J_{k0} è commutativo. Si può quindi scrivere

e^{J_k} = e^{\lambda_k I}e^{J_{k0}}

Si calcola ora e^{J_{k0}}

e^{J_{k0}} = \sum_{k=0}^\infty \frac{J_{k0}^k}{k!}

Si verifica facilmente che J_{k0}^k si calcola spostando in alto e a destra la diagonale formata dagli 1

J_{k0} = \begin{bmatrix} 0 & 1 & 0 & 0 & \dots \\ 0 & 0 & 1 & 0 & \dots \\ 0 & 0 & 0 & 1 & \dots \\ \vdots & \vdots & \vdots & \ddots & 1 \\ 0 & 0 & 0 & \dots & 0 \end{bmatrix}, J_{k0}^2 = \begin{bmatrix} 0 & 0 & 1 & \dots & 0 \\ 0 & 0 & 0 & 1 & \vdots \\ 0 & 0 & 0 & \dots & \vdots \\ \vdots & \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & 0 & \dots & 0 \end{bmatrix}
J_{k0}^{\nu_k - 1} = \begin{bmatrix} 0 & 0 & 0 & \dots & 1 \\ 0 & 0 & 0 & \dots & 0 \\ 0 & 0 & 0 & \dots & 0 \\ \vdots & \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & 0 & \dots & 0 \end{bmatrix}, J_{k0}^{\nu_k} = \begin{bmatrix} 0 & 0 & 0 & \dots & 0 \\ 0 & 0 & 0 & \dots & 0 \\ 0 & 0 & 0 & \dots & 0 \\ \vdots & \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & 0 & \dots & 0 \end{bmatrix}

Dove \nu_k è la dimensione di J_k0. Per potenze superiori a \nu_k si ha la matrice nulla.

Quindi

e^{J_{k0}} = \sum_{k=0}^{\nu_k - 1} \frac{J_{k0}^k}{k!}

Inoltre

e^{\lambda_k I} = \begin{bmatrix} e^{\lambda_k} & 0 & 0 & 0 & \dots \\ 0 & e^{\lambda_k} & 0 & 0 & \dots \\ 0 & 0 & e^{\lambda_k} & 0 & \dots \\ \vdots & \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & 0 & \dots & 0 \end{bmatrix} = e^{\lambda_k}I

Quindi il k-esimo blocco di e^{J} ha la seguente espressione

e^{J_k} = e^{\lambda_k I}e^{J_{k0}} = \sum_{k=0}^{\nu_k - 1} \frac{J_{k0}^k}{k!}e^{\lambda_k}

La matrice esponenziale vale

e^A = [\begin{matrix}  T_1 & \dots & T_s \end{matrix} ] \begin{bmatrix} e^{J_1} & 0 & \dots \\ \vdots & \ddots & \vdots \\ 0 & \dots & e^{J_n} \\ \end{bmatrix} \left[ \begin{matrix}  S_1^T \\ \vdots \\ S_s^T \end{matrix} \right] = \sum_{k=1}^s[ T_k e^{J_k}S_k^T ] = \sum_{k=1}^s \sum_{i=1}^{\nu_k - 1} \frac{T_k J_{k0}^i S_k^T}{i!}e^{\lambda_k}

dove T_k \in \mathbb{R}^{n \times \nu_k} e S_k^T \in \mathbb{R}^{\nu_k \times n}.

T non è costituita dagli autovettori di A. Il calcolo della matrice di trasformazione T è più complesso rispetto al caso di A diagonalizzabile.


Voci correlate[modifica | modifica sorgente]

Collegamenti esterni[modifica | modifica sorgente]


matematica Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica