Funzione di matrice

Da Wikipedia, l'enciclopedia libera.

In algebra lineare si può estendere il concetto di funzione alle matrici quadrate di qualsiasi ordine n attraverso l'associazione di una serie di Maclaurin ad ogni funzione, riducendola a una somma infinita di potenze di matrici:

f(A) = \sum_{k=0}^{\infin} \frac{f^{(k)}(0)}{k!} A^k

Da cui risulta già chiaro che una funzione di matrice quadrata è una matrice dello stesso ordine i cui elementi sono costituiti da una combinazione lineare della funzione degli elementi della matrice di partenza, mentre in generale non risultano semplicemente le funzioni dell'elemento corrispondente della matrice di partenza. Le funzioni di matrice sono impiegate in particolare per risolvere i sistemi differenziali, di cui i più semplici sono i sistemi differenziali del prim'ordine, nella cui soluzione compare in particolare la matrice esponenziale e la matrice potenza.

Limitazione della serie[modifica | modifica sorgente]

Grazie al teorema di Hamilton-Cayley nella forma:

 A^n = -\sum_{k=0}^{n-1} \alpha_k A^k

si può ridurre la procedura dal calcolo delle potenze di matrice da quello infinito fornito dalla definizione a quello di n-2 potenze (l'identità e la matrice stessa banalmente non si calcolano), pur complicandone i coefficienti: moltiplicando più volte a destra e a sinistra del segno di uguale per la matrice A, è facile verificare che ogni potenza A^{n+k} può essere espressa come combinazione lineare delle sole prime n-1 matrici.

 f(A) = \sum_{k=0}^{n-1} \alpha_k A^k,

Individuazione dei coefficienti della serie finita[modifica | modifica sorgente]

Si può osservare che ciascun autovalore λj della matrice di partenza A annulla, per definizione, il polinomio caratteristico, quindi analogamente a quanto avviene per la matrice:

 f(\lambda_j) = \sum_{k=0}^{n-1} \alpha_k \lambda_j^k,

Quindi scrivendo questa relazione per ciascun autovalore si ottiene un sistema lineare la cui matrice è quadrata di tipo Vandermonde di n-1 righe e n-1 colonne, che però non è invertibile quando esistono h<n autovalori distinti perché alcuni hanno molteplicità n_j>1 con  \sum_{j=1}^h n_j = n , in quanto le righe corrispondenti risultano ripetute:

 ([(\lambda_j^k)]^T) (\alpha_k) = (f(\lambda_j)) \qquad 0 \le k \le n-1, \, 1 \le j \le h

Si ricorre quindi al metodo dell'interpolazione polinomiale per vincolare sufficientemente il sistema, ricorrendo alle derivate successive fino alla nj-1 -esima:

 (\alpha_k) = ([(\lambda_j^k)^{(i)}]^T)^{-1} \, (f^{(i)}(\lambda_j)) \qquad 0 \le k \le n-1, \, 1 \le j \le h, \, 0 \le i \le n_j-1

Questa è una matrice invertibile di n-1 righe e n-1 colonne che definisce univocamente i coefficienti e ne permette il calcolo. Per maggiore semplicità di comprensione se ne dà la forma espansa: \begin{bmatrix}
\alpha_0 \\
\alpha_1 \\
... \\
... \\
... \\
\alpha_{n-1}
\end{bmatrix} = 
\begin{bmatrix}
1 & \lambda_1 & \lambda_1^2 & ... & \lambda_1^{n-1}\\
0 & 1 & 2 \lambda_1 & ... & (n-1)\lambda_1^{n-2}\\
... & ... & ... & ... & ... \\
0 & 0 & 0 & ... & \frac {(n-1)!}{(n-n_1)!}\lambda_1^{n-n_1}\\
1 & \lambda_2 & \lambda_2^2 & ... & \lambda_2^{n-1}\\
0 & 1 & 2 \lambda_2 & ... & (n-1)\lambda_2^{n-2}\\
... & ... & ... & ... & ... \\
0 & 0 & 0 & ... & \frac {(n-1)!}{(n-n_2)!}\lambda_1^{n-n_2}\\
... & ... & ... & ... & ... \\
1 & \lambda_h & \lambda_h^2 & ... & \lambda_h^{n-1}\\
0 & 1 & 2 \lambda_h & ... & (n-1)\lambda_h^{n-2}\\
... & ... & ... & ... & ... \\
0 & 0 & 0 & ... & \frac {(n-1)!}{(n-n_h)!}\lambda_1^{n-n_h}\\
\end{bmatrix}^{-1}

\begin{bmatrix}
f(\lambda_1) \\
f^{(1)}(\lambda_1) \\
... \\
f^{(n_1-1)}(\lambda_1) \\
f(\lambda_2) \\
f^{(1)}(\lambda_2) \\
... \\
f^{(n_2-1)}(\lambda_2) \\
... \\
f(\lambda_h) \\
f^{(1)}(\lambda_h) \\
... \\
f^{(n_h-1)}(\lambda_h) \\
\end{bmatrix}

Procedura[modifica | modifica sorgente]

In base alle considerazioni fatte, il calcolo di una funzione di matrice si compone dei seguenti sei passaggi elementari:

  • Individuazione della serie di MacLaurin associata alla funzione;
  • Calcolo degli autovalori della matrice originaria;
  • Calcolo della funzione di questi autovalori, e nel caso di autovalori con molteplicità nj dei valori assunti anche dalle derivate fino alla nj-esima compresa;
  • Calcolo dei coefficienti delle potenze come soluzione del sistema lineare di Vandermonde non omogeneo di cui sopra;
  • Calcolo delle potenze della matrice originaria come prodotto o molto più velocemente sfruttando il teorema di Hamilton-Cayley;
  • Calcolo della combinazione lineare di queste potenze con i coefficienti già calcolati.

Esempio applicativo[modifica | modifica sorgente]

Si voglia calcolare il seno di matrice:

 \sin \begin{bmatrix}
\pi & 0  \\
\frac \pi 4 & \frac \pi 2 
\end{bmatrix} = \sum_{n=0}^\infty \frac{(-1)^n \begin{bmatrix}
\pi & 0  \\
\frac \pi 4 & \frac \pi 2 
\end{bmatrix} ^{2n+1}}{(2n+1)!}

gli autovalori risultano essere λ1=π con molteplicità n1=1 e λ2=-π/2 con molteplicità n2=1 perciò i coefficienti sono:

 \begin{bmatrix}
\alpha_0 \\
\alpha_1 \end{bmatrix} = \begin{bmatrix}
1 & \pi\\
1 & -\frac \pi 2
\end{bmatrix}^{-1} \begin{bmatrix}
\mathrm \sin \pi \\
\mathrm \sin \frac \pi 2
\end{bmatrix} = \begin{bmatrix}
2 \\
- \frac 2 \pi
\end{bmatrix}

perciò risulta che:

 \sin \begin{bmatrix}
\pi & 0  \\
\frac \pi 4 & \frac \pi 2 
\end{bmatrix} = 2 \begin{bmatrix}
1 & 0  \\
0 & 1 
\end{bmatrix} - \frac 2 \pi \begin{bmatrix}
\pi & 0  \\
\frac \pi 4 & \frac \pi 2 
\end{bmatrix} = \begin{bmatrix}
0 & 0  \\
-\frac 1 2 & 1 
\end{bmatrix}

Potenza di matrice[modifica | modifica sorgente]

Anche la potenza di matrice necessaria per il calcolo di qualsiasi altra funzione diventa ottenibile molto più velocemente in base alle considerazioni precedenti, tanto più quanto minore è l'ordine della matrice n rispetto all'esponente x, ed in generale risulta conveniente rispetto allo svolgimento di tutte le semplici moltiplicazioni necessarie quando n<x+1.

In realtà per esponente intero risulta ancora di gran lunga più veloce sfruttare direttamente il teorema di Hamilton-Cayley; tuttavia questo sistema permette di generalizzare la definizione di potenza fino ad ammettere un esponente non solo complesso, ma addirittura arbitrario:

 A^x = \sum_{k=0}^{n-1} \alpha_k A^k,

dove in questo caso i coefficienti risultano:

 (\alpha_k) = ([(\lambda_j^k)^{(i)}]^T)^{-1} \, (\prod_{m=x-i+1}^{x} m \, \lambda_j^{x-i}) \qquad 0 \le k \le n-1, \, 1 \le j \le h, \, 0 \le i \le n_j-1

Per esempio si voglia calcolare:

 \begin{bmatrix}
1 & 1  \\
0 & 1 
\end{bmatrix}^x

poiché l'autovalore λ1=1 ha molteplicità n1=2 la matrice di Vandermonde risulta coincidere con la matrice originaria:

 \begin{bmatrix}
\alpha_0 \\
\alpha_1 \end{bmatrix} = \begin{bmatrix}
1 & \lambda_1  \\
0 & 1 
\end{bmatrix}^{-1} \begin{bmatrix}
\lambda_1^x \\
x \lambda_1^{x-1}
\end{bmatrix} = \begin{bmatrix}
1-x \\
x \end{bmatrix}

e quindi:

 \begin{bmatrix}
1 & 1  \\
0 & 1 
\end{bmatrix}^x = \begin{bmatrix}
1 & x  \\
0 & 1 
\end{bmatrix}

Per cui per esempio possiamo ammettere senza difficoltà che:  \begin{bmatrix}
1 & 1  \\
0 & 1 
\end{bmatrix}^\pi = \begin{bmatrix}
1 & \pi  \\
0 & 1 
\end{bmatrix}

Voci correlate[modifica | modifica sorgente]

matematica Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica