Matrice invertibile

Da Wikipedia, l'enciclopedia libera.

In matematica, in particolare in algebra lineare, una matrice quadrata è detta invertibile o regolare se esiste un'altra matrice tale che il prodotto matriciale tra le due restituisce la matrice identità.

Definizione[modifica | modifica sorgente]

Una matrice quadrata A_{n \times n} è detta invertibile se esiste una matrice B_{n \times n} tale che:[1]

AB = BA = I_n

dove I_n denota la matrice identità {n \times n} e la moltiplicazione usata è l'ordinaria moltiplicazione di matrici.

Se è questo il caso, allora la matrice  B è univocamente determinata da  A ed è chiamata l'inversa di  A , indicata con  A^{-1} .

Nella definizione, le matrici A e B hanno valori in un anello con unità.

Definizioni equivalenti[modifica | modifica sorgente]

Una matrice A è singolare se ha determinante uguale a zero. Tra le affermazioni elencate sotto, la più importante dice che se A ha valori in un campo, come ad esempio quello dei numeri reali o complessi, la matrice è invertibile se e solo se non è singolare.

Sia  A una matrice quadrata {n \times n} con valori in un campo  K (ad esempio, il campo dei numeri reali o complessi).

Le seguenti affermazioni sono equivalenti e caratterizzano una matrice A invertibile:

 L_A:x \mapsto Ax
è iniettiva

Proprietà[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi Gruppo generale lineare.
  • L'inversa di una matrice invertibile  A è essa stessa invertibile, e si ha:[2]
 (A^{-1})^{-1} = A \
  • Il prodotto di due matrici invertibili  A_{n\times n} e  B_{n\times n} è ancora invertibile, con inversa data da:
 (AB)^{-1} = B^{-1}A^{-1} \

Come conseguenza delle proprietà precedenti, l'insieme delle matrici invertibili  n\times n costituisce un gruppo con la moltiplicazione, noto come il gruppo generale lineare \mathrm{GL}(n).

Poiché le matrici invertibili formano un gruppo, possono in molti casi essere manipolate come se fossero dei numeri reali. Ad esempio:

  • Se  A e  B sono invertibili, l'equazione  AX = B ha una sola soluzione, data da  X = A^{-1}B . Analogamente  XA = B ha come unica soluzione  X = BA^{-1} .

Matrici reali[modifica | modifica sorgente]

Sul campo dei numeri reali l'insieme di tutte le matrici  n \times n è uno spazio vettoriale isomorfo a  \R^{n^2} , e il sottoinsieme delle matrici non invertibili è un insieme nullo, cioè ha misura di Lebesgue zero, essendo l'insieme degli zeri della funzione determinante, che è un polinomio. Intuitivamente, questo vuol dire che la probabilità che una matrice quadrata casuale a valori reali sia non-invertibile è zero. Parlando in modo approssimativo, si dice che "quasi tutte" le matrici sono invertibili.

Matrice invertibile in un anello[modifica | modifica sorgente]

Il teorema della matrice invertibile generalmente non vale in un anello commutativo. In questo caso, la matrice è invertibile se e solo se il suo determinante è una unità, ossia è invertibile, in questo anello.

Sistemi lineari[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi Sistema di equazioni lineari.

Se A è invertibile, l'equazione AX=B ha una sola soluzione, data da X=A^{-1}B. Analogamente XA=B ha come unica soluzione X=BA^{-1}.

Nel caso particolare in cui X e B abbiano dimensioni {n \times 1}, ovvero siano vettori colonna, l'equazione AX=B rappresenta un sistema lineare, dove A è la matrice dei coefficienti.[3]

A è invertibile se il sistema ha una soluzione unica o, in modo equivalente, se il sistema omogeneo associato ha come unica soluzione il vettore nullo.[4]

Calcolo della matrice inversa[modifica | modifica sorgente]

Esistono vari metodi per il calcolo dell'inversa di una matrice quadrata invertibile  A .

Matrici di ordine 2[modifica | modifica sorgente]

La matrice inversa di una matrice 2 per 2 invertibile:

\begin{pmatrix} {{a}} & {{b}}\\ {{c}}  & {{d}} \end{pmatrix}

è la seguente:

\begin{pmatrix} \frac{{d}}{{a}{d} - {b}{c}} & \frac{{-b}}{{a
}{d} - {b}{c}}\\ \frac{{-c}}{{a}{d} -{b}{c}} & \frac{{a}} 
{{a}{d} - {b}{c}} \end{pmatrix} =
\frac{1}{{a}{d} - {b}{c}}\begin{pmatrix} d & -b\\ -c & a\end{pmatrix}

Metodo della matrice dei cofattori[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi Matrice dei cofattori e Cofattore (matematica).

Il metodo della matrice dei cofattori risulta particolarmente rapido quando non interessa calcolare tutti gli elementi della matrice inversa, e quando la matrice è di dimensione contenuta. Inoltre, la presenza di variabili letterali tra gli elementi non aumenta di molto la complessità del calcolo.

Data una matrice A quadrata e invertibile:

A = \begin{pmatrix}\;
[A]_{1,1} & \ldots & [A]_{1,j} \\
\vdots & \ddots & \vdots \\
\; [A]_{i,1} & \ldots & [A]_{i,j} \\
\end{pmatrix}

la sua inversa A^{-1} è la seguente:

A^{-1} = \frac{1}{\det(A)}\cdot (\mathrm{cof}\;A)^T

dove \det(A) è il determinante di A, la matrice \mathrm{cof}A è la matrice dei cofattori (o dei complementi algebrici) e l'esponente T indica l'operazione di trasposizione di matrici.

Uno schema mnemonico per la variazione del segno (-1)^{i+j} è il seguente:

\begin{pmatrix}
+ & - & + & \ldots\\
- & + & - & \ldots\\
+ & - & + & \ldots\\
\vdots & \vdots & \vdots & \ddots
\end{pmatrix}

Algoritmo di Gauss-Jordan[modifica | modifica sorgente]

L'algoritmo di Gauss-Jordan, può essere usato per trovare (quando esiste) l'inversa di una matrice. Funziona nel modo seguente: sia A una matrice invertibile. Si costruisce la matrice B = (A|I) con n righe e 2n colonne affiancando A e la matrice identità I. A questo punto si applica l'algoritmo di Gauss-Jordan alla nuova B. Questo algoritmo trasforma la matrice B in una matrice a scalini, che sarà del tipo (I|C). La matrice C così trovata è proprio l'inversa di A.

L'esempio seguente mostra che l'inversa di:

 A = \begin{pmatrix} 1 & 2 \\ 2 & 3 \end{pmatrix}

è la matrice:

 C = \begin{pmatrix} -3 & 2 \\ 2 & -1 \end{pmatrix}

Infatti:

 \begin{pmatrix} 1 & 2 & \| & 1 & 0 \\ 2 & 3 & \| & 0 & 1 \end{pmatrix}
\to \begin{pmatrix} -2 & -4 & \| & -2 & 0 \\ 2 & 3 & \| & 0 & 1 \end{pmatrix}
\to \begin{pmatrix} -2 & -4 & \| & -2 & 0 \\ 0 & -1 & \| & -2 & 1 \end{pmatrix} \to
 \begin{pmatrix} -2 & -4 & \| & -2 & 0 \\ 0 & 4 & \| & 8 & -4 \end{pmatrix}
\to \begin{pmatrix} -2 & 0 & \| & 6 & -4 \\ 0 & 4 & \| & 8 & -4 \end{pmatrix}
\to \begin{pmatrix} 1 & 0 & \| & -3 & 2 \\ 0 & 1 & \| & 2 & -1 \end{pmatrix}

Nel primo passaggio si è moltiplicata la prima riga per -2, nel secondo si è sommata alla seconda riga la prima, nel terzo si è moltiplicata la seconda riga per -4, nel quarto passaggio si è sommata alla prima riga la seconda e infine nell'ultimo passaggio si è divisa la prima riga per -2 e la seconda per 4. In questo modo si è partiti da una matrice di (A | I) e si è arrivati a (I | C). Si ha che C è l'inversa di A.

Inversa di una matrice partizionata[modifica | modifica sorgente]

Data una matrice partizionata a blocchi:

A = 
\begin{pmatrix}
 A_{11} & A_{12}\\
 A_{21} & A_{22}
\end{pmatrix}

in cui le sottomatrici sulla diagonale (A_{11} e A_{22}) sono quadrate e non singolari, si può dimostrare che l'inversa di A risulta uguale a:

A^{-1} = 
\begin{pmatrix}
 A_{11}^{-1}(I + A_{12}\, B_{22}\,A_{21}A_{11}^{-1}) & - A_{11}^{-1} A_{12}\,B_{22}\\
 - B_{22} A_{21}A_{11}^{-1} & B_{22}
\end{pmatrix}

dove I è una matrice identità di ordine appropriato e:

B_{22} = (A_{22} - A_{21}A_{11}^{-1}A_{12})^{-1}

ovvero:

A^{-1} = 
\begin{pmatrix}
 B_{11} & - B_{11} A_{12} A_{22}^{-1}\\
 - A_{22}^{-1} A_{21} B_{11}  & A_{22}^{-1}(I + A_{21} B_{11} A_{12}A_{22}^{-1})
\end{pmatrix}

con:

B_{11} = (A_{11} - A_{12}A_{22}^{-1}A_{21})^{-1}

Note[modifica | modifica sorgente]

  1. ^ S. Lang, op. cit., Pag. 68
  2. ^ Hoffman, Kunze, op. cit., Pag. 22
  3. ^ Un ragionamento analogo vale anche per XA=B, ma qui X e B devono essere vettori riga.
  4. ^ Hoffman, Kunze, op. cit., Pag. 23

Bibliografia[modifica | modifica sorgente]

Voci correlate[modifica | modifica sorgente]

Collegamenti esterni[modifica | modifica sorgente]

matematica Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica