Matrice ortogonale

Da Wikipedia, l'enciclopedia libera.

In matematica, e più precisamente in algebra lineare, una matrice ortogonale è una matrice invertibile la cui trasposta coincide con la sua inversa.

Nel campo complesso, una matrice invertibile la cui trasposta coniugata coincide con l'inversa è detta matrice unitaria.

Definizione[modifica | modifica sorgente]

Data una matrice invertibile G, indicando con  G^T la sua trasposta si definisce G ortogonale se:

G G^T = G^T G = I_n

ovvero la trasposta è l'inversa.

In modo equivalente, una matrice ortogonale è una matrice che rappresenta una isometria dello spazio euclideo, oppure è una matrice di cambiamento di base fra due basi ortonormali.

Si può facilmente ricavare che il numero di parametri indipendenti in una matrice ortogonale di dimensione N è N(N-1)/2.

Proprietà[modifica | modifica sorgente]

Basi ortonormali[modifica | modifica sorgente]

Una matrice quadrata è ortogonale se e solo se le sue colonne formano una base ortonormale dello spazio euclideo \R^n con l'ordinario prodotto scalare. In effetti questa proprietà è semplicemente la rilettura della relazione G^T G = I_n.

Rileggendo similmente la relazione GG^T = I_n, si ricava l'enunciato duale del precedente: una matrice quadrata reale è ortogonale se e solo se le sue righe formano una base ortonormale di \R^n.

Isometrie[modifica | modifica sorgente]

Geometricamente, le matrici ortogonali descrivono le trasformazioni lineari di \R^n che sono anche isometrie. Queste preservano il prodotto scalare dello spazio, e quindi gli angoli e le lunghezze. Ad esempio, le rotazioni e le riflessioni sono isometrie.

Viceversa, se V è un qualsiasi spazio vettoriale di dimensione finita dotato di un prodotto scalare definito positivo, e f : V \to V è un'applicazione lineare con:

\langle f(x),f(y)\rangle=\langle x,y\rangle

per tutti gli elementi x, y di V, allora f è una isometria ed è rappresentata in ogni base ortonormale di V da una matrice ortogonale.

In uno spazio euclideo di dimensione 2 e 3, ogni matrice ortogonale esprime una rotazione intorno ad un punto o un asse, o una riflessione, o una composizione di queste due trasformazioni.

Gruppo ortogonale[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi Gruppo ortogonale.

Dalla definizione segue subito che l'inversa di ogni matrice ortogonale, cioè la sua trasposta, è anch'essa ortogonale.

Analogamente, il prodotto di due matrici ortogonali è una matrice ortogonale. Infatti:

 (G H)\cdot (G H)^T = G H H^T  G^T = G  G^T = I

Questo dimostra che l'insieme delle matrici ortogonali n \times n forma un gruppo, il gruppo ortogonale, che è un gruppo di Lie e viene indicato con O(n).

La sua dimensione è n(n - 1)/2. Intuitivamente, la dimensione è calcolata nel modo seguente: gli n^2 numeri di una matrice ortogonale sono vincolati dalle n^2 uguaglianze della definizione, ciascuna delle quali è caratterizzata da una coppia di indici (i,j) che vanno da 1 a n, ma l'equazione relativa a (i,j) con i<j equivale a quella relativa a (j,i) e quindi ci sono solo n(n + 1)/2 equazioni indipendenti, e quindi n(n - 1)/2 gradi di libertà.

Matrice ortogonale speciale[modifica | modifica sorgente]

Il determinante di ogni matrice ortogonale è 1 o -1. Questo si può dimostrare come segue:

 1 = \det(I) = \det(G\cdot G^T) = \det(G)\det(G^T) = (\det(G))^2

Una matrice ortogonale con determinante positivo si dice matrice ortogonale speciale.

L'insieme di tutte le matrici ortogonali speciali formano un sottogruppo di O(n) di indice 2, chiamato gruppo ortogonale speciale e denotato SO(n).

Autovalori e decomposizioni[modifica | modifica sorgente]

Autovalori[modifica | modifica sorgente]

Tutti gli autovalori di una matrice ortogonale, anche quelli complessi, hanno valore assoluto 1. Autovettori relativi a differenti autovalori sono ortogonali.

Decomposizioni lungo piani[modifica | modifica sorgente]

Data una matrice ortogonale Q, esiste una matrice ortogonale P, tale che:


P^{-1}QP = \begin{pmatrix}
R_1               \\
& R_2             \\
& & \ddots        \\
& & & R_k         \\
& & & & \pm 1     \\
& & & & & \ddots  \\
& & & & & & \pm 1 \\
\end{pmatrix}

dove R_1,\dots , R_k denotano matrici di rotazione 2 \times 2. Intuitivamente, questo risultato dice che ogni matrice ortogonale descrive una combinazione di rotazioni e riflessioni su piani ortogonali. Le matrici R_1,\dots , R_k corrispondono alle coppie di autovalori complessi coniugati di Q.

Decomposizione QR[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi Decomposizione QR.

Se A è una arbitraria matrice di tipo m \times n di rango n (cioè m \ge n), si può sempre scrivere:

 A = Q \begin{pmatrix} R \\ 0 \end{pmatrix}

dove Q è una matrice ortogonale di tipo m \times n e R è una matrice triangolare superiore di tipo n \times n con valori positivi sulla diagonale principale. La decomposizione QR può essere dimostrata applicando l'ortogonalizzazione di Gram-Schmidt alle colonne di A.

Questa decomposizione risulta utile per risolvere numericamente i sistemi di equazioni lineari e i problemi di minimi quadrati.

Matrici ortogonali e rappresentazione delle algebre di Clifford[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi Algebra di Clifford.

Alle matrici ortogonali si può attribuire un secondo significato geometrico che si collega alle rappresentazione matriciale delle algebre di Clifford. Ad esempio, i vettori della base canonica di \R^2 sono e_1 = [1 ,0] e e_2 = [0, 1] e un generico vettore [x,y] di questo piano cartesiano si può scrivere:

[x ,y]= x [1, 0] + y [0 ,1]

La matrice ortogonale:

 E_1 := \begin{bmatrix} 0&1 \\ 1&0  \end{bmatrix}

rappresenta la riflessione rispetto alla bisettrice y=x, poiché scambia le due componenti di ogni vettore piano:

 \begin{bmatrix} x&y \end{bmatrix}
\times \begin{bmatrix} 0&1 \\ 1&0  \end{bmatrix}
= \begin{bmatrix} y&x \end{bmatrix}

La matrice ortogonale:

 E_2 := \begin{bmatrix} 1&0 \\ 0&-1  \end{bmatrix}

rappresenta invece la riflessione rispetto all'asse x, poiché il punto [x y] ha come immagine [x,-y]:

 \begin{bmatrix} x&y \end{bmatrix}
\times \begin{bmatrix} 1&0 \\ 0&-1  \end{bmatrix}
= \begin{bmatrix} x&-y \end{bmatrix}

Per i due prodotti di queste matrici si trova:

 E_1 \times E_2 =
\begin{bmatrix} 0&1 \\ 1&0  \end{bmatrix}
\times \begin{bmatrix} 1&0 \\ 0&-1  \end{bmatrix}
=      \begin{bmatrix} 0&-1 \\ 1&0  \end{bmatrix}
  E_2 \times E_1 =
\begin{bmatrix} 1&0 \\ 0&-1 \end{bmatrix}
\times \begin{bmatrix} 0&1 \\  1&0  \end{bmatrix}
=      \begin{bmatrix} 0&1 \\ -1&0  \end{bmatrix}

Si tratta delle due rotazioni nel piano di \pi /2 e di -\pi/2, rotazioni opposte: quindi le due matrici E_i anticommutano. In formule:

 e_1^2 = e_2^2 = I \qquad e_1 e_2 = - e_2 e_1

Si considerino ora E_1 ed E_2 come vettori di base del piano bidimensionale delle loro combinazioni lineari:

(x,y) := x E_1 + y E_2 = \begin{bmatrix} y&x \\ x&-y \end{bmatrix}

sfruttando la composizione:

 A \cdot B := \frac{1}{2}(AB + BA)

si trova:

 \begin{bmatrix} y&x \\ x&-y  \end{bmatrix} \cdot \begin{bmatrix} v&u \\ u&-v  \end{bmatrix} =
   \begin{bmatrix} xu+yv & 0 \\ 0 & xu+yv \end{bmatrix}

Per il quadrato di una di queste entità in particolare:

 \begin{bmatrix} y&x \\ x&-y  \end{bmatrix} \cdot \begin{bmatrix} y&x \\ x&-y
\end{bmatrix} = \begin{bmatrix} x^2+y^2 & 0 \\ 0 & x^2+y^2 \end{bmatrix}

Si può quindi definire come prodotto interno di A e B la precedente composizione, a meno della matrice unità I_2. Questo è lecito in quanto chiaramente si tratta di una forma bilineare simmetrica positiva. Il prodotto interno di una entità matriciale e vettoriale con sé stessa fornisce il quadrato della sua norma.

Dato che le entità base anticommutano si vede che:

 E_1 \cdot E_2 = 0

Le entità E_1 ed E_2 sono ortogonali secondo entrambe le loro interpretazioni: sono matrici ortogonali e rappresentano vettori di base ortogonali in quanto matrici anticommutative.

Matrici ortogonali trigonometriche[modifica | modifica sorgente]

Matrice ortogonale 2×2[modifica | modifica sorgente]

 \begin{bmatrix} \cos (\alpha) & -\sin (\alpha) \\ \sin (\alpha) & \cos (\alpha) \end{bmatrix}

Matrice ortogonale 3×3[modifica | modifica sorgente]

 \begin{bmatrix}
\cos (\alpha)\cos (\gamma)-\sin (\alpha)\sin (\beta)\sin (\gamma) & -\sin (\alpha)\cos (\beta) & -\cos (\alpha)\sin (\gamma)-\sin (\alpha)\sin (\beta)\cos (\gamma) \\ 
\cos (\alpha)\sin (\beta)\sin (\gamma)+\sin (\alpha)\cos (\gamma) & \cos (\alpha)\cos (\beta)  & \cos (\alpha)\sin (\beta )\cos (\gamma )-\sin (\alpha )\sin (\gamma) \\ 
\cos (\beta)\sin (\gamma) & -\sin (\beta)  & \cos (\beta)\cos (\gamma)
\end{bmatrix}

Queste matrici sono anche matrici di rotazione di coordinate. Utilizzando le equazioni di rotazione di uno spazio n-dimensionale si possono costruire matrici ortogonali trigonometriche di dimensione n \times n.

Bibliografia[modifica | modifica sorgente]

  • (EN) A.I. Mal'tsev, Foundations of linear algebra , Freeman (1963) (Translated from Russian)
  • (EN) W. Noll, Finite dimensional spaces , M. Nijhoff (1987) pp. Sect. 43
  • (EN) H.W. Turnball, A.C. Aitken, An introduction to the theory of canonical matrices , Blackie & Son (1932)
  • (EN) Persi Diaconis, Mehrdad Shahshahani. The subgroup algorithm for generating uniform random variables. Prob. in Eng. and Info. Sci., vol. 1, 15–32, 1987. ISSN 0269-9648.
  • (EN) Augustin A. Dubrulle. Frobenius Iteration for the Matrix Polar Decomposition. HP Labs Technical Report HPL-94-117. December 16, 1994. [1]
  • (EN) Gene H. Golub, Charles F. Van Loan. Matrix Computations, 3/e. Johns Hopkins University Press, Baltimore, 1996. ISBN 978-0-8018-5414-9.
  • (EN) Nicholas Higham. Computing the Polar Decomposition—with Applications. SIAM Journal on Scientific and Statistical Computing, 7(4):1160–1174, 1986. ISSN 0196-5204. [2]

Voci correlate[modifica | modifica sorgente]

Collegamenti esterni[modifica | modifica sorgente]

matematica Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica