Matrice trasposta

Da Wikipedia, l'enciclopedia libera.

In matematica, la matrice trasposta di una matrice è la matrice ottenuta scambiandone le righe con le colonne. Fu introdotta nel 1858 dal matematico britannico Arthur Cayley.[1]

Definizione[modifica | modifica wikitesto]

La trasposta di una matrice A è la matrice A^T il cui generico elemento con indici (i, j) è l'elemento con indici (j, i) della matrice originaria. In simboli:

\left(A^T\right)_{ij} = A_{ji} \qquad \forall A \in \mathbf{K}^{m,n} \quad 1 \le i \le m, \quad 1 \le j \le n

con \mathbf{K}^{m,n} lo spazio vettoriale delle matrici di dimensione n. In pratica, la matrice trasposta si deve intendere come una matrice in cui le colonne diventano righe e le righe diventano colonne.

L'operazione di trasposizione è definita sia su matrici quadrate che rettangolari, e quindi anche su vettori. In particolare, un vettore colonna trasposto è un vettore riga, e viceversa.

Una matrice che coincide con la propria trasposta è detta matrice simmetrica, e deve essere una matrice quadrata. Uno scalare può essere visto come un caso particolare di matrice simmetrica 1 × 1, ed è pertanto invariante alla trasposizione. Quindi, sebbene in generale date due matrici A e B di dimensioni opportune si abbia che:

(AB)^T = B^T A^T \ne A^T B^T

l'operatore di trasposizione è lineare, ovvero, dati due scalari k ed l, vale:

(k A+l B)^T = (k A)^T +(l B)^T = k A^T +l B^T

Più in generale, dati N scalari k_i ed N matrici A_i di pari dimensioni, vale:

 \left( \sum_{i=1}^{N} k_i A_i \right)^T = \sum_{i=1}^{N} k_i A_i^T

dove \sum indica una sommatoria.

Proprietà[modifica | modifica wikitesto]

Valgono le seguenti proprietà:

  • La trasposta della trasposta è la matrice stessa:
\left( A^T \right)^T = A
  • La trasposta della somma di due matrici è uguale alla somma delle due matrici trasposte:
(A+B)^T = A^T + B^T
  • L'ordine delle matrici si inverte per la moltiplicazione:
\left( A B \right)^T = B^T A^T
Questo risultato è facilmente estendibile al caso più generale, dove si considerano più matrici:
\left( A B C \dots X Y Z \right)^T = Z^T Y^T X^T \dots C^T B^T A^T
  • Se c è uno scalare, la trasposta di uno scalare è lo scalare invariato:
(c A)^T = c A^T
  • Nel caso di matrici quadrate, il determinante della trasposta è uguale al determinante della matrice iniziale:
\det(A^T) = \det(A)
  • Il prodotto scalare tra due vettori colonna \mathbf{a} e \mathbf{b} può essere calcolato come:
 \mathbf{a} \cdot \mathbf{b} = \mathbf{a}^T \mathbf{b},
che può essere scritto usando la notazione di Einstein come a_i b^i.
  • Se A ha solamente elementi reali, allora A^T A è una matrice semidefinita positiva.
  • La trasposta di una matrice invertibile è ancora invertibile e la sua inversa è la trasposta dell'inversa della matrice iniziale:
(A^T)^{-1} = (A^{-1})^T
  • Se A è una matrice quadrata, allora i suoi autovalori sono uguali agli autovalori della sua trasposta.

Trasposta di applicazioni lineari[modifica | modifica wikitesto]

Exquisite-kfind.png Per approfondire, vedi Spazio duale e Base duale.

Se V e W sono due spazi vettoriali di dimensione finita sullo stesso campo e f : V \to W è un'applicazione lineare, si può definire l'applicazione duale di f come la mappa f^* : W^* \to V^* tra gli spazi duali W^* e V^* definita da:

f^* : \varphi \mapsto \varphi \circ f \qquad \forall \varphi \in W^*

Fissate due basi E e F di V e W rispettivamente, si dimostra che se A è la matrice associata a f rispetto tali basi allora la matrice associata a f^* rispetto alle basi duali di E e di F è la trasposta di A.

Ogni applicazione lineare f : V \to V^* che mappa nello spazio duale definisce una forma bilineare B : V \times V \to F mediante la relazione:

B(\mathbf v, \mathbf w)=f(\mathbf v)(\mathbf w)

Definendo la trasposta di tale funzione come la forma bilineare ^t B data dalla mappa trasposta ^t f : V^{**} \to V^*:

^t B(\mathbf v, \mathbf w)=^t f(\mathbf v)(\mathbf w)

si trova che B(\mathbf v, \mathbf w)=^t B(\mathbf v, \mathbf w).

Esempi[modifica | modifica wikitesto]

  • 
  A =
    \begin{pmatrix}
        2  &  4  &  8\\
        3  &  2  &  0\\
        5  &  3  &  1\\
        0  &  1  &  0
    \end{pmatrix} \quad
  A^T =
    \begin{pmatrix}
        2  &  3  &  5  &  0\\
        4  &  2  &  3  &  1\\
        8  &  0  &  1  &  0
    \end{pmatrix}
  • \begin{pmatrix}
1 & 2  \end{pmatrix}^T \!\! \;\!
= \,
\begin{pmatrix}
1   \\
2  \end{pmatrix}
  • \begin{pmatrix}
1 & 2  \\
3 & 4 \end{pmatrix}^T \!\! \;\!
= \,
\begin{pmatrix}
1 & 3  \\
2 & 4 \end{pmatrix}
  • 
\begin{pmatrix}
1 & 2 \\
3 & 4 \\
5 & 6 \end{pmatrix}^T  \!\! \;\!
= \,
\begin{pmatrix}
1 & 3 & 5\\
2 & 4 & 6 \end{pmatrix} \;
  • 
\begin{pmatrix}
1 & 2 & 8 \\
3 & 4 & 3 \\
5 & 6 & 1 \end{pmatrix}^T  \!\! \;\!
= \,
\begin{pmatrix}
1 & 3 & 5\\
2 & 4 & 6\\
8 & 3 & 1 \end{pmatrix} \;

Idea di calcolo: ruotare la matrice di 90° in senso antiorario, dopodiché scambiare la prima riga con l'ultima, la seconda con la penultima, ecc. (nel primo esempio, dopo aver ruotato la matrice A di 90°, la riga 2 rimane invariata, mentre la riga 1 e 3 vengono scambiate).

Note[modifica | modifica wikitesto]

  1. ^ Arthur Cayley (1858) "A memoir on the theory of matrices," Philosophical Transactions of the Royal Society of London, 148 : 17-37. The transpose (or "transposition") is defined on page 31.

Bibliografia[modifica | modifica wikitesto]

  • (EN) F.R. [F.R. Gantmakher] Gantmacher, The theory of matrices , 1 , Chelsea, reprint (1959) pp. 19

Voci correlate[modifica | modifica wikitesto]

Collegamenti esterni[modifica | modifica wikitesto]

matematica Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica