Matrice

Da Wikipedia, l'enciclopedia libera.
bussola Disambiguazione – Se stai cercando altri significati, vedi Matrice (disambigua).
Gli elementi di una matrice vengono in genere indicati con una coppia di indici a pedice.

In matematica, in particolare in algebra lineare, una matrice è una tabella ordinata di elementi.

Ad esempio:

\begin{pmatrix}
1 & 0 & 5 \\
1 & -2 & 0
\end{pmatrix}

Le matrici sono ampiamente usate in matematica e in tutte le scienze per la loro capacità di rappresentare in maniera utile e concisa diversi oggetti matematici, come valori che dipendono da due parametri o anche sistemi lineari, cosa, quest'ultima, che le rende uno strumento centrale dell'analisi matematica.

Storia[modifica | modifica wikitesto]

Exquisite-kfind.png Per approfondire, vedi Storia del determinante.

Tracce dell'utilizzo di matrici risalgono fino ai primi secoli a.C. Nel corso della storia più volte è capitato che matematici vissuti in epoche e luoghi diversi, durante lo studio di sistemi lineari, abbiano disposto i coefficienti del sistema in forma tabellare, fatto che evidenzia come le matrici siano una struttura particolarmente intuitiva e conveniente per questi scopi.[1] Interessanti reperti sono anche i quadrati latini e i quadrati magici. Fu solo a partire dal XVII secolo comunque che l'idea delle matrici fu ripresa e sviluppata, prima con risultati e idee ottenuti in contesti di studio specifici, poi con la loro generalizzazione. Lo sviluppo infine è continuato fino a dare alla teoria delle matrici la forma che oggi conosciamo.[1]

I primi a sfruttare le matrici per agevolare i propri calcoli furono i matematici cinesi, proprio nell'affrontare i sistemi lineari. Nel Jiuzhang Suanshu (Nove capitoli sulle arti matematiche), steso durante la dinastia Han, l'ottavo capitolo è interamente dedicato allo svolgimento di un problema matematico formulato sotto forma di sistema lineare. L'autore dispone ingegnosamente i coefficienti di ogni equazione parallelamente in senso verticale, in maniera quindi differente dalla notazione odierna, che li vuole disposti orizzontalmente, per righe: una semplice differenza di notazione.[1][2] Ai numeri così disposti venivano poi applicate una serie di operazioni portandoli in una forma tale da rendere evidente quale fosse la soluzione del sistema: era stato applicato quello che oggi conosciamo come metodo di eliminazione gaussiana, che sarà scoperto in occidente solo agli inizi del XIX secolo con gli studi del matematico tedesco Carl Friedrich Gauss.[1] All'interno dello stesso Jiuzhang Suanshu comparve anche il concetto di determinante, inteso come metodo per determinare se un sistema lineare ammette un'unica soluzione.[2]

Un'idea più moderna di determinante fece la sua comparsa nel 1683, a distanza di poco tempo sia in Giappone, con Kowa Seki (Method of solving the dissimulated problems), che in Europa, con Leibniz. Nella prima metà del XVIII secolo, Maclaurin scrisse il Treatise of Algebra (Trattato di algebra)[3], pubblicato postumo nel 1748, nella quale mostrava il calcolo dei determinanti per matrici quadrate di ordine 2 e 3. Cramer diede il suo contributo nel 1750 presentando l'algoritmo per il calcolo del determinante per matrici quadrate di ordine qualunque, oggi noto come regola di Cramer (Introduction à l'analyse des lignes courbes algébriques). Ulteriori sviluppi sul concetto di determinante furono poi apportati da Bézout (Sur le degré des équations résultantes de l'évanouissement des inconnues, 1764), Vandermonde (Mémoire sur l'élimination, 1772)[4], Laplace (1772), Lagrange (1773), Gauss (1801) che introdusse per la prima volta il termine determinante, Cauchy (1812) che usò per la prima volta il determinante nella sua concezione moderna, ottenendo anche importanti risultati sui minori e le matrici aggiunte, e Jacobi.[1] All'inizio del XIX secolo venne usato per la prima volta in occidente il metodo di eliminazione gaussiana da parte di Gauss, per lo studio dell'orbita dell'asteroide Pallas in base alle osservazioni ottenute fra il 1803 ed il 1809.[1] Altri concetti ed idee fondamentali della teoria delle matrici furono poi studiati, sempre in contesti specifici, da Cauchy, Sturm, Jacobi, Kronecker, Weierstrass e Eisenstein.

Nel 1848 il matematico e avvocato inglese Sylvester introdusse per la prima volta il termine matrice. Il suo collega avvocato Cayley introdusse nel 1853 l'inversa di una matrice.[1], e nel 1858 fornì la prima definizione astratta di matrice, in Memoir on the theory of matrices (Memorie sulla teoria delle matrici)[5], mostrando come tutti gli studi precedenti non fossero altro che casi specifici del suo concetto generale. All'interno del testo Cayley forniva inoltre un'algebra delle matrici, definendo le operazioni basilari di somma, moltiplicazione tra matrici, moltiplicazione per scalari e inversa di una matrice.[1] Ancora ignaro di tali opere, nel 1878 Frobenius pubblicò Ueber lineare Substitutionen und bilineare Formen (Sulle sostituzioni lineari e forme bilineari), nel quale riportava importanti risultati sulle matrici, quale per esempio la definizione di rango[1]. Nel 1888 il geodeta Jordan nella terza edizione del suo Handbuch der Vermessungskunde (Manuale di geodesia) ampliò il metodo di eliminazione di Gauss in quello che oggi è noto come metodo di eliminazione di Gauss-Jordan.[6] Altri contributi importanti furono dati da Bôcher nel 1907 con Introduction to higher algebra; altri testi di rilievo furono scritti da Turnbull ed Aitken negli anni trenta (The Theory of Canonical Matrices e Determinants and Matrices) e da Mirsky nel 1955 (An introduction to linear algebra).[1]

A partire dalla seconda metà del XX secolo l'avvento dei computer ha dato un'impressionante accelerazione alla diffusione delle matrici e dei metodi matriciali. Grazie ai computer infatti è stato possibile applicare in maniera efficiente metodi iterativi precedentemente ritenuti troppo onerosi, portando di conseguenza allo sviluppo di nuove tecniche per la risoluzione di importanti problemi dell'algebra lineare, quali il calcolo degli autovettori e autovalori, il calcolo dell'inversa di una matrice e la risoluzione di sistemi lineari.[7] Ciò a sua volta ha permesso l'introduzione delle matrici in altre discipline applicate, come per esempio la matematica economica e la probabilità, che grazie ad esse hanno potuto rappresentare concetti complessi in maniera più semplice. Altri campi relativamente più recenti, invece, come per esempio la ricerca operativa, hanno basato ampiamente la propria disciplina sull'utilizzo delle matrici.[7]

Definizioni e notazioni[modifica | modifica wikitesto]

Righe, colonne, elementi[modifica | modifica wikitesto]

Le righe orizzontali di una matrice sono chiamate righe, mentre quelle verticali colonne. Ad esempio, la matrice mostrata sopra ha due righe e tre colonne. In generale, una matrice m\times n è una matrice con  m righe e  n colonne, dove  m e  n sono interi positivi fissati. Una matrice  m \times n generica è descritta come in figura sopra oppure anche nel modo seguente (che viene considerata più proficua come notazione per il fatto di non dover differenziare nelle operazioni l'elemento dalla matrice stessa) :

A=\begin{pmatrix}\; [A]_{1,1} & [A]_{1,2} & \cdots & [A]_{1,n} \\ \; [A]_{2,1} & [A]_{2,2} & \cdots & [A]_{2,n} \\ \vdots & \vdots & \ddots & \vdots \\ \; [A]_{m,1} & [A]_{m,2} & \cdots & [A]_{m,n} \end{pmatrix}

indicando con [A]_{i,j} l'elemento posizionato alla riga  i -esima.

La riga  i -esima viene indicata con Row_i(A) , oppure più ambiguamente A_i
, mentre colonna j-esima con Col_j(A) , oppure più ambiguamente A^j
.

Gli elementi  [A]_{i,i} costituiscono la diagonale principale della matrice.

I vettori possono essere considerati matrici molto semplici, aventi una sola riga o una sola colonna. Più precisamente, una matrice con una sola riga, di dimensione 1\times n , è detta matrice riga o vettore riga, mentre una matrice con una sola colonna, di dimensione  m\times 1 , è detta matrice colonna o vettore colonna.

Qui sotto sono mostrati in ordine una matrice  4\times 3 , una matrice colonna ed una matrice riga.

\begin{pmatrix}
1 & 2 & 3 \\
1 & -2 & 0 \\
4.5 & 0 & 2 \\
6 & 1 & 5\end{pmatrix} \quad 
\begin{pmatrix} 7 \\ 0 \\ \pi \end{pmatrix} \quad 
\begin{pmatrix} 
3 & \frac 72 & -9 \end{pmatrix}

Come mostrato negli esempi, i valori presenti nella matrice possono essere di vario tipo: interi, reali o anche complessi. Generalmente, in algebra lineare si suppone che i valori siano elementi di un campo  \mathit {K} fissato.

Algebra delle matrici[modifica | modifica wikitesto]

Sulle matrici si possono definire numerose operazioni: due matrici (aventi dei numeri opportuni di righe e colonne) possono essere sommate, sottratte, moltiplicate fra loro, e moltiplicate per un numero (detto scalare).

Somma[modifica | modifica wikitesto]

Exquisite-kfind.png Per approfondire, vedi Somma fra matrici.

Due matrici  A e  B , entrambe di tipo  m\times n , possono essere sommate. La loro somma  A+B è definita come la matrice m\times n i cui elementi sono ottenuti sommando i corrispettivi elementi di  A e  B . Formalmente:

[A + B]_{i, j} := [A]_{i,j} + [B]_{i,j}

Per esempio:


  \begin{pmatrix}
    1 & 3 & 2 \\
    1 & 0 & 0 \\
    1 & 2 & 2
  \end{pmatrix}
+
  \begin{pmatrix}
    0 & 0 & 5 \\
    7 & 5 & 0 \\
    2 & 1 & 1
  \end{pmatrix}
=
  \begin{pmatrix}
    1+0 & 3+0 & 2+5 \\
    1+7 & 0+5 & 0+0 \\
    1+2 & 2+1 & 2+1
  \end{pmatrix}
=
  \begin{pmatrix}
    1 & 3 & 7 \\
    8 & 5 & 0 \\
    3 & 3 & 3
  \end{pmatrix}.

Moltiplicazione per uno scalare[modifica | modifica wikitesto]

La moltiplicazione per uno scalare è un'operazione che, data una matrice  A ed un numero  c (detto scalare), costruisce una nuova matrice  c \cdot A , il cui elemento è ottenuto moltiplicando l'elemento corrispondente di  A per  c ; gli elementi della matrice e lo scalare in questione devono appartenere allo stesso campo. Formalmente:

[cA]_{ij} := c[A]_{i,j}

Per esempio:

2
  \begin{pmatrix}
    1 & 8 & -3 \\
    4 & -2 & 5
  \end{pmatrix}
=
  \begin{pmatrix}
    2\times 1 & 2\times 8 & 2\times -3 \\
    2\times 4 & 2\times -2 & 2\times 5
  \end{pmatrix}
=
  \begin{pmatrix}
    2 & 16 & -6 \\
    8 & -4 & 10
  \end{pmatrix}.

Prodotto[modifica | modifica wikitesto]

Exquisite-kfind.png Per approfondire, vedi Moltiplicazione di matrici.

La moltiplicazione tra due matrici A e B è un'operazione più complicata delle precedenti. A differenza della somma, non è definita moltiplicando semplicemente gli elementi aventi lo stesso posto. La definizione di moltiplicazione che segue è motivata dal fatto che una matrice modellizza una applicazione lineare, e in questo modo il prodotto di matrici corrisponde alla composizione di applicazioni lineari.

La moltiplicazione è definita soltanto se le matrici A e B sono rispettivamente di tipo m\times p e p \times n: in altre parole, il numero p di colonne di A deve coincidere con il numero p di righe di B. Il risultato è una matrice C di tipo m\times n.

Esempio: siano A e B due matrici rispettivamente 3\times 4 e 4 \times 2: tra queste si può effettuare la moltiplicazione A \times B ed ottenere una matrice 3\times 2. Le stesse matrici, però, non possono essere moltiplicate nel modo B \times A, poiché le colonne di B non sono tante quante le righe di A.

Il prodotto di A di m righe e p colonne e B di p righe e n colonne è la matrice C = A\times B di dimensione m \times n, il cui elemento di posizione (i,j) è dato dalla somma

[C]_{i,j} =Row_i(A)\times Col_j(A)= [A]_{i,1} [B]_{1,j} + [A]_{i,2} [B]_{2,j} + \cdots + [A]_{i,p} [B]_{p,j}

Quest'ultimo viene detto prodotto riga per colonna.

Esempio:


A=\begin{pmatrix}
    1 & 1 & 2 \\
    0 & 1 & -3 \\
  \end{pmatrix}


B= \begin{pmatrix}
    1 & 1 & 1\\
    2 & 5 & 1\\
    0 & -2 & 1
  \end{pmatrix}


 C=A\times B= \begin{pmatrix}
    1 & 1 & 2 \\
    0 & 1 & -3 \\
  \end{pmatrix}
\times
  \begin{pmatrix}
    1 & 1 & 1\\
    2 & 5 & 1\\
    0 & -2 & 1
  \end{pmatrix}
=
Osservo che moltiplicando una matrice 2\times 3 per una 3 \times 3 si ottiene una matrice 2\times 3.

1ª riga:

 [C]_{1,1} = (1 \times 1) + (1 \times 2) + (2 \times 0) = 3
 [C]_{1,2} = (1 \times 1) + (1 \times 5) + (2 \times (-2)) = 2
 [C]_{1,3} = (1 \times 1) + (1 \times 1) + (2 \times 1) = 4

2ª riga:

 [C]_{2,1} = (0 \times 1) + (1 \times 2) + (-3 \times 0) = 2
 [C]_{2,2} = (0 \times 1) + (1 \times 5) + (-3 \times (-2)) = 11
 [C]_{2,3} = (0 \times 1) + (1 \times 1) + (-3 \times 1) = -2

  C=\begin{pmatrix}
    \; [C]_{1,1} & [C]_{1,2} & [C]_{1,3} \\
    \; [C]_{2,1} & [C]_{2,2} & [C]_{2,3} \\
  \end{pmatrix}
=
  \begin{pmatrix}
    3 & 2 & 4\\
    2 & 11 & -2\\
  \end{pmatrix}

A differenza dell'usuale moltiplicazione fra numeri, questa non è un'operazione commutativa, cioè AB è in generale diverso da BA, quando si possono effettuare entrambi questi prodotti.

Un caso particolare, ampiamente usato in algebra lineare per rappresentare le trasformazioni lineari (come rotazioni e riflessioni) è il prodotto tra una matrice  m \times n ed un vettore colonna  n \times 1 , che viene chiamato anche prodotto matrice-vettore.

Proprietà[modifica | modifica wikitesto]

Le operazioni di somma e prodotto di matrici soddisfano tutte le proprietà usuali della somma e del prodotto di numeri, ad eccezione, nel caso del prodotto di matrici, della proprietà commutativa.

Sia  0 la matrice nulla, fatta di soli zeri (e della stessa taglia di  A ). Sia inoltre  -A = (-1)A la matrice ottenuta moltiplicando  A per lo scalare -1 . Valgono le relazioni seguenti, per ogni  A, B, C matrici  m \times n e, per ogni  a,b numeri reali.

Proprietà della somma e del prodotto per uno scalare[modifica | modifica wikitesto]

  1.  A+ 0 = 0 + A = A (la matrice nulla è l'elemento neutro della somma)
  2.  A+(-A) = 0 (esistenza di un opposto per la somma)
  3.  (A+ B) + C = A + (B+C) (proprietà associativa della somma)
  4.  A + B = B + A (proprietà commutativa della somma)
  5.  1A = A (1 è l'elemento neutro del prodotto per uno scalare)
  6.  (ab)A= a(bA) (proprietà associativa del prodotto per uno scalare)
  7.  a(A + B)= aA + aB (proprietà distributiva della somma rispetto al prodotto per uno scalare)

Le prime 4 proprietà affermano che le matrici  m\times n formano un gruppo abeliano rispetto all'operazione di somma. Come mostrato sopra, il prodotto non è commutativo in generale.

Proprietà del prodotto fra matrici[modifica | modifica wikitesto]

  1.  (AB)C = A(BC) (proprietà associativa del prodotto)
  2.  (A+B)C = AC + BC; C(A+B) = CA + CB (proprietà distributiva della somma rispetto al prodotto)

Altre operazioni[modifica | modifica wikitesto]

Sulle matrici sono definite numerose altre operazioni. Tra queste:

Matrici quadrate[modifica | modifica wikitesto]

Exquisite-kfind.png Per approfondire, vedi matrice quadrata.

Fra le matrici, occupano un posto di rilievo le matrici quadrate, cioè le matrici  n\times n , che hanno lo stesso numero  n di righe e di colonne.

Nozioni di base[modifica | modifica wikitesto]

Una matrice quadrata ha una diagonale principale, quella formata da tutti gli elementi  a_{i,i} con indici uguali. La somma di questi elementi è chiamata traccia. L'operazione di trasposizione trasforma una matrice quadrata  A nella matrice A^\mathrm{T} ottenuta scambiando ogni a_{i,j} con a_{j,i} , in altre parole ribaltando la matrice intorno alla sua diagonale principale.

Una matrice tale che a_{i,j} = a_{j,i} è una matrice simmetrica. In altre parole,  A è simmetrica se  A = A^\mathrm{T} . Se tutti gli elementi che non stanno nella diagonale principale sono nulli, la matrice è detta diagonale.

Prodotto di matrici quadrate[modifica | modifica wikitesto]

La più importante matrice n\times n è forse la matrice identità I_n : è una matrice avente 1 su ogni elemento della diagonale e 0 altrove. La matrice è importante perché rappresenta l'elemento neutro rispetto al prodotto: infatti le matrici  n\times n possono essere moltiplicate fra loro, e vale (oltre a quelle scritte sopra) la proprietà seguente per ogni  A :

 AI_n = I_nA = A (elemento neutro del prodotto)

Nello spazio delle matrici n\times n sono quindi definiti una somma ed un prodotto, e le proprietà elencate fin qui asseriscono che l'insieme è un anello, simile all'anello dei numeri interi, con l'unica differenza che il prodotto di matrici non è commutativo.

Determinante[modifica | modifica wikitesto]

Exquisite-kfind.png Per approfondire, vedi Determinante.

Un' importante quantità definita a partire da una matrice quadrata  A è il suo determinante. Indicato con \det A , questo numero fornisce molte informazioni essenziali sulla matrice. Ad esempio, determina se la matrice è invertibile, cioè se esiste una matrice  B tale che

 AB = BA = I_n.

Il determinante è l'ingrediente fondamentale della regola di Cramer, utile a risolvere alcuni sistemi lineari.

Polinomio caratteristico, autovettori, diagonalizzabilità[modifica | modifica wikitesto]

Exquisite-kfind.png Per approfondire, vedi Autovettore e autovalore, Polinomio caratteristico e Diagonalizzabilità.

La traccia ed il determinante possono essere racchiuse in un oggetto ancora più raffinato, di fondamentale importanza nello studio delle trasformazioni lineari: il polinomio caratteristico.

Questo polinomio è importante nello studio delle trasformazioni lineari. Le sue radici sono gli autovalori della matrice, quantità associate ai corrispondenti autovettori. In particolare, questi concetti sono utili a capire se una data matrice è simile ad una matrice diagonale.

Applicazioni delle matrici[modifica | modifica wikitesto]

Sistemi lineari[modifica | modifica wikitesto]

Exquisite-kfind.png Per approfondire, vedi Sistema lineare.

Le matrici sono utili soprattutto a rappresentare sistemi di equazioni lineari. Il sistema lineare

\left \{ \begin{matrix} a_{11} x_1 + a_{12} x_2 + \cdots + a_{1n} x_n = b_1 \\ a_{21} x_1 + a_{22} x_2 + \cdots + a_{2n} x_n =b_2\\ \vdots \\  a_{m1} x_1 + a_{m2} x_2 + \cdots + a_{mn} x_n =b_m \end{matrix} \right.

può essere rappresentato con il suo equivalente matriciale, tramite il prodotto matrice-vettore:

\begin{pmatrix} a_{11} & a_{12} & \cdots & a_{1n} \\ a_{21} & a_{22} & \cdots & a_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ a_{m1} & a_{m2} & \cdots & a_{mn} \end{pmatrix} \begin{pmatrix} x_1 \\ x_2 \\ \vdots \\ x_n \end{pmatrix} = \begin{pmatrix} b_1 \\ b_2 \\ \vdots \\ b_m \end{pmatrix}

Applicazioni lineari[modifica | modifica wikitesto]

Exquisite-kfind.png Per approfondire, vedi Matrice di trasformazione.

Più in generale, le matrici permettono di rappresentare le trasformazioni lineari fra spazi vettoriali. Ogni operatore lineare T : V \to W da uno spazio vettoriale  V di dimensione m a uno spazio vettoriale  W di dimensione  n , e per ogni possibile scelta di una coppia di basi \{v_1,v_2,\ldots,v_m\} e \{w_1,w_2,\ldots,w_n\}, si associa a  T la matrice A tale che

T(v_i) = \sum_{j=1}^n [A]_{i,j} w_j\quad \forall i \in \{1,2,\ldots,m\}.

Questa matrice rappresenta l'applicazione  T : questa rappresentazione dipende però dalle basi scelte. Molte operazioni fra matrici si traducono in operazioni fra applicazioni lineari:

  • L'immagine  T(v) di un vettore corrisponde alla moltiplicazione matrice-vettore.
  • La somma di applicazioni (quando possibile) corrisponde alla somma fra matrici.
  • La composizione di applicazioni lineari (quando possibile) corrisponde al prodotto fra matrici.

Classi di matrici reali e complesse[modifica | modifica wikitesto]

Exquisite-kfind.png Per approfondire, vedi Glossario sulle matrici.

Oltre alle matrici diagonali e simmetriche già introdotte, vi sono altre categorie di matrici importanti.

Spazio di matrici[modifica | modifica wikitesto]

Spazio vettoriale[modifica | modifica wikitesto]

Lo spazio di tutte le matrici  m\times n a valori in un fissato campo  K è indicato generalmente con M(m,n,K) , con Mat(m,n,K) o con K^{m,n}. Per quanto già visto, questo spazio è un gruppo abeliano con la somma. Considerato anche con la moltiplicazione per scalare, l'insieme ha una struttura di spazio vettoriale su  K .

Questo spazio ha una base canonica, composta da tutte le matrici e_{i,j} aventi valore 1 sulla casella di posto (i,j) e zero in tutte le altre. La base consta di  m\times n elementi, e quindi lo spazio M(m,n,K) ha dimensione  m\times n .

Algebra su campo[modifica | modifica wikitesto]

Nel caso  m=n delle matrici quadrate, è definito anche il prodotto. Con questa ulteriore operazione, lo spazio  M(n,n,K) , generalmente indicato con M(n,K) , eredita una struttura di anello con unità. Tale struttura è compatibile con quella di spazio vettoriale definita sopra, e fornisce quindi un esempio basilare di algebra su campo.

Generalizzazioni[modifica | modifica wikitesto]

Una matrice infinita può essere definita come una successione di elementi a_{i,j} , indicizzati da coppie di numeri naturali (i,j) , senza nessun limite superiore per entrambi.

Più in generale, una generalizzazione del concetto di matrice è costruita prendendo due insiemi di indici  R, C qualsiasi (parametrizzanti le "righe" e le "colonne") e definendo una matrice come un'applicazione

 A : R \times C \rightarrow V

a valori in un altro dato insieme  V . La matrice usuale m\times n corrisponde al caso in cui  R = \{1, 2, \ldots, m\} e C = \{1, 2, \ldots, n\}, e  V è ad esempio l'insieme dei numeri reali o complessi.

Questa definizione generale si serve solo di nozioni insiemistiche e non ricorre a nozioni visive e intuitive come quella di schieramento rettangolare. Consente di trattare casi molto generali: ad esempio matrici le cui righe e colonne sono etichettate da indici in un qualunque sottoinsieme I degli interi \mathbb Z, matrici etichettate da coppie o in generale da  n -uple di interi come quelle che si incontrano nella meccanica quantistica o nella chimica molecolare, matrici infinite etichettate con gli insiemi \mathbb N e \mathbb Z come quelle che permettono di rappresentare successioni polinomiali o serie formali con due variabili.

Per poter definire somma, prodotto e altre operazioni sulle matrici, è opportuno che l'insieme  V sia dotato di tali operazioni, ad esempio che sia un anello.

Funzione di matrice[modifica | modifica wikitesto]

Exquisite-kfind.png Per approfondire, vedi Funzione di matrice.

La teoria delle funzioni di matrice è di grande interesse per lo studio dei sistemi differenziali: in generale la funzione di una matrice non coincide con la matrice delle funzioni dei suoi elementi, ma si dimostra sfruttando il teorema di Hamilton-Cayley che ciascun suo elemento è una combinazione lineare di queste ultime.

Note[modifica | modifica wikitesto]

  1. ^ a b c d e f g h i j (EN) Storia dell'uso delle matrici e dei determinanti su MacTutor
  2. ^ a b (EN) Il Nove capitoli sulle arti matematiche su MacTutor
  3. ^ Il testo è consultabile on-line: Treatise of Algebra.
  4. ^ (EN) Biografia di Vandermonde su MacTutor
  5. ^ L'abstract del testo è consultabile on-line: Memoir on the theory of matrices in Proceedings of the Royal Society of London, Volume 9.
  6. ^ S. C. Althoen and R. McLaughlin, "Gauss-Jordan Reduction: A Brief History," American Mathematical Monthly, 94:130–142 (1987).
  7. ^ a b Bronson 1989Preface

Bibliografia[modifica | modifica wikitesto]

  • Fulvio Bisi, Francesco Bonsante e Sonia Brivio, 3º capitolo in Lezioni di algebra lineare con applicazioni alla geometria analitica, Pavia, La Dotta, agosto 2013, pp. 510, ISBN 88-98648-02-2.
  • (EN) Richard Bronson, Schaum's Outline of Theory and Problems of Matrix Operations, New York, McGraw-Hill, 1989, pp. 230 pagine., ISBN 978-0-07-007978-1 .
  • (EN) David M. Burton, The History of Mathematics: An Introduction, 6a edizione, McGraw-Hill, 1º dicembre 2005, ISBN 978-0-07-110635-1.
  • (EN) Richard W. Jr. Feldmann, Arthur Cayley - Founder of Matrix Theory, The Mathematics Teacher, 55, 1962, Pagine 482-484..
  • (EN) Gene H. Golub, Charles F. Van Loan, Matrix computations, 3a edizione, Johns Hopkins University Press, 1996, ISBN 0-8018-5414-8.

Voci correlate[modifica | modifica wikitesto]

Altri progetti[modifica | modifica wikitesto]

Collegamenti esterni[modifica | modifica wikitesto]

matematica Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica