Algebra lineare

Da Wikipedia, l'enciclopedia libera.
Alcuni oggetti studiati in algebra lineare
Vector space illust.svg
Vettori
Linear subspaces with shading.svg
Spazi vettoriali
Rotation illustration.png

Trasformazioni lineari
Intersecting Lines.svg
Sistemi di equazioni lineari
Matrix.gif
Matrici
Eigenvector.png
Autovettori e autovalori
Ellipsoide.png
Quadriche
Epsilontensor.svg
Tensori

L'algebra lineare è la branca della matematica che si occupa dello studio dei vettori, spazi vettoriali (o spazi lineari), trasformazioni lineari e sistemi di equazioni lineari. Gli spazi vettoriali sono un tema centrale nella matematica moderna; l'algebra lineare è usata ampiamente nell'algebra astratta, nella geometria e nell'analisi funzionale. L'algebra lineare ha inoltre una rappresentazione concreta nella geometria analitica.

Con l'algebra lineare si studiano completamente tutti i fenomeni fisici "lineari", cioè quelli in cui intuitivamente non entrano in gioco distorsioni, turbolenze e fenomeni caotici in generale. Anche fenomeni più complessi, non solo della fisica ma anche delle scienze naturali e sociali, possono essere studiati "approssimando il sistema" con un modello lineare.

Storia[modifica | modifica sorgente]

La storia dell'algebra lineare moderna inizia negli anni 1843 e 1844. Nel 1843, William Rowan Hamilton (che ha introdotto il termine vettore) inventò i quaternioni. Nel 1844, Hermann Grassmann pubblicò il suo libro Die lineale Ausdehnungslehre (vedi i Riferimenti). Arthur Cayley introdusse le matrici (2×2), una delle idee fondamentali dell'algebra lineare, nel 1857.

Introduzione elementare[modifica | modifica sorgente]

Uno spazio vettoriale è una collezione di oggetti, chiamati "vettori", che possono essere sommati e riscalati.

L'algebra lineare ha le sue origini nello studio dei vettori negli spazi cartesiani a due e a tre dimensioni. Un vettore, in questo caso, è un segmento orientato, caratterizzato da lunghezza (o magnitudine), direzione e verso. I vettori possono essere usati per rappresentare determinate entità fisiche come le forze, e possono essere sommati fra loro e moltiplicati per uno scalare, formando quindi il primo esempio di spazio vettoriale sui reali.

L'algebra lineare moderna è stata estesa per comprendere spazi di dimensione arbitraria o infinita. Uno spazio vettoriale di dimensione n è chiamato n-spazio. Molti dei risultati utili nel 2-spazio e nel 3-spazio possono essere estesi agli spazi di dimensione maggiore. Anche se molte persone non sanno visualizzare facilmente i vettori negli n-spazi, questi vettori o n-uple sono utili per rappresentare dati. Poiché i vettori, come n-uple, sono liste ordinate di n componenti, molte persone comprendono e manipolano i dati efficientemente in questa struttura. Ad esempio, in economia, si può creare e usare vettori 8-dimensionali (ottuple) per rappresentare il Prodotto Interno Lordo di 8 stati. Si può decidere di visualizzare il PIL di 8 stati per un particolare anno, ad esempio (Stati Uniti, Gran Bretagna, Francia, Germania, Spagna, India, Giappone, Australia), usando un vettore (v1, v2, v3, v4, v5, v6, v7, v8) dove il PIL di ogni stato è nella sua rispettiva posizione.

Uno spazio vettoriale è definito sopra un campo, come il campo dei numeri reali o il campo dei numeri complessi. Gli operatori lineari mappano elementi da uno spazio vettoriale su un altro (o su sé stesso), in modo che sia mantenuta la compatibilità con l'addizione e la moltiplicazione scalare definiti negli spazi vettoriali. L'insieme di tutte queste trasformazioni è anch'esso uno spazio vettoriale. Se è fissata una base per uno spazio vettoriale, ogni trasformazione lineare può essere rappresentata da una tabella chiamata matrice. Nell'algebra lineare si studiano quindi le proprietà delle matrici, e gli algoritmi per calcolare delle quantità importanti che le caratterizzano, quali il rango, il determinante e l'insieme dei suoi autovalori.

Uno spazio vettoriale (o spazio lineare), come concetto puramente astratto sul quale proviamo teoremi, è parte dell'algebra astratta, e ben integrato in questo campo: alcuni oggetti algebrici correlati ad esempio sono l'anello delle mappe lineari da uno spazio vettoriale in sé, o il gruppo delle mappe lineari (o matrici) invertibili. L'algebra lineare gioca anche un ruolo importante in analisi, specialmente nella descrizione delle derivate di ordine superiore nell'analisi vettoriale e nella risoluzione delle equazioni differenziali.

Concludendo, si può dire semplicemente che i problemi lineari della matematica - quelli che esibiscono "linearità" nel loro comportamento - sono quelli più facili da risolvere, e che i problemi "non lineari" vengono spesso studiati approssimandoli con situazioni lineari. Ad esempio nell'analisi, la derivata è un primo tentativo di approssimazione lineare di una funzione. La differenza rispetto ai problemi non lineari è molto importante in pratica: il metodo generale di trovare una formulazione lineare di un problema, in termini di algebra lineare, e risolverlo, se necessario con calcoli matriciali, è uno dei metodi più generali applicabili in matematica.

Nozioni di base[modifica | modifica sorgente]

Spazio vettoriale[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi spazio vettoriale.
Un vettore a può essere riscalato, cioè moltiplicato per un numero. Qui sono mostrati i vettori 2a e -a, ottenuti moltiplicando a rispettivamente per 2 e -1.

La nozione più importante in algebra lineare è quella di spazio vettoriale. Uno spazio vettoriale è un insieme V di elementi, detti vettori, aventi delle proprietà che li rendono simili ai vettori applicati in un punto fissato (l'origine) del piano o dello spazio.

Più precisamente, sono definite su V un paio di operazioni binarie:

  • due vettori v e w possono essere sommati, dando così luogo ad un nuovo vettore v+w,
  • un vettore v può essere riscalato, cioè moltiplicato per un numero k, dando così luogo ad un nuovo vettore kv.
Due vettori v e w possono essere sommati usando la regola del parallelogramma.

Il numero k (detto scalare) appartiene ad un campo che viene fissato fin dall'inizio: questo può essere ad esempio il campo \R dei numeri reali o il campo \mathbb C dei numeri complessi.

Le due operazioni devono soddisfare una lunga lista di assiomi. Ad esempio, la somma fra vettori deve essere associativa e commutativa. Deve inoltre esistere un elemento neutro per la somma, ovvero un particolare vettore, chiamato origine, vettore nullo, O oppure 0, tale che 0+v = v per ogni vettore v.

Il piano cartesiano è l'esempio fondamentale di spazio vettoriale. Ogni punto del piano è in realtà identificato univocamente come una coppia (x,y) di numeri reali. L'origine è il punto (0,0). Il punto (x,y) può essere interpretato alternativamente come punto del piano o come vettore applicato nell'origine che parte da (0,0) e arriva in (x,y).

Analogamente lo spazio cartesiano è formato da triple di punti (x,y,z). Più in generale, le ennuple di n numeri reali

(x_1,\ldots,x_n)

formano uno spazio vettoriale che viene indicato con \R^n. Ancora più in generale, si può sostituire \R con un altro campo K e ottenere quindi lo spazio vettoriale K^n.

Applicazioni lineari[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi applicazione lineare.
Una rotazione del piano cartesiano centrata nell'origine (0,0) è una trasformazione lineare.

Una applicazione lineare è una funzione fra due spazi vettoriali

f:V\to W

che sia compatibile con le operazioni definite su entrambi. Devono cioè valere le proprietà seguenti:

f(v+w) = f(v)+f(w)
f(kv) = kf(v).

per ogni coppia di vettori v,w in V e ogni scalare k. I termini "applicazione", "funzione", "trasformazione", "mappa" e "omomorfismo" sono in questo contesto tutti sinonimi. Il termine "lineare" sta a indicare la compatibilità con le operazioni. Un'applicazione lineare manda necessariamente l'origine (di V) nell'origine (di W):

f(0) = 0.
Una trasformazione lineare può distorcere gli oggetti.

Gli spazi V e W possono coincidere. In questo caso l'applicazione è più propriamente una trasformazione di V, ovvero una funzione che sposta i punti di V, chiamata anche endomorfismo. Una trasformazione di V deve necessariamente tenere fissa l'origine O.

Molte trasformazioni del piano cartesiano o dello spazio che tengono fissa l'origine O sono lineari: tra queste, le rotazioni (intorno a O), le riflessioni rispetto ad una retta o un piano (passante per O), le omotetie (centrate in O) e le proiezioni (su una retta o piano passante per O).

Una trasformazione lineare può allargare un oggetto orizzontalmente e comprimerlo verticalmente.

Le applicazioni lineari compaiono in contesti molto differenti. Ad esempio, il funzionale

 \Psi (f) = \int_0^1 f(x)

che associa ad una funzione f il suo integrale è un'applicazione lineare

 \Psi : C([0,1]) \to \R

dallo spazio C([0,1]) delle funzioni continue a valori reali in \R.

Basi e dimensione[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi base (algebra lineare) e dimensione (spazio vettoriale).
I vettori (1,0) e (0,1) formano la base canonica del piano cartesiano \R^2. Ogni altro vettore si scrive (in modo univoco) come combinazione lineare di questi due vettori. Ad esempio, il vettore (-2,1) si scrive come -2(1,0) + 1(0,1).

Un punto ha dimensione zero, una retta ha dimensione uno, un piano ha dimensione due. L'algebra lineare permette di definire e trattare agevolmente spazi di dimensione più alta. Lo spazio fondamentale di dimensione n è lo spazio vettoriale delle ennuple, indicato con \R^n. Per n=2, questo è l'usuale piano cartesiano.

Ogni spazio vettoriale V ha una dimensione. Questa è definita in modo algebrico, come il numero di elementi in una base per V: una base è un insieme di vettori che funge da sistema di riferimento per V. Rigorosamente, una base è una successione

\mathcal B = \{v_1,\ldots, v_n\}

di vettori indipendenti che generano lo spazio V. Uno spazio vettoriale può avere anche dimensione infinita: gli spazi vettoriali di dimensione infinita sono spesso più complicati, e molti teoremi di algebra lineare richiedono come ipotesi che V abbia dimensione finita.

Le nozioni di base e dimensione si applicano a \R^n (che ha dimensione n) e ai sottospazi ivi contenuti. Essendo però definite in modo puramente algebrico, si applicano anche in contesti molto differenti: ad esempio, le matrici m\times n formano uno spazio vettoriale di dimensione mn. I polinomi in una variabile formano uno spazio vettoriale di dimensione infinita: restringendo però il grado dei polinomi ad un certo valore massimo n si ottiene uno spazio vettoriale di dimensione n+1.

Prodotto scalare[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi prodotto scalare.
Il prodotto scalare euclideo nel piano fra due vettori A e B è definito come il prodotto delle lunghezze di B e della proiezione di A su B. Esistono però molti altri modi utili di definire un prodotto scalare, in spazi di dimensione arbitraria.

Due vettori v e w di uno spazio vettoriale possono essere sommati: il risultato è un vettore v+w. Inoltre un vettore  v e uno scalare k possono essere moltiplicati: il risultato è un vettore kv. Nella definizione di spazio vettoriale non è però prevista una operazione di prodotto fra due vettori.

In alcuni contesti è però utile aggiungere una ulteriore operazione binaria fra vettori, che si comporti come un prodotto. Il risultato di questo prodotto può essere a sua volta un vettore o uno scalare. Nel primo caso, questa operazione si chiama prodotto vettoriale, e nel secondo prodotto scalare. L'operazione di prodotto vettoriale risulta però interessante solo in dimensione tre, mentre i prodotti scalari esistono (e sono utili) in tutte le dimensioni: per questo motivo questi ultimi sono molto più studiati.

Nella definizione di spazio vettoriale non è inoltre neppure prevista una nozione di lunghezza (equivalentemente, norma) per i vettori, né di angolo fra due di questi. Entrambe le nozioni di lunghezza e angolo risultano però definite se è fissato un opportuno prodotto scalare.[1]

Applicazioni[modifica | modifica sorgente]

Sistemi lineari[modifica | modifica sorgente]

Un sistema di equazioni lineari è il dato di un certo numero k di equazioni lineari in alcune variabili x_1,\ldots, x_n. Usando le matrici e la moltiplicazione riga per colonne, un sistema può essere scritto in modo stringato nel modo seguente:

Ax = b.

In questa espressione A è una matrice k\times n, x è il vettore delle variabili x_1, ..., x_n e b è un altro vettore formato da costanti.

L'algebra lineare fornisce molti algoritmi per determinare le soluzioni di un sistema lineare. Il legame fra i sistemi di equazioni e l'algebra lineare sta nel fatto che la matrice A può essere interpretata come applicazione lineare da \R^n in \R^k: secondo questa interpretazione, le soluzioni x sono esattamente le controimmagini di b.

Il teorema di Rouché-Capelli fornisce un metodo per contare le soluzioni, senza necessariamente determinarle completamente.[2] Nel caso in cui il sistema sia quadrato e abbia una sola soluzione, questa può essere scritta esplicitamente usando la regola di Cramer. Però tale soluzione teorica è praticamente utilizzabile solo per risolvere sistemi molto piccoli.[3] Mentre i metodi di eliminazione (es. Gauss e quelli iterativi (es. Gauss-Seidel) consentono di calcolare effettivamente le soluzioni di un sistema lineare, anche di grandi dimensioni.

Geometria analitica[modifica | modifica sorgente]

Una retta nel piano cartesiano è descritta da una equazione lineare del tipo ax+by+c=0. Due rette distinte sono parallele se il sistema formato dalle loro due equazioni non ha soluzione.
Tre piani nello spazio possono avere varie configurazioni differenti: in questo caso si intersecano in un punto. Ciascun piano è descritto da una equazione. Il punto di intersezione è ottenuto come soluzione di un sistema con 3 equazioni e 3 variabili.

In geometria analitica una retta o un piano sono descritti da sistemi di equazioni lineari: come si è appena visto, questi possono essere agevolmente studiati con gli strumenti dell'algebra lineare. Si possono quindi affrontare problemi quali le posizioni reciproche di due rette (o piani) nello spazio (che possono essere incidenti, paralleli o sghembi), e come queste variano per trasformazioni lineari.

Le coniche nel piano come ellisse, parabola e iperbole sono determinate da equazioni di secondo grado. Queste equazioni sono più complicate di quelle lineari, che sono di primo grado. Nonostante ciò, la classificazione delle coniche è realizzata in modo efficace con gli strumenti dell'algebra lineare, grazie a teoremi non banali quali il teorema spettrale e il teorema di Sylvester. Con gli stessi strumenti si classificano le quadriche nello spazio.

Calcolo differenziale[modifica | modifica sorgente]

L'analisi matematica delle funzioni in una variabile non fa uso dell'algebra lineare. L'analisi delle funzioni in più variabili invece dipende fortemente da questo settore. La nozione di derivata è infatti estesa in più variabili a quella di differenziale: mentre la derivata è un semplice numero reale che indica la pendenza di una funzione in un punto, il differenziale è un'applicazione lineare, che indica sempre la "pendenza" di una funzione (a più variabili) in un punto.

Anche la nozione di derivata seconda si estende a più variabili: il risultato è una matrice detta matrice hessiana. Questa matrice è simmetrica e può essere agevolmente rappresentata come diagonale grazie al teorema spettrale.

Analisi funzionale[modifica | modifica sorgente]

Molti problemi dell'analisi funzionale, quali la ricerca di una soluzione per una equazione differenziale, vengono affrontati analizzando un particolare spazio di funzioni. Uno spazio di funzioni è uno spazio vettoriale i cui elementi sono funzioni di un certo tipo (ad esempio continue, integrabili, derivabili... definite su un dominio fissato). Spazi di questo tipo sono generalmente di dimensione infinita, e sono dotati di alcune strutture aggiuntive, quali ad esempio un prodotto scalare (negli spazi di Hilbert), una norma (negli spazi di Banach) o una più generale topologia (negli spazi vettoriali topologici).

Esempi di spazi di funzioni includono gli spazi Lp e gli spazi di Sobolev.

Meccanica quantistica[modifica | modifica sorgente]

Le funzioni d'onda associate agli stati di un elettrone in un atomo di idrogeno sono gli autovettori di alcuni particolari operatori autoaggiunti usati in meccanica quantistica.

La meccanica quantistica fa ampio uso dei teoremi più avanzati dell'algebra lineare. Il modello matematico usato in questo settore della fisica (formalizzato principalmente da Paul Dirac e John Von Neumann) descrive i possibili stati di un sistema quantistico come elementi di un particolare spazio di Hilbert e le grandezze osservabili (quali posizione, velocità, etc.) come operatori autoaggiunti. I valori che possono assumere queste grandezze quando vengono effettivamente misurate sono gli autovalori dell'operatore.

L'introduzione e l'uso di questi concetti matematici non banali nella fisica quantistica è stato uno dei maggiori stimoli allo sviluppo dell'algebra lineare nel XX secolo.

Strumenti[modifica | modifica sorgente]

Matrici[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi matrice.

Una matrice è una tabella di numeri, come ad esempio:

A = \begin{pmatrix} 0 & -1 \\ 1 & 0 \end{pmatrix}.

Le matrici sono utili in algebra lineare per rappresentare le applicazioni lineari. Questo viene fatto tramite la moltiplicazione riga per colonna. Ad esempio, la matrice descritta A rappresenta una trasformazione del piano cartesiano \R^2 in sé. Questa trasformazione manda il punto (x,y) nel punto

A\begin{pmatrix} x \\ y \end{pmatrix} = \begin{pmatrix} 0 & -1 \\ 1 & 0 \end{pmatrix}\begin{pmatrix} x \\ y \end{pmatrix} = \begin{pmatrix}-y \\ x \end{pmatrix}.

Questa trasformazione non è nient'altro che una rotazione antioraria di 90º con centro l'origine.

La relazione fra matrici e applicazioni lineari è molto forte. Ogni applicazione lineare fra spazi vettoriali di dimensione m e n è descrivibile tramite una matrice associata di tipo n\times m, purché in entrambi gli spazi vettoriali siano fissate delle basi. L'effetto di un cambiamento di base è codificato dalla matrice di cambiamento di base e la composizione di funzioni si traduce in una moltiplicazione fra matrici.

Eliminazione di Gauss[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi eliminazione di Gauss.

L'eliminazione di Gauss è un algoritmo che consente di ridurre una matrice in una forma più semplice tramite opportune mosse sulle righe. Questo algoritmo è usato principalmente per determinare le soluzioni di un sistema di equazioni lineari, ma ha anche applicazioni più interne all'algebra lineare: con l'eliminazione di Gauss si può determinare il rango, il determinante o l'inversa di una matrice, si può estrarre una base da un insieme di generatori.

Determinante[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi determinante.
Una trasformazione lineare del piano cartesiano descritta da una matrice quadrata 2\times 2. Il determinante della matrice fornisce delle informazioni sulla trasformazione: il valore assoluto descrive il cambiamento di area, mentre il segno descrive il cambiamento di orientazione. Nell'esempio qui riportato, la matrice ha determinante -1: quindi la trasformazione preserva le aree (un quadrato di area 1 si trasforma in un parallelogramma di area 1) ma inverte l'orientazione del piano (cambia il verso della freccia circolare).

Il determinante è un numero associato ad una matrice quadrata A, generalmente indicato come \det A. Da un punto di vista algebrico, il determinante è importante perché vale zero precisamente quando la matrice non è invertibile; quando non è zero, fornisce inoltre un metodo per descrivere la matrice inversa tramite la regola di Cramer.

Da un punto di vista geometrico, il determinante fornisce molte informazioni sulla trasformazione associata ad A: il suo segno (sui numeri reali) indica se la trasformazione mantiene l'orientazione dello spazio, ed il suo valore assoluto indica come cambiano le aree degli oggetti dopo la trasformazione.

Autovalori e autovettori[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi autovalore e autovettore.
In questa trasformazione lineare della Gioconda, l'immagine è modificata ma l'asse centrale verticale rimane fisso. Il vettore blu ha cambiato lievemente direzione, mentre quello rosso no. Quindi il vettore rosso è un autovettore della trasformazione e quello blu no.

Per caratterizzare un endomorfismo è utile studiare alcuni vettori, chiamati autovettori. Geometricamente, un autovettore è un vettore che non cambia direzione. Da un punto di vista algebrico, si tratta di un vettore v tale che

Av = \lambda v

per qualche scalare \lambda, detto autovalore. L'endomorfismo è particolarmente semplice da descrivere se è diagonalizzabile: geometricamente, questo vuol dire che esiste una base di autovettori; algebricamente, vuol dire che l'endomorfismo può essere rappresentato tramite una matrice diagonale, come ad esempio

\begin{pmatrix} 2 & 0 \\ 0 & -1 \end{pmatrix}.

Gli autovalori possono essere trovati agevolmente calcolando il polinomio caratteristico della matrice associata, definito come

p(\lambda) = \det(A-\lambda I).

Gli autovalori di A sono precisamente le radici di questo polinomio. Gli autovettori si organizzano in sottospazi vettoriali chiamati autospazi. Quando lo spazio vettoriale è uno spazio di funzioni, l'autovalore è una particolare funzione, chiamata autofunzione.

Forma canonica di Jordan[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi forma canonica di Jordan.

Un endomorfismo diagonalizzabile è rappresentabile in modo agevole tramite una matrice diagonale. Non tutti gli endomorfismi sono però diagonalizzabili: ad esempio, una rotazione antioraria del piano cartesiano \R^2 di angolo \theta è rappresentata dalla matrice

 \begin{pmatrix} \cos \theta & -\sin \theta \\ \sin \theta & \cos \theta \end{pmatrix}

che (per \theta diverso da 0 e \pi) non ha autovalori né autovettori, e quindi a maggior ragione non può essere diagonalizzabile. Un altro esempio di matrice non diagonalizzabile è la seguente

 \begin{pmatrix} 1 & 1 \\ 0 & 1 \end{pmatrix}.

Se il campo considerato è però il campo \mathbb C dei numeri complessi, è comunque possibile rappresentare l'endomorfismo tramite una matrice che assomiglia il più possibile ad una matrice diagonale, come nel secondo esempio mostrato. Questa rappresentazione, detta forma canonica di Jordan, caratterizza completamente gli endomorfismi. Esiste un'analoga rappresentazione nel campo reale, leggermente più complicata.

Ortogonalizzazione[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi ortogonalizzazione di Gram-Schmidt e algoritmo di Lagrange.

Similmente ad un endomorfismo, anche un prodotto scalare può essere rappresentato da una matrice quadrata. Anche in questo contesto, la forma più semplice da trattare è quella in cui la matrice risulta essere diagonale, e questo accade precisamente quando si fissa una base ortogonale.

A differenza degli endomorfismi, in questo contesto è sempre possibile trovare una matrice diagonale. In altre parole, per qualsiasi prodotto scalare è possibile trovare basi ortogonali. Se il prodotto scalare è definito positivo, un algoritmo efficiente a questo scopo è l'ortogonalizzazione di Gram-Schmidt. Per prodotti scalari più generali si può usare l'algoritmo di Lagrange.

Teoremi[modifica | modifica sorgente]

Teorema della dimensione[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi teorema della dimensione.

Il teorema della dimensione (o del rango) è un teorema che mette in relazione le dimensioni del nucleo e dell'immagine di un'applicazione lineare f, secondo la formula:

\dim \operatorname{Im}(f) + \dim \operatorname{Ker}(f) = n.

Qui Im e Ker denotano immagine e nucleo, mentre n è la dimensione del dominio di f. Questo risultato è anche chiamato teorema del rango, perché tradotto nel linguaggio delle matrici assume la forma seguente:

\operatorname {rk}(A) + \operatorname{null}(A) = n.

Qui rk e null indicano rispettivamente il rango e l'indice di nullità di una matrice A del tipo m\times n.

Teorema di Rouché-Capelli[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi teorema di Rouché-Capelli.

Il teorema di Rouché-Capelli dà alcune informazioni sull'insieme delle soluzioni di un generico sistema lineare:

Ax = b.

Il teorema afferma due cose:

  • il sistema ha soluzione se e solo se le matrici A e (A|b) hanno lo stesso rango r;
  • se ci sono soluzioni, queste formano un sottospazio affine di dimensione n-r, dove n è il numero di incognite (cioè il numero di colonne di A).

In particolare, il numero di soluzioni può essere solo zero, uno o infinito (se le equazioni sono a coefficienti reali o complessi).

Il teorema è generalmente usato per determinare rapidamente se un sistema ammette una o più soluzioni: non può però essere usato per determinarle esplicitamente. Uno strumento per questo scopo è il metodo di eliminazione di Gauss.

Relazione di Grassmann[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi formula di Grassmann.

La formula di Grassmann mette in relazione le dimensioni di vari sottospazi, definiti a partire da due sottospazi V e W entrambi contenuti uno spazio fissato U. La formula è la seguente:

\dim V + \dim W = \dim(V+W) + \dim(V\cap W).

Nell'espressione compaiono i sottospazi ottenuti come somma e intersezione di V e W.

Teorema spettrale[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi teorema spettrale.

Il teorema spettrale fornisce una condizione forte di diagonalizzabilità per alcuni endomorfismi, detti simmetrici o autoaggiunti (a volte il termine operatore è usato come sinonimo di endomorfismo). La nozione di endomorfismo simmetrico (o operatore autoaggiunto) dipende dalla presenza di un fissato prodotto scalare definito positivo (o hermitiano se si usano spazi vettoriali complessi). Il teorema spettrale asserisce che un tale endomorfismo ha una base ortonormale formata da autovettori.

Generalizzazione e argomenti correlati[modifica | modifica sorgente]

I metodi dell'algebra lineare sono stati estesi ad altre branche della matematica, grazie al loro successo. Nella teoria dei moduli si sostituisce il campo degli scalari con un anello. L'algebra multilineare si occupa dei problemi che mappano linearmente 'molte variabili' in un numero differente di variabili, portando inevitabilmente al concetto di tensore. Nella teoria spettrale degli operatori si riescono a gestire matrici di dimensione infinita applicando l'analisi matematica in una teoria non puramente algebrica. In tutti questi casi le difficoltà tecniche sono maggiori. Inoltre, l'algebra lineare viene a essere fondamentale per ambiti riguardanti l'ottimizzazione, in particolare la Ricerca Operativa.

Note[modifica | modifica sorgente]

  1. ^ Più precisamente, questo accade per uno spazio vettoriale reale dotato di un prodotto scalare definito positivo.
  2. ^ Lo spazio delle soluzioni di un sistema è uno spazio affine, ed il teorema di Rouché-Capelli fornisce un metodo per calcolarne la dimensione. Il numero di soluzioni può essere solo 0, 1 o infinito.
  3. ^ Problemi computazionali che limitano l'uso della Regola di Cramer

Bibliografia[modifica | modifica sorgente]

Voci correlate[modifica | modifica sorgente]

Altri progetti[modifica | modifica sorgente]

Collegamenti esterni[modifica | modifica sorgente]

matematica Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica