Indipendenza lineare

Da Wikipedia, l'enciclopedia libera.

In matematica, e più precisamente in algebra lineare, l'indipendenza lineare di un insieme di vettori appartenenti ad uno spazio vettoriale si verifica se nessuno di questi può essere espresso come una combinazione lineare degli altri. In caso contrario si dice che l'insieme di vettori è linearmente dipendente.

L'indipendenza di n vettori in \R^n può essere verificata tramite il determinante della matrice ottenuta affiancando le n-uple che esprimono i vettori in una data base: questi sono indipendenti precisamente quando la matrice che formano ha determinante diverso da zero. Questo procedimento di calcolo è però in generale dispendioso, e conviene piuttosto utilizzare l'algoritmo di Gauss-Jordan.

Definizione[modifica | modifica sorgente]

Sia V uno spazio vettoriale su un campo K. Dati \mathbf{v}_1 , \mathbf{v}_2 , \cdots , \mathbf{v}_n elementi di V, si dice che essi sono linearmente indipendenti su K se in tale campo la relazione:

  \sum_{i=1}^n a_i \mathbf{v}_i = a_1 \mathbf{v}_1 + a_2 \mathbf{v}_2 + \cdots + a_n \mathbf{v}_n = \mathbf{0} \qquad a_i \in K

è verificata solo se gli elementi a_1,a_2,\cdots,a_n sono tutti uguali a zero.[1]

Se invece tali n-uple di elementi non nulli del campo esistono, allora si dice che \mathbf{v}_1 , \mathbf{v}_2 , \cdots , \mathbf{v}_n elementi di V sono linearmente dipendenti.

La definizione si estende anche ad un insieme infinito di vettori di V: questi sono linearmente indipendenti se lo sono tutti i sottoinsiemi finiti.

Il concetto di indipendenza lineare è di grande importanza, poiché un insieme di vettori linearmente indipendenti forma una base per il sottospazio da lui generato, e quindi il loro numero risulta essere la dimensione di questo spazio.

Lo spazio proiettivo delle dipendenze lineari[modifica | modifica sorgente]

Si consideri l'insieme S costituito dai vettori \mathbf{v}_1 , \mathbf{v}_2 , \cdots , \mathbf{v}_n. Si dice dipendenza lineare per S un vettore \mathbf a = (a_1,a_2,\cdots,a_n) di K^n diverso da \mathbf 0 = (0, \cdots , 0) tale che:

a_1 \mathbf{v}_1 + \cdots + a_n \mathbf{v}_n=0

Se una tale dipendenza lineare esiste, allora gli n vettori sono linearmente dipendenti. Data una dipendenza lineare \mathbf d per un insieme S di n vettori, ogni vettore \alpha \mathbf d proporzionale ad essa, con \alpha \ne 0 appartenente a K, è una dipendenza lineare per lo stesso S. Questo rende lecito identificare due dipendenze lineari l'una multipla non nulla dell'altra.

In conseguenza di tale identificazione, l'insieme di tutte le dipendenze lineari per l'insieme costituito dai vettori \mathbf{v}_1 , \mathbf{v}_2 , \cdots , \mathbf{v}_n è uno sottospazio dello spazio proiettivo P(K^n).

Esempi[modifica | modifica sorgente]

Nel piano[modifica | modifica sorgente]

I vettori (1, 1) e (-3, 2) in R^2 sono linearmente indipendenti.

Infatti, siano a e b due numeri reali tali che:

 a (1,1) + b(-3,2) \,=\, (0,0)

allora:

 ( a - 3 b , a + 2 b ) = (0, 0)

cioè:

 a - 3b = 0 \qquad a + 2b = 0

risolvendo per a e b, si trova a=0 e b=0.

Base canonica[modifica | modifica sorgente]

Sia V=\R^n e si considerino i seguenti elementi in V:

 \mathbf{e}_1 \,:=\, (1,0,0,\ldots,0)
 \mathbf{e}_2 \,:=\, (0,1,0,\ldots,0)
 \cdots
 \mathbf{e}_n \,:=\, (0,0,0,\ldots,1)

allora \mathbf e_1, \mathbf e_2, \dots \mathbf e_n sono linearmente indipendenti.

Infatti, si supponga che a_1, a_2, \dots a_n siano elementi di \R tali che:

 a_1 \mathbf{e}_1 + a_2 \mathbf{e}_2 + \cdots + a_n \mathbf{e}_n \,=\, 0

Poiché:

 a_1 \mathbf{e}_1 + a_2 \mathbf{e}_2 + \cdots + a_n \mathbf{e}_n = (a_1 ,a_2 ,\ldots, a_n)

allora a_i=0 per ogni i in \{1, \dots n \}.

Funzioni[modifica | modifica sorgente]

Sia V lo spazio vettoriale di tutte le funzioni da \R in \R. Indicando con t la variabile reale, le funzioni e^t ed e^{2t} in V sono linearmente indipendenti.

Infatti, si supponga che a e b siano due numeri reali tali che:

 a e^t + b e^{2 t} = 0

per ogni valore di t. Si deve dimostrare che a=0 e b=0. A questo scopo si differenziano entrambi i membri della precedente relazione per avere:

 a e^t + 2 b e^{2 t} = 0

Sottraendo la prima relazione dalla seconda, si ottiene:

 b e^{2 t} = 0

e, considerando il valore particolare t=0, si ha b=0.

Dalla prima relazione allora:

 a e^t \,=\, 0

e di nuovo per t=0 si trova a=0.

Note[modifica | modifica sorgente]

  1. ^ Hoffman, Kunze, op. cit., Pag. 40

Bibliografia[modifica | modifica sorgente]

  • Serge Lang, Algebra lineare, Torino, Bollati Boringhieri, 1992. ISBN 88-339-5035-2.
  • (EN) Kenneth Hoffman, Ray Kunze, Linear Algebra, 2ª ed., Englewood Cliffs, New Jersey, Prentice - Hall, inc., 1971. ISBN 01-353-6821-9.
  • (EN) Stephen, Arnold, Lawrence Friedberg, Insel, Spence, Linear Algebra, Pearson, 4th Edition, pp. 48-49. ISBN 0-13-008451-4.

Voci correlate[modifica | modifica sorgente]

Collegamenti esterni[modifica | modifica sorgente]

matematica Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica