Sistema di equazioni lineari

Da Wikipedia, l'enciclopedia libera.
Nota disambigua.svg Disambiguazione – "Sistema lineare" rimanda qui. Se stai cercando il concetto di sistema lineare in teoria dei sistemi, vedi Sistema dinamico lineare.

In matematica, e in particolare in algebra lineare, un sistema di equazioni lineari, anche detto sistema lineare, è un sistema di equazioni lineari che devono essere verificate tutte contemporaneamente. Una soluzione del sistema è un vettore i cui elementi sono le soluzioni delle equazioni che compongono il sistema, ovvero tali che se sostituiti alle incognite rendono le equazioni delle identità.

Definizione[modifica | modifica wikitesto]

Un sistema di equazioni lineari è un insieme di m equazioni lineari in n incognite, che può essere scritto nel modo seguente:[1][2]


\left\{
\begin{matrix} 
a_{1,1}x_1 + a_{1,2}x_2 +\cdots + a_{1,n}x_n = b_1\\
a_{2,1}x_1 + a_{2,2}x_2 +\cdots + a_{2,n}x_n = b_2\\
\vdots\\
a_{m,1}x_1 + a_{m,2}x_2 +\cdots + a_{m,n}x_n = b_m\\
\end{matrix}
\right.

Il numero n delle incognite è detto anche ordine del sistema.

Se termini noti b_i sono tutti nulli il sistema è detto omogeneo.

Una n-upla (x_1,\dots,x_n) di elementi nel campo è una soluzione del sistema se soddisfa tutte le m equazioni.[3]

Due sistemi si dicono equivalenti se hanno lo stesso insieme di soluzioni. In particolare, due sistemi lineari sono equivalenti se ogni equazione di uno è combinazione lineare delle equazioni dell'altro.[4]

Forma matriciale[modifica | modifica wikitesto]

In notazione indiciale il sistema si scrive:

\sum_j^n a_{ij}x_j = b_i

Definendo i vettori dei coefficienti:

 \mathbf a_i \equiv \begin{pmatrix} a
_{i1} \\ \vdots \\ a_{in} \end{pmatrix}

e il vettore degli m termini noti:

 \mathbf b \equiv \begin{pmatrix} b_1 \\ \vdots \\ b_m \end{pmatrix}

il sistema è equivalente alla combinazione lineare:[1]

\sum_i^n a^i x_i = \mathbf b

Definendo \mathbf x il vettore delle n incognite:

 \mathbf x \equiv \begin{pmatrix} x_1 \\ \vdots \\ x_n \end{pmatrix}

ciascuna equazione è equivalente ad un prodotto scalare standard:[5]

\mathbf a_1 \cdot \mathbf x = b_1
\cdots
\mathbf a_m \cdot \mathbf x = b_m

Se il sistema è omogeneo il vettore delle incognite è quindi ortogonale ai vettori dei coefficienti.

Usando le matrici ed il prodotto scalare fra matrici (prodotto riga per colonna) si possono separare i coefficienti, le incognite ed i termini noti del sistema, scrivendolo nel modo seguente:


\begin{pmatrix}
a_{11} & a_{12} & \cdots & a_{1n} \\
a_{21} & a_{22} & \cdots & a_{2n} \\
\vdots & \vdots & \ddots & \vdots \\
a_{m1} & a_{m2} & \cdots & a_{mn} \end{pmatrix}

\begin{pmatrix}
x_1 \\
x_2 \\
\vdots \\
x_n
\end{pmatrix} 
=
\begin{pmatrix}
b_1 \\
b_2 \\
\vdots \\
b_m
\end{pmatrix}

Ora seA è la matrice m \times n dei coefficienti:

 A \equiv \begin{pmatrix} a_{1,1} & \cdots & a_{1,n} \\ \vdots & \ddots & \vdots \\ a_{m,1} & \cdots & a_{m,n} \end{pmatrix}

di cui in effetti  \mathbf a^1, \ldots, \mathbf a^n sono le colonne, con le definizioni del vettore delle incognite e di quello dei termini noti il sistema si scrive finalmente in forma matriciale:

A \cdot \mathbf x = \mathbf b

Matrice completa[modifica | modifica wikitesto]

Il sistema può essere descritto usando la matrice completa:

(A, \mathbf b) = \left(\begin{matrix} a_{1,1} & \cdots & a_{1,n} & b_1 \\ \vdots & \ddots & \vdots &\vdots\\ a_{m,1} & \cdots & a_{m,n} & b_m  \end{matrix}\right)

detta matrice associata al sistema. Essa è ottenuta dalla giustapposizione della matrice dei coefficienti e del vettore dei termini noti.

Le matrici  A \ e  (A, \mathbf b) sono dette rispettivamente matrice incompleta (o matrice dei coefficienti) e completa (o orlata). I numeri x_1,\dots,x_n sono le incognite, i numeri a_{ij} sono i coefficienti ed i numeri b_i i termini noti. Coefficienti e termini noti sono elementi di un campo, ad esempio quello formato dai numeri reali o complessi.

Caratteristiche[modifica | modifica wikitesto]

Il grado di un sistema di equazioni polinomiali è definito come il prodotto dei gradi delle equazioni che lo compongono. Quindi un sistema lineare è un sistema polinomiale di primo grado.

In generale, un sistema lineare può essere:

  • Determinato, quando ha una sola soluzione.
  • Impossibile, quando non ha nessuna soluzione.
  • Indeterminato, quando ha infinite soluzioni.
  • Numerico, quando le soluzioni sono rappresentate da numeri.
  • Letterale, quando le soluzioni sono rappresentate da espressioni letterali.
  • Omogeneo, quando i termini noti sono tutti zero.

Se il campo K di appartenenza di coefficienti e termini noti di un sistema di ordine n è infinito, ci sono tre possibilità: esiste una sola soluzione, non ci sono soluzioni oppure ce ne sono infinite. Il teorema che asserisce questo fatto e che permette di stabilire se e quante soluzioni esistono senza risolvere il sistema è il teorema di Rouché-Capelli. Nel caso in cui esistano soluzioni, queste formano un sottospazio affine di K^n.

Il sistema omogeneo associato[modifica | modifica wikitesto]

Si consideri l'operazione lineare:

L(\mathbf x) = \sum_i^n x_iA^i

Il nucleo di L è lo spazio delle soluzioni del sistema omogeneo associato, mentre l'immagine è lo spazio generato dalle colonne  A^1, \ldots, A^n . Per il teorema del rango segue che la dimensione dello spazio delle soluzioni più il rango per colonne di A è pari ad n.

Essendo il vettore delle incognite ortogonale ai vettori riga della matrice dei coefficienti, lo spazio delle soluzioni è il complemento ortogonale del sottospazio generato dalle righe di A. La somma delle rispettive dimensioni deve pertanto essere pari ad n.

Dalle due affermazioni precedenti si conclude che il rango r per righe è pari al rango per colonne, e che lo spazio delle soluzioni ha dimensione n-r.[5] Lo spazio delle soluzioni è dunque un sottospazio vettoriale di dimensione  n - \rho(A) .

Lo spazio delle soluzioni[modifica | modifica wikitesto]

Exquisite-kfind.png Lo stesso argomento in dettaglio: Teorema di Rouché-Capelli.

Il sistema ammette soluzione se e solo se il vettore  \mathbf b è l'immagine del vettore  \mathbf x ottenuta mediante l'applicazione lineare  L_A \colon K^n \to K^ m definita nel seguente modo:

 L_A( \mathbf x) = A \mathbf x \

L'immagine di L_A è generata dai vettori dati dalle colonne di  A , e quindi  \mathbf b è nell'immagine se e solo se lo span delle colonne di A contiene  \mathbf b , cioè se e solo se lo spazio generato dalle colonne di  A è uguale allo spazio generato dalle colonne di  (A|\mathbf b) . In modo equivalente il sistema ammette soluzione se e solo se le due matrici abbiano lo stesso rango, come stabilisce il teorema di Rouché-Capelli.

Se esiste una soluzione  \mathbf x_0 , ogni altra soluzione si scrive come  \mathbf x_0 + \mathbf v , dove  \mathbf v è una soluzione del sistema lineare omogeneo associato:[6]

A \mathbf v=0

Infatti:

 A(\mathbf x_0 + \mathbf v) = A \mathbf x_0 +A \mathbf v = \mathbf b + \mathbf 0 = \mathbf b \

Lo spazio delle soluzioni, ottenuto traslando il nucleo con il vettore \mathbf x_0 , è quindi il sottospazio affine dato da:

\operatorname{Sol}(A, \mathbf b) = \mathbf x_0 + \operatorname{Sol}(A, \mathbf 0)

La dimensione dello spazio delle soluzioni del sistema completo è uguale alla dimensione dello spazio delle soluzioni del sistema omogeneo associato.[7] Per il teorema di Rouché-Capelli tale soluzione è unica se e solo se il rango della matrice A è n. Altrimenti se il campo K è infinito esistono infinite soluzioni, e queste formano un sottospazio vettoriale di  K^t , avente come dimensione la nullità  t = n - \operatorname{rk}(A) della matrice.

Strumenti per la risoluzione[modifica | modifica wikitesto]

Exquisite-kfind.png Lo stesso argomento in dettaglio: Sistema di equazioni.

Esistono diversi metodi per risolvere un sistema di equazioni, che accomunano sia sistemi lineari che sistemi non lineari. Nello specifico dei sistemi lineari, tra i metodi risolutivi vi sono l'algoritmo di Gauss, la regola di Cramer ed il metodo di riduzione.

Se la matrice A è quadrata e invertibile, inoltre, la soluzione è unica ed è uguale al prodotto:

 A^{-1}\cdot \mathbf {b}

dove  A^{-1} è l'inversa di A. Si deve tenere presente che il calcolo della matrice inversa è spesso complicato e oneroso dal punto di vista computazionale.

Il metodo di riduzione[modifica | modifica wikitesto]

Il metodo di riduzione è specifico per i sistemi lineari, ed il procedimento consiste nel sostituire una delle equazioni del sistema con una opportuna combinazione lineare di due equazioni del sistema stesso, ottenendo un sistema equivalente a quello dato. Più precisamente, se due righe sono espresse come prodotto tra opportune sottomatrici dei coefficienti ed il vettore \mathbf x delle soluzioni, ovvero:

\begin{cases}A\mathbf {x}=\mathbf {c} \\ B\mathbf {x}=\mathbf {d}\end{cases}

allora è possibile sostituire una delle due con l'equazione:

m \cdot A\mathbf {x} + n \cdot B\mathbf {x}=m \cdot \mathbf {c} + n \cdot \mathbf {d}

dove m e n sono due numeri scalari qualsiasi, entrambi diversi da zero.

Questo metodo è consigliato quando permette di trasformare il sistema dato in un altro più semplice, in cui almeno una delle equazioni ha perso la dipendenza da qualche incognita.

Note[modifica | modifica wikitesto]

  1. ^ a b S. Lang, Pag. 61
  2. ^ Hoffman, Kunze, Pag. 3
  3. ^ Hoffman, Kunze, Pag. 4
  4. ^ Hoffman, Kunze, Pag. 6
  5. ^ a b S. Lang, Pag. 176
  6. ^ S. Lang, Pag. 177
  7. ^ S. Lang, Pag. 178

Bibliografia[modifica | modifica wikitesto]

  • Serge Lang, Algebra lineare, Torino, Bollati Boringhieri, 1992, ISBN 88-339-5035-2.
  • (EN) Kenneth Hoffman, Ray Kunze, Linear Algebra, 2ª ed., Englewood Cliffs, New Jersey, Prentice - Hall, inc., 1971, ISBN 0-13-536821-9.
  • F. Odetti, M. Raimondo, Elementi di Algebra Lineare e Geometria Analitica, ECIG, 1992, ISBN 88-7545-717-4.

Voci correlate[modifica | modifica wikitesto]

Altri progetti[modifica | modifica wikitesto]

matematica Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica