Norma matriciale

Da Wikipedia, l'enciclopedia libera.

In matematica, una norma matriciale è la naturale estensione alle matrici del concetto di norma definito per i vettori.

Definizione[modifica | modifica wikitesto]

Una norma sullo spazio vettoriale delle matrici a elementi nel campo è una funzione tale che per ogni coppia di matrici e e per ogni scalare si verifica:

  • se e solo se (matrice nulla)

Si riconoscono quindi esattamente le stesse proprietà delle norme vettoriali; ciò riflette il fatto che lo spazio delle matrici è isomorfo allo spazio di vettori (per esempio tramite l'applicazione che manda una matrice nel vettore che contiene una dopo l'altra le sue righe) e quindi una norma matriciale deve avere perlomeno le stesse proprietà di una norma vettoriale.

In più, se , cioè le matrici sono quadrate, generalmente si chiede che venga soddisfatta anche la proprietà di sub-moltiplicatività:

Se è vera la sub-moltiplicatività si ricava subito che per la matrice identità vale .

Lo spazio munito di una norma sub-moltiplicativa è un esempio di algebra di Banach.

Norma indotta[modifica | modifica wikitesto]

Se è data una norma su ( saranno i numeri reali o i numeri complessi), che per distinguere si indicherà con , allora è definita una norma su , detta norma indotta, in questo modo:

Essa coincide con la norma della trasformazione lineare associata alla matrice, vista come operatore lineare continuo tra spazi di Banach, che si dà in analisi funzionale.

Nel caso quadrato, questa norma risulta sub-moltiplicativa se viene usato lo stesso tipo di norma sia nel dominio che nel codominio. Per esempio, se per i vettori utilizziamo una delle norme p otteniamo delle norme, che si chiameranno sempre norme p, così definite:

Nel caso , la norma si dice anche norma operatoriale.

Proprietà[modifica | modifica wikitesto]

Per una norma indotta è sempre vero che e che . Per una norma qualsiasi, se ciò accade allora si dice che la norma è compatibile rispetto alla norma .

Per alcuni valori particolari di si dimostra che valgono alcune identità che facilitano il calcolo:

Ne segue immediatamente che ; dunque se è simmetrica . In più, se vale:

dove è la trasposta coniugata di (la trasposta nel caso reale) e è il raggio spettrale di , cioè il massimo tra i suoi autovalori in valore assoluto. Il caso è detto anche norma spettrale. Se è simmetrica allora l'uguaglianza si riduce a:

Vale anche sempre che:

Qualsiasi norma indotta soddisfa la disuguaglianza:

e inoltre vale che:

Norma Compatibile[modifica | modifica wikitesto]

Una norma matriciale su è detta compatibile con una norma vettoriale su e una norma vettoriale su se:

per ogni e per ogni . Tutte le norme indotte sono compatibili per definizione.

Altre norme[modifica | modifica wikitesto]

Diffuse sono anche le norme che valutano la matrice "componente per componente", cioè equiparandola al vettore avente come componenti le entrate della matrice. Per esempio, i corrispettivi delle norme p vettoriali per le matrici, che si chiameranno sempre norme p (ma che sono distinte dalle norme p indotte), sono:

In quanto sostanzialmente sono norme vettoriali, queste norme p sono sub-moltiplicative.

Come prima, il caso assume una certa importanza: esso viene detto anche norma di Frobenius ed è definibile anche come:

dove è la traccia di e sono i valori singolari di .

Una proprietà singolare della norma di Frobenius è che se con indichiamo le colonne di , allora vale la seguente uguaglianza:

In certi casi si lavora anche con il quadrato della norma di Frobenius. Essendo la funzione crescente e convessa, anch'esso è una norma; essa prende il nome di norma di traccia e vale quindi

Norme equivalenti[modifica | modifica wikitesto]

Per ogni coppia di norme matriciali e valgono le disuguaglianze:

cioè le due norme sono equivalenti. Esse quindi inducono la stessa topologia su .

Di seguito sono riportati alcuni esempi di tali costanti per una matrice reale:

dove rappresenta la norma infinito indotta e la sua norma uniforme, cioè il massimo dei moduli dei suoi elementi.

Bibliografia[modifica | modifica wikitesto]

  • (EN) James W. Demmel, Applied Numerical Linear Algebra, section 1.7, SIAM, 1997.
  • (EN) Carl D. Meyer, Matrix Analysis and Applied Linear Algebra, SIAM, 2000. [1]
  • (EN) John Watrous, Theory of Quantum Information, 2.3 Norms of operators, lecture notes, University of Waterloo, 2011.
  • (EN) Kendall Atkinson, An Introduction to Numerical Analysis, John Wiley & Sons, Inc 1989
  • (EN) Higham, N. J. "Matrix Norms." §6.2 in Accuracy and Stability of Numerical Algorithms. Philadelphia: Soc. Industrial and Appl. Math., 1996.
  • (EN) Horn, R. A. and Johnson, C. R. "Norms for Vectors and Matrices." Ch. 5 in Matrix Analysis. Cambridge, England: Cambridge University Press, 1990.

Voci correlate[modifica | modifica wikitesto]

Collegamenti esterni[modifica | modifica wikitesto]

Matematica Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica