Utente:^musaz/Sandbox1

Da Wikipedia, l'enciclopedia libera.
Vai alla navigazione Vai alla ricerca

Dimostrazione[modifica | modifica wikitesto]

La dimostrazione nel seguito è valida per matrici hermitiane non singolari con coefficienti in , ovvero matrici simmetriche non singolari.

Una matrice simmetrica è detta definita positiva se tutti i suoi autovalori sono maggiori di zero (), mentre è detta definita non-negativa se .

  • Teorema 1: Una matrice simmetrica possiede autovalori non negativi se e solo se può essere fattorizzata come , e tutti gli autovalori sono positivi se e solo se è non singolare.
Per dimostrare l'implicazione diretta, si nota che se è simmetrica allora per il teorema spettrale è diagonalizzabile: esiste una matrice ortogonale tale che , dove è una matrice diagonale reale con sulla diagonale gli autovalori di (che sono gli stessi di ), e le colonne di sono gli autovettori di . Se per ogni i allora esiste, e si ha:
per
dove per ogni i se è non singolare.
Per ottenere l'implicazione inversa, si nota che se può essere fattorizzata come allora tutti gli autovalori di sono non negativi perchè per ogni coppia si ha:
  • Teorema 2 (decomposizione di Cholesky): La matrice simmetrica possiede pivot positivi se e solo se può essere fattorizzata come , dove è una matrice triangolare superiore con gli elementi della diagonale positivi. Si tratta della decomposizione di Cholesky di , e è il fattore di Cholesky di .
Per dimostrare l'implicazione diretta, se possiede pivot positivi (quindi è possibile una decomposizione LU) allora è possibile una fattorizzazione del tipo in cui è la matrice diagonale contenente i pivot :
x x x
Per l'unicità della decomposizione così effettuata, la simmetria di produce il fatto che , di conseguenza . Ponendo , dove , la simmetria di conduce alla fattorizzazione desiderata in quanto:
e è una matrice triangolare superiore con gli elementi della diagonale positivi.
Per ottenere l'implicazione inversa, se con una matrice triangolare inferiore, allora la fattorizzazione è:
x
dove è triangolare inferiore con una diagonale di tutti 1 e è una matrice diagonale la cui diagonale è composta dagli elementi . Di conseguenza, è la fattorizzazione di , e così i pivot devono essere positivi perchè sono la diagonale di .
  • Teorema 3: Sia la principale sottomatrice di guida di dimensione di . Se posside una fattorizzazione LU allora e il k-esimo pivot è per , mentre è per .

Combinando i teoremi 1, 2 e 3 si conclude che:

  • Se la matrice simmetrica può essere fattorizzata come , dove è triangolare superiore la cui diagonale è composta da elementi positivi, allora tutti i pivot di sono positivi per il teorema 2, e quindi tutti i minori principali di guida di sono positivi per il teorema 3.
  • Se la matrice simmetrica non singolare può essere fattorizzata come allora la decomposizione QR (legata al procedimento di Gram-Schmidt) di produce , dove è una matrice ortogonale e è triangolare superiore. Si nota che questo enunciato richiede la non singolarità di .

Dai risultati ottenuti, in particolare dalle due precedenti osservazioni e dal teorema 1, segue che se una matrice reale simmetrica è definita positiva allora possiede una fattorizzazione della forma , dove è non singolare. L'espressione implica che può essere fattorizzata come , dove è una matrice triangolare superiore la cui diagonale è composta da elementi maggiori di zero. In altre parole, una matrice simmetrica è definita positiva se e solo se tutti i suoi minori principali di guida sono positivi. La validità della condizione necessaria e sufficiente è automatica in quanto è stata mostrata per ognuno dei teoremi enunciati.

Examples of 1-forms[modifica | modifica wikitesto]

Many real-world concepts can be described as one-forms:

  • Mean: The mean element of an n-vector is given by the one-form [1/n, 1/n, ..., 1/n]. That is,

The most basic non-trivial differential one-form is the "change in angle" form This is defined as the derivative of the angle "function" (which is only defined up to a constant), which can be explicitly defined in terms of the atan2 function Taking the derivative yields the following formula for the total derivative:

While the angle "function" cannot be continuously defined – the function atan2 is discontinuous along the negative y-axis – which reflects the fact that angle cannot be continuously defined, this derivative is continuously defined except at the origin, reflecting the fact that infinitesimal (and indeed local) changes in angle can be defined everywhere except the origin. Integrating this derivative along a path gives the total change in angle over the path, and integrating over a closed loop gives the winding number.

In the language of differential geometry, this derivative is a one-form, and it is closed (its derivative is zero) but not exact (it is not the derivative of a 0-form, i.e., a function), and in fact it generates the first de Rham cohomology of the punctured plane. This is the most basic example of such a form, and it is fundamental in differential geometry.

prodotto tensoriale[modifica | modifica wikitesto]

Siano e due operatori lineari densamente definiti rispettivamente sugli spazi di Hilbert e , e siano e elementi rispettivamente del dominio di e .

Sia l'insieme delle possibili combinazioni lineari di vettori del tipo . Tale insieme è denso in , ed in esso è possibile definire l'operatore tale che:

Se gli operatori e sono chiudibili, lo è anche .[1] Si definisce prodotto tensoriale degli operatori e la chiusura dell'operatore .[2]

Note[modifica | modifica wikitesto]

  1. ^ Reed, Simon, Pag. 298
  2. ^ Reed, Simon, Pag. 299

Green ID[modifica | modifica wikitesto]

On manifolds[modifica | modifica wikitesto]

Green's identities hold on a Riemannian manifold, In this setting, the first two are

where u and v are smooth real-valued functions on M, dV is the volume form compatible with the metric, is the induced volume form on the boundary of M, N is oriented unit vector field normal to the boundary, and is the Laplacian.

Green's vector identity[modifica | modifica wikitesto]

Green’s second identity establishes a relationship between second and (the divergence of) first order derivatives of two scalar functions. In differential form

where and are two arbitrary twice continuously differentiable scalar fields. This identity is of great importance in physics because continuity equations can thus be established for scalar fields such as mass or energy.[1] Although the second Green’s identity is always presented in vector analysis, only a scalar version is found on textbooks. Even in the specialized literature, a vector version is not easily found. In vector diffraction theory, two versions of Green’s second identity are introduced. One variant invokes the divergence of a cross product [2][3][4] and states a relationship in terms of the curl-curl of the field . This equation can be written in terms of the Laplacians:

However, the terms , could not be readily written in terms of a divergence. The other approach introduces bi-vectors, this formulation requires a dyadic Green function.[5][6] The derivation presented here avoids these problems.[7]

Consider that the scalar fields in Green's second identity are the Cartesian components of vector fields, i.e. and . Summing up the equation for each component, we obtain

The LHS according to the definition of the dot product may be written in vector form as

The RHS is a bit more awkward to express in terms of vector operators. Due to the distributivity of the divergence operator over addition, the sum of the divergence is equal to the divergence of the sum, i.e. . Recall the vector identity for the gradient of a dot product , which, written out in vector components is given by This result is similar to what we wish to evince in vector terms ’except’ for the minus sign. Since the differential operators in each term act either over one vector (say ’s) or the other (’s) , the contribution to each term must be

These results can be rigorously proven to be correct through evaluation fo the vector components. Therefore, the RHS can be written in vector form as

Putting together these two results, a theorem for vector fields analogous to Green’s theorem for scalar fields is obtained


The curl of a cross product can be written as ; Green’s vector identity can then be rewritten as

Since the divergence of a curl is zero, the third term vanishes and Green’s vector identity is

With a similar porcedure, the Laplacian of the dot product can be expressed in terms of the Laplacians of the factors

As a corollary, the awkward terms can now be written in terms of a divergence by comparison with the vector Green equation

This result can be verified by expanding the divergence of a scalar times a vector on the RHS.

Bibliografia[modifica | modifica wikitesto]

  • Walter Strauss, Partial Differential Equations: An Introduction, Wiley.

Note[modifica | modifica wikitesto]

  1. ^ M. Fernández-Guasti. Complementary fields conservation equation derived from the scalar wave equation. J. Phys. A: Math. Gen., 37:4107–4121, 2004.
  2. ^ A. E. H. Love. The Integration of the Equations of Propagation of Electric Waves. Philosophical Transactions of the Royal Society of London. Series A, Containing Papers of a Mathematical or Physical Character, 197:pp. 1–45, 1901.
  3. ^ J. A. Stratton and L. J. Chu. Diffraction Theory of Electromagnetic Waves. Phys. Rev., 56(1):99–107, Jul 1939.
  4. ^ N. C. Bruce. Double scatter vector-wave Kirchhoff scattering from perfectly conducting surfaces with infinite slopes. Journal of Optics, 12(8):085701, 2010.
  5. ^ W. Franz, On the Theory of Diffraction. Proceedings of the Physical Society. Section A, 63(9):925, 1950.
  6. ^ Chen-To Tai. Kirchhoff theory: Scalar, vector, or dyadic? Antennas and Propagation, IEEE Transactions on, 20(1):114–115, jan 1972.
  7. ^ M. Fernández-Guasti. Green's second identity for vector fields. ISRN Mathematical Physics, 2012:7, 2012. Article ID: 973968. [1]

trasformazione binomiale[modifica | modifica wikitesto]

Generalizzazioni[modifica | modifica wikitesto]

Si può definire un'altra trasformazione ponendo:

che fornisce:

dove U e B sono le ordinarie funzioni generatrici associate alle serie e rispettivamente.

Nel caso in cui la trasformazione binomiale sia definita come:

Si ponga questa somma uguale alla funzione

Considerando una nuova tabella delle differenze all'indietro e si prendono i primi elmenti di ogni riga per formare una nuova successione , allora la seconda trasformazione binomiale della succeessione originale è:

Ripetendo questo procedimento k volte segue che:

L'inverso è:

Si può generalizzare ciò come:

dove è l'operatore di shift.

Il suo inverso è: