Notazione bra-ket

Da Wikipedia, l'enciclopedia libera.

In fisica, più precisamente in meccanica quantistica, la notazione bra-ket, anche conosciuta come notazione di Dirac o formalismo di Dirac, è una notazione introdotta dal fisico e matematico britannico Paul Dirac per descrivere uno stato quantico. Essa è usata più in generale in matematica per denotare vettori astratti in uno spazio funzionale lineare: lo spazio di Hilbert. Il nome deriva dal fatto che il prodotto scalare di due stati \phi e \psi è denotato con una bracket \langle\phi|\psi\rangle consistente in due parti: la sinistra \langle\phi| chiamata bra, e la parte destra |\psi\rangle, chiamata ket. Un ket di stato descrive completamente uno stato quantistico.

Spazio di Hilbert[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi spazio di Hilbert.

In meccanica quantistica e nella rappresentazione di Dirac ad ogni stato è associato un vettore di stato indicato con |\cdot \rangle nello spazio di Hilbert astratto \mathcal H. Questo spazio è innanzitutto uno spazio vettoriale, cioè se |\alpha \rangle, |\beta \rangle \in \mathcal{H}:

a |\alpha \rangle + b |\beta \rangle \in \mathcal H

dove a,b \in \mathbb{C}, questa proprietà deve essere valida per il principio di sovrapposizione. Proprietà che derivano direttamente dal fatto che \mathcal H è uno spazio vettoriale complesso sono:

  • |\alpha \rangle + |\beta \rangle = |\beta \rangle + |\alpha \rangle
  • (|\alpha \rangle + |\beta \rangle ) + |\gamma \rangle = |\beta \rangle + |\alpha \rangle + |\gamma \rangle
  • \exist! \; |0 \rangle \,,\; |\alpha \rangle + |0 \rangle = |\alpha \rangle
  • \exist! \; | \!-\!\! \alpha \rangle \,,\; |\alpha \rangle + | \!-\!\! \alpha \rangle = 0
  • a (|\alpha \rangle + |\beta \rangle ) = a |\alpha \rangle + a |\beta \rangle
  • (a + b) |\alpha \rangle = a |\alpha \rangle + b |\alpha \rangle
  • a (b |\alpha \rangle) = a b |\alpha \rangle
  • 0 |\alpha \rangle = |0 \rangle \,;\; 1 |\alpha \rangle = |\alpha \rangle \,;\; -1 |\alpha \rangle = | \!-\!\! \alpha \rangle

In particolare se esistono |\alpha_1 \rangle , |\alpha_2 \rangle , ..., |\alpha_n \rangle vettori essi sono linearmente indipendenti se e solo se:

c_1 |\alpha_1 \rangle + c_2 |\alpha_2 \rangle + ... + c_n |\alpha_n \rangle = 0 \Rightarrow c_1 = c_2 = ... = c_n = 0

se invece esistono coefficienti non tutti nulli che diano una combinazione lineare nulla allora i vettori sono dipendenti. L'importanza dell'indipendenza lineare sta nel fatto che un set di vettori che generino lo spazio vettoriale cioè ogni |\alpha \rangle \in \mathcal H è scrivibile come:

|\alpha \rangle = a_1 |e_1 \rangle + a_2 |e_2 \rangle + \dots + a_n |e_n \rangle

dove |e_1 \rangle,\dots, |e_n \rangle sono i vettori che generano lo spazio \mathcal H. Se questi vettori sono anche linearmente indipendenti allora formano una base nello spazio \mathcal H. Scelta una base esiste una corrispondenza tra:

|\alpha \rangle \rightarrow (a_1, a_2, \dots, a_n)

tra il vettore e i suoi coefficienti in quella base.

Lo spazio di Hilbert è anche uno spazio euclideo per cui nella notazione di Dirac valgono le proprietà tipiche del prodotto interno:

  • \langle \beta |c_1 \alpha_1 + c_2 \alpha_2 \rangle = c_1 \langle \beta |\alpha_1 \rangle + c_2 \langle \beta |\alpha_2 \rangle
  • \langle \beta |\alpha \rangle^* = \langle \alpha | \beta \rangle
  • \langle \alpha |\alpha \rangle \ge 0 e \langle \alpha|\alpha \rangle = 0 \Leftrightarrow |\alpha \rangle = 0

dove l'ultima proprietà è la definizione di norma. La norma di un vettore è reale e si indica:

\|\alpha \| = \sqrt{\langle \alpha |\alpha \rangle}

Queste proprietà indicano per uno spazio complesso che:

\langle c \beta |\alpha \rangle = c^* \langle \beta |\alpha \rangle

dove * è l'operazione di coniugazione complessa.

Inoltre lo spazio di Hilbert è uno spazio completo e separabile: queste due proprietà indicano che in pratica esiste un insieme completo di vettori che formano una base topologica numerabile.

Analogamente al caso euclideo, possiamo scegliere una base nello spazio di Hilbert complesso, diciamo una base discreta:

\{|e_i \rangle \} = \left( |e_1 \rangle , |e_2 \rangle, \cdots \right)

con:

\langle e_i | e_j \rangle = \delta_{ij}

condizione di ortonormalità (\delta_{ij} è il simbolo di Kronecker). Possiamo sempre rappresentare un qualsiasi vettore di stato come combinazione lineare di tali vettori ortonormali di base con opportuni coefficienti complessi:

|\alpha \rangle = \sum_{i} |e_i \rangle \langle e_i | \alpha \rangle = \sum_i c_i |e_i \rangle

analogamente per un bra qualsiasi:

\langle \alpha | = \sum_{i} \langle \alpha | e_i \rangle \langle e_i | = \sum_i c_{i}^{*} \langle e_i|

dove (*) rappresenta la coniugazione complessa e i coefficienti sono ricavabili da c_i = \langle e_i|\alpha \rangle. La norma di un vettore:

\langle \alpha|\alpha \rangle = |c_1|^2 + |c_2|^2 + \dots + |c_n|^2

Notiamo che qualsiasi set di base può essere posto in forma ortonormale con il procedimento di Gram-Schmidt.

Formalmente i ket e i bra si possono rappresentare mediante matrici unicolonnari del tipo:

|\psi \rangle = \begin{pmatrix} \langle e_1|\psi \rangle \\ \langle e_2 | \psi \rangle \\ \vdots \end{pmatrix}
\langle \psi| =  \begin{pmatrix} \langle e_1|\psi \rangle^* & \langle e_2 | \psi \rangle^* & \cdots \end{pmatrix}

Vediamo che esiste una corrispondenza duale tra bra e ket:

c_{\alpha}|\alpha \rangle + c_{\beta} |\beta \rangle  \, \, \leftrightarrow \, \, c_{\alpha}^{*} \langle \alpha| + c_{\beta}^{*} \langle \beta |

Queste relazioni esprimono il principio di sovrapposizione degli stati quantistici: questo concetto è puramente quantistico e teorico e di difficile interpretazione: i coefficienti c_i = \langle e_i|\alpha \rangle rappresentano l'ampiezza di probabilità in modo che il suo modulo quadro rappresenti la probabilità dello stato \alpha. In termini di ampiezza di probabilità il fattore \langle e_i| \alpha \rangle ha un significato particolare, ma in tal caso la base scelta deve essere ortonormale poiché deve valere l'assioma della probabilità che essa deve essere normalizzata all'unità. Analogamente al caso geometrico si può definire il prodotto scalare tra un bra \langle \psi | e un ket |\varphi \rangle definito rispetto ad una base ortonormale assegnata:

\left\langle  \psi | \varphi \right\rangle = \sum_i \left\langle  \psi | e_i \right\rangle \left\langle  e_i | \varphi \right\rangle

Formalmente esso si può anche esprimere come prodotto tra vettore riga e vettore colonna:

\langle \psi|\varphi \rangle =  \begin{pmatrix} \langle e_1|\psi \rangle^* & \langle e_2 | \psi \rangle^* & \cdots \end{pmatrix} \begin{pmatrix} \langle e_1|\varphi \rangle \\ \langle e_2 | \varphi \rangle \\ \vdots \end{pmatrix}

o in alternativa, usando i coefficienti:

\left\langle  \psi | \varphi \right\rangle = \sum_i \psi_i^* \varphi_i

Dirac propose di scindere il termine a sinistra dell'espressione in due parti, la prima \left\langle  \psi \right| detta bra e la seconda  \left| \varphi \right\rangle detta ket. Il prodotto scalare quindi rappresenta in qualche modo l'ampiezza di probabilità se la base rappresentativa è ortonormale: in caso contrario il modulo quadro dell'ampiezza di probabilità non ha un significato immediato di probabilità, ma è comunque proporzionale alla probabilità.

Operatori[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi operatore.

Definiamo l'operatore A un'applicazione lineare che rappresenta matematicamente un qualsiasi oggetto fisico che interagisca con gli stati che stiamo considerando, comprese le apparecchiature sperimentali, modificando lo stato  |\psi \rangle e trasformandolo nello stato  A |\psi\rangle . L'operatore A è completamente definito se sono dati i suoi elementi rispetto ad una base qualsiasi che scegliamo \{ |e_i \rangle \}:

A |e_1 \rangle = A_{11} |e_1 \rangle + A_{12} |e_2 \rangle + \dots
A |e_2 \rangle = A_{21} |e_1 \rangle + A_{22} |e_2 \rangle + \dots

e così via, dove A_{11} = \langle e_1|A|e_1 \rangle. Infatti l'operatore è assegnato quando se ne conoscono i numeri:

\langle e_i|A|e_j\rangle

infatti un operatore che agisce sullo stato \varphi e lo trasforma in un altro stato \psi è descrivibile da:

\langle \psi |A| \varphi \rangle = \sum_{i,j} \langle \psi |e_i \rangle \langle e_i |A|e_j \rangle \langle e_j |\varphi \rangle

Vediamo innanzitutto come agisce un operatore su un ket di stato anch'esso rappresentato nella stessa base:

A|\varphi \rangle = \sum_{i,j} |e_i \rangle \langle e_i|A|e_j\rangle \langle e_j|\varphi \rangle

allo stesso modo l'operatore agisce su un bra:

\langle \psi |A = \sum_{i,j} \langle \psi |e_i \rangle \langle e_i|A|e_j\rangle \langle e_j|

Per cui formalmente un operatore è ben rappresentato da una matrice n \times n:

A = \begin{pmatrix} \langle e_1|A|e_1 \rangle & \langle e_1 | A | e_2 \rangle & \cdots \\ \langle e_2|A|e_1 \rangle & \langle e_2 |A|e_2 \rangle & \cdots \\ \vdots & \vdots & \ddots \end{pmatrix} = \begin{pmatrix} A_{11} & A_{12} & \cdots \\ A_{21} & A_{22} & \cdots \\ \vdots & \vdots & \ddots \end{pmatrix} = (A_{ij})

Possiamo quindi calcolare l'ampiezza di probabilità di passare dallo stato A |\psi \rangle allo stato  |\varphi \rangle scriveremo \left\langle  \psi | A |\varphi \right\rangle , detto anche elemento di matrice di A fra ψ e φ. Scomponendo ψ e φ in stati base, possiamo calcolare gli elementi di matrice \left\langle e_i | A | e_j \right\rangle possiamo calcolare le ampiezze risultanti su e_i dal passaggio in A di qualunque stato espresso in e_j.

Un caso particolare di operatore è l'operatore identità, la cui azione è quella di lasciare invariato il vettore di stato:

\langle \psi |I|\varphi \rangle = \langle \psi |\varphi \rangle

usando l'operatore identità vediamo che possiamo esprimere i vettori di base:

\sum_i |e_i \rangle \langle e_i | = I

detta relazione di completezza: essa esprime il fatto che la base di vettori deve essere completa cioè ogni vettore deve essere rappresentabile mediante un numero finito o infinito di vettori di base.

Prodotto di operatori[modifica | modifica sorgente]

Gli operatori che ci interessono sono quelli lineari, cioè quelli per cui valgono:

(A + B) |\alpha \rangle = A|\alpha \rangle + B |\alpha \rangle
A (a|\alpha \rangle ) = a A |\alpha \rangle

Ora supponiamo di applicare successivamente due operatori su uno stato iniziale |\varphi \rangle e finale \langle \psi | al solito definiti in una base comune ortonormale:

C = B \cdot A

allora la successiva applicazione dei due operatori:

\langle \psi |C|\varphi \rangle = \sum_i \langle \psi |B|e_i \rangle \langle e_i|A|\varphi \rangle

oppure:

\langle e_j |C | e_k \rangle = \sum_i \langle e_j |B|e_i \rangle \langle e_i |A |e_k \rangle

Gli elementi di C possono compattamente scriversi:

C_{ik} = \sum_{j=1}^{n} A_{ij} \cdot B_{ij}

Da notare che in generale il prodotto di due operatori non è commutativo:

A \cdot B \neq B \cdot A

e questo fatto impone una serie di notevoli conseguenze in meccanica quantistica.

Operatori e matrici[modifica | modifica sorgente]

Un operatore lineare può essere rappresentato con una matrice. Prendiamo il caso di una matrice quadrata n \times n allora:

A = \begin{pmatrix} A_{11} & A_{12} & \dots & A_{1n} \\ A_{21} & A_{22} & \dots & A_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ A_{n1} & A_{n2} & \dots & A_{nn} \end{pmatrix}

In tal caso è sempre possibile effettuare il prodotto di due matrici, essendo il numero di righe di una sempre uguale al numero di colonne dell'altra, come già visto. Siamo in grado di definire a partire da questa matrice alcune proprietà indispensabili in meccanica quantistica. Si chiama operatore trasposto o matrice trasposta, la matrice ottenuta da A scambiando le righe con le colonne:

A^T = \begin{pmatrix} A_{11} & A_{21} & \dots & A_{n1} \\ A_{12} & A_{22} & \dots & A_{n2} \\ \vdots & \vdots & \ddots & \vdots \\ A_{1n} & A_{2n} & \dots & A_{nn} \end{pmatrix}

Se una matrice è uguale alla sua trasposta si dice simmetrica:

A = A^T,

se invece è uguale alla matrice cambiata di segno si dice antisimmetrica:

A = - A^T.

Vale per il prodotto:

(A \cdot B)^T = B^T \cdot A^T.

Si definisce matrice complessa coniugata la matrice ottenuta da A con elementi complessi coniugati:

A^* = \begin{pmatrix} A_{11}^{*} & A_{12}^{*} & \dots & A_{1n}^{*} \\ A_{21}^{*} & A_{22}^{*} & \dots & A_{2n}^{*} \\ \vdots & \vdots & \ddots & \vdots \\ A_{n1}^{*} & A_{n2}^{*} & \dots & A_{nn}^{*} \end{pmatrix}

Possiamo dire che una matrice è reale se è uguale alla sua complessa coniugata:

A = A^*,

diciamo che è immaginaria se ha tutti gli elementi immaginari cioè se:

A = - A^*.

Si definisce matrice aggiunta o hermitiana coniugata la matrice ottenuta da A prendendo gli elementi di A trasposti e prendendo i suoi complessi coniugati:

A^{\dagger} = (A^T)^* = (A^*)^T = \begin{pmatrix} A_{11}^{*} & A_{21}^{*} & \dots & A_{n1}^{*} \\ A_{12}^{*} & A_{22}^{*} & \dots & A_{n2}^{*} \\ \vdots & \vdots & \ddots & \vdots \\ A_{1n}^{*} & A_{2n}^{*} & \dots & A_{nn}^{*} \end{pmatrix}

Si definisce matrice hermitiana (o autoaggiunta) la matrice che ha:

A = A^{\dagger}

e antihermitiana quella per cui:

A = - A^{\dagger}

Per il prodotto di due matrici:

(A \cdot B)^{\dagger} = B^{\dagger} \cdot A^{\dagger}.

Definiamo matrice inversa di A, la matrice A^{-1} tale che:

A \cdot A^{-1} = A^{-1} \cdot A = I

La matrice inversa esiste solo se A è invertibile: condizione necessaria e sufficiente perché A sia invertibile è che il determinante della matrice sia diverso da zero. Allora la matrice inversa è:

A^{-1} = \frac{|C|}{det A}

dove |C| è la matrice dei cofattori, ottenuta scambiando ogni elemento A_{ij} con il determinante della sottomatrice ottenuta cancellando la i-esima riga e la j-esima colonna. Vale per il prodotto:

(A \cdot B)^{-1} = B^{-1} \cdot A^{-1}

Si definisce matrice unitaria la matrice tale che:

A^{-1} = A^{\dagger}

Cambiamento di basi ortonormali[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi Matrice di cambiamento di base.

I cambiamenti di basi ortonormali sono quelli che interessano in meccanica quantistica. Supponiamo di voler passare dalla vecchia base ortonormale \{ |e_i \rangle \} alla nuova base ortonormale \{ |f_i \rangle \}. Allora dobbiamo esprimere gli elementi della vecchia base come combinazioni lineari della nuova base:

|e_1 \rangle = S_{11} |f_1 \rangle + S_{21} |f_2 \rangle + \dots + S_{n1} |f_n \rangle
|e_2 \rangle = S_{12} |f_1 \rangle + S_{22} |f_2 \rangle + \dots + S_{n2} |f_n \rangle

...

|e_n \rangle = S_{1n} |f_1 \rangle + S_{2n} |f_2 \rangle + \dots + S_{nn} |f_n \rangle

per un qualsiasi set di numeri S_{ji}. Da notare che sono trasposti. In modo compatto:

|e_j \rangle = \sum_{i=1}^{n} S_{ij} |f_i \rangle

Prodotto esterno[modifica | modifica sorgente]

Vediamo che in generale è possibile un altro tipo di prodotto, quello rappresentato da:

|\alpha \rangle \langle \beta |

esso è chiamato prodotto esterno per distinguerlo dal prodotto scalare che più propriamente è detto prodotto interno. Il prodotto esterno è un operatore i cui elementi di matrice sono rappresentati da:

|\alpha \rangle \langle \beta | =  \begin{pmatrix} \langle e_1|\alpha \rangle \langle e_1 |\beta \rangle^* & \langle e_1 |\alpha \rangle \langle e_2|\beta \rangle^* & \cdots \\ \langle e_2|\alpha \rangle \langle e_1 |\beta\rangle^* & \langle e_2 |\alpha \rangle \langle e_2 |\beta \rangle^* & \cdots \\ \vdots & \vdots & \ddots \end{pmatrix}

Esempi[modifica | modifica sorgente]

Prendiamo ad esempio una particella con spin 1/2, l'elettrone. Abbiamo solo 2 possibili stati base: spin su ( |+\rangle ) e spin giù ( |-\rangle ). L'operatore A sarebbe dunque

\left\langle i | A | j \right\rangle = \left(
\begin{matrix} 
{\langle+|A|+\rangle},{\langle+|A|-\rangle} \\
{\langle-|A|+\rangle},{\langle-|A|-\rangle} \\
\end{matrix} \right)

Un operatore particolare è quello di evoluzione temporale. Se consideriamo l'elettrone al tempo t1 in un determinato stato (+ o -), esso avrà una certa probabilità di trovarsi, in un tempo t2 successivo al primo, in un certo stato (+ o -). Ciascuna delle quattro possibilità verrà rappresentata dalla seguente notazione matriciale:

\left\langle i | U(t_1,t_2) | j \right\rangle = \left(
\begin{matrix} 
{\langle+|U(t_1,t_2)|+\rangle},{\langle+|U(t_1,t_2)|-\rangle} \\
{\langle-|U(t_1,t_2)|+\rangle},{\langle-|U(t_1,t_2)|-\rangle} \\
\end{matrix} \right)

Il limite per t1 → -∞ e t2 → +∞ è un caso particolare: in questo caso l'operatore di evoluzione temporale viene detto matrice S (da scattering) ed introduce alla teoria dei propagatori.

Voci correlate[modifica | modifica sorgente]

Simboli HTML[modifica | modifica sorgente]

Nel linguaggio HTML, i simboli per il bra e il ket sono codificati da 〈 e 〉, e corrispondono ai codici #9001 e #9002

Fisica Portale Fisica: accedi alle voci di Wikipedia che trattano di Fisica