Principio di corrispondenza

Da Wikipedia, l'enciclopedia libera.

In fisica il principio di corrispondenza afferma che i risultati della meccanica quantistica devono ridursi a quelli della meccanica classica nelle situazioni in cui l'interpretazione classica può essere considerata valida. Fu enunciato dal fisico danese Niels Bohr all'inizio del XX secolo, e si rivelò estremamente importante nella formulazione della teoria quantistica e quindi nella comprensione dei fenomeni che regolano il microcosmo.

La fisica sembra infatti soggiacere a due diversi tipi di leggi: la meccanica classica, quando le dimensioni, le masse, i periodi e in generale tutte le grandezze, possono essere considerati "grandi", e la meccanica quantistica, quando invece si ha a che fare con il mondo del "molto piccolo".

Questa ambiguità si risolve, appunto, con il principio di corrispondenza. Nella formulazione che viene usata in pratica, esso stabilisce che il comportamento di un sistema quantistico si riduce a quello di un equivalente classico per valori elevati dei numeri quantici. La soluzione all'ambiguità sopra citata è, in un certo senso, negativa: non si può stabilire in maniera netta una linea di demarcazione tra "mondo classico" e "mondo quantistico"; piuttosto l'uno sfuma nell'altro con l'aumentare dei numeri quantici.

Per fare un esempio, sappiamo che il moto di una massa vincolata ad una molla può essere descritto completamente dalle equazioni della meccanica classica, ma non è affatto chiaro il perché non sia necessario ricorrere alla meccanica quantistica per fornire previsioni accurate.

Se assumiamo che il corpo in questione abbia massa m di 500 g e sia accoppiato ad una molla con costante elastica k pari 5 N/m, esso è un oscillatore armonico e la fisica classica ci dice che la sua frequenza di oscillazione è ν= 0,5 Hz. Se assumiamo come valore per l'ampiezza di oscillazione 20 cm, il sistema avrà un'energia totale E pari a 0,1 J. L'ampiezza delle oscillazioni tenderà a diminuire a causa dell'attrito. Ma, dalla meccanica quantistica, sappiamo che un oscillante può cedere energia solo in maniera discreta tramite quanti di energia, il cui valore è \Delta E =  h \nu. Con i dati del nostro esempio, vediamo che l'energia può ridursi solo a "salti" di ampiezza \Delta E = 3,3 \cdot 10^{-34}  J che rispetto all'energia totale sono più piccoli di 33 ordini di grandezza. È evidente come misure di energia di tale finezza siano praticamente impossibili, anche per il principio di indeterminazione di Heisenberg: dunque considerare il sistema in maniera classica non crea alcuna ambiguità.

Vediamo, infine, come il principio di corrispondenza avrebbe potuto evitarci di fare tutti i calcoli, postulando che la descrizione classica avrebbe fornito risultati accurati. Calcoliamo qual è il numero quantico che descrive l'energia del nostro oscillatore. Dalla relazione E = n h \nu si ricava facilmente n =\frac {E} {h \nu}. Un semplice calcolo ci dice che  n = 3,02 \cdot 10^{32} . Questo è un numero enorme e non sorprende quindi il non riuscire a valutare la differenza tra n e n+1.

Tuttavia, in alcuni ambiti particolari, si deve stare attenti: se il sistema quantistico è fortemente non lineare, e la sua hamiltoniana ha valori molto grandi, anche una piccola perturbazione può causare grosse differenze. In questi casi, ovviamente, il principio di corrispondenza viene meno.

In senso più lato, il principio di corrispondenza indica che le nuove teorie fisiche non contraddicono le precedenti, ma le estendono e generalizzano a nuovi ambiti sperimentali prima ignoti. È secondo questa accezione che un analogo principio viene formulato da Einstein nell'ambito della relatività generale.

Una teoria fisica non può avere la pretesa di essere una teoria del tutto, ed ha un preciso campo di esistenza, che la rende applicabile a un certo numero di fenomeni.

Appena la teoria è falsificata, ne viene introdotta una nuova che ha il compito di spiegare sia i fenomeni già noti che quelli che entrano in contraddizione con la teoria abbandonata. Una nuova teoria assume maggiore valore se è predittiva, se anticipa fenomeni noti in precedenza, e di più se questi falsificano una teoria precedente.

La nuova teoria dovrebbe essere formulata in modo da essere un'estensione della precedente.

Un rapporto di questo tipo pone la relatività generale in relazione alla fisica newtoniana. La relatività generale estende la fisica newtoniana alle alte velocità. Le due teorie non sono solamente in un rapporto di continuità.

Alle alte velocità esistono fenomeni controllabili e coerenti con le evidenze sperimentali solo seguendo la relatività, mentre i calcoli della fisica newtoniana portano a un margine di errore non tollerabile.

In altre parole, la teoria è stata superata da un'altra, che spiega una mole maggiore di fenomeni.

L'esempio della estensione della fisica di Newton con la relatività generale è per alcuni solo un esempio delle più generali possibilità di qualsiasi sapere scientifico.
Secondo il Teorema di Godel è impossibile una costruzione matematica al contempo coerente e completa. Per quanti vedono la matematica e il metodo sperimentale alla base di qualsiasi scienza, tale affermazione estende automaticamente a tutti i saperi scientifici (o alla conoscenza in genere, per quanti non danno attendibilità a teorie non verificabili quantitativamente e con esperimenti). La scienza sacrifica completezza alla coerenza, rinunciando a costruire una teoria pur contraddittoria del Tutto, a favore di teorie non complete ma coerenti. Il principio di non-contraddizione diviene la guida del metodo scientifico.
È quindi noto a priori che una teoria non contraddittoria che "salva i fenomeni" noti, non sarà completa, e quindi esistono e in futuro si potranno scoprire dei fenomeni non prevedibili da tali teorie, e che porteranno a un loro superamento. Questi fenomeni talora lavorano su un ordine di grandezza, una o n volte più grande o piccolo della teoria in questione, come accade fra la fisica di Newton, la teoria della relatività alla alte velocità, ovvero la fisica quantistica delle particelle.
Le teorie progressivamente vengono falsificate da nuove scoperte, che portano non alla demolizione delle teorie, ma alla estensione e correzione (mediante formule sempre più complicate complesse, nuovi tipi di calcolo) che permettono di prevedere e controllare nuovi fenomeni, e avere nuove applicazioni. Si è in presenza di una o più teorie sempre più grandi, sempre in divenire e che non sarà mai nota in toto.

Secondo un'altra interpretazione, che non generalizza il principio di corrispondenza, le teorie coerenti e non complete, che vengono falsificate da un nuovo esperimento, non necessariamente possono essere "salvate" a livello teorico da correzioni e estensioni, che spiegano i nuovi fenomeni e ne prevedono altri ancora, ma sono spesso destinate a essere abbandonate e sostituite da nuove teorie. In altre parole, la teoria avrebbe valore come strumento di calcolo che permette di riprodurre e controllare una classe di fenomeni.

Rispetto alla ricerca di una teoria del tutto nuova, che arriva agli stessi risultati numerici e a priori potrebbe anche essere più semplice ed elegante di quella falsificata dall'esperimento, il tentativo di estensione e di usare il principio di corrispondenza è il modo più rapido di evitare il moltiplicarsi delle teorie, e di arrivare a poche equazioni/formule che descrivono una molteplicità di fenomeni già noti e nuovi.
Per chi tende a generalizzare l'ambito di applicazione del principio di corrispondenza, una teoria unitaria e generale rimane preferibile ad una molteplicità di teorie aventi un campo di esistenza e applicabilità più limitato, e perciò più semplici ed eleganti: la falsificazione di una teoria generale, infatti, a partire dalla solita novità sperimentale, consentirebbe di riscrivere un numero più alto di equazioni, e quindi di avere maggiori previsioni teoriche confermabili da esperimenti, e un maggiore numero di nuove applicazioni.

Una teoria può essere falsificata ed estesa non solo dalla disponibilità di strumenti di misura con errori e potenza sempre migliori, ma dal tentativo di una deduzione rigorosa a partire da poche affermazioni evidenti e non dimostrabili (postulati), e perciò a priori non universali. Identificati i postulati, il passo successivo è provare a negarli uno alla volta e vedere se questo porta a una nuova teoria non contraddittoria, come è accaduto per le geometrie non euclidee.
Se un esperimento falsifica una teoria, per capire se questa deve essere abbandonata o può essere ancora estesa ed unita con le equazioni che governano il nuovo fenomeno, è semplice confrontare i postulati delle due teorie, se sono incoerenti o viceversa si possono ridurre di numero all'interno di una teoria più robusta.

Voci correlate[modifica | modifica wikitesto]