Problema della gerarchia

Da Wikipedia, l'enciclopedia libera.

In fisica teorica, il problema della gerarchia si verifica quando i parametri fondamentali (le costanti di accoppiamento o le masse) di alcuni lagrangiane sono molto diverse (in genere più grandi) a partire dai parametri misurati da un esperimento. Ciò può accadere perché i parametri misurati sono i parametri relativi ai parametri fondamentali di una teoria che debbono essere rinormalizzati[1]. In genere i parametri di rinormalizzazione sono strettamente legati ai parametri fondamentali, ma in alcuni casi, sembra che vi sia stata una "cancellazione" tra la quantità fondamentali e le correzioni quantistiche ad esse associate[2].

La massa del bosone di Higgs[modifica | modifica wikitesto]

In fisica delle particelle, il più importante problema della gerarchia è il chiedersi il perché la forza debole è 1032 volte più forte della gravità. Entrambe queste forze coinvolgono una costante della natura, la costante di Fermi per la forza debole e la costante di Newton per la gravità. Inoltre, se il Modello Standard è utilizzato per calcolare le correzioni quantistiche della costante di Fermi, sembra che la costante di Fermi sia innaturalmente grande e dovrebbe essere molto più vicina alla costante di Newton, a meno che non vi sia una cancellazione tra il valore nudo della costante di Fermi e le correzioni quantistiche a essa.

Più tecnicamente, la domanda è: perché il bosone di Higgs è molto più leggero della massa di Planck[3]? Una possibile risposta a questa domanda viene fornita dalla supersimmetria. Le correzioni quantistiche associate alle nuove particelle introdotte dalla supersimmetria cancellano esattamente quelle del Modello Standard e permettono di risolvere il problema della gerarchia. Tuttavia, affinché questo avvenga, è necessario che le particelle supersimmetriche siano più leggere di un certo valore, determinato dal criterio detto Barbieri-Giudice[4]. Secondo questo criterio, nuove particelle dovrebbero essere scoperte con l'acceleratore LHC al CERN, ammesso che la supersimmetria sia la soluzione del problema della gerarchia. Fino a questo momento, dopo il termine della prima fase di LHC conclusasi nel 2013, gli esperimenti non hanno identificato nessuna particella supersimmetrica. .

Costanti di accoppiamento[modifica | modifica wikitesto]

Le costanti di accoppiamento in meccanica quantistica sono costanti proprie di ciascuna delle quattro forze, o meglio interazioni, fondamentali della natura e cioè la forza elettromagnetica, la forza nucleare debole, la forza nucleare forte e la forza di gravità.

Ogni costante definisce l'intensità dell'interazione cui si riferisce.
Va notato, però, che nel caso delle prime tre forze la costante di accoppiamento varia al variare dell'energia del processo cui si riferisce.

Ciò sembrerebbe contraddittorio perché questa costante in verità non è costante ma variabile; in realtà ciò comporta che, una volta calcolato il valore della costante ad una data energia, l'intensità di un'interazione diviene nota a qualsiasi livello di energia.

Recenti sperimentazioni hanno dimostrato che ad altissime energie l'intensità delle tre forze assumono valori molto simili e quindi anche i valori delle tre costanti di accoppiamento sono molto vicini tra loro; ciò dà credito all'ipotesi dell'unificazione di queste tre interazioni e quindi all'esistenza di un'unica costante ad energie elevate per ora non ancora sperimentalmente raggiunte.

Poiché la forza gravitazionale è molto più debole rispetto alle altre tre forze fondamentali, anche la sua costante di accoppiamento differisce grandemente dalle altre tre.

Le costanti di accoppiamento sono costanti adimensionali.

Nella tabella vengono riportati i simboli e i valori delle costanti di accoppiamento.

Costanti di accoppiamento
Tipo di forza Simbolo Valore
Forte αs 1
Elettromagnetica α 1/137,04 (costante di struttura fine)
Debole αw 10−6
Gravità αg 10−39

Come si può notare la forza di gravità è estremamente più debole delle altre.

Rinormalizzazione[modifica | modifica wikitesto]

In fisica, la rinormalizzazione indica la procedura matematica di rimozione delle divergenze che nascono quando si procede al calcolo di quantità fisiche osservabili in teorie dei campi definite su uno spaziotempo continuo.

In teoria delle perturbazioni, tale procedura passa attraverso la ridefinizione (running) dei campi e delle costanti di accoppiamento a seconda della scala di energia considerata.

Gli integrali associati ai diagrammi di Feynman sono spesso divergenti nel limite ultravioletto, nel limite cioè in cui si includono gli impulsi integrati che tendono ad infinito. Le divergenze vengono prima classificate ed eliminate "brutalmente" mediante una esplicita procedura di regolarizzazione: si procede cioè ad una riformulazione matematica, spesso non fisica, della teoria in modo da rendere gli integrali, e quindi le quantità fisiche osservabili, non divergenti. La rinormalizzazione, quindi, consiste nel preciso modo di rimuovere la regolarizzazione introdotta e tornare alla teoria originaria (limite al continuo) avendo cura di mantenere finiti i valori delle quantità fisiche osservabili.

Una procedura comune di regolarizzazione è quella dell'introduzione di un "cutoff" nei momenti integrati. Si tratta di escludere gli impulsi elevati dagli integrali mediante un estremo di integrazione superiore (il cutoff, appunto) introdotto artificialmente ed arbitrariamente. Le divergenze dell'integrale appaiono quindi come potenze o logaritmi del cutoff e possono essere rimosse ridefinendo ("rinormalizzando") i campi e le costanti d'accoppiamento in maniera che dipendano dal valore del cutoff precisamente in modo da mantenere finiti i valori delle quantità fisiche osservabili.

La procedura di rinormalizzazione, così com'è stata descritta in maniera molto semplificata, può lasciare molti dubbi di inconsistenza e circolarità del procedimento. Effettivamente anche storicamente l'introduzione di queste tecniche è stato accompagnato da forti critiche e dubbi.

Oggi il gruppo di rinormalizzazione è stato del tutto chiarito e trova piena giustificazione in termini di teorie efficaci. Essenzialmente si tratta della capacità che ha lo strumento matematico delle teorie di campo di affrancarsi da una descrizione fisica dettagliata al di sotto di una certa scala di lunghezze (e corrispondentemente al di sopra di una certa scala di energie) per poter dare una descrizione adeguata al di sopra di quella scala di lunghezze (al di sotto di quella scala di energie).

Voci correlate[modifica | modifica wikitesto]

Note[modifica | modifica wikitesto]

  1. ^ Weinberg Steven, The Quantum Theory of Fields, Volume 3: Supersymmetry, Cambridge University Press, Cambridge (1999). ISBN 0-521-66000-9.
  2. ^ A Supersymmetry Primer, Stephen P. Martin
  3. ^ Stephen P. Martin, A Supersymmetry Primer
  4. ^ R. Barbieri, G.F. Giudice, Nucl. Phys. B306, 63 (1988).

Bibliografia[modifica | modifica wikitesto]

  • Junker G. Supersymmetric Methods in Quantum and Statistical Physics, Springer-Verlag (1996).
  • Kane G. L., Shifman M., The Supersymmetric World: The Beginnings of the Theory World Scientific, Singapore (2000). ISBN 981-02-4522-X.
  • Weinberg Steven, The Quantum Theory of Fields, Volume 3: Supersymmetry, Cambridge University Press, Cambridge (1999). ISBN 0-521-66000-9.
  • Wess, Julius, and Jonathan Bagger, Supersymmetry and Supergravity, Princeton University Press, Princeton, (1992). ISBN 0-691-02530-4.
  • Bennett GW, et al; Muon (g−2) Collaboration, Measurement of the negative muon anomalous magnetic moment to 0.7 ppm in Physical Review Letters, vol. 92, nº 16, 2004, p. 161802, DOI:10.1103/PhysRevLett.92.161802, PMID 15169217.
  • (EN) Cooper F., A. Khare, U. Sukhatme. Supersymmetry in Quantum Mechanics, Phys. Rep. 251 (1995) 267-85 (arXiv:hep-th/9405029).
  • (EN) D.V. Volkov, V.P. Akulov, Pisma Zh.Eksp.Teor.Fiz. 16 (1972) 621; Phys. Lett. B46 (1973) 109.
  • (EN) V.P. Akulov, D.V. Volkov, Teor.Mat.Fiz. 18 (1974) 39.

Collegamenti esterni[modifica | modifica wikitesto]

Fisica Portale Fisica: accedi alle voci di Wikipedia che trattano di Fisica