Legge di Gutenberg-Richter

Da Wikipedia, l'enciclopedia libera.
Gutenberg-richter.jpg

In sismologia, la legge di Gutenberg–Richter [1] esprime la relazione fra la magnitudo e il numero del totale dei terremoti di almeno quella magnitudo in ogni data regione e il periodo di tempo.

\!\,{\log N} = A - b M

oppure

\!\,N = 10^{A - b M}

Dove:

  • \!\, N è il numero di eventi nel campo di una data magnitudo
  • \!\, M è una magnitudo minima
  • \!\, A e \!\, b sono costanti

la relazione fu per la prima volta proposta da Charles Francis Richter e Beno Gutenberg, è sorprendentemente efficace e non varia significativamente da regione a regione o oltre il tempo fissato.

La costante b è tipicamente uguale a 1.0. Ciò significa che per ogni evento di magnitudo 4.0 ci saranno 10 scosse di magnitudo 3.0 e 100 scosse di magnitudo 2.0. Una considerevole eccezione si verifica durante gli sciami sismici quando il valore b può diventare così alto raggiungendo 2.5, che sta ad indicare una proporzione anche maggiore di piccole scosse rispetto alle grandi scosse. Un valore b significativamente differente da 1.0 può indicare un problema con un insieme di dati; per esempio è incompleto o contiene errori nel calcolo della magnitudo. L'estratto ("roll off") del valore b è un indicatore della totalità della serie di dati alla fine di una bassa magnitudo.

Il valore a è di minore interesse scientifico e semplicemente indica il tasso della sismicità totale della regione.

Dei tentativi moderni per comprendere la legge implicano teorie di criticità auto-organizzata o auto-somiglianza.

Note[modifica | modifica wikitesto]

  1. ^ (EN) B. Gutenberg and C.F. Richter, Seismicity of the Earth and Associated Phenomena, 2nd ed. (Princeton, N.J.: Princeton University Press, 1954), pages 17-19 ("Frequency and energy of earthquakes").

Voci correlate[modifica | modifica wikitesto]