Serie convergente

Da Wikipedia, l'enciclopedia libera.

In matematica, una serie convergente è una serie tale che il limite delle sue somme parziali è finito. Questo vuol dire che, data una successione an, la serie \sum_{i=0}^\infty a_i è convergente se la successione

S_n=\sum_{i=0}^n a_i

ha un limite finito, cioè se esiste S tale che per ogni \varepsilon>0 esiste N tale che per ogni n>N

|S_n-S|<\varepsilon

Il numero S è detto somma della serie: spesso è difficile trovare questo numero, sebbene possa essere facile capire che una serie è convergente.

La somma di due serie convergenti è ovviamente ancora convergente, così come la serie prodotta dalla moltiplicazione di una serie per uno scalare; le serie convergenti formano quindi uno spazio vettoriale sul campo dei numeri reali.

Una serie non convergente non è necessariamente detta divergente, ad esempio la serie \sum_{i=0}^n (-1)^i non è né convergente né divergente, oscillando tra i valori meno uno e uno.

Esempi[modifica | modifica sorgente]

Assoluta convergenza[modifica | modifica sorgente]

Una serie è detta assolutamente convergente se converge la serie dei valori assoluti, cioè se la serie

\sum_{i=0}^\infty |a_i|

converge.

Si dimostra facilmente che una serie assolutamente convergente è convergente: infatti, se si definiscono due nuove successioni

b_n=\begin{cases}a_n \mathrm{~se~}a_n>0\\ 0\mathrm{~altrimenti}\end{cases}
c_n=\begin{cases}-a_n \mathrm{~se~}a_n<0\\ 0\mathrm{~altrimenti}\end{cases}

risulta evidente che le loro serie \sum_{i=0}^\infty b_i e \sum_{i=0}^\infty c_i sono a termini positivi e convergono, poiché ogni loro termine è minore o uguale del corrispondente termine di |an|. Quindi la loro differenza è anch'essa convergente, e quindi la serie originale converge, perché a_n=b_n-c_n

Il viceversa non è vero: la serie

  • -\frac{1}{1}+\frac{1}{2}-\frac{1}{3}+\frac{1}{4}-\cdots = \sum_{n=1}^\infty(-1)^n\frac{1}{n}

converge a -\ln 2, ma la serie dei valori assoluti

  • \frac{1}{1}+\frac{1}{2}+\frac{1}{3}+\frac{1}{4}+\cdots = \sum_{n=1}^\infty+\frac{1}{n}

è la serie armonica, che diverge.

Criteri di convergenza[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi criteri di convergenza.

Per stabilire se una serie converge o meno è possibile usare dei criteri di convergenza, che consentono spesso di stabilire velocemente il carattere di una serie (specialmente se è a termini positivi, cioè se S_n>S_{n-1} per ogni n sufficientemente grande) senza tuttavia permettere di calcolarne effettivamente la somma.

Il metodo principale, che viene usato per dimostrare molti altri è il criterio del confronto: se \sum_{i=0}^\infty a_i e \sum_{i=0}^\infty b_i sono due serie a termini positivi tali che b_i>a_i per ogni n sufficientemente grande e la seconda serie converge, allora converge anche la prima. Inversamente, se la prima diverge così farà la seconda.

Altri criteri molto usati sono il criterio del rapporto e il criterio della radice: nel primo si studia il comportamento della quantità \frac{a_{n+1}}{a_n}, mentre nel secondo della quantità \sqrt[n]{a_n} al tendere di n a infinito. In entrambi i casi, se questo limite è minore di 1 la serie converge, se è maggiore diverge, mentre se è 1 il criterio fallisce.

Per serie a termini di segno alterno è disponibile il criterio di Leibniz, il quale afferma che se an tende a 0, e an è decrescente, allora la serie \sum_{i=0}^\infty (-1)^ia_i converge.

Bibliografia[modifica | modifica sorgente]

  • Walter Rudin, Principles of Mathematical Analysis. McGrawHill, 1994.
  • Michael Spivak, Calculus. Houston, Publish or Perish, 1994. ISBN 0914098896.

Voci correlate[modifica | modifica sorgente]

matematica Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica