Probabilità: differenze tra le versioni

Da Wikipedia, l'enciclopedia libera.
Vai alla navigazione Vai alla ricerca
Contenuto cancellato Contenuto aggiunto
Riga 4: Riga 4:


== Cenni storici ==
== Cenni storici ==
I primi studi che portarono successivamente a concetti legati alla probabilità possono essere trovati a metà del XVI secolo in ''Liber de ludo aleæ'' di [[Girolamo Cardano]] (scritto nel [[1526]], ma pubblicato solo un secolo e mezzo dopo, nel [[1663]]) e in ''Sulla scoperta dei dadi'' di [[Galileo Galilei]] (pubblicato nel [[1656]]). In particolare, Galileo spiegò come mai, lanciando tre dadi, la probabilità di uscita delle somme 10 e 11 sia più probabile dell'uscita del 9 e del 12, nonostante entrambi i risultati si ottengano da un uguale numero di combinazioni.<ref>Il 9 si ottiene con le sei combinazioni (1,2,6), (1,3,5), (1,4,4), (2,2,5), (2,3,4), (3,3,3), il 10 con le sei combinazioni (1,3,6), (1,4,5), (2,2,6), (2,3,5), (2,4,4), (3,3,4), l'11 con (1,4,6), (2,3,6), (2,4,5), (1,5,5), (3,3,5), (3,3,4) e il 12 con (1,5,6), (2,4,6), (2,5,5), (3,4,5), (3,3,6), (4,4,4). Tuttavia, mentre una combinazione di tre numeri uguali può presentarsi in un solo modo, una con due numeri uguali può presentarsi in tre modi diversi, una con tre numeri diversi in sei modi diversi. Si può quindi ottenere il 10 e l'11 in 27 modi (6+6+3+6+3+3), il 9 e il 12 in 25 modi (6+6+3+3+6+1).</ref>
I primi studi che portarono successivamente a concetti legati alla probabilità possono essere trovati a metà del XVI secolo in ''Liber de ludo aleæ'' di [[Girolamo Cardano|Cardano]] (scritto nel [[1526]], ma pubblicato solo un secolo e mezzo dopo, nel [[1663]]) e in ''Sulla scoperta dei dadi'' di [[Galileo Galilei|Galilei]] (pubblicato nel [[1656]]). In particolare, Galileo spiegò come mai, lanciando tre dadi, la probabilità di uscita delle somme 10 e 11 sia più probabile dell'uscita del 9 e del 12, nonostante entrambi i risultati si ottengano da un uguale numero di combinazioni.<ref>Il 9 si ottiene con le sei combinazioni (1,2,6), (1,3,5), (1,4,4), (2,2,5), (2,3,4), (3,3,3), il 10 con le sei combinazioni (1,3,6), (1,4,5), (2,2,6), (2,3,5), (2,4,4), (3,3,4), l'11 con (1,4,6), (2,3,6), (2,4,5), (1,5,5), (3,3,5), (3,3,4) e il 12 con (1,5,6), (2,4,6), (2,5,5), (3,4,5), (3,3,6), (4,4,4). Tuttavia, mentre una combinazione di tre numeri uguali può presentarsi in un solo modo, una con due numeri uguali può presentarsi in tre modi diversi, una con tre numeri diversi in sei modi diversi. Si può quindi ottenere il 10 e l'11 in 27 modi (6+6+3+6+3+3), il 9 e il 12 in 25 modi (6+6+3+3+6+1).</ref>


Il problema della ripartizione della posta in gioco nel caso che un gioco d'azzardo debba essere interrotto, venne affrontato da [[Luca Pacioli]], noto anche come [[Fra Luca dal Borgo]], nella sua ''Summa de arithmetica, geometria, proportioni et proportionalita'' (pubblicata nel [[1494]]) e successivamente da [[Niccolò Tartaglia|Tartaglia]], per poi essere risolto da [[Blaise Pascal|Pascal]] e [[Pierre de Fermat|Fermat]].
Il problema della ripartizione della posta in gioco nel caso che un gioco d'azzardo debba essere interrotto, venne affrontato da [[Luca Pacioli|Pacioli]] nella ''Summa de arithmetica, geometria, proportioni et proportionalita'' (pubblicata nel [[1494]]) e successivamente da [[Niccolò Tartaglia|Tartaglia]], per poi essere risolto da [[Blaise Pascal|Pascal]] e [[Pierre de Fermat|Fermat]].


La nascita del concetto moderno di probabilità viene attribuita a [[Blaise Pascal]] ([[1623]]-[[1662]]) e [[Pierre de Fermat]] ([[1601]]-[[1665]]). Il Cavalier de Méré (un accanito giocatore passato alla storia per questo) aveva calcolato che ottenere almeno un 6 in 4 lanci di un dado non truccato era equivalente ad ottenere almeno un doppio 6 in 24 lanci, sempre di un dado non truccato. Tuttavia, giocando secondo tale convinzione, invece di vincere perdeva e scrisse a Pascal lamentando che la matematica falliva di fronte all'evidenza empirica.<ref> Secondo il Cavaliere, essendo 1/6 la probabilità del 6 con un dado, in quattro lanci la probabilità sarebbe 4 × 1/6 = 2/3; la probabilità del doppio 6 in due lanci è invece 1/36 e, per arrivare a 2/3, occorrono 24 lanci: 24 × 1/36 = 2/3. In realtà la probabilità di ottenere almeno un 6 si calcola meglio a partire dall'evento complementare, "nessun 6 in quattro lanci", che è (5/6)<sup>4</sup>, e sottraendo questa da 1, ottenendo il 51,8%; nello stesso modo si calcola che la probabilità di almeno un doppio 6 in 24 lanci è 1 – (35/36)<sup>24</sup> = 49%.</ref> Da ciò scaturì una corrispondenza tra Pascal e Fermat in cui iniziò a delinearsi il concetto di probabilità nell'accezione frequentista.
La nascita del concetto moderno di probabilità viene attribuita a Pascal e Fermat. Il Cavalier de Méré (un accanito giocatore passato alla storia per questo) aveva calcolato che ottenere almeno un 6 in 4 lanci di un dado non truccato era equivalente ad ottenere almeno un doppio 6 in 24 lanci, sempre di un dado non truccato. Tuttavia, giocando secondo tale convinzione, invece di vincere perdeva e scrisse a Pascal lamentando che la matematica falliva di fronte all'evidenza empirica.<ref> Secondo il Cavaliere, essendo 1/6 la probabilità del 6 con un dado, in quattro lanci la probabilità sarebbe 4 × 1/6 = 2/3; la probabilità del doppio 6 in due lanci è invece 1/36 e, per arrivare a 2/3, occorrono 24 lanci: 24 × 1/36 = 2/3. In realtà la probabilità di ottenere almeno un 6 si calcola meglio a partire dall'evento complementare, "nessun 6 in quattro lanci", che è (5/6)<sup>4</sup>, e sottraendo questa da 1, ottenendo il 51,8%; nello stesso modo si calcola che la probabilità di almeno un doppio 6 in 24 lanci è 1 – (35/36)<sup>24</sup> = 49%.</ref> Da ciò scaturì una corrispondenza tra Pascal e Fermat in cui iniziò a delinearsi il concetto di probabilità nell'accezione frequentista.


Pascal annunciò nel [[1654]] all'Accademia di Parigi che stava lavorando sul problema della ripartizione della messa in gioco. E in una lettera del 29 luglio dello [[1654|stesso anno]] a Fermat propose la soluzione del problema, affrontato con il metodo per ricorrenza, mentre Fermat utilizzava metodi basati sulle combinazioni.
Pascal annunciò nel [[1654]] all'Accademia di Parigi che stava lavorando sul problema della ripartizione della messa in gioco. E in una lettera del 29 luglio dello [[1654|stesso anno]] a Fermat propose la soluzione del problema, affrontato con il metodo per ricorrenza, mentre Fermat utilizzava metodi basati sulle combinazioni.


Nel [[1657]] [[Christiaan Huygens]] ([[1629]]-[[1695]]) scrisse un ''Libellus de ratiociniis in ludo aleæ'',<ref>La ristampa della traduzione inglese è disponibile in http://www.stat.ucla.edu/history/huygens.pdf.</ref>, il primo trattato sul calcolo delle probabilità, nel quale introduceva il concetto di [[valore atteso]].
Nel [[1657]] [[Christiaan Huygens|Huygens]] scrisse un ''Libellus de ratiociniis in ludo aleæ'',<ref>La ristampa della traduzione inglese è disponibile in http://www.stat.ucla.edu/history/huygens.pdf.</ref>, il primo trattato sul calcolo delle probabilità, nel quale introduceva il concetto di [[valore atteso]].


I suoi lavori influenzarono tra l'altro [[Pierre de Montmort]] ([[1678]]-[[1719]]), che scrisse nel [[1708]] un ''Essai d'analyse sur le jeux de hasard'', ma anche [[Jakob Bernoulli]] e [[Abraham de Moivre]].
I suoi lavori influenzarono tra l'altro [[Pierre de Montmort|Montmort]] ([[1678]]-[[1719]]), che scrisse nel [[1708]] un ''Essai d'analyse sur le jeux de hasard'', ma anche [[Jakob Bernoulli]] e [[Abraham de Moivre|de Moivre]].


Nel [[1713]] viene pubblicato postumo ''Ars conjectandi'' di [[Jakob Bernoulli]], dove veniva dimostrato il teorema che porta il suo nome, noto anche come [[legge dei grandi numeri]]. Successivamente, de Moivre pervenne ad una prima formulazione, poi generalizzata da [[Pierre Simon Laplace]] ([[1749]]-[[1827]]), del [[Teorema centrale del limite]]. La teoria delle probabilità raggiunse così basi matematicamente solide e, con esse, il rango di nuova disciplina.
Nel [[1713]] viene pubblicato postumo ''Ars conjectandi'' di [[Jakob Bernoulli]], dove veniva dimostrato il teorema che porta il suo nome, noto anche come [[legge dei grandi numeri]]. Successivamente, de Moivre pervenne ad una prima formulazione, poi generalizzata da [[Pierre Simon Laplace|Laplace]], del [[Teorema centrale del limite]]. La teoria delle probabilità raggiunse così basi matematicamente solide e, con esse, il rango di nuova disciplina.


In essa esercita un ruolo centrale il rapporto tra casi favorevoli e casi possibili e la probabilità è un numero intrinsecamente legato ad un evento. Negli anni centrali del [[XX secolo]], tuttavia, prima [[Bruno de Finetti]] e poi [[Leonard Jimmie Savage]] hanno elaborato una concezione soggettiva della probabilità, secondo cui essa è il grado di fiducia che una persona ha nel verificarsi dell'evento.
In essa esercita un ruolo centrale il rapporto tra casi favorevoli e casi possibili e la probabilità è un numero intrinsecamente legato ad un evento. Negli anni centrali del [[XX secolo]], tuttavia, prima [[Bruno de Finetti|de Finetti]] e poi [[Leonard Jimmie Savage|Savage]] hanno elaborato una concezione soggettiva della probabilità, secondo cui essa è il grado di fiducia che una persona ha nel verificarsi dell'evento.


Nello stesso periodo, [[Andrey Nikolaevich Kolmogorov]] ha dato inizio alla moderna teoria assiomatica (''Grundbegriffe der Wahrscheinlichkeitsrechnung'', [[1933]]), ispirandosi alla [[teoria della misura]]. Si è così affermata una teoria della probabilità puramente matematica, che generalizza il patrimonio matematico comune alle diverse impostazioni.
Nello stesso periodo, [[Andrey Nikolaevich Kolmogorov|Kolmogorov]] ha dato inizio alla moderna teoria assiomatica (''Grundbegriffe der Wahrscheinlichkeitsrechnung'', [[1933]]), ispirandosi alla [[teoria della misura]]. Si è così affermata una teoria della probabilità puramente matematica, che generalizza il patrimonio matematico comune alle diverse impostazioni.


== Definizioni ==
== Definizioni ==

Versione delle 17:53, 9 gen 2014

Template:Avvisounicode Il concetto di probabilità, utilizzato a partire dal Seicento, è diventato con il passare del tempo la base di diverse discipline scientifiche rimanendo tuttavia non univoco. In particolare su di esso si basa una branca della statistica (la statistica inferenziale), cui fanno ricorso numerose scienze sia naturali che sociali.

Alcuni dadi a sei facce.

Cenni storici

I primi studi che portarono successivamente a concetti legati alla probabilità possono essere trovati a metà del XVI secolo in Liber de ludo aleæ di Cardano (scritto nel 1526, ma pubblicato solo un secolo e mezzo dopo, nel 1663) e in Sulla scoperta dei dadi di Galilei (pubblicato nel 1656). In particolare, Galileo spiegò come mai, lanciando tre dadi, la probabilità di uscita delle somme 10 e 11 sia più probabile dell'uscita del 9 e del 12, nonostante entrambi i risultati si ottengano da un uguale numero di combinazioni.[1]

Il problema della ripartizione della posta in gioco nel caso che un gioco d'azzardo debba essere interrotto, venne affrontato da Pacioli nella Summa de arithmetica, geometria, proportioni et proportionalita (pubblicata nel 1494) e successivamente da Tartaglia, per poi essere risolto da Pascal e Fermat.

La nascita del concetto moderno di probabilità viene attribuita a Pascal e Fermat. Il Cavalier de Méré (un accanito giocatore passato alla storia per questo) aveva calcolato che ottenere almeno un 6 in 4 lanci di un dado non truccato era equivalente ad ottenere almeno un doppio 6 in 24 lanci, sempre di un dado non truccato. Tuttavia, giocando secondo tale convinzione, invece di vincere perdeva e scrisse a Pascal lamentando che la matematica falliva di fronte all'evidenza empirica.[2] Da ciò scaturì una corrispondenza tra Pascal e Fermat in cui iniziò a delinearsi il concetto di probabilità nell'accezione frequentista.

Pascal annunciò nel 1654 all'Accademia di Parigi che stava lavorando sul problema della ripartizione della messa in gioco. E in una lettera del 29 luglio dello stesso anno a Fermat propose la soluzione del problema, affrontato con il metodo per ricorrenza, mentre Fermat utilizzava metodi basati sulle combinazioni.

Nel 1657 Huygens scrisse un Libellus de ratiociniis in ludo aleæ,[3], il primo trattato sul calcolo delle probabilità, nel quale introduceva il concetto di valore atteso.

I suoi lavori influenzarono tra l'altro Montmort (1678-1719), che scrisse nel 1708 un Essai d'analyse sur le jeux de hasard, ma anche Jakob Bernoulli e de Moivre.

Nel 1713 viene pubblicato postumo Ars conjectandi di Jakob Bernoulli, dove veniva dimostrato il teorema che porta il suo nome, noto anche come legge dei grandi numeri. Successivamente, de Moivre pervenne ad una prima formulazione, poi generalizzata da Laplace, del Teorema centrale del limite. La teoria delle probabilità raggiunse così basi matematicamente solide e, con esse, il rango di nuova disciplina.

In essa esercita un ruolo centrale il rapporto tra casi favorevoli e casi possibili e la probabilità è un numero intrinsecamente legato ad un evento. Negli anni centrali del XX secolo, tuttavia, prima de Finetti e poi Savage hanno elaborato una concezione soggettiva della probabilità, secondo cui essa è il grado di fiducia che una persona ha nel verificarsi dell'evento.

Nello stesso periodo, Kolmogorov ha dato inizio alla moderna teoria assiomatica (Grundbegriffe der Wahrscheinlichkeitsrechnung, 1933), ispirandosi alla teoria della misura. Si è così affermata una teoria della probabilità puramente matematica, che generalizza il patrimonio matematico comune alle diverse impostazioni.

Definizioni

In probabilità si considera un fenomeno osservabile esclusivamente dal punto di vista della possibilità o meno del suo verificarsi, prescindendo dalla sua natura. Tra due estremi, detti evento certo (ad esempio: lanciando un dado si ottiene un numero compreso tra 1 e 6) ed evento impossibile (ottenere 1 come somma dal lancio di due dadi), si collocano eventi più o meno probabili (aleatori).

Si usa il linguaggio della teoria degli insiemi: un insieme non vuoto Ω ha come elementi tutti i risultati possibili di un esperimento; l'evento che risulta verificato da un unico risultato (un unico elemento di Ω) viene detto evento elementare; altri eventi sono sottoinsiemi di Ω costituiti da più risultati.[4]

Gli eventi vengono normalmente indicati con lettere maiuscole. Dati due eventi A e B, si indica con AB la loro unione, ovvero l'evento costituito dal verificarsi dell'evento A oppure dell'evento B. Si indica con AB la loro intersezione, ovvero l'evento costituito dal verificarsi sia dell'evento A che dell'evento B.[5] Se AB = ∅ i due eventi A e B vengono detti incompatibili (non possono verificarsi simultaneamente). Il complemento di un evento A rispetto a Ω, Ω\A, è detto negazione di A e indica il suo non verificarsi (ovvero il verificarsi dell'evento complementare).

Definizione classica

Secondo la prima definizione di probabilità, per questo detta classica, la probabilità di un evento è il rapporto tra il numero dei casi favorevoli all'evento e il numero dei casi possibili, purché questi ultimi siano tutti equiprobabili. Questa definizione è spesso attribuita a Pierre Simon Laplace e quindi anche identificata definizione classica di Laplace.

Indicando con Ω l'insieme di casi possibili e con |Ω|=n la sua cardinalità, con A un evento e con nA il numero dei casi favorevoli ad A (ad esempio, nel lancio di un dado Ω={1,2,3,4,5,6}, n = 6, A = "numero pari", nA = 3), la probabilità di A, indicata con P(A), è pari a:

Dalla definizione seguono tre regole:

  1. la probabilità di un evento aleatorio è un numero compreso tra 0 e 1;
  2. la probabilità dell'evento certo è pari a 1; se A = "numero compreso tra 1 e 6", nA = 6 e nA/n = 1;
  3. la probabilità del verificarsi di uno di due eventi incompatibili, ovvero di due eventi che non possono verificarsi simultaneamente, è pari alla somma delle probabilità dei due eventi; se A = "numero pari", con P(A) = 1/2, e B= "esce il 3", con P(B) = 1/6, la probabilità che tirando un dado si ottenga un numero pari oppure un 3 è:

La definizione classica consente di calcolare effettivamente la probabilità in molte situazioni. Inoltre, è una definizione operativa e fornisce quindi un metodo per il calcolo. Presenta tuttavia diversi aspetti negativi non irrilevanti:

  • dal punto di vista formale, è una definizione circolare: richiede che i casi possiedano tutti la medesima probabilità, che è però ciò che si vuole definire;
  • non definisce la probabilità in caso di eventi non equiprobabili;
  • presuppone un numero finito di risultati possibili e di conseguenza non è utilizzabile nel continuo.

Definizione frequentista

Per superare tali difficoltà, von Mises propose di definire la probabilità di un evento come il limite cui tende la frequenza relativa dell'evento al crescere del numero degli esperimenti:

La definizione frequentista si applica ad esperimenti casuali i cui eventi elementari non siano ritenuti ugualmente possibili, ma assume che l'esperimento sia ripetibile più volte, idealmente infinite, sotto le stesse condizioni.

Anche tale definizione consente di calcolare la probabilità di molti eventi e da essa si ricavano le stesse tre regole che seguono dalla definizione classica. È sufficiente, infatti, sostituire il rapporto tra numero dei casi favorevoli nA e numero dei casi possibili n con il limite del rapporto per n tendente all'infinito.

Tuttavia:

  • il "limite" delle frequenze relative non è paragonabile all'analogo concetto matematico; ad esempio, data una successione {an}, si dice che a è il suo limite se per ogni ε > 0 esiste un numero naturale N tale che |an - a| < ε per ogni n > N, e, comunque dato ε, è sempre possibile calcolare N; nella definizione frequentista, invece, N non è sempre calcolabile;
  • non tutti gli esperimenti sono ripetibili; ad esempio, ha sicuramente senso chiedersi quale sia la probabilità che vi sia vita su Marte o che tra 50 anni il tasso di natalità in Africa diventi la metà di quello attuale, ma in casi simili non è possibile immaginare esperimenti ripetibili all'infinito.

Definizione soggettiva

De Finetti e Savage[6] hanno proposto una definizione di probabilità applicabile ad esperimenti casuali i cui eventi elementari non siano ritenuti ugualmente possibili e che non siano necessariamente ripetibili più volte sotto le stesse condizioni: la probabilità di un evento è il prezzo che un individuo ritiene equo pagare per ricevere 1 se l'evento si verifica, 0 se l'evento non si verifica.

Al fine di rendere concretamente applicabile la definizione, si aggiunge un criterio di coerenza: le probabilità degli eventi devono essere attribuite in modo tale che non sia possibile ottenere una vincita o una perdita certa.

In tal modo è possibile ricavare dalla definizione soggettiva le stesse tre regole già viste.

  1. P(A) è compresa tra 0 e 1; se infatti fosse negativa si avrebbe un guadagno certo, se fosse maggiore di 1 si avrebbe una perdita certa;
  2. P(Ω) = 1; se l'evento è certo, si riceverà sicuramente 1, ma se fosse P(Ω) < 1 si avrebbe un guadagno certo, pari a 1 - P(Ω), se invece fosse P(Ω) > 1 si avrebbe una perdita certa;
  3. se AB = ∅, P(AB) = P(A)+P(B). Si osserva preliminarmente che se gli n eventi A1, A2, ..., An sono incompatibili (non possono presentarsi insieme) e necessari (uno di loro deve necessariamente verificarsi), la somma delle probabilità P(Ai), con i che va da 1 a n, è uguale a 1; infatti, se si paga P(Ai) per ciascun evento, se la somma fosse inferiore a 1 si avrebbe un guadagno certo, se fosse superiore si avrebbe una perdita certa. Si considerano poi gli eventi incompatibili A e B e l'evento complemento della loro unione; i tre eventi sono incompatibili e necessari e si ha:

    Sono però incompatibili anche l'unione di A e B ed il suo complemento:

    Dalle due uguaglianze segue:
    se , allora

La definizione soggettiva consente quindi di calcolare la probabilità di eventi anche quando gli eventi elementari non sono equiprobabili e quando l'esperimento non può essere ripetuto. Rimane fondata, tuttavia, sull'opinione di singoli individui, che potrebbero presentare diverse propensioni al rischio. .Basta pensare che molti sarebbero disposti a giocare 1 euro per vincerne 1000, ma pochi giocherebbero un milione di euro per vincerne un miliardo.....

Definizione assiomatica

L'impostazione assiomatica della probabilità venne proposta da Andrey Nikolaevich Kolmogorov nel 1933 in Grundbegriffe der Wahrscheinlichkeitsrechnung (Concetti fondamentali del calcolo delle probabilità), sviluppando la ricerca che era ormai cristallizzata sul dibattito fra quanti consideravano la probabilità come limiti di frequenze relative (cfr. impostazione frequentista) e quanti cercavano un fondamento logico della stessa.

Va notato che la definizione assiomatica non è una definizione operativa e non fornisce indicazioni su come calcolare la probabilità. È quindi una definizione utilizzabile sia nell'ambito di un approccio oggettivista che nell'ambito di un approccio soggettivista.

Il nome deriva dal procedimento per "assiomatizzazione" quindi nell'individuare i concetti primitivi, da questi nell'individuare i postulati da cui poi si passava a definire i teoremi.

L'impostazione assiomatica muove dal concetto di σ-algebra, o classe additiva. Dato un qualsiasi esperimento casuale, i suoi possibili risultati costituiscono gli elementi di un insieme non vuoto Ω, detto spazio campionario, e ciascun evento è un sottoinsieme di Ω. La probabilità viene vista, in prima approssimazione, come una misura, cioè come una funzione che associa a ciascun sottoinsieme di Ω un numero reale non negativo tale che la somma delle probabilità di tutti gli eventi sia pari a 1.

Se Ω ha cardinalità finita n o infinita numerabile, l'insieme di tutti i suoi sottoinsiemi, detto insieme delle parti, ha, rispettivamente, cardinalità 2n o la cardinalità del continuo. Tuttavia, se Ω ha la cardinalità del continuo, il suo insieme delle parti ha cardinalità superiore e risulta "troppo grande" perché si possa definire su di esso una misura. Si considerano pertanto i soli sottoinsiemi di Ω che costituiscono una classe additiva , ovvero un insieme non vuoto tale che

  • se un evento A appartiene ad , vi appartiene anche il suo complemento:
  • se un'infinità numerabile di eventi, A1, A2, ... An, ..., appartiene ad , vi appartiene anche l'evento costituito dalla loro unione:

Una classe additiva è quindi un sottoinsieme delle insieme delle parti di Ω che risulta chiuso rispetto alle operazioni di complemento e di unione numerabile.

Si può aggiungere che una classe additiva è chiusa anche rispetto all'intersezione, finita o numerabile, in quanto per le leggi di De Morgan si ha:

(il secondo membro dell'uguaglianza appartiene alla classe in quanto complemento di una unione numerabile dei complementi di insiemi che vi appartengono).

Si pongono i seguenti assiomi (che includono le tre regole ricavabili dalle definizioni precedenti):

  1. Gli eventi sono sottoinsiemi di uno spazio Ω e formano una classe additiva .
  2. Ad ogni evento è assegnato un numero reale non negativo P(A), detto probabilità di A.
  3. P(Ω)=1, ovvero la probabilità dell'evento certo è pari ad 1.
  4. Se l'intersezione tra due eventi A e B è vuota, allora P(AB)=P(A)+P(B).
  5. Se An è una successione decrescente di eventi e al tendere di n all'infinito l'intersezione degli An tende all'insieme vuoto, allora P(An) tende a zero:[7]

La funzione P(A) viene detta funzione di probabilità, o anche distribuzione di probabilità. La terna viene detta spazio di probabilità.

Dagli assiomi si ricavano immediatamente alcune proprietà elementari della probabilità:

  • Se P(A) è la probabilità di un evento A, la probabilità dell'evento complementare è 1-P(A). Infatti, poiché l'intersezione di A e del suo complemento è vuota e la loro unione è Ω, dagli assiomi 3 e 4 si ricava:
  • La probabilità dell'evento impossibile è pari a zero. Infatti l'insieme vuoto è il complemento di Ω e si ha:
  • La probabilità di un evento è minore o uguale a 1. Infatti, dovendo la probabilità essere non negativa per il secondo assioma, si ha:
  • Se un evento A è incluso in un evento B, allora la sua probabilità è minore o uguale a quella di B. Infatti, se B include A può essere espresso come unione di insiemi disgiunti e si ha:

Teoremi di base

Dai suddetti assiomi derivano alcuni teoremi e concetti fondamentali.

Il teorema della probabilità totale consente di calcolare la probabilità dell'unione di due o più eventi, ovvero la probabilità che si verifichi almeno uno di essi. Essa è la somma delle probabilità dei singoli eventi se sono a due a due incompatibili; in caso contrario, alla somma va sottratta la somma delle probabilità delle intersezioni due a due, poi aggiunta la somma delle probabilità delle intersezioni a tre a tre e così via. Ad esempio, nel caso di tre eventi:

Si dice probabilità condizionata di A dato B, e si scrive P(A|B), la probabilità che l'evento A ha di verificarsi quando si sa che B si è verificato:

Attraverso tale concetto si perviene al teorema della probabilità composta, che consente di calcolare la probabilità dell'intersezione di due o più eventi, ovvero la probabilità che essi si verifichino tutti. Nel caso di due eventi (che può essere generalizzato), si ha:

Nel caso che la probabilità di A dato B, P(A|B), sia uguale a P(A), i due eventi vengono definiti indipendenti stocasticamente (o probabilisticamente) e dalla stessa definizione segue una diversa formulazione della probabilità composta, caso particolare del precedente: P(AB)=P(A)P(B).

Il teorema di Bayes consente di calcolare la probabilità a posteriori di un evento Ai, quando si sappia che si è verificato un evento E. Se Ai appartiene ad un insieme finito o numerabile di eventi a due a due incompatibili, e se E si verifica allora si verifica necessariamente uno degli eventi di tale insieme (ed uno solo, dato che sono incompatibili), allora, conoscendo le probabilità a priori degli eventi Ai e le probabilità condizionate P(E|Ai) e sapendo che si è verificato E, si può calcolare la probabilità a posteriori di un particolare Ai:

Più discorsivamente: se si conoscono sia le probabilità a priori delle diverse possibili "cause" di E (ma non si sa per effetto di quale di esse E si è verificato), sia le probabilità condizionate di E data ciascuna delle cause, è possibile calcolare la probabilità che E si sia verificato per effetto di una particolare causa.

Difficoltà nell'utilizzo delle probabilità

Quante insidie vi siano nei ragionamenti sulle probabilità - al di là delle difficoltà nella comprensione di cosa possa essere la probabilità - viene messo in evidenza da alcuni cosiddetti paradossi, dove in realtà si tratta di domande con risposte apparentemente illogiche:

  • nel paradosso delle tre carte l'errore consiste solitamente nel non avere identificato correttamente quali siano gli eventi: i lati delle carte e non le carte stesse
  • nel paradosso dei due bambini l'errore consiste solitamente nel non distinguere eventi diversi, ovvero nel considerare un unico evento quelli che in realtà sono due
  • nel problema di Monty Hall la difficoltà consiste anzitutto nell'accettare l'idea che una nuova informazione può modificare le probabilità di eventi, senza che il mondo reale cambi, l'altro errore consiste nel non analizzare completamente e dunque valutare correttamente la nuova informazione acquisita.

Una ulteriore fonte di confusione può essere data dal presupporre (sbagliando) che il fatto che un evento abbia probabilità 1 implica che esso avvenga sempre (invece che quasi certamente).

Probabilismo ontico

Il probabilismo ontico è una teoria ontologica in base alla quale ciò che è necessario rappresenta il massimo delle probabilità e ciò che è casuale il minimo delle probabilità. L'alternanza dialettica necessità/caso si dà quindi in una scala astratta, ma matematicamente calcolabile per approssimazione caso per caso con adeguati algoritmi, dove la casualità è l'estrema improbabilità e la necessità l'estrema probabilità.

Note

  1. ^ Il 9 si ottiene con le sei combinazioni (1,2,6), (1,3,5), (1,4,4), (2,2,5), (2,3,4), (3,3,3), il 10 con le sei combinazioni (1,3,6), (1,4,5), (2,2,6), (2,3,5), (2,4,4), (3,3,4), l'11 con (1,4,6), (2,3,6), (2,4,5), (1,5,5), (3,3,5), (3,3,4) e il 12 con (1,5,6), (2,4,6), (2,5,5), (3,4,5), (3,3,6), (4,4,4). Tuttavia, mentre una combinazione di tre numeri uguali può presentarsi in un solo modo, una con due numeri uguali può presentarsi in tre modi diversi, una con tre numeri diversi in sei modi diversi. Si può quindi ottenere il 10 e l'11 in 27 modi (6+6+3+6+3+3), il 9 e il 12 in 25 modi (6+6+3+3+6+1).
  2. ^ Secondo il Cavaliere, essendo 1/6 la probabilità del 6 con un dado, in quattro lanci la probabilità sarebbe 4 × 1/6 = 2/3; la probabilità del doppio 6 in due lanci è invece 1/36 e, per arrivare a 2/3, occorrono 24 lanci: 24 × 1/36 = 2/3. In realtà la probabilità di ottenere almeno un 6 si calcola meglio a partire dall'evento complementare, "nessun 6 in quattro lanci", che è (5/6)4, e sottraendo questa da 1, ottenendo il 51,8%; nello stesso modo si calcola che la probabilità di almeno un doppio 6 in 24 lanci è 1 – (35/36)24 = 49%.
  3. ^ La ristampa della traduzione inglese è disponibile in http://www.stat.ucla.edu/history/huygens.pdf.
  4. ^ Ad esempio, nel lancio di un dado l'insieme Ω è costituito dai sei risultati {1,2,3,4,5,6}; l'evento "esce il 3" è rappresentato dall'insieme {3}, l'evento "esce un numero pari" è rappresentato dall'insieme {2,4,6}.
  5. ^ Ad esempio, restando al lancio di un dado, se A = {2} e B = {4,6}, l'evento AB è {2,4,6}, ovvero "esce un numero pari". Se invece A = "esce un numero pari" e B = "esce un numero minore o uguale a 3", AB = {2}.
  6. ^ L'impostazione soggettiva era stata anticipata da Ramsey nel 1926.
  7. ^ Una successione di insiemi è detta decrescente se ciascun insieme include il successivo. V. Limite insiemistico.

Bibliografia

Voci correlate

Altri progetti

Collegamenti esterni

  Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica

Template:Link AdQ