Apprendimento d'insieme: differenze tra le versioni
Vai alla navigazione
Vai alla ricerca
Contenuto cancellato Contenuto aggiunto
Aggiunte referenze |
|||
Riga 1: | Riga 1: | ||
{{S|statistica}} |
{{S|statistica}} |
||
L''''Apprendimento ensemble''' (apprendimento d'insieme) in [[statistica]] e [[apprendimento automatico]] sono una serie di metodi d'insieme che usano modelli multipli per ottenere una |
L''''Apprendimento ensemble''' (apprendimento d'insieme) in [[statistica]] e [[apprendimento automatico]] sono una serie di metodi d'insieme che usano modelli multipli per ottenere una migliore prestazione predittiva rispetto ai modelli da cui è costituito<ref>{{Cita libro|cognome=De Mauro, Andrea.|titolo=Big data analytics : guida per iniziare a classificare e interpretare dati con il machine learning|url=https://www.worldcat.org/oclc/1065010076|accesso=2019-11-10|data=2019|editore=Apogeo|OCLC=1065010076|ISBN=9788850334780}}</ref><ref>{{Cita pubblicazione|data=2012|titolo=Ensemble Machine Learning|lingua=en-gb|accesso=2019-11-10|doi=10.1007/978-1-4419-9326-7|url=https://doi.org/10.1007/978-1-4419-9326-7}}</ref>. |
||
A differenza dell'[[Insieme statistico]] che si ritiene infinito, in meccanica statistica, in un insieme di apprendimento automatico ci si riferisce solo ad un insieme concreto e finito di modelli alternativi. |
A differenza dell'[[Insieme statistico]] che si ritiene infinito, in meccanica statistica, in un insieme di apprendimento automatico ci si riferisce solo ad un insieme concreto e finito di modelli alternativi. |
||
Riga 7: | Riga 7: | ||
* [[Bagging]]: Questa tecnica mira a creare un insieme di classificatori aventi la stessa importanza. All'atto della classificazione, ciascun modello voterà circa l'esito della predizione e l'output complessivo sarà la classe che avrà ricevuto il maggior numero di voti. |
* [[Bagging]]: Questa tecnica mira a creare un insieme di classificatori aventi la stessa importanza. All'atto della classificazione, ciascun modello voterà circa l'esito della predizione e l'output complessivo sarà la classe che avrà ricevuto il maggior numero di voti. |
||
* [[Boosting]]: A differenza del bagging, ciascun classificatore influisce sulla votazione finale con un certo peso. Tale peso sarà calcolato in base all'errore di accuratezza che ciascun modello commetterà in fase di learning. |
* [[Boosting]]: A differenza del bagging, ciascun classificatore influisce sulla votazione finale con un certo peso. Tale peso sarà calcolato in base all'errore di accuratezza che ciascun modello commetterà in fase di learning. |
||
* Stacking: Mentre nel bagging l'output era il risultato di una votazione, nello stacking viene introdotto un ulteriore classificatore (detto meta-classificatore) che utilizza le predizioni di altri sotto-modelli per effettuare un ulteriore learning. |
* Stacking: Mentre nel bagging l'output era il risultato di una votazione, nello stacking viene introdotto un ulteriore classificatore (detto meta-classificatore) che utilizza le predizioni di altri sotto-modelli per effettuare un ulteriore learning. |
||
== Voci correlate == |
== Voci correlate == |
Versione delle 20:23, 10 nov 2019
L'Apprendimento ensemble (apprendimento d'insieme) in statistica e apprendimento automatico sono una serie di metodi d'insieme che usano modelli multipli per ottenere una migliore prestazione predittiva rispetto ai modelli da cui è costituito[1][2]. A differenza dell'Insieme statistico che si ritiene infinito, in meccanica statistica, in un insieme di apprendimento automatico ci si riferisce solo ad un insieme concreto e finito di modelli alternativi.
Apprendimento Ensemble nel machine learning
Nel machine learning l'apprendimento ensemble si divide in due tecniche fondamentali:
- Bagging: Questa tecnica mira a creare un insieme di classificatori aventi la stessa importanza. All'atto della classificazione, ciascun modello voterà circa l'esito della predizione e l'output complessivo sarà la classe che avrà ricevuto il maggior numero di voti.
- Boosting: A differenza del bagging, ciascun classificatore influisce sulla votazione finale con un certo peso. Tale peso sarà calcolato in base all'errore di accuratezza che ciascun modello commetterà in fase di learning.
- Stacking: Mentre nel bagging l'output era il risultato di una votazione, nello stacking viene introdotto un ulteriore classificatore (detto meta-classificatore) che utilizza le predizioni di altri sotto-modelli per effettuare un ulteriore learning.
Voci correlate
- ^ De Mauro, Andrea., Big data analytics : guida per iniziare a classificare e interpretare dati con il machine learning, Apogeo, 2019, ISBN 9788850334780, OCLC 1065010076. URL consultato il 10 novembre 2019.
- ^ (EN) Ensemble Machine Learning, 2012, DOI:10.1007/978-1-4419-9326-7. URL consultato il 10 novembre 2019.