Apprendimento d'insieme: differenze tra le versioni

Da Wikipedia, l'enciclopedia libera.
Vai alla navigazione Vai alla ricerca
Contenuto cancellato Contenuto aggiunto
Aggiunte referenze
Riga 1: Riga 1:
{{S|statistica}}
{{S|statistica}}
L''''Apprendimento ensemble''' (apprendimento d'insieme) in [[statistica]] e [[apprendimento automatico]] sono una serie di metodi d'insieme che usano modelli multipli per ottenere una miglior prestazione predittiva rispetto ai modelli da cui è costituito.
L''''Apprendimento ensemble''' (apprendimento d'insieme) in [[statistica]] e [[apprendimento automatico]] sono una serie di metodi d'insieme che usano modelli multipli per ottenere una migliore prestazione predittiva rispetto ai modelli da cui è costituito<ref>{{Cita libro|cognome=De Mauro, Andrea.|titolo=Big data analytics : guida per iniziare a classificare e interpretare dati con il machine learning|url=https://www.worldcat.org/oclc/1065010076|accesso=2019-11-10|data=2019|editore=Apogeo|OCLC=1065010076|ISBN=9788850334780}}</ref><ref>{{Cita pubblicazione|data=2012|titolo=Ensemble Machine Learning|lingua=en-gb|accesso=2019-11-10|doi=10.1007/978-1-4419-9326-7|url=https://doi.org/10.1007/978-1-4419-9326-7}}</ref>.
A differenza dell'[[Insieme statistico]] che si ritiene infinito, in meccanica statistica, in un insieme di apprendimento automatico ci si riferisce solo ad un insieme concreto e finito di modelli alternativi.
A differenza dell'[[Insieme statistico]] che si ritiene infinito, in meccanica statistica, in un insieme di apprendimento automatico ci si riferisce solo ad un insieme concreto e finito di modelli alternativi.


Riga 7: Riga 7:
* [[Bagging]]: Questa tecnica mira a creare un insieme di classificatori aventi la stessa importanza. All'atto della classificazione, ciascun modello voterà circa l'esito della predizione e l'output complessivo sarà la classe che avrà ricevuto il maggior numero di voti.
* [[Bagging]]: Questa tecnica mira a creare un insieme di classificatori aventi la stessa importanza. All'atto della classificazione, ciascun modello voterà circa l'esito della predizione e l'output complessivo sarà la classe che avrà ricevuto il maggior numero di voti.
* [[Boosting]]: A differenza del bagging, ciascun classificatore influisce sulla votazione finale con un certo peso. Tale peso sarà calcolato in base all'errore di accuratezza che ciascun modello commetterà in fase di learning.
* [[Boosting]]: A differenza del bagging, ciascun classificatore influisce sulla votazione finale con un certo peso. Tale peso sarà calcolato in base all'errore di accuratezza che ciascun modello commetterà in fase di learning.
* Stacking: Mentre nel bagging l'output era il risultato di una votazione, nello stacking viene introdotto un ulteriore classificatore (detto meta-classificatore) che utilizza le predizioni di altri sotto-modelli per effettuare un ulteriore learning.
* Stacking: Mentre nel bagging l'output era il risultato di una votazione, nello stacking viene introdotto un ulteriore classificatore (detto meta-classificatore) che utilizza le predizioni di altri sotto-modelli per effettuare un ulteriore learning.


== Voci correlate ==
== Voci correlate ==

Versione delle 20:23, 10 nov 2019

L'Apprendimento ensemble (apprendimento d'insieme) in statistica e apprendimento automatico sono una serie di metodi d'insieme che usano modelli multipli per ottenere una migliore prestazione predittiva rispetto ai modelli da cui è costituito[1][2]. A differenza dell'Insieme statistico che si ritiene infinito, in meccanica statistica, in un insieme di apprendimento automatico ci si riferisce solo ad un insieme concreto e finito di modelli alternativi.

Apprendimento Ensemble nel machine learning

Nel machine learning l'apprendimento ensemble si divide in due tecniche fondamentali:

  • Bagging: Questa tecnica mira a creare un insieme di classificatori aventi la stessa importanza. All'atto della classificazione, ciascun modello voterà circa l'esito della predizione e l'output complessivo sarà la classe che avrà ricevuto il maggior numero di voti.
  • Boosting: A differenza del bagging, ciascun classificatore influisce sulla votazione finale con un certo peso. Tale peso sarà calcolato in base all'errore di accuratezza che ciascun modello commetterà in fase di learning.
  • Stacking: Mentre nel bagging l'output era il risultato di una votazione, nello stacking viene introdotto un ulteriore classificatore (detto meta-classificatore) che utilizza le predizioni di altri sotto-modelli per effettuare un ulteriore learning.

Voci correlate

  Portale Statistica: accedi alle voci di Wikipedia che trattano di statistica
  1. ^ De Mauro, Andrea., Big data analytics : guida per iniziare a classificare e interpretare dati con il machine learning, Apogeo, 2019, ISBN 9788850334780, OCLC 1065010076. URL consultato il 10 novembre 2019.
  2. ^ (EN) Ensemble Machine Learning, 2012, DOI:10.1007/978-1-4419-9326-7. URL consultato il 10 novembre 2019.