Apprendimento ensemble

Da Wikipedia, l'enciclopedia libera.

L'Apprendimento ensemble (apprendimento d'insieme) in statistica e apprendimento automatico sono una serie di metodi d'insieme che usano modelli multipli per ottenere una miglior prestazione predittiva rispetto ai modelli da cui è costituito. A differenza dell'Insieme statistico che si ritiene infinito, in meccanica statistica, in un insieme di apprendimento automatico ci si riferisce solo ad un insieme concreto e finito di modelli alternativi.

Apprendimento Ensemble nel machine learning[modifica | modifica wikitesto]

Nel machine learning l'apprendimento Ensemble si divide in tre tecniche fondamentali:

  • Bagging: Questa tecnica mira a creare un insieme di classificatori aventi la stessa importanza. All'atto della classificazione, ciascun modello voterà circa l'esito della predizione e l'output complessivo sarà la classe che avrà ricevuto il maggior numero di voti.
  • Boosting: A differenza del bagging, ciascun classificatore influisce sulla votazione finale con un certo peso. Tale peso sarà calcolato in base all'errore di accuratezza che ciascun modello commetterà in fase di learning.
  • Stacking: Mentre nel bagging l'output era il risultato di una votazione, nel bagging viene introdotto un ulteriore classificatore (detto meta-classificatore) che utilizzerà le predizioni dei modelli ai modelli precedenti per effettuare un nuovo learning.

Voci correlate[modifica | modifica wikitesto]

Statistica Portale Statistica: accedi alle voci di Wikipedia che trattano di statistica