Backpropagation

Da Wikipedia, l'enciclopedia libera.

Backpropagation (abbreviazione dell'inglese backward propagation of errors, "propagazione all'indietro degli errori"), è un metodo comune di allenare reti neurali artificiali, usato in combinazione con un metodo di ottimizzazione come per esempio la discesa del gradiente.

La backpropagation richiede un'uscita desiderata per ogni valore in ingresso per poter calcolare il gradiente della funzione di perdita (funzione di costo). Viene considerato quindi un metodo di apprendimento supervisionato, sebbene venga usato anche in reti non supervisionate come gli autocodificatori o Reti Diabolo. É una generalizzazione della regola delta di reti feed-forward multistrato, resa possibile usando la regola di catena che iterativamente calcola i gradienti per ogni strato. La backpropagation richiede che la funzione d'attivazione usata dai neuroni artificiali (o "nodi") sia differenziabile.

Note[modifica | modifica wikitesto]


Voci correlate[modifica | modifica wikitesto]

Collegamenti esterni[modifica | modifica wikitesto]