Apprendimento approfondito

Da Wikipedia, l'enciclopedia libera.

L'apprendimento profondo (in inglese deep learning) è quel campo di ricerca dell'apprendimento automatico e dell'intelligenza artificiale che si basa su diversi livelli di rappresentazione, corrispondenti a gerarchie di caratteristiche di fattori o concetti, dove i concetti di alto livello sono definiti sulla base di quelli di basso.

Tra le architetture di apprendimento profondo si annoverano le reti neurali profonde, la convoluzione di reti neurali profonde, le Deep belief network, e reti neurali ricorrenti, che sono state applicati nella computer vision, nel riconoscimento automatico del discorso, nell'elaborazione del linguaggio naturale, nel riconoscimento audio e nella bioinformatica. "Deep learning" è un'espressione oggi famosa che ridà lustro al concetto di rete neurale.

Introduzione[modifica | modifica wikitesto]

Definizioni[modifica | modifica wikitesto]

L'apprendimento profondo è definito come una classe di algoritmi di Apprendimento automatico che[1]:

  • usano vari livelli di unità non lineari a cascata per svolgere compiti di estrazione di caratteristiche e di trasformazione. Ciascun livello successivo utilizza l'uscita del livello precedente come input. Gli algoritmi possono essere sia di tipo supervisionato sia non supervisionato e le applicazioni includono l'analisi di pattern (apprendimento non supervisionato) e classificazione (apprendimento supervisionato).
  • sono basati sull'apprendimento non supervisionato di livelli gerarchici multipli di caratteristiche (e di rappresentazioni) dei dati. Le caratteristiche di più alto livello vengono derivate da quelle di livello più basso per creare una rappresentazione gerarchica.
  • fanno parte della più ampia classe di algoritmi di apprendimento della rappresentazione dei dati all'interno dell'apprendimento automatico.
  • apprendono multipli livelli di rappresentazione che corrispondono a differenti livelli di astrazione; questi livelli formano una gerarchia di concetti.

Ciò che queste definizioni hanno in comune sono (1) i livelli multipli di unità non lineari e (2) l'apprendimento (supervisionato o non supervisionato) in ogni livello della rappresentazione di caratteristiche, in cui i livelli formano una gerarchia delle caratteristiche stesse[1]. La composizione di ciascun livello di unità non lineari usata in un algoritmo di apprendimento profondo dipende dal problema che deve essere risolto. Nell'apprendimento profondo possono venire usati livelli nascosti di una rete neurale artificiale e insiemi di formule proposizionali[2].

Storia[modifica | modifica wikitesto]

Architetture[modifica | modifica wikitesto]

Reti neurali profonde[modifica | modifica wikitesto]

Reti neurali convoluzionali[modifica | modifica wikitesto]

La Rete neurale convoluzionale (Convolution Neural Network CNN) è un metodo di scelta per elaborare dati visuali e dati di tipo 2D. Una CNN è composta da uno più strati convoluzionali con strati completamente connessi verso l'alto. Usa anche pesi e strati comuni (pooling layers). In particolare il "max-pooling" è spesso usato nell'architettura convoluzionale di Fukushima. Quest'architettura permette alle CNN di avere dei vantaggi dalle strutture 2D di ingresso. Sono particolarmente efficaci nell'area delle immagini e di riconoscimento del discorso. Possono essere allenate anche con la backpropagation standard. Sono inoltre facili da allenare rispetto ad altre reti neurali profonde o feed-forward ed hanno molti meno parametri da stimare. Un programma di CNN è il DeepDream di Google[3].

Reti neurali ricorsive[modifica | modifica wikitesto]

Compressore di storia neurale[modifica | modifica wikitesto]

Reti Deep Belief[modifica | modifica wikitesto]

Autoencoder impilato[modifica | modifica wikitesto]

Rete di impilamento profondo[modifica | modifica wikitesto]

Rete di impilamento profondo di tensore[modifica | modifica wikitesto]

Spike-and-slab RBM[modifica | modifica wikitesto]

Macchine di Boltzmann profonde[modifica | modifica wikitesto]

Macchine kernel multilivello[modifica | modifica wikitesto]

Strutture di memoria differenziabile LSTM correlata[modifica | modifica wikitesto]

Reti deep-q[modifica | modifica wikitesto]

Questa è una classe di modelli d'apprendimento profondi usando il Q-learning, una forma di apprendimento con rinforzo, del Google DeepMind. Risultati preliminari presentati nel 2014 con un articolo pubblicato su Nature nel febbraio 2015. L'applicazione di cui si fa riferimento è un gioco dell'Atari 2600.

Hashing semantico[modifica | modifica wikitesto]

Applicazione[modifica | modifica wikitesto]

  • Riconoscimento automatico del discorso
  • Riconoscimento di immagini
  • Elaborazione del linguaggio naturale
  • Scoperta di farmaci e tossicologia
  • Customer relationship management
  • Sistema di raccomandazione
  • Bioinformatica

Librerie software[modifica | modifica wikitesto]

Note[modifica | modifica wikitesto]

  1. ^ a b (EN) L. Deng e D. Yu, Deep Learning: Methods and Applications (PDF), in Foundations and Trends in Signal Processing, vol. 7, 3-4, 2014, pp. 1-199, DOI:10.1561/2000000039.
  2. ^ (EN) Yoshua Bengio, Learning Deep Architectures for AI (PDF), in Foundations and Trends in Machine Learning, vol. 2, nº 1, 2009, pp. 1-127, DOI:doi=10.1561/2200000006.
  3. ^ Christian Szegedy, Wei Liu, Yangqing Jia, Pierre Sermanet, Scott Reed, Dragomir Anguelov, Dumitru Erhan, Vincent Vanhoucke e Andrew Rabinovich, Going Deeper with Convolutions, in Computing Research Repository, 2014, arXiv:1409.4842.
  4. ^ B. C. Ooi, K.-L. Tan, S. Wang, W. Wang, G. Chen, J. Gao, Z. Luo, A.K.H. Tung, Y. Wang, Z. Xie, M. Zhang, K. Zheng. "SINGA: A Distributed Deep Learning Platform," ACM Multimedia (Open Source Software Competition). 2015.
  5. ^ W. Wang, G. Chen, T. T. A. Dinh, J. Gao, B. C. Ooi, K.-L.Tan, S. Wang. "SINGA: Putting Deep Learning in the Hands of Multimedia Users," ACM Multimedia. 2015.
  6. ^ Jeff Dean e Rajat Monga, TensorFlow: Large-scale machine learning on heterogeneous systems (PDF), su TensorFlow.org, Google Research, 9 novembre 2015. URL consultato il 10 novembre 2015.

Collegamenti esterni[modifica | modifica wikitesto]