Rete neurale convoluzionale: differenze tra le versioni

Da Wikipedia, l'enciclopedia libera.
Vai alla navigazione Vai alla ricerca
Contenuto cancellato Contenuto aggiunto
Xfra32 (discussione | contributi)
→‎Storia: (ho tradotto in italiano l'articolo wiki in inglese)
Riga 4: Riga 4:


== Storia ==
== Storia ==
Il design delle RNC segue il processing della visione negli [[organismi viventi]]{{citation needed|date=October 2017}}.
{{...}}

=== Campi recettivi ===
Lavoro di [[David H. Hubel|Hubel]] e [[Torsten Wiesel|Wiesel]] negli anni '50 e '60, mostrò come la [[Corteccia visiva primaria|corteccia visuale]] di gatti e scimmie contiene neuroni che individualmente rispondo a piccole regioni del campo visivo. Supposto che gli occhi non si muovano, la regione del campo visivo entro cui lo stimolo influenzi l'innesco di un singolo neurone è noto come il suo '''campo ricettivo'''{{citation needed|date=October 2017}}. Cellule adiacenti hanno campi ricettivi simili e sovrapposti {{citation needed|date=October 2017}}. La dimensione del campo ricettivo e la localizzazione variano sistematicamente attraverso al corteccia per formare una mappa completa del campo visivo{{citation needed|date=October 2017}}. La corteccia in ogni emisfero rappresenta il campo visivo del lato opposto{{citation needed|date=October 2017}}.

Il loro paper del 1968<ref>{{Cite journal|title = Receptive fields and functional architecture of monkey striate cortex|journal = The Journal of Physiology|date = 1968-03-01|issn = 0022-3751|pmc = 1557912|pmid = 4966457|pages = 215–243|volume = 195|issue = 1|first = D. H.|last = Hubel|first2 = T. N.|last2 = Wiesel|doi=10.1113/jphysiol.1968.sp008455}}</ref> identificò due tipi di cellule visive nel cervello:

*[[simple cells (visual cortex)|cellule semplici]], il cui output è massimizzato dal fatto di avere i bordi rettilinei orientali in un modo particolare entro il loro campo ricettivo
*[[complex cells (visual cortex)|cellule complesse]], che hanno campi ricettivi più ampi, il cui ouput è insensibile all'esatta posizione dei bordi nel campo.

=== Neocognitron ===

Il [[neocognitron]] <ref>{{cite journal |first1=Yann |last1=LeCun |first2=Yoshua |last2=Bengio |first3=Geoffrey |last3=Hinton |title=Deep learning |journal=Nature |volume=521 |issue=7553 |year=2015 |pages=436–444 |doi=10.1038/nature14539|pmid=26017442 |bibcode=2015Natur.521..436L }}</ref> fu introdotto nel 1980.<ref name=mcdns /><ref name="intro">{{cite journal|last=Fukushima|first=Kunihiko|title=Neocognitron: A Self-organizing Neural Network Model for a Mechanism of Pattern Recognition Unaffected by Shift in Position|journal=Biological Cybernetics|year=1980|volume=36|issue=4|pages=193–202|url=http://www.cs.princeton.edu/courses/archive/spr08/cos598B/Readings/Fukushima1980.pdf|accessdate=16 November 2013|doi=10.1007/BF00344251|pmid=7370364}}</ref> Il [[neocognitron]] non richiede unità localizzate in posizioni multiple di avere gli stessi pesi addestrabili. Questa idea apparì nel 1986 nella versione libraria dell'originale paper sulla backpropagation<ref>{{cite book|year=1986|author1=David E. Rumelhart|author2=Geoffrey E. Hinton|author3=Ronald J. Wiliams|editor1-last=Rumelhart|editor1-first=David E.|editor2-last=McClelland|editor2-first=James.L.|title=Parallel Distributed Processing, Volume 1|publisher=MIT Press|isbn=9780262680530|pages=319–362|url=http://psych.stanford.edu/~jlm/papers/PDP/Volume%201/Chap8_PDP86.pdf|archivedate=2016-03-14|chapter=Chapter 8 : Learning Internal Representations by ErrorPropagation}}</ref> (Figure 14). Neocognitrons furono sviluppati nel 1988 per i segnali temporali.{{clarify|date=September 2016}}<ref>{{cite journal|last=Homma|first=Toshiteru|author2=Les Atlas |author3=Robert Marks II |title=An Artificial Neural Network for Spatio-Temporal Bipolar Patters: Application to Phoneme Classification|journal=Advances in Neural Information Processing Systems |volume=1|year=1988|pages=31–40|url=http://papers.nips.cc/paper/20-an-artificial-neural-network-for-spatio-temporal-bipolar-patterns-application-to-phoneme-classification.pdf}}</ref> Il loro design fu migliorato nel 1998,<ref name=lecun98/> e generalizzato nel 2003<ref>S. Behnke. Hierarchical Neural Networks for Image Interpretation, volume 2766 of Lecture Notes in Computer Science. Springer, 2003.</ref> and simplified in the same year.<ref>Simard, Patrice, David Steinkraus, and John C. Platt. "Best Practices for Convolutional Neural Networks Applied to Visual Document Analysis." In ICDAR, vol. 3, pp. 958–962. 2003.</ref>

==== LeNet-5 ====

LeNet-5, una pioneristica rete convoluzionale a 7 levelli progettata da [[Yann LeCun|LeCun]] e altri nel 1998.<ref name=lecun98>{{cite journal|last=LeCun|first=Yann|author2=Léon Bottou |author3=Yoshua Bengio |author4=Patrick Haffner |title=Gradient-based learning applied to document recognition|journal=Proceedings of the IEEE|year=1998|volume=86|issue=11|pages=2278–2324|url=http://yann.lecun.com/exdb/publis/pdf/lecun-01a.pdf|accessdate=October 7, 2016|doi=10.1109/5.726791}}</ref> che classifica cifre, fu applicata da svariate banche per riconoscere dei numeri scritti a mano sugli assegni, digitalizati in immagini di 32x32 pixel. L'abilità di processare immagini di risoluzione più alta richiede livelli convoluzionali più grandi e un maggior numero di essi, così questa tecnica è limitata dalla disponibilità di risorse computazionali.

=== Shift-invariant neural network ===

Similarmente, una shift invariant neural network (rete invariante alla traslazione) fu proposta per il riconoscimento dei caratteri nel 1988.<ref name=":0" /><ref name=":1" /> L'architettura e l'algoritmo di addestramento furono modificati nel 1991<ref>{{Cite journal|last=Zhang|first=Wei|date=1991|title=Error Back Propagation with Minimum-Entropy Weights: A Technique for Better Generalization of 2-D Shift-Invariant NNs|url=https://drive.google.com/file/d/0B65v6Wo67Tk5dkJTcEMtU2c5Znc/view?usp=sharing|journal=Proceedings of the International Joint Conference on Neural Networks|volume=|issue=|doi=|pmid=|access-date=|via=}}</ref> and applied for medical image processing<ref>{{Cite journal|last=Zhang|first=Wei|date=1991|title=Image processing of human corneal endothelium based on a learning network|url=https://drive.google.com/file/d/0B65v6Wo67Tk5cm5DTlNGd0NPUmM/view?usp=sharing|journal=Applied Optics|volume=30|issue=29|pages=4211–7|doi=10.1364/AO.30.004211|pmid=20706526|access-date=|via=|bibcode=1991ApOpt..30.4211Z}}</ref> and automatic detection of breast cancer in mammograms.<ref>{{Cite journal|last=Zhang|first=Wei|date=1994|title=Computerized detection of clustered microcalcifications in digital mammograms using a shift-invariant artificial neural network|url=https://drive.google.com/file/d/0B65v6Wo67Tk5Ml9qeW5nQ3poVTQ/view?usp=sharing|journal=Medical Physics|volume=21|issue=4|pages=517–24|doi=10.1118/1.597177|pmid=8058017|access-date=|via=|bibcode=1994MedPh..21..517Z}}</ref>

Un differente design basato sulla convoluzione su proposto nel 1988<ref>Daniel Graupe, Ruey Wen Liu, George S Moschytz."Applications of neural networks to medical signal processing". In Proc. 27th IEEE Decision and Control Conf., pp. 343–347, 1988.</ref> per l'applicazione alla decomposizione di segnali provenienti da [[elettromiografie]], monodimensionali e convoluti tramite de-convoluzione. Questo design fu modificato nel 1989 in altri design sempre basati sulla convoluzione.<ref>Daniel Graupe, Boris Vern, G. Gruener, Aaron Field, and Qiu Huang. "Decomposition of surface EMG signals into single fiber action potentials by means of neural network". Proc. IEEE International Symp. on Circuits and Systems, pp. 1008–1011, 1989.</ref><ref>Qiu Huang, Daniel Graupe, Yi Fang Huang, Ruey Wen Liu."Identification of firing patterns of neuronal signals." In Proc. 28th IEEE Decision and Control Conf., pp. 266–271, 1989.</ref>

=== Neural abstraction pyramid ===
L'architettura feed-forward delle reti neurali convoluzionali fu esteso nella piramide di astrazione neurale<ref>{{cite book
|last1=Behnke
|first1=Sven
|year=2003
|title=Hierarchical Neural Networks for Image Interpretation
|url=https://www.ais.uni-bonn.de/books/LNCS2766.pdf
|series=Lecture Notes in Computer Science
|volume=2766
|publisher=Springer
|doi=10.1007/b11963
|isbn=978-3-540-40722-5
}}</ref> da connessioni laterali di feedback. La risultante rete neurale convoluzionale ricorrente permette l'incorporazione flessibile di informazioni contestuali per risolvere iterativamente ambiguità locali. In contrasto con i modelli precedenti, output sono generali in formato immagine alla risoluzione massima.

=== Implementazioni in GPU ===

A seguito del paper del 2005 paper che stabilì il lavoro della [[GPGPU]] per il [[machine learning]],<ref>{{cite book|author1=Dave Steinkraus|author2=Patrice Simard|author3=Ian Buck|title=12th International Conference on Document Analysis and Recognition (ICDAR 2005)|date=2005|pages=1115–1119|url=http://www.computer.org/csdl/proceedings/icdar/2005/2420/00/24201115-abs.html|archivedate=2016-03-14|chapter=Using GPUs for Machine Learning Algorithms}}</ref> svariate pubblicazioni descrissero modi più efficienti per addestrare delle reti neurali convoluzionali usando la [[GPU]]<nowiki/>.<ref>{{cite book|author1=Kumar Chellapilla|author2=Sid Puri|author3=Patrice Simard|editor1-last=Lorette|editor1-first=Guy|title=Tenth International Workshop on Frontiers in Handwriting Recognition|date=2006|publisher=Suvisoft|url=https://hal.inria.fr/inria-00112631/document|archivedate=2016-03-14|chapter=High Performance Convolutional Neural Networks for Document Processing}}</ref><ref>{{cite journal|last1=Hinton|first1=GE|last2=Osindero|first2=S|last3=Teh|first3=YW|title=A fast learning algorithm for deep belief nets.|journal=Neural computation|date=Jul 2006|volume=18|issue=7|pages=1527–54|pmid=16764513|doi=10.1162/neco.2006.18.7.1527}}</ref><ref>{{cite journal|last1=Bengio|first1=Yoshua|last2=Lamblin|first2=Pascal|last3=Popovici|first3=Dan|last4=Larochelle|first4=Hugo|title=Greedy Layer-Wise Training of Deep Networks|journal=Advances in Neural Information Processing Systems|date=2007|pages=153–160}}</ref><ref>{{cite journal|last1=Ranzato|first1=MarcAurelio|last2=Poultney|first2=Christopher|last3=Chopra|first3=Sumit|last4=LeCun|first4=Yann|title=Efficient Learning of Sparse Representations with an Energy-Based Model|journal=Advances in Neural Information Processing Systems|date=2007|url=http://yann.lecun.com/exdb/publis/pdf/ranzato-06.pdf}}</ref> Nel 2011, esse vennero rifinite e implementate su una GPU, con impressionanti risultati.<ref name="flexible">{{cite journal|last=Ciresan|first=Dan|author2=Ueli Meier |author3=Jonathan Masci |author4=Luca M. Gambardella |author5=Jurgen Schmidhuber |title=Flexible, High Performance Convolutional Neural Networks for Image Classification|journal=Proceedings of the Twenty-Second international joint conference on Artificial Intelligence-Volume Volume Two|year=2011|volume=2|pages=1237–1242|url=http://www.idsia.ch/~juergen/ijcai2011.pdf|accessdate=17 November 2013}}</ref> Nel 2012, Ciresan e altri incrementarono significativamente le migliori performance in letteratura riguardo a multipli [[database]] di immagini, compreso il [[MNIST database]], il NORB database, il HWDB1.0 dataset (caratteri cinesi), il datase CIFAR10 (dataset di 60000 32x32 [RGB images | immagini RGB]] etichettate),<ref name="mcdns" /> and the ImageNet dataset.<ref>10. Deng, Jia, et al. "Imagenet: A large-scale hierarchical image database."Computer Vision and Pattern Recognition, 2009. CVPR 2009. IEEE Conference on. IEEE, 2009.</ref>


== Costruzione dei blocchi ==
== Costruzione dei blocchi ==

Versione delle 19:08, 12 gen 2018

Nel machine learning, una rete neurale convoluzionale (CNN o ConvNet dall'inglese convolutional neural network) è un tipo di rete neurale artificiale feed-forward in cui il pattern di connettività tra i suoi neuroni è ispirato dall'organizzazione della corteccia visiva animale, i cui neuroni individuali sono disposti in maniera tale da rispondere alle regioni di sovrapposizione che tessellano il campo visivo[1]. Le reti convoluzionali sono ispirate da processi biologici[2] e sono variazioni di percettroni multistrato progettate per usare al minimo la pre-elaborazione. Hanno diverse applicazioni nel riconoscimento di immagini e video, nei sistemi di raccomandazione[3], nell'elaborazione del linguaggio naturale[4] e, recentemente, in bioinformatica.

Storia

Il design delle RNC segue il processing della visione negli organismi viventi[senza fonte].

Campi recettivi

Lavoro di Hubel e Wiesel negli anni '50 e '60, mostrò come la corteccia visuale di gatti e scimmie contiene neuroni che individualmente rispondo a piccole regioni del campo visivo. Supposto che gli occhi non si muovano, la regione del campo visivo entro cui lo stimolo influenzi l'innesco di un singolo neurone è noto come il suo campo ricettivo[senza fonte]. Cellule adiacenti hanno campi ricettivi simili e sovrapposti [senza fonte]. La dimensione del campo ricettivo e la localizzazione variano sistematicamente attraverso al corteccia per formare una mappa completa del campo visivo[senza fonte]. La corteccia in ogni emisfero rappresenta il campo visivo del lato opposto[senza fonte].

Il loro paper del 1968[5] identificò due tipi di cellule visive nel cervello:

  • cellule semplici, il cui output è massimizzato dal fatto di avere i bordi rettilinei orientali in un modo particolare entro il loro campo ricettivo
  • cellule complesse, che hanno campi ricettivi più ampi, il cui ouput è insensibile all'esatta posizione dei bordi nel campo.

Neocognitron

Il neocognitron [6] fu introdotto nel 1980.[7][8] Il neocognitron non richiede unità localizzate in posizioni multiple di avere gli stessi pesi addestrabili. Questa idea apparì nel 1986 nella versione libraria dell'originale paper sulla backpropagation[9] (Figure 14). Neocognitrons furono sviluppati nel 1988 per i segnali temporali.Template:Clarify[10] Il loro design fu migliorato nel 1998,[11] e generalizzato nel 2003[12] and simplified in the same year.[13]

LeNet-5

LeNet-5, una pioneristica rete convoluzionale a 7 levelli progettata da LeCun e altri nel 1998.[11] che classifica cifre, fu applicata da svariate banche per riconoscere dei numeri scritti a mano sugli assegni, digitalizati in immagini di 32x32 pixel. L'abilità di processare immagini di risoluzione più alta richiede livelli convoluzionali più grandi e un maggior numero di essi, così questa tecnica è limitata dalla disponibilità di risorse computazionali.

Shift-invariant neural network

Similarmente, una shift invariant neural network (rete invariante alla traslazione) fu proposta per il riconoscimento dei caratteri nel 1988.[14][15] L'architettura e l'algoritmo di addestramento furono modificati nel 1991[16] and applied for medical image processing[17] and automatic detection of breast cancer in mammograms.[18]

Un differente design basato sulla convoluzione su proposto nel 1988[19] per l'applicazione alla decomposizione di segnali provenienti da elettromiografie, monodimensionali e convoluti tramite de-convoluzione. Questo design fu modificato nel 1989 in altri design sempre basati sulla convoluzione.[20][21]

Neural abstraction pyramid

L'architettura feed-forward delle reti neurali convoluzionali fu esteso nella piramide di astrazione neurale[22] da connessioni laterali di feedback. La risultante rete neurale convoluzionale ricorrente permette l'incorporazione flessibile di informazioni contestuali per risolvere iterativamente ambiguità locali. In contrasto con i modelli precedenti, output sono generali in formato immagine alla risoluzione massima.

Implementazioni in GPU

A seguito del paper del 2005 paper che stabilì il lavoro della GPGPU per il machine learning,[23] svariate pubblicazioni descrissero modi più efficienti per addestrare delle reti neurali convoluzionali usando la GPU.[24][25][26][27] Nel 2011, esse vennero rifinite e implementate su una GPU, con impressionanti risultati.[28] Nel 2012, Ciresan e altri incrementarono significativamente le migliori performance in letteratura riguardo a multipli database di immagini, compreso il MNIST database, il NORB database, il HWDB1.0 dataset (caratteri cinesi), il datase CIFAR10 (dataset di 60000 32x32 [RGB images | immagini RGB]] etichettate),[7] and the ImageNet dataset.[29]

Costruzione dei blocchi

  • Strato Convoluzionale
  • Strato di Pooling
  • Strato ReLu
  • Strato completamente connesso
  • Strato di Loss (Perdita)

Scelta degli iperparametri

Metodi di regolarizzazione

Applicazioni

Convolution neural networks (ConvNets or CNNs) sono uno strumento fondamentale nel campo del deep learning, in particolare è adatto per il riconoscimento di immagini. Si può usare l'architettura ConvNet, per addestrare una rete, e usarla successivamente per ottenere una label categorica o numerica. È possibile inoltre estrarre features da una rete addestrata precedentemente, e usare le stesse per il train di un classificatore lineare. Inoltre, è possibile effettuare il transfer learning, che consiste nell'effettuare il retrain dell'ultima layer collegata di una ConvNet già esistente su nuovi dati.

Si può effettuare il train di una CNN sia su CPU, singola GPU, GPU multiple in parallelo.

Librerie di programmazione

Note

  1. ^ Convolutional Neural Networks (LeNet) – DeepLearning 0.1 documentation, su DeepLearning 0.1, LISA Lab. URL consultato il 31 agosto 2013.
  2. ^ Masakazu Matusugu, Katsuhiko Mori, Yusuke Mitari e Yuji Kaneda, Subject independent facial expression recognition with robust face detection using a convolutional neural network (PDF), in Neural Networks, vol. 16, n. 5, 2003, pp. 555–559, DOI:10.1016/S0893-6080(03)00115-1. URL consultato il 17 novembre 2013.
  3. ^ Aaron van den Oord, Sander Dieleman e Benjamin Schrauwen, Deep content-based music recommendation (PDF), a cura di C. J. C. Burges, L. Bottou, M. Welling, Z. Ghahramani e K. Q. Weinberger, Curran Associates, Inc., 1º gennaio 2013, pp. 2643–2651.
  4. ^ Ronan Collobert e Jason Weston, A Unified Architecture for Natural Language Processing: Deep Neural Networks with Multitask Learning, in Proceedings of the 25th International Conference on Machine Learning, ICML '08, New York, NY, USA, ACM, 1º gennaio 2008, pp. 160–167, DOI:10.1145/1390156.1390177, ISBN 978-1-60558-205-4.
  5. ^ D. H. Hubel, Receptive fields and functional architecture of monkey striate cortex, in The Journal of Physiology, vol. 195, n. 1, 1º marzo 1968, pp. 215–243, DOI:10.1113/jphysiol.1968.sp008455.
  6. ^ Deep learning, in Nature, vol. 521, n. 7553, 2015, pp. 436–444, DOI:10.1038/nature14539.
  7. ^ a b Errore nelle note: Errore nell'uso del marcatore <ref>: non è stato indicato alcun testo per il marcatore mcdns
  8. ^ Kunihiko Fukushima, Neocognitron: A Self-organizing Neural Network Model for a Mechanism of Pattern Recognition Unaffected by Shift in Position (PDF), in Biological Cybernetics, vol. 36, n. 4, 1980, pp. 193–202, DOI:10.1007/BF00344251. URL consultato il 16 November 2013.
  9. ^ Chapter 8 : Learning Internal Representations by ErrorPropagation (PDF), in Parallel Distributed Processing, Volume 1, MIT Press, 1986, pp. 319–362, ISBN 9780262680530.
  10. ^ Toshiteru Homma, An Artificial Neural Network for Spatio-Temporal Bipolar Patters: Application to Phoneme Classification (PDF), in Advances in Neural Information Processing Systems, vol. 1, 1988, pp. 31–40.
  11. ^ a b Yann LeCun, Gradient-based learning applied to document recognition (PDF), in Proceedings of the IEEE, vol. 86, n. 11, 1998, pp. 2278–2324, DOI:10.1109/5.726791. URL consultato il October 7, 2016.
  12. ^ S. Behnke. Hierarchical Neural Networks for Image Interpretation, volume 2766 of Lecture Notes in Computer Science. Springer, 2003.
  13. ^ Simard, Patrice, David Steinkraus, and John C. Platt. "Best Practices for Convolutional Neural Networks Applied to Visual Document Analysis." In ICDAR, vol. 3, pp. 958–962. 2003.
  14. ^ Errore nelle note: Errore nell'uso del marcatore <ref>: non è stato indicato alcun testo per il marcatore :0
  15. ^ Errore nelle note: Errore nell'uso del marcatore <ref>: non è stato indicato alcun testo per il marcatore :1
  16. ^ Wei Zhang, Error Back Propagation with Minimum-Entropy Weights: A Technique for Better Generalization of 2-D Shift-Invariant NNs, in Proceedings of the International Joint Conference on Neural Networks, 1991.
  17. ^ Wei Zhang, Image processing of human corneal endothelium based on a learning network, in Applied Optics, vol. 30, n. 29, 1991, pp. 4211–7, DOI:10.1364/AO.30.004211.
  18. ^ Wei Zhang, Computerized detection of clustered microcalcifications in digital mammograms using a shift-invariant artificial neural network, in Medical Physics, vol. 21, n. 4, 1994, pp. 517–24, DOI:10.1118/1.597177.
  19. ^ Daniel Graupe, Ruey Wen Liu, George S Moschytz."Applications of neural networks to medical signal processing". In Proc. 27th IEEE Decision and Control Conf., pp. 343–347, 1988.
  20. ^ Daniel Graupe, Boris Vern, G. Gruener, Aaron Field, and Qiu Huang. "Decomposition of surface EMG signals into single fiber action potentials by means of neural network". Proc. IEEE International Symp. on Circuits and Systems, pp. 1008–1011, 1989.
  21. ^ Qiu Huang, Daniel Graupe, Yi Fang Huang, Ruey Wen Liu."Identification of firing patterns of neuronal signals." In Proc. 28th IEEE Decision and Control Conf., pp. 266–271, 1989.
  22. ^ Hierarchical Neural Networks for Image Interpretation (PDF), Springer, 2003, DOI:10.1007/b11963, ISBN 978-3-540-40722-5.
  23. ^ Using GPUs for Machine Learning Algorithms, in 12th International Conference on Document Analysis and Recognition (ICDAR 2005), 2005, pp. 1115–1119.
  24. ^ High Performance Convolutional Neural Networks for Document Processing, in Tenth International Workshop on Frontiers in Handwriting Recognition, Suvisoft, 2006.
  25. ^ A fast learning algorithm for deep belief nets., in Neural computation, vol. 18, n. 7, Jul 2006, pp. 1527–54, DOI:10.1162/neco.2006.18.7.1527.
  26. ^ Greedy Layer-Wise Training of Deep Networks, in Advances in Neural Information Processing Systems, 2007, pp. 153–160.
  27. ^ Efficient Learning of Sparse Representations with an Energy-Based Model (PDF), in Advances in Neural Information Processing Systems, 2007.
  28. ^ Dan Ciresan, Flexible, High Performance Convolutional Neural Networks for Image Classification (PDF), in Proceedings of the Twenty-Second international joint conference on Artificial Intelligence-Volume Volume Two, vol. 2, 2011, pp. 1237–1242. URL consultato il 17 November 2013.
  29. ^ 10. Deng, Jia, et al. "Imagenet: A large-scale hierarchical image database."Computer Vision and Pattern Recognition, 2009. CVPR 2009. IEEE Conference on. IEEE, 2009.

Voci correlate

Collegamenti esterni

Template:Machine learning