Scale-invariant feature transform: differenze tra le versioni

Da Wikipedia, l'enciclopedia libera.
Vai alla navigazione Vai alla ricerca
Contenuto cancellato Contenuto aggiunto
Nuova pagina: {{Tradotto da|en|Scale-invariant feature transform}} {{S}} <!--{{FeatureDetectionCompVisNavbox}}--> '''Scale-invariant feature transform''' (o '''SIFT''') è un algoritmo...
(Nessuna differenza)

Versione delle 19:30, 8 gen 2011

Il template:Tradotto da è stato erroneamente inserito nella voce. Spostarlo nella pagina di discussione.

Scale-invariant feature transform (o SIFT) è un algoritmo di visione computazionale che permette di rilevare e descrivere caratteristiche, o feature, locali in immagini. L'algoritmo è stato pubblicato da David Lowe nel 1999.[1]

Applicazioni includono: object recognition, robotic mapping e navigation, image stitching, 3D modeling, gesture recognition, video tracking, e match moving.

L'algoritmo è brevettato negli Stati Uniti; il proprietario è la University of British Columbia.[2]

Scale-invariant feature transform

Per ogni oggetto in un'immagine, punti interessanti possono essere estratti per fornire una descrizione delle caratteristiche dell'oggetto. Questa descrizione, ricavata da un'immagine selezionata per l'apprendimento, può essere poi usata per identificare l'oggetto quando si prova ad individuarlo in una immagine di test che contiene molti altri oggetti. Per un riconoscimento affidabile, è importante che le caratteristiche estratte dall'immagine di apprendimento siano rilevabili anche con cambiamenti di scala, rumore e illuminazione. Tali punti di solito sono posizionati in regioni ad alto contrasto dell'immagine, come contorni di oggetti.

Un'altra importante caratteristica di queste feature è che le loro posizioni relative nella scena originale non dovrebbero cambiare tra due immagini affini. Per esempio, se come feature vengono presi gli angoli di una porta, esse dovrebbero funzionale indipendentemente dalla posizione della porta; se però vengono presi in considerazione anche punti del contorno, il riconoscimento fallirebbe se la porta fosse chiusa o aperta. In modo simile, le feature situate in oggetti articolati o flessibili tipicamente non funzionano se avvenisse un qualsiasi cambiamento della loro geometria interna tra due immagini nell'insieme elaborato. In pratica, comunque, SIFT rileva e usa un numero molto più grande di feature dalle immagini, il che riduce il contributo degli errori causati da queste variazioni locali sull'errore medio di tutte le feature.

Il metodo di Lowe [3] può identificare in modo robusto oggetti anche nella confusione o parzialmente nascosti, perché il descrittore di feature SIFT è invariante per scala, orientazione e distorsione affine e parzialmente invariante a cambi di illuminazione[4]. Questa sezione riassume il metodo di object recognition di Lowe e introduce alcune tecniche alternative disponibili per il riconoscimenti di oggetti in condizioni di confusione o parziale occlusione.

Il metodo di Lowe

I keypoints (punti chiave) SIFT di oggetti vengono prima estratti da un insieme di immagini di riferimento e immagazzinati in un database. Un oggetto viene riconosciuto in una nuova immagine confrontando individualmente ogni feature della nuova immagine con il database precedentemente ottenuto e cercando feature basandosi sulla distanza euclidea dei loro vettori di feature. Dall'insieme completo di corrispondenze, nella nuova immagine vengono identificati sottoinsiemi di keypoints che concordano con l'oggetto e la sua posizione, scala, orientazione per filtrare le corrispondenze migliori. La determinazione di cluster consistenti viene effettuata in modo rapido usando un'implementazione con [hash table]] efficiente della [trasformata di Hough]] generalizzata. Ogni cluster di 3 o più feature concordanti su un oggetto e la sua posizione è soggetto ad un'ulteriore verifica dettagliata del modello e, di conseguenza, gli outliers vengono scartati. Infine viene calcolata la probabilità che un particolare insieme di features indichi la presenza di un oggetto, data l'accuratezza di fit e un numero di possibili false corrispondenze. Quelle che passano tutti questi test vengono identificate come corrette con alta confidenza[5].

<references>

See also

References

  1. ^ Lowe, David G., Object recognition from local scale-invariant features, 1999, pp. 1150–1157.
  2. ^ {{{CountryCode}}} {{{PublicationNumber}}} 
  3. ^ (EN) US6,711,293, United States Patent and Trademark Office, Stati Uniti d'America., "Method and apparatus for identifying scale invariant features in an image and use of same for locating an object in an image", brevetto del metodo di Lowe per l'algoritmo SIFT
  4. ^ Lowe, D. G., “Object recognition from local scale-invariant features”, International Conference on Computer Vision, Corfu, Greece, September 1999.
  5. ^ Lowe, D. G., “Distinctive Image Features from Scale-Invariant Keypoints”, International Journal of Computer Vision, 60, 2, pp. 91-110, 2004.

External links