Utente:Milazzi/Fotografia Computazionale

Da Wikipedia, l'enciclopedia libera.
Vai alla navigazione Vai alla ricerca
La fotografia computazionale amplia enormemente le possibilità già offerte dalla fotografia digitale. Questo esempio combina due tecniche diverse: High dynamic range imaging e Stitching, combinando in modo ottimale le informazioni provenienti da più immagini esposte in modo diverso di soggetti sovrapposti [1] [2] [3] [4] [5]

La fotografia computazionale è l'insieme delle tecniche di acquisizione ed elaborazione di immagini digitali che utilizzano il calcolo digitale invece dei processi ottici. La fotografia computazionale può migliorare le capacità di una fotocamera introducendo funzionalità che non erano possibili con la fotografia basata su pellicola, riducendo allo stesso tempo costo e ingombro degli elementi della fotocamera. Esempi di fotografia computazionale includono il calcolo all'interno della fotocamera di panorami digitali,[6] la produzione di immagini ad alta gamma dinamica e la fotocamera plenottica. Le fotocamere plenottiche utilizzano nuovi elementi ottici per acquisire informazioni tridimensionali sulla scena che possono quindi essere utilizzate per produrre immagini 3D, aumentare la profondità di campo e variare selettivamente il punto di messa a fuoco dopo lo scatto (o "post focus"). La maggiore profondità di campo riduce la necessità di sistemi di messa a fuoco meccanici. Tutte queste funzionalità utilizzano tecniche di imaging computazionale.

La definizione di fotografia computazionale si è evoluta per coprire una serie di aree tematiche in computer grafica, visione artificiale e ottica applicata. Queste aree, di seguito elencate, sono organizzate secondo una tassonomia proposta da Shree K. Nayar. All'interno di ogni area è presente un elenco di tecniche e per ciascuna tecnica vengono citati uno o due documenti o libri rappresentativi. Sono deliberatamente omesse dalla tassonomia le tecniche di elaborazione delle immagini (vedi anche elaborazione di immagini digitali ) applicate alle immagini catturate tradizionalmente per produrre immagini migliori. Esempi di tali tecniche sono il ridimensionamento dell'immagine, la compressione della gamma dinamica (ovvero la mappatura dei toni ), la gestione del colore, il completamento dell'immagine (ovvero il ripristino della pittura o il riempimento dei fori), la compressione dell'immagine, la filigrana digitale e gli effetti artistici dell'immagine. Vengono inoltre omesse le tecniche che producono dati di intervallo, dati di volume, modelli 3D, campi di luce 4D, BRDF 4D, 6D o 8D o altre rappresentazioni basate su immagini ad alta dimensione. La Epsilon Photography è un sottocampo della fotografia computazionale.

Effetto sulla fotografia[modifica | modifica wikitesto]

Le foto scattate utilizzando la fotografia computazionale possono consentire ai dilettanti di produrre fotografie che rivaleggiano con la qualità dei fotografi professionisti, ma non superano ancora i risultati ottenibili con l'uso di attrezzature di livello professionale.[7]

Illuminazione computazionale[modifica | modifica wikitesto]

L'illuminazione computazionale consente di controllare l'illuminazione fotografica in modo strutturato, quindi di elaborare le immagini catturate per creare nuove immagini. Le applicazioni includono la riilluminazione basata sull'immagine, il miglioramento dell'immagine, la sfocatura dell'immagine, il recupero di geometria/materiale e così via.

L'imaging ad alta gamma dinamica utilizza immagini esposte in modo diverso della stessa scena per estendere la gamma dinamica. [8] Altri esempi includono l'elaborazione e la fusione di immagini illuminate in modo diverso dello stesso soggetto ("spazio luce").

Ottica computazionale[modifica | modifica wikitesto]

L'ottica computazionale è l'acquisizione di immagini codificate otticamente, seguita dalla decodifica computazionale per produrre nuove immagini. L'imaging ad apertura codificata è stato applicato principalmente in astronomia o nell'imaging a raggi X per aumentare la qualità dell'immagine. Invece di un singolo foro di spillo, nell'imaging viene applicato un modello di foro di spillo e viene eseguita la deconvoluzione per recuperare l'immagine. [9] Nell'imaging con esposizione codificata, lo stato di attivazione/disattivazione dell'otturatore è codificato per modificare il nucleo del motion blur . [10] In questo modo il motion deblur diventa un problema ben condizionato . Allo stesso modo, in un'apertura codificata basata sull'obiettivo, l'apertura può essere modificata inserendo una maschera a banda larga. [11] Pertanto, la sfocatura fuori fuoco diventa un problema ben condizionato. L'apertura codificata può anche migliorare la qualità nell'acquisizione del campo luminoso utilizzando l'ottica di trasformazione Hadamard.

I modelli di apertura codificati possono anche essere progettati utilizzando filtri colorati, al fine di applicare codici diversi a lunghezze d'onda diverse. [12] [13] Ciò consente di aumentare la quantità di luce che raggiunge il sensore della fotocamera, rispetto alle maschere binarie.

Imaging computazionale[modifica | modifica wikitesto]

L'imaging computazionale è un insieme di tecniche di imaging che combinano l'acquisizione e l'elaborazione dei dati per creare l'immagine di un oggetto attraverso mezzi indiretti per fornire una risoluzione migliorata, informazioni aggiuntive come la fase ottica o la ricostruzione 3D . Le informazioni vengono spesso registrate senza utilizzare una configurazione di microscopio ottico convenzionale o con set di dati limitati.

L'imaging computazionale consente di andare oltre i limiti fisici dei sistemi ottici, come l'apertura numerica, [14] o addirittura annulla la necessità di elementi ottici . [15]

Per parti dello spettro ottico in cui gli elementi di imaging come gli obiettivi sono difficili da fabbricare oi sensori di immagine non possono essere miniaturizzati, l'imaging computazionale fornisce alternative utili, in campi come i raggi X [16] e le radiazioni THz .

Tecniche comuni[modifica | modifica wikitesto]

Tra le comuni tecniche di imaging computazionale vi sono l'imaging senza lente, l'imaging a speckle computazionale, [17] latticigrafia e latticiografia di Fourier .

La tecnica di imaging computazionale si basa spesso su tecniche di rilevamento della compressione o di recupero di fase, in cui viene ricostruito lo spettro angolare dell'oggetto. Altre tecniche sono legate al campo dell'imaging computazionale, come l'olografia digitale, la computer vision e problemi inversi come la tomografia .

Elaborazione computazionale[modifica | modifica wikitesto]

Questa è l'elaborazione di immagini non codificate otticamente per produrre nuove immagini.

Sensori computazionali[modifica | modifica wikitesto]

Si tratta di rilevatori che combinano rilevamento ed elaborazione, in genere nell'hardware, come il sensore di immagine binario sovracampionato .

Primi lavori in computer vision[modifica | modifica wikitesto]

Sebbene la fotografia computazionale sia una parola d'ordine attualmente popolare nella computer grafica, molte delle sue tecniche sono apparse per la prima volta nella letteratura sulla visione artificiale, sia con altri nomi che all'interno di documenti mirati all'analisi della forma 3D.

Storia dell'arte[modifica | modifica wikitesto]

Un apparato di fotografia computazionale indossabile del 1981.
La fotografia computazionale indossabile è nata negli anni '70 e all'inizio degli anni '80 e si è evoluta in una forma d'arte più recente. Questa immagine è stata utilizzata sulla copertina del libro di testo John Wiley and Sons sull'argomento.

La fotografia computazionale, come forma d'arte, è stata praticata catturando immagini dello stesso soggetto esposte in modo diverso e combinandole insieme. Questa è stata l'ispirazione per lo sviluppo del computer indossabile negli anni '70 e nei primi anni '80. La fotografia computazionale è stata ispirata dal lavoro di Charles Wyckoff, e quindi i set di dati di fotografia computazionale (ad esempio immagini dello stesso soggetto esposte in modo diverso che vengono scattate per creare un'unica immagine composita) sono talvolta indicati come Wyckoff Sets, in suo onore.

I primi lavori in questo settore (stima congiunta della proiezione dell'immagine e del valore dell'esposizione) sono stati intrapresi da Mann e Candoccia.

Charles Wyckoff ha dedicato gran parte della sua vita alla creazione di tipi speciali di pellicole fotografiche a 3 strati che catturavano esposizioni diverse dello stesso soggetto. L'immagine di un'esplosione nucleare, scattata nel film di Wyckoff, è apparsa sulla copertina di Life Magazine e ha mostrato la gamma dinamica dalle aree scure esterne al nucleo interno.

Guarda anche[modifica | modifica wikitesto]

Note[modifica | modifica wikitesto]

 

[[Categoria:Visione artificiale]] [[Categoria:Fotografia digitale]] [[Categoria:Pagine con traduzioni non revisionate]]

  1. ^ Steve Mann. "Compositing Multiple Pictures of the Same Scene", Proceedings of the 46th Annual Imaging Science & Technology Conference, May 9–14, Cambridge, Massachusetts, 1993
  2. ^ S. Mann, C. Manders, and J. Fung, "The Lightspace Change Constraint Equation (LCCE) with practical application to estimation of the projectivity+gain transformation between multiple pictures of the same subject matter" IEEE International Conference on Acoustics, Speech, and Signal Processing, 6–10 April 2003, pp III - 481-4 vol.3.
  3. ^ joint parameter estimation in both domain and range of functions in same orbit of the projective-Wyckoff group" ", IEEE International Conference on Image Processing,Vol.3, 16-19,pp.193-196 September 1996
  4. ^ Frank M. Candocia: Jointly registering images in domain and range by piecewise linear comparametric analysis. IEEE Transactions on Image Processing 12(4): 409-419 (2003)
  5. ^ Frank M. Candocia: Simultaneous homographic and comparametric alignment of multiple exposure-adjusted pictures of the same scene. IEEE Transactions on Image Processing 12(12): 1485-1494 (2003)
  6. ^ Steve Mann and R. W. Picard. "Virtual bellows: constructing high-quality stills from video.", In Proceedings of the IEEE First International Conference on Image ProcessingAustin, Texas, November 13–16, 1994
  7. ^ cacm.acm.org, https://cacm.acm.org/magazines/2019/7/237705-the-edge-of-computational-photography/fulltext.
  8. ^ ON BEING `UNDIGITAL' WITH DIGITAL CAMERAS: EXTENDING DYNAMIC RANGE BY COMBINING DIFFERENTLY EXPOSED PICTURES, IS&T's (Society for Imaging Science and Technology's) 48th annual conference, Cambridge, Massachusetts, May 1995, pages 422-428
  9. ^ manemarty.com, http://www.manemarty.com/Publications_files/Martinello_PhDThesis_small.pdf.
  10. ^ web.media.mit.edu, 2006, http://web.media.mit.edu/~raskar/deblur/. URL consultato il November 29, 2010.
  11. ^ web.media.mit.edu, 2007, http://web.media.mit.edu/~raskar/Mask/. URL consultato il November 29, 2010.
  12. ^ Manuel Martinello, Dual Aperture Photography: Image and Depth from a Mobile Camera (PDF), in International Conference on Computational Photography, 2015.
  13. ^ A. Chakrabarti, Depth and deblurring from a spectrally-varying depth-of-field., in IEEE European Conference on Computer Vision, vol. 7576, 2012.
  14. ^ Ou et al., "High numerical aperture Fourier ptychography: principle, implementation and characterization"Optics Express 23, 3 (2015)
  15. ^ Boominathan et al., "Lensless Imaging: A Computational Renaissance"[collegamento interrotto] (2016)
  16. ^ Miyakawa et al., "Coded aperture detector : an image sensor with sub 20-nm pixel resolution", Optics Express 22, 16 (2014)
  17. ^ Katz et al., "Non-invasive single-shot imaging through scattering layers and around corners via speckle correlations", Nature Photonics 8, 784–790 (2014)