Utente:Kelvin~itwiki/sandbox02

Da Wikipedia, l'enciclopedia libera.
Vai alla navigazione Vai alla ricerca
For the method of incrementally displaying raster graphics, see Interlace (bitmaps).
For the decorative motif used in Celtic art, see Celtic knot.

Interlace is a technique of improving the picture quality of a video transmission without consuming any extra bandwidth. It was invented by RCA engineer Randall C. Ballard in the 1930s [1] ((EN) US2,152,234, United States Patent and Trademark Office, Stati Uniti d'America.). It was ubiquitous in television until the 1970s, when the needs of computer monitors resulted in the reintroduction of progressive scan. While interlace can improve the resolution of still images, it can cause flicker and various kinds of distortion. Interlace is still used for most standard definition TVs, and the 1080i HDTV broadcast standard, but not for LCD, micromirror (DLP), or plasma displays, which are inherently progressive scan. These devices require some form of deinterlacing which can add to the cost of the set. Nevertheless as of 2006, progressive displays now dominate the HDTV market.

Description[modifica | modifica wikitesto]

With progressive scan, an image is captured, transmitted and displayed in a path similar to text on a page: line by line, from top to bottom.

The interlaced scan pattern in a CRT (cathode ray tube) display completes such a scan too, but only for every second line. This is carried out from the top left corner to the bottom right corner of a CRT display. This process is repeated again, only this time starting at the second row, in order to fill in those particular gaps left behind while performing the first progressive scan on alternate rows only.

Such scan of every second line is called a field. The afterglow of the phosphor of CRT tubes, in combination with the persistence of vision results in two fields being perceived as a continuous image which allows the viewing of full horizontal detail with half the bandwidth which would be required for a full progressive scan while maintaining the necessary CRT refresh rate to prevent flicker.

History[modifica | modifica wikitesto]

When motion picture film was developed, it was observed that the movie screen had to be illuminated at a high rate to prevent visible flicker. The exact rate necessary varies by brightness, with 40 Hz being acceptable in dimly lit rooms, while up to 80 Hz may be necessary for bright displays that extend into peripheral vision. The film solution was to project each frame of film three times using a three bladed shutter: a movie shot at 16 frames per second would thus illuminate the screen 48 times per second. Later when sound film became available, the higher projection speed of 24 frames per second enabled a two bladed shutter to be used maintaining the 48 times per second illumination - but only in projectors that were incapable of projecting at the lower speed.

But this solution could not be used for television – storing a full video frame and scanning it twice would require a frame buffer, a method that did not become feasible until the late 1980s. In addition, the limits of vacuum tube technology required that CRTs for TV be scanned at AC line frequency in order to prevent interference. (This was 60 Hz in the US, 50 Hz Europe.) In 1936 when the analog standards were being set in the UK, CRTs could only scan at around 200 lines in 1/50th of a second. By using interlace, a pair of 202.5-line fields could be superimposed to become a sharper 405 line frame. The vertical scan frequency remained 50 Hz, so flicker was not a problem, but visible detail was noticeably improved. As a result, this system was able to supplant John Logie Baird's 240 line mechanical progressive scan system that was also being used at the time.

After the Second World War, improvements in technology allowed the US and the rest of Europe to adopt systems using progressively more bandwidth to scan higher line counts, and achieve better pictures. However the fundamentals of interlaced scanning were at the heart of all of these systems. The US adopted NTSC, Europe adopted PAL and SECAM, and the UK switched from its 405 line system to PAL in order to avoid having to develop a unique method of color TV.

Modern monitors and television sets use active-matrix liquid crystal displays or other display technologies which do not have to have the afterglow characteristics of CRT displays as the individual pixels are continuously illuminated. Thus they do not have any flicker, and can display DVD material which is progressively scanned without flicker and smooth motion because of the motion-blur effect used by film.

Application[modifica | modifica wikitesto]

Interlacing is used by all the analogue TV broadcast systems in current use:

  • PAL: 50 fields per second, 625 lines, odd field drawn first
  • SECAM: 50 fields per second, 625 lines
  • NTSC: 59.94 fields per second, 525 lines, even field drawn first

Benefits of interlacing[modifica | modifica wikitesto]

With any video system there are trade-offs. One of the most important factors is bandwidth, measured in Megahertz (for analog video), or bit rate (for digital video). The greater the bandwidth, the more expensive and complex the entire system (camera, storage systems such as tape recorders or hard disks, transmission systems such as cable television systems, and displays such as television monitors).

Interlaced video reduces the signal bandwidth by a factor of two, for a given spatial resolution and refresh rate.

Alternatively, a given bandwidth can be used to provide an interlaced video signal with twice the display refresh rate for a given spatial resolution (versus progressive scan video). A higher refresh rate reduces flicker on CRT monitors. The higher refresh rate improves the portrayal of motion, because objects in motion are captured and their position is updated on the display more often. The human visual system averages the rapidly displayed still pictures into a moving picture image, and so interlace artifacts aren't visible when viewed at the intended field rate, on an interlaced video display.

For a given bandwidth and refresh rate, interlaced video can be used to provide a higher spatial resolution than progressive scan. For instance, 1920x1080 pixel resolution HDTV with a 60 Hz field rate (known as 1080i60) has a similar bandwidth to 1280x720 pixel progressive scan HDTV with a 60 Hz frame rate (720p60), but approximately twice the spatial resolution.

Problems caused by interlacing[modifica | modifica wikitesto]

thumb|right|Freeze-frame of an interlaced transmission displayed on a progressive display with the simple "weave" method. Combing is clearly visible in the full-size picture.

Interlaced video is designed to be captured, transmitted or stored and displayed in the same interlaced format. Because interlaced video is composed of 2 fields that are captured at different moments in time, interlaced video frames will exhibit motion artifacts when both fields are combined and displayed at the same moment. However, many types of video displays, such as Liquid Crystal Display and Plasma display are designed as a progressive scan monitor; they are designed to illuminate every horizontal line of video with each frame. If these progressive scan monitors display interlaced video, the resulting display can suffer from reduced horizontal resolution or motion artifacts. These artifacts may also be visible when interlaced video is displayed at a slower speed than it was captured, such as when video is shown in slow motion.

Because modern computer video displays are progressive scan systems, interlaced video will have visible artifacts when it is displayed on computer systems. Computer systems are frequently used to edit video and this disparity between computer video display systems and television signal formats means that the video content being edited can not be viewed properly unless separate video display hardware is utilized.

To minimize the artifacts caused by interlaced video display on a progressive scan monitor, a process called deinterlacing can be utilized. This process is not perfect, and it generally results in a lower resolution, particularly in areas with objects in motion. Deinterlacing systems are integrated into progressive scan television displays in order to provide the best possible picture quality for interlaced video signals.

Interlace introduces a potential problem called interline twitter. This aliasing effect only shows up under certain circumstances, when the subject being shot contains vertical detail that approaches the horizontal resolution of the video format. For instance, a person on television wearing a shirt with fine dark and light stripes may appear on a video monitor as if the stripes on the shirt are "twittering". Television professionals are trained to avoid wearing clothing with fine striped patterns to avoid this problem. High-end video cameras or Computer Generated Imagery systems apply a low-pass filter to the vertical resolution of the signal in order to prevent possible problems with interline twitter.

Despite arguments against it and the calls by many prominent technological companies, such as Microsoft, to leave interlacing to history, interlacing continues to be supported by the television standard setting organizations, still being included in new digital video transmission formats, such as DV, DVB (including its HD modifications), and ATSC.

Interlace and computers[modifica | modifica wikitesto]

In the 1970s, computers and home video game systems began using TV sets as display devices. At this point, a 480-line NTSC signal was well beyond the graphics abilities of low cost computers, so these systems used a simplified video signal which caused each video field to scan directly on top of the previous one, rather than each line between two lines of the previous field. This marked the return of progressive scanning not seen since the 1920s. Since each field became a complete frame on its own, modern terminology would call this 240p on NTSC sets, and 288p on PAL. While consumer devices were permitted to create such signals, broadcast regulations prohibited TV stations from transmitting video like this. Computer monitor standards such as CGA were further simplifications to NTSC, which improved picture quality by omitting modulation of color, and allowing a more direct connection between the computer's graphics system and the CRT.

By the 1980s computers had outgrown these video systems and needed better displays. Solutions from various companies varied widely. Because PC monitor signals did not need to be broadcast, they could consume far more than the 6, 7 and 8 MHz of bandwidth that NTSC and PAL signals were confined to. Apple Macintosh built a custom 342p display into their case, and EGA for DOS PCs was 350p. The Commodore Amiga created a true properly interlaced NTSC signal (as well as RGB variations). This ability resulted in the Amiga dominating the video production field until the mid 1990s, but the interlaced display mode caused flicker problems for more traditional PC applications. 1987 saw the introduction of VGA, which Macs and PCs soon standardized on.

In the early 1990s, monitor and graphics card manufacturers introduced newer high resolution standards that once again included interlace. These monitors ran at very high refresh rates, intending that this would alleviate flicker problems. Such monitors proved very unpopular. While flicker was not obvious on them at first, eyestrain and lack of focus nevertheless became a serious problem. The industry quickly abandoned this practice, and for the rest of the decade all monitors included the assurance that their stated resolutions were "non-interlace". This experience is why the PC industry today remains against interlace in HDTV, and lobbied for the 720p standard.

See also[modifica | modifica wikitesto]

External links[modifica | modifica wikitesto]

  1. ^ (English) Pioneering in Electronics, in David Sarnoff Collection. URL consultato il 27 luglio 2006. Lingua sconosciuta: English (aiuto)


Inizio[modifica | modifica wikitesto]

L'interlacciamento è una tecnica di miglioramento della qualità dell'immagine di una trasmissione video che non comporta un aumento del consumo di banda. É stata inventata negli anni '30 dall'ingegnere della RCA Randall C. Ballard[1] ((EN) US2,152,234, United States Patent and Trademark Office, Stati Uniti d'America.). Questa tecnica è stata adottata in tutte le trasmissioni televisive fino alla fine degli anni '70, quando la diffusione dell'utilizzo dei personal computer reintrodusse la tecnica della scansione progressiva. Nonostante l'interlacciamento migliori la risoluzione dei fermo immagine, può causare l'effetto flickering e diversi tipi di distorsione. Oggi è ancora usato in molti televisori a definizione standard e in trasmissioni HDTV standard, ma non per schermi LCD o per schermi al plasma, i quali sono inevitabilmente a scansione progressiva. Questi ultimi devono quindi adottare sistemi di deinterlacciamento che ne lievitano il prezzo di vendita, ma che non impediscono agli schermi a scansione progressiva di dominare il mercato della HDTV.

Descrizione[modifica | modifica wikitesto]

Con la scansione progressiva, l'immagine viene catturata, trasmessa e visualizzata in un ordine simile a quello di un testo scritto su di una pagina: riga per riga, dall'altro verso il basso.

Il percorso della scansione interlacciata in un CRT (tubo catodico) si sviluppa allo stesso modo ma solo per righe alterne. Dapprima vengono disegnate tutte le righe dispari, a partire dalla prima. In seguito il processo viene ripetuto, questa volta iniziando dalla seconda riga e disegnando tutte le righe di numero pari lasciate vuote.

Ogni scansione di un set di righe alternate è chiamato campo. Il bagliore del fosforo dei tubi catodici in combinazione con la persistenza della visione induce alla percezione dei due campi adiacenti come di un'immagine continua. In questo modo è possibile godere della visione piena dei dettagli orizzontali con la metà della banda altrimenti richiesta da una scansione progressiva piena, il tutto a condizione che venga mantenuta la minima frequenza di aggiornamento del CRT necessaria perchè non si presenti l'effetto di flickering.

-- Soltanto gli schermi CRT possono visualizzare direttamente video interlacciati — altre tecnologie di schermi richiedono qualche sistema di deinterlacciamento. deinterlacing.

Storia[modifica | modifica wikitesto]

Quando fu sviluppata la pellicola cinematografica si scoprì che lo schermo cinematografico andava illuminato con una velocità alta per prevenire la visibilità di un fastidioso sfarfallio. L'esatta velocità minima necessaria varia in base alla luminosità, da 40 Hz accettabili per stanze in penombra, fino a 80 Hz necessari per schermi illuminati di grandi dimensioni. La soluzione adottata per la pellicola era di proiettare ciascun fotogramma tre volte mediante un otturatore a tre lamelle: un film girato a 16 fotogrammi al secondo illuminava quindi lo schermo 48 volte al secondo. Con l'avvento del sonoro, la velocità di proiezione più alta di 24 fotogrammi al secondo permise l'utilizzo di un otturatore a due lamelle mantenendo l'illuminazione a 48 volte al secondo.

Questa soluzione però non poteva essere usata per la televisione - memorizzare un fotogramma video pieno e proiettarlo due volte avrebbe richiesto un framebuffer, una tecnologia che non divenne fruibile prima della fine degli anni '80. Inoltre, i limiti della tecnologia a valvole termoioniche richiedevano che il tubo a raggi catodici (CRT) dei televisori effettuasse scansioni con la stessa frequenza della rete CA (60 Hz negli U.S.A. e 50 Hz in Europa) allo scopo di evitare interferenze. Nel 1936, quando gli standard dell'analogico furono fissati in Inghilterra, i CRT potevano solo effettuare scansioni a 200 linee per 50esimi di secondo. Utilizzando l'interlacciamento, una coppia di campi da 202,5 linee poteva essere sovrapposta per fornire un limpido fotogramma a 405 linee. La frequenza di scansione verticale restava di 50 Hz, lo sfarfallio non era quindi un problema, ma in compenso il livello di dettaglio visibile era notevolmente migliorato. Come risultato, questo sistema fu in grado di soppiantare la scansione meccanica progressiva a 240 linee di John Logie Baird, anch'essa utilizzata in quell'epoca.

Dopo la Seconda Guerra Mondiale, diversi miglioramenti nella tecnologia consentirono a Stati Uniti ed Europa di adottare sistemi che usavano sempre più banda per poter fornire scansioni con un maggior numero di linee ed ottenere immagini migliori. Comunque il principio fondamentale della scansione interlacciata era ancora alla base di tutti i nuovi sistemi. Gli Stati Uniti adottarono il sistema a 525 linee conosciuto come NTSC, l'Europa adottò il sistema a 625 linee, e la Gran Bretagna passò dal suo sistema a 405 linee a quello a 625 per evitare di dover sviluppare un sistema televisivo proprio. La stessa operazione di uniformazione venna compiuta dalla Francia, che passò dal suo sistema a 819 linee allo standard europeo di 625 linee. Bisogna sottolineare che spesso il termine PAL viene usato per descrivere lo standard sia del numero di linee che del numero di fotogrammi del sistema televisivo, cosa sbagliata poichè esso si riferisce solo al metodo di sovraimpressione dell'informazione cromatica nella trasmissione standard a 625 linee. La Francia adottò infatti il proprio sistema SECAM, poi adottato anche da Russia ed altre nazioni, mentre il PAL è stato diversamente usato anche in alcune trasmissioni NTSC in Brasile.

Applicazione[modifica | modifica wikitesto]

L'Interlacciamento è usato da tutti i sistemi analogici di trasmissione TV di uso corrente:

  • PAL: 50 campi al secondo, 625 linee, campi dispari disegnati per primi
  • SECAM: 50 campi al secondo, 625 linee
  • NTSC: 59.94 campi al secondo, 525 linee, campi pari disegnati per primi

Vantaggi dell'interlacciamento[modifica | modifica wikitesto]

Per ogni sistema video occorre affrontare dei compromessi. Uno dei fattori più importanti da esaminare è l'ampiezza di banda, misurata in Megahertz (per video analogici) o bit rate (per video digitali. Pià la banda è grande, più costoso e complesso sarà l'intero sistema (videocamera, supporto di memorizzazione come cassette o hard disk, sistemi di trasmissione e schermi). L'interlacciamento video riduce la banda del segnale di un fattore pari a due, dato un certo numero di linee e una frequenza di visualizzazione. In alternativa, una data banda può essere usata per fornire un segnale video interlacciato con una frequenza di visualizzazione doppia per un dato numero di linee. Un'alta frequenza di visualizzazione riduce lo sfarfallio nei monitor CRT e migliore la visualizzazione dei movimenti, poichè gli oggetti in movimento vengono catturati e visualizzati più spesso. Il sistema visivo umano calcola la media tra i fotogrammi rapidamente visualizzati in un video quindi gli artefatti generati dall'interlacciamento non sono percettibili se trasmessi alla corretta velocità su uno schermo interlacciato.

Per una data banda e frequenza di visualizzazione, il video interlacciato può essere usato per fornire una risoluzione spaziale più alta rispetto a quella della scansione progressiva. Per esempio, un segnale HDTV interlacciato con risoluzione 1920x1080 e frequenza di 60 Hz (conosciuto come 1080i60) ha una banda simile ad un sengnale HDTV a scansione progressiva con risoluzione di 1280x720 e frequenza 60 Hz (720p60). Il primo però fornisce circa il 50% in più di risoluzione spaziale. (Si noti però che questo risultato ignora gli effetti di una compressione dei dati, che tende ad offrire migliori risultati con i video a scansione progressiva.)

Svantaggi dell'interlacciamento[modifica | modifica wikitesto]

  1. ^ (English) Pioneering in Electronics, in David Sarnoff Collection. URL consultato il 27 luglio 2006. Lingua sconosciuta: English (aiuto)