Vous êtes sur la page 1sur 118

Tecniche di Video Digitale

PDF generato attraverso il toolkit opensource ''mwlib''. Per maggiori informazioni, vedi [[http://code.pediapress.com/ http://code.pediapress.com/]].
PDF generated at: Fri, 06 Nov 2009 12:17:36 UTC
Indice
Voci
Introduzione - Luce e colore 1
Luce 1
Colore 6
Spazio dei colori 11
Temperatura di colore 15
RGB 16
CMYK 18
Hue Saturation Brightness 20

Grafica Digitale 21
Grafica raster 21
Pixel 23
Risoluzione (grafica) 26
Risoluzioni standard 27
Immagine digitale 33
Compressione dei dati 35
Compressione dati lossy 36
Compressione dati lossless 37
Joint Photographic Experts Group 41
Portable Network Graphics 44

Formati del video digitale 46


Video 46
Video digitale 55
Compressione video digitale 58
Sottocampionamento della crominanza 61
Video a componenti 67
Video composito 68
Formato contenitore 71
Velocità di trasmissione 72
Codec video 74
Contenitore multimediale 75
Audio Video Interleave 75
Matroska 77
MPEG-4 79
MOV (formato di file) 81
Ogg 83
Theora 86

Audio Digitale 88
Compressione audio digitale 88
MP3 90

Diffusione del Video Digitale 96


HDTV 96
DVD 105

Note
Fonti e autori delle voci 111
Fonti, licenze e autori delle immagini 113

Licenze della voce


Licenza 115
1

Introduzione - Luce e colore

Luce
Il termine luce (dal latino, lux, lucis) si
riferisce alla porzione dello spettro
elettromagnetico visibile dall'occhio umano,
ed è approssimativamente compresa tra 400
e 700 nanometri di lunghezza d'onda,
ovvero tra 750 e 428 THz di frequenza.
Questo intervallo coincide con la regione di
massima emissione da parte del sole. I limiti
dello spettro visibile all'occhio umano non
Un prisma scompone la luce
sono uguali per tutte le persone, ma variano
soggettivamente e possono raggiungere i
730 nanometri, avvicinandosi agli infrarossi, e i 380 nanometri avvicinandosi agli ultravioletti. La presenza
contemporanea di raggi di tutte le lunghezze d'onda visibili forma la luce bianca.

La luce, come tutte le onde elettromagnetiche, interagisce con la materia. I fenomeni più comuni osservabili sono:
l'assorbimento, la trasmissione, la riflessione, la rifrazione e la diffrazione.
Sebbene nell'elettromagnetismo classico la luce sia descritta come un'onda, l'avvento della meccanica quantistica agli
inizi del XX secolo ha permesso di capire che questa possiede anche proprietà tipiche delle particelle e di spiegare
fenomeni come l'effetto Compton. Nella fisica moderna la luce (e tutta la radiazione elettromagnetica) viene descritta
come composta da quanti del campo elettromagnetico chiamati fotoni.

Teorie sulla luce


Molteplici sono state le teorie formulate, nel
corso del tempo, per spiegare il fenomeno
luminoso ed i comportamenti della luce.

Teoria corpuscolare
Formulata da Isaac Newton nel XVII secolo.
La luce veniva vista come composta da
piccole particelle di materia (corpuscoli)
emesse in tutte le direzioni. Oltre che essere
matematicamente molto più semplice della
teoria ondulatoria, questa teoria spiegava
molto facilmente alcune caratteristiche della
propagazione della luce che erano ben note Fasci di luce solare che filtrano tra le nubi

all'epoca di Newton.
Luce 2

Innanzitutto la meccanica galileiana prevede,


correttamente, che le particelle (inclusi i corpuscoli di
luce) si propaghino in linea retta ed il fatto che questi
fossero previsti essere molto leggeri era coerente con
una velocità della luce alta ma non infinita. Anche il
fenomeno della riflessione poteva essere spiegato in
maniera semplice tramite l'urto elastico della particella
di luce sulla superficie riflettente.

La spiegazione della rifrazione era leggermente più


complicata ma tutt'altro che impossibile: bastava infatti
pensare che le particelle incidenti sul materiale
rifrangente subissero, ad opera di questo, delle forze
perpendicolari alla superficie che ne cambiassero la
traiettoria.

I colori dell'arcobaleno venivano spiegati tramite


l'introduzione di un gran numero di corpuscoli di luce
diversi (uno per ogni colore) ed il bianco era pensato come formato da tante di queste particelle. La separazione dei
colori ad opera, ad esempio, di un prisma poneva qualche problema teorico in più perché le particelle di luce
dovrebbero avere proprietà identiche nel vuoto ma diverse all'interno della materia.
Una conseguenza della teoria corpuscolare della luce è che questa, per via dell'accelerazione gravitazionale, aumenti
la sua velocità quando si propaga all'interno di un mezzo.

Teoria ondulatoria
Formulata da Christiaan Huygens nel 1678 ma pubblicata solo nel 1690 nel Traité de la Lumière. La luce veniva
vista come un'onda che si propaga (in maniera del tutto simile alle onde del mare o a quelle acustiche) in un mezzo,
chiamato etere, che si supponeva pervadere tutto l'universo ed essere formato da microscopiche particelle elastiche.
La teoria ondulatoria della luce permetteva di spiegare (anche se in maniera matematicamente complessa) un gran
numero di fenomeni: oltre alla riflessione ed alla rifrazione, Huygens riuscì infatti a spiegare anche il fenomeno della
birifrangenza nei cristalli di calcite.
Nel 1801 Thomas Young dimostrò come i fenomeni della diffrazione (osservato per la prima volta Francesco Maria
Grimaldi nel 1665) e dell'interferenza fossero interamente spiegabili dalla teoria ondulatoria e non lo fossero dalla
teoria corpuscolare. Agli stessi risultati arrivò Augustin-Jean Fresnel nel 1815. Nel 1814 Joseph von Fraunhofer fu il
primo ad investigare seriamente sulle righe di assorbimento nello spettro del Sole, che vennero esaurientemente
spiegate da Kirchhoff e da Bunsen nel 1859, con l'invenzione dello spettroscopio. Le righe sono ancora oggi
chiamate linee di Fraunhofer in suo onore.
Un problema della teoria ondulatoria era tuttavia la propagazione rettilinea della luce. Infatti era ben noto che le onde
sono capaci di aggirare gli ostacoli mentre è esperienza comune che la luce si propaghi in linea retta (questa
proprietà era già stata notata da Euclide nel suo Optica). Questa apparente incongruenza può però essere spiegata
assumendo che la luce abbia una lunghezza d'onda microscopica.
Al contrario della teoria corpuscolare, quella ondulatoria prevede che la luce si propaghi più lentamente all'interno di
un mezzo che nel vuoto; restano ambiguità.
Luce 3

Teoria elettromagnetica
Per la grandissima maggioranza delle applicazioni questa teoria è ancora utilizzata al giorno d'oggi. Proposta da
James Clerk Maxwell alla fine del XIX secolo, sostiene che le onde luminose sono elettromagnetiche e non
necessitano di un mezzo per la trasmissione, mostra che la luce visibile è una parte dello spettro elettromagnetico.
Con la formulazione delle equazioni di Maxwell vennero completamente unificati i fenomeni elettrici, magnetici ed
ottici.

Teoria quantistica
Per risolvere alcuni problemi sulla trattazione del corpo nero nel 1900 Max Planck ideò un artificio matematico,
pensò che l'energia associata ad una onda elettromagnetica non fosse proporzionale al quadrato della sua ampiezza
(come nel caso delle onde elastiche in meccanica classica), ma direttamente proporzionale alla frequenza e che la sua
costante di proporzionalità fosse discreta e non continua.
L'interpretazione successiva che Albert Einstein diede dell'effetto fotoelettrico incanalò il pensiero dei suoi
contemporanei verso una nuova strada. Si cominciò a pensare che quanto fatto da Planck non fosse un mero artificio
matematico, ma piuttosto l'interpretazione di una nuova struttura fisica, cioè che la natura della luce potesse avere un
qualche rapporto con una forma discreta di alcune sue proprietà. Si cominciò a parlare di pacchetti discreti di
energia, battezzati fotoni. Con l'avvento delle teorie quantistiche dei campi (ed in particolare dell'elettrodinamica
quantistica) il concetto di fotone venne formalizzato ed oggi sta alla base dell'ottica quantistica.

La velocità della luce


La luce si propaga a una velocità finita. Anche gli osservatori in movimento misurano sempre lo stesso valore di c, la
velocità della luce nel vuoto, dove c = 299 792 458 m/s. Nell'uso comune, questo valore viene arrotondato a 300 000
km/s.
La velocità della luce è stata misurata molte volte da numerosi fisici. Il primo tentativo di misura venne compiuto da
Galileo Galilei con l'ausilio di lampade oscurabili ma la rudimentalità dei mezzi disponibili non permise di ottenere
alcun valore. La migliore tra le prime misurazioni venne eseguita da Olaus Roemer (un fisico danese), nel 1676. Egli
sviluppò un metodo di misurazione, osservando Giove e una delle sue lune con un telescopio. Grazie al fatto che la
luna veniva eclissata da Giove a intervalli regolari, calcolò il periodo di rivoluzione della luna in 42,5 ore, quando la
Terra era vicina a Giove. Il fatto che il periodo di rivoluzione si allungasse quando la distanza tra Giove e Terra
aumentava, poteva essere spiegato assumendo che la luce impiegava più tempo a coprire la distanza Terra-Giove,
ipotizzando quindi, una velocità finita per essa. La velocità della luce venne calcolata analizzando la distanza tra i
due pianeti in tempi differenti. Roemer calcolò una velocità di 227 326 km/s.
Albert A. Michelson migliorò il lavoro di Roemer nel 1926. Usando uno specchio rotante, misurò il tempo impiegato
dalla luce per percorrere il viaggio di andata e ritorno dal monte Wilson al monte San Antonio in California. La
misura precisa portò a una velocità di 299 796 km/s.
Questo esperimento in realtà misurò la velocità della luce nell'aria. Infatti, quando la luce passa attraverso una
sostanza trasparente, come l'aria, l'acqua o il vetro, la sua velocità c si riduce a v=c/n (dove n è il valore dell'indice di
rifrazione del mezzo) ed è sottoposta a rifrazione. In altre parole, n = 1 nel vuoto e n > 1 nella materia. L'indice di
rifrazione dell'aria di fatto è molto vicino a 1, e in effetti la misura di Michelson è un'ottima approssimazione di c.
Luce 4

Ottica
Lo studio della luce e dell'interazione tra luce e materia è detto ottica. L'osservazione e lo studio dei fenomeni ottici,
come ad esempio l'arcobaleno offre molti indizi sulla natura della luce.

Colori e lunghezze d'onda


Le differenti lunghezze d'onda vengono interpretate dal cervello come colori, che vanno dal rosso delle lunghezze
d'onda più ampie (minore frequenza), al violetto delle lunghezze d'onda più brevi (maggiore frequenza). Ci preme,
tuttavia sottolineare, che non a tutti i colori possiamo associare una lunghezza d'onda. Spesso questo aspetto non
viene sottolineato e si diffonde l'errata convinzione, inconsapevolmente foraggiata anche da immagini come quelle
presenti in codesta pagina, che ci sia una relazione biettiva tra un colore e una lunghezza d'onda. In realtà, è vero che
ad ogni lunghezza d'onda è associabile un → colore, ma non è vero il contrario. Quei colori a cui non sono associate
lunghezze d'onda, sono invece generati dal meccanismo di funzionamento del nostro apparato visivo
(cervello+occhio). In particolare i coni, cellule della retina responsabili della visione del colore, si differenziano in
tre tipi perché sensibili a tre diverse regioni spettrali della luce. Quando, ad esempio, due diverse onde
monocromatiche, appartenenti a due regioni diverse di cui prima, sollecitano contemporaneamente l'occhio, il nostro
cervello interpreta la sollecitazione come un nuovo colore, "somma" dei due originari.
Le frequenze immediatamente al di fuori dello spettro percettibile dall'occhio umano vengono chiamate ultravioletto
(UV), per le alte frequenze, e infrarosso (IR) per le basse. Anche se gli esseri umani non possono vedere l'infrarosso,
esso viene percepito dai recettori della pelle come calore. Telecamere in grado di captare i raggi infrarossi e
convertirli in luce visibile, vengono chiamati visori notturni. La radiazione ultravioletta non viene percepita dagli
esseri umani, se non in maniera molto indiretta, in quanto la sovraesposizione della pelle ai raggi UV causa
scottature. Alcuni animali, come le api, riescono a vedere gli ultravioletti; altri invece riescono a vedere gli
infrarossi.

Lunghezze d'onda della luce visibile

La luce visibile è una porzione dello spettro elettromagnetico compresa approssimativamente tra i 400 e i 700
nanometri (nm) (nell'aria). La luce è anche caratterizzata dalla sua frequenza. Frequenza e lunghezza d'onda
obbediscono alla seguente relazione: l=v/f (dove l è la lunghezza d'onda, v è la velocità nel mezzo considerato - nel
vuoto in genere si indica con c - , f è la frequenza della radiazione).
Luce 5

Grandezze misurabili
Di seguito sono riportate quantità o unità di misura legate a fenomeni luminosi:
• Tonalità (o → temperatura)
• luminosità
• illuminamento (unità SI: lux)
• flusso luminoso (unità SI: lumen)
• intensità luminosa (unità SI: candela)

Sorgenti di luce
• Radiazione termica
• Lampade ad incandescenza
• Luce solare
• fuoco
• Qualsiasi corpo ad di sopra di una certa temperatura (cioè incandescente, ad es. metallo fuso)
• Emissione spettrale atomica (la fonte di emissione può essere stimolata o spontanea)
• Laser e Maser (emissione stimolata)
• LED (light emitting diode)
• lampade a scarica di gas (insegne al neon, lampade al mercurio, etc)
• Fiamme dei gas
• Accelerazione di una particella dotata di carica (solitamente un elettrone)
• Radiazione ciclotronica
• Bremsstrahlung
• Effetto Čerenkov
• luce di sincrotrone
• chemioluminescenza
• fluorescenza
• fosforescenza
• tubo catodico
• bioluminescenza
• sonoluminescenza
• triboluminescenza
• radioattività
• annichilazione particella-antiparticella

Altri progetti
• Wikimedia Commons contiene file multimediali su luce
• Wikiquote contiene citazioni riguardanti la luce
• Wikizionario contiene la voce di dizionario «luce»
Spettro elettromagnetico
(Ordinato in base alla frequenza, ordine crescente)

Onde radio | Microonde | Radiazione terahertz | Infrarosso | Luce visibile | Ultravioletto | Raggi X | Raggi gamma
Luce 6

Spettro delle onde radio

ELF SLF ULF VLF LF MF HF VHF UHF SHF EHF

3 Hz 30 Hz 300 3 kHz 30 kHz 300 3 MHz 30 MHz 300 3 GHz 30 GHz


Hz kHz MHz

30 300 3 kHz 30 300 3 MHz 30 300 3 GHz 30 300


Hz Hz kHz kHz MHz MHz GHz GHz

Spettro visibile: Rosso | Arancione | Giallo | Verde | Ciano | Blu | Violetto

ckb:‫ کشیت‬mwl:Lhuç

Colore
Il colore è la percezione visiva generata dai
segnali nervosi che i fotorecettori della
retina mandano al cervello quando
assorbono radiazioni elettromagnetiche di
determinate lunghezze d'onda e intensità.

Matite colorate, rappresentano alcuni colori

Percezione del colore

Spettro ottico (progettato per monitor con gamma 1.5).


Colore 7

I colori dello spettro di luce visibile


colore intervallo di lunghezza intervallo di frequenza
d'onda

rosso ~ 700–630 nm ~ 430–480 THz

arancione ~ 630–590 nm ~ 480–510 THz

giallo ~ 590–560 nm ~ 510–540 THz

verde ~ 560–490 nm ~ 540–610 THz

blu ~ 490–450 nm ~ 610–670 THz

viola ~ 450–400 nm ~ 670–750 THz

La formazione della percezione del colore avviene in tre fasi:


1. Nella prima fase un gruppo di fotoni (stimolo visivo) arriva all’occhio, attraversa cornea, umore acqueo, pupilla,
cristallino, umore vitreo e raggiunge i fotorecettori della retina (bastoncelli e coni), dai quali viene assorbito.
Come risultato dell’assorbimento, i fotorecettori generano (in un processo detto trasduzione) tre segnali nervosi,
che sono segnali elettrici in modulazione di ampiezza.
2. La seconda fase avviene ancora a livello retinico e consiste nella elaborazione e compressione dei tre segnali
nervosi, e termina con la creazione dei segnali opponenti, segnali elettrici in modulazione di frequenza, e la loro
trasmissione al cervello lungo il nervo ottico.
3. La terza fase consiste nell’interpretazione dei segnali opponenti da parte del cervello e nella percezione del
colore.

Prima fase
Nella prima fase una sorgente luminosa emette un flusso di fotoni di diversa frequenza. Questo flusso di fotoni può:
1. arrivare direttamente all'occhio:
2. essere riflesso da un corpo che ne assorbe alcuni e ne riflette altri:
3. essere trasmesso da un corpo trasparente che ne assorbe alcuni e riflette altri.
In ogni caso i fotoni che giungono all'occhio costituiscono lo stimolo di colore. Ogni singolo fotone attraversa la
cornea, l'umore acqueo, la pupilla, il cristallino, l'umore vitreo e raggiunge uno dei fotorecettori della retina (un
bastoncello, oppure un cono L, un cono M o un cono S) dal quale può essere o non essere assorbito. La probabilità
che un tipo di fotorecettore assorba un fotone dipende dal tipo di fotorecettore e dalla frequenza del fotone.
Come risultato dell'assorbimento ogni fotorecettore genera un segnale elettrico in modulazione di ampiezza,
proporzionale al numeri di fotoni assorbiti. Gli esperimenti mostrano che i segnali generati dai tre coni L, M e S sono
direttamente collegati con la sensazione di colore, e sono detti segnali di tristimolo.
Colore 8

Seconda fase
Nella seconda fase i segnali di tristimolo vengono elaborati e compressi con modalità non ancora completamente
note. Questa elaborazione avviene nella altre cellule della retina (cellule orizzontali, bipolari e gangliari) e termina
con la generazione di altri tre segnali elettrici, questa volta in modulazione di frequenza, che sono chiamati segnali
opponenti e vengono trasmessi al cervello lungo il nervo ottico.

Terza fase
I segnali chimici opponenti che lungo i due nervi ottici (che sono costituiti dagli assoni delle cellule gangliari)
raggiungono il cervello arrivano nei cosiddetti corpi genicolati laterali, che costituiscono una stazione intermedia per
i segnali, che da qui vengono proiettati in apposite aree della corteccia visiva, dove nasce la percezione del colore.

Terminologia del Colore


Berlin e Kay studiarono il numero di nomi
dedicati ai colori nelle diverse culture
stabilendo che si può passare da un minimo
di 2, chiaro e scuro ad un massimo di 11.
Dimostrarono inoltre che man mano che si
procede con la definizione di più colori lo
sviluppo è omogeneo in tutte le culture, ad
esempio dopo il chiaro e lo scuro si indica
come colore il rosso, poi il verde e il giallo e
così via fino a giungere all'arancione che è il
colore definito in meno culture. La teoria dei
due antropologi era che il numero di colori
dipendesse dalla complessità della cultura,
ma questa teoria venne criticata in quanto
essi non consideravano che alla percezioni Variopinto mercato a Karachi.
colore erano legate delle sensazioni emotive
e quindi la percezione del colore è legata alla cultura stessa. Al termine si lega quindi una connotazione, un alone di
significati a seconda del contesto. Inoltre alcuni colori non vengono definiti se non associandoli al colore di un
elemento naturale (es. "verde" diviene "foglia") così come accade quando noi definiamo un rosso come "ruggine".
Nella cultura orientale "i colori sono inebrianti, magnifici; ma le forme sono meschine e brutte, volutamente
meschine e brutte, e cattive". La cultura occidentale precristiana era invece molto attenta alla forma e all'uso, ma
poverissima di colore: in greco antico e in latino le poche parole che definiscono un colore si riferiscono in realtà al
suo grado di opacità, oppure sono associate a un elemento naturale. Addirittura, le sculture e le pitture erano
compiute con colori eccessivamente sgargianti ai nostri occhi, ma sotto-percepiti come normali dagli antichi greci.
Solo con l'avvento del vangelo avviene l'integrazione della forma e del colore; tuttavia, vi sono zone, quali l'Europa
settentrionale, in cui il cristianesimo si diffonde solo in forma idealistica, che mantengono perciò un forte squilibrio a
favore della forma, determinato dal substrato germanico.
Colore 9

Contrasti cromatici
I contrasti cromatici si producono tramite l'accostamento di due o più colori diversi tra loro.

Contrasto tra colori puri


Il contrasto tra colori puri si produce tramite l'accostamento di Colori primari.

Contrasto tra colori complementari


Il contrasto tra colori complementari si ottiene tramite l'accostamento di un colore primario e del colore risultante
dall'unione degli altri due primari rimasti, tali contrasti sono: giallo-viola, rosso-verde, blu-arancione.

Contrasto di quantità
Ogni tinta presenta un diverso grado di luminosità, per cui se vogliamo creare un equilibrio percettivo è necessario
stendere in modo molto proporzionale le varie zone di colore, ad esempio un colore molto luminoso dovrà occupare
un'area minore rispetto a un colore con un minore grado di luminosità.

Studio del colore


Da quanto sopra si evince che lo studio del colore riguarda più discipline:
• la fisica, in particolare l'ottica per tutto ciò che avviene all'esterno del sistema visivo
• la fisiologia, per quanto riguarda il funzionamento dell'occhio e la generazione, elaborazione, codifica e
trasmissione dei segnali nervosi dalla retina al cervello
• la psicologia per quanto riguarda l'interpretazione dei segnali nervosi e la percezione del colore. Se ne interessò in
particolare Kristian Birch-Reichenwald Aars filosofo e psicologo nervegese.
ma coinvolge anche:
• la psicofisica che studia la relazione tra lo stimolo e la risposta del sistema visivo (la colorimetria è una parte della
psicofisica)
• la matematica necessaria per lo sviluppo di modelli rappresentativi della visione del colore

Voci correlate
• Associazione Internazionale del Colore
• Basic design
• Colori primari
• Colorimetria
• → CMYK
• Cromoforo
• Cromoterapia
• Lista dei colori
• → Luce
• Mescolanza additiva
• Mescolanza sottrattiva
• Metamerismo
• Pantone
• Rappresentazione dei colori
• Sistema NCS
• → Spazio dei colori
Colore 10

• Stimolo di colore

Bibliografia
• G. Wyszecki, W.S. Stiles: Color Science: Concepts and Methods, Quantitative Data and Formulae Wiley 1982
(II ed.)
• C. Oleari (a cura di): Misurare il colore Hoepli 1998
• R.W.G. Hunt: "Measuring Color" Fountain Press 1998 (III ed.)
• G.A. Agoston: Color Theory and Its Application in Art and Design Springer 1987 (II ed.)
• D.B. Judd, G. Wyszecki: Color in Business, Science, and Industry Wiley 1975 (III ed.)
• M.D. Fairchild: Color Appearance Models Addison Wesley 1998
• CIE: International Lighting Vocabulary 1970 (III ed.)
• J.W. von Goethe: ''"La teoria dei colori. Lineamenti di una teoria dei colori", a cura di Renato Troncon, Il
Saggiatore 1981

Altri progetti
• Wikimedia Commons contiene file multimediali su colore
• Wikizionario contiene la voce di dizionario «colore»
• Wikiquote contiene citazioni sul colore

Collegamenti esterni
• La psicologia dei colori [1]
• Un dizionario dei sinonimi dei colori [2]
• I principali schemi di colori [3]

Note
[1] http:/ / www. lucacoladarci. it/ colori. htm
[2] http:/ / www. communities. hp. com/ online/ blogs/ mostly_color/ archive/ 2008/ 07/ 30/ un-dizionario-dei-sinonimi-dei-colori. aspx
[3] http:/ / computer-acquisti. com/ blog/ gli-schemi-di-colori-cosa-sono-e-come-usarli/
Spazio dei colori 11

Spazio dei colori


Uno spazio dei colori è la combinazione di un modello di colore e di
una appropriata funzione di mappatura di questo modello.
Un modello di colore, infatti, è un modello matematico astratto che
descrive un modo per rappresentare i colori come combinazioni di
numeri, tipicamente come tre o quattro valori detti componenti colore.
Tuttavia questo modello è una rappresentazione astratta, per questo viene perfezionato da specifiche regole adatte
all'utilizzo che se ne andrà a fare, creando uno spazio dei colori.
Così, ad esempio, spazi di colore come Adobe RGB e sRGB sono diversi, pur basandosi entrambi sullo stesso
modello di colore → RGB.

Lo spazio dei colori dell'Osservatore standard


Nel 1931 la Commission Internationale de l'Eclairage (Commissione Internazionale per l'Illuminazione) definì uno
spazio di colore che comprendeva tutte le tinte visibili dall'occhio umano, a prescindere dalla luminanza. Infatti
qualunque colore all'interno di questo spazio bidimensionale può avere una luminanza che varia dal bianco al nero e
se si tiene conto anche di questo fattore (la luminanza) lo spazio così definito diviene tridimensionale e rappresentato
mediante coordinate XYZ. Il modello CIE 1931 si basa, come altre codifiche note, sull'utilizzo di tre → colori
primari che, opportunamente miscelati tra loro in sintesi additiva, permettevano di ottenere tutti i colori che l'occhio
umano può percepire. La commissione CIE ha comunque definito diversi modelli matematici di percezione del
colore indicati come spazi di colore e rappresentati da sigle come XYZ (è il modello CIE 1931), xyY, Lab, Luv.
A differenza, però, dei metodi → RGB o → CMYK (usati rispettivamente in sintesi additiva e in sottrattiva), il
diagramma di cromaticità proposto dalla CIE non dipendeva dal comportamento di questo o quel dispositivo di
visualizzazione o stampa in quanto basato sul concetto di Osservatore Standard.
Quest'ultimo è definito a partire dalle proprietà del sistema visivo dell'uomo e si basa su analisi sistematiche
effettuate su un vasto campione di osservatori umani. E in base a numerosi studi effettuati nel primo dopoguerra fu
notata l'impossibilità di riuscire a riprodurre per sintesi additiva tutti i colori comunque si scegliesse la terna di
primari reali da miscelare.
Poiché può rappresentare tutte le tinte percepibili, lo spazio di colore del CIE è preso come riferimento per tutti gli
altri, tuttavia nella pratica non viene molto usato a causa della sua complessità.
Spazio dei colori 12

Primari immaginari
Solo aggiungendo un colore primario alla tinta da codificare era
possibile individuare una terna cromatica che la riproducesse
fedelmente: fu ipotizzato così che la risposta dei fotorecettori retinici
umani (i coni) avesse un andamento negativo per alcune frequenze
dello spettro visibile.
I primari scelti dalla CIE per generare tutti i colori visibili sono tinte
ipersature: colori (in realtà, non essendo visibili, non dovrebbero essere
indicati come tali) più saturi di quanto i nostri fotorecettori retinici
siano in grado di decifrare.
I tre "primari immaginari", con notevole sforzo di fantasia, sono stati
denominati X, Y, e Z. X corrisponde a un rosso violaceo ipersaturo
contraddistinto da due picchi nello spettro cromatico rispettivamente Esempio di uno spazio dei colori

intorno ai 450 nm e ai 600 nm (quest'ultimo molto superiore al primo),


Y e Z corrispondono a tinte spettrali - sempre irrealisticamente ipersature - con lunghezza d'onda dominante
rispettivamente di 520 e 477 nanometri.

Inoltre la tinta Y (quella corrispondente al "verde ipersaturo") ha un andamento proporzionale alla nostra sensibilità
alla luminosità delle tinte. Scelti i tre primari tramite i quali è possibile ottenere, per sintesi additiva, qualsiasi tinta
reale è possibile a questo punto utilizzare uno spazio tridimensionale, avente per assi i tre primari utilizzati, per
catalogarle tutte.
Per non ricorrere ad un diagramma tridimensionale è possibile normalizzare le tinte facendo in modo che la loro
somma sia sempre pari ad uno. Se X, Y, e Z sono i tre valori che identificano un colore, X+Y+Z la loro somma, e noi
poniamo:
x = X/(X+Y+Z)
y = Y/(X+Y+Z)
z = Z/(X+Y+Z)
risulta, con semplici passaggi algebrici e stando attenti a minuscole e maiuscole, che x+y+z è sempre uguale ad 1 per
qualsiasi valore originario di X, Y e Z. Da questo si ricava tra l'altro che:
z = 1-x-y
ed è dunque possibile utilizzare due sole coordinate cromatiche (x e y, ad esempio) per identificare un colore essendo
la terza (z, in questo caso) ricavabile sottraendo all'unità le altre due. Il vantaggio è evidente: normalizzando i colori
col meccanismo della somma costante (uguale a 1) è possibile utilizzare un grafico bidimensionale per catalogare
qualitativamente (e non quantitativamente) tutte le tinte reali.
Ovvero si tracciano tutti i colori possibili ed immaginabili la cui intensità totale è costante e pari ad uno: tutte le altre
tinte sono ottenute semplicemente indicando, oltre ai valori x e y (il valore z si ottiene, come detto, dagli altri due) il
suo grado di luminosità espresso, volendo, in forma percentuale.
Spazio dei colori 13

Colori reali e irreali


Tutti i colori (reali e irreali) generabili
con i primari x e y giacciono su un
triangolo rettangolo avente come
vertici l'origine (0,0) il punto massimo
di x e minimo di y (1,0) e il punto
massimo di y e minimo di x (0,1).
All'interno di questo triangolo
rettangolo è tracciato il diagramma
CIE dei colori reali: una campana che
racchiude tutte le tinte possibili. Al di
fuori della campana (ma sempre
all'interno del triangolo) ci sono tutti i
colori non visibili o non distinguibili
da quelli presenti lungo il perimetro
esterno. Il diagramma CIE gode,
proprio per il modo in cui è stato
generato, di alcune importanti
caratteristiche che andiamo ora ad
illustrare maggiormente in dettaglio.

Più o meno al centro del diagramma Lo spazio dei colori CIE 1931
CIE è presente un punto (un colore),
come si vedrà tra breve, di importanza strategica, indicato con la lettera "C". È il cosiddetto "Illuminante CIE",
assunto come riferimento e corrispondente alla radiazione emessa da una superficie bianca illuminata da luce diurna
media. Lungo il perimetro curvo della campana si trovano tutte le tinte spettrali alla loro massima saturazione. Nella
parte alta del diagramma vivono le famiglie dei verdi; in basso a sinistra i blu, in basso a destra i rossi.

Sul segmento rettilineo che congiunge i due vertici inferiori della campana si trovano i colori non spettrali (o
porpore) alla loro massima saturazione. Tutti i colori non spettrali, dalla saturazione via via decrescente, sono situati
nel triangolo delimitato in basso dal segmento delle porpore e avente come vertice il punto C.

Colori spettrali
Lo stesso vale per i colori spettrali, situati nella rimanente parte del diagramma: man mano che ci si avvicina
all'illuminante C i colori sono sempre meno saturi. Per come è costruito il diagramma, prendendo due tinte qualsiasi,
il segmento che le unisce rappresenta tutte le possibili mescolanze additive dei due colori prescelti. Non solo: la
posizione relativa lungo il segmento di congiunzione rappresenta la percentuale di mescolanza delle tinte.
Così nel baricentro del segmento è possibile trovare la tinta esattamente formata dal 50% del primo colore e dal 50%
del secondo colore. Spostandosi ad esempio ai "tre quarti" del segmento, la tinta individuata corrisponde alla somma
del 75% del primo colore e del 25% del secondo colore e così via.
Lo stesso discorso vale per la sintesi additiva di tre o più componenti cromatiche: le tinte ottenibili dalla loro
mescolanza sono tutte quelle delimitate dal poligono convesso che ha come vertici i punti del diagramma che
corrispondono ai colori utilizzati. Tornando al caso di due sole tinte, se il segmento che le unisce passa per il punto C
i colori presi in considerazione sono tra loro complementari. Se il punto C "cade" nel baricentro del segmento, le due
tinte hanno la medesima saturazione (è uguale la loro distanza dall'illuminante CIE) e sommandole tra di loro si
ottiene il colore bianco.
Spazio dei colori 14

Mescolanze sottrattive
Il diagramma di cromaticità CIE può essere utilizzato, prendendo le dovute precauzioni, anche per le mescolanze
sottrattive (come avviene per la stampa). I colori ottenuti dalla mescolanza sottrattiva di due tinte non giacciono sul
segmento rettilineo che li unisce ma lungo un segmento curvilineo del quale non è nota a priori la forma esatta. Per
tracciare la curva (il luogo dei punti corrispondenti ai colori ottenibili dalla sintesi sottrattiva dei due colori) è
necessario "campionare" alcune mescolanze tipiche (ad esempio 10%-90%, 20%-80%, 30%-70%, ecc. ecc.) ed
interpolare così l'andamento complessivo.
Da segnalare due cose interessanti. Innanzitutto, proprio per la forma a campana di quest'ultimo, comunque
scegliamo i tre primari all'interno dei colori reali non riusciremo mai a riprodurre con essi tutte le tinte ma ne
escluderemo sempre una certa quantità. Dunque si può dire che non esistono monitor RGB in grado di riprodurre
tutto il riproducibile o scanner a colori altrettanto sensibili. La seconda considerazione riguarda lo spazio cromatico
della stampa a colori, ridotto rispetto allo spazio RGB ma leggermente più accurato per quel che riguarda la stampa
delle tinte azzurro ciano.
Se un colore appartiene al perimetro esterno è, come già detto, al suo massimo grado di purezza, se cade all'interno
del diagramma ha come saturazione la distanza relativa la tinta e il punto C, misurata lungo il segmento passante per
il colore e congiungente il bianco col bordo esterno. Il punto in cui il prolungamento del segmento incontra il
perimetro identifica la lunghezza d'onda dominante della tinta considerata.

Altri spazi di colore


• Basati sul modello → RGB:
• Adobe RGB
• sRGB
• ISO RGB e Extended ISO RGB
• Apple RGB
• Studiati per la televisione
• Y'UV, utilizzato per PAL e recentemente per NTSC
• YIQ, storicamente utilizzato per NTSC
• YDbDr, utilizzato per il SECAM
• Studiato per la stampa
• → CMYK
• HSV
• HSL

Voci correlate
• ColorSync
• Colorimetria
Temperatura di colore 15

Temperatura di colore
Temperatura di → colore è un termine usato in illuminotecnica per quantificare la tonalità della → luce, che si
misura in kelvin.

Definizione
Il termine deriva dal fatto che lo spettro luminoso emesso da un corpo nero presenta un picco di emissione
determinato in base alla legge di Wien esclusivamente dalla sua temperatura. Una sorgente reale differisce da un
corpo nero ideale ma l'analogia rimane valida.
Una temperatura bassa (sempre però nell'incandescenza, intorno ai 2000 K) corrisponde ad un colore giallo-arancio.
Scendendo si passa al rosso ed all'infrarosso, non più visibile, mentre salendo di temperatura la luce si fa dapprima
più bianca, quindi azzurra, violetta ed ultravioletta. Quando comunemente si dice che una luce è calda, in realtà
questa corrisponde ad una temperatura di colore bassa, viceversa un temperatura maggiore produce una luce definita
comunemente fredda.

Si noti che ha senso parlare di temperatura di colore solo se la sorgente di luce emette uno spettro di energia
continuo. Questo non si verifica però per tutte le sorgenti luminose.

Determinazione
Un corpo solido riscaldato all'incandescenza emette prevalentemente nella gamma della luce visibile, ma la
lunghezza d'onda del picco di emissione varia al variare della temperatura. Nelle normali lampade ad incandescenza
la lunghezza d'onda è spostata verso valori maggiori e la luce prodotta, intorno ad un valore di 2800 K presenta una
componente gialla. Nelle lampade alogene si riesce ad aumentare la temperatura del filamento ottenendo una luce
più bianca, intorno ad un valore di 3200 K.
Nelle lampade a scarica il colore è determinato dallo spettro di emissione del gas alla pressione a cui si trova. Nelle
lampade fluorescenti , che sono anch'esse lampade a scarica ma che producono luce attraverso un procedimento
elettrochimico diverso, dove cioè la vera e propria scarica elettrica provoca l'eccitazione, e perciò la luminescenza,
delle polveri fluorescenti depositate uniformemente all'interno della lampada stessa, la tonalità della luce dipende
dalla scelta del materiale fluorescente utilizzato (per questo si possono avere lampade a fluorescenza di colori
differenti. Si noti che il fenomeno della fluorescenza differisce da quello della fosforescenza, in quanto nel primo
caso, al cessare dell'eccitazione causante la luminescenza, l'emissione di luce è pressoché istantanea, nel secondo
caso può durare a lungo. Ricordiamo, inoltre, che le lampade appartenenti alla categoria delle fluorescenti non ha
nulla a che fare con le lampade al neon, usate in prevalenza per le insegne commerciali .
Spesso sono riportate le temperature di → colore del bianco dei monitor per PC, siano essi di tipo CRT, LCD o al
plasma, ma questa temperatura, in realtà, non avrebbe senso, in quanto tale bianco è prodotto per metamerismo dalla
somma dei colori fondamentali (Red, Green e Blue) prodotti dai diversi fosfori.
Temperatura di colore 16

Esempi
Qui di seguito sono riportate le temperature di colore di alcune sorgenti di luce comuni:
• Luce solare a mezzogiorno: 5 400 K
• Luce del cielo: da 10 000 a 18 000 K
• Lampada Photoflood da 500 W per uso fotografico: 3 400 K
• Lampada da 100 W per uso generale: 2 900 K
• Lampada da 40 W per uso generale: 2 650 K

Voci correlate
• Metamerismo

RGB
RGB è il nome di un modello di colori le cui specifiche sono state descritte
nel 1931 dalla CIE (Commission internationale de l'éclairage). Tale modello
di colori è di tipo additivo e si basa sui tre colori rosso (Red), verde (Green) e
blu (Blue), da cui appunto il nome RGB, da non confondere con i colori
primari sottrattivi giallo, ciano e magenta (popolarmente chiamati anche
giallo, rosso e blu). Un'immagine può infatti essere scomposta, attraverso
filtri o altre tecniche, in questi colori base che, miscelati tra loro, danno quasi
tutto lo spettro dei colori visibili, con l'eccezione delle porpore.

Più specificamente i 3 colori principali corrispondo a forme d'onda


(radiazioni luminose) di periodo fissato. A una lunghezza d'onda di 700 nm Miscelazione additiva
corrisponde il rosso, a 546.1 nm il verde, a 455.8 nm il blu.
L'RGB è un modello additivo: unendo i tre colori con la loro intensità massima si ottiene il bianco (tutta la luce viene
riflessa). La combinazione delle coppie di colori dà il cìano, il magenta e il giallo.
Per poter trasferire un'immagine video
è necessario inviare anche un segnale
di sincronismo che fornisca le
informazioni su quando inizia
un'immagine (sincronismo verticale)
Tricromia additiva RGB di un'immagine reale
e su quando inizia una riga
dell'immagine (sincronismo
orizzontale). Questi due sincronismi possono essere combinati in un unico sincronismo (sincronismo composito)
RGB 17

Principi fisici per la scelta del rosso, verde e blu


La scelta dei colori primari è correlata alla fisiologia dell'occhio umano; buoni primari sono stimoli che
massimizzano la differenza tra le risposte delle cellule cono della retina alle differenze di lunghezza d'onda della
luce, cioè hanno un triangolo di colore esteso.[1]
I tre tipi normali di cellule fotorecettive sensibili alla luce nell'occhio umano (le cellule cono) rispondono più alla
luce gialla (lunghezza d'onda lunga), verde (media), e viola (corta), con picchi vicini ai 570 nm, 540 nm e 440 nm,
rispettivamente[1] . La differenza nei segnali ricevuti dai tre tipi permette al cervello di differenziare un largo gamut
di colori diversi, essendo più sensibile soprattutto alla luce verde-giallognola e alle differenze di tonalità nella
regione verde-arancione.
L'uso dei tre colori primari non è sufficiente a riprodurre tutti i colori; solo i colori entro il triangolo dei colori
definito dalla cromaticità dei primari può essere riprodotto tramite sintesi additiva di quantità non negative di tali
colori.[1]

RGsB
Quando su un'interfaccia video si trasmette il colore RGB con tre canali solamente il sincronismo composito viene
posto sul verde (G). Questa modalità si chiama RGsB.

RGBS
Quando su un'interfaccia video si trasmette il colore RGB con quattro canali, il quarto è utilizzato per il sincronismo
composito. Questa modalità si chiama RGBS utilizzata ad esempio su un'interfaccia SCART.

RGBHV
Quando su un'interfaccia video si trasmette il colore RGB con cinque canali, il quarto è utilizzato per il sincronismo
orizzontale (H) e il quinto per il sincronismo verticale (V). Questa modalità si chiama RGBHV utilizzata ad esempio
su un'interfaccia Video Graphics Array o Digital Visual Interface.

Voci correlate
• Colorimetria
• → CMYK
• Sintesi additiva
• Sintesi sottrattiva
• YUV
• RGBA
RGB 18

Collegamenti esterni
• [2] (pagina che consente di sperimentare l'effetto della sovrapposizione dei colori base, visualizzando l'effetto
della sintesi additiva e della sintesi sottrattiva)

Note
[1] R. W. G. Hunt, The Reproduction of Colour, 6th ed., Chichester UK, Wiley – IS&T Series in Imaging Science and Technology, 2004. ISBN
0-470-02425-9
[2] http:/ / ww2. unime. it/ dipart/ i_fismed/ wbt/ ita/ colors/ colors_ita. htm

CMYK
CMYK è l'acronimo per Cyan, Magenta, Yellow, BlacK; è
un modello di colore detto anche di quattricromia o
quadricromia. La scelta della lettera K per il nero, anziché
la lettera B iniziale nella traduzione inglese, è stata fatta per
evitare confusioni con l'iniziale del colore Blue ed è dovuta al
fatto che, nella stampa, si usa un procedimento di separazione
dei colori per produrre tante diverse immagini quanti sono gli
inchiostri usati. Nella quadricromia CMYK l'immagine
corrispondente al nero è quella che contiene più dettagli e la
lastra di stampa corrispondente è quindi normalmente
considerata la lastra chiave, in inglese key plate. Da qui l'uso
di K, con riferimento a tale lastra, per indicare il nero.

Quadricromia CMYK
CMYK 19

I colori ottenibili con la quadricromia (sintesi sottrattiva) sono un


sottoinsieme della gamma visibile, quindi non tutti i colori che
vediamo possono essere realizzati con la quadricromia, così come
non tutti i colori realizzati con l'insieme → RGB (RED GREEN
BLUE) cioè quelli che vediamo sui nostri monitor (sintesi
additiva) hanno un corrispondente nell'insieme CMYK.

Quando sono sovrapposti nelle diverse percentuali, i primi tre


possono dare origine quasi a qualunque altro → colore. Il 100% di
tutte e tre le componenti (CMYK 100,100,100,0) non genera
solitamente il nero, bensì il bistro, colore simile a una tonalità di
marrone molto scura, tuttavia alcune stampanti inkjet fotografiche
(es.: Hp Photosmart) lavorano esclusivamente in tricromia (Cyan,
Miscelazione sottrattiva Magenta, Giallo) anche per l'ottenimento del nero. Perciò nei
processi di stampa si è aggiunto l'inchiostro di un quarto colore per
avere il nero pieno (CMYK 0,0,0,100) risparmiando sulle componenti degli altri tre inchiostri (v. Gray Component
Replacement (GCR) e Under Color Removal (UCR))

Voci correlate
• Colorimetria
• → RGB
• Sintesi additiva
• Sintesi sottrattiva
• Oleografia
• Stampa offset
Hue Saturation Brightness 20

Hue Saturation Brightness


HSB, è l'acronimo di Hue Saturation Brightness (tonalità,
saturazione e luminosità) e indica sia un metodo additivo di
composizione dei → colori che un modo per rappresentarli in un
sistema digitale. Viene anche chiamato HSV, Hue Saturation
Value (tonalità, saturazione e valore), o HSI, Hue Saturation
Intensity (tonalità, saturazione ed intesità).

Per saturazione si intende l'intensità e la purezza del colore, mentre


la luminosità (valore) è un'indicazione della sua brillantezza.
Ovviamente la tonalità indica il colore stesso.
Il modello HSB è particolarmente orientato alla prospettiva
Descrizione grafica dello spazio colore HSV.
umana, essendo basato sulla percezione che si ha di un colore in
termini di tinta, sfumatura e tono. Il sistema di coordinate è
cilindrico e il modello HSB è definito come un cono distorto
all'interno del cilindro.
La tonalità H viene misurata da un angolo intorno all'asse
verticale, con il rosso a 0 gradi, il verde a 120 e il blu a 240.
L'altezza del cono rappresenta la luminosità (B) con lo zero che
rappresenta il nero e l'uno il bianco. La saturazione (S) invece va
da zero, sull'asse del cono, a uno sulla superficie del cono.

Voci correlate
• Hue Saturation Lightness
• saturazione
• tonalità
• luminosità HSL visto come un doppio cono.

Collegamenti esterni
• Implementazione in C dell'algoritmo per convertire i colori da HSV a RGB e viceversa. [1]

Note
[1] http:/ / mamo139. altervista. org/ index. php?tipo=c& id=0
21

Grafica Digitale

Grafica raster
La grafica bitmap, o grafica raster (in inglese bitmap graphics,
raster graphics), è una tecnica utilizzata in computer grafica per
descrivere un'→ immagine. Un'immagine descritta con questo tipo di
grafica è chiamata immagine bitmap o immagine raster.
La grafica bitmap si contrappone alla grafica vettoriale.

Significato del termine


Il termine raster (= trama, reticolo, griglia) trae origine dalla
tecnologia televisiva analogica, ovvero dal termine che indica le righe
orizzontali (dette anche scan line) dei televisori o dei monitor[1]). In
computer grafica, indica la griglia ortogonale di punti che costituisce
un'immagine raster. Nella → grafica raster l'immagine viene vista
come una scacchiera e ad ogni elemento della scacchiera, chiamato →
pixel, viene associato uno specifico colore. Il colore può essere definito con due tecniche:

• se l'immagine contiene pochi colori (massimo 256) si crea un elenco dei colori da utilizzare e nella scacchiera
viene inserito l'indice che punta allo specifico colore del pixel;
• nel caso si vogliano utilizzare molti più colori il singolo pixel non definisce più l'indice a una tavolozza di colori
ma definisce il colore direttamente.
Il colore viene definito come un'unione delle componenti blu, rossa e verde. Questo non è l'unico modo di definire
un colore, esistono molti modi che vengono chiamati → spazi di colore ma nel caso delle immagini generate al
computer il sistema → RGB (RED Rosso, GREEN verde BLUE Blu) è il più diffuso dato che le schede grafiche lo
utilizzano nativamente per generare il segnale da visualizzare con il monitor.

Proprietà della grafica raster


La bitmap è caratterizzata da due proprietà:
• risoluzione;
• profondità di colore.
La prima è determinata dal numero di pixel contenuti nell'unità di misura considerata (in genere il pollice inglese,
che misura 2,54 cm) ed è ottenuta moltiplicando il numero di pixel orizzontali per quello dei pixel verticali; si misura
in PPI (Points Per Inch). La seconda è definita dalla memoria che si dedica ad ogni pixel, ovvero dal numero di bit
dedicati ad ogni pixel per descrivere il colore, e si misura in BPP (Bit Per Pixel); maggiore è il numero di bit,
maggiore è il numero di colori che è possibile descrivere.
La grafica bitmap non è vantaggiosa se l'utente necessita di apportare modifiche all'immagine, perché nel caso ad
esempio di uno zoom, la risoluzione diventa bassissima e quindi la qualità dell'immagine peggiora notevolmente. I
software grafici, per ridurre il problema, sono in grado di ripristinare la risoluzione inserendo nuovi pixel che
vengono calcolati facendo una interpolazione di punti, il processo inserisce, perciò, deliberatamente una quantità di
informazioni presunte.
Grafica raster 22

La grafica bitmap è invece ideale per rappresentare immagini della realtà, per modificare contrasti e luminosità di
queste, per applicare filtri di colore.

Formati di immagini raster


I dati raster possono essere memorizzati attraverso tipologie di file che sfruttando algoritmi di compressione diversi,
gravando in modo differente sul supporto di memorizzazione. I formati raster più comuni sono i seguenti:

Non compressi
Questi formati di file hanno richieste di elaborazione minima, non essendo necessari algoritmi di compressione (in
fase di scrittura) e decompressione (in fase di lettura), tuttavia, mancando di compressione, risultano particolarmente
voluminosi, in termini di spazio occupato su disco (o altro dispositivo di memorizzazione), rispetto agli altri formati:
• raw
• bmp (in alcuni casi i file bmp sono compressi con un algoritmo RLE)

Con compressione lossless


Le immagini salvate con un algoritmo di → compressione dati lossless occupano meno spazio nei dispositivi di
memorizzazione, mantenendo inalterata tutta l'informazione originale:
• → png (certe applicazioni permettono anche la scrittura di file png non compressi)
• tga
• tiff (sebbene questo sia l'uso più comune, questo formato permette diversi tipi di compressione)
• gif (per immagini fino a 256 colori)

Con compressione lossy


Le immagini memorizzate con un algoritmo di compressione → lossy, subiscono una perdita di informazione;
pertanto questa tecnica non è adatta per salvare le immagini che vengono rielaborate coi programmi di fotoritocco
(le continue modifiche comporterebbero un progressivo degrado dell'immagine ad ogni salvataggio e riapertura);
invece, in virtù delle ridotte dimensioni del file, sono particolarmente indicate per la trasmissione di immagini o per
ridurre le dimensioni di un'applicazione o di un prodotto da distribuire.
• → jpeg
• gif (per immagini con più di 256 colori si ottiene una compressione lossy poiché vengono eliminate la maggior
parte delle sfumature di colore)

Altre applicazioni
Nel campo dei Sistemi informativi territoriali o GIS, il termine raster è usato per indicare la tipologia di dato
impiegata nella rappresentazione cartografica digitale. Con i dati raster il territorio viene riprodotto attraverso una
matrice di pixel di forma quadrata o rettangolare. A ciascun pixel è associato un attributo che definisce le
caratteristiche dell'elemento rappresentato. Ad esempio in un modello digitale di elevazione a ciascun pixel è
associato il valore della quota sul livello del mare in quel punto. La dimensione dei pixel è inversamente
proporzionale alla precisione della carta. I dati raster possono essere implementati in un sistema GIS mediante
acquisizione diretta con apparecchiature a lettura ottica quali ad esempio scanner d'immagini o attraverso
l'elaborazione di dati, raster o vettoriali, già acquisiti.
Grafica raster 23

Voci correlate
• Grafica vettoriale
• → Immagine digitale
• Rasterizzazione

Note
[1] http:/ / www. answers. com/ topic/ raster

Pixel
In computer grafica, con il termine pixel (contrazione della locuzione
inglese picture element) si indica ciascuno degli elementi puntiformi
che compongono la rappresentazione di una → immagine raster nella
memoria di un computer.
Solitamente i punti sono così piccoli e numerosi da non essere
distinguibili ad occhio nudo, apparendo fusi in un'unica immagine
quando vengono stampati su carta o visualizzati su un monitor. Ingrandimento di una versione precedente del
Ciascun pixel, che rappresenta il più piccolo elemento autonomo logo di Wikipedia in cui sono evidenti i pixel che
compongono l'immagine
dell'immagine, è caratterizzato dalla propria posizione e da valori quali
→ colore e intensità, variabili in funzione del sistema di
rappresentazione adottato.

L'esempio qui a destra mostra un logo in grafica raster ingrandito in modo da evidenziare i singoli pixel. Si noti che
in questo caso l'illusione di una immagine uniforme è resa più realistica mediante l'uso di sfumature di grigio sul
bordo dei caratteri, evitando bruschi passaggi di colore (tale processo è detto di antialiasing).

Aspetti tecnici
Il numero di pixel in un'immagine (talvolta impropriamente detto "risoluzione" dell'immagine) determina la quantità
di dettagli fini che possono essere rappresentati. Sebbene il concetto di pixel si applichi in tutti i contesti con il
medesimo significato, per l'indicazione del numero di pixel da cui è costituita una immagine sono in uso diverse
convenzioni per diverse tecnologie specifiche. Per esempio, il numero di pixel di cui è costituita l'immagine prodotta
da una fotocamera digitale viene espresso come un singolo valore, in megapixel (milioni di pixel), mentre il numero
di pixel di un display viene in genere espresso come un prodotto (pixel in altezza per pixel in larghezza), per esempio
640 × 480.
I punti colorati che formano un'immagine digitale (come una → JPEG) vengono chiamati anch'essi pixel. Possono
non essere in corrispondenza uno-a-uno con i pixel dello schermo. Nei casi in cui questa distinzione è importante, i
punti del file possono essere chiamati texel.
In informatica, un'immagine composta da pixel è conosciuta come immagine bitmap o → immagine raster. La parola
raster trae origine dalla tecnologia della televisione analogica. Le immagini bitmap sono usate per codificare il →
video digitale e per produrre arte generata da computer.
Poiché la → risoluzione del monitor può essere regolata dal sistema operativo del computer, un pixel è una misura
relativa. I moderni schermi per computer sono progettati con una risoluzione nativa, che si riferisce al perfetto
accoppiamento tra pixel e triadi. La risoluzione nativa darà origine all'immagine più netta tra quelle che lo schermo è
in grado di produrre. Comunque, l'utente può aggiustare la risoluzione, il che si ottiene disegnando ogni pixel usando
più di una triade. Questo processo normalmente dà origine a una immagine sfuocata. Ad esempio, uno schermo con
Pixel 24

risoluzione nativa di 1280×1024 produrrà le migliori immagini se impostato a quella risoluzione, mostrerà la
risoluzione a 800×600 in modo adeguato, disegnando ogni pixel con più di una triade, e non sarà in grado di
mostrare immagini a 1600×1200 a causa della mancanza di un numero sufficiente di triadi.
Normalmente, una risoluzione non nativa viene mostrata meglio su uno schermo CRT che su un LCD.
I pixel possono essere sia quadrati che rettangolari. Un valore chiamato pixel aspect ratio, descrive le proporzioni di
un pixel per la sua corretta visualizzazione. Ad esempio, un pixel aspect ratio di 1,25:1, significa che ogni pixel
dev'essere visualizzato 1,25 volte più largo che alto perché quanto rappresentato sia proporzionato. I pixel sugli
schermi dei computer sono in genere quadrati, ma i pixel utilizzati nel → video digitale hanno forma non quadrata,
come nel D1 aspect ratio.
Ogni pixel di un'immagine monocroma ha la sua luminosità. Un valore pari a zero di norma rappresenta il nero,
mentre il valore massimo rappresenta il bianco. Ad esempio, in un'immagine a otto bit, il massimo valore senza
segno che può essere immagazzinato è 255, così questo è il valore usato per il bianco.
Nelle immagini a colori, ogni pixel ha la sua luminosità e colore, tipicamente rappresentate da una tripletta di
intensità di rosso, verde e blu (vedi → RGB). I monitor a colori usano pixel composti da 3 sotto-pixel. Nelle
immagini in scale di grigio i valori di accensione dei 3 subpixels è sempre uguale (ad esempio R=71, G=71, B=71).
Il numero di colori distinti che possono essere rappresentati da un pixel dipende dal numero di bit per pixel (BPP).
Valori comuni sono:
• 8 bpp (256 colori)
• 16 bpp (65.536 colori, noto come Highcolour)
• 24 bpp (16.777.216 colori, noto come Truecolour).
Immagini composte da 256 colori o meno, vengono normalmente immagazzinate nella memoria video del computer,
in formato chunky o planar, dove un pixel in memoria è l'indice di una lista di colori chiamati palette (tavolozza).
Queste modalità sono quindi chiamate modalità indicizzate. Mentre vengono mostrati solo 256 colori, questi sono
presi da una tavolozza molto più ampia, tipicamente di 16 milioni di colori. Cambiare i valori della tavolozza
permette una specie di effetto animato. Il logo animato di avvio di Windows 95 e Windows 98 è probabilmente il più
noto esempio di questo tipo di animazione.
Per profondità di colore più ampie di 8 bit, il numero è il totale dei tre componenti RGB (rosso, verde e blu). Una
profondità di 16 bit viene di solito divisa in cinque bit di rosso e blu e sei di verde, (il verde ha più bit perché l'occhio
e più sensibile a quel colore). Una profondità di 24 bit permette 8 bit per componente. Su alcuni sistemi è disponibile
una profondità di 32 bit: questo significa che ogni pixel a 24 bit ha 8 bit extra per descrivere l'opacità. Sui sistemi più
vecchi è comune il formato a 4 bpp (16 colori).
Quando un file immagine viene mostrato a → video, il numero di bit per pixel viene espresso separatamente per il
file raster e per lo schermo. Alcuni formati di file raster, hanno una grande profondità in bit rispetto ad altri. Il
formato GIF, ad esempio, ha una profondità massima di 8 bit, mentre il TIFF può gestire pixel a 48-bit. Non ci sono
monitor che possano rappresentare colori a 48 bit, e quindi questa profondità viene di solito usata per applicazioni
professionali specializzate che lavorano con scanner d'immagini o stampanti. Questi file vengono "renderizzati" su
schermo con 24-bit di profondità.
Altri oggetti derivati dal pixel, come i voxel (elementi di volume), i texel (elementi di consistenza) e i surfel
(elementi di superficie), sono stati creati per altri utilizzi della computer grafica.
Pixel 25

Sotto-pixel
Sugli schermi a cristalli liquidi e su quelli a tubo catodico, ogni pixel è costruito da tre sotto-pixel, ognuno per i tre
colori, posti a distanza ravvicinata. Ogni singolo sotto-pixel è illuminato in base a un determinato valore, e a causa
della loro prossimità, creano l'illusione ottica di un singolo pixel di un colore particolare.
Una tecnica recente per aumentare la risoluzione apparente di un monitor a colori, chiamata sub-pixel font rendering,
usa la conoscenza della geometria dei pixel per manipolare separatamente i tre sotto-pixel, il che sembra essere
particolarmente efficace con gli schermi LCD impostati con risoluzione nativa. Questa è una forma di antialiasing, e
viene usata principalmente per migliorare l'aspetto del testo. Il Cleartype di Microsoft, che è disponibile su Windows
XP, ne è un esempio. Un altro esempio è la tecnologia Quartz utilizzata dal Mac OS X per l'interfaccia grafica. In
questo caso l'intera interfaccia grafica utilizza questa tecnologia. Ciò rende l'interfaccia grafica più gradevole ma
rende le singole linee meno definite e questo in alcuni casi può disturbare l'utente.

Megapixel
Un megapixel è 1 milione di pixel, e viene solitamente usato con riferimento alle macchine fotografiche digitali.
Alcune macchine fotografiche digitali usano i CCD, che registrano i livelli di luminosità. Vecchie fotocamere
digitali, che non usano i CCD Foveon X3 [1] hanno filtri colorati rossi, verdi e blu, in modo che ogni pixel possa
registrare la luminosità di un singolo colore primario. Quindi, i pixel delle fotocamere digitali che non usano i CCD
Foveon X3, sono simili a sotto-pixel. La fotocamera interpola l'informazione di colore per creare l'immagine finale.
Quindi, un'immagine a 'x'-megapixel, proveniente da una fotocamera con 1/4 della risoluzione di colore della stessa
immagine acquisita da uno scanner. La risoluzione dei dettagli non ne risente. Quindi, un'immagine di un oggetto blu
o rosso (di solito ci sono più pixel verdi) tenderà ad apparire sfuocata, se confrontata con lo stesso oggetto in toni di
grigio.
È importante sapere che in numero di megapixel non è un diretto indice di qualità delle macchine fotografiche; è
vero che un numero più elevato di pixel permette, in linea teorica, un maggior potere risolutivo, ma questo è spesso
limitato dal sistema ottico utilizzato per convogliare l'immagine sul sensore. Se il potere risolutivo del complesso di
lenti è inferiore al potere risolutivo della matrice di pixel allora non si avrà alcun guadagno nell'aumentare in numero
di pixel, anzi si avrà un peggioramento delle prestazioni del sistema a causa del maggiore rumore elettronico
introdotto.

Gigapixel
Un gigapixel corrisponde a 1 miliardo di pixel, e viene solitamente usato con riferimento alle schede grafiche (Pixel
Fillrate).

Pel
Pel è un termine che viene usato di solito come abbreviazione di pixel, ma può anche riferirsi ai sub-pixels.

Voci correlate
• Dot pitch
• Grafica vettoriale
• Pixel art
Pixel 26

Altri progetti
• Wikizionario contiene la voce di dizionario «pixel»

Note
[1] http:/ / www. foveon. com/ X3_tech. html

Risoluzione (grafica)
La risoluzione indica il grado di qualità di un'immagine. Generalmente si usa questo termine riguardo immagini
digitali, ma anche una qualunque fotografia ha una certa risoluzione.
Nelle immagini su computer, la risoluzione indica la densità dei → pixel, ovvero la quantità dei puntini elementari
che formano l'immagine rapportata ad una dimensione lineare (ad esempio pixel/cm o pixel/pollice). Lo schermo di
un computer non può mostrare linee o disegni, ma soltanto punti; se questi sono sufficientemente piccoli, tali da
essere più piccoli della risoluzione percepita dall'occhio umano, l'osservatore ha l'impressione di vedere linee
anziché punti allineati, e disegni anziché ammassi di puntini distinti.

Misura della risoluzione


La risoluzione, quindi, essendo una misura della densità dei pixel, si misura in punti per unità di lunghezza, di solito
pollici (ppi, pixel per inch o dpi, dot per inch). Per alcuni dispositivi, la densità dei pixel è diversa nelle due
dimensioni, come per gli scansionatori d'immagine, quindi occorre indicare sia la risoluzione orizzontale che quella
verticale. Uno schermo per computer ha valori di risoluzione intorno ai 72 dpi. Le attuali stampanti casalinghe
permettono di stampare immagini con risoluzioni di alcune centinaia di dpi. La risoluzione equivalente di una
normale pellicola fotografica è di 3-4.000 dpi.

Bassa risoluzione
La distinzione tra alta risoluzione e bassa risoluzione ha assunto anche rilevanza giuridica perché la legge 9 gennaio
2008, n. 2, integrando l'articolo 70 della legge n. 633/41 sul diritto d'autore, ha previsto per i siti non lucrativi, la
possibilità di riprodurre immagini per fini didattici o scientifici. Manca tuttavia una più esatta definizione di che cosa
debba intendersi per bassa risoluzione, che evidentemente deve essere ricavata da norme di buona tecnica.

Modifica della risoluzione


La risoluzione con la quale è stata digitalizzata un'immagine si può modificare anche a posteriori con un processo di
interpolazione, ma questo non comporta un miglioramento della qualità dell'immagine stessa; quindi, al momento
dell'acquisizione, occorre prestare attenzione ad avere un'immagine con risoluzione sufficiente per lo scopo
dell'immagine stessa.

Voci correlate
• Telescopio
Risoluzioni standard 27

Risoluzioni standard
Le risoluzioni standard o modalità
video sono combinazioni di parametri
utilizzate dall'industria elettronica per
definire l'interfaccia video di un
computer. Tali parametri di solito sono
la risoluzione dei display (specificata
dalla larghezza e altezza in → pixel), la
profondità di colore (espressa in bit) e
la velocità di refresh (refresh rate,
espressa in hertz).

Storia
Le risoluzioni standard utilizzate nei
PC in questi anni (fine del XX secolo e
inizi XXI secolo) si sono evolute
moltissimo: si va dai semplici frame Comparazione delle risoluzioni standard. La colorazione blu, rossa, gialla verde e viola
buffer dei primi anni, caratterizzati indica il display aspect ratio (DAR)

solo da risoluzione video e refresh rate,


fino ai moderni sistemi dotati di un insieme molto più ampio di comandi e funzioni pilotabili via software.

L'evoluzione dell'informatica e dell'elettronica ha modificato nel tempo l'interfaccia di interazione tra computer ed
operatore. Se fino alla metà negli anni '70, era la normalità l'uso delle schede perforate e di pannelli a spie luminose
per leggere i risultati dei calcoli, divenne poi possibile interagire con gli elaboratori attraverso videoterminali a
carattere. L'evoluzione successiva ha portato alla nascita di numerosi standard grafici che introdussero linee e curve e
successivamente i colori.
La continua evoluzione dell'elettronica e della tecnologia di visualizzazione aumenta sempre più la definizione, la
superficie visualizzabile e le dimensioni stesse degli schermi.
Fino al 2003, la maggior parte dei monitor aveva un Aspect ratio di 4:3 e qualcuno di 5:4. Dal 2003 al 2006 si sono
resi disponibili vari monitor con un rapporto di risoluzione di 16:10, inizialmente sui laptop e successivamente sui
monitor per PC. Questo cambiamento è dovuto sia al fatto che con questo rapporto si vedono meglio film e giochi
ma soprattutto le attività di videoscrittura ne hanno tratto beneficio potendo visualizzare due pagine A4 affiancate,
così come anche il CAD che ha potuto sfruttare lo spazio in più per la visualizzazione dei menù a fianco del disegno
grafico. La Video Electronics Standards Association (VESA) ha definito diversi standard video mentre quelli
ergonomici sono definiti dal TCO.
Risoluzioni standard 28

Principali risoluzioni utilizzate in informatica


Nella tabella, qui sotto riportata, troviamo le risoluzioni video più comuni nei PC che si sono evoluti dall'originale
IBM PC, più alcune che sono supportate da altri tipi di computer come ad esempio gli Apple Macintosh. La Video
Electronics Standards Association (VESA) ha curato le specifiche di molti di questi standard.

Tabella delle risoluzioni standard dei display


Standard Nome completo Descrizione risoluzione Aspect profondità Interfaccia
Video del display ratio del colore video
(→ pixel) (bpp)

MDA Monochrome Lo standard originale sugli IBM PC e IBM PC XT con 720×350 72:35 1 bpp MDA
Display Adapter 4 KB di video RAM. Introdotto nel 1981 dall'IBM. (text)
Supporta unicamente la modalità testuale.

CGA Color Graphics Introdotto nel 1981 by IBM è il primo standard video a 640×200 16:5 1 bpp CGA
Adapter colori per gli IBM PC. Le schede grafiche CGA erano (128k) 16:10 2 bpp
dotate di 16 KB video RAM. 320×200 4:5 4 bpp
(64k)
160×200
(32k)

Hercules Una modalità video monocromatica con un'ottima 720×348 60:29 1 bpp MDA
visualizzazione del testo e della grafica per l'epoca in (250.5k)
cui fu introdotta (1982). Divenne molto popolare
abbinata al software di foglio elettronico Lotus 1-2-3
che è stato una delle prime killer application.

EGA Enhanced Introdotta da IBM nel 1984 con una risoluzione di 640 640×350 64:35 4 bpp EGA
Graphics Adapter × 350 pixel su 16 colori (4 bit per pixel, o bpp), (224k)
selezionabili fra 64 colori di base (palette) (2 bit per
ciascuna componente rossa-verde-blu).

Professional Introdotta nel 1984 per il PC-bus ISA a 8 bit, aveva a 640×480 4:3 8 bpp PGC
Graphics bordo un acceleratore hardware 2D e 3D ed era stata (307k)
Controller pensata per applicazioni CAD

MCGA Multi-Color Introdotta nel 1987 per gli IBM Personal System/2 320×200 16:10 8 bpp VGA
Graphics Array (PS/2) con un costo ridotto rispetta alla VGA. MCGA (64k) 4:3 1 bpp Standard
ha una risoluzione di 320x200 pixel con 256 color (da 640×480
una palette di 262,144 colori, e una risoluzione di (307k)
640x480 unicamente in bianco e nero in quanto la
video ram era di soli 64k mentre quella della VGA era
di 256k.

8514 Modalità video di IBM introdotta nel 1987 1024×768 4:3 8 bpp VGA
praticamente assieme alla VGA. Era caratterizzata (786k) Interlacciato
dalla risoluzione 1024x768 (precursore di XGA) ma
aveva un video interlacciato a 43.5 Hz.

VGA Video Graphics Introdotta nel 1987 da IBM. Oggi per VGA si intende 640×480 4:3 4 bpp VGA
Array la risoluzione 640x480 a 16 colori ma VGA è un (307k) 64:35 4 bpp Standard
insieme di risoluzioni che comprendono anche 640×350 16:10 4/8 bpp
320x200 a 256 colori e 720x400 in modalità testo. I (224k) 9:5 4 bpp
display VGA e le schede video VGA sono 320×200
generalmente in grado di operare in modalità grafica (64k)
Mode X, una modalità non documentata per aumentare 720×400
le prestazioni, utilizzata in, particolare, dai giochi. (text)

SVGA Super VGA Uno standard video introdotto nel 1989 dalla Video 800×600 4:3 4 bpp VESA VGA
Electronics Standards Association (VESA) per il (480k)
mercato dei PC IBM compatibili.
Risoluzioni standard 29

XGA Extended Introdotto da IBM nel 1990. XGA-2 ha poi aggiunto 1024×768 4:3 8 bpp VESA VGA
Graphics Array un supporto per più colori e ad un maggiore refresh (786k) 4:3 16 bpp
rate e il supporto della risoluzione 1360 × 1024 a 16 640×480
colori (4 bit per pixel). (307k)

XGA+ Extended Nome non ufficiale per riferirsi alla risoluzione di 1152 1152×864 4:3 8 bpp VESA VGA
Graphics Array x 864, che è la risoluzione 4:3 più ampia sotto il (786k) 4:3 16 bpp
Plus milione di pixel. Apple Computer ha impiegato una 640×480
variante di questa risoluzione a 1152x870 e Sun (307k)
Microsystems a 1152x900.

QVGA Quarter VGA Un quarto della risoluzione VGA 320×240 4:3 Non definita
(75k)

WQVGA Wide Quarter Risoluzione orizzontalmente ampia come la VGA ma 480×272 16:9 Non definita
VGA con circa la metà delle linee (126k)

HQVGA Half QVGA Un ottavo della risoluzione VGA 240×160 3:2 Non definita
(38k)

QQVGA Quarter QVGA Un sedicesimo della risoluzione VGA 160×120 4:3 Non definita
(19k)

WXGA Widescreen Una variante dello standard XGA con un Aspect ratio 1280×720 16:9 or 32 bpp VESA VGA
Extended 16:9 o 16:10 che si è molto diffuso sui notebook più (922k) 16:10
Graphics Array recenti (2008). 1280×800
(1024k)
1440×900
(1296k)

SXGA Super XGA Una modalità de facto ampiamente utilizzata con 32 bit 1280×1024 5:4 32 bpp VESA VGA
Truecolor, con un particolare aspect ratio di 5:4 invece (1310k)
del più comune 4:3 che comporta una leggera
distorsione delle immagini in formato 4:3. Questa
modalità è utilizzata sulla maggior parte dei display
LCD da 17".
• Alcuni produttori hanno chiamato questa modalità
Extended Video Graphics Array or XVGA in
considerazione che VGA è la risoluzione standard.

WXGA+ Widescreen Variante del formato WXGA molto utilizzata sugli 1440×900 16:10 32 bpp VESA VGA
Extended ultimi (2008) portatili e sui monitor 19" caratterizzate (1296k)
Graphics Array da un rapporto di risoluzione 16:10.
PLUS

SXGA+ Super Extended Molto frequente su laptop con display da 14" e 15" e su 1400×1050 4:3 32 bpp VESA VGA
Graphics Array videoproiettori DLP. (1470k)
Plus

WSXGA+ Widescreen Super molto frequente su Monitor Widescreen da 19" 21" e 1680×1050 16:10 32 bpp VESA VGA
Extended 22" e su laptop con display 15.4" e 17. (1764k)
Graphics Array
Plus

UXGA Ultra XGA Una risoluzione standard de facto Truecolor. 1600×1200 4:3 32 bpp VESA VGA
(1920k)

WUXGA Widescreen Ultra Una versione wide di UXGA molto utilizzato nei 1920×1200 16:10 32 bpp DVI Single
Extended notebook di fascia alta con display da 15,4" o 17" (2304k) Link
Graphics Array

QXGA Quad Extended Quattro volte la risoluzione XGA 2048×1536 4:3 32 bpp DVI Dual
Graphics Array (3146k) Link
Risoluzioni standard 30

WQXGA Widescreen Quad Modalità video apparsa per la prima volta su Apple 2560×1600 16:10 32 bpp DVI Dual
Extended Cinema 30" e divenuta standard su monitor da 30", (4096k) Link
Graphics Array richiede connessioni DVI o HDMI dual link.

QSXGA Quad Super 2560×2048 5:4 32 bpp DisplayPort


Extended (5243k) 1.1 4-Lane
Graphics Array

WQSXGA Wide Quad Super 3200×2048 25:16 32 bpp Non ancora


Extended (6554k) supportata
Graphics Array

QUXGA Quad Ultra Quattro volte la risoluzione UXGA. Richiede più 3200×2400 4:3 32 bpp Non ancora
Extended connessioni DVI (4 single link o 2 dual link). In futuro (7680k) supportata
Graphics Array sarà supportata da una singola connessione
DisplayPort.

WQUXGA Wide Quad Ultra Utilizzata dai monitor IBM T220/T221 LCD non più 3840×2400 16:10 32 bpp Non ancora
Extended disponibili sul mercato. (9216k) supportata
Graphics Array

HXGA Hexadecatuple 4096×3072 4:3 32 bpp Non ancora


Extended (12583k) supportata
Graphics Array

WHXGA Wide 5120×3200 16:10 32 bpp Non ancora


Hexadecatuple (16384k) supportata
Extended
Graphics Array

HSXGA Hexadecatuple 5120×4096 5:4 32 bpp Non ancora


Super Extended (20972k) supportata
Graphics Array

WHSXGA Wide 6400×4096 25:16 32 bpp Non ancora


Hexadecatuple (26214k) supportata
Super Extended
Graphics Array

HUXGA Hexadecatuple 6400×4800 4:3 32 bpp Non ancora


Ultra Extended (30720k) supportata
Graphics Array

WHUXGA Wide 7680×4800 16:10 32 bpp Non ancora


Hexadecatuple (36864k) supportata
Ultra Extended
Graphics Array

Significato prefissi nella nomenclatura delle risoluzioni


Sebbene i prefissi comuni super 'S e ultra U non indicano una specifica variazione alla risoluzione standard, molti
prefissi hanno, invece, uno specifico significato:
Quarter (Q)
Un quarto della risoluzione di base. Es. QVGA indica una risoluzione di 320×240 che è la metà della
larghezza e la metà dell'altezza, ossia un quarto del totale dei → pixel, della risoluzione VGA di 640×480.
Nelle alte risoluzioni Q significa "Quad" ossi quattro volte.
Wide (W)
Risoluzione più ampia di quella base, di cui mantiene il numero di righe, che permette un Aspect ratio di 16:9
o 16:10.
Quad(ruple) (Q)
Risoluzioni standard 31

Quattro volte i → pixel della risoluzione di base ossia due volte in orizzontale e due volte in verticale il
numero di → pixel.
Hexadecatuple (H)
Sedici volte i → pixel della risoluzione di base ossia quattro volte in orizzontale e quattro volte in verticale il
numero di → pixel.
Ultra (U)
eXtended (X)
Questi prefissi possono anche combinarsi come, ad esempio in WQXGA o WHUXGA.

Tipi di interfacce video per PC


Nella colonna interfaccia video della tabella precedente è riportata il tipo di interfaccia video che permette di
collegare un monitor ad un PC e visualizzare la risoluzione indicata secondo le seguenti specifiche:
• MDA - Interfaccia dedicata digitale Monochrome Display Adapter.
• CGA - Interfaccia dedicata digitale Color Graphics Adapter.
• EGA - Interfaccia dedicata digitale Enhanced Graphics Adapter.
• PGC - Interfaccia dedicata analogica Professional Graphics Controller.
• VGA standard - Per visualizzare questa risoluzione può essere utilizzata un'interfaccia analogica VGA originale
o superiore (VESA VGA, DVI Sigle Link ecc.).
• VGA interlacciato - L'interfaccia è uguale alla VGA originale ma richiede un monitor in grado di visualizzate un
segnale video interlacciato.
• VESA VGA - Per visualizzare questa risoluzione può essere utilizzata un'interfaccia analogica VESA VGA o
superiore (Digital Visual Interface Single Link, Digital Visual Interface Dual Link o DsplayPort 1.1).
• Non definita - Queste non sono risoluzione adottate dai monitor per PC ma solo ad un formato video.
• DVI Single Link - Per visualizzare questa risoluzione può essere utilizzata un'interfaccia digitale Digital Visual
Interface Single Link, Dual Link o DisplayPort.
• DVI Dual Link - Per visualizzare questa risoluzione può essere utilizzata un'interfaccia digitale Digital Visual
Interface Dual Link o DisplayPort.
• DisplayPort 1.1 4-Lane - Per visualizzare questa risoluzione può essere utilizzata un'interfaccia digitale
DisplayPort 1.1 4-Lane o superiore.
• Non ancora supportata - Attualmente non esiste un'interfaccia video singola che permetta questa risoluzione
anche se, in futuro, ci saranno delle specifiche DisplayPort che permetteranno di andare oltre alla risoluzione.
N.B. Queste sono indicazioni generali per un corretto funzionamento. In realtà, ad esempio, si potrebbe anche
utilizzare una connessione VESA VGA per visualizzare in risoluzione WUXGA anche se questo non è consigliato.
Per aumentare la risoluzione si possono aumentare anche i collegamenti video, utilizzando ad esempio 2 o 4
collegamenti DVI, o diminuire la velocità di refresh.
Risoluzioni standard 32

Principali risoluzioni utilizzate in TV e Videoproiettori


Nella tabella qui sotto riportata troviamo le risoluzioni video più comuni nei TV e nei videoproiettori. Nella tabella
seguente 60Hz o 60 FPS sono un'approssimazione. Il valore preciso è ossia circa 59,94.

Tabella delle risoluzioni standard di TV e Videoproiettori


Standard Descrizione risoluzione del Aspect profondità del frame per
Video display (→ pixel) ratio colore (bpp) secondo

480i Video a risoluzione standard NTSC a 60Hz interlacciato 720×480 (337.5k) 3:2 (1,5) 24 bpp 30

480p Video a risoluzione standard NTSC a 30Hz progressivo. 720×480 (337.5k) 3:2 (1,5) 24 bpp 30

576i Video a risoluzione standard PAL a 50Hz interlacciato 720×576 (405k) 4:3 (1,33) 24 bpp 25

576p Video a risoluzione standard PAL a 25Hz progressivo. 720×576 (405k) 4:3 (1,33) 24 bpp 25

720p Formato video → HDTV 1280 x 720 a 60Hz progressivo. 1280×720 (900k) 16:9 24 bpp 50-60
Esistono anche le varianti a 24,25,30 e 50 Hz (1,78)

1080i Formato video → HDTV 1920 x 1080 a 60Hz interlacciato. 1920×1080 (2000k) 16:9 24 bpp 25-30
Esiste anche la variante a 50 Hz (1,78)

1080p Formato video → HDTV 1920 x 1080 a 60Hz progressivo. 1920×1080 (2000k) 16:9 24 bpp 50-60
Esistono anche le varianti a 24,25,30 e 50 Hz (1,78)

2K Proiezione di film digitali in sale cinematografiche DLP 2048×1080 (2212k) 1,89 48 bpp 24

4K Proiezione di film digitali in sale cinematografiche DLP 4096×1716 (7029k) 2,39 48 bpp 24

Voci correlate
• Informatica
• Scheda video
• Risoluzione del display

Collegamenti esterni
• (EN) Aspect Ratios [1] - Dal sito Widescreen.org

Note
[1] http:/ / www. widescreen. org/ aspect_ratios. shtml
Immagine digitale 33

Immagine digitale
Un'immagine digitale è la rappresentazione di un'immagine bi-dimensionale tramite una serie di valori numerici,
che la descrivono a seconda della tecnica utilizzata.

Tecniche di rappresentazione
Le immagini digitali sono fondalmentalmente di due tipi: una matrice di punti (o pixel) nelle immagini bitmap o,
nelle immagini vettoriali, un insieme di punti (o nodi) uniti in linee o altre primitive grafiche che compongono
l'immagine, insieme ad eventuali colori e sfumature.

Immagini bitmap
In questo tipo di immagini, i valori memorizzati indicano le caratteristiche di ogni punto dell'immagine da
rappresentare (→ pixel):
• nelle immagini a colori, viene memorizzato solitamente il livello di intensità dei colori fondamentali (nel modello
di colore → RGB, uno dei più usati, sono tre: rosso, verde e blu. Un altro esempio è → CMYK, usato per la
stampa, basato su quattro colori fondamentali: ciano, magenta, giallo e nero.)
• nelle immagini monocromatiche in scala di grigio (dette impropriamente bianco e nero) il valore indica l'intensità
del grigio, che varia dal nero al bianco.
Il numero (detto anche "profondità") di colori o di livelli di grigio possibili dipende dal massimo numero di
combinazioni permesse dalla quantità di bit utilizzata per ognuno di questi dati: un'immagine con 1 bit per pixel avrà
al massimo due combinazioni possibili (0 e 1) e quindi potrà rappresentare solo due colori o solo bianco e nero; nelle
immagini a 4 bit per pixel, si possono rappresentare al massimo 16 colori o 16 livelli di grigio; un'immagine a 8 bit
per pixel, 256 e così via.
Oltre a questi dati, è solitamente presente un header, che contiene diverse informazioni sull'immagine, a partire dal
numero di righe e colonne di pixel: le dimensioni sono necessarie per poter dividere e disporre la sequenza di pixel
in linee, in modo da formare una griglia rettangolare di punti, simile ad un mosaico, in cui ogni riga è formata da un
numero preciso (indicato appunto dal valore larghezza) di tessere.
La tecnica utilizzata per queste immagini, rappresentate da una matrice NxM, dove N è il numero delle righe di pixel
dell'immagine e M delle colonne, è detta raster.
Le immagini bitmap possono venire memorizzate in diversi formati, spesso basati su un algoritmo di compressione,
che può essere → lossy (in cui c'è perdita di informazione), come nelle immagini JPEG, oppure → lossless (senza
perdita), come nel caso dei file d'immagine GIF o PNG.
Questo tipo di immagini può venire generato da una grande varietà di dispositivi d'acquisizione: scanner e
fotocamere digitali (contenenti dei sensori CCD o CMOS), ma anche da radar e microscopi elettronici; inoltre
possono venire sintetizzate anche a partire da dati arbitrari, come funzioni matematiche bidimensionali o modelli
geometrici tridimensionali.
Il campo dell'elaborazione digitale delle immagini studia gli algoritmi per modificare tali immagini.
Immagine digitale 34

Immagini vettoriali
Le immagini vettoriali sono un tipo di immagine facilmente scalabile e ruotabile, ottenuto dall'unione di un certo
numero di punti o nodi, che formano linee e poligoni, a loro volta uniti in strutture più complesse, fino a formare
l'immagine voluta.
Questo tipo di immagine è utilizzato nel disegno tecnico per la progettazione architettonica ed industriale, nella
rappresentazione di certi font, nella grafica per la creazione di loghi e marchi o altri oggetti, eccetera.

Voci correlate
• Elaborazione digitale delle immagini
• → Grafica raster
• Grafica vettoriale

Collegamenti esterni
• Introduzione al libro "VETTOR, dal bitmap al vettoriale" [1], con la definizione di immagini digitali, distinte in
bitmap (o raster) e vettoriali.
• Bitmap o vettoriale? I due tipi di immagini digitali [2]
• Differenze tra grafica bitmap e vettoriale [3]

Note
[1] http:/ / www. edilio. it/ libreriaspecializzata/ schedalibro. asp?cod=5736
[2] http:/ / venus. unive. it/ pmlett/ autoapprendimento/ grafica/ iduetipi. htm
[3] http:/ / www. stampasubito. it/ store/ stampasubito_guide_grafica_vettoriale_grafica_bitmap. asp
Compressione dei dati 35

Compressione dei dati


La compressione dati è una tecnica utilizzata in ambito informatico per la riduzione della quantità di bit necessari
alla rappresentazione in forma digitale di un'informazione.
La compressione dati viene utilizzata sia per ridurre le dimensioni di un file, e quindi lo spazio necessario per la sua
memorizzazione e l'occupazione di banda necessaria per la sua trasmissione, sia per ridurre l'occupazione di banda
necessaria in una generica trasmissione dati come ad esempio una trasmissione televisiva in diretta.
Le varie tecniche di compressione organizzano in modo più efficiente i dati, spesso perdendo una parte
dell'informazione originale, al fine di ottenere una rappresentazione dell'informazione più compatta quindi
comportante minori risorse per la sua memorizzazione e trasmissione. Come controparte la compressione dati
necessita però di potenza di calcolo per le operazioni di compressione e decompressione, spesso anche elevata se tali
operazioni devono essere eseguite in tempo reale.

Tipologie di compressione dati


Le tecniche di compressione dati si dividono in due grandi categorie:
• → compressione dati lossy: comprime i dati attraverso un processo con perdita d'informazione che sfrutta le
ridondanze nell'utilizzo dei dati;
• → compressione dati lossless: comprime i dati attraverso un processo senza perdita d'informazione che sfrutta le
ridondanze nella codifica del dato.
Le tecniche senza perdita di informazione come dice il nome si preoccupano di preservare il messaggio originale
quando effettuano la compressione. Un loro esempio è il formato ZIP per i file o il GIF per le immagini. A partire da
un file in uno di questi formati, è sempre possibile ricostruire esattamente il file d'origine.
Le tecniche con perdita di informazione ottengono delle compressioni molto spinte dei file a scapito dell'integrità del
file stesso. Il file prima della compressione e il file dopo la decompressione sono simili ma non identici.
Normalmente viene utilizzata per comprimere i file multimediali. I file multimediali in origine sono troppo grandi
per essere agevolmente trasmessi o memorizzati quindi si preferisce avere una piccola riduzione della qualità ma nel
contempo file molto più leggeri, un esempio sono le immagini in formato → JPEG (per compressione di immagini) o
in formato MPEG (per compressione di dati video e/o audio).

Bibliografia
• Bonazzi R., Catena R., Collina S., Formica L., Munna A., Tesini D.. Telecomunicazioni per l'ingegneria
gestionale. Codifica di sorgente. Mezzi di trasmissione. Collegamenti. Pitagora Editrice, 2004, ISBN
88-371-1561-X
Compressione dati lossy 36

Compressione dati lossy


La compressione dati con perdita, anche chiamata compressione dati lossy, è una classe di algoritmi di
compressione dati che porta alla perdita di parte dell'informazione originale durante la fase di
compressione/decompressione dei dati che la rappresentano.
Decomprimendo un file compresso con un metodo "lossy" la copia ottenuta sarà peggiore dell'originale per livello di
precisione delle informazioni che codifica, ma in genere comunque abbastanza simile da non comportare perdita di
informazioni irrinunciabili. Ciò è possibile poiché i metodi di compressione a perdita di informazioni in genere
tendono a scartare le informazioni poco rilevanti, archiviando solo quelle essenziali: per esempio comprimendo un
brano audio secondo la codifica dell'→ MP3 non vengono memorizzati i suoni non udibili, consentendo di ridurre le
dimensioni dei file senza compromettere in modo sostanziale la qualità dell'informazione.
La compressione dei dati con perdita di qualità è ampiamente usata in molti settori dell'informatica: su Internet,
nell'ambito dello streaming dei media, nella telefonia, per la compressione di immagini o altri oggetti multimediali,
ecc.
Una volta compresso un file con un metodo lossy, le informazioni perse non saranno più recuperabili. Una sua
apertura e una sua ricompressione con metodi lossless o con un metodo lossy con una compressione minore non
permetteranno di tornare alla quantità di informazioni iniziali ma anzi, l'ulteriore compressione lossy potrebbe far
perdere ulteriori informazioni, ma ingrandendo le dimensioni del file.

Esempi
Esempio di immagine compressa con l'algoritmo JPEG standard a diverse qualità:

Qualità 100% - 87,7 kB Qualità 90% - 30,2 kB Qualità 50% - 6,7 kB Qualità 10% - 3,2 kB

Come si può notare il miglior rapporto qualità/dimensione si ha con valore intorno al 90%. È inoltre immediatamente
osservabile come, all'aumentare del livello di compressione, compaiano artefatti sempre più visivamente evidenti.

Compressione dati

Audio
• ADPCM

Musica e suoni
• AAC
• MPC o Musepack
• → MP3
• → Ogg Vorbis (non ristretto da brevetti)
• VQF
• WMA
• AC3
Compressione dati lossy 37

Voce
• GSM 06.10
• → Ogg Speex (non ristretto da brevetti)

Foto (immagini ferme)


• JPEG
• JPEG 2000

Video (immagini in movimento)


• MPEG-1
• MPEG-2
• → MPEG-4
• → Ogg → Theora (non ristretto da brevetti)
• DivX
• XviD
• 3GPP
• WMV

Voci correlate
• → Compressione dati lossless
• Compressione dati
• Codec

Compressione dati lossless


La compressione dati lossless (compressione dati senza perdita), è una classe di algoritmi di compressione dati
che non porta alla perdita di alcuna parte dell'informazione originale durante la fase di compressione/decompressione
dei dati stessi.
Un esempio di questo tipo di compressione è dato dai formati Zip, Gzip, Bzip2, Rar, 7z. I file per cui non è
accettabile una perdita di informazione, come i testi o i programmi, utilizzano questo metodo. Per le immagini
fotografiche generalmente non si usano algoritmi lossless in quanto sarebbero veramente poco efficienti, ma per le
immagini che contengano ampie aree con colori puri spesso la compressione lossless non solo è applicabile, ma
anche conveniente (GIF, PNG, MNG, TIFF con compressione LZW, ZIP o RLE).

Problemi della compressione lossless


Gli algoritmi di compressione lossless non possono sempre garantire che ogni insieme di dati in input diminuisca di
dimensione. In altre parole per ogni algoritmo lossless ci saranno particolari dati in input che non diminuiranno di
dimensione quando elaborati dall'algoritmo. Questo è facilmente verificabile con della matematica elementare:
• Si assuma che ogni file sia rappresentato da una stringa di bit di lunghezza arbitraria.
• Si supponga (per assurdo), che esista un algoritmo di compressione che trasformi ogni file in un file più corto
distinto. (se i file risultanti non sono distinti, l'algoritmo non può essere reversibile senza perdita di dati.)
• Si considerino l'insieme dei file con lunghezza massima di N bit. Questo set ha 1 + 2 + 4 + ... + 2N = 2N+1-1
elementi, se si include il file di lunghezza zero.
Compressione dati lossless 38

• Ora considerando l'insieme dei file con N-1 bit, vi sono 1 + 2 + 4 + ... + 2N-1 = 2N-1 file che vi appartengono,
sempre considerando anche il file di lunghezza zero.
• Tale numero di elementi è più piccolo di 2N+1-1. Non è possibile collegare in modo univoco gli elementi di un
insieme più grande (i file da comprimere) con gli elementi di un insieme più piccolo (i file dopo la compressione).
• Questa contraddizione implica che l'ipotesi originale (che un algoritmo di compressione renda tutti i file più
piccoli) sia errata.
Si può notare che la differenza di dimensione è così elevata che non fa alcuna differenza se si considerano file di
dimensione esattamente N come insieme dei file da comprimere: tale insieme è comunque di dimensioni maggiori
(2N) dell'insieme dei file compressi.
Una dimostrazione anche più semplice (ma equivalente) è come segue:
1. Si assuma che ogni file sia rappresentato da una stringa di bit di lunghezza arbitraria.
2. Si supponga (per assurdo), che esista un algoritmo di compressione C che trasformi ogni file di lunghezza
maggiore di 1 in un file più corto distinto. (se i file risultanti non sono distinti, l'algoritmo non può essere
reversibile senza perdita di dati.)
3. Dato un qualunque file F di lunghezza L(F)=N, si applichi C a questo file, ottenendo il file C(F)
4. Si ripeta il passo precedente applicando C a C(F) e si continui in questo modo: per l'ipotesi al punto (2), si ha:

L(F)=N>L(C(F)) > L(C2(F)) > ...

e quindi:

L(C(F))<= N-1
L(C2(F))<= N-2
L(Ck(F))<= N-k

Dopo al massimo N iterazioni, si deve avere L(CN-1(F))=1, perché ogni iterazione deve diminuire la lunghezza di
almeno un bit: questo procedimento non dipende dal valore di N. Dalle nostre ipotesi consegue quindi che
esisterebbero due soli file distinti (quello contente il bit 0 e quello contenente il bit 1). Questo è evidentemente falso,
quindi l'ipotesi è falsa.
Quindi, ogni algoritmo di compressione che rende alcuni file più piccoli, deve necessariamente rendere altri file più
grandi o lasciarli di lunghezza invariata.
Nell'uso pratico, si considerano buoni gli algoritmi di compressione che comprimono effettivamente la maggior parte
dei formati più comuni: questo non corrisponde necessariamente ad una misura di bontá in senso teorico (che misura
la distanza media, misurata su tutti i file possibili, tra la lunghezza ottenuta e il numero di bit di entropia contenuti
nel file, che, per un teorema di Shannon, è il limite di comprimibilitá teorico). Inversamente, un algoritmo
teoricamente buono potrebbe non avere applicabilitá pratica (ad esempio perché non riduce formati di uso comune).
In realtà, molti applicativi che utilizzano la compressione lossless prevedono di lasciare invariati gli insiemi di dati la
cui dimensione sia aumentata dopo la compressione. Ovviamente, il flag che indica che questo gruppo di dati non va
processato dall'algoritmo aumenta la dimensione effettiva necessaria a memorizzare il gruppo di dati, ma permette di
evitare un ulteriore spreco di spazio e di tempo necessario alla compressione/decompressione.
Compressione dati lossless 39

Qualità della compressione e velocità


In generale, non vi è un rapporto di proporzionalità indiretta tra qualità della compressione ottenibile da un algoritmo
e la sua velocità di esecuzione.
Prendiamo ad esempio la seguente stringa di dati:

005555550055555500555555005555550055555500555555

La stringa richiede 48 caratteri, ma è immediatamente disponibile all'utilizzo. Un algoritmo di compressione lossless


potrebbe essere "cifra-numero di ripetizioni". La stringa, utilizzando questo algoritmo, diviene quindi:

025602560256025602560256

È chiaro che i dati non sono più direttamente disponibili ma occorre svolgere un passaggio intermedio
(decompressione).
Poiché, dato uno stesso archivio dati, la decompressione è solitamente molto più frequente della compressione molti
algoritmi sono fortemente asimmetrici: il tempo richiesto per la compressione è sostanzialmente superiore a quello
richiesto per la decompressione. Questo accade anche nei riguardi delle richieste di memoria e di capacità di calcolo.

Tecniche di compressione
Esistono diversi algoritmi di compressione. Tra i più noti:
• Huffman
• Codifica aritmetica (o "compressione aritmetica")
• Lempel-Ziv-Welch (LZW)
• LZ77
• LZ78
• LZMA
• DEFLATE - tecnica mista: LZ77 e Huffman
• Prediction by Partial Matching (PPM)
• Trasformata di Burrows-Wheeler - (BWT)

Programmi generici per la compressione


Tra i tanti programmi di compressione molti usano un algoritmo tra quelli elencati sopra, mentre alcuni ne hanno uno
proprio:
• Arj - algoritmo proprio
• Gzip - usa DEFLATE
• PKZIP - usa DEFLATE
• WinZip - usa DEFLATE
• WinRar - algoritmo proprio
• Bzip2 - usa la trasformata di Burrows-Wheeler
• 7-Zip - usa LZMA
Compressione dati lossless 40

Formati ed algoritmi

Audio
• Apple Lossless - ALAC (Apple Lossless Audio Codec)
• Direct Stream Transfer - DST
• FLAC - Free Lossless Audio Codec
• Meridian Lossless Packing - MLP
• APE Monkey's Audio
• RealPlayer - RealAudio Lossless
• Shorten - SHN
• TTA - True Audio Lossless
• WavPack - WavPack lossless
• WMA - comprende anche una variante lossless

Immagini
• ABO - Adaptive Binary Optimization
• GIF - Lempel-Ziv-Welch (LZW) per immagini da 2 a 256 colori
• Portable_Network_Graphics Portable Network Graphics - usa una variante di DEFLATE
• HD Photo - Contempla un metodo di compressione lossless
• OptiPNG - Metodo di compressione lossless in formato PNG
• JPEG - comprende una variante lossless JPEG-LS[1] (poco utilizzata)
• JPEG 2000 - comprende un metodo di compressione lossless
• JBIG2 - comprende una compressione lossless di immagini in bianco e nero
• TIFF (Tagged Image File Format) - permette di scegliere tra diversi algoritmi sia lossless (tra cui LZW e RLE) o
lossy (JPEG)
• WMPhoto - Contempla un meodo di compressione lossless
• Qbit Lossless Codec - Dedicato alla compressione intra-frame
• RLE Run-length encoding algoritmo usato nei formati TGA, BMP, TIFF
• FAX Gruppo 3 (1D) e Gruppo 4 (2D) - algoritmo per immagini bianco e nero usato dai FAX e dal formato TIFF

Video
• Huffyuv [2]
• CorePNG [3]
• MSU Lossless Video Codec [4]
• Sheervideo [5]
• LCL [6]
• Qbit Lossless Codec [7]
• Animation codec [8]
• Lagarith [9]
• H.264/MPEG-4 AVC
• Motion JPEG2000 comprende anche una variante lossless
Compressione dati lossless 41

Voci correlate
• → Compressione dati lossy
• Compressione dati

Note
[1] http:/ / en. wikipedia. org/ wiki/ Lossless_JPEG
[2] http:/ / neuron2. net/ www. math. berkeley. edu/ benrg/ huffyuv. html
[3] http:/ / corepng. corecodec. org/
[4] http:/ / compression. ru/ video/ ls-codec/ index_en. html
[5] http:/ / www. bitjazz. com/ it/ products/ sheervideo/ index. php
[6] http:/ / translate. google. com/ translate?u=http%3A%2F%2Fwww. geocities. co. jp%2FPlaytown-Denei%2F2837%2FLRC. htm&
langpair=ja%7Cen& hl=en& safe=off& c2coff=1& ie=UTF-8& oe=UTF-8& prev=%2Flanguage_tools
[7] http:/ / www. qbit. com
[8] http:/ / en. wikipedia. org/ wiki/ Animation_codec
[9] http:/ / lags. leetcode. net/ codec. html

Joint Photographic Experts Group


Sviluppatore Joint Photographic Experts Group

Tipo Compressione dell'immagine

→ Lossy / → Lossless lossy (solitamente) e lossless

Licenza Royality free

Sito web http:/ / www. jpeg. org

|+ style="text-align: center; font-size: larger; margin-left: inherit;" | Joint Photographic Experts Group (JPEG)
JPEG è l'acronimo di Joint Photographic Experts Group, un comitato ISO/CCITT che ha definito il primo standard
internazionale di compressione per → immagini a tono continuo, sia a livelli di grigio che a → colori. È un formato
gratuito e open-source.
Attualmente JPEG è lo standard di compressione delle immagini fotografiche più utilizzato. Le estensioni più
comuni per questo formato sono .jpeg, .jpg, .jfif, .JPG, .JPE, anche se il più comune in tutte le piattaforme è .jpg.
JPEG specifica solamente come una immagine può essere trasformata in uno stream di byte, ma non come questo
può essere incapsulato in supporti di memorizzazione. Un ulteriore standard chiamato JFIF (JPEG File Interchange
Format), creato da Independent JPEG Group, specifica come produrre un file appropriato per la memorizzazione su
computer di uno stream JPEG. Nell'uso comune, quando qualcuno parla di "file JPEG" generalmente intende un file
JFIF o alcune volte un file Exif JPEG. Ci sono, comunque, altri formati di file basati su JPEG, come ad esempio
JNG.
Joint Photographic Experts Group 42

Da Raster Image a JPEG


Essenzialmente il JPEG opera in 3 passi fondamentali per trasformare un'immagine raster in una JPEG e viceversa.
Tali passi sono:
• Rappresentazione in ambito frequenziale tramite DCT (trasformata discreta del coseno) se opera in modalità →
lossy, uso dei predittori in modalità → lossless.
• Quantizzazione effettuata tramite opportune matrici, che solitamente, pesano i coefficienti di ordine più basso
(rappresentano le basse frequenza spaziali) in maniera più decisa, in quanto, per le proprietà della DCT, sono più
importanti ai fini della sintesi dell'immagine. Questo perché il sistema visivo umano percepisce maggiormente le
basse frequenze spaziali rispetto alle alte frequenze, risulta quindi necessario dare maggior importanza alle basse
frequenze spaziali.
• Codifica entropica ed eliminazione delle ridondanze di tipo statistico tramite codifica RLE e codici di Huffman;
la componente continua della DCT invece è codificata in DPCM.
Il fattore di compressione che si può raggiungere è determinato essenzialmente da un parametro di scalature per le
matrici di quantizzazione, tanto più piccolo è questo parametro, tanto peggiore è la qualità. Si può ottenere un fattore
di compressione 15:1 senza alterare visibilmente la qualità dell'immagine.

Compressione
Lo standard JPEG definisce due metodi di compressione di base, uno basato sull'uso della trasformata discreta del
coseno (DCT) con compressione di tipo "→ lossy" cioè con perdita di informazione, l'altro sull'uso di un metodo
predittivo con compressione di tipo "→ lossless" cioè senza perdita di informazione. L'algoritmo base dello JPEG di
tipo "lossy" viene detto "baseline", inoltre sono state definite delle estensioni opzionali del metodo "lossy" per la
compressione di tipo gerarchico e progressivo.
Esempio di immagine compressa con l'algoritmo standard a diverse qualità:

JPEG qualità 10% - 3,2 Kb JPEG qualità 50% - 6,7 Kb

JPEG qualità 90% - 30,2 Kb JPEG qualità 100% - 87,7 Kb


Joint Photographic Experts Group 43

Come si può notare il miglior rapporto qualità/dimensione si ha con valore intorno al 90%. È inoltre immediatamente
osservabile come, all'aumentare del livello di compressione, compaiano artefatti sempre più visivamente evidenti.
Tra questi il più tipico per il formato JPEG (come per tutti i formati che si basano sulla DCT) è la quadrettatura o
"blocking"; oltre ad esso si verificano fenomeni di "ringing" (fenomeno di Gibbs) e "blurring" o "blur" (sfocatura).

Utilizzo
JPEG/JFIF è il formato più utilizzato per la memorizzazione di fotografie. È inoltre il formato più comune su World
Wide Web.
Non è invece adatto per disegni geometrici, testo o icone, per cui sono utilizzati comunemente i formati → PNG e
GIF.

Altri formati di compressione "lossy"


Nuovi metodi lossy, in particolare basati sulle DWT (Discrete Wavelet Transform), garantiscono migliori risultati in
alcuni casi.
Il comitato JPEG ha creato un nuovo standard basato su wavelet, JPEG2000, con la prospettiva di sostituire nel
tempo lo standard JPEG.

Voci correlate
• → Immagine digitale
• Elaborazione digitale delle immagini
• Trasformata discreta del coseno

Collegamenti esterni
• (EN) Sito ufficiale JPEG [1]
• (EN) Formato file JFIF [2]

Note
[1] http:/ / www. jpeg. org/
[2] http:/ / www. w3. org/ Graphics/ JPEG/ jfif3. pdf
Portable Network Graphics 44

Portable Network Graphics


Portable Network Graphics (PNG)
Estensione .png

Sviluppatore Thomas Boutell (ideatore originario)

Tipo Compressione dell'immagine

Licenza BSD-Like/GPL

Sito Web http:/ / www. libpng. org

In informatica, il Portable Network Graphics (abbreviato PNG)


è un formato di file per memorizzare immagini.

Storia
Il PNG è stato creato nel 1995 da un gruppo di autori indipendenti
e approvato il 1º ottobre 1996 dal World Wide Web Consortium
(W3C), terminando il suo iter nel gennaio 1997 come oggetto del
Request for Comments (RFC) 2083.
L'ideazione del PNG avvenne in seguito all'introduzione del
pagamento di royalties dell'allora popolarissimo e usatissimo
formato GIF. Infatti nel 1994 i detentori del brevetto decisero
improvvisamente di chiedere un pagamento per ogni programma
Confronto tra immagine JPEG (a sinistra) e PNG (a
destra) che utilizzasse il loro formato. La prima reazione della comunità
informatica a tale improvviso cambiamento fu la sorpresa, a cui
seguì la scelta di indirizzarsi verso lo sviluppo di un'alternativa.

Il formato PNG è superficialmente simile al GIF, in quanto è capace di immagazzinare immagini in modo →
lossless, ossia senza perdere alcuna informazione, ed è più efficiente con immagini non fotorealistiche (che
contengono troppi dettagli per essere compresse in poco spazio).
Essendo stato sviluppato molto tempo dopo, non ha molte delle limitazioni tecniche del formato GIF: può
memorizzare immagini in colori reali (mentre il GIF era limitato a 256 colori), ha un canale dedicato per la
trasparenza (canale alfa). Esiste inoltre un formato derivato, Multiple-image Network Graphics o MNG, che è simile
al GIF animato.

Caratteristiche
Il formato PNG supporta:

Immagine PNG
Opaca a sinistra
trasparente a destra

• gestione dei colori classica tipo bitmap oppure indicizzata;


Portable Network Graphics 45

• possibilità di trasmettere l'immagine lungo un canale di comunicazione seriale (serializzazione dell'immagine);


• visualizzazione progressiva dell'immagine, grazie all'interlacciamento della medesima;
• supporto alla trasparenza mediante un canale alfa dedicato, ampliando le caratteristiche già presenti nel tipo
GIF89a;
• informazioni ausiliare di qualsiasi natura accluse al file;
• completa indipendenza dall'hardware e dalla piattaforma in uso;
• compressione dei dati di tipo lossless;
• immagini truecolor fino a 48 bpp;
• immagini in scala di grigio sino a 16 bpp;
• filtro dei dati prima della (eventuale) compressione;
• correzione della gamma dei colori presenti nell'immagine, per riprodurre esattamente quanto visualizzato all'atto
della creazione dell'immagine;
• (debole) verifica dell'integrità dei file;
• rapida presentazione iniziale dell'immagine grazie alla visualizzazione progressiva.

Applicazione
L'utilizzo del PNG è stato inizialmente limitato, a causa del fatto che pochi programmi erano capaci di scrivere o
leggere tali immagini. Col tempo, tutti i maggiori programmi di grafica e di navigazione accettarono il formato PNG,
che trovò così più largo utilizzo.
Nel giugno 2003, il brevetto originale sul formato GIF è scaduto, ma solo negli USA. Nel resto del mondo è scaduto
durante il 2004.
Nonostante questo, nulla lascia sospettare che l'utilizzo del PNG diminuirà come conseguenza.

Voci correlate
• → Immagine digitale
46

Formati del video digitale

Video
Il video (dal latino "vidēre") è l'informazione elettronica[1] rappresentante un'immagine che può variare nel tempo,
quindi sia la cosiddetta immagine fissa (immagine che non varia nel tempo) che le cosiddette immagini in
movimento (immagine che varia nel tempo). In particolare il video è un flusso informativo in quanto sia l'immagine
fissa che le immagini in movimento presentano sempre una dimensione temporale.[2] Flusso informativo che scorre
all'interno di apparecchiature elettroniche sotto forma di corrente elettrica per essere manipolato, viaggia nello spazio
sotto forma di onde elettromagnetiche, o all'interno di cavi per telecomunicazioni sotto forma di corrente elettrica o
→ luce, per essere trasmesso a distanza, viene memorizzato sotto varie forme su vari tipi di supporti per essere
conservato.

Ambiti di impiego del video


Il concetto di video nasce con l'invenzione della televisione, negli anni venti del Novecento. La televisione infatti è
un'informazione elettronica rappresentante immagini in movimento e suono, nonostante non vada dimenticato che la
scansione e la riproduzione delle immagini erano in un primo momento meccaniche e non elettriche.
Il secondo impiego del termine video appare con i primi display a tubo a raggi catodici (CRT) come strumento di
interazione tra computer ed essere umano, attraverso l'utilizzo delle prime interfacce a linea di comando (CLI). Il
primo computer dotato di display CRT è stato il Whirlwind I, progettato presso il Massachusetts Institute of
Technology e divenuto operativo nel 1950. Prima gli strumenti di interazione tra computer e uomo furono la scheda
perforata, la telescrivente elettromeccanica e la lampadina. Tutt'oggi il video è impiegato per visualizzare le moderne
interfacce grafiche (GUI) sui vari tipi di display.
Il terzo impiego del video è stato nella ripresa di immagini in movimento per uso privato sia in ambito aziendale che
amatoriale. In particolare in ambito amatoriale a partire dal 1982, anno in cui sono state introdotte sul mercato le
prime videocamere portatili amatoriali. La videoregistrazione, cioè la registrazione di immagini in movimento in
forma elettronica, ha infatti sostituito col passare degli anni ormai completamente, per quanto riguarda la ripresa di
immagini in movimento per uso privato, l'unica altra tecnica di registrazione di immagini in movimento esistente
ideata nel 1895 dai fratelli Lumière e basata sulla pellicola cinematografica.
Il quarto impiego del video è stato l'home video, cioè il settore commerciale della distribuzione in ambito domestico
di contenuti audiovisivi in forma elettronica. Prima della nascita dell'home video per la distribuzione di contenuti
audiovisivi in ambito domestico veniva utilizzata la pellicola cinematografica.
Da pochi anni si è infine iniziato ad impiegare il video anche nel cinema, non solo per la realizzazione di effetti
speciali in computer grafica, come era stato in precedenza, ma anche in sostituzione della pellicola cinematografica. I
film vengono distribuiti alle sale cinematografiche in forma elettronica invece che su pellicola cinematografica e
proiettati con appositi videoproiettori. Spesso sono girati in pellicola e poi trasformati in informazione elettronica
solo per la distribuzione nelle sale, ma sono anche girati direttamente in forma elettronica con apposite videocamere.
I film d'animazione realizzati con la computer animation sono invece già in forma elettronica.
In ordine di tempo, l'ultimo campo di applicazione del video si ha con la fotografia digitale.
Video 47

Video analogico e video digitale


L'informazione elettronica può essere rappresentata in due forme diverse: analogica o digitale. Il video analogico è il
video in cui l'informazione elettronica è rappresentata in forma analogica, il → video digitale è il video in cui
l'informazione elettronica è rappresentata in forma digitale.
La rappresentazione analogica dell'informazione elettronica è propria dell'elettronica analogica, mentre la
rappresentazione digitale dell'informazione elettronica è propria dell'elettronica digitale.
L'elettronica nasce come elettronica analogica, il primo modo di rappresentare l'informazione elettronica è quindi
quello analogico. Nella rappresentazione analogica dell'informazione elettronica l'informazione elettronica varia con
analogia all'informazione che si vuole rappresentare, varia quindi in modo continuo e può assumere un numero molto
alto di valori.
Con la realizzazione dell'Atanasoff-Berry Computer nel 1941 nasce l'elettronica digitale. L'Atanasoff-Berry
Computer è il primo computer elettronico digitale, il primo computer elettronico quindi in cui l'informazione
elettronica è in forma digitale. Nella rappresentazione digitale dell'informazione elettronica l'informazione che si
vuole rappresentare viene codificata in una sequenza di numeri, l'informazione elettronica varia quindi in modo
discreto e assume un numero limitato di valori corrispondente al numero di cifre utilizzate dal sistema numerico
scelto. L'Atanasoff-Berry Computer utilizza la numerazione binaria quindi l'informazione elettronica assume solo
due valori. L'elettronica digitale basata sulla numerazione binaria diventerà in seguito la tecnologia consueta per la
realizzazione dei computer, e il computer, nato come strumento per eseguire calcoli matematici, quindi per trattare
numeri, col passare dei decenni verrà usato per un numero sempre maggiore di scopi, di pari passo con l'aumento
delle capacità di memorizzazione e di calcolo: si inizierà con l'elaborazione di files che rappresentano testi e
immagini statiche, per arrivare a file multimediali, che contengono suoni, musica, video in movimento (film).

Il problema della qualità


Per rappresentare l'informazione, l'elettronica analogica e l'elettronica digitale gestiscono il segnale elettrico in modo
praticamente opposto: nella prima il segnale è continuo e gli viene fatto assumere il maggior numero possibile di
valori, nella seconda al contrario, al segnale viene fatto assumere il minimo numero di valori con cui è possibile
creare un sistema di rappresentazione dell'informazione, ossia 2, che a livello software equivalgono a "0" e "1" e
vengono chiamati "bit", e a livello hardware equivalgono ad "assenza di corrente" e a "passaggio di corrente".
Per ottenere una rappresentazione di qualità dell'informazione con l'elettronica analogica è necessaria
un'implementazione circuitale molto sofisticata in quanto questo tipo di informazione, assumendo un numero molto
alto di valori e variando in modo continuo, è molto difficile da gestire senza farle subire alterazioni, e un'alterazione
equivale ad una diminuzione della corrispondenza tra il segnale elettrico e il valore che esso vuole rappresentare.
Con l'elettronica digitale il problema della qualità assume un significato completamente diverso, dovendo venir
considerati solo due valori. Con questi due valori vengono formati blocchi di uguale lunghezza e se ne ricavano tutte
le combinazioni possibili: ad ognuna di esse viene quindi associato un diverso valore dell'informazione che si vuole
rappresentare, il che significa che la codifica dell'informazione stessa produrrà una lunga sequenza di 0 e 1. Come si
può intuire, qualunque alterazione di intensità che il segnale potrebbe subire non può più intaccare la
rappresentazione in sé (dovrebbe piuttosto venir provocata una sostituzione casuale degli 0 con gli 1 e viceversa).
Con questo sistema di codifica, la qualità arriva a dipendere invece dalla quantità di valori dell'informazione reale
che vengono codificati: più valori vengono codificati, più l'informazione digitale sarà ricca di sfumature e dettagli.
Lo svantaggio sta però nel fatto che la sequenza di 0 e 1 da dover gestire (cioè elaborare, memorizzare, trasmettere)
sarà tanto più lunga quanto maggiore è il numero di dettagli che si vogliono riprodurre. Di conseguenza un contenuto
digitale di alta qualità richiede elevate potenze di calcolo e supporti di memorizzazione molto capienti. Un metodo
per limitare quest'ultimo problema è quello della → compressione dei dati.
Video 48

L'inarrestabile aumento della potenza di calcolo dei processori e della capacità delle memorie, unito al parallelo
abbattimento dei costi, nel corso degli anni ha fatto diventare le tecnologie digitali la scelta privilegiata, visti i suoi
indubbi vantaggi. Per questo è in atto ormai da vari decenni un progressivo passaggio al digitale, anche in ambiti in
cui l'elettronica non è mai stata usata, come ad esempio nel cinema, dove la pellicola cinematografica è sempre stata
preferibile.
Il vantaggio di sostituire la pellicola con l'elettronica digitale sta principalmente nel fatto che con quest'ultima il
materiale girato è memorizzabile su supporti come i dischi ottici, che hanno una lunghissima durata nel tempo ed è
sempre possibile effettuare copie identiche dell'originale. La pellicola cinematografica al contrario subisce un
inevitabile degrado nel corso del tempo, anche se conservata in ambienti climaticamente controllati (temperatura,
umidità, illuminazione, ecc...). La duplicazione stessa della pellicola non risolve il problema in quanto il processo di
duplicazione, anche se restituisce un supporto nuovo, produce un degrado dell'informazione allo stesso modo di
quanto avviene con la tecnologia analogica.
La pellicola cinematografica presenta, per contro, il vantaggio di una completa e ben consolidata standardizzazione,
il che la rende comunque molto adatta per materiale da conservare per molto tempo, considerando la rapida
obsolescenza di gran parte dei formati e dei supporti di registrazione impiegati per il video.

Vantaggi del video digitale


I vantaggi del video digitale sono:
• è possibile e relativamente facile ottenere una copia identica all'originale, anche se si tratta di una copia della
copia.
Con il video analogico invece il degrado della qualità è inevitabile, anche quando la duplicazione è effettuata
con le apparecchiature professionali più sofisticate, e va inoltre a sommarsi tutte le volte che si esegue una
copia della copia.
• è possibile e relativamente facile la trasmissione senza errori in un sistema di telecomunicazioni.
Trasmettere informazione elettronica digitale senza errori è possibile e relativamente facile. L'informazione
elettronica analogica invece subisce sempre un certo degrado durante la trasmissione.
• possibilità illimitate di manipolazione.
Attraverso appositi software, si va da operazioni di montaggio, all'alterazione delle immagini, come ad
esempio per la realizzazione di effetti speciali, fino alla realizzazione di filmati completamente artificiali con
la computer animation.

Caratteristiche principali del video


Le immagini in movimento, nel video, sono ottenute da immagini fisse visualizzate in rapida sequenza, similmente a
quanto avviene nella tecnica cinematografica basata sulla pellicola cinematografica. Le immagini fisse vengono
visualizzate ad una frequenza sufficientemente alta da essere percepite come immagini in movimento e non più come
una sequenza di immagini fisse. Questo avviene per il fenomeno della persistenza della visione che contrariamente a
quanto molti pensano non è dovuto ad un fenomeno di persistenza delle immagini sulla retina ma ad un
"assemblaggio" che il cervello esegue secondo meccanismi non ancora del tutto chiariti.
Le caratteristiche principali del video sono:
• risoluzione video
• frequenza delle immagini
• tipo di scansione delle immagini
• rapporto d'aspetto
Video 49

Risoluzione video
In ambito elettronico le immagini sono visualizzate come una
griglia ortogonale di aree uniformi. Tale griglia ortogonale di
aree uniformi è chiamata raster e, esclusivamente in ambito
digitale, tali aree uniformi sono chiamate → pixel.
La risoluzione video è la risoluzione dell'immagine video. Più
specificatamente è il numero di aree uniformi che
compongono in senso orizzontale e in senso verticale il raster.
In ambito digitale, dove le aree uniformi del raster sono
Confronto di risoluzioni televisive
chiamate pixel, la risoluzione video è espressa in pixel. In
ambito analogico invece la risoluzione video è espressa in
linee, in rifermento al metodo di visualizzazione di un'immagine elettronica utilizzato in ambito analogico (in ambito
analogico un'immagine elettronica viene visualizzata una linea orizzontale alla volta partendo dall'alto verso il
basso).

Il numero di aree uniformi che compongono in senso orizzontale il raster di un'immagine video è chiamato
risoluzione orizzontale. Mentre il numero di aree uniformi che compongono in senso verticale il raster di
un'immagine video è chiamato risoluzione verticale.
Le aree uniformi che compongono il raster sono gli elementi base che compongono l'immagine video. Quindi più è
alta la risoluzione video, più è alto il numero di elementi da cui è composta l'immagine video. E più è alto il numero
di elementi da cui è composta l'immagine video, maggiore è la qualità dell'immagine video.

Notazione della risoluzione video


La risoluzione di un segnale video analogico viene generalmente indicata con il numero di linee verticali. Un segnale
analogico non ha un numero discreto di punti orizzontali, ma la sua risoluzione viene espressa in genere nel numero
di linee risolvibili (per esempio, 250 o 350), che dipende fortemente del mezzo utilizzato per la trasmissione o la
risoluzione, oppure in MHz, intesi come larghezza di banda del segnale di luminanza, secondo la relazione:
80 linee = 1 MHz
Va detto tuttavia che è di uso comune, anche se scorretto, riferirsi alla risoluzione in termini di pixel orizzontali per
verticali, come si va con il video digitale, per maggiore semplicità. Inoltre, il sistema di codifica colore (NTSC, PAL,
o SÉCAM) viene di solito usato come denominazione dello standard video completo: molto spesso anche su supporti
digitali come il → DVD viene indicato che il video è in formato PAL anche se, naturalmente, non c'è nessun video
sul DVD registrato in questo formato.
La notazione che si usa per indicare la risoluzione video digitale è la seguente:
A×B
dove A e B sono il numero di aree uniformi che compongono rispettivamente in senso orizzontale e in senso
verticale il raster dell'immagine video.
Ad esempio il video usato negli standard televisivi digitali adottati in Italia ha 768 e 576 aree uniformi che
compongono rispettivamente in senso orizzontale e in verticale il raster. Tale risoluzione video viene indicata con la
notazione 768×576.
Video 50

Frequenza delle immagini


La frequenza delle immagini, anche chiamata frame rate, è il numero di immagini per unità di tempo che vengono
visualizzate. Varia da sei a otto immagini al secondo (fps) per le vecchie macchine da presa a 120 o più per le nuove
videocamere professionali. Gli standard PAL (Europa, Asia, Australia, etc.) e SECAM (Francia, Russia, parti
dell'Africa etc.) hanno 25 fps, mentre l'NTSC (USA, Canada, Giappone, etc.) ha 29.97 fps. La pellicola ha una
registrazione ad un frame rate minore, 24fps. Per raggiungere l'illusione di un' immagine in movimento il frame rate
minimo è di circa 10 fotogrammi al secondo.

Tipo di scansione delle immagini


Le immagini che compongono il video possono essere visualizzate secondo due metodologie diverse di scansione: la
scansione interlacciata, anche chiamata interlacciamento (dall'inglese "interlace"), e la scansione progressiva
(dall'inglese "progressive"). L'interlacciamento è stato creato come un metodo per ottenere una buona qualità di
visualizzazione nelle limitazioni di una banda di segnale ristretta. Le linee di scansione orizzontali di ogni
fotogramma interlacciato sono numerate consecutivamente e divise in due field: i "field dispari" che consistono nelle
linee di numeri dispari, e i field pari, caratterizzati invece dalle linee di numeri pari. PAL, NTSC e SECAM sono per
esempio dei formati interlacciati. Le sigle indicanti le risoluzioni video includono una lettera "i" per indicare che
sono formati che sfruttano l'interlacciamento. Per esempio il formato video PAL è specificato molto spesso come
576i50. Il primo numero indica la risoluzione delle linee verticali, la lettera "i" indica l'interlacciamento, e il secondo
numero indica 50 field (mezzi fotogrammi) al secondo
Nel sistema a scansione progressiva (tipica dei monitor per computer) si ha un aggiornamento continuo di tutte le
linee dello schermo, con il risultato di una maggiore risoluzione, e una mancanza di vari artefatti che possono far
"vibrare" parzialmente un'immagine ferma o con particolari combinazioni di colori e linee in finissima successione
(effetto moiré)
La procedura della rimozione dell'interlacciamento (deinterlacing) viene usata per convertire segnali interlacciati
(analogici, → DVD, o satellitari) in modo che possano essere utilizzati da apparecchi a scansione progressiva (come
televisori a cristalli liquidi, videoproiettori o pannelli al plasma). L'eliminazione dell'interlacciamento non può
comunque ottenere una qualità video uguale a quella che offrono gli apparecchi a scansione progressiva in quanto la
quantità di dati che il segnale contiene è pressoché la metà.

Rapporto d'aspetto
Il rapporto d'aspetto, o Aspect ratio (immagine) o
Display aspect ratio (DAR), del video è la proporzione
tra la larghezza e l'altezza dell'immagine video quindi
delle singole immagini che compongono il video.
Solitamente l'aspect ratio di uno schermo televisivo è
4:3 (o 1.33:1) (nota bene: dividendo la risoluzione
orizzontale di 768 per la risoluzione verticale di 576
(PAL), si ottiene proprio 1,33). I televisori ad alta Confronto di aspect ratio in cinematografia (blu e rosso) e televisione
(verde)
definizione usano un'aspect ratio di 16:9 (circa 1.78:1).
L'aspect ratio di un frame di pellicola da 35 mm con
colonna sonora (nota come "Academy standard") è circa 2.37:1.
Video 51

Altre caratteristiche del video

Pixel aspect ratio


Pare logico supporre che i singoli "punti" o pixel che compongono le immagini televisive siano quadrati, e invece si
parla di "pixel rettangolari" proprio per definire quei formati che hanno un pixel aspect ratio diverso da uno. I due
maggiori standard televisivi hanno infatti pixel aspect ratio di 1,066 (PAL) e 0,9 (NTSC). I monitor per computer
hanno invece pixel aspect ratio quadrato.
L'aspect ratio dei pixel deve essere particolarmente preso in considerazione quando si vogliono trasferire disegni
realizzati con un programma grafico da PC in un video DV o PAL DVD.
Infatti un video PAL ha una risoluzione di 768x576 pixel mentre in DV o in PAL DVD vengono memorizzati
720x576 pixel; questo significa che in fase di visualizzazione in un TV i pixel verrano resi rettangolari (in
orizzontale) per compensare i 48 pixel mancanti.
Se si disegna un cerchio con un programma di grafica su di un frame da 720x576 e poi si importa in un programma
di montaggio, (render DV o PAL DVD 720x576 4:3) in un TV apparirà una ellisse.
Invece se si disegna un cerchio con un programma di grafica su di un frame da 768x576 e poi si importa in un
programma di montaggio, (render DV o PAL DVD 720x576 4:3) in un TV apparirà correttamente un cerchio.
Per lo stesso motivo se si lavora in 16:9 il cerchio deve essere disegnato su di un frame da 1024x576, quando viene
importato il programma di montaggio provvede a comprimerlo in orizzontale (render PAL DVD 720x576 16:9
anamorfico), in fase di visualizzazione l'apparecchio televisivo con schermo da 16:9 effettua uno zoom in orizzontale
riportando il cerchio al suo aspetto originale.

Storage aspect ratio


Attraverso la combinazione delle proporzioni di come le immagini vengono mostrate (DAR) e di come vengono
visualizzati i singoli pixel (PAR) otteniamo la proporzione di memorizzazione fisica su file (SAR) secondo lo
formula PAR = DAR / SAR

Video 3D
Il video 3d, video digitale in tre dimensioni, è nato alla fine del XX secolo e si crea usando sei o otto videocamere
capaci di misurare la profondità della scena e salvando le registrazioni in → MPEG-4 Part 16 Animation Framework
eXtension (AFX).
La risoluzione per i video in tre dimensioni è misurata in voxels (volume picture element, rappresentanti un valore
nello spazio tridimensionale). Per esempio una risoluzione a 512×512×512 voxels, attualmente utilizzata per un
semplice video in tre dimensioni, può anche essere visualizzata in alcuni PDAs.
Video 52

Descrizione
Il termine video si riferisce generalmente ai
formati di archiviazione delle immagini in
movimento: i formati video digitali, come
→ DVD, QuickTime e → MPEG-4, e
videocassette analogiche, come VHS e
Betamax. I video possono essere registrati e
trasmessi attraverso vari media fisici:
pellicole di celluloide da macchine da presa,
segnali elettrici PAL o NTSC se registrati da
videocamere, o media digitali come →
MPEG-4 o DV se registrati da videocamere
digitali.
Standard video analogici: verde chiaro - NTSC, giallo - PAL, o in conversione al
La qualità del video dipende essenzialmente PAL, arancio - SECAM, oliva - nessuna informazione
dal metodi di registrazione e archiviazione.
La televisione digitale (DTV) è un formato relativamente recente, con alta qualità ed è diventata lo standard per la
televisione.

Formati video
Standard dei display video Standard della connessione video

• Digitale: • → Video composito (1 RCA o BNC)


• Super Hi-Vision (Televisione ad Altissima Definizione in fase di sperimentazione)
• → HDTV (High Definition Television: Televisione ad Alta Definizione)
• ATSC (USA, Canada, etc., Advanced Television Systems Committee)
• DVB (Europa, Digital Video Broadcasting)
• ISDB (Giappone, Integrated Services Digital Broadcasting)
• Analogico: • → Video a componenti (3 RCA o BNC)
• MAC (Europa - Obsoleto) • Connettore video D4 (nuovo per l'→ HDTV)
• MUSE (Giappone-analog HDTV)
• NTSC (USA, Canada, Giappone, etc., National Television System(s) Committee)
• PAL (Europa, Asia, Australia, etc., Phase-Alternating Line)
• PALplus (Estensione del PAL. Europa)
• SECAM (Francia, ex-USSR, Africa centrale, Séquentiel Couleur Avec Mémoire:
Colore sequenziale con memoria)
• S-Video (da Separated Video, 1 mini-DIN)
• SCART (usato in Europa)
• DVI (solo per video non compressi). HDCP
opzionale.
• HDMI (video e audio non compressi). HDCP
obbligatorio.
Video 53

• Connettore RF (da connettore coassiale Radio


Frequency)
• Connettore BNC (Bayonet Niell-Concelman)
• Connettore C (connettore Concelman)
• Connettore GR (connettoreGeneral Radio)
• Connettore F (usato per le TV domestiche negli
Stati Uniti)
• IEC 169-2 (Connettore IEC, usato per lo più nel
Regno Unito)
• Connettore N (connettore Niell)
• TNC (Threaded Niell-Concelman)
• Connettore UHF (es. PL-259/SO-239)
• SDI e HD-SDI
• Connettore VGA connector (DB-9/15 o mini sub
D15)
• -VGA (usato per i computer portatili)
Supporti video analogici (vedi televisione analogica) Supporti video digitali (vedi → video digitale)

• VERA (formato sperimentale della BBC, ca. 1958) • D1 (Sony)


• U-matic (Sony) • D2 (Sony)
• Betamax (Sony) • D3
• Betacam • D5 (standard di videoregistrazione)
• Betacam SP • Digital Betacam (Sony)
• 2 pollici Quadruplex (Ampex) • Betacam IMX (Sony)
• 1 pollice standard C (Ampex e Sony) • High Definition Video
• VCR, VCR-LP, SVR • ProHD (JVC)
• VHS (Video Home System, JVC) • D-VHS (Digital - Video Home System, JVC)
• S-VHS (Super - Video Home System, JVC) • DV (Digital Video)
• VHS-C (Video Home System - Compact, JVC) • DVCAM (Sony)
• S-VHS-C (Super- Video Home System - Compact, JVC) • MiniDV (Mini Digital Video)
• Video 2000 (Philips) • MicroMV
• Video8 e Hi8 (High Band 8) • Digital8 (Digital Video 8, Sony)
Supporti a disco ottico Supporti digitali

• → DVD (già Super Density Disc, DVD Forum) • CCIR 601 (ITU-T)
• Laserdisc (vecchio, MCA e Philips) • M-JPEG (ISO)
• Blu-ray (Sony) • MPEG-1 (ISO)
• Versatile Multilayer Disc (New Media Enterprise inc.) • MPEG-2 (ISO)
• Enhanced Versatile Disc (EVD, sostenuto dal governo cinese) • → MPEG-4 (ISO)
• HD DVD (Hitachi e Toshiba) • H.261 (ITU-T)
• H.263 (ITU-T)
• H.264/MPEG-4 AVC (ITU-T + ISO)
• → Ogg-→ Theora
Video 54

Voci correlate
• Generalità
• Audio
• Videoclip
• Interfaccia video
• Formati video
• Televisione
• Televisione digitale
• Televisione satellitare
• Interlacciamento
• Scansione progressiva
• Telecine
• → Codec video
• Timecode
• → Spazio dei colori
• → RGB
• YUV
• → Risoluzioni standard
• Caratteristiche
• Pixel aspect ratio (PAR)
• Display aspect ratio (DAR)
• Storage aspect ratio (SAR)
• Aspect ratio (immagine)
• Video anamorfico
• Formati cinematografici
• 24p
• Uso del video
• Videoarte
• Televisione a circuito chiuso
• Videoproiettore

Altri progetti
• Wikimedia Commons contiene file multimediali su Video
• Wikizionario contiene la voce di dizionario «Video»

Note
[1] "Informazione elettronica" non è intesa nel limitato senso di "informazione in forma elettronica", cioè di informazione che si presenta
esclusivamente in forma di corrente elettrica (quando è trasmessa diventando un segnale elettrico) o di tensione elettrica (quando è
memorizzata in un circuito elettronico), ma nel più ampio senso di "informazione manipolata da un'apparecchiatura elettronica", quindi di
informazione che può assumere una moltitudine di forme diverse (ad esempio la forma di magnetismo quando è memorizzata in una
videocassetta oppure la forma di luce all'interno di una fibra ottica quando è trasmessa a distanza).
[2] L'mmagine fissa, diversamente dalle immagini in movimento, non ha una natura temporale. Acquisisce una dimensione temporale quando è
rappresentata in forma di video in quanto in tale forma è continuamente ridisegnata.
Video digitale 55

Video digitale
Per video digitale si intende un segnale video che utilizza una rappresentazione digitale, e non analogica, del segnale
video. Questo termine generico non deve essere confuso con il nome DV, che indica uno specifico formato di video
digitale indirizzato alla grande distribuzione.

Trasporto del segnale


In ambito professionale, il primo tipo di interfaccia utilizzata, secondo la raccomandazione ITU-R BT.656, è di tipo
parallelo. I cavi erano costituiti da 11 doppini, 10 per ciascuno dei bit relativi all’informazione video più uno per il
clock a 27 MHz. La raccomandazione prevede l'uso di connettori D-Sub a 25 contatti.
La lunghezza del cavo è un fattore limitante di questo tipo di connessione, potendo raggiungere solo 50 m senza
equalizzazione e 200 m con appropriata equalizzazione.
Un tipo di interfaccia più evoluta, la SDI, spicificata dalla stessa ITU-R BT.656 prevede invece l'uso dagli stessi
cavi coassiali da 75Ω utilizzati in ambito analogico. Questo semplifica grandemente l'integrazione tra i due tipi di
segnale e riduce di molto i costi di cablaggio, nonché lo spazio e il peso dei cavi stessi. Per distanze lunghe, è anche
possibile il trasporto su fibra ottica
In campo domestico e amatoriale, le interfacce più comuni per il video digitale sono la firewire e la più recente
HDMI, concepita in particolare per alimentare televisori e monitor ad alta definizione.

Tecniche di registrazione
Il video digitale è spesso registrato su cassetta e distribuito su dischi ottici, solitamente → DVD. Ci sono comunque
delle eccezioni, come le videocamere che registrano direttamente su DVD, videocamere Digital8 che codificano
video digitale su cassette analogiche convenzionali, e alcune videocamere che registrano video digitale su hard disk.
Il successo del video digitale è basato sulla disponibilità di algoritmi di → compressione video che si sono sviluppati
fortemente a partire dagli anni '90.
Il video digitale è alla base dello sviluppo della → televisione ad alta definizione che, sebbene sia nata alla fine degli
anni ottanta come analogica, ha potuto diffondersi e divenire economicamente conveniente solo grazie alle tecniche
di registrazione e trasmissione digitali.

Cenni storici
Il video digitale è stato introdotto per la prima volta nel 1983 dal formato D-1 della Sony, che registrava un segnale
video component non compresso a definizione standard in forma digitale anziché in forma analogica. A causa del
costo molto elevato, il D-1 fu utilizzato principalmente da grandi network televisivi, e solo limitatamente a
lavorazioni che richiedevano molte generazioni successive di copie. In seguito sarebbe stato sostituito da sistemi più
economici che utilizzavano dati compressi, come il famoso Digital Betacam della Sony, tuttora largamente usati
come formato di registrazione dai grandi produttori televisivi.
Il video digitale di tipo amatoriale è apparso per la prima volta in forma di QuickTime, architettura della Apple
Computer per formati di dati time-based e di streaming diffusasi in forma ancora grezza intorno al 1990.
Inizialmente gli strumenti amatoriali di creazione dei contenuti erano grezzi e richiedevano la digitalizzazione di una
sorgente video analogica in un formato che potesse essere elaborato dai computer. Il video digitale amatoriale
migliorò rapidamente la sua bassa qualità iniziale, dapprima con l'introduzione di standard di riproduzione come il
MPEG-1 e il MPEG-2 (adottati per l'utilizzo in trasmissioni televisive e video su → DVD), e in seguito con
l'introduzione del formato di cassette DV. Quest'ultimo permise la registrazione diretta in digitale e semplificò il
processo di montaggio, consentendo la diffusione di sistemi completi di non-linear video editing su computer
Video digitale 56

desktop.

Panoramica tecnica
Le videocamere moderne possono lavorare in due differenti modalità di scansione: interlacciata e a scansione
progressiva. In modalità interlacciata, le videocamere registrano l'immagine alternando insiemi di righe: vengono
scansionate prima le righe di numero dispari , poi le righe di numero pari, poi di nuovo quelle di numero dispari, e
così via. Un set di righe pari o dispari è chiamato semiquadro o campoe una coppia di due campi consecutivi di
parità opposta è chiamata quadro o fotogramma.
Una videocamera a scansione progressiva, invece, registra ogni fotogramma singolarmente, mediante due campi
identici. Quindi, quando entrambi operano allo stesso numero di fotogrammi al secondo, il video interlacciato cattura
un numero doppio di campi al secondo rispetto al video progressivo.
La pellicola cinematografica standard come la 16mm e la 35mm riprende a una cadenza di 24 o 25 fotogrammi al
secondo. Per il video ci sono due frequenze standard: 30/1,001 (circa 29,97) fotogrammi al secondo e 25 fotogrammi
al secondo,a seconda che lo standard di partenza sia NTSC oppure PAL.
Il video digitale può essere copiato senza perdita in qualità. Non importa per quanti passaggi una sorgente digitale
venga copiata poiché il video si mantiene sempre identico al materiale digitale originale.
L'elaborazione e il montaggio del video digitale avviene tramite postazioni non-linear editing, dispositivi costruiti
esclusivamente per montare video e audio. Queste macchine possono frequentemente importare materiale sia da una
sorgente analogica che digitale. Il video digitale può inoltre essere montato su un personal computer dotato del
software e dell'hardware appropriato. Nel mercato degli editor non lineari professionali è molto conosciuto il
software e l'hardware Avid, oltre a Final Cut Pro della Apple e Adobe Premiere Pro. Le sulozioni più usate in campo
professionale usano computer di fascia alta assistito da hardware apposito.
I software di montaggio richiedono generalmente ampio spazio su disco. Il video digitale a compressione standard
DV/DVCPRO occupa circa 250 megabyte per minuto o 13 gigabyte per ora, ma l'occupazione aumenta man mano
che che si sale con la qualità. In base alle sue caratteristiche però, il video digitale ha un costo significamente basso,
considerando tutte le lavorazioni in cui può essere coinvolto. Come termine di paragone, si consideri che il costo di
riprese cinematografiche in 35mm si aggira sui 1000€ al minuto, sviluppo e stampa inclusi.
Il video digitale è usato largamente al di fuori della cinematografia. La Televisione digitale (incluso la → HDTV ad
altà qualità) ha iniziato a diffondersi in molti paesi sviluppati nei primi anni 2000. Il video digitale è inoltre utilizzato
nei moderni telefoni cellulari, nei sistemi di videoconferenza e nella distribuzione di media via Internet, come lo
streaming video e la distribuzione peer-to-peer.
Esistono molti tipi di → compressione video per la diffusione di video attraverso internet e media come i DVD.
Alcuni dei codec più diffusi sono MPEG-2, → MPEG-4, Real Video, Windows Media Video e il più recente H.264.
Probabilmente i formati più utilizzati per la diffusione di video attraverso internet sono → MPEG-4 e WMV, mentre
MPEG-2 è usato quasi esclusivamente per i DVD.
Al 2005, la risoluzione più alta realizzata con un video digitale è di 33 megapixel (7680 x 4320) a 60 fotogrammi al
secondo (nel formato UHDV), anche se soltanto in un test di laboratorio. La velocità più alta è ottenuta da
videocamere ad alta velocità in ambito industriale e scientifico, le quali sono capaci di filmare video di risoluzione
1024 x 1024 con un milione di fotogrammi al secondo per brevi periodi di registrazione.
Video digitale 57

Interfacce/Cavi
Per soddisfare i requisiti di trasferimento dei video digitali non compressi (di circa 400 Mbit/s) sono state realizzate
interfacce specifiche:
• Serial Digital Interface
• FireWire
• HDMI
• Digital Visual Interface
• DisplayPort

Formati di memorizzazione

Codifica
Tutti i formati correnti elencati di seguito sono basati su PCM.
• CCIR 601 — usato per le stazioni di trasmissione
• → MPEG-4 — diffuso nella distribuzione online e nella registrazione di video su memoria flash
• MPEG-2 — diffuso per DVDs e Super-VCD e impiegato nella trasmissione video digitale DVB
• MPEG-1 — diffuso per VCD
• H.261
• H.263
• H.264 — conosciuto anche come MPEG-4 Part 10 o AVC Impiegato per HD DVD e Blu-ray Disc
• → Theora — standardizzato ma ancora in sviluppo

Cassette
• Betacam SX, Betacam IMX, Digital Betacam — sistemi video commerciali di Sony, orientati al mercato
professionale e broadcast. Il tipo di videocassetta deriva dal foramto domestico Betamax
• D1, D2, D3, D5, D9 o Digital-S — vari standard per video digitali commerciali definiti dalla SMPTE
• DV, MiniDV — diffusi nella maggior parte delle videocamere a cassette di larga distribuzione; progettato per
video ad alta qualità facile da montare; possono anche registrare dati in alta-definizione (HDV) in formato
MPEG-2
• DVCAM, DVCPRO — diffusi nelle operazioni di trasmissione professionali; simili al DV e compatibili con esso,
offrono miglior trattamento dell'audio
• Digital8 — dati in formato DV registrati su cassette compatibili Hi8; formato diffuso nell'uso amatoriale
• MicroMV — dati in formato MPEG-2 registrati su cassette di dimensioni molto ridotte; in disuso
• D-VHS — dati in formato MPEG-2 registrati su cassette simili alla S-VHS

Dischi ottici
• Video CD (VCD)
• → DVD
• HD DVD
• Blu-ray Disc
• Sony ProDATA
• XDCAM
Video digitale 58

Voci correlate
• DV
• Audio digitale
• Cinema digitale
• Digital Visual Interface
• Serial Digital Interface
• → DVD
• Videocamera
• Televisione
• → Video
• Video editing
• Webcam

Bibliografia
• Barbero, Shpuza, Interfacce video, Elettronica e Telecomunicazioni, n.3 Dicembre 2006

Compressione video digitale


Un segnale tv trasformato in formato digitale rappresenta una grande mole di dati da elaborare che va oltre alle
capacità degli attuali sistemi di diffusione tra cui i transponder satellitari. Questa enorme quantità di dati per essere
sfruttata nelle trasmissioni tv satellitari richiede un trattamento di "compressione" che si concretizza nella
applicazione dello standard MPEG-2. Anche se il segnale non deve venire trasmesso, comunque, sono spesso
necessarie tecniche di compressione per poterlo registrare o elaborare.
La digitalizzazione del segnale video ha una storia meno recente di quella del sistema MPEG. Già dal 1982 il CCIR,
organo consultivo internazionale che oggi è sostituito dalla sezione raccomandazioni dell'ITU denominata ITU-R,
definì le specifiche CCIR 601 "Encoding Parameters of Digital Television for Studios" (vedi collegamenti esterni).
Nell'ultima edizione del 1990, CCIR 601-2, ci sono le basi dell'odierno sistema televisivo digitale e tale specifica è
oggi il punto di riferimento costante per chiunque operi nel campo della digitalizzazione video. Le CCIR 601 hanno
permesso l'introduzione del video digitale negli studi di produzione televisiva, infatti nel broadcast già da lungo
tempo vengono impiegate macchine di registrazione video in formato digitale. Solo successivamente, con il DVB e
la compressione video, le tecniche digitali sono state applicate alle trasmissioni televisive ed oggi rappresentano
l'evoluzione del sistema televisivo in tutte le sue estensioni: via cavo, via satellite e via terrestre.

Linee TV, pixel e campioni


Una immagine TV analogica viene normalmente descritta come il risultato di una scansione operata da sinistra verso
destra e dall'alto verso il basso. Ogni scansione completa è costituita da 625 linee e, in base allo standard adottato in
Europa, viene ripetuta per 25 volte in un secondo così come in una proiezione cinematografica si hanno 24
fotogrammi in un secondo.
Le 625 linee tv non vengono impiegate totalmente per descrivere l'immagine. Infatti oltre alle informazioni sul
contenuto di luminanza e crominanza dell'immagine sono necessarie altre informazioni per la cui trasmissione
necessita un periodo di pausa pari al tempo di trasmissione di ben 49 linee. Le linee attive dell'immagine sono quindi
576.
Nel campo della TV digitale si utilizza invece un'altra modalità di descrizione dell'immagine suddividendola in →
pixel. Per ogni linea tv si considerano quindi 720 pixel pertanto una intera immagine tv è formata da 720 x 576 pixel.
Compressione video digitale 59

Ad ogni pixel sono associati i valori di informazione luminosa dell'immagine, la luminanza (Y), e i valori relativi al
colore, la crominanza (C). Ogni pixel è quindi costituito da campioni di luminanza e crominanza in numero variabile
in funzione del livello qualitativo che si deve ottenere, descritto nella raccomandazione CCIR 601 (vedi anche
televisore).

Dall'analogico al digitale 4.2.2


Le specifiche CCIR 601-2 hanno avuto il grande ruolo di normalizzare le condizioni di digitalizzazione del segnale
video al fine di facilitare l'intera operabilità tra le macchine e favorire lo scambio dei programmi televisivi. Una altra
specifica, la CCIR 656 ha invece fissato le condizioni di interfaccia tra i sistemi e le apparecchiature destinate al
trattamento dei segnali video digitali.
Secondo le CCIR 601-2 il segnale video digitale standardizzato è costituito dai dati relativi al campionamento di tre
componenti del segnale video: la componente di luminanza Y e due componenti di differenza colore Cb e Cr. Queste
tre componenti vengono campionate al fine di produrre un segnale digitale formato da 864 campioni di luminanza Y
e 432 campioni di crominanza per ogni segnale differenza colore Cb e Cr. Questi valori si riferiscono ad una
immagine televisiva completa con 625 linee e 50 semi-quadri. L'immagine reale, come abbiamo visto, invece lascia
inutilizzate alcune aree pertanto i campioni realmente utilizzati sono di meno in quanto i pixel utili alla descrizione
dell'immagine sono 720 in senso orizzontale e 576 in senso verticale.
Il rapporto tra i campioni di luminanza e crominanza all'interno dell'immagine è determinato dallo schema di →
sottocampionamento della crominanza. Gli schemi maggiormente usati sono tre: 4:2:2, 4:1:1 e 4:2:0.
Lo schema 4:2:2 è indicato dalla specifica CCIR 601-2 come lo standard di fatto per l'interscambio dei programmi e
la diffusione tv.
Gli schemi 4:2:0 e 4:1:1 sono utilizzati da alcuni codec, come il Digital Video, per ridurre ultreriormente la banda
occupata dal segnale. Questi due schemi richiedono la stessa larghezza di banda, ma l'ordine dei campioni è
differente.
In una immagine video trasmessa nel formato 4:2:2, in orizzontale per ogni linea si hanno due campioni di
crominanza Cb e Cr ogni quattro campioni di luminanza mentre in verticale si ha la successione di linee identiche.
Ciò significa che in orizzontale si ha un sottocampionamento mentre in verticale no.

Ridurre la quantità di dati


Se proviamo a calcolare il "bitrate" necessario alla trasmissione di un segnale video campionato in 4:2:2 a 8 bit
avremo delle amare sorprese in quanto ci troveremo di fronte ad un bit rate necessario di 216 Mb/s, valore molto
elevato. Ovviamente se si escludono le parti non significative dell'immagine ovvero, gli intervalli di cancellazione di
linea e di quadro, si può avere un risparmio in termini di bit rate passando da 216 Mbit/s a 166 Mbit/s.
Il "bitrate" è in stretta connessione con la larghezza di banda necessaria per eseguire la trasmissione via radio.
Pertanto per poter trasmettere un segnale digitale è necessario adattare il bit rate alla larghezza del canale satellitare.
Prendendo ad esempio un canale satellitare largo 33 MHz, questo supporta un Symbol Rate di 24,4 Ms/s che
equivale, in QPSK, ad un bit rate di 48,8 Mb/s (fuori dalla codifica Reed-Solomon e Convoluzionale). Attualmente
viene tollerato un certo degrado di qualità che mantiene il tasso di errori entro valori accettabili, pertanto viene
utilizzato frequentemente un Symbol Rate di 27,5 Ms/s il che equivale ad ottenere un bit rate massimo di 55 Mb/s.
Tale bit rate viene ridotto impiegando la codifica convoluzionale e quindi si ottengono diversi valori convenienti di
bit rate in funzione del FEC impiegato. Con un FEC di 1/2 si ottiene un bit rate di 25,43 Mb/s mentre con un FEC di
7/8 si ottiene un bit rate di 44,35 Mb/s. Attualmente viene largamente impiegato un FEC di 3/4 con il quale si ottiene
un bit rate di 38 Mb/s per un canale come quello utilizzato su Hot Bird largo 33 MHz e con un Symbol rate di 27,5
Ms/s. I valori ottenuti sono più favorevoli di quelli indicati dalla norma ETS 300 421 "Digital Broadcasting sistems
for television, sound and data services" e riportati nella tabella 1.
Compressione video digitale 60

Nonostante le possibilità del sistema di trasmissione, 38 Mb/s sono ancora pochi per supportare la trasmissione di un
segnale video digitale. Per questo motivo entra in gioco il sistema di compressione MPEG-2 adottato dal DVB.
Utilizzando la compressione si ottiene una forte riduzione della quantità di dati da trasmettere permettendo così di
sfruttare un unico canale satellitare per la trasmissione di più programmi televisivi.
Basti pensare al fatto che attualmente la migliore qualità di trasmissioni dirette agli utenti richiede un bit rate di circa
8 Mbit/s per ogni programma tv. Pertanto ciò lascia intuire che unendo l'MPEG-2 alle tecniche di multiplazione
digitale si possano trasmettere grandi quantità di dati. Ciò è infatti quello che accade con le attuali trasmissioni
digitali dove su un solo transponder da 33 MHz può trovare spazio la combinazione di programmi aventi anche tra
loro un diverso bit rate. Alla base di questo principio sta una importante applicazione, relativa alle tecniche di
compressione, attualmente sperimentata dalle trasmissioni RAI. Tali trasmissioni infatti utilizzano la tecnica di
"compressione dinamica" per mezzo della quale il bit rate dei singoli programmi che condividono lo stesso bouquet
non è fisso ma può variare dipendentemente dalle esigenze istantanee di qualità e quindi di bit rate delle singole
immagini. Ad esempio: un programma sportivo con immagini in forte movimento può avere a disposizione un bit
rate istantaneo elevatissimo sfruttando una maggiore compressione degli altri programmi presenti nello stesso
bouquet.

MPEG-2, indispensabile per il DVB


La televisione digitale DVB (Digital Video Broadcasting) adotta la compressione video chiamata MPEG-2. La sigla
MPEG deriva dal nome di un gruppo di lavoro chiamato Motion Pictures Expert Group che riunisce esperti
internazionali del settore con lo scopo di standardizzare le procedure di compressione per servizi televisivi e
multimediali. Si tratta in realtà di un gruppo di lavoro ISO/IEC con la complicata sigla identificativa
JTC1/SC29/WG11, che opera congiuntamente al gruppo 15, della sezione telecomunicazioni della ITU, che invece si
occupa di codifica video ATM. Il gruppo MPEG collabora anche con la sezione raccomandazioni della ITU, SMPTE
e la comunità americana che si occupa di → HDTV.
MPEG-2 raggruppa le specifiche divenute standard a tutti gli effetti e fissate al 29º meeting ISO/IEC di Singapore
nel novembre 1994. Tali specifiche sono raccolte nel fascicolo ISO/IEC 13813 in tre parti: 13183-1 per il sistema;
13183-2 per il video e 13183-3 per l'audio.
Esistono altre specifiche MPEG ovvero: MPEG-1, MPEG-3 e → MPEG-4; la prima non è diversa concettualmente
da MPEG-2 ma ha caratteristiche inferiori, mentre MPEG-3 era uno standard per applicazioni con immagini ad alta
definizione → HDTV in seguito abbandonato. L'MPEG-4 è una somma degli standard precedenti, è molto flessibile
e supporta molte modalità di compressione con bit rate che possono essere estremamente ridotti o molto ampi.

Collegamenti esterni
• Encoding Parameters of Digital Television for Studios [1]

Note
[1] http:/ / www-inst. eecs. berkeley. edu/ ~cs150/ fa04/ Documents. htm#Video
Sottocampionamento della crominanza 61

Sottocampionamento della crominanza


Il sottocampionamento della crominanza è una tecnica che consiste nel codificare immagini riservando maggiore
risoluzione al segnale di luminanza piuttosto che all'informazione di crominanza. È una tecnica utilizzata in molti
modelli di compressione per segnali sia analogici che digitali, ed è usata anche dalla compressione JPEG e MPEG.

Aspetti tecnici
Un segnale video, soprattutto se a → componenti, ha una larghezza di banda molto ampia, comportando tutta una
serie di problemi per essere registrato o trasmesso. Di conseguenza, sono spesso usate tecniche di compressione per
migliorare la gestione del segnale, aumentare la durata delle registrazione oppure aumentare il numero di canali di
trasmissione. Dal momento che la visione umana è molto più sensibile alle variazioni di livello luminoso piuttosto
che ai cambiamenti di colore[1] , si può sfruttare questo principio per ottimizzare la compressione, dedicando più
banda alla luminanza (Y) e meno alla differenza delle componenti cromatiche (Cb e Cr). Lo schema di
sottocampionatura 4:2:2 Y'CbCr, per esempio, richiede solo due terzi della banda del (4:4:4) → R'G'B'. Questa
riduzione è pressoché impercettibile all'occhio umano.

Come funziona il sottocampionamento


Il sottocampionamento della crominanza differisce dalla teoria scientifica nel fatto che le componenti di luminanza e
crominanza sono formate come somma pesata di componenti tristimolo R'G'B' dopo una correzione di gamma,
invece che da componenti RGB tristimolo lineari. Come risultato, la luminanza e i dettagli di colore non sono del
tutto indipendenti l'una dagli altri, ma avviene una sorta di "miscelazione" tra i due componenti. L'errore è maggiore
nei colori molto saturi e si nota nel verde e nel magenta delle barre colore. Invertendo l'ordine delle operazione tra la
correzione di gamma e la somma pesata dei segnali, il sottocampionamento può essere meglio applicata.

Originale senza sottocampionatura. Ingrandimento 200%.

Immagine
dopo la sottocampionatura (compressa con codec DV di Sony Vegas.)
Sottocampionamento della crominanza 62

Sistemi di campionatura
Lo schema di sottocampionatura è normalmente indicato con una notazione a tre cifre (es. 4:2:2) o talvolta a quattro
cifre (es. 4:2:2:4). Il significato dei numeri è il seguente:
• Riferimento di campionatura orizzontale della Luminanza (in origine, come multiplo della sottoportante a 3.579
MHz in NTSC o di 4.43 MHz in PAL).
• Fattore orizzontale Cr (relativo alla prima cifra).
• Fattore orizzontale Cb (relativo alla prima cifra), a meno che non sia posto a zero. In questo caso, lo zero indica
che il fattore orizzontale Cb è identico alla seconda cifra e, in aggiunta, sia il Cr che il Cb sono sottocampionati
2:1 in senso verticale. Lo zero è scelto affinché la formula di calcolo della larghezza di banda rimanga corretta.
• Fattore orizzontale Alfa (relativo alla prima cifra). Può essere omesso se non è presente un canale alfa.
Per calcolare la larghezza di banda necessaria rispetto a un segnale 4:4:4 (o 4:4:4:4), si sommano tutti i fattori e si
divide il risultato per 12 (o per 16 se c'è un canale alfa).

Gli esempi qui sopra sono esclusivamente teorici e a scopo dimostrativo. Si osservi anche che i diagrammi non
indicano nessun filtraggio della crominanza, che dovrebbe essere applicato per evitare l'aliasing.

Tipi di sottocampionamento

8:4:4 Y'CbCr
Ognuno dei due componenti di crominanza, Cb e Cr, è campionato alla stessa risoluzione, e il luma al doppio di
questa. Questo schema è usato in telecinema, scanner per pellicole di alta gamma e correttori di colori. Il luma ha il
doppio di larghezza di banda di uno schema 4:4:4, e una tale banda richiede due connessioni per essere trasmessa,
chiamate link A e link B, ognuno dei quali trasporta un segnale 4:2:2.

4:4:4 Y'CbCr
Ognuno dei tre componenti Y'CbCr è campionato alla stessa risoluzione. Questo schema si usa negli scanner di alta
gamma e nella post produzione cinematografica. Anche in questo case servono due connessioni: il link A trasporta
un segnale 4:2:2, il link B uno 0:2:2.
Sottocampionamento della crominanza 63

4:4:4 R'G'B' (senza sottocampionamento)


La notazione "4:4:4" può riferirsi anche allo spazio colore → R'G'B', che implicitamente non ha nessuna
sottocampionamento della crominanza. Questo segnale può essere registrato da un videoregistratore HDCAM SR se
trasmesso da una connessione dual link.

4:2:2
I due campioni di crominanza sono campionati alla metà della risoluzione della luminanza, dimezzando la
risoluzione cromatica. Questo riduce la banda del segnale video di un terzo senza quasi perdite percettibili.
Molti formato video di alta gamma usano questo schema:
• Digital Betacam
• DVCPRO50 and DVCPRO HD
• DigitalS
• CCIR 601 / Serial Digital Interface / D1
• ProRes 422

4:2:1
Questo schema è definito tecnicamente, ma pochissimi codec lo usano. La risoluzione orizzontale Cb è la metà di
quella Cr (e un quarto di quella Y). Questo schema sfrutta il principio che l'occhio umano è più sensibile al rosso che
al blu.

4:1:1
Nella sottocampionatura 4:1:1, la risoluzione orizzontale cromatica è ridotta a un quarto. La larghezza di banda
risulta dimezzata rispetto a uno schema non sottocampionato. In alcuni ambienti professionali, lo schema 4:1:1 del
codec DV non era considerato di classe broadcast all'epoca della sua introduzione, e accettabile solo per applicazioni
non professionali.[2] [3] Con il tempo, i formati basati su questo codec sono usati invece in ambienti professionali per
l'acquisizione di immagini e l'uso nei server video, e, in maniera sporadica, il codec DV è stato usato anche nella
cinematografia digitale a basso costo.
I formati che usano questo schema includono:
• DVCPRO (NTSC e PAL)
• DV e DVCAM (NTSC)

4:2:0
Questo schema è utilizzato in:
• Tutte le versioni di codec MPEG, incluse le implementazioni MPEG-2 come il → DVD (alcuni profili di →
MPEG-4 possono usare schemi di qualità più elevata, come il 4:4:4)
• DV e DVCAM (PAL)
• HDV
• Implementazioni comuni JPEG/JFIF, H.261, e MJPEG
• VC-1
I componenti Cb Cr sono sottocampionati di un fattore 2 sia verticalmente che orizzontalmente, e centrati a metà
delle linee di scansione verticali.
Esistono tre varianti degli schemi 4:2:0, che differiscono per il posizionamento verticale e orizzontale.
• In MPEG-2, Cb e Cr coincidono orizzontalmente.
Sottocampionamento della crominanza 64

• In JPEG/JFIF, H.261, e MPEG-1, Cb e Cr sono posizionati a metà strada, tra i campioni di luminanza (Y)
alternati.
• In DV 4:2:0, Cb e Cr sono alternati riga per riga.
Gli schemi colore PAL e SECAM sono particolarmente adatti a questo tipo di compressione. La maggior parte dei
formati video digitali corrispondenti al PAL usano il sottocampionamento di crominanza 4:2:0, con l'eccezione del
DVCPRO25, che usa lo schema 4:1:1. La larghezza di banda necessaria è dimezzata rispetto al segnale pieno per
entrambi gli schemi.
Con il materiale interlacciato, il sottocampionamento 4:2:0 può creare artefatti sulle immagini in movimento, se il
sottocampionamento viene applicato nello stesso modo del materiale progressivo. I campioni di luminanza, infatti,
provengono da semiquadri diversi mentre quelli di crominanza provengono da entrambi i semiquadri. La differenza
fra i campioni genera gli artefatti. Lo standard MPEG-2 prevede l'uso di uno schema alternativo per evitare il
problema, dove la schema 4:2:0 è applicato a ogni semiquadro ma non ad entrambi i semiquadri
contemporaneamente.

Originale. *Questa immagine mostra un singolo semiquadro. Il testo in movimento ha subito una sfuocatura.

Campionamento 4:2:0 progressivo applicato a materiale in movimento interlacciato. Si noti che la crominanza
precede e segue il testo. *Questa immagine mostra un singolo semiquadro.

Campionamento 4:2:0 interlacciato applicato a materiale in movimento interlacciato. *Questa immagine mostra un
singolo semiquadro.
Nello schema 4:2:0 interlacciato,ad ogni modo, la risoluzione verticale della crominanza è pressapoco dimezzata dal
momento che i campioni comprendono un'area di 4x2 campioni invece di 2x2. Allo stesso modo, il dislocamento
temporale tra i due semiquadri può portare ad artefatti sui colori.

Immagine fissa originale.

Campionamento 4:2:0 progressivo applicato a un'immagine fissa. Sono mostrati entrambi i campi.
Sottocampionamento della crominanza 65

Campionamento 4:2:0 interlacciato applicato a un'immagine fissa. Sono mostrati entrambi i campi.
Se il materiale interlacciato deve essere deinterlacciato, gli artefatti sulla crominanza (derivati dal campionamento
4:2:0 interlacciato) possono essere rimossi sfumando la crominanza verticalmente.[4][5]

4:1:0
Questo schema è possibile (alcuni codec lo supportano), ma non molto usato. Prevede metà della risoluzione
verticale e un quarto di quella orizzontale, con solo un ottavo della larghezza di banda originale. Il video non
compresso, in questo formato, con quantizzazione a 8 bit, usa 10 byte per ogni macropixel (4 pixer x 2). La banda
della crominanza è equivalente a quella di un segnale PAL I decodificato con linea di ritardo, e ancora molto
superiore a un segnale NTSC.
• Alcuni codec video posso funzionare con schemi 4:1:0.5 o 4:1:0.25, come opzione, con una qualità superiore a un
nastro VHS e una larghezza di banda simile.

3:1:1
Usato dalla SONY per i registratori HDCAM (ma non sugli HDCAM SR), questo schema prevede il
campionamento orizzontale della luminaza a tre quarti della frequenza di un segnale ad alta definizione, cioè 1440
campioni per riga invece di 1920. La crominanza è campionata a 480 campioni per riga, un terzo del campionamento
della luminanza.
In senso verticale, entrambi i segnali sono campionati sull'intera banda del segnale (1080 righe).

Terminologia
Il termine Y'UV si riferisce a uno schema analogico di codifica mentre Y'CbCr si riferisce a uno schema digitale.
Una differenza tra i due schemi è che i fattori di scala dei componenti di crominanza (U, V, Cb, and Cr) sono
differenti. Comunque, il termine YUV è spesso erroneamente usato per riferirsi alla codifica Y'CbCr. Come
conseguenza, notazioni come "4:2:2 YUV" si riferiscono sempre allo schema 4:2:2 Y'CbCr dal momento che non
esiste un sottocampionamento 4:x:x nella codifica analogica (come è lo YUV).
In maniera simile, il termine luminanza e il simbolo Y sono spesso usata per riferirsi al luma, indicato con il simbolo
Y'. Si noti che il il luma (Y') della tecnologia video differisce dalla luminanza luminance (Y) usata come termine
scientifico (definito dalla CIE). Il Luma è dato dalla somma pesata dei componenti tristimolo RGB dopo la
correzione di gamma, mentre la luminanza è data dalla somma pesata dei componenti tristimolo RGB lineari.
In pratica, il simbolo Y della CIE spesso indica erroneamente il luma. Nel 1993, la SMPTE stabili le Engineering
Guideline EG 28, chiarendo i due termini. Il simbolo primo ′ si usa per indicare la correzione di gamma.
I termini croma/crominanza differiscono in maniera simile dalla crominanza intesa in ambito scientifico. la
crominanza della tecnologia video è formata dai componenti tristimolo corretti e non lineari. In questo ambito, i
termini croma, crominanza, e saturazione sono di spesso riferiti allo stesso concetto.
Sottocampionamento della crominanza 66

Si veda anche
• Spazio colore
• SMPTE - Society of Motion Picture and Television Engineers
• DV
• Alta definizione
• YCbCr
• YPbPr
• CCIR 601 4:2:2 SDTV
• YUV
• → Colore
• Vista
• Bastoncelli
• Coni

Bibliografia
• Poynton, Charles. "YUV and luminance considered harmful: A plea for precise terminology in video" [6]
• Poynton, Charles. "Digital Video and HDTV: Algorithms and Interfaces." USA: Morgan Kaufmann Publishers,
2003.
• Carlo Solarino, Video produzione digitale, Vertical 1999

Note
[1] Margaret Livingstone, The First Stages of Processing Color and Luminance: Where and What in Vision and Art: The Biology of Seeing, New
York, Harry N. Abrams2002, pp. 46-67
[2] http:/ / www. dvcentral. org/ DV-Beta. html
[3] http:/ / www. adamwilt. com/ DV-FAQ-tech. html
[4] http:/ / www. dv. com/ news/ news_item. jhtml;?LookupId=/ xml/ feature/ 2003/ wilt0603
[5] http:/ / www. hometheaterhifi. com/ volume_8_2/ dvd-benchmark-special-report-chroma-bug-4-2001. html
[6] http:/ / www. poynton. com/ papers/ YUV_and_luminance_harmful. html
Video a componenti 67

Video a componenti
Il video a componenti, anche noto come component, è una tipologia
di formato → video analogico che si contrappone al → video
composito.
Il video a componenti si contraddistingue dal video composito per il
fatto di avere le informazioni video distinte in più componenti separate,
diversamente dal video composito che invece le miscela in un unico
flusso informativo.
Attualmente negli impianti domestici i cablaggi video a componenti Tre cavi, ognuno con connessione RCA ad
entrambi i capi, sono spesso usati per trasmettere
vengono gradatamente sostiutuiti dai cablaggi digitali DVI e HDMI in
segnale video analogico
grado di fonire maggiore qualità. In ambito professionale invece il
video a componenti è ancora largamente utilizzato nei cablaggi.

Video analogico a componenti


I segnali video analogici devono fornire tre informazioni (note anche come componenti) relative ai segnali rosso,
verde e blu per creare un'immagine televisiva. Il tipo più semplice di video a componenti, → RGB, consiste di tre
segnali discreti rosso, verde e blu trasportati da tre cavi coassiali. Esistono alcune varianti sul formato, relative a
come le informazioni di sincronismo sono gestite: se integrate nel canale verde, questo sistema prende il nome di
sync-on-green (RGsB). Altri schemi usano un canale di sincronismo separato, come per esempio nel caso del
connettore SCART in cui i segnali usano quattro pin (R,G,B + sync) dei ventuno disponibili (RGBS), più una massa
comune. Un altro schema possibile è il SVGA, usato a livello globale per i monitor dei computer; questo schema è
noto talvolta come RGBHV, poiché gli impulsi di sincronismo verticali e orizzontali usano a loro volta linee
separate.
Un tipo alternativo di divisione dei componenti non usa i segnali RGB ma, al loro posto, un segnale senza
informazioni di colore, chiamato luminanza (Y) combinato con uno o più segnali che trasportano le informazioni di
crominanza (C). Canali di crominanza più numerosi permettono una maggiore precisione di mappatura nello spazio
colore RGB. Questo schema di separazione è una trasformazione lineare dello spazio colore sRGB, e da luogo al tipo
di segnale a cui ci si riferisce di solito quando si parla di video a componenti. Alcune varianti di questo formato
includono gli schemi YUV, YCbCr, YPbPr e YIQ, che sono comunemente usati nei sistemi video. In questo caso, il
segnale a componenti viene trasmesso lungo tre cavi coassiali. In ambito televisivo, questo tipo di connessione è
molto comune nei videoregistratori Betacam.
Nei sistemi video a componenti, i segnali di sincronizzazione devono essere trasmessi insieme alle immagini, di
solito con uno o due cavi separati oppure inseriti nel periodo di cancellazione di uno o di tutti i componenti.
Nell'ambito informatico è molto comune avere i sincronismi separati, mentre nelle applicazioni video è più frequente
inserire i sincronismi nel componente Y, che a tutti gli effetti è un segnale televisivo monocromatico completo.
Un segnale video a componenti è anche il formato S-Video, che separa luminanza e crominanza su due cavi separati.
Questo tipo di connessione, tuttavia, non può trasmettere immagini ad alta definizione o di qualità digitale (intesa
come immagini con più di 480 linee interlacciate in NTSC e 576 in PAL). Il video a componenti, invece, è adatto a
segnali come 480p, 720p, 1080i e 1080p, mentre è richiesta una connessione digitale come DVI (solo video) e
HDMI (che può includere fino a 8 canali audio) per avere i migliori risultati alle risoluzioni più elevate (fino a
1080p).
Esempi di standard internazionali per il video a componenti sono:
• RS-170 RGB (525 linee, basato su temporizzazioni NTSC, e noto ora come EIA/TIA-343)
Video a componenti 68

• RS-343 RGB (525, 625 o 875 linee)


• STANAG 3350 Analogue Video Standard (NATO versione militare dello standard RS-343 RGB)

Voci correlate
• Interfaccia video
• → Video composito
• RCA
• S-Video

Video composito
Il video composito, acronimo CVBS,[1] [2] è una
tipologia di formato → video analogico che si
contrappone al → video a componenti.
Il video composito si contraddistingue dal video a
componenti per il fatto di avere le informazioni
componenti il video (luminanza, crominanza,
sincronismi d'immagine e di colore) miscelate in un
unico flusso informativo, quindi di norma ha una
qualità peggiore rispetto al video a componenti in
quanto è estremamente difficile impedire che le
componenti video interferiscano tra loro. Connettore RCA, usato comunemente per il video composito

Il video composito è trasmesso a distanza attraverso


cavi coassiali di tipo RG59, o equivalenti, aventi impedenza caratteristica di 75Ω.

Composizione
Lo spettro del video composito può raggiungere i 5,3 MHz. L'ampiezza
tipica è di 1 volt picco-picco ma in particolari sistemi può essere
sommato ad una componente a tensione continua. Per convenzione si
considera il livello della base dei sincronismi a -300 mV, il livello del
nero a 0 mV e il livello del bianco a 700 mV.
Il video composito è la somma elettrica della luminanza (Y) alla
crominanza (C) modulata in ampiezza su una sottoportante a 3.58 MHz
(nello standard televisivo NTSC) o 4.433 MHz (nello standard
televisivo PAL). La crominanza è modulata in frequenza nello standard Connettore BNC, utilizzato per il video
televisivo SÉCAM. composito in campo professionale. Questo tipo di
connettore è usato anche per ogni tipo di video
Il sistema della sottoportante di crominanza permette al video
analogico e digitale.
composito di essere compatibile sia con i sistemi in bianco e nero che a
colori. Per contro viene persa parte del dettaglio della banda video che
coincide con il centro banda colore quando il video composito viene processato per separare il colore dalla
luminanza. Inoltre rari e particolari dettagli della luminanza possono ingannare il decodificatore della crominanza
creando un effetto di battimento detto moiré che si visualizza mediante false bande colorate su immagini composte
da righe verticali in bianco e nero molto ravvicinate. Un classico esempio di questo difetto sono abiti e cravatte a
Video composito 69

righe sottili.

Codifica
Nello standard PAL il sincronismo della componente colore è detto burst e si compone di dieci cicli di riferimento
della durata di 2.2 μs immediatamente dopo il sincronismo di riga. Il burst serve per sincronizzare in fase l'oscillatore
quarzato presente nei ricevitori o monitor.
Nello standard PAL (utilizzato anche in Italia) la componente colore è ottenuto attraverso particolari modulazioni di
una portante colore a 4.43361975 MHz. Precisamente la modulazione di ampiezza determina la saturazione del
colore sullo schermo. La modulazione di fase determina la tinta cromatica. Il segnale in bianco e nero, ottenuto
attraverso la somma delle componenti primarie di colore (0.11% blu + 0.30% rosso + 0.59% verde) ed è
sostanzialmente identico al segnale bianco e nero creato con una sorgente di ripresa in bianco e nero (vidicon,
saticon, plumbicon, ccd). Le percentuali così ottenute formano il solo segnale video bianco e nero con ampiezza di
0.7 Volt. Al segnale bianco e nero viene sommato il sincronismo orizzontale e verticale di quadro e semiquadro di
ampiezza -0.3 volt, ottenendo un segnale bianco e nero di 1 Volt
La componente colore viene ottenuto trasmettendo i soli segnali di differenza del rosso e del blu (il verde si ottiene
sottraendo rosso e blu della luminanza) attraverso la modulazione in quadratura di una portante (carrier) a
4.43361975 MHz. I segnali di differenza del rosso e del blu sono derivati dalla sottrazione dagli stessi della
luminanza e sono indicati come R-Y e B-Y. Questi segnali vengono percentualmente ridotti e ridenominati con V ed
U a causa di problemi di sovramodulazione nella trasmissione in radiofrequenza del segnale televisivo. La
modulazione in quadratura si ottiene attraverso la modulazione in ampiezza ed in fase della portante colore. La
modulazione in ampiezza e fase si ottiene con la modulazione in quadratura, ovvero si utilizzano due portanti
derivate dallo stesso oscillatore ma sfasate tra loro di 90° (quadratura), sullo stesso principio del seno/coseno. Una
portante viene modulata dalla differenza del blu, mentre la portante sfasata di 90° viene modulata dalla differenza del
rosso. La somma delle due portanti modulate in ampiezza crea il segnale colore. L'ampiezza massima caratteristica
di picco di 0.3 Volt, a 4.433 MHz. Ampiezza e fase sono variabili in funzione del contenuto dei segnali di differenza
colore, ovvero della saturazione e della tinta del soggetto ripreso dalla telecamera o creato attraverso altri sistemi
quali videogiochi, computer, macchine fotografiche digitali, eccetera. Nel sistema PAL, per ottenere la correzione
del ritardo di fase presente nel sistema NTSC, dovuto a fattori di trasmissione o distorsione o elaborazione del
segnale che causano variazioni della tinta del colore in riproduzione, viene sfasato prima di + 90°, alla riga
successiva di -90° equivalente a +270°. La somma vettoriale di due righe colore soggette ad un ritardo di fase,
restituisce la fase corretta in quanto la riga successiva invertita contiene lo stesso segnale a +270° riportato a 90° ma
con l'errore invertito e vettorialmente annullato. Al segnale colore viene aggiunto, di riga in riga, una serie di 10
impulsi (burst) per sincronizzare in fase l'oscillatore quarzato presente nei circuiti di decodifica del colore. Il burst
colore si trova in una zona del segnale che corrisponte ad una zona non visibile della riga visualizzata sullo schermo.
Questa zona si trova immediatamente dopo il termine dell'impulso di sincronismo di riga, nel supernero. Il supernero
è la cancellazione di traccia ed è il tempo che il fascio di elettroni proiettato sullo schermo impiega per tornare dal
margine destro al margine sinistro.
I due segnali, luminanza (bianco e nero + sincronismi) e crominanza (colore + burst), formano il classico segnale
component o S - derivato da S-VHS. Con questi due segnali si ottiene un'ottima riproduzione del bianco e nero e dei
dettagli, ma si ottiene una limitazione nel dettaglio colore. Sommati tra loro formano il segnale video composito.
Video composito 70

Decodifica
I circuiti di decodificazione separano dal segnale video composito il segnale di crominanza ed il segnale di
luminanza il quale viene filtrato della componente a 4.433 MHz in modo da non creare un disturbo a reticolato
rappresentato dalla componente colore. Apposite ed elaborate circuiterie fanno in modo di recuperare il dettaglio
successivo dello spettro fino a 5.3 MHz per mantenere un dettaglio sufficientemente valido. Un circuito separa dal
segnale composito i segnali di sincronismo verticale ed orizzontale. Dal primo fronte negativo del segnale di
sincronismo orizzontale viene ricavata una finestra che serve a far passare il burst colore per sincronizzare in
frequenza ed in fase l'oscillatore colore quarzato dei circuiti di decodifica del colore. In circuito colore ricostruisce i
segnali della portante in quadratura e, attraverso il confronto col segnale colore ricevuto, ne ricava le differenze
colore B-Y ed R-Y. A questi due segnali viene sommata la luminanza e si ricava Y+(B-Y)=B e Y(R-Y)=R Con una
matrice resistiva, attraverso la sottrazione di R e di B da Y, si ricava il verde G. Le componenti RGB vengono
inviate al cinescopio il quale provvederà a visualizzare le componenti RGB sullo schermo, illuminando i
corrispondenti fosfori colorati in modo da ottenere l'immagine a colori..

Tecniche digitali
Nelle tecniche moderne digitali, il segnale non viene più trattato in modo analogico, ma le componenti dei colori
vengono immediatamente convertiti in digitale con un bitrate a circa 13.4 MHz. Il fatto che l'occhio umano ha minor
dettaglio sui colori rispetto al bianco e nero, ha fatto sì che non fosse neccessario tenere lo stesso dettaglio per i
singoli punti colore, ma vengono inserite alternativamente le differenze colore tra i dati di luminanza con questo
schema detto 4.2.2: Y, R-Y, Y, B-Y, Y, R-Y...

Voci correlate
• → Video
• Interfaccia video

Bibliografia
• Carlo Solarino, Per fare televisione, Vertical 1995
• Silvio Silvi, "Appunti di tecniche video - il video composito", Vip Videosystem 1988

Note
[1] CVBS è l'acronimo dell'inglese "Composite Video Blanking and Sync" o "Color Video Blanking and Sync"
[2] In Germania sono utilizzati gli acronimi BAS (del tedesco "Bild Austastung Synk"), per il video composito in bianco e nero, e FBAS (del
tedesco "Farb Bild Austastung Synk"), per il video composito a colori, è quindi possibile trovarli su qualche apparecchiatura video di origine
tedesca per indicare un ingresso o un'uscita video in video composito.
Formato contenitore 71

Formato contenitore
Un formato contenitore è un formato di file che può contenere diversi tipi di dati, → compressi tramite codec
audio/video. Il file contenitore è usato per identificare e disporre i differenti tipi di dati in maniera non contigua. I
formati contenitori più semplici possono contenere diversi tipi di codec audio, mentre quelli pià avanzati arrivano a
supportare anche i → codec video, sottotitoli e tag metadata.
Alcuni contenitori sono esclusivamente di matrice audio, ad esempio:
• AIFF (largamente usato nei sistemi operativi Mac OS)
• WAV (Resource Interchange File Format, usato prevalentemente nei sistemi Windows)
• XMF (Extensible Music Format)
Altri contenitori riguardano unicamente immagini digitali:
• FITS (Flexible Image Transport System), formato contenitore per file RAW ed i metadata associati.
• TIFF (Tagged Image File Format), formato contenitore per immagini ed metadata associati.
Altri contenitori supportano sia dati audio che video::
• 3GP (usato maggiormente da dispositivi portatili e telefoni cellulari)
• ASF (contenitore standard proprietario riguardante WMA and WMV)
• → AVI (contenitore standard Microsoft)
• DVR-MS ("Microsoft Digital Video Recording"), contenitore video proprietario, sviluppato da Microsoft e basato
su ASF)
• IFF (primo formato contenitore multipiattaforma)
• → MKV , (formato contenitore open source).
• → MP4 (contenitore audio/video standard per il formato .mp4)
• → MOV (contenitore video standard per Quicktime della Apple)
• → Ogg (contenitore audio standard della fondazione Xiph.org.
• RealMedia (contenitore standard per RealVideo e RealAudio)

Problemi ed incompatibilità
Le differenze tra i molti formati contenitori derivano da cinque grandi problematiche:
1. Popolarità; ovvero, quanto sia diffuso il formato.
2. Overhead; ovvero, la differenza di peso (in termini di memoria occupata) tra due differenti contenitori, aventi il
medesimo contenuto.
3. Supporto per funzionalità avanzate dei codec. Ad esempio, formati considerati "vecchi" quali l'→ AVI non
supportano alcuna funzionalità avanzata, sebbene il problema possa essere aggirato attraverso hacking, causando
spesso problemi di compatibilità.
4. Supporto per contenuti avanzati quali sottotitoli, metatags et similia.
5. Supporto per lo streaming.
Formato contenitore 72

Voci correlate
• FFmpeg
• Cross-platform
• Open source
• Codec

Velocità di trasmissione
Bit rate
Prefissi SI
Nome Simbolo Multiplo

kilobit per secondo kb/s 103


megabit per secondo Mb/s 106
gigabit per secondo Gb/s 109
terabit per secondo Tb/s 1012
Prefissi binari
(IEC 60027-2)
kibibit per secondo Kib/s 210
mebibit per secondo Mib/s 220
gibibit per secondo Gib/s 230
tebibit per secondo Tib/s 240

Il termine velocità di trasmissione (o di trasferimento) viene solitamente utilizzato a proposito di scambi di


informazioni tra computer o comunque dispositivi elettronici. Siccome su questi dispositivi l'informazione viene
memorizzata e viaggia in forma digitale, ovvero è sostanzialmente una sequenza di bit, è naturale che tale velocità
venga misurata in bit per secondo (e da qui il termine equivalente inglese bitrate).
In realtà sulle veloci macchine moderne avrebbe poco senso usare come unità di misura proprio il bit/secondo, per
cui vengono utilizzati principalmente i vari multipli del bit (che è identificato con una b): abbiamo il byte (sequenza
di 8 bit, identificato da una B), la word (sequenza di 16 bit) e la double word (sequenza di 2 word oppure 32 bit) e
poi i prefissi standard del sistema decimale, cosicché, ad esempio, se in una linea ADSL abbiamo un trasferimento
dati di 4 Mb/s, cioè 4.000.000 b/s, avremo (4.000.000/8) B/s equivalenti a 500 kB/s.
Il bisogno di utilizzare questi prefissi risulta evidente se si pensa che ad esempio lo standard USB 2.0 può
raggiungere velocità di 480 Mb/s, equivalenti a 60 MB/s.
Velocità di trasmissione 73

Confronto tra velocità di vari sistemi


• Floppy disk 3,5" 1000 kbps = 125 KiB/s = 1 Mb/s
• CD-ROM 1x = 1200 kbps = 150 KiB/s = 1,2 Mb/s
• DVD 1x = 11000 kbps = 1375 KiB/s = 11 Mb/s
Modem analogico 56k = 56000 bps = 7000 B/s = 7 kB/s = 0,007 MB/s
ADSL 1 Mega = 1000 kbps = 125 KiB/s = 1 Mb/s
nota2: anche se un byte è formato da 8 bit, bisogna considerare i bit di correzione d'errore, per cui un kB/s
corrisponde a circa 8000 b/s (secondo il sistema di correzione usato), e la corrispondenza non è esattamente 1000 b/s
= 1000/8 B/s = 125 B/s.

Teoremi di Shannon e Nyquist


I canali trasmissivi utilizzati per la comunicazione dei dispositivi si suddividono in:
• Canali perfetti: non causano distorsioni o ritardi nella propagazione dei segnali.
• Canali ideali: causano solo un ritardo costante nella propagazione.
• Canali reali: causano attenuazioni e ritardi, in funzione della frequenza dei segnali.
Shannon e Nyquist hanno rispettivamente enunciato teoremi che esprimono la massima velocità di trasmissione per
ciascun tipo di canale.
Il massimo bit rate (data rate) relativo ai canali perfetti è dato dal Teorema di Nyquist, indicato di seguito, che lega la
larghezza di banda di un canale alla quantità di informazione trasportabile:
Massimo data rate = [b/s]
dove H è la larghezza di banda del segnale e V il numero di livelli differenti presenti nel segnale.
Il massimo bit rate (data rate) relativo ai canali reali (con rumore termico) è dato dal Teorema di Shannon, indicato
di seguito, che considera anche il rumore:

Massimo data rate = [b/s]

Dove H è la larghezza di banda del segnale , S e 'N sono rispettivamente la potenza del segnale e del rumore del
canale. Da questa espressione si deduce chiaramente che per ogni canale esiste un ben preciso limite fisico.

Voci correlate
• Baud
• Larghezza di banda
• Teorema di Nyquist
• Teorema di Shannon
Codec video 74

Codec video
Un codec video è un programma o un dispositivo sviluppato per descrivere un flusso video sotto forma di dati
numerici adatti ad essere memorizzati su un supporto digitale.
Usualmente i codec video effettuano anche una → compressione dei dati in modo da ridurre l'elevata quantità di dati
che compone un flusso video. La maggior parte dei codec video adottano tecniche di → compressioni lossy (a
perdita di informazioni) in modo da poter ridurre i dati necessari per trasmettere i flussi video anche di 20 volte o
più, ma esistono anche dei codec utilizzati per applicazioni professionali che utilizzano → compressioni lossless
(senza perdita di informazione).

Codifica intraframe e codifica interframe


A seconda della diversa tecnica di codifica del flusso video, i codec video si dividono in due grandi famiglie: a
codifica intraframe e a codifica interframe.
La codifica intraframe contraddistingue i codec che codificano e decodificano un flusso video descrivendo ogni
singolo fotogramma che compone la sequenza video, rispettando quindi un approccio tradizionale alla
quantizzazione video come sequenza di immagini statiche.
Nella codifica interframe invece i codec video si occupano di descrivere i cambiamenti che occorrono tra un
fotogramma ed il successivo partendo da un fotogramma iniziale descritto con codifica intraframe e seguendo un
approccio più innovativo alla quantizzazione video allo scopo di migliorarne l'efficienza sfruttando la capacità dei
sistemi di riproduzione moderni in grado di elaborare l'informazione per poi mostrarne il risultato.
La diversa dinamica dei due approcci fa si che la codifica intraframe è più adatta alla riproduzione di sequenze video
particolarmente movimentate, descrivendo ogni singolo fotogramma infatti, un codec a codifica intraframe potrà
degradare la qualità delle singole immagini all'aumentare del rapporto di compressione, ma tenderà comunque a
lasciare inalterata la dinamica del movimento.
I codec a codifica interframe risultano invece meno adatti alla codifica di sequenze movimentate per le quali
necessitano di descrivere grossi cambiamenti tra i fotogrammi. Al contrario, in sequenze video statiche, ovvero con
pochi elementi che cambiano nella scena, la codifica interframe risulta di notevole efficienza.

Voci correlate
• Codec audio
• → Compressione video digitale
Contenitore multimediale 75

Contenitore multimediale
Questa è una pagina di disambiguazione per orientarsi tra voci omonime o dal titolo ambiguo.
Se sei giunto qui da un'altra pagina, per favore torna indietro e correggi il collegamento, indirizzandolo alla voce più appropriata.

Un contenitore multimediale è un formato file che può contenere vari tipi di dati. Il suo ruolo è quello di
sincronizzare codec video, codec audio, sottotitoli e menu.
I contenitori più utilizzati sono:
• → Ogg ("Ogg Media", contenitore standard open source per Vorbis, → Theora e altri)
• → Audio Video Interleave (AVI) (contenitore standard Microsoft Windows)
• ASF (contenitore standard per Microsoft WMA e WMV)
• → MOV (standard di QuickTime della Apple Inc.)
• RealMedia (contenitore standard per RealVideo e RealAudio)
• → Matroska / MKV (non standard per alcun sistema ma in grado di contenere tutti i formati video ed audio sia
proprietari che open source)

Audio Video Interleave


Audio Video Interleave

Estensione .avi

Tipo MIME video/avi video/msvideo


video/x-msvideo

Sviluppatore Microsoft

Tipo → Contenitore multimediale

AVI, acronimo di Audio Video Interleave, è un → Contenitore multimediale realizzato dalla Microsoft nel 1992
come formato standard video per il sistema operativo Windows. Nel febbraio del 1996, Microsoft decide di integrare
nel formato AVI un set di estensioni sviluppate da Matrox OpenDML. Questo nuovo tipo di file AVI viene
chiamato, non ufficialmente, "AVI 2.0".
AVI è un → contenitore multimediale e può contenere uno o due flussi audio e un flusso video. AVI non supporta
alcun formato di sottotitoli che devono quindi essere trasformati ed inseriti dentro il flusso video. La mancanza del
supporto per sottotitoli e la mancanza di supporto per formati aperti lo differenzia da altri contenitori multimediali
come → Matroska ed → Ogg.
Audio Video Interleave 76

Formati Multimediali Supportati

Video Audio Sottotitoli


integrati
Supporto Supporto
Supporto
MPEG-1 Sì → MP3 Sì
VobSubs No
MPEG-2 Sì WMA Sì
Ogg No
→ Sì RealAudio No
Writ
MPEG-4
Vorbis No
USF No
WMV Sì
AC3 Sì
RealVideo Sì
DTS Sì
→ Theora Sì
FLAC No
Flash No

Voci correlate
• → Contenitore multimediale
• ASF
• → MOV
• → Ogg
• RealMedia
• → Matroska
• Sigle dei DivX
• Screener
Matroska 77

Matroska
Nome Matroska (Матрёшка)

logo

estensione .mkv .mka

mime audio/x-matroska
video/x-matroska

sviluppatore The Matroska Project

tipo → Contenitore
multimediale

licenza Pubblico dominio

sito web http:/ / www. matroska. org

Matroska (le cui estensioni classiche sono .mkv e .mka) è un progetto volto a sviluppare un contenitore
multimediale simile a QuickTime di Apple, Mp4 di MPEG o l'Advanced Systems Format di Microsoft. Il suo nome
deriva dalle bambole Matrioska.
Il progetto è stato annunciato il 7 dicembre 2002 come fork del progetto Multimedia Container Format in seguito a
disaccordi con il creatore del progetto circa l'utilizzo dell'EBML (Extensible Binary Meta Language) invece di un
altro formato binario.
I fondatori del progetto Matroska credono che l'uso dell'EBML porti numerosi vantaggi, tra i quali facilitazioni in
una futura estensione del formato.

Obiettivi
Gli obiettivi del progetto sono diversi:
• Creare un formato contenitore multimediale moderno, flessibile, estensibile e multipiattaforma che permetta lo
streaming attraverso Internet, una ricerca rapida all'interno del file e menu tipo → DVD.
• Sviluppare una serie di strumenti per la creazione e la modifica di file Matroska, da rilasciarsi sotto licenza GNU
General Public License.
• Sviluppare librerie che possano essere utilizzate dagli sviluppatori per avere il supporto Matroska alle loro
applicazioni, da rilasciarsi sotto licenza GNU General Public License.
• Lavorare in concerto con produttori di hardware per incorporare il supporto Matroska in dispositivi multimediali.
• Fornire supporto nativo a Matroska per diversi sistemi operativi, tra cui:
• Linux tramite il GStreamer multimedia framework
• Haiku tramite il suo Mediakit
• Windows tramite DirectShow
• Mac OS X tramite il framework QuickTime
Matroska 78

Formati multimediali supportati

Formati video supportati

Supporto

MPEG-1 No

MPEG-2 Sì

→ Sì
MPEG-4

WMV Sì

RealVideo Sì

→ Theora Sì

Flash Sì

Formati audio supportati

Supporto

→ MP3 Sì

WMA Sì

RealAudio Sì

Vorbis Sì

AC3 Sì

DTS Sì

FLAC Sì

Formati sottotitoli integrati supportati

Supporto

VobSubs Sì

Ogg Sì
Writ

USF Sì
Matroska 79

Voci correlate
• → Contenitore multimediale
• → AVI
• ASF
• → MOV
• → Ogg
• RealMedia

Collegamenti esterni
Homepage Ufficiale [1]

Note
[1] http:/ / www. matroska. org/

MPEG-4
MPEG-4, nato nel 1996 e finalizzato nel 1998 (fu presentato pubblicamente ad ottobre di quell'anno), è il nome dato
a un insieme di standard per la codifica dell'audio e del → video digitale sviluppati dall'ISO/IEC Moving Picture
Experts Group (MPEG). L'MPEG-4 è uno standard utilizzato principalmente per applicazioni come la videotelefonia
e la televisione digitale, per la trasmissione di filmati via Web, e per la memorizzazione su supporti CD-ROM.
MPEG-4 è basato sugli standard MPEG-1, MPEG-2 e Apple QuickTime technology, supportandone tutte le
caratteristiche; ISO approvò il formato QuickTime come base per lo standard MPEG-4, l'MPEG group riteneva
infatti che fosse la migliore base di partenza e che integrasse già alcune caratteristiche essenziali[1] ; lo standard
evolutosi possedeva inoltre tutta una serie di nuove funzioni come la gestione tridimensionale degli oggetti (tramite
un'estensione del VRML). I flussi audio e video vengono trattati dallo standard MPEG-4 come oggetti che possono
essere manipolati e modificati in tempo reale bidirezionalmente. Lo standard supporta caratteristiche specificate da
terze parti come una particolare gestione dei DRM o una gestione interattiva dei contenuti.
La maggior parte delle caratteristiche dell'MPEG-4 sono opzionali e quindi la loro implementazione è lasciata alla
discrezione dello sviluppatore. Questo implica che parte dei lettori mediali di file MPEG-4 non saranno magari in
grado di gestire tutte le caratteristiche del formato. Per permettere un'elevata interoperabilità, nel formato sono stati
inclusi i concetti di profilo e di livello, quindi i vari lettori MPEG-4 potranno essere suddivisi a seconda dei profili e
livelli supportati.

Componenti MPEG-4
MPEG-4 è suddiviso in vari sotto standard chiamati part (termine inglese che in italiano significa "parte"):
• Part 1 (ISO/IEC 14496-1): Systems: Describes synchronization and multiplexing of video and audio.
• Part 2 (ISO/IEC 14496-2): Visual: A compression codec for visual data (video, still textures, synthetic images,
etc.). One of the many "profiles" in Part 2 is the Advanced Simple Profile
• Part 3 (ISO/IEC 14496-3): Audio: A set of compression codecs for perceptual coding of audio signals.
• Part 4 (ISO/IEC 14496-4): Conformance: Describes procedures for testing conformance to other parts of the
standard.
• Part 5 (ISO/IEC 14496-5): Reference Software: Provides software for demonstrating and clarifying the other parts
of the standard.
• Part 6 (ISO/IEC 14496-6): Delivery Multimedia Integration Framework (DMIF).
MPEG-4 80

• Part 7 (ISO/IEC 14496-7): Optimized Reference Software: Provides examples of how to make improved
implementations (e.g., in relation to Part 5).
• Part 8 (ISO/IEC 14496-8): Carriage on IP networks: Specifies a method to carry MPEG-4 content on IP networks.
• Part 9 (ISO/IEC 14496-9): Reference Hardware: Provides hardware designs for demonstrating how to implement
the other parts of the standard.
• Part 10 (ISO/IEC 14496-10): A codec for video signals which is also called AVC (Advanced Video Coding) and
is technically identical to the ITU-T H.264 standard.
• Part 12 (ISO/IEC 14496-12): ISO Base Media File Format: A file format for storing media content.
• Part 13 (ISO/IEC 14496-13): Intellectual Property Management and Protection (IPMP) Extensions
• Part 14 (ISO/IEC 14496-14): MP4 File Format: The designated container file format for MPEG-4 content MP4,
which is based on Part 12.
• Part 15 (ISO/IEC 14496-15): AVC File Format: For storage of Part 10 video based on Part 12.
• Part 16 (ISO/IEC 14496-16): Animation Framework eXtension (AFX)
• Part 17 (ISO/IEC 14496-17): Timed Text subtitle format (not yet finished - reached "FCD" stage in January 2005)
• Part 18 (ISO/IEC 14496-18): Font Compression and Streaming (for OpenType fonts)
• Part 19 (ISO/IEC 14496-19): Synthesized Texture Stream
• Part 20 (ISO/IEC 14496-20): Lightweight Scene Representation (LASeR) .
• Part 21 (ISO/IEC 14496-21): MPEG-J Extension for Rendering (not yet finished - reached "CD" stage in January
2005)
I profili inoltre sono definiti all'interno di diverse Part, in modo che un'esecuzione di alcune caratteristiche di una
Part non implichi la necessità di supportare l'intera Part.
MPEG-1, MPEG-2, MPEG-7 e MPEG-21 sono altri standard MPEG.

Funzionamento
Il concetto alla base del codec (COdificatore-DECodificatore) MPEG4 è la Quantizzazione. Senza scendere nello
specifico, si può riassumere come quel processo che permette, mediante un apposito algoritmo di compressione, di
trasmettere solamente la variazione dell'immagine. Allo stato dell'arte infatti esistono due modi per eseguire questa
operazione: I-frame e P-frame4: il primo codifica l'immagine senza una referenza alla precedente (refresh puro): è
più preciso ma più pesante per le applicazioni via rete, mentre la seconda esegue una compensazione nella variazione
del movimento (motion-compensated frames) analizzando appunto la differenza di immagine tra due frame correnti.
La parte statica non è ritrasmessa e non cambia tra un quadro e l'altro.

Voci correlate
• Advanced Audio Coding (AAC)
• XviD
• DivX
• 3ivx
• Nero Digital
• H.264
• M4a
• MPEG-4 Part 3
• → Theora
• SBR
MPEG-4 81

Collegamenti esterni
• Tecnologia Mpeg-4 sviluppata da Apple (in inglese) [2]
• Sito italiano sull'Mpeg4 [3]
• (EN) MPEG-4: The Next Generation [4]
• (EN) MPEG-4 Audio: AAC [5]
• (EN) MPEG Industry Forum MPEG-4 page [6]
• (EN) Moving Picture Experts Group (MPEG) Official Website [7]
• Galleria di filmati in formato H.264/AVC [8]
• FAQ sul formato H.264/AVC [9]
• MPEG-4 part 20: LASeR [10]

Note
[1] Vedere la voce Quicktime
[2] http:/ / www. apple. com/ quicktime/ technologies/ mpeg4/
[3] http:/ / www. m4a. it
[4] http:/ / www. apple. com/ mpeg4/
[5] http:/ / www. apple. com/ mpeg4/ aac/
[6] http:/ / www. m4if. org/ mpeg4/
[7] http:/ / www. chiariglione. org/ mpeg/
[8] http:/ / www. apple. com/ quicktime/ hdgallery
[9] http:/ / www. apple. com/ mpeg4/ h264faq. html
[10] http:/ / www. mpeg-laser. org

MOV (formato di file)


QuickTime Movie

Estensione .mov .qt

Tipo MIME video/quicktime

Sviluppatore Apple Inc.

Tipo → Contenitore multimediale

Formati multimediali supportati

Formati video supportati


MOV (formato di file) 82

Supporto

MPEG-1 Sì

MPEG-2 Sì

→ Sì
MPEG-4

WMV Sì

RealVideo Sì

→ Theora Sì

Flash Sì

Formati audio supportati

Supporto

→ MP3 Sì

WMA Sì

RealAudio No

Vorbis Sì

AC3 Sì

DTS Sì

FLAC Sì

Formati sottotitoli integrati supportati

Supporto

VobSubs No

Ogg No
Writ

USF No

Voci correlate
• → Contenitore multimediale
• → AVI
• ASF
• → Ogg
• RealMedia
• → Matroska
Ogg 83

Ogg
Ogg Media

Estensione .ogg .ogm .oga .ogv


.ogx

Tipo MIME video/ogg


audio/ogg
application/ogg

Sviluppatore Xiph.Org Foundation

Tipo → Contenitore multimediale

Licenza licenza BSD

Sito Web [1]

Ogg è un → contenitore multimediale libero per il trasporto di flussi di bit progettato per permettere sia lo streaming
che l'archiviazione in maniera efficiente.
Il nome "Ogg" si riferisce al formato di file, che include un numero di codec indipendenti per il → video, l'audio ed
il testo (ad esempio, per i sottotitoli). I file con l'estensione ".ogg" possono contenere uno qualsiasi dei formati
supportati, e poiché il formato è liberamente implementabile, i vari codec ogg sono stati incorporati in molti
riproduttori multimediali, sia proprietari, sia liberi.
Spesso il termine "ogg" è stato usato per indicare il formato di file audio Ogg Vorbis, cioè un file audio codificato in
un file ogg con l'algoritmo Vorbis, poiché questo è stato il primo codec ad usare il contenitore ogg. Altri importanti
codec sviluppati per il contenitore ogg sono → Theora per la compressione video, e Speex, un algoritmo ottimizzato
per la compressione del parlato.
Il progetto è stato sviluppato originariamente da Christopher Montgomery della Xiph.Org Foundation.
È inoltre il formato ufficialmente preferito per i file audio e video di Wikipedia.

Licenze
Le specifiche di Ogg sono di pubblico dominio. Le librerie di riferimento per la codifica e decodifica sono rilasciate
sotto licenza BSD. Gli strumenti ufficiali per la gestione del container sono rilasciati sotto GNU General Public
License (GPL).

I codec di Ogg
Ogg è solo un formato che specifica il modo in cui i dati devono essere ordinati nel flusso dati. I dati audio o video
codificati da un codec specifico saranno inseriti nel contenitore Ogg. Il contenitore Ogg può contenere flussi
codificati con diversi codec: ad esempio, un file audio/video conterrà dati codificati con un codec audio e dati
codificati con un codec video.
Essendo un formato di contenimento, Ogg può integrare diversi codec. Di seguito le specifiche di Xiph.org in tal
senso:
Ogg 84

• → Codec video
• → Theora: codec di compressione video basato su VP3 di On2
• Dirac: codec sperimentale open source sviluppato originariamente da BBC
• Tarkin: codec sperimentale che utilizza trasformate wavelet 3D, nel frattempo reso obsoleto da Theora
• OggUVS: stream video non compresso
• Codec audio
• Vorbis: compressione di segnale musicale e audio generico (~16-256 kbit/s/canale)
• Speex: compressione della voce umana a bassi bitrate (~8-32 kbit/s/canale)
• FLAC: compressione audio lossless
• OggPCM: stream PCM non compresso concettualmente paragonabile a WAVEform audio di Microsoft
• Codec testo
• Writ: codec per la gestione del testo nei sottotitoli dei filmati
• Metadati
• Ogg Skeleton: formato ancora in fase sviluppo per spostare i metadati dal livello flusso a livello contenitore

Il problema dell'estensione file


Sebbene Xiph.org avesse previsto originariamente l'estensione .ogg per il contenitore a prescindere dall'effettivo
codec contenuto, l'organizzazione è ritornata sui suoi passi nel 2007, raccomandando di impiegare le sequenti
estensioni per i file Ogg:
• .ogg per Ogg contenente solo audio in formato Vorbis
• .spx per Ogg contenente solo audio in formato Speex
• .oga per Ogg contenente solo audio in FLAC o OggPCM
• .ogv per Ogg contenente almeno un flusso video
A queste si aggiunge l'estensione .flac utilizzata per identificare un flusso FLAC privo del container Ogg. Il
formato FLAC era infatti già esistente e funzionante indipendentemente dal contenitore Ogg, e solo in seguito donato
a Xiph.org.
Prima di questa presa di posizione, il programmatore Tobias Waldvogel era intervenuto sulle specifiche di Ogg per
permettergli di raggirare la limitazione del formato AVI di Microsoft a riguardo dell'audio in formato Vorbis. Per
identificare uno di questi file Ogg, che contengono codec audio e video arbitrari, la comunità ha autonomamente
fatto nascere l'estensione non ufficiale .ogm, con il significato di Ogg Media. Il contenuto più frequentemente
riscontrato in questi file è un flusso video XviD e almeno un flusso audio Vorbis.

Curiosità
• Nonostante la nota passione di Christopher Montgomery per Terry Pratchett e i suoi libri della serie del Mondo
Disco, in cui effettivamente esiste un personaggio chiamato Ogg, la vera etimologia del termine deriva da uno
slang coniato dallo stesso Montgomery in riferimento alla pesantezza dell'algoritmo Vorbis ai tempi della sua
nascita. Riprendendo il nome di una tattica del videogioco Netrek che consisteva in un attacco suicida, è diventato
di uso comune l'espressione inglese to ogg con il significato approssimativo di "intraprendere un'azione azzardata,
con esiti incerti e conseguenze probabilmente deleterie". Lanciare un processo di codifica di un brano musicale in
Ogg Vorbis, al tempo, rendeva infatti totalmente inutilizzabile il computer per diversi minuti.
• La struttura interna di un file Ogg ne permette il concatenamento per semplice accodamento binario. Il file
risultante è un Ogg perfettamente rispettoso delle specifiche, che prevedono appunto i cosiddetti chained streams.
Il modo più pratico di verificare questa caratteristica sono i comandi DOS
copy /b file1.ogg+file2.ogg newfile.ogg
o Unix
Ogg 85

cat file1.ogg file2.ogg > newfile.ogg


che generano un file chiamato newfile.ogg contenente i due brani allacciati tra loro con continuità perfetta
(caratteristica a volte chiamata gapless output).

Collegamenti esterni
• Pagina della Xiph.org Foundation dedicata ad Ogg [1]
• RFC 3533, le specifiche ufficiali del container Ogg
• RFC 3534, le specifiche del MIME type application/ogg

Voci correlate
• → Contenitore multimediale
• → AVI
• ASF
• → MOV
• RealMedia
• → Matroska

Collegamenti esterni
• (EN) OggWatch [2] Progetto per la diffusione dei formati Ogg

Note
[1] http:/ / www. xiph. org/ ogg/
[2] http:/ / www. oggwatch. com/
Theora 86

Theora
Theora è un codec → video sviluppato dalla Xiph.Org Foundation come parte del progetto → Ogg. È basato sul
codec VP3 della On2 Technologies, ed è progettato per competere con il video → MPEG-4 (come XviD e DivX),
RealVideo, Windows Media Video, e simili schemi di compressione video a basso bit rate.
VP3 è una tecnologia brevettata, ma On2 ha concesso in modo irrevocabile una licenza royalty free perpetua dei
brevetti collegati, permettendo al pubblico di usare Theora ed altri codec derivati da VP3 per qualsiasi uso senza
dover pagare diritti a On2. L'obiettivo di sviluppare un codec video esente da royalty ha posto delle limitazioni al
progetto che non ha potuto utilizzare alcune tecniche di compressione molto efficienti ma brevettate. Questo pone il
progetto dal punto di vista delle prestazioni nel segmento medio basso dei codec video, essendo simile come qualità
video a codec come l'→ MPEG-4 ASP e inferiore a sistemi come il H.264 il DivX e il VC-1.[1]
Theora è utilizzato per tutti i video di Wikipedia. Questo codec video è stato implementato nelle nuove versioni di
Firefox (3.5) e di Opera.
Nei flussi multimediali Ogg, Theora fornisce il layer video, mentre Vorbis è usato di solito come layer audio
(sebbene anche Speex e FLAC possano essere usati per l'audio).

Cronologia dello sviluppo


Theora è il nome del codec video che Xiph.Org ha rilasciato nella sua prima versione stabile, la 1.0 [2] .
Precedentemete sono state rilasciate sette versioni Alfa; sebbene questa denominazione denoti versioni non definitive
di sviluppo, il gruppo Theora ha già annunciato di aver fermato le modifiche al bitstream dal rilascio della Alfa 3,
dunque tutti i video clip prodotti da allora saranno correttamente decodificati dalle versioni successive, in conformità
alle specifiche Theora I.
Alfa uno
rilasciata il 25 settembre 2002
Alfa due
rilasciata per metà il 16 dicembre e per metà il 27 dicembre 2002
Alfa tre
rilasciata il 20 marzo 2004
Alfa quattro
rilasciata il 15 dicembre 2004
Alfa cinque
rilasciata il 20 agosto 2005
Alfa sei
rilasciata il 30 maggio 2006
Alfa sette
rilasciata il 20 giugno 2006
Beta
rilasciata il 1 ottobre 2007[1]
Ver 1.0
rilasciato il 3 novembre 2008
Ver 1.1
rilasciato il 24 settembre 2009[3]
Theora 87

Voci correlate
• Xiph.Org Foundation
• → Ogg

Collegamenti esterni
• (EN) Theora.org [4]
• (EN) Xiph.org Foundation [5]
• (EN) On2 Technologies [6]
• (EN) VP3.com [7]
• Elenco di video Theora [8] -- video scaricabili in formato Ogg Theora

Note
[1] Quasi pronta l'alternativa free a DivX (http:/ / punto-informatico. it/ p. aspx?i=2077274). Punto Informatico, 1-10-2007. URL consultato il
1-10-2007.
[2] La prima versione stabile di Theora (http:/ / punto-informatico. it/ 2466472/ PI/ News/ ecco-theora-10-alternativa-free-divx. aspx). Punto
Informatico, 7-11-2008. URL consultato il 7-11-2008.
[3] Theora 1.1, l'alternativa open a H.264 (http:/ / punto-informatico. it/ 2716448/ PI/ News/ theora-11-alternativa-open-h264. aspx). Punto
Informatico, 29-9-2009. URL consultato il 29-9-2009.
[4] http:/ / theora. org/
[5] http:/ / xiph. org/
[6] http:/ / on2. com/
[7] http:/ / vp3. com/
[8] http:/ / wiki. xiph. org/ index. php/ List_of_Theora_videos
88

Audio Digitale

Compressione audio digitale


La compressione audio è una tecnica che permette di ridurre le dimensioni di un file audio o la banda passante
richiesta per una trasmissione audio, anche di molto.
Un file è una sequenza di cifre binarie (bit) utilizzata come veicolo di informazione. Comprimere significa ridurre il
numero delle cifre che costituiscono la sequenza mantenendo l'informazione inalterata o in un intorno
dell'informazione originaria (ossia facendo in modo che la nuova informazione approssimi quella precedente).
I motivi della compressione sono:
• occupare minor spazio in fase di immagazzinamento
• impiegare minor tempo in fase di trasferimento dati.
Il costo è l'aumento dei tempi di lettura/scrittura legati rispettivamente a tempi di decompressione/compressione. Nel
caso di file audio si ha un costo anche in termini di qualità dell'audio.
Esistono due tipi di compressione:
• con perdita (lossy): quando l'informazione contenuta nel file compresso è minore di quella contenuta nel file di
origine
• senza perdita (lossless): quando l'informazione contenuta nel file compresso è identica a quella contenuta nel file
di origine
La prima permette compressioni maggiori, ma a scapito della qualità sonora.
Usando un algoritmo di compressione senza perdita, dal risultato della compressione si può riottenere tutta
l'informazione originaria. In questo caso la riduzione massima generalmente ottenibile, utilizzando algoritmi studiati
appositamente per l'audio è all'incirca del 60%, ma solo con alcuni tipi di suono. Si possono utilizzare gli stessi
algoritmi generali di compressione (come per esempio ZIP o Gzip) ma i risultati in termine di riduzione sono
inferiori.
Esempio: FLAC, APE, ALE

Compressione con perdita


Dal risultato della compressione audio con perdita non si può più ottenere un suono identico all'originale ma la
riduzione ottenibile è molto spinta: con rapporti di compressione di 10 a 1, il risultato è quasi indistinguibile
dall'originale ma ci si può spingere anche oltre a discapito della qualità.
Gli studi di psicoacustica hanno permesso di accertare che l'uomo non è sensibile nello stesso modo a tutte le
frequenze e che un suono ad alta intensità ne maschera uno con frequenza vicina ma intensità più bassa. Sfruttando
queste ed altre considerazioni, si può pensare di eliminare l'informazione che non verrebbe comunque percepita ed
ottenere quindi un buon rapporto di compressione.
Esempi:
• mp3 (MPEG-1 Layer III) è stato introdotto negli anni '80 ed è il più popolare. Essendo il più antico, è anche il
meno efficiente e spesso il peggiore in termini di qualità.
• Windows Media Audio (WMA) è molto diffuso sui sistemi Windows.
• Ogg Vorbis è un codec più efficiente dell'mp3 ed è open source (ossia liberamente distribuibile e modificabile)
Compressione audio digitale 89

• AAC è stato reso popolare dalla Apple. Apple's iTunes Music Store fa uso di file compressi con 128Kbps CBR
AAC e lo standard video MPEG4 raccomanda l'uso dell'AAC audio nei prossimi apparecchi e software.
• Dolby Digital (AC3) può comprimere fino a 6 canali audio, di cui 5 a piena larghezza di banda ed uno per gli
effetti a bassa frequenza (LFE), fino a 384 kbit/s. Viene utilizzato nei → DVD e nel sistema americano ATSC
DTV.
• MPC o Musepack è un formato opensource con una qualità maggiore dell'mp3 a parità di bitrate.

Bitrate
I file multimediali sono per loro natura connessi al tempo che scorre. In altri termini ad ogni secondo è associato un
certo contenuto informativo e quindi una certa sottosequenza di cifre binarie. Il numero di cifre binarie che
compongono queste sottosequenze è detto bitrate. In altre parole il bitrate è il numero di cifre binarie impiegate per
immagazzinare un secondo di informazione. Questo può essere costante per tutta la durata del file o variare
all'interno di esso. Ad esempio i cd musicali vengono campionati (registrati) ad una frequenza pari a 44.100Hz. Da
ciò si evince che ogni secondo si hanno 44.100 valori registrati dall'ipotetico microfono che vanno poi moltiplicati
per i 2 canali del suono stereo che vanno a loro volta moltiplicati per 2 poiché la registrazione avviene a 16 bit (pari
appunto a 2 byte). Quindi avremo:

44.100 x 2 x 2 x 60 (secondi) = ~10 MB ogni minuto

La compressione, diminuendo la lunghezza globale del file, diminuirà di conseguenza la lunghezza media delle
sottosequenze ossia diminuirà il bitrate medio. Il bitrate medio diventa dunque in questi casi l'indice dell'entità della
compressione. Ad esempio se il file di origine possedesse un bitrate di 1411 Kbit/s e il file compresso possedesse un
bitrate medio di 320 Kbit/s, allora avremmo ridotto di un fattore pari a circa 4.5.
Una compressione lossy effettua un compromesso fra la perdita d'informazione e la dimensione del file finale,
mentre una losless deve bilanciare la dimensione del file finale con i tempi di esecuzione dell'algoritmo.
MP3 90

MP3
Motion Picture Expert Group-1/2 Audio Layer 3
Estensione .mp3

Sviluppatore Istituto Fraunhofer

Tipo → Compressione audio digitale

Sviluppatore Istituto Fraunhofer

Tipo → Compressione audio digitale

→ Lossy / → Lossless Lossy

Licenza Formato brevettato, specifiche pubbliche

Sito web [1]


Istituto Fraunhofer

|+ style="text-align: center; font-size: larger; margin-left: inherit;" | MPEG 1 Audio Layer 3 MP3 (per esteso
Motion Picture Expert Group-1/2 Audio Layer 3, noto anche come MPEG-1 Audio Layer 3) è un algoritmo di
compressione audio di tipo → lossy in grado di ridurre drasticamente la quantità di dati richiesti per memorizzare un
suono, rimanendo comunque una riproduzione accettabilmente fedele del file originale non compresso.

Storia
La codifica MPEG-1/2 Layer 2 iniziò come progetto presso la DAB e
promosso dalla Fraunhofer IIS-A. Venne finanziato dall'Unione
europea come parte di un programma di ricerca più vasto chiamato
EUREKA comunemente conosciuto con il codice EU-147.
EU-147 fu attivo dal 1987 al 1994. Nel 1991 vennero fatte due
proposte per uno standard disponibile: Musicam (conosciuto come
Layer II) e ASPEC (Adaptative Spectral Perceptual Entropy Coding)
(con analogie con l'MP3). Venne scelto Musicam perché più semplice
Una delle sedi del Fraunhofer Institute
ed affidabile.
Un gruppo di lavoro condotto da Karlheinz Brandenburg e Jürgen Herre fece confluire gli studi su Musicam e
ASPEC con alcune loro idee e creò l'MP3, che fu progettato per realizzare la stessa qualità a 128 kbit/s dell'MP2 a
192 kbit/s.
Entrambi gli algoritmi furono completati nel 1992 con la sigla MPEG-1, come prima fase di sviluppo del progetto
denominato MPEG e definito come standard internazionale con il codice ISO/IEC 11172-3 e pubblicato nel 1993.
Un'ulteriore fase del progetto MPEG Audio si concluse nel 1994 con la creazione dell'MPEG-2 definito come
standard internazionale con il codice ISO/IEC 13818-3 e pubblicato nel 1995.
L'efficienza di un algoritmo di compressione è tipicamente giudicata dal bitrate finale che riesce ad ottenere, mentre
la metrica del tasso di compressione, che sembrerebbe più naturale, dipende sia dalla frequenza che dal numero di bit
del segnale in ingresso. Ciononostante, vengono comunemente comunicati tassi di compressione che utilizzano i CD
come riferimento, uno dei più comuni è quello a 44.1 kHz e 2x16bit. Qualche volta vengono utilizzati anche
parametri DAT SP (48KHz, 2x16bit). Il tasso di compressione in questo sistema di riferimento è maggiore, il che
dimostra le difficoltà nel definire il termine compressione come perdita di qualità nella codifica. Karlheinz
Brandenburg ha utilizzato il CD di Suzanne Vega, "Tom's Diner" come modello di riferimento dell'algoritmo di
MP3 91

compressione per l'MP3. Questo CD è stato scelto per la sua dolcezza e semplicità, rendendo facile l'ascolto di
qualsiasi imperfezione che la compressione può causare durante la registrazione.
La pagina web ufficiale pubblica i seguenti tassi di compressione per l'MPEG-1 Layer 1,2 e 3.
• Layer 1: 384 kbit/s, compressione 4:1
• Layer 2: 192...256 kbit/s, compressione 6:1...8:1
• Layer 3: 112...128 kbit/s, compressione 10:1...12:1
Questi sono valori piuttosto aleatori in quanto:
• La qualità dipende non solo dal formato di codifica del file, ma anche dalla qualità psico acustica del codificatore.
Il codificatore tipico layer 1 usa un modello psicoacustico molto elementare che finisce per richiedere molti più
bit per un risultato soddisfacente.
• La codifica Layer 1 a 384 kbit/s, anche con questo semplice "psico acustico" è migliore della codifica Layer 2 a
192 … 256 kbit/s.
• La codifica Layer 3 a 112 … 128kbit/s è peggiore del Layer 2 a 192 … 256 kbit/s
Un modo più realistico per considerare il bitrate è:
• Layer 1: eccellente a 384 kbit/s
• Layer 2: eccellente a 256...320 kbit/s, molto buono a 224...256 kbit/s, buono a 192...224 kbit/s, non si dovrebbe
usare sotto i 160 kbit/s
• Layer 3: eccellente a 224...256 kbit/s, molto buono a 192...224 kbit/s, buono a 160...192 kbit/s, non si dovrebbe
usare sotto i 128 kbit/s
Il confronto di un nuovo formato di file, viene fatto confrontando la qualità media di compressione del nuovo
formato con un encoder di alta qualità e molto ottimizzato, del vecchio formato.
L'algoritmo che utilizza il formato MP3, si basa su una trasformazione ibrida che trasforma il segnale dal dominio
temporale a quello delle frequenze.
• 32 band filtro in quadratura polifase
• 36 or 12 Tap MDCT, la dimensione può essere selezionata indipendentemente dalla sottobanda 0...1 e 2...31
• processamento addizionale per ridurre gli effetti di aliasing
L'AAC → MPEG-4, è il formato erede dell'MP3 sempre secondo le specifiche MPEG. Tra i successori del formato
MP3 è degno di nota l'Ogg Vorbis per la qualità di codifica e per il fatto di essere un progetto Free Software. Quasi
tutti gli altri formati sono legati a delle aziende proprietarie di diverse brevetti e licenze legate alle specifiche MPEG.
La diffusione del formato MP3 e di software gratuiti (come Winamp) apportarono una piccola rivoluzione nel
mondo della musica, la diffusione delle playlist. In precedenza le canzoni di successo erano attentamente intercalate
ai motivi meno riusciti nei CD e nelle audiocassette che si potevano ascoltare solamente nell'ordine studiato dal
produttore. Con l'avvento dei supporti digitali questo non accade più ed è possibile una maggiore personalizzazione.

Qualità del formato MP3 audio


Molti ritengono di qualità accettabile per il formato MP3 il bitrate di 128 kilobits al secondo, qualità che si avvicina
a quella di un CD. Questo bitrate è il risultato di un tasso di compressione che si avvicina al rapporto di 11.02:1.
Tuttavia test di ascolto mostrano che, attraverso un po' di pratica, molti sono in grado di distinguere un formato MP3
a 128 kbit/sec da un CD originale. Per molti altri, 128 kbit/s è una qualità di ascolto bassa, da un'analisi condotta
dalla rivista SUONO, l'opinione dei conduttori al termine della prova, risulta che solo a 256 kbit/s si può parlare di
alta fedeltà.
Possibili codificatori
• codice di riferimento ISO dist10: è la qualità peggiore; file MP3 difettoso (tutti i blocchi audio sono marcati come
difettosi)
MP3 92

• Xing: principalmente basato sul codice ISO, qualità simile all'ISO dist10.
• Blade: qualità simile all'ISO dist10
• FhG: Alcune di loro sono buone, ma altre hanno gravi difetti.
• ACM Producer Pro: Alcune versioni generano dei disturbi fastidiosi
• L.A.M.E (è un acronimo ricorsivo, per "Lame Ain't MP3 Encoder", letteralmente "Lame non è un codificatore
MP3", iniziò come una patch dimostrativa GPL che modificava l'originale codificatore dist10 ISO, realizzata da
Mike Cheng all'inizio del 1998, ed era quindi incapace di produrre file MP3 per conto suo o di essere compilato
separatamente. Nel maggio 2000 gli ultimi resti del codice sorgente ISO furono sostituiti conferendo così al
codice sorgente LAME piena funzionalità come codificatore LGPL MP3, in grado di competere con i principali
codificatori presenti sul mercato. Lame development at Sourceforge [2].
Nel sito [3] è possibile trovare un front end di Windows per il codificatore LAME (il "popolo" di JTHZ.com utilizza
LAME dal 1998).
La qualità di un file MP3 dipende dalla qualità della codifica e dalla difficoltà con la quale il segnale deve essere
codificato. Buoni codificatori hanno una qualità accettabile da 128 a 160 kbit/s, la chiarezza perfetta di un brano si
ottiene da 160 a 192 kbit/s. Un codificatore che ha bassa qualità lo si riconosce ascoltando persino un brano a 320
kbit/s. Per questo non ha senso parlare di qualità di ascolto di un brano di 128 kbit/s o 192 kbit/s. Una buona codifica
MP3 a 128 kbit/s prodotta da un buon codificatore produce un suono migliore di un file MP3 a 192 kbit/s codificato
con uno scarso codificatore.
Una caratteristica importante dell'MP3 è la → perdita di dati dovuta alla compressione – è il modo con cui si
rimuove l'informazione dal file audio originale allo scopo di risparmiare spazio. Nei moderni codificatori MP3 gli
algoritmi più efficaci fanno di tutto per assicurare che i suoni rimossi siano quelli che non possono essere rilevati
dall'orecchio umano. Questo risultato è stato ottenuto anche grazie alla scienza della psicoacustica.
Tuttavia molti ascoltatori sono in grado di riconoscere la differenza confrontando un CD originale con un formato
MP3 da 192 kbit/s e persino a 256 kbit/s di alcuni codificatori meno potenti e più obsoleti. Se il vostro scopo è di
memorizzare file audio con una fedeltà massima indirizzatevi su un compressione audio del tipo FLAC, SHN, o
LPAC. Questi generalmente comprimono un file audio PCM a 16-bit approssimativamente dal 50 al 75%
dell'originale (questo dipende dalla caratteristiche del file audio stesso).

Bit rate
Il bit rate è il numero di unità binarie che fluiscono al secondo ed è variabile per i file MP3. La regola generale è che
maggiore è il bitrate, più informazione è possibile includere dall'originale, maggiore è la qualità del file audio
compresso. Attualmente per le codifiche dei file MP3 fissano un tasso di compressione equivalente per tutto il file
audio.
Per l'MPEG-1 layer 3 i bitrate disponibili sono: 32, 40, 48, 64, 80, 96, 112, 128, 160, 192, 224, 256 e 320 kbit/s (
bits per secondo), e le frequenze campionate disponibili sono 32, 44.1 e 48 Khz. La frequenza di
campionamento a 44.1 kHz è quasi sempre utilizzata per i CD audio, mentre i 128 Kbit/s come una sorta di bitrate
standard "abbastanza buono". L'MPEG-2 e l'MPEG-2.5 (non-ufficiale) contemplano un numero maggiore di bitrate:
8, 16, 24, 32, 40, 48, 56, 64, 80, 96, 112, 128, 144 e 160 kbit/s
I file MP3 audio sono suddivisi in settori ("chunks" in inglese) chiamati frames, ("fotogrammi" in italiano). Ognuno
di questi settori è provvisto di un marcatore del tasso di compressione; in questo modo, mentre il file audio viene
riprodotto, è possibile modificarlo dinamicamente. Questa tecnica rende possibile utilizzare più bit per la parte del
suono ad alta dinamica (suoni più complessi) e meno bit per la parte a bassa dinamica (suoni meno complessi).
MP3 93

Individuazione dei difetti nei file MP3


Vi sono diversi difetti nel formato dei file MP3, che non possono essere individuati neanche dal migliore dei
codificatori e sono insiti nelle caratteristiche stesse del formato (In parentesi il formato file dove questo difetto viene
corretto).
• Un tempo di risoluzione troppo basso per un segnale transiente molto alto (AAC, Ogg Vorbis)
• ritardo complessivo di codifica/decodifica non definito (Ogg Vorbis)
• nessun fattore di banda per frequenze sotto i 15.5/15.8 kHz (AAC, Ogg Vorbis)
• Il collegamento stereo è fatto sulla base di un frame, o "fotogramma" (AAC, Ogg Vorbis)
• Il bitrate è limitato a 320 kbit/s (AAC, Ogg Vorbis)

Codificatori di file MP3 audio


Lo standard MPEG-1 non definisce specifiche precise per i codificatori MP3. L'algoritmo di decodifica e il formato
del file, invece sono definiti molto bene. Si presume che il creatore dello standard abbia escogitato un algoritmo per
rimuovere appropriate parti di informazioni da un file originale, o piuttosto una rappresentazione in dominio di
frequenza (MDCT). Questo processo si basa tipicamente sulla codifica psico acustica, ossia vengono rimossi quei
suoni che l'orecchio umano non è in grado di percepire sia mediante l'orecchio che il cervello.
Come risultato, vi sono molti codificatori MP3 differenti, ognuno in grado di riprodurre file di qualità differente; al
30 settembre 2001 il migliore codificatore ad alto bitrate (128 kbit/s e superiori) è LAME [2]. Per i bitrate più bassi il
miglior codificatore è il Fraunhofer, ma vi sono diverse opinioni. La decodifica MP3, è tuttavia ben definita da uno
standard. Molti decodificatori sono "bitstream compliant", ossia sono in grado di riprodurre esattamente un brano
dello stesso file MP3 non compresso.

ID3
L'ID3 tag è una classificazione dei formati che permettono l'inserimento, nel file MP3, della descrizione, del titolo,
dell'artista e dell'album, o il numero della traccia.

Alternative all'MP3
Vi sono molti altri codec audio alternativi all'MP3:
• Ogg Vorbis dalla Xiph.Org Foundation, libero da brevetti;
• mp3PRO dalla Thomson Multimedia;
• MPEG-1/2 Audio Layer 2 (MP2), predecessore dell'MP3;
• MP+, una derivato dell'MP2;
• → MPEG-4 AAC, utilizzato da LiquidAudio e Apple Inc. nell'iTunes Store;
• ATRAC, usato dai Minidisc della Sony;
• AC-3, usato dalla Dolby Digital per i → DVD;
• QDesign, usato da QuickTime per alti bitrate;
• Windows Media Audio (WMA) da Microsoft;
• RealAudio da RealNetworks.
mp3PRO, MP3, AAC, e MP2 sono tutti membri della stessa famiglia tecnologica e si basano su modelli
psicoacustici simili.
Il Fraunhofer Gesellschaft è proprietario di alcune licenze di codec: Dolby Labs, Sony, Thompson Consumer
Electronics, mentre AT&T possiede altri brevetti. Su Internet si trovano altri metodi di compressione privi di perdite.
Pur non essendo simili all'MP3, essi sono buoni esempi di altri metodi di compressione disponibili:
• SHN
MP3 94

• FLAC
• Monkey's Audio (APE)
Il formato MP3 fu progettato per essere utilizzato in parallelo al formato Video MPEG-1/2, e per questo non in grado
di riprodurre adeguatamente i suoni al di sotto dei 48 kbit/s (mono) o degli 80 Kbit/s (stereo).
Nonostante alcuni fautori di codec più recenti come WMA, mp3PRO e RealAudio affermino che i loro rispettivi
algoritmi sono in grado raggiungere una qualità CD già con 64 kbit/s, i test di ascolto cieco sembrano smentirli. Va
comunque apprezzata l'indiscussa superiorità di questi e altri formati su MP3 a pari larghezza di banda impiegata.
Tra gli altri, la Xiph.Org Foundation, sviluppatrice dell'algoritmo Vorbis utilizzato assieme al container multimediale
→ Ogg, in supporto al proprio formato di compressione Free Software, fornisce in una pagina web [4] dei test di
ascolto comparato tra diversi formati audio.

Licenze e brevetti
La Thomson Consumer Electronics è proprietaria del brevetto
MPEG-1/2 Layer 3 in U.S.A. e in Giappone. La Microsoft, che ha
progettato il sistema operativo Windows, ha scelto di creare il proprio
formato proprietario WMA invece di utilizzare l'MP3, in questo modo
evita di dover pagare le relative royalties.
Per informazioni sui costi vedere: [5] e [6].
Sotto la presidenza di Mario Monti, l'antitrust europeo multò Microsoft
per abuso di posizione dominante con il massimo della sanzione, il
10% del fatturato. Microsoft fu costretta ad abilitare l'installazione su Un lettore MP3
Windows di lettori audio diversi dal nativo Windows Media Player,
venduto insieme al sistema operativo. Questi software permettevano di ascoltare l'mp3 e altri formati diversi dal
".wma": alla fine, lo stesso software "Windows Media Player" è stato modificato per la lettura di molti codec e la
loro masterizzazione, fra i quali c'è l'mp3.

Nonostante queste scelte, il formato MP3 continua ad essere ampiamente utilizzato. Vediamo perché:
• Ormai la maggior parte degli utenti ha familiarità con il formato
• La maggior parte della musica disponibile è in formato MP3
• Una grande varietà di software e di hardware hanno ottenuto dei notevoli vantaggi da questo formato,
rivoluzionando l'industria musicale e le leggi sul copyright.
• Assenza di controlli sulla copia e distribuzione. Assenza di DRM (Digital Rights Management)
• L'mp3 è un file generalmente poco pesante rispetto a molti altri formati. Tuttavia è superato nel rapporto
qualità/bitrate sia da WMA che da Ogg Vorbis , AAC. Fornisce una qualità audio più che buona con file che
occupano da 3 ai 5 MB (MegaByte), per una tipica canzone di 5 minuti compressa ad un bitrate di 128
kbit/secondo. Ciò consente il download di singoli brani anche ad utenti che non hanno una connessione ADSL, di
memorizzare parecchie ore di musica nei lettori Multimediali.
• La rivoluzione dell'mp3 sta nel fatto che i modelli psicoacustici usati per la codifica del flusso audio sfruttano il
fenomeno del mascheramento. L'orecchio umano infatti non è in grado di percepire determinati suoni sovrapposti.
In questo modo viene codificata minore informazione, senza disturbare però la qualità percettiva.
MP3 95

Voci correlate
• Lettore MP3
• Bit rate

Collegamenti esterni
• MP3 [7] su Open Directory Project ( Segnala [8] su DMoz un collegamento pertinente all'argomento "MP3")

Note
[1] http:/ / www. iis. fraunhofer. de/ amm/ techinf/ layer3/
[2] http:/ / lame. sourceforge. net/
[3] http:/ / jthz. com/ mp3
[4] http:/ / www. xiph. org/ vorbis/ listen. html
[5] http:/ / www. mp3licensing. com/ help/ developers. html
[6] http:/ / www. mp3licensing. com/ royalty/ index. html
[7] http:/ / www. dmoz. org/ Computers/ Multimedia/ Music_and_Audio/ Audio_Formats/ MP3/
[8] http:/ / www. dmoz. org/ cgi-bin/ add. cgi?where=Computers/ Multimedia/ Music_and_Audio/ Audio_Formats/ MP3/
96

Diffusione del Video Digitale

HDTV
La televisione in alta definizione, in sigla
HDTV (acronimo dell'analogo termine
inglese High Definition TeleVision), o anche
semplicemente alta definizione, è la
televisione con → video di qualità
significativamente superiore a quello degli
standard televisivi maggiormente diffusi nel
mondo nella seconda metà del XX secolo e
ancora oggi molto diffusi, standard televisivi
che rientrano nella SDTV. È in altre parole
un termine che sta ad indicare
genericamente un livello qualitativo
dell'immagine televisiva.
Un'immagine televisiva ad alta definizione mostrata da un videoproiettore.
A differenza della SDTV, in cui il rapporto
d'aspetto è sia nel tradizionale formato 4:3
che in quello widescreen 16:9, l'alta definizione moderna prevede standard unicamente in 16:9.

Caratteristiche tecniche
Un fotogramma del sistema televisivo PAL (Europeo) è composto da 2 semiquadri (field) di 312,5 linee cadauno.
Nel primo semiquadro, vengono riprodotte le linee dispari, sul secondo le linee pari. Il segnale è quindi composto da
25 fotogrammi al secondo, pari a 50 semiquadri. Ogni linea orizzontale ha una durata di 64 microsecondi (15625
Hz), 53 dei quali sono utilizzati come parte attiva (quindi riproducono il segnale video), mentre i restanti 11
microsecondi sono utilizzati come segnale di sincronismo orizzontale. Lo stesso accade nei semiquadri, infatti solo
576 linee, sono da ritenersi attive, le rimanenti costituiscono l'insieme del sincronismo verticale. La risoluzione
orizzontale del fotogramma non è applicabile in termini di → pixel al video analogico, dove ogni riga è composta da
un segnale modulato analogico, quindi continuo, ma la sua risoluzione è in funzione della frequenza di trasmissione
di questo segnale; più la banda sarà ampia, più informazioni si possono trasmettere in ciascuna linea. Il segnale a
standard PAL ha una larghezza di banda di oltre 7 MHz, ma in realtà la scarsa qualità dei ricevitori TV commerciali
(e la pessima qualità degli impianti di ricezione via antenna) ha fatto col tempo ritenere che un segnale di qualità
adatto alla trasmissione ha una banda di 5 MHz, sufficienti per risolvere circa 400 linee. Questo è il massimo teorico
che può essere trasmesso con la codifica PAL, anche se la qualità ottenibile realmente è inferiore. Se la sorgente è
digitale, lo standard di campionamento prevede invece 720 pixel sull'asse orizzontale. L'evoluzione dell'informatica,
molto più rapida rispetto al broadcasting, ha fatto sì che agli standard TV si affiancassero standard per PC sempre
più performanti fino a far diventare gli standard informatici la punta di diamante degli standard video ad Alta
Definizione. Oggi conviene ragionare in termini di standard "nK" dove n è il numero di migliaia di pixel lungo l'asse
orizzontale.
HDTV 97

Formati video
Lo standard HDTV, all'inizio delle ricerche negli anni '80 del XX secolo, si
riteneva dovesse offrire una risoluzione "doppia" del PAL, quindi 1250 righe
non tutte attive (le attive si riducevano a 575 x 2 = 1.150, il che comportava, a
16/9, una risoluzione orizzontale di 2.040 pixel); tuttavia per ragioni
commerciali la dizione "Alta Definizione" è stata via via estesa nei decenni a
standard sempre meno performanti, fino a includere nell' "Alta Definizione"
standard con prestazioni effettive minori di un segnale PAL ricevuto con
apparati professionali. Quindi gli attuali standard 2K in realtà stanno
realizzando l'HDTV "effettiva" pensata 30 anni fa.

Oggi la tecnologia HDTV comprende quattro formati video, che differiscono


sia per la risoluzione effettiva che per le modalità di scansione dell'immagine.
• Il formato 720p, comunemente chiamato HD ready (i televisori che lo
supportano riportano il logo HD ready, cioè "pronto per l'alta Evidenziazione pubblicitaria per i cento
canali in alta definizione della rete
definizione"), presenta una risoluzione complessiva di almeno 921.600
televisiva DirectTV
pixel (1280×720) con scansione progressiva, ovvero per ciascun ciclo di
trasmissione di un fotogramma (50 o 60 Hz a seconda dei Paesi) viene
trasmesso l'intero quadro dell'immagine. Ogni aggiornamento coinvolge tutte le 720 linee e i 921.600 pixel dello
schermo. Nel caso di schermo al plasma con pixel non-quadrati è HD ready anche la risoluzione complessiva di
786.423 pixel (1024x768).

• Il formato 1080i, presenta una risoluzione complessiva di 2.073.600 pixel (1920×1080) con scansione
interlacciata, ovvero per ciascun ciclo viene trasmesso un semiquadro formato alternativamente dalle sole linee
pari o dispari dell'immagine. Quindi ogni aggiornamento coinvolge 540 righe e 1.036.800 pixel.
• Il formato 1080p, comunemente chiamato FULL HD, è il più recente dei tre ed equivale alla versione con
scansione progressiva del 1080i, per cui ogni aggiornamento coinvolge tutte le 1080 linee e i 2.073.600 di pixel
dello schermo, ma di solito è a 24Fps, la velocità della pellicola cinematografica.
Sono previsti formati 1080p a 50 e 60 fps, ma attualmente non sono di uso pratico, solo alcune telecamere e
registratori possono riprendere e registrare così tanti dati.
• Esiste anche un formato HR.HDTV (Half Resolution High Definition TV) con risoluzione pari di 960x540 ovvero
l'esatta metà della definizione FULL HD (1920x1080) che tuttavia non è uno standard ufficiale né un formato
nativo. L'HR.HDTV si ottiene dal downscaling di materiale ad alta definizione. Questo formato non viene usato
da alcuna emittente televisiva per trasmissioni TV ma soltanto per la creazione di file video Xvid. http://en.
wikipedia.org/wiki/High-Resolution_High-Definition
Gli standard a 1035 linee di scansione, in uso soprattutto in Giappone, sono stati abbandonati.
Va evidenziato che, per loro stessa natura, gli schermi LCD e plasma visualizzano comunque qualunque segnale
video in modalità progressiva, sia che originariamente sia interlacciato, sia che sia già progressivo.
HDTV 98

Confronto tra i vari formati video

Per confronto, nelle riprese cinematografiche si gira a 24 fotogrammi al secondo (in pellicola) con l'utilizzo di un
otturatore a due pale che, con una frequenza doppia di 48 cicli al secondo, in proiezione copre le interlinee e i
passaggi tra un fotogramma e l'altro. Le telecamere di ripresa elettroniche (o quelle digitali) invece hanno cicli di 25
fotogrammi al secondo. Le emittenti televisive tradizionali trasmettono in scansione interlacciata 25 fotogrammi al
secondo per il sistema PAL e 30 per il sistema NTSC, quest'ultimo ha una risoluzione inferiore al precedente. [1]
La qualità relativa dei due formati HD ready è legata, oltre che a considerazioni soggettive (preferenza verso una
maggiore stabilità dell'immagine o verso una maggiore risoluzione), ai contenuti del segnale trasmesso. Le scene con
movimenti più rapidi e frequenti possono beneficiare della maggiore rapidità di aggiornamento del formato 720p,
mentre le scene statiche possono trarre vantaggio dalla maggiore ricchezza di dettagli del formato 1080i. Di fatto il
sistema progressivo elimina i difetti di fermo immagine soprattutto durante la fase di montaggio.
La definizione dei programmi HDTV è circa 4 volte superiore a quella del formato → DVD e nonostante la buona
efficienza di compressione offerta dall'→ MPEG-4, lo spazio richiesto per la loro archiviazione è comunque
rilevante. Per quanto i supporti ottici Blu-ray (lo standard HD DVD è stato abbandonato) di ultima generazione
offrano una capacità che può arrivare a 50 GB e oltre, questa sarebbe appena sufficiente per 2 ore di filmato ad alta
definizione con la codifica DVD. D'altra parte, l'uso di codec avanzati quali H.264 (MPEG-4 Part 10) consentirà la
trasmissione della qualità piena con bitrate abbastanza bassi, fino a scendere agli 8 Mbit di banda passante
disponibile sui ricevitori DTT. Questi codec vengono utilizzati anche dai lettori HD DVD e Blu-ray per abbassare la
banda passante richiesta permettendo la memorizzazione fino a 8 ore di video su supporti Blu-ray a più strati.
A partire dai primi mesi del 2009 sono presenti sul mercato televisori in grado di supportare il formato 1080p (Full
HD con scansione progressiva), anche con frequenza di ripetizione di 200 Hz.
HDTV 99

Confronto dei particolari


A parità di altezza dello schermo, i sistemi ad alta definizione offrono una qualità nettamente superiore per via della
dimensione dei → pixel nettamente inferiore, come si può notare dalle immagini sottostanti.

In questo caso infatti un pixel dello standard


FULL HD ha il 28,4% dell'area di un pixel dello
standard PAL, avendo un lato che equivale al
53,3% del lato di quest'ultimo. Per un pixel dello
standard HALF HD (HD READY) le percentuali
diventano il 64% per l'area e l'80% per il lato.

Altri fattori importanti per la qualità


Esistono sul mercato diverse tipologie di
telecamere che si differenziano per la risoluzione
che utilizzano per la registrazione (720p e 1080i
tra le più comuni) ma un altro fattore importante
per determinare la qualità di una registrazione
digitale è il Bitrate, ovvero la quantità di bit
utilizzati per memorizzare ogni fotogramma del filmato; per gli apparecchi di classe domestica si aggira intorno ai
12/15 Mb/s utilizzando lo standard di registrazione/compressione MPEG-2.

Il sistema di connessione con cui è possibile connettere una videocamera o un lettore al monitor o al videoproiettore
si differenzia tra SDI e Component HD. Nei sistemi di montaggio non-lineare è possibile utilizzare lo standard
Firewire.

Come sfruttare l'HDTV


I notevoli miglioramenti dell'alta definizione sono apprezzabili solo se si possiede un intero set HDTV, vale a dire
sia televisore che decoder per ricevere le trasmissioni ad alta definizione trasmesse dalle emittenti televisive, o un
lettore ottico di dischi ad alta definizione come dal 2006 sono il Blu-ray e HD DVD. In caso contrario, se si tentasse
cioè di visualizzare un contenuto HDTV con un televisore tradizionale, non si noterebbero miglioramenti nella
definizione, in quanto il vantaggio fondamentale dell'alta definizione risiede proprio nella maggiore risoluzione del
segnale video, circa quattro volte quello di un normale DVD.
C'è decisamente poca chiarezza nella maggior parte dei produttori circa le effettive caratteristiche tecniche di un
televisore che abbia supporto all'alta definizione. Non è detto che un display di elevata diagonale, con tecnologia
TFT o plasma, sia una soluzione HD. Per dare un minimo di sicurezza al consumatore, esistono i sigilli "HD ready",
HDTV 100

"HD TV", "FULL HD 1080p" ed "HD TV 1080p", stabiliti dalla EICTA (European Information, Communications
and Consumer Electronics Industry Technology Association), che in teoria dovrebbero dare la garanzia che un
televisore sia in grado di visualizzare contenuti HD (ma nei negozi si sono visti televisori con questo sigillo, le cui
caratteristiche tecniche non lo permettono). Il sigillo HD Ready dovrebbe garantire che il televisore:
• abbia una risoluzione verticale fisica di almeno 720 righe
• disponga di (almeno) una presa analogica YUV (→ Component)
• disponga di (almeno) una presa digitale (DVI o HDMI) protetta dal sistema HDCP
• sia in grado di visualizzare contenuti con i formati 720p e 1080i.
Viceversa né "HD Ready" né "HD Ready 1080p" garantiscono che l'apparecchio riceva via etere o satellite stazioni
televisive in HD (720p o 1080i): per questa caratteristica il sigillo deve essere "HD TV" o "HD TV 1080p".

Cenni storici e prossimi sviluppi


Nel corso della storia, la sigla HDTV è stata usata più volte per indicare sistemi all'avanguardia con una risoluzione
via via sempre maggiore. In ambito analogico, il riferimento è sempre stato costituito dal numero delle righe di
scansione. Si possono indicare come HDTV i sistemi a 60 linee del 1925 e quello inglese a 240 linee del 1935,
definito precisamente come HDTV dal governo britannico. Anche un sistema sperimentale americano a 441 linee fu
presentato come HDTV nel 1939.
Dopo il secondo conflitto mondiale, il sistema francese a 819 linee fu utilizzato per alcuni anni in Francia e in Belgio
e non più utilizzato dal 1968, per la difficile compatibilità nei televisori a colori e con gli altri sistemi 625/25
continentali. [2] .
In tempi recenti, il termine HDTV viene usato per indicare i sistemi a 720, 1035 e 1080 linee.
In Giappone, la ricerca sull'alta definizione iniziò nel 1968, quando il Dr. Takashi Fujio, direttore dei Laboratori di
Ricerca della NHK, l'ente televisivo pubblico giapponese, ritenne che la tecnologia televisiva, ancorché analogica,
avesse raggiunto sufficiente maturità per passare dal tradizionale "piccolo schermo" al grande schermo
cinematografico. Diede quindi avvio ad una ricerca per un sistema di "electronic film", basato su immagini a
definizione più elevata di quella consentita allora dai sistemi televisivi. Si conviene che l'immagine deve:
• essere composta da più di 1000 righe attive
• avere un rapporto base/altezza di almeno 5:3 (widescreen)
In tali condizioni, uno spettatore in grado di osservare lo schermo sotto un angolo orizzontale >40° perde la
percezione del suo bordo e vive con più partecipazione la vicenda raccontata (effetto cinema).
Nel 1980 La NHK mette a punto il sistema Hi-Vision analogico a 1125 righe (totali), formato 5:3, 60 semiquadri/s
1125/60i/5:3 (1.66:1, corrispondente al formato dello European Widescreen e della variante minima dello Vista
Vision). Si costruiscono anche prototipi di una telecamera, un videoregistratore, un tape-to-film transfer, un
film-to-tape transfer (telecinema).
Nel novembre 1981, con le prime riprese sperimentali eseguite a Venezia, la RAI inizia, insieme alla NHK ed alla
CBS, una sperimentazione del sistema Hi-Vision. Installati tali prototipi su un mezzo di ripresa, produce a Venezia
"Arlecchino", una breve fiction con regia di Giuliano Montaldo e luci di Vittorio Storaro.
Nel 1981 la SMPTE crea l'HDTV Electronic Production Working Group che sancisce il sistema analogico
1125/60i/16:9 SMPTE 240M.
Nel 1983 la Sony produce i primi apparati di produzione in HD con lo standard 1125/60i/5:3 (1125 linee di
definizione/scansione 60hz/aspect ratio 5:3); si tratta della linea HDVS: camera HDC-100, videoregistratore
HDV-100, tape-to-film transfer EBR, mixer video HDS-100 e videoproiettore HDI-120. Per sperimentarli, la RAI
produce la mini-fiction "Oniricon" con regia di Enzo Tarquini, il tutto in preparazione della produzione di un vero
film.
HDTV 101

Nel 1987 la NHK irradia le prime trasmissioni analogiche in HDTV via satellite utilizzando il sistema di
compressione analogica MUSE (Multiple Sub-nyquist sampling Encoding). Lo stesso anno la RAI, in co-produzione
con la CBS e la United Artists, produce "Julia & Julia" il primo film elettronico al mondo, con Sting e Kathleen
Turner, luci di Giuseppe Rotunno, regia di Peter Del Monte. In tale produzione viene impiegata la video-camera
Sony HDC-300 di 2ª generazione con prestazioni più cinematografiche, risultato delle prime sperimentazioni. Lo
standard HD è sempre Hi-Vision 1125/60/i però col definitivo formato di immagine 16:9 (5.33:3 / 1.78:1); da qui in
poi si utilizzerà il protocollo SMPTE SMPTE 240M (1125/60i/16:9).
la Commissione Europea (ECC), con la approvazione dei 12 paesi membri, lancia il progetto Eureka 95 (EU-95) per
una HDTV europea col nuovo standard analogico 1250/50i/16:9 (1250linee / 50hz / aspect ratio 16:9).
Partecipano al progetto broadcaster (BBC, ARD, RAI, RTVE, ORF, …) e costruttori (Philips, Thomson, BTS,
Seleco, Nokia, etc.). Alla Riunione Plenaria del CCIR (tenuta nel maggio 1986 a Dubrovnik), la battaglia fra i due
standard, quello giapponese (1125/60i/16:9) sostenuto dagli USA, e quello europeo (1250/50i/16:9) si traduce in un
pareggio. Nel 1987 l'industria europea produce apparati di produzione HD anche con lo standard analogico
1250/50i16:9: camera BTS KCH-1000, videoregistratore BTS BCH-1000. Anche la Thomson produce camere HD e
per registrare usa coppie di VTR digitali D1. L'italiana Seleco produce il videoproiettore HDFP-1250 tritubo CRT
interamente europeo. Per sperimentarli, i broadcaster europei realizzano molte riprese (fiction, documentari,
concerti, sport) diffondendole via satellite a più punti di visione in occasione di mostre, congressi e presentazioni con
il sistema analogico di compressione HD-MAC.
Nel 1987 RAI produce "Un bel dì vedremo", la sua prima mini-fiction col sistema europeo analogico 1250/50i/16:9.
Seguono negli anni successivi altre produzioni sperimentali: "Capitan Cosmo" con Walter Chiari, "Allegro con
brio", "Incontrando Robot", "Il cielo in una stanza". Nel 1990 un consorzio formato da RAI, Telettra, RTVE e
Politecnico di Madrid, nell'ambito del progetto europeo EUREKA 256 (EU-256), mette a punto un sistema di
compressione digitale HDTV basato sull'algoritmo DCT (Discrete Cosine Transform), da cui nascerà cinque anni più
tardi lo standard di compressione MPEG-2.
Il sistema viene dimostrato durante i Mondiali di Calcio Italia 1990 diffondendo ad 8 sale di visione italiane le
immagini in alta definizione riprese nei campi di calcio con i sistemi HDTV 1125/60i/16:9 e 1250/50i/16:9 e
trasmesse via satellite Olympus. I grossi gruppi industriali europei capiscono l'importanza della compressione
digitale, ma non sono ancora pronti: nel progetto europeo EU-95 si prosegue con l'impiego della compressione
analogica col sistema HD-MAC, mentre il gruppo Alcatel acquista dalla FIAT la Telettra e trasferisce nelle sue
fabbriche americane lo studio della compressione digitale. Il sogno RAI si arresta bruscamente.
Sempre nel 1990 la CEE crea Vision-1250 con lo scopo di fornire un sostegno tecnico-produttivo in 1250/50i/16:9 a
broadcaster e produttori europei. I costruttori Thomson, Philips e BTS, oltre a Seleco ed altre ditte europee,
forniscono gli apparati necessari alla creazione di una "flotta di ripresa" Vision-1250, forte di circa 20 mezzi
attrezzati. Altri mezzi di ripresa vengono messi in campo dai broadcaster europei (RAI, BBC, SFP, RTVE, WDR,
BR, YLE, ecc.), con uno sforzo considerevole del mondo tecnico europeo.
Il 1992 è l'anno dei XVI Giochi olimpici invernali ad Albertville e dei Giochi della XXV Olimpiade a Barcellona.
Per entrambi Vision 1250 ed NHK effettuano una copertura HDTV con i rispettivi sistemi. Ma nubi dense si stanno
addensando sul neonato progetto EU-95 per il sistema HDTV 1250/50i/16:9. Dopo le Olimpiadi, in seno alle autorità
europee cresce la perplessità sulla opportunità di pro-seguire la sperimentazione di un sistema HD europeo
analogico. E ciò per molteplici ragioni: gli elevati costi dell'operazione (condotta ancora con sistemi analogici), lo
scarso favore presso il pubblico per l'indisponibilità di schermi televisivi di grandi dimensioni (oggi invece in
commercio) e le difficoltà nel trasporto e trasmissione dei segnali HDTV affidati ancora a sistemi di compressione
analogici.
Nel 1982, negli USA, un comitato congiunto, formato da Electronic Industries Alliance (EIA), Institute of Electrical
and Electronics Engineers (IEEE), NAB, NCTA e SMPTE, crea l'Advanced Television System Committee) (ATSC,
organizzazione volontaria e non-profit per lo sviluppo di un sistema avanzato TV. Nel 1987 La Federal
HDTV 102

Communications Commission (FCC), numerose università e gruppi di ricerca individuano 23 possibili sistemi
HDTV. Nel 1993 il FCC Advisory Committee decide di prendere in considerazione solo sistemi digitali di HDTV,
sollecitando le 4 ditte proponenti a riunirsi in una Digital HDTV Grand Alliance. Nel 1995 La "Grand Alliance"
propone un HDTV "advanced television terrestrial broadcasting system" come concordato fra i membri. Tale
proposta è trasformata dalla ATSC nella norma A/53 per uno standard digitale che prevede: sistemi HDTV (1080 x
1920, 720 x 1280 active line/active samples-per-line) e sistemi SDTV (TV a definizione standard 480 x 720 ). Nel
1996 la SMPTE sancisce ed emette gli standard: SMPTE 274M - norme 1080/50i/16:9 (Eu) e 1080/60i/16:9 (USA)-
e SMPTE 296M - norme 720/50p/16:9 (Eu) e 720/60p/16:9 (USA). L'anno successivo la FCC decide di assegnare
alla trasmissione digitale terrestre TV (DTTV) i cosiddetti "taboo channels" adiacenti ai canali già usati e lasciati
liberi per evitare interferenze fra di essi. Oltre alla A/53 vengono emesse altre norme per la televisione satellitare
direct-to-home (A/81), per la trasmissione dati (A/90), per la compressione audio AC3 (A/52), ecc. Nel mese di
novembre 1998 hanno inizio le prime trasmissioni DTV comprendenti HDTV e SDTV secondo un calendario
stabilito dalla FCC.
Per l'Europa è del 2003 la nascita dell'idea di un Digital Cinema (DC), vero "cavallo di Troia" per il mondo
cinematografico con la proposta di 24 fps (in luogo dei 50hz o 60hz della TV), costituisce anche una forte sferzata
per il mondo televisivo e produttivo. I broadcaster europei prendono coscienza che il DC offre importanti
opportunità e in particolare di poter disporre di un "common format" in DC con cui creare prodotti top destinati ad
una lunga vita (fiction, documentari, ecc.) per i quali la conservazione è ancora oggi affidata alla pellicola 35mm, ma
anche di poter disporre di una "scalabilità di formato", potendosi ricavare dal master in DC copie destinate ai mercati
con minore definizione (SDTV, → DVD, VHS, ecc.). Al tempo stesso, esso costituisce una minaccia, potendo
aggirare la diffusione TV con la distribuzione di supporti preregistrati (home-cinema).
Nel 2004 la società belga Alfacam dà inizio a regolari trasmissioni HDTV col satellite Astra, con la rete Euro1080
(utilizzando il sistema 1080/50i/16:9) battendo sul tempo i broadcaster e le autorità europee. Inizia col canale HD1 a
cui poi seguono HD2 e HD5. La produzione necessaria a riempire questi canali è fornita anche dalla flotta di ripresa
Alfacam che copre importanti manifestazioni, dal "Victory Day" a Mosca a vari eventi culturali e sportivi (nel
febbraio 2006 un considerevole gruppo di tali mezzi coprirà in HD i XX Giochi olimpici invernali di Torino).
Sempre nel luglio 2004, sotto la pressione crescente di gruppi industriali europei interessati al lancio della HDTV, il
Ministero dell'Industria francese crea un HD Forum e quest'anno il Consiglio dell'Unione Europea, col supporto della
Commissione Europea, ha organizzato il 7 giugno in Lussemburgo alla presenza di 300 rappresentanti decisionali
(governi e settori privati) una Conferenza Europea sulla Televisione ad Alta Definizione. In tale conferenza la EBU
(European Broadcasting Union) ed il "Digital Interoperability Forum" annunciano la creazione di un HDTV
European Forum.
La DCI (il gruppo di ricerca costituito dalle major di Hollywood) propone nel luglio 2005 le specifiche dei due
formati: 4096x2160 (4K) e 1920x1080 (2K), ora in via di normazione da parte della SMPTE. In Europa opera già da
tempo lo EDCF (European Digital Cinema Forum). Intento l'industria televisiva di consumo si dichiara pronta a
immettere sul mercato apparati HDTV (ricevitori MPEG-4 AVC e lettori DVD) certificandoli col marchio HD
ready. Al Satexpo di Vicenza (ottobre 2005) vengono presentati HD Council Italia (associazione nata per
promuovere la diffusione dell'Alta Definizione in Italia) e HD Forum Italia (gruppo di lavoro e coordinamento sulle
nuove tecnologie dell'alta definizione costituito presso la Fondazione Bordoni). Questi si uniscono ai Forum
nazionali inglese (UK HD Forum emanazione del DTG, Digital Television Group), tedesco (German HD Forum -
emanazione della Deutsche TV Platform), oltre che spagnolo, portoghese, svedese, belga e olandese. Gli standard in
predicato per una HDTV europea sono:
• SMPTE 296M : 720/50p (1280x720 pixel)
• SMPTE 274M : 1080/50i (1920x1080 pixel)
Entrambi comportano un bit-rate pari a :
• in SDI (senza compressione) = 1.5 Gbps
HDTV 103

• con compressione MPEG-2 = 18 Mbps


• con compress. MPEG-4 AVC = 9 Mbps
Ma è già pronto in laboratorio uno standard 1080/50p che comporterebbe però un bit-rate doppio. Questi standard
HDTV utilizzano tutti, come di consueto, l'aspect ratio 16:9 e la codifica audio AC3 5.1 canali.
Negli ultimi anni l'HDTV ha ricevuto una maggiore importanza, soprattutto per due motivi:
• I televisori LCD e plasma con schermi di grandi dimensioni e i videoproiettori digitali, stanno diminuendo di
prezzo, specie i primi.
• La trasmissione digitale è molto più efficace di quella analogica.
Negli Stati Uniti d'America il HDTV trasmesso in modo digitale (via sistema ATSC) esiste da alcuni anni come
anche in Giappone (sistema ISDB).
In Europa i tempi per l'introduzione si sono allungati,
perché si è deciso di usare tecnologie più avanzate per
le trasmissioni HDTV (MPEG-4 H.264 invece di
MPEG-2 per il video e DVB-S2 invece di DVB-S per
la trasmissione via satellite). Solo da gennaio 2006
sono disponibili ricevitori HDTV per satellite che
supportano queste tecnologie.

Nel 2005, in occasione dell'Expo tenuta in Giappone, la


tv NHK ha presentato un'evoluzione dell'HD, l'Ultra Il decoder SKY HD prodotto da PACE
Alta Definizione.
Le prime trasmissioni europee HDTV MPEG-4 via DVB-S2 sono cominciate nel novembre del 2005 dai canali
tedeschi "Premiere" (criptata) e Sat1/ProSieben (FTA). Nel frattempo sono iniziate anche altre trasmissioni HDTV,
la maggior parte ancora di tipo dimostrativo o di prova, spesso ancora con video MPEG-2 invece di MPEG-4. I
grandi network televisivi europei (Sky, BBC, Canal+, ...) hanno lanciando le loro offerte HDTV nel corso del 2006,
iniziando con gli eventi di maggior richiamo quali i campionati mondiali di calcio.
Nel 2007 le reti tv australiane Seven Network e Network Ten hanno lanciato le versioni HD dei loro canali (con
alcuni contenuti esclusivi), 1 anno dopo è la volta di Nine Network.

La distribuzione di canali HDTV in Italia


In Italia la programmazione, avvenuta nel 2006, poco prima dei campionati mondiali di calcio, ha avuto il suo inizio
con l'emittente in chiaro Venice Channel seguita poi da SKY, con prima la trasmissione della finale di Champions
League, trasmessa in modalità sperimentale, poi con le trasmissioni ufficiali dei mondiali germanici, attraverso il
canale 207 di SKY, denominato allora "SKY Mondiale HD". Infine con l'offerta attuale SKY HD, con inclusi 14
canali HDTV:
• SKY Cinema 1 HD, canale 301 SKY (solo SKYBOX HD)
• SKY Cinema Hits HD, canale 306 SKY (solo SKYBOX HD)
• SKY Sport 1 HD, canale 201 SKY (solo SKYBOX HD)
• SKY Sport 2 HD, canale 202 SKY (solo SKYBOX HD)
• SKY Sport 3 HD, canale 203 SKY (solo SKYBOX HD)
• SKY Cinema Max HD, canale 309 SKY (solo SKYBOX HD)
• SKY SuperCalcio HD, canale 205 SKY (solo SKYBOX HD)
• SKY Calcio 1 HD, canale 251 SKY (solo SKYBOX HD)
• SKY Calcio 2 HD, canale 252 SKY (solo SKYBOX HD)
• Discovery Channel HD, canale 401 SKY (solo SKYBOX HD)
• Eurosport HD, canale 209 SKY
HDTV 104

• National geographic Channel HD, canale 402 SKY


• Fox HD, canale 110 SKY (solo SKYBOX HD)
• Fox Crime HD, canale 114 SKY (solo SKYBOX HD)
• Primafila HD, canale 351 SKY (pay-per-view)
• Premium Calcio HD"" (produzione HD di Mediaset Premium)
La TV pubblica Svizzera SRG SSR idée suisse da fine 2007 ha creato un canale satellitare ad alta definizione
trilingue (HD suisse) del tutto gratuito (sebbene riservato ai cittadini svizzeri), su cui sono stati trasmessi i Giochi
della XXIX Olimpiade, il Campionato europeo di calcio 2008.
La Tv pubblica RAI ha trasmesso i giochi olimpici invernali di Torino 2006 in HDTV in via sperimentale, sulle
frequenze terrestri a circuito chiuso a Torino e zone limitrofe, destinate alla visione solo in luoghi pubblici.
A Maggio 2008 i test sono già iniziati nell'area di Torino, e la trasmissione avviene a 720p.
Nel corso del 2008, l'ente pubblico ha trasmesso gli Europei di calcio 2008 in alta definizione → MPEG-4/H.264
nelle zone di Torino, Roma, Milano, Valle d'Aosta e Sardegna [3] .
L'evento è andato in onda, oltre che in analogico 4:3, anche in digitale terrestre, ma in formato 16:9 anamorfico.
In realtà, già dal 1 marzo 2007 Rete 4 aveva già iniziato dei test in HDTV trasmettendo il segnale con la tecnica del
digitale terrestre nella zona di Cagliari, estendendolo successivamente nelle aree in cui è avvenuto lo spegnimento
del segnale analogico terrestre.
Le trasmissioni in formato → MPEG-4/H.264 sono ricevibili solo da sintonizzatori DVB-T HD compatibili, che si
possono trovare sia in versione per personal computer (basati ad esempio su interfaccia USB 2.0) sia come
dispositivi autonomi da collegare alla televisione.

Futuro
Mentre il formato HDTV si sta diffondendo nei mercati, nei laboratori di ricerca si stanno sviluppando i successori.
Ci sono in progetto sistemi come SHD (Super High Definition), detto anche "4k", con una risoluzione di 3840x2160
pixel (quattro volte i dati di un sistema Full HD) e anche di UHDV (Ultra Alta Definizione), sistema tutt'ora in via
sperimentale elaborato in Giappone, il quale prevede una risoluzione di 7680x4320 pixel (16 volte i dati di un
sistema Full HD). Tutti questi nuovi standard prevedono, come aspect ratio, l'uso del 16:9. Mentre il progetto SHD si
prevede che venga (almeno inizialmente) destinato alle sale cinematografiche, il progetto UHDV sarebbe destinato
all'ambito domestico. Il progetto SHD dovrebbe essere introdotto nel giro di qualche anno mentre per il progetto
UHDV si prevedono tempi molto lunghi, NTT DoCoMo prevede la commercializzazione nel 2025 circa.

Voci correlate
• PAL
• NTSC
• → DVD
• Blu-ray Disc
• HD DVD
• HD ready
• Televisione digitale terrestre
• broadcast flag
• SKY HD
• Ultra High Definition Video
• Digital Rights Management
• SDTV
• EDTV
HDTV 105

• → Risoluzioni standard

Altri progetti
• Wikimedia Commons contiene file multimediali su HDTV

Collegamenti esterni
• (EN) Aspect Ratios [1] - Dal sito Widescreen.org
• Lista di canali HDTV trasmessi via DVB-S in europa [4]
• Le basi dell'HDTV [5]
• Alta Definizione: chi, cosa, come, perché e quando? [6]

Note
[1] Si noti che i due sistemi citati sono, a rigore, tecniche di codifica per un segnale video composito, che non definiscono la risoluzione e la
frequenza di scansione; tuttavia i termini sono di uso molto comune per riferirsi anche a questi aspetti delle norme relative.
[2] Charles Poynton, Digital Video and HDTV: algorithms and interfaces, San Francisco, Morgan Kaufmann, 2003. 987-1-55860-732-7
[3] http:/ / www. raiway. rai. it/ index. php?lang=IT& cat=144& showINFO=85
[4] http:/ / www. kingofsat. net/ it/ hdtv. php
[5] http:/ / www. tomshw. it/ video. php?guide=20040805
[6] http:/ / www. tomshw. it/ guide. php?guide=20061107

DVD
Disco ottico

Logo del DVD

• Lettore CD
• Lettore DVD
• Masterizzatore
• Super Multi
• Software di masterizzazione
Dischi ottici

Il DVD, acronimo di Digital Versatile Disc (in italiano Disco Versatile Digitale, originariamente Digital Video Disc,
Disco Video Digitale) è un supporto di memorizzazione di tipo ottico.
DVD 106

Storia
Il DVD è il prodotto della cooperazione di alcune fra le maggiori aziende nel campo della ricerca e dell'elettronica di
consumo: il cosiddetto DVD forum, ovvero l'istituzione che si è incaricata di redigere le specifiche del nuovo
supporto, era infatti formata da Philips, Sony, Matsushita, Hitachi, Warner, Toshiba, JVC, Thomson e Pioneer.
L'intento era quello di creare un formato di immagazzinamento di grandi quantità di video digitali che fosse accettato
senza riserve da tutti i maggiori produttori, evitando quindi tutti i problemi di incertezza del mercato dovuti alla
concorrenza fra formati che si erano presentati al tempo dell'introduzione delle videocassette per uso domestico.
Il DVD forum individua 3 principali campi d'applicazione per il DVD:
1. il DVD-Video, destinato a contenere film, in sostituzione della videocassetta;
2. il DVD-Audio, pensato per sostituire il CD Audio grazie a una maggiore fedeltà e capacità;
3. il DVD-ROM, destinato a sostituire il CD-ROM.
Sia nel DVD-Video che nel DVD-Audio sono previsti sistemi di protezione in grado di disincentivare la
duplicazione dei contenuti. Proprio a causa di problemi nello sviluppo dei codici di sistemi di protezione adeguati, lo
standard DVD-Audio sembra essere l'applicazione meno fortunata del formato DVD. Al contrario lo standard
DVD-Video e DVD-ROM sono apparsi sul mercato sin dal 1997, ottenendo un enorme successo commerciale.
In un secondo momento, lo stesso DVD Forum introdusse gli
standard per i formati registrabili del DVD. Formalizzato nel
corso del 1999, il formato DVD-R è lo standard ufficiale per i
DVD Registrabili. Esso si suddivide nei formati "DVD-R for
authoring" e "DVD-R for general use". I primi sono destinati
alla creazione di copie di video protette da diritto d'autore,
necessitano di uno speciale masterizzatore e sono in grado di
implementare i sistemi di protezione dalla duplicazione. La
differenza fondamentale tra i due formati risiede nella diversa
lunghezza d’onda del laser: 635 nm per il DVD-R(A) e 650
nm per il DVD-R(G). I secondi sono in grado di contenere
qualunque tipo di materiale, ma non sono compatibili con i
sistemi di protezione utilizzati nei DVD-Video.

Nel 2000 è stato formalizzato lo standard DVD-RW, che


ricalca le caratteristiche dei DVD-R "for general use", ma con
DVD-RAM
la possibilità di essere riutilizzato fino a mille volte
(teoricamente).
Negli anni necessari alla formalizzazione dello standard DVD-R, sono stati commercializzati altri 2 formati per la
registrazione in formato DVD: il DVD+R (e DVD+RW) dal consorzio Sony-Philips, ed il formato DVD-RAM,
supportato da Matsushita e JVC. Questi formati differiscono notevolmente dal formato DVD-R in termini tecnici,
anche se i più moderni lettori e masterizzatori sono in grado di supportare DVD registrabili in qualunque formato
(con qualche riserva per il DVD-RAM). Il DVD-R/-RW e il DVD+R/+RW usano una tecnica di registrazione
elicoidale. Il DVD-RAM usa una tecnica di registrazione a cerchi concentrici, similare a un HardDisk, al quale è
assimilabile nell'uso.

Più recente è l'introduzione di standard per la masterizzazione di DVD a doppio strato, simili al DVD-9 industriale, e
con una capienza di circa 9 GB di informazioni. Anche in questo caso la cordata Sony-Philips ha giocato d'anticipo,
commercializzando il formato DVD+R Double Layer (c.d. DVD+R DL) fin dal 2002, mentre solo nel 2004 si è
formalizzato lo standard ufficiale DVD-R DL.
DVD 107

Il DVD-Video
I DVD-Video sono supporti digitali in grado di contenere fino a 240 minuti[1] di materiale video in formato
MPEG-2. L'audio può essere in formato non compresso PCM (da 1 a 8 canali), in formato Dolby Digital AC3 (che
prevede da 1 a 6 canali), in formato DTS (fino a 8 canali) o in formato MPEG.
I DVD-Video in commercio possiedono un codice detto codice regionale per poter essere riprodotto, usando un
lettore DVD da tavolo, solo in una determinata zona del mondo (il globo è stato suddiviso in aree dalle major
cinematografiche). I codici regionali dei DVD-Video sono i seguenti:
0 - Tutto il mondo (nessuna
restrizione)
1 - Canada, USA e suoi territori
2 - Europa, Giappone, Sudafrica,
Medio Oriente
3 - Sudest asiatico
4 - Australia, Nuova Zelanda,
America centrale e meridionale
Le zone del DVD
5 - Russia, India, Asia nordovest e
Africa del nord

6 - Repubblica Popolare Cinese (tranne Hong Kong e Macao)


7 - Riservato
8 - Speciali sedi di riunioni (aeroplani, navi, hotel, etc.)

Il DVD-Audio
Il formato DVD-Audio ha subito numerosi slittamenti per problemi tecnici. Questo formato (DVDA) è stato
progettato per fornire una qualità sonora notevolmente migliore di quella del CD Audio (CDDA).
Malauguratamente, i sistemi di protezione dalla copia illegale implementati nel DVDA si sono rivelati molto efficaci
dal punto di vista della sicurezza, ma terribilmente invasivi dal punto di vista della qualità complessiva del suono. In
pratica il risultato sonoro era addirittura inferiore a quello dei normali CDDA, tanto che si è dovuto cercare altri
sistemi di protezione che avessero un effetto meno marcato sulla qualità del suono.
Nel frattempo il consorzio Sony-Philips ha introdotto, ritagliandosi una piccola fetta nel mercato audiofilo, il formato
concorrente Super Audio CD SACD.
Altro elemento che concorre al fallimento del formato DVD-Audio è la sua totale incompatibilità con gli attuali
lettori DVD-Video.
DVD 108

Caratteristiche tecniche del formato DVD e DVD-ROM


Le dimensioni dei DVD di produzione industriale sono di sei
tipi:
• DVD-1, detto più comunemente Mini DVD: 1,4 GB Lato
unico e singolo strato, con diametro minore di 120 mm
• DVD-3: 2,8 GB Double layer Lato unico e doppio strato,
con diametro minore di 120 mm
• DVD-5: 4,7 GB Lato unico e singolo strato
• DVD-9: 8,5 GB Lato unico e doppio strato
• DVD-10: 9,4 GB Due lati e singolo strato
• DVD-18: 17 GB Due lati e doppio strato
I DVD "double layer" permettono una doppia incisione nello DVD
stesso lato. La capacità del supporto non raddoppia
esattamente, perché una parte di memoria è dedicata alla creazione di un indice e al controlo della distribuzione dei
dati.
Il double side o "doppio lato" è un supporto che può essere inciso o riscritto da tutti e due i lati.
Per il double layer occorre un particolare masterizzatore con tale funzionalità. Per il double side è sufficiente avere
un supporto a doppio strato, che viene inciso con i comuni masterizzatori, semplicemente girando il disco.
La memorizzazione delle informazioni avviene sullo "strato di incisione", tramite un laser, focalizzato su esso, che
ne modifica la riflettività, riproducendo la sequenza 0, 1. Ogni strato è suddiviso in tracce circolari e concentriche di
0,74 micrometri.
In lettura la luce laser viene riflessa dallo strato di memorizzazione in modo diverso a seconda dell'indice di
riflessione e conoscendo la velocità di rotazione del disco e la traccia su cui si sta leggendo, si può risalire alla
sequenza 0,1.
La minima velocità di trasmissione dati da un DVD è nove volte maggiore di quella di un CD, cosicché un lettore
DVD da 1x è quasi equivalente ad un lettore CD da 8x. Più precisamente, 1x per un lettore DVD equivale a 1350
kB/s, mentre 1x per un lettore CD equivale a 150 kB/s.
Il file system largamente usato nei DVDRom è l'UDF (Universal Disk Format).

Misure di un disco DVD


- Diametro totale disco DVD è di 120 mm (12 cm);
- Diametro totale foro centrale è di 15 mm (1,5 cm);
- Diametro totale parte stampabile è di 118 mm (11,8 cm);
- Diametro totale foro centrale non stampabile è di 22 mm (2,2 cm).

Dvd Time
È oggi possibile distribuire anche DVD a scadenza, aventi i medesimi standard di un DVD a doppio strato ma che si
differenziano da questo per la durata fisica della traccia che contengono. La parte centrale contiene sostanza citrica
che, a contatto col raggio ottico del lettore, viene lentamente sprigionata ed entro 48 ore rende il DVD inservibile
avendone deteriorato la traccia.
Esistono vari brevetti per realizzare questi nuovi supporti. Negli Stati Uniti questa tecnologia è stata sviluppata con il
marchio Flexplay dalla Flexplay Technologies, società fondata nel 1999 da Yannis Bakos and Erik Brynjolfsson.
Una tecnologia simile è utilizzata dalla Buena Vista con il nome ez-D.
DVD 109

Un'altra tecnologia simile, SpectraDisc, è stata sviluppata dalla SpectraDisc Corporation, acquistata interamente
dalla Flexplay Technologies nel 2003.
In Italia i DVD a scadenza sono detti Dvd Time e sono distribuiti dalla 01 Distribution che ha acquistato in esclusiva
il brevetto dalla società francese Dvd-Time. Il primo film distribuito in Italia su tale supporto è stato A History of
Violence nel 2006[2] .
Questi supporti hanno il vantaggio che il film può essere preso a noleggio senza doverlo riportare in videoteca, dopo
la visione del film.

Il futuro dei DVD


Anche se l'industria ha decretato che il DVD è tecnologicamente morto, si ha l'impressione che il suo uso continuerà
per un periodo non troppo breve.
Lo standard che ha raccolto l'eredità del DVD è il Blu-ray Disc (BD), con una capienza di 25 GB di base, e con una
possibilità di contenere ben otto strati, raggiungendo una capienza fino a ben 400 GB (16 strati). Prima dell'elezione
del Blu-ray, lo standard rivale HD DVD aveva tentato di imporsi, ma è stato ritirato dal mercato. Una delle cause
della vittoria del Blu-ray è l'essere stato adottato dalla Sony per contenere i videogames per Play Station 3.
Lo studio di un possibile standard che permetterebbe il successivo salto di qualità è già avanzato: si tratta
dell'Holographic Versatile Disc (HVD), basato sulla tecnologia delle memorie olografiche, e permetterà di contenere
tra i 300 e gli 800 Gigabyte su un disco.

Voci correlate
• DVD Forum
• DVD+RW Alliance
• Elenco dei produttori di lettori DVD
• Video anamorfico

Formati DVD
• DVD+R
• DVD-R
• DVD-RAM
• DVD+RW
• DVD-RW
• DVD+R DL
• DVD-R DL
• DVD-D
• mini DVD
DVD 110

Dischi ottici successori del DVD e CD


• Versatile Multilayer Disc (VMD)
• Digital Multilayer Disk (DMD)
• Blu-ray Disc
• HD DVD
• Holographic Versatile Disc (HVD)

Dischi alternativi al DVD


• Enhanced Versatile Disc (EVD)
• Dual Disc
• CD-ROM

Formati Video
• MPEG-2
• → MPEG-4
• DivX
• EZ-D
• VOB

Altri progetti
• Wikimedia Commons contiene file multimediali su DVD

Note
[1] La capienza in minuti di un DVD-video è solo indicativa e dipende da scelte di natura commerciale. La reale capienza in minuti di un
DVD-video dipende dal tipo di ripresa e dai settaggi scelti per i parametri della codifica in MPEG-2. Per qualsiasi supporto di memorizzazione
digitale, l'unità di misura della capienza in uso è il byte.
[2] cinecittà.com (http:/ / news. cinecitta. com/ news. asp?id=17398& idd=1). URL consultato il 10-01-2008.
Fonti e autori delle voci 111

Fonti e autori delle voci


Luce  Fonte: http://it.wikipedia.org/w/index.php?oldid=27692888  Autori:: 5Y, A7N8X, ARTE, Adasinol, Alfio, AttoRenato, AvdE, Avesan, Balabiot, Barbaking, Berto, Beta16, Blakwolf,
Blueduster, Buzz lightyear, Ciano, Codas, Contezero, DanGarb, Davide, Diablo, Dinwath, Djdomix, Dr.Conati, Enne, Erococo, Fabio Vescarelli, Fernandopescia, Frazzone, Frieda, Gac, Gacio,
Gassendi, Giaccone Paolo, Gianluigi, Giannizx1, Guam, Hashar, Hellis, IngFrancesco, Jacopo, K92, Longa, Lorenzo S., Luisa, M7, Mauriziogio, Mitchan, Numbo3, Oskar '95, P tasso, Paolo Di
Febbo, Piergiorgio Massari, Piero, Pignol, Qbert88, Qualc1, Salvatore Ingala, Sbazzone, Scriban, Senza nome.txt, Skywolf, Snowdog, Square87, Starwars, Suisui, Template namespace
initialisation script, Tirinto, Traiano, Tridim, Tueg, Twice25, Venom9, Win, Ylebru, 91 Modifiche anonime

Colore  Fonte: http://it.wikipedia.org/w/index.php?oldid=26604227  Autori:: Alfio, Andy91, Archenzo, Aushulz, Avesan, Berto, Biopresto, Blatta, Bob4, Boscarol, Cialz, Cisco79, DarkAp,
Desperate92, Djdomix, Dnaiele, DoppioM, Dream.x, Elwood, Fastforward, Ferrario Jacopo, Frieda, Ft1, Gac, Gacio, Gea, Gierre, Gifh, Ginosal, Hellis, Immanuel Giel, Ithunn, Joana, La voce di
Cassandra, LapoLuchini, Luke30, M7, Massimiliano Lincetto, Nick1915, No2, Nrykko, Paginazero, Patty, R0tAbLe, Remulazz, Riverblu, Sassospicco, Senza nome.txt, Simone, Sinigagl,
Snowdog, Stefano Careglio, Suturn, Talmid3, Template namespace initialisation script, Twice25, 35 Modifiche anonime

Spazio dei colori  Fonte: http://it.wikipedia.org/w/index.php?oldid=23781999  Autori:: Adp, Avesan, Berto, DGC, Djdomix, Dnaiele, Ft1, Hellis, M7, Madaki, Marcok, Sassospicco, Sbisolo,
Shadowfax, Sinigagl, Smallpox, Snarchio, Snowdog, Stefano Careglio, Twice25, Wikit2006, 11 Modifiche anonime

Temperatura di colore  Fonte: http://it.wikipedia.org/w/index.php?oldid=27805602  Autori:: A7N8X, Ary29, AttoRenato, Cialz, Dnaiele, Erud, Fredericks, Gassendi, Guam, Luisa, Luken,
Magica, Pequod76, Senpai, Sesquipedale, 17 Modifiche anonime

RGB  Fonte: http://it.wikipedia.org/w/index.php?oldid=26180034  Autori:: Abisys, Ary29, Blackdeep81, Cassioli, Francescost, Freefranco, Ft1, Gac, Hellis, Lox, Lukius, M7, MaEr,
Marcuscalabresus, Marioquark, Mitchan, Paolo57, PersOnLine, Purodha, Robin root, Sassospicco, Simone, Snowdog, Twice25, Vermondo, Viscontino, Wiso, Yuma, 19 Modifiche anonime

CMYK  Fonte: http://it.wikipedia.org/w/index.php?oldid=25895402  Autori:: Archenzo, Ares, Artwik, Ary29, Avesan, Dani4P, Djdomix, Dnaiele, Freefranco, Gianfranco, Magica, MapiVanPelt,
MiGz, Pino alpino, Riverblu, Sassospicco, Senpai, Simone, SkZ, Stefano Careglio, TierrayLibertad, Tiziano Fruet, Twice25, 10 Modifiche anonime

Hue Saturation Brightness  Fonte: http://it.wikipedia.org/w/index.php?oldid=25414942  Autori:: A7N8X, Alleborgo, Ary29, Avesan, Dejudicibus, KaeZar, Llorenzi, Mamo139,
Moongateclimber, Nick1915, Poweruser, Sassospicco, 3 Modifiche anonime

Grafica raster  Fonte: http://it.wikipedia.org/w/index.php?oldid=26623968  Autori:: .jhc., Alb, Ary29, ChemicalBit, Dr Zimbu, Fabio.gastone, Giovdi, Ignlig, Jotar, Lion-hearted85, Marcok,
Negadrive, Red83, Sinigagl, Vault, Wetto, 19 Modifiche anonime

Pixel  Fonte: http://it.wikipedia.org/w/index.php?oldid=27773597  Autori:: .anaconda, Alberto da Calvairate, Buzz lightyear, Cruccone, EdoM, Enrique, Fragment, Frieda, Ft1, Giannib,
Guidomac, Hellis, Jalo, Laurentius, Lp, Lukius, Mela, Mitchan, Moongateclimber, Neq00, Nosferatu, Piracmone, Qualc1, Richzena, Ripepette, Sbisolo, Scriban, Simone, Snowdog, Suisui, Trixt,
Unriccio, Wetto, Михајло Анђелковић, 36 Modifiche anonime

Risoluzione (grafica)  Fonte: http://it.wikipedia.org/w/index.php?oldid=20850482  Autori:: %Pier%, Alfio, Avesan, Beta16, Bultro, Cassioli, Cls-classic, Fabiob, Frieda, Goliardico, Gvf, Hellis,
Koji, Lucas, Marcel Bergeret, Mizardellorsa, Olando, Sbisolo, Trixt, Zeus57, 4 Modifiche anonime

Risoluzioni standard  Fonte: http://it.wikipedia.org/w/index.php?oldid=24166516  Autori:: %Pier%, A7N8X, Abisys, Alez, Ciampix, Civvì, Dark, Diego Zuelli, EdoM, Gbodini, Hellis, Kal-El,
Kasper2006, Lenny76, Marcuscalabresus, Mr buick, Sandr0, TheDRaKKaR, TierrayLibertad, 8 Modifiche anonime

Immagine digitale  Fonte: http://it.wikipedia.org/w/index.php?oldid=23695265  Autori:: Blackdeep81, CavalloRazzo, Luciodem, Negadrive, 11 Modifiche anonime

Compressione dei dati  Fonte: http://it.wikipedia.org/w/index.php?oldid=26612271  Autori:: %Pier%, Alberto Orlandini, Alfio, Alien life form, Archenzo, Blakwolf, Carlo.milanesi, Djdomix,
Dommac, F. Cosoleto, Frieda, Hellis, Ignlig, Lornova, Lukius, M@ttia, Marcok, Qualc1, Rollopack, Sbisolo, Simpod, Unriccio, 9 Modifiche anonime

Compressione dati lossy  Fonte: http://it.wikipedia.org/w/index.php?oldid=22500703  Autori:: Ary29, Cruccone, Djdomix, Dommac, Fredericks, Fstefani, Gvf, Hellis, Lox, Marcok, Nosferatu,
Unriccio, Yoggysot, 11 Modifiche anonime

Compressione dati lossless  Fonte: http://it.wikipedia.org/w/index.php?oldid=27774260  Autori:: Airon90, Alberto Orlandini, Alien life form, Alleborgo, Ary29, Avesan, Baruneju, CarmineXX,
Civvì, Dinwath, Djdomix, Dommac, Fmonaco, Gaetano56, Hellis, Kiwi, Laurusnobilis, Leif Erikson, Lox, Nicolap8, Piddu, Snowdog, Sylvaticus, Timendum, Unriccio, Wiso, 27 Modifiche
anonime

Joint Photographic Experts Group  Fonte: http://it.wikipedia.org/w/index.php?oldid=26423319  Autori:: .anaconda, Acolleoni, Alfio, AnyFile, Ary29, Barna1000, Brownout, Coyote83,
Elborgo, Erriquez, Frieda, Gvf, Hashar, Hellis, Iskander, Kar.ma, Klemen Kocjancic, Mela, MiGz, Nico96, Objwan, Sbisolo, Simone, Suisui, Template namespace initialisation script, Unriccio,
18 Modifiche anonime

Portable Network Graphics  Fonte: http://it.wikipedia.org/w/index.php?oldid=27722259  Autori:: %Pier%, A7N8X, Acolleoni, Agara73, Alfio, DonPaolo, El salvador, F l a n k e r, Fmonaco,
Giancy, Hashar, Hellis, Iskander, MiGz, Moongateclimber, Nevermindfc, Nico96, Purodha, Sbisolo, Simone, Suisui, Tia solzago, Viscontino, 12 Modifiche anonime

Video  Fonte: http://it.wikipedia.org/w/index.php?oldid=27802068  Autori:: Abisys, Air France, Ary29, AttoRenato, Avesan, Diego Zuelli, Edo93, Fiertel91, Fluctuat, Frammco, Jok3r,
Limonadis, Lorenz-pictures, LucaLuca, Lucas, Marcok, Morningfrost, Nosferatu, Olando, Pakdooik, Pil56, Retaggio, Senpai, Tarf, 150 Modifiche anonime

Video digitale  Fonte: http://it.wikipedia.org/w/index.php?oldid=22298348  Autori:: Abisys, Ary29, Asdf1234, AttoRenato, Casamich, Darth Kule, Francisco83pv, Hellis, Herik, Kelvin, MaEr,
Morningfrost, Tvlocali, 7 Modifiche anonime

Compressione video digitale  Fonte: http://it.wikipedia.org/w/index.php?oldid=26253965  Autori:: %Pier%, 5Y, Absinthe, Avesan, Basilicofresco, Cantalamessa, Cassioli, Dommac, Guam,
Hellis, Luisa, Lukius, Morningfrost, Ninja, Perteghella, Snowdog, Svante, 8 Modifiche anonime

Sottocampionamento della crominanza  Fonte: http://it.wikipedia.org/w/index.php?oldid=27651413  Autori:: Cantalamessa, Formica rufa, Granzotto, Hellis, Marcol-it, Morningfrost,
Nevermindfc, Rago, Sandr0, 4 Modifiche anonime

Video a componenti  Fonte: http://it.wikipedia.org/w/index.php?oldid=26747733  Autori:: Abisys, Ary29, KS, Moongateclimber, Morningfrost, Pegasovagante, Regfla1, Senpai, Sergio46,
Ssspera, 17 Modifiche anonime

Video composito  Fonte: http://it.wikipedia.org/w/index.php?oldid=27100447  Autori:: .jhc., Abisys, Abyssadventurer, Bultro, Hellis, Loox, Moloch981, Morningfrost, Ppalli, Sanfo, 20
Modifiche anonime

Formato contenitore  Fonte: http://it.wikipedia.org/w/index.php?oldid=20963334  Autori:: Ary29, Satyricon86, Triquetra

Velocità di trasmissione  Fonte: http://it.wikipedia.org/w/index.php?oldid=24022231  Autori:: Abisys, Avesan, Cassioli, Contezero, Daniele Forsi, Fabio.gastone, Franganghi, Ft1,
Giacomo.lucchese, Giant Lizard, Hellis, Loox, Maxx1972, Nemo bis, Piracmone, Poweruser, SkY`, Toobaz, 11 Modifiche anonime

Codec video  Fonte: http://it.wikipedia.org/w/index.php?oldid=21618869  Autori:: %Pier%, AnjaManix, Blaxwan, Goodsheard, Hellis, SymlynX, 2 Modifiche anonime

Contenitore multimediale  Fonte: http://it.wikipedia.org/w/index.php?oldid=22352637  Autori:: Ary29, Calabash, Gspinoza, Laurusnobilis, MIX, Squattaturi, 3 Modifiche anonime

Audio Video Interleave  Fonte: http://it.wikipedia.org/w/index.php?oldid=26592483  Autori:: %Pier%, Acolleoni, Archenzo, Ary29, Dalfi85, Fidech, IngFrancesco, MIX, Marcok, Nichlaus,
Nico96, Stemby, Stevenworks, TheHurricanePower, Una giornata uggiosa '94, 11 Modifiche anonime

Matroska  Fonte: http://it.wikipedia.org/w/index.php?oldid=25726729  Autori:: Ary29, Cochrane, DarkAp, Fabio.gastone, MIX, Nico96, Rajven, 4 Modifiche anonime

MPEG- 4  Fonte: http://it.wikipedia.org/w/index.php?oldid=26609041  Autori:: %Pier%, Aushulz, Hellis, Kriss4Christ, Kronos, Marius, Mykelyk, Roces, Senza nome.txt, Seveso, Wikibozzy, 22
Modifiche anonime
Fonti e autori delle voci 112

MOV (formato di file)  Fonte: http://it.wikipedia.org/w/index.php?oldid=23179559  Autori:: Ary29, MIX, Una giornata uggiosa '94, Unop2pf, 1 Modifiche anonime

Ogg  Fonte: http://it.wikipedia.org/w/index.php?oldid=27285051  Autori:: Actam, Ary29, Blakwolf, Bouncey2k, Brownout, Grifone87, Hashar, Hellis, Jalo, Laurusnobilis, LucAndrea, MIX,
Mikelima, Mitchan, Nico96, Nosferatu, Sante Caserio, Shadd, Una giornata uggiosa '94, 15 Modifiche anonime

Theora  Fonte: http://it.wikipedia.org/w/index.php?oldid=27229761  Autori:: Garak, Hellis, Laurusnobilis, Mikelima, Nico96, Sandro kensan, Sinigagl, 7 Modifiche anonime

Compressione audio digitale  Fonte: http://it.wikipedia.org/w/index.php?oldid=26253877  Autori:: %Pier%, Alfio, Alfreddo, An3, Ary29, Defcon, Dommac, Hellis, Lusum, Marcok, MiGz,
Nosferatu, Sbisolo, Twice25, Xoen, 9 Modifiche anonime

MP3  Fonte: http://it.wikipedia.org/w/index.php?oldid=27766517  Autori:: .anaconda, Aamodio, Acolleoni, Afnecors, Alan p, Alfio, Alleborgo, AndreA, Ary29, Barbaking, Biopresto,
BlackMew9z, Brownout, Djechelon, Fidech, Fstefani, Gacio, Govoch, Guidomac, Hamed, Hashar, Hellis, IAF, IlCapo, Jacopo, Jorunn, Koji, LapoLuchini, Laurentius, Laurusnobilis, M7, Malex,
Marcel Bergeret, Matgio, Melkor II, MiGz, Misterioso, Mr. Blonde, Mykelyk, Nosferatu, Nur, Orionethe, P tasso, Pietrodn, Qualc1, Richhard, Rojelio, Rosario9, S-bor, Sbisolo, Scardovi,
Scimmialaser, Seveso, Simone, Simotdi, Snowdog, Suisui, Traduz, Una giornata uggiosa '94, Viscontino, Wizard, Zeus57, 78 Modifiche anonime

HDTV  Fonte: http://it.wikipedia.org/w/index.php?oldid=27719627  Autori:: .anaconda, 16:9, Ab1, Abisys, Absinthe, Alleborgo, Antonino.greco, Antonio.971, Ary29, Asdf1234, AttoRenato,
Aushulz, Avesan, BMF81, Blaisorblade, Bomberman, BonAce, Brownout, Brunocip, CavalloRazzo, Codicorumus, Contezero, Derfel74, Djechelon, Elijah85, Freepenguin, Gacio, Giancy,
Golf-ball, Harrythebest93, Helix84, Hellis, Herik, Icaro829, KS, Kasper2006, Keledan, Kelvin, Klaudio, Langly, Lorenz-pictures, Loroli, Lp, LucAndrea, LucaDetomi, MaEr, Marco Bernardini,
Marcoluciano, Marcuscalabresus, Morningfrost, Nuovoastro, Oliva18, Pepe85, Piccadillo, Quoniam, Ranma25783, Rayan, Sbazzone, Scriban, Shaka, Simone, Snake79, Snowdog, Swap83,
Theferro, TierrayLibertad, Tritologol, Twice25, Valepert, Vault, Viscontino, 149 Modifiche anonime

DVD  Fonte: http://it.wikipedia.org/w/index.php?oldid=27621337  Autori:: %Pier%, .mau., Al Pereira, Alfio, Amux, Ary29, Asdf1234, Beta16, Bodo, Bronzino, Bunker, Cassioli,
Deliriumtremens, Dudo, Edo, Ellevi, Erriquez, Eustace Bagge, Frazzone, Frieda, Gacio, Galoppini, Hashar, Hellis, Hypermax, Kurtsb, Lephio, Losògià, Lucabon, Lucius, M7, MapiVanPelt,
Marcok, Marcuscalabresus, Michele CaMi, Microtauro, Mitchan, Moliva, Nevermindfc, Numbo3, Outer root, Paginazero, Pegasovagante, Phantomas, Piffy, Rdocb, Rojelio, Satrixx, Servator,
Shaka, Simone, Starless74, Suisui, SuperSecret, Surfy47, Template namespace initialisation script, Tennegi, Tooby, Viames, VicMer1987, Vikinger, Win, 112 Modifiche anonime
Fonti, licenze e autori delle immagini 113

Fonti, licenze e autori delle immagini


File:PrismAndLight.jpg  Fonte: http://it.wikipedia.org/w/index.php?title=File:PrismAndLight.jpg  Licenza: Public Domain  Autori:: NASA
File:Squarci di luce.jpg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Squarci_di_luce.jpg  Licenza: sconosciuto  Autori:: Dr.Conati
File:Chicago Union Station 1943.jpg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Chicago_Union_Station_1943.jpg  Licenza: Public Domain  Autori:: Jack Delano
Immagine:Spectre.svg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Spectre.svg  Licenza: sconosciuto  Autori:: User:Phrood, User:Tatoute
Immagine:Commons-logo.svg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Commons-logo.svg  Licenza: logo  Autori:: User:3247, User:Grunt
Immagine:Wikiquote-logo.svg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Wikiquote-logo.svg  Licenza: logo  Autori:: -xfi-, Dbc334, Doodledoo, Elian, Guillom, Jeffq, Maderibeyza,
Majorly, Nishkid64, RedCoat, Rei-artur, Rocket000, 11 Modifiche anonime
Immagine:Wiktionary-ico-de.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:Wiktionary-ico-de.png  Licenza: logo  Autori:: Bobit, F l a n k e r, Melancholie, Mxn, Rocket000
Immagine:Colouring pencils.jpg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Colouring_pencils.jpg  Licenza: sconosciuto  Autori:: User:MichaelMaggs
Immagine:Spectrum441pxWithnm.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:Spectrum441pxWithnm.png  Licenza: GNU Free Documentation License  Autori:: Adoniscik,
Eno, Knutux, W!B:, 1 Modifiche anonime
Immagine:Karachi - Pakistan-market.jpg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Karachi_-_Pakistan-market.jpg  Licenza: Creative Commons Attribution 2.0  Autori::
Berrucomons, Durova, Epiktet, FlickrLickr, Fred J, Jnn, Jon Harald Søby, Mangostar, Mattes, MichaelMaggs, Neon, Ranveig, Rogerine, Shizhao, Str4nd, WikipediaMaster, 1 Modifiche anonime
Immagine:Spettro.gif  Fonte: http://it.wikipedia.org/w/index.php?title=File:Spettro.gif  Licenza: sconosciuto  Autori:: Utente:Adp
Immagine:CIE1931 rgxy.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:CIE1931_rgxy.png  Licenza: Public Domain  Autori:: User:BenFrantzDale
Immagine:Cie.gif  Fonte: http://it.wikipedia.org/w/index.php?title=File:Cie.gif  Licenza: sconosciuto  Autori:: Utente:Adp
Immagine:Color temperature.svg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Color_temperature.svg  Licenza: sconosciuto  Autori:: Hołek
Immagine:RGB.svg  Fonte: http://it.wikipedia.org/w/index.php?title=File:RGB.svg  Licenza: Public Domain  Autori:: User:Wiso
Immagine:AdditiveColorSynthesis_RGBpositives.jpg  Fonte: http://it.wikipedia.org/w/index.php?title=File:AdditiveColorSynthesis_RGBpositives.jpg  Licenza: sconosciuto  Autori::
User:Magica
Immagine:SubtractiveColorSynthesis_CMYK_2.jpg  Fonte: http://it.wikipedia.org/w/index.php?title=File:SubtractiveColorSynthesis_CMYK_2.jpg  Licenza: sconosciuto  Autori::
User:Magica
Immagine:CMY ideal version.svg  Fonte: http://it.wikipedia.org/w/index.php?title=File:CMY_ideal_version.svg  Licenza: Public Domain  Autori:: Terin
Image:HSV cylinder.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:HSV_cylinder.png  Licenza: GNU Free Documentation License  Autori:: (3ucky(3all at en.wikipedia
Image:Color cones.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:Color_cones.png  Licenza: GNU Free Documentation License  Autori:: Djiboun, WikipediaMaster, Wing
Immagine:Rgb-raster-image.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:Rgb-raster-image.png  Licenza: sconosciuto  Autori:: Original uploader was Riumplus at en.wikipedia
Later versions were uploaded by Plethorapw, Guanaco, Branko, Kjoonlee at en.wikipedia.
File:Fil-Pixel-example-wiki.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:Fil-Pixel-example-wiki.png  Licenza: logo  Autori:: Original uploader was BlueEel at da.wikipedia
Immagine:Vector Video Standards2.svg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Vector_Video_Standards2.svg  Licenza: GNU Free Documentation License  Autori:: Original
uploader was XXV at en.wikipedia Later version(s) were uploaded by Jjalocha, Aihtdikh at en.wikipedia.
Immagine:tulipanoJPEG100.jpg  Fonte: http://it.wikipedia.org/w/index.php?title=File:TulipanoJPEG100.jpg  Licenza: sconosciuto  Autori:: Coyote83
Immagine:tulipanoJPEG90.jpg  Fonte: http://it.wikipedia.org/w/index.php?title=File:TulipanoJPEG90.jpg  Licenza: sconosciuto  Autori:: Coyote83
Immagine:tulipanoJPEG50.jpg  Fonte: http://it.wikipedia.org/w/index.php?title=File:TulipanoJPEG50.jpg  Licenza: sconosciuto  Autori:: Coyote83
Immagine:tulipanoJPEG10.jpg  Fonte: http://it.wikipedia.org/w/index.php?title=File:TulipanoJPEG10.jpg  Licenza: sconosciuto  Autori:: Coyote83
Immagine:Comparison of JPEG and PNG.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:Comparison_of_JPEG_and_PNG.png  Licenza: sconosciuto  Autori:: , cropped by
Immagine:PNG transparency demonstration 1.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:PNG_transparency_demonstration_1.png  Licenza: sconosciuto  Autori:: User:ed
g2s/Dice.pov, user:ed_g2s
Immagine:PNG transparency demonstration 2.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:PNG_transparency_demonstration_2.png  Licenza: sconosciuto  Autori:: User:ed
g2s/Dice.pov, user:ed_g2s
File:standard_video_res.svg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Standard_video_res.svg  Licenza: Public Domain  Autori:: Darz Mol, Hellisp, Inductiveload, Oxam Hartog, 3
Modifiche anonime
File:Aspect ratios.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:Aspect_ratios.png  Licenza: GNU Free Documentation License  Autori:: Andreas -horn- Hornig, Indolences
File:NTSC-PAL-SECAM.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:NTSC-PAL-SECAM.png  Licenza: GNU Free Documentation License  Autori:: Andreas -horn- Hornig, En
rouge, Interiot, Kaganer, Oldie, Responsible?, Thuresson
Immagine:Color-bars-original.gif  Fonte: http://it.wikipedia.org/w/index.php?title=File:Color-bars-original.gif  Licenza: Public Domain  Autori:: Glenn Chan
Immagine:Color-bars-vegas-dv.gif  Fonte: http://it.wikipedia.org/w/index.php?title=File:Color-bars-vegas-dv.gif  Licenza: Public Domain  Autori:: Glenn Chan
Immagine:Chroma subsampling ratios.svg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Chroma_subsampling_ratios.svg  Licenza: GNU Free Documentation License  Autori:: ,
w:User:MysidUser:Mysid
Immagine:444-original-single-field.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:444-original-single-field.png  Licenza: sconosciuto  Autori:: Original uploader was Glennchan at
en.wikipedia
Immagine:420-progressive-single-fiel.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:420-progressive-single-fiel.png  Licenza: Public Domain  Autori:: Glenn Chan
Immagine:420-interlaced-single-field.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:420-interlaced-single-field.png  Licenza: sconosciuto  Autori:: Glenn Chan
Immagine:420-original444.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:420-original444.png  Licenza: Public Domain  Autori:: Glenn Chan
Immagine:420-progressive-still.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:420-progressive-still.png  Licenza: Public Domain  Autori:: Glenn Chan
Immagine:420-interlaced-still.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:420-interlaced-still.png  Licenza: Public Domain  Autori:: Glenn Chan
Image:Component video RCA.jpg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Component_video_RCA.jpg  Licenza: GNU Free Documentation License  Autori:: Photograph taken by
Larry D. Moore (Nv8200p on en.wikipedia) using a Kodak EasyShare Z740 camera.
Immagine:Composite.jpg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Composite.jpg  Licenza: GNU Free Documentation License  Autori:: Photograph taken by Larry D. Moore
(Nv8200p on en.wikipedia) using a Kodak EasyShare Z740 camera.
Immagine:BNC connector 20050720 001.jpg  Fonte: http://it.wikipedia.org/w/index.php?title=File:BNC_connector_20050720_001.jpg  Licenza: Public Domain  Autori:: User:bergsten
Immagine:Disambigua compass.svg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Disambigua_compass.svg  Licenza: Public Domain  Autori:: User:Krdan
Immagine:Matroska-logo-128x128.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:Matroska-logo-128x128.png  Licenza: GNU General Public License  Autori:: Matroska project
Immagine:Torchlight_ogg.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:Torchlight_ogg.png  Licenza: GNU Lesser General Public License  Autori:: Dake
File:Fraunhofer ITWM AM.jpg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Fraunhofer_ITWM_AM.jpg  Licenza: Public Domain  Autori:: AlexanderDreyer, Túrelio
File:Ibox mp3.jpg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Ibox_mp3.jpg  Licenza: Public Domain  Autori:: Derbeth, MB-one, Mohylek, 1 Modifiche anonime
File:Projection-screen-home2.jpg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Projection-screen-home2.jpg  Licenza: Public Domain  Autori:: User:Tysto
File:Highdefinitiontvwalldirectv.jpg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Highdefinitiontvwalldirectv.jpg  Licenza: sconosciuto  Autori:: Original uploader was Jengod at
en.wikipedia
File:Standard video res.svg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Standard_video_res.svg  Licenza: Public Domain  Autori:: Darz Mol, Hellisp, Inductiveload, Oxam Hartog, 3
Modifiche anonime
File:Confronto PAL - HDTV.jpg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Confronto_PAL_-_HDTV.jpg  Licenza: sconosciuto  Autori:: Lorenz-pictures
Fonti, licenze e autori delle immagini 114

File:Pixel aspect ratio pixelseitenverhaeltnis ntsc480p pal576p hdtv720p hdtv1080p uhdv4320p by hdtvtotal com.svg  Fonte:
http://it.wikipedia.org/w/index.php?title=File:Pixel_aspect_ratio_pixelseitenverhaeltnis_ntsc480p_pal576p_hdtv720p_hdtv1080p_uhdv4320p_by_hdtvtotal_com.svg  Licenza: Creative Commons
Attribution-Sharealike 2.5  Autori:: User:Andreas -horn- Hornig
File:Sky Box HD Pace.jpg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Sky_Box_HD_Pace.jpg  Licenza: Public Domain  Autori:: User:Andreas -horn- Hornig
Immagine:DVD logo.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:DVD_logo.png  Licenza: sconosciuto  Autori:: Hellis, Kanchelskis, Senpai
Immagine:DVD.jpg  Fonte: http://it.wikipedia.org/w/index.php?title=File:DVD.jpg  Licenza: sconosciuto  Autori:: Archaeologo, Lucius
Immagine:DVD-RAM FUJIFILM Disc-removalble Without cartridge-locking-pin.jpg  Fonte:
http://it.wikipedia.org/w/index.php?title=File:DVD-RAM_FUJIFILM_Disc-removalble_Without_cartridge-locking-pin.jpg  Licenza: Public Domain  Autori:: User:Iainf, User:Ocrho
Immagine:DVD-Regions_with_key.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:DVD-Regions_with_key.png  Licenza: GNU Free Documentation License  Autori:: Anstalt, David
Levy, Dryke, Frukt, Lockal, Monaneko, MrWeeble, Peter17, 5 Modifiche anonime
Licenza 115

Licenza
Creative Commons Attribution-Share Alike 3.0 Unported
http:/ / creativecommons. org/ licenses/ by-sa/ 3. 0/

Vous aimerez peut-être aussi