Académique Documents
Professionnel Documents
Culture Documents
PDF generato attraverso il toolkit opensource ''mwlib''. Per maggiori informazioni, vedi [[http://code.pediapress.com/ http://code.pediapress.com/]].
PDF generated at: Fri, 06 Nov 2009 12:17:36 UTC
Indice
Voci
Introduzione - Luce e colore 1
Luce 1
Colore 6
Spazio dei colori 11
Temperatura di colore 15
RGB 16
CMYK 18
Hue Saturation Brightness 20
Grafica Digitale 21
Grafica raster 21
Pixel 23
Risoluzione (grafica) 26
Risoluzioni standard 27
Immagine digitale 33
Compressione dei dati 35
Compressione dati lossy 36
Compressione dati lossless 37
Joint Photographic Experts Group 41
Portable Network Graphics 44
Audio Digitale 88
Compressione audio digitale 88
MP3 90
Note
Fonti e autori delle voci 111
Fonti, licenze e autori delle immagini 113
Luce
Il termine luce (dal latino, lux, lucis) si
riferisce alla porzione dello spettro
elettromagnetico visibile dall'occhio umano,
ed è approssimativamente compresa tra 400
e 700 nanometri di lunghezza d'onda,
ovvero tra 750 e 428 THz di frequenza.
Questo intervallo coincide con la regione di
massima emissione da parte del sole. I limiti
dello spettro visibile all'occhio umano non
Un prisma scompone la luce
sono uguali per tutte le persone, ma variano
soggettivamente e possono raggiungere i
730 nanometri, avvicinandosi agli infrarossi, e i 380 nanometri avvicinandosi agli ultravioletti. La presenza
contemporanea di raggi di tutte le lunghezze d'onda visibili forma la luce bianca.
La luce, come tutte le onde elettromagnetiche, interagisce con la materia. I fenomeni più comuni osservabili sono:
l'assorbimento, la trasmissione, la riflessione, la rifrazione e la diffrazione.
Sebbene nell'elettromagnetismo classico la luce sia descritta come un'onda, l'avvento della meccanica quantistica agli
inizi del XX secolo ha permesso di capire che questa possiede anche proprietà tipiche delle particelle e di spiegare
fenomeni come l'effetto Compton. Nella fisica moderna la luce (e tutta la radiazione elettromagnetica) viene descritta
come composta da quanti del campo elettromagnetico chiamati fotoni.
Teoria corpuscolare
Formulata da Isaac Newton nel XVII secolo.
La luce veniva vista come composta da
piccole particelle di materia (corpuscoli)
emesse in tutte le direzioni. Oltre che essere
matematicamente molto più semplice della
teoria ondulatoria, questa teoria spiegava
molto facilmente alcune caratteristiche della
propagazione della luce che erano ben note Fasci di luce solare che filtrano tra le nubi
all'epoca di Newton.
Luce 2
Teoria ondulatoria
Formulata da Christiaan Huygens nel 1678 ma pubblicata solo nel 1690 nel Traité de la Lumière. La luce veniva
vista come un'onda che si propaga (in maniera del tutto simile alle onde del mare o a quelle acustiche) in un mezzo,
chiamato etere, che si supponeva pervadere tutto l'universo ed essere formato da microscopiche particelle elastiche.
La teoria ondulatoria della luce permetteva di spiegare (anche se in maniera matematicamente complessa) un gran
numero di fenomeni: oltre alla riflessione ed alla rifrazione, Huygens riuscì infatti a spiegare anche il fenomeno della
birifrangenza nei cristalli di calcite.
Nel 1801 Thomas Young dimostrò come i fenomeni della diffrazione (osservato per la prima volta Francesco Maria
Grimaldi nel 1665) e dell'interferenza fossero interamente spiegabili dalla teoria ondulatoria e non lo fossero dalla
teoria corpuscolare. Agli stessi risultati arrivò Augustin-Jean Fresnel nel 1815. Nel 1814 Joseph von Fraunhofer fu il
primo ad investigare seriamente sulle righe di assorbimento nello spettro del Sole, che vennero esaurientemente
spiegate da Kirchhoff e da Bunsen nel 1859, con l'invenzione dello spettroscopio. Le righe sono ancora oggi
chiamate linee di Fraunhofer in suo onore.
Un problema della teoria ondulatoria era tuttavia la propagazione rettilinea della luce. Infatti era ben noto che le onde
sono capaci di aggirare gli ostacoli mentre è esperienza comune che la luce si propaghi in linea retta (questa
proprietà era già stata notata da Euclide nel suo Optica). Questa apparente incongruenza può però essere spiegata
assumendo che la luce abbia una lunghezza d'onda microscopica.
Al contrario della teoria corpuscolare, quella ondulatoria prevede che la luce si propaghi più lentamente all'interno di
un mezzo che nel vuoto; restano ambiguità.
Luce 3
Teoria elettromagnetica
Per la grandissima maggioranza delle applicazioni questa teoria è ancora utilizzata al giorno d'oggi. Proposta da
James Clerk Maxwell alla fine del XIX secolo, sostiene che le onde luminose sono elettromagnetiche e non
necessitano di un mezzo per la trasmissione, mostra che la luce visibile è una parte dello spettro elettromagnetico.
Con la formulazione delle equazioni di Maxwell vennero completamente unificati i fenomeni elettrici, magnetici ed
ottici.
Teoria quantistica
Per risolvere alcuni problemi sulla trattazione del corpo nero nel 1900 Max Planck ideò un artificio matematico,
pensò che l'energia associata ad una onda elettromagnetica non fosse proporzionale al quadrato della sua ampiezza
(come nel caso delle onde elastiche in meccanica classica), ma direttamente proporzionale alla frequenza e che la sua
costante di proporzionalità fosse discreta e non continua.
L'interpretazione successiva che Albert Einstein diede dell'effetto fotoelettrico incanalò il pensiero dei suoi
contemporanei verso una nuova strada. Si cominciò a pensare che quanto fatto da Planck non fosse un mero artificio
matematico, ma piuttosto l'interpretazione di una nuova struttura fisica, cioè che la natura della luce potesse avere un
qualche rapporto con una forma discreta di alcune sue proprietà. Si cominciò a parlare di pacchetti discreti di
energia, battezzati fotoni. Con l'avvento delle teorie quantistiche dei campi (ed in particolare dell'elettrodinamica
quantistica) il concetto di fotone venne formalizzato ed oggi sta alla base dell'ottica quantistica.
Ottica
Lo studio della luce e dell'interazione tra luce e materia è detto ottica. L'osservazione e lo studio dei fenomeni ottici,
come ad esempio l'arcobaleno offre molti indizi sulla natura della luce.
La luce visibile è una porzione dello spettro elettromagnetico compresa approssimativamente tra i 400 e i 700
nanometri (nm) (nell'aria). La luce è anche caratterizzata dalla sua frequenza. Frequenza e lunghezza d'onda
obbediscono alla seguente relazione: l=v/f (dove l è la lunghezza d'onda, v è la velocità nel mezzo considerato - nel
vuoto in genere si indica con c - , f è la frequenza della radiazione).
Luce 5
Grandezze misurabili
Di seguito sono riportate quantità o unità di misura legate a fenomeni luminosi:
• Tonalità (o → temperatura)
• luminosità
• illuminamento (unità SI: lux)
• flusso luminoso (unità SI: lumen)
• intensità luminosa (unità SI: candela)
Sorgenti di luce
• Radiazione termica
• Lampade ad incandescenza
• Luce solare
• fuoco
• Qualsiasi corpo ad di sopra di una certa temperatura (cioè incandescente, ad es. metallo fuso)
• Emissione spettrale atomica (la fonte di emissione può essere stimolata o spontanea)
• Laser e Maser (emissione stimolata)
• LED (light emitting diode)
• lampade a scarica di gas (insegne al neon, lampade al mercurio, etc)
• Fiamme dei gas
• Accelerazione di una particella dotata di carica (solitamente un elettrone)
• Radiazione ciclotronica
• Bremsstrahlung
• Effetto Čerenkov
• luce di sincrotrone
• chemioluminescenza
• fluorescenza
• fosforescenza
• tubo catodico
• bioluminescenza
• sonoluminescenza
• triboluminescenza
• radioattività
• annichilazione particella-antiparticella
Altri progetti
• Wikimedia Commons contiene file multimediali su luce
• Wikiquote contiene citazioni riguardanti la luce
• Wikizionario contiene la voce di dizionario «luce»
Spettro elettromagnetico
(Ordinato in base alla frequenza, ordine crescente)
Onde radio | Microonde | Radiazione terahertz | Infrarosso | Luce visibile | Ultravioletto | Raggi X | Raggi gamma
Luce 6
ckb: کشیتmwl:Lhuç
Colore
Il colore è la percezione visiva generata dai
segnali nervosi che i fotorecettori della
retina mandano al cervello quando
assorbono radiazioni elettromagnetiche di
determinate lunghezze d'onda e intensità.
Prima fase
Nella prima fase una sorgente luminosa emette un flusso di fotoni di diversa frequenza. Questo flusso di fotoni può:
1. arrivare direttamente all'occhio:
2. essere riflesso da un corpo che ne assorbe alcuni e ne riflette altri:
3. essere trasmesso da un corpo trasparente che ne assorbe alcuni e riflette altri.
In ogni caso i fotoni che giungono all'occhio costituiscono lo stimolo di colore. Ogni singolo fotone attraversa la
cornea, l'umore acqueo, la pupilla, il cristallino, l'umore vitreo e raggiunge uno dei fotorecettori della retina (un
bastoncello, oppure un cono L, un cono M o un cono S) dal quale può essere o non essere assorbito. La probabilità
che un tipo di fotorecettore assorba un fotone dipende dal tipo di fotorecettore e dalla frequenza del fotone.
Come risultato dell'assorbimento ogni fotorecettore genera un segnale elettrico in modulazione di ampiezza,
proporzionale al numeri di fotoni assorbiti. Gli esperimenti mostrano che i segnali generati dai tre coni L, M e S sono
direttamente collegati con la sensazione di colore, e sono detti segnali di tristimolo.
Colore 8
Seconda fase
Nella seconda fase i segnali di tristimolo vengono elaborati e compressi con modalità non ancora completamente
note. Questa elaborazione avviene nella altre cellule della retina (cellule orizzontali, bipolari e gangliari) e termina
con la generazione di altri tre segnali elettrici, questa volta in modulazione di frequenza, che sono chiamati segnali
opponenti e vengono trasmessi al cervello lungo il nervo ottico.
Terza fase
I segnali chimici opponenti che lungo i due nervi ottici (che sono costituiti dagli assoni delle cellule gangliari)
raggiungono il cervello arrivano nei cosiddetti corpi genicolati laterali, che costituiscono una stazione intermedia per
i segnali, che da qui vengono proiettati in apposite aree della corteccia visiva, dove nasce la percezione del colore.
Contrasti cromatici
I contrasti cromatici si producono tramite l'accostamento di due o più colori diversi tra loro.
Contrasto di quantità
Ogni tinta presenta un diverso grado di luminosità, per cui se vogliamo creare un equilibrio percettivo è necessario
stendere in modo molto proporzionale le varie zone di colore, ad esempio un colore molto luminoso dovrà occupare
un'area minore rispetto a un colore con un minore grado di luminosità.
Voci correlate
• Associazione Internazionale del Colore
• Basic design
• Colori primari
• Colorimetria
• → CMYK
• Cromoforo
• Cromoterapia
• Lista dei colori
• → Luce
• Mescolanza additiva
• Mescolanza sottrattiva
• Metamerismo
• Pantone
• Rappresentazione dei colori
• Sistema NCS
• → Spazio dei colori
Colore 10
• Stimolo di colore
Bibliografia
• G. Wyszecki, W.S. Stiles: Color Science: Concepts and Methods, Quantitative Data and Formulae Wiley 1982
(II ed.)
• C. Oleari (a cura di): Misurare il colore Hoepli 1998
• R.W.G. Hunt: "Measuring Color" Fountain Press 1998 (III ed.)
• G.A. Agoston: Color Theory and Its Application in Art and Design Springer 1987 (II ed.)
• D.B. Judd, G. Wyszecki: Color in Business, Science, and Industry Wiley 1975 (III ed.)
• M.D. Fairchild: Color Appearance Models Addison Wesley 1998
• CIE: International Lighting Vocabulary 1970 (III ed.)
• J.W. von Goethe: ''"La teoria dei colori. Lineamenti di una teoria dei colori", a cura di Renato Troncon, Il
Saggiatore 1981
Altri progetti
• Wikimedia Commons contiene file multimediali su colore
• Wikizionario contiene la voce di dizionario «colore»
• Wikiquote contiene citazioni sul colore
Collegamenti esterni
• La psicologia dei colori [1]
• Un dizionario dei sinonimi dei colori [2]
• I principali schemi di colori [3]
Note
[1] http:/ / www. lucacoladarci. it/ colori. htm
[2] http:/ / www. communities. hp. com/ online/ blogs/ mostly_color/ archive/ 2008/ 07/ 30/ un-dizionario-dei-sinonimi-dei-colori. aspx
[3] http:/ / computer-acquisti. com/ blog/ gli-schemi-di-colori-cosa-sono-e-come-usarli/
Spazio dei colori 11
Primari immaginari
Solo aggiungendo un colore primario alla tinta da codificare era
possibile individuare una terna cromatica che la riproducesse
fedelmente: fu ipotizzato così che la risposta dei fotorecettori retinici
umani (i coni) avesse un andamento negativo per alcune frequenze
dello spettro visibile.
I primari scelti dalla CIE per generare tutti i colori visibili sono tinte
ipersature: colori (in realtà, non essendo visibili, non dovrebbero essere
indicati come tali) più saturi di quanto i nostri fotorecettori retinici
siano in grado di decifrare.
I tre "primari immaginari", con notevole sforzo di fantasia, sono stati
denominati X, Y, e Z. X corrisponde a un rosso violaceo ipersaturo
contraddistinto da due picchi nello spettro cromatico rispettivamente Esempio di uno spazio dei colori
Inoltre la tinta Y (quella corrispondente al "verde ipersaturo") ha un andamento proporzionale alla nostra sensibilità
alla luminosità delle tinte. Scelti i tre primari tramite i quali è possibile ottenere, per sintesi additiva, qualsiasi tinta
reale è possibile a questo punto utilizzare uno spazio tridimensionale, avente per assi i tre primari utilizzati, per
catalogarle tutte.
Per non ricorrere ad un diagramma tridimensionale è possibile normalizzare le tinte facendo in modo che la loro
somma sia sempre pari ad uno. Se X, Y, e Z sono i tre valori che identificano un colore, X+Y+Z la loro somma, e noi
poniamo:
x = X/(X+Y+Z)
y = Y/(X+Y+Z)
z = Z/(X+Y+Z)
risulta, con semplici passaggi algebrici e stando attenti a minuscole e maiuscole, che x+y+z è sempre uguale ad 1 per
qualsiasi valore originario di X, Y e Z. Da questo si ricava tra l'altro che:
z = 1-x-y
ed è dunque possibile utilizzare due sole coordinate cromatiche (x e y, ad esempio) per identificare un colore essendo
la terza (z, in questo caso) ricavabile sottraendo all'unità le altre due. Il vantaggio è evidente: normalizzando i colori
col meccanismo della somma costante (uguale a 1) è possibile utilizzare un grafico bidimensionale per catalogare
qualitativamente (e non quantitativamente) tutte le tinte reali.
Ovvero si tracciano tutti i colori possibili ed immaginabili la cui intensità totale è costante e pari ad uno: tutte le altre
tinte sono ottenute semplicemente indicando, oltre ai valori x e y (il valore z si ottiene, come detto, dagli altri due) il
suo grado di luminosità espresso, volendo, in forma percentuale.
Spazio dei colori 13
Più o meno al centro del diagramma Lo spazio dei colori CIE 1931
CIE è presente un punto (un colore),
come si vedrà tra breve, di importanza strategica, indicato con la lettera "C". È il cosiddetto "Illuminante CIE",
assunto come riferimento e corrispondente alla radiazione emessa da una superficie bianca illuminata da luce diurna
media. Lungo il perimetro curvo della campana si trovano tutte le tinte spettrali alla loro massima saturazione. Nella
parte alta del diagramma vivono le famiglie dei verdi; in basso a sinistra i blu, in basso a destra i rossi.
Sul segmento rettilineo che congiunge i due vertici inferiori della campana si trovano i colori non spettrali (o
porpore) alla loro massima saturazione. Tutti i colori non spettrali, dalla saturazione via via decrescente, sono situati
nel triangolo delimitato in basso dal segmento delle porpore e avente come vertice il punto C.
Colori spettrali
Lo stesso vale per i colori spettrali, situati nella rimanente parte del diagramma: man mano che ci si avvicina
all'illuminante C i colori sono sempre meno saturi. Per come è costruito il diagramma, prendendo due tinte qualsiasi,
il segmento che le unisce rappresenta tutte le possibili mescolanze additive dei due colori prescelti. Non solo: la
posizione relativa lungo il segmento di congiunzione rappresenta la percentuale di mescolanza delle tinte.
Così nel baricentro del segmento è possibile trovare la tinta esattamente formata dal 50% del primo colore e dal 50%
del secondo colore. Spostandosi ad esempio ai "tre quarti" del segmento, la tinta individuata corrisponde alla somma
del 75% del primo colore e del 25% del secondo colore e così via.
Lo stesso discorso vale per la sintesi additiva di tre o più componenti cromatiche: le tinte ottenibili dalla loro
mescolanza sono tutte quelle delimitate dal poligono convesso che ha come vertici i punti del diagramma che
corrispondono ai colori utilizzati. Tornando al caso di due sole tinte, se il segmento che le unisce passa per il punto C
i colori presi in considerazione sono tra loro complementari. Se il punto C "cade" nel baricentro del segmento, le due
tinte hanno la medesima saturazione (è uguale la loro distanza dall'illuminante CIE) e sommandole tra di loro si
ottiene il colore bianco.
Spazio dei colori 14
Mescolanze sottrattive
Il diagramma di cromaticità CIE può essere utilizzato, prendendo le dovute precauzioni, anche per le mescolanze
sottrattive (come avviene per la stampa). I colori ottenuti dalla mescolanza sottrattiva di due tinte non giacciono sul
segmento rettilineo che li unisce ma lungo un segmento curvilineo del quale non è nota a priori la forma esatta. Per
tracciare la curva (il luogo dei punti corrispondenti ai colori ottenibili dalla sintesi sottrattiva dei due colori) è
necessario "campionare" alcune mescolanze tipiche (ad esempio 10%-90%, 20%-80%, 30%-70%, ecc. ecc.) ed
interpolare così l'andamento complessivo.
Da segnalare due cose interessanti. Innanzitutto, proprio per la forma a campana di quest'ultimo, comunque
scegliamo i tre primari all'interno dei colori reali non riusciremo mai a riprodurre con essi tutte le tinte ma ne
escluderemo sempre una certa quantità. Dunque si può dire che non esistono monitor RGB in grado di riprodurre
tutto il riproducibile o scanner a colori altrettanto sensibili. La seconda considerazione riguarda lo spazio cromatico
della stampa a colori, ridotto rispetto allo spazio RGB ma leggermente più accurato per quel che riguarda la stampa
delle tinte azzurro ciano.
Se un colore appartiene al perimetro esterno è, come già detto, al suo massimo grado di purezza, se cade all'interno
del diagramma ha come saturazione la distanza relativa la tinta e il punto C, misurata lungo il segmento passante per
il colore e congiungente il bianco col bordo esterno. Il punto in cui il prolungamento del segmento incontra il
perimetro identifica la lunghezza d'onda dominante della tinta considerata.
Voci correlate
• ColorSync
• Colorimetria
Temperatura di colore 15
Temperatura di colore
Temperatura di → colore è un termine usato in illuminotecnica per quantificare la tonalità della → luce, che si
misura in kelvin.
Definizione
Il termine deriva dal fatto che lo spettro luminoso emesso da un corpo nero presenta un picco di emissione
determinato in base alla legge di Wien esclusivamente dalla sua temperatura. Una sorgente reale differisce da un
corpo nero ideale ma l'analogia rimane valida.
Una temperatura bassa (sempre però nell'incandescenza, intorno ai 2000 K) corrisponde ad un colore giallo-arancio.
Scendendo si passa al rosso ed all'infrarosso, non più visibile, mentre salendo di temperatura la luce si fa dapprima
più bianca, quindi azzurra, violetta ed ultravioletta. Quando comunemente si dice che una luce è calda, in realtà
questa corrisponde ad una temperatura di colore bassa, viceversa un temperatura maggiore produce una luce definita
comunemente fredda.
Si noti che ha senso parlare di temperatura di colore solo se la sorgente di luce emette uno spettro di energia
continuo. Questo non si verifica però per tutte le sorgenti luminose.
Determinazione
Un corpo solido riscaldato all'incandescenza emette prevalentemente nella gamma della luce visibile, ma la
lunghezza d'onda del picco di emissione varia al variare della temperatura. Nelle normali lampade ad incandescenza
la lunghezza d'onda è spostata verso valori maggiori e la luce prodotta, intorno ad un valore di 2800 K presenta una
componente gialla. Nelle lampade alogene si riesce ad aumentare la temperatura del filamento ottenendo una luce
più bianca, intorno ad un valore di 3200 K.
Nelle lampade a scarica il colore è determinato dallo spettro di emissione del gas alla pressione a cui si trova. Nelle
lampade fluorescenti , che sono anch'esse lampade a scarica ma che producono luce attraverso un procedimento
elettrochimico diverso, dove cioè la vera e propria scarica elettrica provoca l'eccitazione, e perciò la luminescenza,
delle polveri fluorescenti depositate uniformemente all'interno della lampada stessa, la tonalità della luce dipende
dalla scelta del materiale fluorescente utilizzato (per questo si possono avere lampade a fluorescenza di colori
differenti. Si noti che il fenomeno della fluorescenza differisce da quello della fosforescenza, in quanto nel primo
caso, al cessare dell'eccitazione causante la luminescenza, l'emissione di luce è pressoché istantanea, nel secondo
caso può durare a lungo. Ricordiamo, inoltre, che le lampade appartenenti alla categoria delle fluorescenti non ha
nulla a che fare con le lampade al neon, usate in prevalenza per le insegne commerciali .
Spesso sono riportate le temperature di → colore del bianco dei monitor per PC, siano essi di tipo CRT, LCD o al
plasma, ma questa temperatura, in realtà, non avrebbe senso, in quanto tale bianco è prodotto per metamerismo dalla
somma dei colori fondamentali (Red, Green e Blue) prodotti dai diversi fosfori.
Temperatura di colore 16
Esempi
Qui di seguito sono riportate le temperature di colore di alcune sorgenti di luce comuni:
• Luce solare a mezzogiorno: 5 400 K
• Luce del cielo: da 10 000 a 18 000 K
• Lampada Photoflood da 500 W per uso fotografico: 3 400 K
• Lampada da 100 W per uso generale: 2 900 K
• Lampada da 40 W per uso generale: 2 650 K
Voci correlate
• Metamerismo
RGB
RGB è il nome di un modello di colori le cui specifiche sono state descritte
nel 1931 dalla CIE (Commission internationale de l'éclairage). Tale modello
di colori è di tipo additivo e si basa sui tre colori rosso (Red), verde (Green) e
blu (Blue), da cui appunto il nome RGB, da non confondere con i colori
primari sottrattivi giallo, ciano e magenta (popolarmente chiamati anche
giallo, rosso e blu). Un'immagine può infatti essere scomposta, attraverso
filtri o altre tecniche, in questi colori base che, miscelati tra loro, danno quasi
tutto lo spettro dei colori visibili, con l'eccezione delle porpore.
RGsB
Quando su un'interfaccia video si trasmette il colore RGB con tre canali solamente il sincronismo composito viene
posto sul verde (G). Questa modalità si chiama RGsB.
RGBS
Quando su un'interfaccia video si trasmette il colore RGB con quattro canali, il quarto è utilizzato per il sincronismo
composito. Questa modalità si chiama RGBS utilizzata ad esempio su un'interfaccia SCART.
RGBHV
Quando su un'interfaccia video si trasmette il colore RGB con cinque canali, il quarto è utilizzato per il sincronismo
orizzontale (H) e il quinto per il sincronismo verticale (V). Questa modalità si chiama RGBHV utilizzata ad esempio
su un'interfaccia Video Graphics Array o Digital Visual Interface.
Voci correlate
• Colorimetria
• → CMYK
• Sintesi additiva
• Sintesi sottrattiva
• YUV
• RGBA
RGB 18
Collegamenti esterni
• [2] (pagina che consente di sperimentare l'effetto della sovrapposizione dei colori base, visualizzando l'effetto
della sintesi additiva e della sintesi sottrattiva)
Note
[1] R. W. G. Hunt, The Reproduction of Colour, 6th ed., Chichester UK, Wiley – IS&T Series in Imaging Science and Technology, 2004. ISBN
0-470-02425-9
[2] http:/ / ww2. unime. it/ dipart/ i_fismed/ wbt/ ita/ colors/ colors_ita. htm
CMYK
CMYK è l'acronimo per Cyan, Magenta, Yellow, BlacK; è
un modello di colore detto anche di quattricromia o
quadricromia. La scelta della lettera K per il nero, anziché
la lettera B iniziale nella traduzione inglese, è stata fatta per
evitare confusioni con l'iniziale del colore Blue ed è dovuta al
fatto che, nella stampa, si usa un procedimento di separazione
dei colori per produrre tante diverse immagini quanti sono gli
inchiostri usati. Nella quadricromia CMYK l'immagine
corrispondente al nero è quella che contiene più dettagli e la
lastra di stampa corrispondente è quindi normalmente
considerata la lastra chiave, in inglese key plate. Da qui l'uso
di K, con riferimento a tale lastra, per indicare il nero.
Quadricromia CMYK
CMYK 19
Voci correlate
• Colorimetria
• → RGB
• Sintesi additiva
• Sintesi sottrattiva
• Oleografia
• Stampa offset
Hue Saturation Brightness 20
Voci correlate
• Hue Saturation Lightness
• saturazione
• tonalità
• luminosità HSL visto come un doppio cono.
Collegamenti esterni
• Implementazione in C dell'algoritmo per convertire i colori da HSV a RGB e viceversa. [1]
Note
[1] http:/ / mamo139. altervista. org/ index. php?tipo=c& id=0
21
Grafica Digitale
Grafica raster
La grafica bitmap, o grafica raster (in inglese bitmap graphics,
raster graphics), è una tecnica utilizzata in computer grafica per
descrivere un'→ immagine. Un'immagine descritta con questo tipo di
grafica è chiamata immagine bitmap o immagine raster.
La grafica bitmap si contrappone alla grafica vettoriale.
• se l'immagine contiene pochi colori (massimo 256) si crea un elenco dei colori da utilizzare e nella scacchiera
viene inserito l'indice che punta allo specifico colore del pixel;
• nel caso si vogliano utilizzare molti più colori il singolo pixel non definisce più l'indice a una tavolozza di colori
ma definisce il colore direttamente.
Il colore viene definito come un'unione delle componenti blu, rossa e verde. Questo non è l'unico modo di definire
un colore, esistono molti modi che vengono chiamati → spazi di colore ma nel caso delle immagini generate al
computer il sistema → RGB (RED Rosso, GREEN verde BLUE Blu) è il più diffuso dato che le schede grafiche lo
utilizzano nativamente per generare il segnale da visualizzare con il monitor.
La grafica bitmap è invece ideale per rappresentare immagini della realtà, per modificare contrasti e luminosità di
queste, per applicare filtri di colore.
Non compressi
Questi formati di file hanno richieste di elaborazione minima, non essendo necessari algoritmi di compressione (in
fase di scrittura) e decompressione (in fase di lettura), tuttavia, mancando di compressione, risultano particolarmente
voluminosi, in termini di spazio occupato su disco (o altro dispositivo di memorizzazione), rispetto agli altri formati:
• raw
• bmp (in alcuni casi i file bmp sono compressi con un algoritmo RLE)
Altre applicazioni
Nel campo dei Sistemi informativi territoriali o GIS, il termine raster è usato per indicare la tipologia di dato
impiegata nella rappresentazione cartografica digitale. Con i dati raster il territorio viene riprodotto attraverso una
matrice di pixel di forma quadrata o rettangolare. A ciascun pixel è associato un attributo che definisce le
caratteristiche dell'elemento rappresentato. Ad esempio in un modello digitale di elevazione a ciascun pixel è
associato il valore della quota sul livello del mare in quel punto. La dimensione dei pixel è inversamente
proporzionale alla precisione della carta. I dati raster possono essere implementati in un sistema GIS mediante
acquisizione diretta con apparecchiature a lettura ottica quali ad esempio scanner d'immagini o attraverso
l'elaborazione di dati, raster o vettoriali, già acquisiti.
Grafica raster 23
Voci correlate
• Grafica vettoriale
• → Immagine digitale
• Rasterizzazione
Note
[1] http:/ / www. answers. com/ topic/ raster
Pixel
In computer grafica, con il termine pixel (contrazione della locuzione
inglese picture element) si indica ciascuno degli elementi puntiformi
che compongono la rappresentazione di una → immagine raster nella
memoria di un computer.
Solitamente i punti sono così piccoli e numerosi da non essere
distinguibili ad occhio nudo, apparendo fusi in un'unica immagine
quando vengono stampati su carta o visualizzati su un monitor. Ingrandimento di una versione precedente del
Ciascun pixel, che rappresenta il più piccolo elemento autonomo logo di Wikipedia in cui sono evidenti i pixel che
compongono l'immagine
dell'immagine, è caratterizzato dalla propria posizione e da valori quali
→ colore e intensità, variabili in funzione del sistema di
rappresentazione adottato.
L'esempio qui a destra mostra un logo in grafica raster ingrandito in modo da evidenziare i singoli pixel. Si noti che
in questo caso l'illusione di una immagine uniforme è resa più realistica mediante l'uso di sfumature di grigio sul
bordo dei caratteri, evitando bruschi passaggi di colore (tale processo è detto di antialiasing).
Aspetti tecnici
Il numero di pixel in un'immagine (talvolta impropriamente detto "risoluzione" dell'immagine) determina la quantità
di dettagli fini che possono essere rappresentati. Sebbene il concetto di pixel si applichi in tutti i contesti con il
medesimo significato, per l'indicazione del numero di pixel da cui è costituita una immagine sono in uso diverse
convenzioni per diverse tecnologie specifiche. Per esempio, il numero di pixel di cui è costituita l'immagine prodotta
da una fotocamera digitale viene espresso come un singolo valore, in megapixel (milioni di pixel), mentre il numero
di pixel di un display viene in genere espresso come un prodotto (pixel in altezza per pixel in larghezza), per esempio
640 × 480.
I punti colorati che formano un'immagine digitale (come una → JPEG) vengono chiamati anch'essi pixel. Possono
non essere in corrispondenza uno-a-uno con i pixel dello schermo. Nei casi in cui questa distinzione è importante, i
punti del file possono essere chiamati texel.
In informatica, un'immagine composta da pixel è conosciuta come immagine bitmap o → immagine raster. La parola
raster trae origine dalla tecnologia della televisione analogica. Le immagini bitmap sono usate per codificare il →
video digitale e per produrre arte generata da computer.
Poiché la → risoluzione del monitor può essere regolata dal sistema operativo del computer, un pixel è una misura
relativa. I moderni schermi per computer sono progettati con una risoluzione nativa, che si riferisce al perfetto
accoppiamento tra pixel e triadi. La risoluzione nativa darà origine all'immagine più netta tra quelle che lo schermo è
in grado di produrre. Comunque, l'utente può aggiustare la risoluzione, il che si ottiene disegnando ogni pixel usando
più di una triade. Questo processo normalmente dà origine a una immagine sfuocata. Ad esempio, uno schermo con
Pixel 24
risoluzione nativa di 1280×1024 produrrà le migliori immagini se impostato a quella risoluzione, mostrerà la
risoluzione a 800×600 in modo adeguato, disegnando ogni pixel con più di una triade, e non sarà in grado di
mostrare immagini a 1600×1200 a causa della mancanza di un numero sufficiente di triadi.
Normalmente, una risoluzione non nativa viene mostrata meglio su uno schermo CRT che su un LCD.
I pixel possono essere sia quadrati che rettangolari. Un valore chiamato pixel aspect ratio, descrive le proporzioni di
un pixel per la sua corretta visualizzazione. Ad esempio, un pixel aspect ratio di 1,25:1, significa che ogni pixel
dev'essere visualizzato 1,25 volte più largo che alto perché quanto rappresentato sia proporzionato. I pixel sugli
schermi dei computer sono in genere quadrati, ma i pixel utilizzati nel → video digitale hanno forma non quadrata,
come nel D1 aspect ratio.
Ogni pixel di un'immagine monocroma ha la sua luminosità. Un valore pari a zero di norma rappresenta il nero,
mentre il valore massimo rappresenta il bianco. Ad esempio, in un'immagine a otto bit, il massimo valore senza
segno che può essere immagazzinato è 255, così questo è il valore usato per il bianco.
Nelle immagini a colori, ogni pixel ha la sua luminosità e colore, tipicamente rappresentate da una tripletta di
intensità di rosso, verde e blu (vedi → RGB). I monitor a colori usano pixel composti da 3 sotto-pixel. Nelle
immagini in scale di grigio i valori di accensione dei 3 subpixels è sempre uguale (ad esempio R=71, G=71, B=71).
Il numero di colori distinti che possono essere rappresentati da un pixel dipende dal numero di bit per pixel (BPP).
Valori comuni sono:
• 8 bpp (256 colori)
• 16 bpp (65.536 colori, noto come Highcolour)
• 24 bpp (16.777.216 colori, noto come Truecolour).
Immagini composte da 256 colori o meno, vengono normalmente immagazzinate nella memoria video del computer,
in formato chunky o planar, dove un pixel in memoria è l'indice di una lista di colori chiamati palette (tavolozza).
Queste modalità sono quindi chiamate modalità indicizzate. Mentre vengono mostrati solo 256 colori, questi sono
presi da una tavolozza molto più ampia, tipicamente di 16 milioni di colori. Cambiare i valori della tavolozza
permette una specie di effetto animato. Il logo animato di avvio di Windows 95 e Windows 98 è probabilmente il più
noto esempio di questo tipo di animazione.
Per profondità di colore più ampie di 8 bit, il numero è il totale dei tre componenti RGB (rosso, verde e blu). Una
profondità di 16 bit viene di solito divisa in cinque bit di rosso e blu e sei di verde, (il verde ha più bit perché l'occhio
e più sensibile a quel colore). Una profondità di 24 bit permette 8 bit per componente. Su alcuni sistemi è disponibile
una profondità di 32 bit: questo significa che ogni pixel a 24 bit ha 8 bit extra per descrivere l'opacità. Sui sistemi più
vecchi è comune il formato a 4 bpp (16 colori).
Quando un file immagine viene mostrato a → video, il numero di bit per pixel viene espresso separatamente per il
file raster e per lo schermo. Alcuni formati di file raster, hanno una grande profondità in bit rispetto ad altri. Il
formato GIF, ad esempio, ha una profondità massima di 8 bit, mentre il TIFF può gestire pixel a 48-bit. Non ci sono
monitor che possano rappresentare colori a 48 bit, e quindi questa profondità viene di solito usata per applicazioni
professionali specializzate che lavorano con scanner d'immagini o stampanti. Questi file vengono "renderizzati" su
schermo con 24-bit di profondità.
Altri oggetti derivati dal pixel, come i voxel (elementi di volume), i texel (elementi di consistenza) e i surfel
(elementi di superficie), sono stati creati per altri utilizzi della computer grafica.
Pixel 25
Sotto-pixel
Sugli schermi a cristalli liquidi e su quelli a tubo catodico, ogni pixel è costruito da tre sotto-pixel, ognuno per i tre
colori, posti a distanza ravvicinata. Ogni singolo sotto-pixel è illuminato in base a un determinato valore, e a causa
della loro prossimità, creano l'illusione ottica di un singolo pixel di un colore particolare.
Una tecnica recente per aumentare la risoluzione apparente di un monitor a colori, chiamata sub-pixel font rendering,
usa la conoscenza della geometria dei pixel per manipolare separatamente i tre sotto-pixel, il che sembra essere
particolarmente efficace con gli schermi LCD impostati con risoluzione nativa. Questa è una forma di antialiasing, e
viene usata principalmente per migliorare l'aspetto del testo. Il Cleartype di Microsoft, che è disponibile su Windows
XP, ne è un esempio. Un altro esempio è la tecnologia Quartz utilizzata dal Mac OS X per l'interfaccia grafica. In
questo caso l'intera interfaccia grafica utilizza questa tecnologia. Ciò rende l'interfaccia grafica più gradevole ma
rende le singole linee meno definite e questo in alcuni casi può disturbare l'utente.
Megapixel
Un megapixel è 1 milione di pixel, e viene solitamente usato con riferimento alle macchine fotografiche digitali.
Alcune macchine fotografiche digitali usano i CCD, che registrano i livelli di luminosità. Vecchie fotocamere
digitali, che non usano i CCD Foveon X3 [1] hanno filtri colorati rossi, verdi e blu, in modo che ogni pixel possa
registrare la luminosità di un singolo colore primario. Quindi, i pixel delle fotocamere digitali che non usano i CCD
Foveon X3, sono simili a sotto-pixel. La fotocamera interpola l'informazione di colore per creare l'immagine finale.
Quindi, un'immagine a 'x'-megapixel, proveniente da una fotocamera con 1/4 della risoluzione di colore della stessa
immagine acquisita da uno scanner. La risoluzione dei dettagli non ne risente. Quindi, un'immagine di un oggetto blu
o rosso (di solito ci sono più pixel verdi) tenderà ad apparire sfuocata, se confrontata con lo stesso oggetto in toni di
grigio.
È importante sapere che in numero di megapixel non è un diretto indice di qualità delle macchine fotografiche; è
vero che un numero più elevato di pixel permette, in linea teorica, un maggior potere risolutivo, ma questo è spesso
limitato dal sistema ottico utilizzato per convogliare l'immagine sul sensore. Se il potere risolutivo del complesso di
lenti è inferiore al potere risolutivo della matrice di pixel allora non si avrà alcun guadagno nell'aumentare in numero
di pixel, anzi si avrà un peggioramento delle prestazioni del sistema a causa del maggiore rumore elettronico
introdotto.
Gigapixel
Un gigapixel corrisponde a 1 miliardo di pixel, e viene solitamente usato con riferimento alle schede grafiche (Pixel
Fillrate).
Pel
Pel è un termine che viene usato di solito come abbreviazione di pixel, ma può anche riferirsi ai sub-pixels.
Voci correlate
• Dot pitch
• Grafica vettoriale
• Pixel art
Pixel 26
Altri progetti
• Wikizionario contiene la voce di dizionario «pixel»
Note
[1] http:/ / www. foveon. com/ X3_tech. html
Risoluzione (grafica)
La risoluzione indica il grado di qualità di un'immagine. Generalmente si usa questo termine riguardo immagini
digitali, ma anche una qualunque fotografia ha una certa risoluzione.
Nelle immagini su computer, la risoluzione indica la densità dei → pixel, ovvero la quantità dei puntini elementari
che formano l'immagine rapportata ad una dimensione lineare (ad esempio pixel/cm o pixel/pollice). Lo schermo di
un computer non può mostrare linee o disegni, ma soltanto punti; se questi sono sufficientemente piccoli, tali da
essere più piccoli della risoluzione percepita dall'occhio umano, l'osservatore ha l'impressione di vedere linee
anziché punti allineati, e disegni anziché ammassi di puntini distinti.
Bassa risoluzione
La distinzione tra alta risoluzione e bassa risoluzione ha assunto anche rilevanza giuridica perché la legge 9 gennaio
2008, n. 2, integrando l'articolo 70 della legge n. 633/41 sul diritto d'autore, ha previsto per i siti non lucrativi, la
possibilità di riprodurre immagini per fini didattici o scientifici. Manca tuttavia una più esatta definizione di che cosa
debba intendersi per bassa risoluzione, che evidentemente deve essere ricavata da norme di buona tecnica.
Voci correlate
• Telescopio
Risoluzioni standard 27
Risoluzioni standard
Le risoluzioni standard o modalità
video sono combinazioni di parametri
utilizzate dall'industria elettronica per
definire l'interfaccia video di un
computer. Tali parametri di solito sono
la risoluzione dei display (specificata
dalla larghezza e altezza in → pixel), la
profondità di colore (espressa in bit) e
la velocità di refresh (refresh rate,
espressa in hertz).
Storia
Le risoluzioni standard utilizzate nei
PC in questi anni (fine del XX secolo e
inizi XXI secolo) si sono evolute
moltissimo: si va dai semplici frame Comparazione delle risoluzioni standard. La colorazione blu, rossa, gialla verde e viola
buffer dei primi anni, caratterizzati indica il display aspect ratio (DAR)
L'evoluzione dell'informatica e dell'elettronica ha modificato nel tempo l'interfaccia di interazione tra computer ed
operatore. Se fino alla metà negli anni '70, era la normalità l'uso delle schede perforate e di pannelli a spie luminose
per leggere i risultati dei calcoli, divenne poi possibile interagire con gli elaboratori attraverso videoterminali a
carattere. L'evoluzione successiva ha portato alla nascita di numerosi standard grafici che introdussero linee e curve e
successivamente i colori.
La continua evoluzione dell'elettronica e della tecnologia di visualizzazione aumenta sempre più la definizione, la
superficie visualizzabile e le dimensioni stesse degli schermi.
Fino al 2003, la maggior parte dei monitor aveva un Aspect ratio di 4:3 e qualcuno di 5:4. Dal 2003 al 2006 si sono
resi disponibili vari monitor con un rapporto di risoluzione di 16:10, inizialmente sui laptop e successivamente sui
monitor per PC. Questo cambiamento è dovuto sia al fatto che con questo rapporto si vedono meglio film e giochi
ma soprattutto le attività di videoscrittura ne hanno tratto beneficio potendo visualizzare due pagine A4 affiancate,
così come anche il CAD che ha potuto sfruttare lo spazio in più per la visualizzazione dei menù a fianco del disegno
grafico. La Video Electronics Standards Association (VESA) ha definito diversi standard video mentre quelli
ergonomici sono definiti dal TCO.
Risoluzioni standard 28
MDA Monochrome Lo standard originale sugli IBM PC e IBM PC XT con 720×350 72:35 1 bpp MDA
Display Adapter 4 KB di video RAM. Introdotto nel 1981 dall'IBM. (text)
Supporta unicamente la modalità testuale.
CGA Color Graphics Introdotto nel 1981 by IBM è il primo standard video a 640×200 16:5 1 bpp CGA
Adapter colori per gli IBM PC. Le schede grafiche CGA erano (128k) 16:10 2 bpp
dotate di 16 KB video RAM. 320×200 4:5 4 bpp
(64k)
160×200
(32k)
Hercules Una modalità video monocromatica con un'ottima 720×348 60:29 1 bpp MDA
visualizzazione del testo e della grafica per l'epoca in (250.5k)
cui fu introdotta (1982). Divenne molto popolare
abbinata al software di foglio elettronico Lotus 1-2-3
che è stato una delle prime killer application.
EGA Enhanced Introdotta da IBM nel 1984 con una risoluzione di 640 640×350 64:35 4 bpp EGA
Graphics Adapter × 350 pixel su 16 colori (4 bit per pixel, o bpp), (224k)
selezionabili fra 64 colori di base (palette) (2 bit per
ciascuna componente rossa-verde-blu).
Professional Introdotta nel 1984 per il PC-bus ISA a 8 bit, aveva a 640×480 4:3 8 bpp PGC
Graphics bordo un acceleratore hardware 2D e 3D ed era stata (307k)
Controller pensata per applicazioni CAD
MCGA Multi-Color Introdotta nel 1987 per gli IBM Personal System/2 320×200 16:10 8 bpp VGA
Graphics Array (PS/2) con un costo ridotto rispetta alla VGA. MCGA (64k) 4:3 1 bpp Standard
ha una risoluzione di 320x200 pixel con 256 color (da 640×480
una palette di 262,144 colori, e una risoluzione di (307k)
640x480 unicamente in bianco e nero in quanto la
video ram era di soli 64k mentre quella della VGA era
di 256k.
8514 Modalità video di IBM introdotta nel 1987 1024×768 4:3 8 bpp VGA
praticamente assieme alla VGA. Era caratterizzata (786k) Interlacciato
dalla risoluzione 1024x768 (precursore di XGA) ma
aveva un video interlacciato a 43.5 Hz.
VGA Video Graphics Introdotta nel 1987 da IBM. Oggi per VGA si intende 640×480 4:3 4 bpp VGA
Array la risoluzione 640x480 a 16 colori ma VGA è un (307k) 64:35 4 bpp Standard
insieme di risoluzioni che comprendono anche 640×350 16:10 4/8 bpp
320x200 a 256 colori e 720x400 in modalità testo. I (224k) 9:5 4 bpp
display VGA e le schede video VGA sono 320×200
generalmente in grado di operare in modalità grafica (64k)
Mode X, una modalità non documentata per aumentare 720×400
le prestazioni, utilizzata in, particolare, dai giochi. (text)
SVGA Super VGA Uno standard video introdotto nel 1989 dalla Video 800×600 4:3 4 bpp VESA VGA
Electronics Standards Association (VESA) per il (480k)
mercato dei PC IBM compatibili.
Risoluzioni standard 29
XGA Extended Introdotto da IBM nel 1990. XGA-2 ha poi aggiunto 1024×768 4:3 8 bpp VESA VGA
Graphics Array un supporto per più colori e ad un maggiore refresh (786k) 4:3 16 bpp
rate e il supporto della risoluzione 1360 × 1024 a 16 640×480
colori (4 bit per pixel). (307k)
XGA+ Extended Nome non ufficiale per riferirsi alla risoluzione di 1152 1152×864 4:3 8 bpp VESA VGA
Graphics Array x 864, che è la risoluzione 4:3 più ampia sotto il (786k) 4:3 16 bpp
Plus milione di pixel. Apple Computer ha impiegato una 640×480
variante di questa risoluzione a 1152x870 e Sun (307k)
Microsystems a 1152x900.
QVGA Quarter VGA Un quarto della risoluzione VGA 320×240 4:3 Non definita
(75k)
WQVGA Wide Quarter Risoluzione orizzontalmente ampia come la VGA ma 480×272 16:9 Non definita
VGA con circa la metà delle linee (126k)
HQVGA Half QVGA Un ottavo della risoluzione VGA 240×160 3:2 Non definita
(38k)
QQVGA Quarter QVGA Un sedicesimo della risoluzione VGA 160×120 4:3 Non definita
(19k)
WXGA Widescreen Una variante dello standard XGA con un Aspect ratio 1280×720 16:9 or 32 bpp VESA VGA
Extended 16:9 o 16:10 che si è molto diffuso sui notebook più (922k) 16:10
Graphics Array recenti (2008). 1280×800
(1024k)
1440×900
(1296k)
SXGA Super XGA Una modalità de facto ampiamente utilizzata con 32 bit 1280×1024 5:4 32 bpp VESA VGA
Truecolor, con un particolare aspect ratio di 5:4 invece (1310k)
del più comune 4:3 che comporta una leggera
distorsione delle immagini in formato 4:3. Questa
modalità è utilizzata sulla maggior parte dei display
LCD da 17".
• Alcuni produttori hanno chiamato questa modalità
Extended Video Graphics Array or XVGA in
considerazione che VGA è la risoluzione standard.
WXGA+ Widescreen Variante del formato WXGA molto utilizzata sugli 1440×900 16:10 32 bpp VESA VGA
Extended ultimi (2008) portatili e sui monitor 19" caratterizzate (1296k)
Graphics Array da un rapporto di risoluzione 16:10.
PLUS
SXGA+ Super Extended Molto frequente su laptop con display da 14" e 15" e su 1400×1050 4:3 32 bpp VESA VGA
Graphics Array videoproiettori DLP. (1470k)
Plus
WSXGA+ Widescreen Super molto frequente su Monitor Widescreen da 19" 21" e 1680×1050 16:10 32 bpp VESA VGA
Extended 22" e su laptop con display 15.4" e 17. (1764k)
Graphics Array
Plus
UXGA Ultra XGA Una risoluzione standard de facto Truecolor. 1600×1200 4:3 32 bpp VESA VGA
(1920k)
WUXGA Widescreen Ultra Una versione wide di UXGA molto utilizzato nei 1920×1200 16:10 32 bpp DVI Single
Extended notebook di fascia alta con display da 15,4" o 17" (2304k) Link
Graphics Array
QXGA Quad Extended Quattro volte la risoluzione XGA 2048×1536 4:3 32 bpp DVI Dual
Graphics Array (3146k) Link
Risoluzioni standard 30
WQXGA Widescreen Quad Modalità video apparsa per la prima volta su Apple 2560×1600 16:10 32 bpp DVI Dual
Extended Cinema 30" e divenuta standard su monitor da 30", (4096k) Link
Graphics Array richiede connessioni DVI o HDMI dual link.
QUXGA Quad Ultra Quattro volte la risoluzione UXGA. Richiede più 3200×2400 4:3 32 bpp Non ancora
Extended connessioni DVI (4 single link o 2 dual link). In futuro (7680k) supportata
Graphics Array sarà supportata da una singola connessione
DisplayPort.
WQUXGA Wide Quad Ultra Utilizzata dai monitor IBM T220/T221 LCD non più 3840×2400 16:10 32 bpp Non ancora
Extended disponibili sul mercato. (9216k) supportata
Graphics Array
Quattro volte i → pixel della risoluzione di base ossia due volte in orizzontale e due volte in verticale il
numero di → pixel.
Hexadecatuple (H)
Sedici volte i → pixel della risoluzione di base ossia quattro volte in orizzontale e quattro volte in verticale il
numero di → pixel.
Ultra (U)
eXtended (X)
Questi prefissi possono anche combinarsi come, ad esempio in WQXGA o WHUXGA.
480i Video a risoluzione standard NTSC a 60Hz interlacciato 720×480 (337.5k) 3:2 (1,5) 24 bpp 30
480p Video a risoluzione standard NTSC a 30Hz progressivo. 720×480 (337.5k) 3:2 (1,5) 24 bpp 30
576i Video a risoluzione standard PAL a 50Hz interlacciato 720×576 (405k) 4:3 (1,33) 24 bpp 25
576p Video a risoluzione standard PAL a 25Hz progressivo. 720×576 (405k) 4:3 (1,33) 24 bpp 25
720p Formato video → HDTV 1280 x 720 a 60Hz progressivo. 1280×720 (900k) 16:9 24 bpp 50-60
Esistono anche le varianti a 24,25,30 e 50 Hz (1,78)
1080i Formato video → HDTV 1920 x 1080 a 60Hz interlacciato. 1920×1080 (2000k) 16:9 24 bpp 25-30
Esiste anche la variante a 50 Hz (1,78)
1080p Formato video → HDTV 1920 x 1080 a 60Hz progressivo. 1920×1080 (2000k) 16:9 24 bpp 50-60
Esistono anche le varianti a 24,25,30 e 50 Hz (1,78)
2K Proiezione di film digitali in sale cinematografiche DLP 2048×1080 (2212k) 1,89 48 bpp 24
4K Proiezione di film digitali in sale cinematografiche DLP 4096×1716 (7029k) 2,39 48 bpp 24
Voci correlate
• Informatica
• Scheda video
• Risoluzione del display
Collegamenti esterni
• (EN) Aspect Ratios [1] - Dal sito Widescreen.org
Note
[1] http:/ / www. widescreen. org/ aspect_ratios. shtml
Immagine digitale 33
Immagine digitale
Un'immagine digitale è la rappresentazione di un'immagine bi-dimensionale tramite una serie di valori numerici,
che la descrivono a seconda della tecnica utilizzata.
Tecniche di rappresentazione
Le immagini digitali sono fondalmentalmente di due tipi: una matrice di punti (o pixel) nelle immagini bitmap o,
nelle immagini vettoriali, un insieme di punti (o nodi) uniti in linee o altre primitive grafiche che compongono
l'immagine, insieme ad eventuali colori e sfumature.
Immagini bitmap
In questo tipo di immagini, i valori memorizzati indicano le caratteristiche di ogni punto dell'immagine da
rappresentare (→ pixel):
• nelle immagini a colori, viene memorizzato solitamente il livello di intensità dei colori fondamentali (nel modello
di colore → RGB, uno dei più usati, sono tre: rosso, verde e blu. Un altro esempio è → CMYK, usato per la
stampa, basato su quattro colori fondamentali: ciano, magenta, giallo e nero.)
• nelle immagini monocromatiche in scala di grigio (dette impropriamente bianco e nero) il valore indica l'intensità
del grigio, che varia dal nero al bianco.
Il numero (detto anche "profondità") di colori o di livelli di grigio possibili dipende dal massimo numero di
combinazioni permesse dalla quantità di bit utilizzata per ognuno di questi dati: un'immagine con 1 bit per pixel avrà
al massimo due combinazioni possibili (0 e 1) e quindi potrà rappresentare solo due colori o solo bianco e nero; nelle
immagini a 4 bit per pixel, si possono rappresentare al massimo 16 colori o 16 livelli di grigio; un'immagine a 8 bit
per pixel, 256 e così via.
Oltre a questi dati, è solitamente presente un header, che contiene diverse informazioni sull'immagine, a partire dal
numero di righe e colonne di pixel: le dimensioni sono necessarie per poter dividere e disporre la sequenza di pixel
in linee, in modo da formare una griglia rettangolare di punti, simile ad un mosaico, in cui ogni riga è formata da un
numero preciso (indicato appunto dal valore larghezza) di tessere.
La tecnica utilizzata per queste immagini, rappresentate da una matrice NxM, dove N è il numero delle righe di pixel
dell'immagine e M delle colonne, è detta raster.
Le immagini bitmap possono venire memorizzate in diversi formati, spesso basati su un algoritmo di compressione,
che può essere → lossy (in cui c'è perdita di informazione), come nelle immagini JPEG, oppure → lossless (senza
perdita), come nel caso dei file d'immagine GIF o PNG.
Questo tipo di immagini può venire generato da una grande varietà di dispositivi d'acquisizione: scanner e
fotocamere digitali (contenenti dei sensori CCD o CMOS), ma anche da radar e microscopi elettronici; inoltre
possono venire sintetizzate anche a partire da dati arbitrari, come funzioni matematiche bidimensionali o modelli
geometrici tridimensionali.
Il campo dell'elaborazione digitale delle immagini studia gli algoritmi per modificare tali immagini.
Immagine digitale 34
Immagini vettoriali
Le immagini vettoriali sono un tipo di immagine facilmente scalabile e ruotabile, ottenuto dall'unione di un certo
numero di punti o nodi, che formano linee e poligoni, a loro volta uniti in strutture più complesse, fino a formare
l'immagine voluta.
Questo tipo di immagine è utilizzato nel disegno tecnico per la progettazione architettonica ed industriale, nella
rappresentazione di certi font, nella grafica per la creazione di loghi e marchi o altri oggetti, eccetera.
Voci correlate
• Elaborazione digitale delle immagini
• → Grafica raster
• Grafica vettoriale
Collegamenti esterni
• Introduzione al libro "VETTOR, dal bitmap al vettoriale" [1], con la definizione di immagini digitali, distinte in
bitmap (o raster) e vettoriali.
• Bitmap o vettoriale? I due tipi di immagini digitali [2]
• Differenze tra grafica bitmap e vettoriale [3]
Note
[1] http:/ / www. edilio. it/ libreriaspecializzata/ schedalibro. asp?cod=5736
[2] http:/ / venus. unive. it/ pmlett/ autoapprendimento/ grafica/ iduetipi. htm
[3] http:/ / www. stampasubito. it/ store/ stampasubito_guide_grafica_vettoriale_grafica_bitmap. asp
Compressione dei dati 35
Bibliografia
• Bonazzi R., Catena R., Collina S., Formica L., Munna A., Tesini D.. Telecomunicazioni per l'ingegneria
gestionale. Codifica di sorgente. Mezzi di trasmissione. Collegamenti. Pitagora Editrice, 2004, ISBN
88-371-1561-X
Compressione dati lossy 36
Esempi
Esempio di immagine compressa con l'algoritmo JPEG standard a diverse qualità:
Qualità 100% - 87,7 kB Qualità 90% - 30,2 kB Qualità 50% - 6,7 kB Qualità 10% - 3,2 kB
Come si può notare il miglior rapporto qualità/dimensione si ha con valore intorno al 90%. È inoltre immediatamente
osservabile come, all'aumentare del livello di compressione, compaiano artefatti sempre più visivamente evidenti.
Compressione dati
Audio
• ADPCM
Musica e suoni
• AAC
• MPC o Musepack
• → MP3
• → Ogg Vorbis (non ristretto da brevetti)
• VQF
• WMA
• AC3
Compressione dati lossy 37
Voce
• GSM 06.10
• → Ogg Speex (non ristretto da brevetti)
Voci correlate
• → Compressione dati lossless
• Compressione dati
• Codec
• Ora considerando l'insieme dei file con N-1 bit, vi sono 1 + 2 + 4 + ... + 2N-1 = 2N-1 file che vi appartengono,
sempre considerando anche il file di lunghezza zero.
• Tale numero di elementi è più piccolo di 2N+1-1. Non è possibile collegare in modo univoco gli elementi di un
insieme più grande (i file da comprimere) con gli elementi di un insieme più piccolo (i file dopo la compressione).
• Questa contraddizione implica che l'ipotesi originale (che un algoritmo di compressione renda tutti i file più
piccoli) sia errata.
Si può notare che la differenza di dimensione è così elevata che non fa alcuna differenza se si considerano file di
dimensione esattamente N come insieme dei file da comprimere: tale insieme è comunque di dimensioni maggiori
(2N) dell'insieme dei file compressi.
Una dimostrazione anche più semplice (ma equivalente) è come segue:
1. Si assuma che ogni file sia rappresentato da una stringa di bit di lunghezza arbitraria.
2. Si supponga (per assurdo), che esista un algoritmo di compressione C che trasformi ogni file di lunghezza
maggiore di 1 in un file più corto distinto. (se i file risultanti non sono distinti, l'algoritmo non può essere
reversibile senza perdita di dati.)
3. Dato un qualunque file F di lunghezza L(F)=N, si applichi C a questo file, ottenendo il file C(F)
4. Si ripeta il passo precedente applicando C a C(F) e si continui in questo modo: per l'ipotesi al punto (2), si ha:
e quindi:
L(C(F))<= N-1
L(C2(F))<= N-2
L(Ck(F))<= N-k
Dopo al massimo N iterazioni, si deve avere L(CN-1(F))=1, perché ogni iterazione deve diminuire la lunghezza di
almeno un bit: questo procedimento non dipende dal valore di N. Dalle nostre ipotesi consegue quindi che
esisterebbero due soli file distinti (quello contente il bit 0 e quello contenente il bit 1). Questo è evidentemente falso,
quindi l'ipotesi è falsa.
Quindi, ogni algoritmo di compressione che rende alcuni file più piccoli, deve necessariamente rendere altri file più
grandi o lasciarli di lunghezza invariata.
Nell'uso pratico, si considerano buoni gli algoritmi di compressione che comprimono effettivamente la maggior parte
dei formati più comuni: questo non corrisponde necessariamente ad una misura di bontá in senso teorico (che misura
la distanza media, misurata su tutti i file possibili, tra la lunghezza ottenuta e il numero di bit di entropia contenuti
nel file, che, per un teorema di Shannon, è il limite di comprimibilitá teorico). Inversamente, un algoritmo
teoricamente buono potrebbe non avere applicabilitá pratica (ad esempio perché non riduce formati di uso comune).
In realtà, molti applicativi che utilizzano la compressione lossless prevedono di lasciare invariati gli insiemi di dati la
cui dimensione sia aumentata dopo la compressione. Ovviamente, il flag che indica che questo gruppo di dati non va
processato dall'algoritmo aumenta la dimensione effettiva necessaria a memorizzare il gruppo di dati, ma permette di
evitare un ulteriore spreco di spazio e di tempo necessario alla compressione/decompressione.
Compressione dati lossless 39
005555550055555500555555005555550055555500555555
025602560256025602560256
È chiaro che i dati non sono più direttamente disponibili ma occorre svolgere un passaggio intermedio
(decompressione).
Poiché, dato uno stesso archivio dati, la decompressione è solitamente molto più frequente della compressione molti
algoritmi sono fortemente asimmetrici: il tempo richiesto per la compressione è sostanzialmente superiore a quello
richiesto per la decompressione. Questo accade anche nei riguardi delle richieste di memoria e di capacità di calcolo.
Tecniche di compressione
Esistono diversi algoritmi di compressione. Tra i più noti:
• Huffman
• Codifica aritmetica (o "compressione aritmetica")
• Lempel-Ziv-Welch (LZW)
• LZ77
• LZ78
• LZMA
• DEFLATE - tecnica mista: LZ77 e Huffman
• Prediction by Partial Matching (PPM)
• Trasformata di Burrows-Wheeler - (BWT)
Formati ed algoritmi
Audio
• Apple Lossless - ALAC (Apple Lossless Audio Codec)
• Direct Stream Transfer - DST
• FLAC - Free Lossless Audio Codec
• Meridian Lossless Packing - MLP
• APE Monkey's Audio
• RealPlayer - RealAudio Lossless
• Shorten - SHN
• TTA - True Audio Lossless
• WavPack - WavPack lossless
• WMA - comprende anche una variante lossless
Immagini
• ABO - Adaptive Binary Optimization
• GIF - Lempel-Ziv-Welch (LZW) per immagini da 2 a 256 colori
• Portable_Network_Graphics Portable Network Graphics - usa una variante di DEFLATE
• HD Photo - Contempla un metodo di compressione lossless
• OptiPNG - Metodo di compressione lossless in formato PNG
• JPEG - comprende una variante lossless JPEG-LS[1] (poco utilizzata)
• JPEG 2000 - comprende un metodo di compressione lossless
• JBIG2 - comprende una compressione lossless di immagini in bianco e nero
• TIFF (Tagged Image File Format) - permette di scegliere tra diversi algoritmi sia lossless (tra cui LZW e RLE) o
lossy (JPEG)
• WMPhoto - Contempla un meodo di compressione lossless
• Qbit Lossless Codec - Dedicato alla compressione intra-frame
• RLE Run-length encoding algoritmo usato nei formati TGA, BMP, TIFF
• FAX Gruppo 3 (1D) e Gruppo 4 (2D) - algoritmo per immagini bianco e nero usato dai FAX e dal formato TIFF
Video
• Huffyuv [2]
• CorePNG [3]
• MSU Lossless Video Codec [4]
• Sheervideo [5]
• LCL [6]
• Qbit Lossless Codec [7]
• Animation codec [8]
• Lagarith [9]
• H.264/MPEG-4 AVC
• Motion JPEG2000 comprende anche una variante lossless
Compressione dati lossless 41
Voci correlate
• → Compressione dati lossy
• Compressione dati
Note
[1] http:/ / en. wikipedia. org/ wiki/ Lossless_JPEG
[2] http:/ / neuron2. net/ www. math. berkeley. edu/ benrg/ huffyuv. html
[3] http:/ / corepng. corecodec. org/
[4] http:/ / compression. ru/ video/ ls-codec/ index_en. html
[5] http:/ / www. bitjazz. com/ it/ products/ sheervideo/ index. php
[6] http:/ / translate. google. com/ translate?u=http%3A%2F%2Fwww. geocities. co. jp%2FPlaytown-Denei%2F2837%2FLRC. htm&
langpair=ja%7Cen& hl=en& safe=off& c2coff=1& ie=UTF-8& oe=UTF-8& prev=%2Flanguage_tools
[7] http:/ / www. qbit. com
[8] http:/ / en. wikipedia. org/ wiki/ Animation_codec
[9] http:/ / lags. leetcode. net/ codec. html
|+ style="text-align: center; font-size: larger; margin-left: inherit;" | Joint Photographic Experts Group (JPEG)
JPEG è l'acronimo di Joint Photographic Experts Group, un comitato ISO/CCITT che ha definito il primo standard
internazionale di compressione per → immagini a tono continuo, sia a livelli di grigio che a → colori. È un formato
gratuito e open-source.
Attualmente JPEG è lo standard di compressione delle immagini fotografiche più utilizzato. Le estensioni più
comuni per questo formato sono .jpeg, .jpg, .jfif, .JPG, .JPE, anche se il più comune in tutte le piattaforme è .jpg.
JPEG specifica solamente come una immagine può essere trasformata in uno stream di byte, ma non come questo
può essere incapsulato in supporti di memorizzazione. Un ulteriore standard chiamato JFIF (JPEG File Interchange
Format), creato da Independent JPEG Group, specifica come produrre un file appropriato per la memorizzazione su
computer di uno stream JPEG. Nell'uso comune, quando qualcuno parla di "file JPEG" generalmente intende un file
JFIF o alcune volte un file Exif JPEG. Ci sono, comunque, altri formati di file basati su JPEG, come ad esempio
JNG.
Joint Photographic Experts Group 42
Compressione
Lo standard JPEG definisce due metodi di compressione di base, uno basato sull'uso della trasformata discreta del
coseno (DCT) con compressione di tipo "→ lossy" cioè con perdita di informazione, l'altro sull'uso di un metodo
predittivo con compressione di tipo "→ lossless" cioè senza perdita di informazione. L'algoritmo base dello JPEG di
tipo "lossy" viene detto "baseline", inoltre sono state definite delle estensioni opzionali del metodo "lossy" per la
compressione di tipo gerarchico e progressivo.
Esempio di immagine compressa con l'algoritmo standard a diverse qualità:
Come si può notare il miglior rapporto qualità/dimensione si ha con valore intorno al 90%. È inoltre immediatamente
osservabile come, all'aumentare del livello di compressione, compaiano artefatti sempre più visivamente evidenti.
Tra questi il più tipico per il formato JPEG (come per tutti i formati che si basano sulla DCT) è la quadrettatura o
"blocking"; oltre ad esso si verificano fenomeni di "ringing" (fenomeno di Gibbs) e "blurring" o "blur" (sfocatura).
Utilizzo
JPEG/JFIF è il formato più utilizzato per la memorizzazione di fotografie. È inoltre il formato più comune su World
Wide Web.
Non è invece adatto per disegni geometrici, testo o icone, per cui sono utilizzati comunemente i formati → PNG e
GIF.
Voci correlate
• → Immagine digitale
• Elaborazione digitale delle immagini
• Trasformata discreta del coseno
Collegamenti esterni
• (EN) Sito ufficiale JPEG [1]
• (EN) Formato file JFIF [2]
Note
[1] http:/ / www. jpeg. org/
[2] http:/ / www. w3. org/ Graphics/ JPEG/ jfif3. pdf
Portable Network Graphics 44
Licenza BSD-Like/GPL
Storia
Il PNG è stato creato nel 1995 da un gruppo di autori indipendenti
e approvato il 1º ottobre 1996 dal World Wide Web Consortium
(W3C), terminando il suo iter nel gennaio 1997 come oggetto del
Request for Comments (RFC) 2083.
L'ideazione del PNG avvenne in seguito all'introduzione del
pagamento di royalties dell'allora popolarissimo e usatissimo
formato GIF. Infatti nel 1994 i detentori del brevetto decisero
improvvisamente di chiedere un pagamento per ogni programma
Confronto tra immagine JPEG (a sinistra) e PNG (a
destra) che utilizzasse il loro formato. La prima reazione della comunità
informatica a tale improvviso cambiamento fu la sorpresa, a cui
seguì la scelta di indirizzarsi verso lo sviluppo di un'alternativa.
Il formato PNG è superficialmente simile al GIF, in quanto è capace di immagazzinare immagini in modo →
lossless, ossia senza perdere alcuna informazione, ed è più efficiente con immagini non fotorealistiche (che
contengono troppi dettagli per essere compresse in poco spazio).
Essendo stato sviluppato molto tempo dopo, non ha molte delle limitazioni tecniche del formato GIF: può
memorizzare immagini in colori reali (mentre il GIF era limitato a 256 colori), ha un canale dedicato per la
trasparenza (canale alfa). Esiste inoltre un formato derivato, Multiple-image Network Graphics o MNG, che è simile
al GIF animato.
Caratteristiche
Il formato PNG supporta:
Immagine PNG
Opaca a sinistra
trasparente a destra
Applicazione
L'utilizzo del PNG è stato inizialmente limitato, a causa del fatto che pochi programmi erano capaci di scrivere o
leggere tali immagini. Col tempo, tutti i maggiori programmi di grafica e di navigazione accettarono il formato PNG,
che trovò così più largo utilizzo.
Nel giugno 2003, il brevetto originale sul formato GIF è scaduto, ma solo negli USA. Nel resto del mondo è scaduto
durante il 2004.
Nonostante questo, nulla lascia sospettare che l'utilizzo del PNG diminuirà come conseguenza.
Voci correlate
• → Immagine digitale
46
Video
Il video (dal latino "vidēre") è l'informazione elettronica[1] rappresentante un'immagine che può variare nel tempo,
quindi sia la cosiddetta immagine fissa (immagine che non varia nel tempo) che le cosiddette immagini in
movimento (immagine che varia nel tempo). In particolare il video è un flusso informativo in quanto sia l'immagine
fissa che le immagini in movimento presentano sempre una dimensione temporale.[2] Flusso informativo che scorre
all'interno di apparecchiature elettroniche sotto forma di corrente elettrica per essere manipolato, viaggia nello spazio
sotto forma di onde elettromagnetiche, o all'interno di cavi per telecomunicazioni sotto forma di corrente elettrica o
→ luce, per essere trasmesso a distanza, viene memorizzato sotto varie forme su vari tipi di supporti per essere
conservato.
L'inarrestabile aumento della potenza di calcolo dei processori e della capacità delle memorie, unito al parallelo
abbattimento dei costi, nel corso degli anni ha fatto diventare le tecnologie digitali la scelta privilegiata, visti i suoi
indubbi vantaggi. Per questo è in atto ormai da vari decenni un progressivo passaggio al digitale, anche in ambiti in
cui l'elettronica non è mai stata usata, come ad esempio nel cinema, dove la pellicola cinematografica è sempre stata
preferibile.
Il vantaggio di sostituire la pellicola con l'elettronica digitale sta principalmente nel fatto che con quest'ultima il
materiale girato è memorizzabile su supporti come i dischi ottici, che hanno una lunghissima durata nel tempo ed è
sempre possibile effettuare copie identiche dell'originale. La pellicola cinematografica al contrario subisce un
inevitabile degrado nel corso del tempo, anche se conservata in ambienti climaticamente controllati (temperatura,
umidità, illuminazione, ecc...). La duplicazione stessa della pellicola non risolve il problema in quanto il processo di
duplicazione, anche se restituisce un supporto nuovo, produce un degrado dell'informazione allo stesso modo di
quanto avviene con la tecnologia analogica.
La pellicola cinematografica presenta, per contro, il vantaggio di una completa e ben consolidata standardizzazione,
il che la rende comunque molto adatta per materiale da conservare per molto tempo, considerando la rapida
obsolescenza di gran parte dei formati e dei supporti di registrazione impiegati per il video.
Risoluzione video
In ambito elettronico le immagini sono visualizzate come una
griglia ortogonale di aree uniformi. Tale griglia ortogonale di
aree uniformi è chiamata raster e, esclusivamente in ambito
digitale, tali aree uniformi sono chiamate → pixel.
La risoluzione video è la risoluzione dell'immagine video. Più
specificatamente è il numero di aree uniformi che
compongono in senso orizzontale e in senso verticale il raster.
In ambito digitale, dove le aree uniformi del raster sono
Confronto di risoluzioni televisive
chiamate pixel, la risoluzione video è espressa in pixel. In
ambito analogico invece la risoluzione video è espressa in
linee, in rifermento al metodo di visualizzazione di un'immagine elettronica utilizzato in ambito analogico (in ambito
analogico un'immagine elettronica viene visualizzata una linea orizzontale alla volta partendo dall'alto verso il
basso).
Il numero di aree uniformi che compongono in senso orizzontale il raster di un'immagine video è chiamato
risoluzione orizzontale. Mentre il numero di aree uniformi che compongono in senso verticale il raster di
un'immagine video è chiamato risoluzione verticale.
Le aree uniformi che compongono il raster sono gli elementi base che compongono l'immagine video. Quindi più è
alta la risoluzione video, più è alto il numero di elementi da cui è composta l'immagine video. E più è alto il numero
di elementi da cui è composta l'immagine video, maggiore è la qualità dell'immagine video.
Rapporto d'aspetto
Il rapporto d'aspetto, o Aspect ratio (immagine) o
Display aspect ratio (DAR), del video è la proporzione
tra la larghezza e l'altezza dell'immagine video quindi
delle singole immagini che compongono il video.
Solitamente l'aspect ratio di uno schermo televisivo è
4:3 (o 1.33:1) (nota bene: dividendo la risoluzione
orizzontale di 768 per la risoluzione verticale di 576
(PAL), si ottiene proprio 1,33). I televisori ad alta Confronto di aspect ratio in cinematografia (blu e rosso) e televisione
(verde)
definizione usano un'aspect ratio di 16:9 (circa 1.78:1).
L'aspect ratio di un frame di pellicola da 35 mm con
colonna sonora (nota come "Academy standard") è circa 2.37:1.
Video 51
Video 3D
Il video 3d, video digitale in tre dimensioni, è nato alla fine del XX secolo e si crea usando sei o otto videocamere
capaci di misurare la profondità della scena e salvando le registrazioni in → MPEG-4 Part 16 Animation Framework
eXtension (AFX).
La risoluzione per i video in tre dimensioni è misurata in voxels (volume picture element, rappresentanti un valore
nello spazio tridimensionale). Per esempio una risoluzione a 512×512×512 voxels, attualmente utilizzata per un
semplice video in tre dimensioni, può anche essere visualizzata in alcuni PDAs.
Video 52
Descrizione
Il termine video si riferisce generalmente ai
formati di archiviazione delle immagini in
movimento: i formati video digitali, come
→ DVD, QuickTime e → MPEG-4, e
videocassette analogiche, come VHS e
Betamax. I video possono essere registrati e
trasmessi attraverso vari media fisici:
pellicole di celluloide da macchine da presa,
segnali elettrici PAL o NTSC se registrati da
videocamere, o media digitali come →
MPEG-4 o DV se registrati da videocamere
digitali.
Standard video analogici: verde chiaro - NTSC, giallo - PAL, o in conversione al
La qualità del video dipende essenzialmente PAL, arancio - SECAM, oliva - nessuna informazione
dal metodi di registrazione e archiviazione.
La televisione digitale (DTV) è un formato relativamente recente, con alta qualità ed è diventata lo standard per la
televisione.
Formati video
Standard dei display video Standard della connessione video
• → DVD (già Super Density Disc, DVD Forum) • CCIR 601 (ITU-T)
• Laserdisc (vecchio, MCA e Philips) • M-JPEG (ISO)
• Blu-ray (Sony) • MPEG-1 (ISO)
• Versatile Multilayer Disc (New Media Enterprise inc.) • MPEG-2 (ISO)
• Enhanced Versatile Disc (EVD, sostenuto dal governo cinese) • → MPEG-4 (ISO)
• HD DVD (Hitachi e Toshiba) • H.261 (ITU-T)
• H.263 (ITU-T)
• H.264/MPEG-4 AVC (ITU-T + ISO)
• → Ogg-→ Theora
Video 54
Voci correlate
• Generalità
• Audio
• Videoclip
• Interfaccia video
• Formati video
• Televisione
• Televisione digitale
• Televisione satellitare
• Interlacciamento
• Scansione progressiva
• Telecine
• → Codec video
• Timecode
• → Spazio dei colori
• → RGB
• YUV
• → Risoluzioni standard
• Caratteristiche
• Pixel aspect ratio (PAR)
• Display aspect ratio (DAR)
• Storage aspect ratio (SAR)
• Aspect ratio (immagine)
• Video anamorfico
• Formati cinematografici
• 24p
• Uso del video
• Videoarte
• Televisione a circuito chiuso
• Videoproiettore
Altri progetti
• Wikimedia Commons contiene file multimediali su Video
• Wikizionario contiene la voce di dizionario «Video»
Note
[1] "Informazione elettronica" non è intesa nel limitato senso di "informazione in forma elettronica", cioè di informazione che si presenta
esclusivamente in forma di corrente elettrica (quando è trasmessa diventando un segnale elettrico) o di tensione elettrica (quando è
memorizzata in un circuito elettronico), ma nel più ampio senso di "informazione manipolata da un'apparecchiatura elettronica", quindi di
informazione che può assumere una moltitudine di forme diverse (ad esempio la forma di magnetismo quando è memorizzata in una
videocassetta oppure la forma di luce all'interno di una fibra ottica quando è trasmessa a distanza).
[2] L'mmagine fissa, diversamente dalle immagini in movimento, non ha una natura temporale. Acquisisce una dimensione temporale quando è
rappresentata in forma di video in quanto in tale forma è continuamente ridisegnata.
Video digitale 55
Video digitale
Per video digitale si intende un segnale video che utilizza una rappresentazione digitale, e non analogica, del segnale
video. Questo termine generico non deve essere confuso con il nome DV, che indica uno specifico formato di video
digitale indirizzato alla grande distribuzione.
Tecniche di registrazione
Il video digitale è spesso registrato su cassetta e distribuito su dischi ottici, solitamente → DVD. Ci sono comunque
delle eccezioni, come le videocamere che registrano direttamente su DVD, videocamere Digital8 che codificano
video digitale su cassette analogiche convenzionali, e alcune videocamere che registrano video digitale su hard disk.
Il successo del video digitale è basato sulla disponibilità di algoritmi di → compressione video che si sono sviluppati
fortemente a partire dagli anni '90.
Il video digitale è alla base dello sviluppo della → televisione ad alta definizione che, sebbene sia nata alla fine degli
anni ottanta come analogica, ha potuto diffondersi e divenire economicamente conveniente solo grazie alle tecniche
di registrazione e trasmissione digitali.
Cenni storici
Il video digitale è stato introdotto per la prima volta nel 1983 dal formato D-1 della Sony, che registrava un segnale
video component non compresso a definizione standard in forma digitale anziché in forma analogica. A causa del
costo molto elevato, il D-1 fu utilizzato principalmente da grandi network televisivi, e solo limitatamente a
lavorazioni che richiedevano molte generazioni successive di copie. In seguito sarebbe stato sostituito da sistemi più
economici che utilizzavano dati compressi, come il famoso Digital Betacam della Sony, tuttora largamente usati
come formato di registrazione dai grandi produttori televisivi.
Il video digitale di tipo amatoriale è apparso per la prima volta in forma di QuickTime, architettura della Apple
Computer per formati di dati time-based e di streaming diffusasi in forma ancora grezza intorno al 1990.
Inizialmente gli strumenti amatoriali di creazione dei contenuti erano grezzi e richiedevano la digitalizzazione di una
sorgente video analogica in un formato che potesse essere elaborato dai computer. Il video digitale amatoriale
migliorò rapidamente la sua bassa qualità iniziale, dapprima con l'introduzione di standard di riproduzione come il
MPEG-1 e il MPEG-2 (adottati per l'utilizzo in trasmissioni televisive e video su → DVD), e in seguito con
l'introduzione del formato di cassette DV. Quest'ultimo permise la registrazione diretta in digitale e semplificò il
processo di montaggio, consentendo la diffusione di sistemi completi di non-linear video editing su computer
Video digitale 56
desktop.
Panoramica tecnica
Le videocamere moderne possono lavorare in due differenti modalità di scansione: interlacciata e a scansione
progressiva. In modalità interlacciata, le videocamere registrano l'immagine alternando insiemi di righe: vengono
scansionate prima le righe di numero dispari , poi le righe di numero pari, poi di nuovo quelle di numero dispari, e
così via. Un set di righe pari o dispari è chiamato semiquadro o campoe una coppia di due campi consecutivi di
parità opposta è chiamata quadro o fotogramma.
Una videocamera a scansione progressiva, invece, registra ogni fotogramma singolarmente, mediante due campi
identici. Quindi, quando entrambi operano allo stesso numero di fotogrammi al secondo, il video interlacciato cattura
un numero doppio di campi al secondo rispetto al video progressivo.
La pellicola cinematografica standard come la 16mm e la 35mm riprende a una cadenza di 24 o 25 fotogrammi al
secondo. Per il video ci sono due frequenze standard: 30/1,001 (circa 29,97) fotogrammi al secondo e 25 fotogrammi
al secondo,a seconda che lo standard di partenza sia NTSC oppure PAL.
Il video digitale può essere copiato senza perdita in qualità. Non importa per quanti passaggi una sorgente digitale
venga copiata poiché il video si mantiene sempre identico al materiale digitale originale.
L'elaborazione e il montaggio del video digitale avviene tramite postazioni non-linear editing, dispositivi costruiti
esclusivamente per montare video e audio. Queste macchine possono frequentemente importare materiale sia da una
sorgente analogica che digitale. Il video digitale può inoltre essere montato su un personal computer dotato del
software e dell'hardware appropriato. Nel mercato degli editor non lineari professionali è molto conosciuto il
software e l'hardware Avid, oltre a Final Cut Pro della Apple e Adobe Premiere Pro. Le sulozioni più usate in campo
professionale usano computer di fascia alta assistito da hardware apposito.
I software di montaggio richiedono generalmente ampio spazio su disco. Il video digitale a compressione standard
DV/DVCPRO occupa circa 250 megabyte per minuto o 13 gigabyte per ora, ma l'occupazione aumenta man mano
che che si sale con la qualità. In base alle sue caratteristiche però, il video digitale ha un costo significamente basso,
considerando tutte le lavorazioni in cui può essere coinvolto. Come termine di paragone, si consideri che il costo di
riprese cinematografiche in 35mm si aggira sui 1000€ al minuto, sviluppo e stampa inclusi.
Il video digitale è usato largamente al di fuori della cinematografia. La Televisione digitale (incluso la → HDTV ad
altà qualità) ha iniziato a diffondersi in molti paesi sviluppati nei primi anni 2000. Il video digitale è inoltre utilizzato
nei moderni telefoni cellulari, nei sistemi di videoconferenza e nella distribuzione di media via Internet, come lo
streaming video e la distribuzione peer-to-peer.
Esistono molti tipi di → compressione video per la diffusione di video attraverso internet e media come i DVD.
Alcuni dei codec più diffusi sono MPEG-2, → MPEG-4, Real Video, Windows Media Video e il più recente H.264.
Probabilmente i formati più utilizzati per la diffusione di video attraverso internet sono → MPEG-4 e WMV, mentre
MPEG-2 è usato quasi esclusivamente per i DVD.
Al 2005, la risoluzione più alta realizzata con un video digitale è di 33 megapixel (7680 x 4320) a 60 fotogrammi al
secondo (nel formato UHDV), anche se soltanto in un test di laboratorio. La velocità più alta è ottenuta da
videocamere ad alta velocità in ambito industriale e scientifico, le quali sono capaci di filmare video di risoluzione
1024 x 1024 con un milione di fotogrammi al secondo per brevi periodi di registrazione.
Video digitale 57
Interfacce/Cavi
Per soddisfare i requisiti di trasferimento dei video digitali non compressi (di circa 400 Mbit/s) sono state realizzate
interfacce specifiche:
• Serial Digital Interface
• FireWire
• HDMI
• Digital Visual Interface
• DisplayPort
Formati di memorizzazione
Codifica
Tutti i formati correnti elencati di seguito sono basati su PCM.
• CCIR 601 — usato per le stazioni di trasmissione
• → MPEG-4 — diffuso nella distribuzione online e nella registrazione di video su memoria flash
• MPEG-2 — diffuso per DVDs e Super-VCD e impiegato nella trasmissione video digitale DVB
• MPEG-1 — diffuso per VCD
• H.261
• H.263
• H.264 — conosciuto anche come MPEG-4 Part 10 o AVC Impiegato per HD DVD e Blu-ray Disc
• → Theora — standardizzato ma ancora in sviluppo
Cassette
• Betacam SX, Betacam IMX, Digital Betacam — sistemi video commerciali di Sony, orientati al mercato
professionale e broadcast. Il tipo di videocassetta deriva dal foramto domestico Betamax
• D1, D2, D3, D5, D9 o Digital-S — vari standard per video digitali commerciali definiti dalla SMPTE
• DV, MiniDV — diffusi nella maggior parte delle videocamere a cassette di larga distribuzione; progettato per
video ad alta qualità facile da montare; possono anche registrare dati in alta-definizione (HDV) in formato
MPEG-2
• DVCAM, DVCPRO — diffusi nelle operazioni di trasmissione professionali; simili al DV e compatibili con esso,
offrono miglior trattamento dell'audio
• Digital8 — dati in formato DV registrati su cassette compatibili Hi8; formato diffuso nell'uso amatoriale
• MicroMV — dati in formato MPEG-2 registrati su cassette di dimensioni molto ridotte; in disuso
• D-VHS — dati in formato MPEG-2 registrati su cassette simili alla S-VHS
Dischi ottici
• Video CD (VCD)
• → DVD
• HD DVD
• Blu-ray Disc
• Sony ProDATA
• XDCAM
Video digitale 58
Voci correlate
• DV
• Audio digitale
• Cinema digitale
• Digital Visual Interface
• Serial Digital Interface
• → DVD
• Videocamera
• Televisione
• → Video
• Video editing
• Webcam
Bibliografia
• Barbero, Shpuza, Interfacce video, Elettronica e Telecomunicazioni, n.3 Dicembre 2006
Ad ogni pixel sono associati i valori di informazione luminosa dell'immagine, la luminanza (Y), e i valori relativi al
colore, la crominanza (C). Ogni pixel è quindi costituito da campioni di luminanza e crominanza in numero variabile
in funzione del livello qualitativo che si deve ottenere, descritto nella raccomandazione CCIR 601 (vedi anche
televisore).
Nonostante le possibilità del sistema di trasmissione, 38 Mb/s sono ancora pochi per supportare la trasmissione di un
segnale video digitale. Per questo motivo entra in gioco il sistema di compressione MPEG-2 adottato dal DVB.
Utilizzando la compressione si ottiene una forte riduzione della quantità di dati da trasmettere permettendo così di
sfruttare un unico canale satellitare per la trasmissione di più programmi televisivi.
Basti pensare al fatto che attualmente la migliore qualità di trasmissioni dirette agli utenti richiede un bit rate di circa
8 Mbit/s per ogni programma tv. Pertanto ciò lascia intuire che unendo l'MPEG-2 alle tecniche di multiplazione
digitale si possano trasmettere grandi quantità di dati. Ciò è infatti quello che accade con le attuali trasmissioni
digitali dove su un solo transponder da 33 MHz può trovare spazio la combinazione di programmi aventi anche tra
loro un diverso bit rate. Alla base di questo principio sta una importante applicazione, relativa alle tecniche di
compressione, attualmente sperimentata dalle trasmissioni RAI. Tali trasmissioni infatti utilizzano la tecnica di
"compressione dinamica" per mezzo della quale il bit rate dei singoli programmi che condividono lo stesso bouquet
non è fisso ma può variare dipendentemente dalle esigenze istantanee di qualità e quindi di bit rate delle singole
immagini. Ad esempio: un programma sportivo con immagini in forte movimento può avere a disposizione un bit
rate istantaneo elevatissimo sfruttando una maggiore compressione degli altri programmi presenti nello stesso
bouquet.
Collegamenti esterni
• Encoding Parameters of Digital Television for Studios [1]
Note
[1] http:/ / www-inst. eecs. berkeley. edu/ ~cs150/ fa04/ Documents. htm#Video
Sottocampionamento della crominanza 61
Aspetti tecnici
Un segnale video, soprattutto se a → componenti, ha una larghezza di banda molto ampia, comportando tutta una
serie di problemi per essere registrato o trasmesso. Di conseguenza, sono spesso usate tecniche di compressione per
migliorare la gestione del segnale, aumentare la durata delle registrazione oppure aumentare il numero di canali di
trasmissione. Dal momento che la visione umana è molto più sensibile alle variazioni di livello luminoso piuttosto
che ai cambiamenti di colore[1] , si può sfruttare questo principio per ottimizzare la compressione, dedicando più
banda alla luminanza (Y) e meno alla differenza delle componenti cromatiche (Cb e Cr). Lo schema di
sottocampionatura 4:2:2 Y'CbCr, per esempio, richiede solo due terzi della banda del (4:4:4) → R'G'B'. Questa
riduzione è pressoché impercettibile all'occhio umano.
Immagine
dopo la sottocampionatura (compressa con codec DV di Sony Vegas.)
Sottocampionamento della crominanza 62
Sistemi di campionatura
Lo schema di sottocampionatura è normalmente indicato con una notazione a tre cifre (es. 4:2:2) o talvolta a quattro
cifre (es. 4:2:2:4). Il significato dei numeri è il seguente:
• Riferimento di campionatura orizzontale della Luminanza (in origine, come multiplo della sottoportante a 3.579
MHz in NTSC o di 4.43 MHz in PAL).
• Fattore orizzontale Cr (relativo alla prima cifra).
• Fattore orizzontale Cb (relativo alla prima cifra), a meno che non sia posto a zero. In questo caso, lo zero indica
che il fattore orizzontale Cb è identico alla seconda cifra e, in aggiunta, sia il Cr che il Cb sono sottocampionati
2:1 in senso verticale. Lo zero è scelto affinché la formula di calcolo della larghezza di banda rimanga corretta.
• Fattore orizzontale Alfa (relativo alla prima cifra). Può essere omesso se non è presente un canale alfa.
Per calcolare la larghezza di banda necessaria rispetto a un segnale 4:4:4 (o 4:4:4:4), si sommano tutti i fattori e si
divide il risultato per 12 (o per 16 se c'è un canale alfa).
Gli esempi qui sopra sono esclusivamente teorici e a scopo dimostrativo. Si osservi anche che i diagrammi non
indicano nessun filtraggio della crominanza, che dovrebbe essere applicato per evitare l'aliasing.
Tipi di sottocampionamento
8:4:4 Y'CbCr
Ognuno dei due componenti di crominanza, Cb e Cr, è campionato alla stessa risoluzione, e il luma al doppio di
questa. Questo schema è usato in telecinema, scanner per pellicole di alta gamma e correttori di colori. Il luma ha il
doppio di larghezza di banda di uno schema 4:4:4, e una tale banda richiede due connessioni per essere trasmessa,
chiamate link A e link B, ognuno dei quali trasporta un segnale 4:2:2.
4:4:4 Y'CbCr
Ognuno dei tre componenti Y'CbCr è campionato alla stessa risoluzione. Questo schema si usa negli scanner di alta
gamma e nella post produzione cinematografica. Anche in questo case servono due connessioni: il link A trasporta
un segnale 4:2:2, il link B uno 0:2:2.
Sottocampionamento della crominanza 63
4:2:2
I due campioni di crominanza sono campionati alla metà della risoluzione della luminanza, dimezzando la
risoluzione cromatica. Questo riduce la banda del segnale video di un terzo senza quasi perdite percettibili.
Molti formato video di alta gamma usano questo schema:
• Digital Betacam
• DVCPRO50 and DVCPRO HD
• DigitalS
• CCIR 601 / Serial Digital Interface / D1
• ProRes 422
4:2:1
Questo schema è definito tecnicamente, ma pochissimi codec lo usano. La risoluzione orizzontale Cb è la metà di
quella Cr (e un quarto di quella Y). Questo schema sfrutta il principio che l'occhio umano è più sensibile al rosso che
al blu.
4:1:1
Nella sottocampionatura 4:1:1, la risoluzione orizzontale cromatica è ridotta a un quarto. La larghezza di banda
risulta dimezzata rispetto a uno schema non sottocampionato. In alcuni ambienti professionali, lo schema 4:1:1 del
codec DV non era considerato di classe broadcast all'epoca della sua introduzione, e accettabile solo per applicazioni
non professionali.[2] [3] Con il tempo, i formati basati su questo codec sono usati invece in ambienti professionali per
l'acquisizione di immagini e l'uso nei server video, e, in maniera sporadica, il codec DV è stato usato anche nella
cinematografia digitale a basso costo.
I formati che usano questo schema includono:
• DVCPRO (NTSC e PAL)
• DV e DVCAM (NTSC)
4:2:0
Questo schema è utilizzato in:
• Tutte le versioni di codec MPEG, incluse le implementazioni MPEG-2 come il → DVD (alcuni profili di →
MPEG-4 possono usare schemi di qualità più elevata, come il 4:4:4)
• DV e DVCAM (PAL)
• HDV
• Implementazioni comuni JPEG/JFIF, H.261, e MJPEG
• VC-1
I componenti Cb Cr sono sottocampionati di un fattore 2 sia verticalmente che orizzontalmente, e centrati a metà
delle linee di scansione verticali.
Esistono tre varianti degli schemi 4:2:0, che differiscono per il posizionamento verticale e orizzontale.
• In MPEG-2, Cb e Cr coincidono orizzontalmente.
Sottocampionamento della crominanza 64
• In JPEG/JFIF, H.261, e MPEG-1, Cb e Cr sono posizionati a metà strada, tra i campioni di luminanza (Y)
alternati.
• In DV 4:2:0, Cb e Cr sono alternati riga per riga.
Gli schemi colore PAL e SECAM sono particolarmente adatti a questo tipo di compressione. La maggior parte dei
formati video digitali corrispondenti al PAL usano il sottocampionamento di crominanza 4:2:0, con l'eccezione del
DVCPRO25, che usa lo schema 4:1:1. La larghezza di banda necessaria è dimezzata rispetto al segnale pieno per
entrambi gli schemi.
Con il materiale interlacciato, il sottocampionamento 4:2:0 può creare artefatti sulle immagini in movimento, se il
sottocampionamento viene applicato nello stesso modo del materiale progressivo. I campioni di luminanza, infatti,
provengono da semiquadri diversi mentre quelli di crominanza provengono da entrambi i semiquadri. La differenza
fra i campioni genera gli artefatti. Lo standard MPEG-2 prevede l'uso di uno schema alternativo per evitare il
problema, dove la schema 4:2:0 è applicato a ogni semiquadro ma non ad entrambi i semiquadri
contemporaneamente.
Originale. *Questa immagine mostra un singolo semiquadro. Il testo in movimento ha subito una sfuocatura.
Campionamento 4:2:0 progressivo applicato a materiale in movimento interlacciato. Si noti che la crominanza
precede e segue il testo. *Questa immagine mostra un singolo semiquadro.
Campionamento 4:2:0 interlacciato applicato a materiale in movimento interlacciato. *Questa immagine mostra un
singolo semiquadro.
Nello schema 4:2:0 interlacciato,ad ogni modo, la risoluzione verticale della crominanza è pressapoco dimezzata dal
momento che i campioni comprendono un'area di 4x2 campioni invece di 2x2. Allo stesso modo, il dislocamento
temporale tra i due semiquadri può portare ad artefatti sui colori.
Campionamento 4:2:0 progressivo applicato a un'immagine fissa. Sono mostrati entrambi i campi.
Sottocampionamento della crominanza 65
Campionamento 4:2:0 interlacciato applicato a un'immagine fissa. Sono mostrati entrambi i campi.
Se il materiale interlacciato deve essere deinterlacciato, gli artefatti sulla crominanza (derivati dal campionamento
4:2:0 interlacciato) possono essere rimossi sfumando la crominanza verticalmente.[4][5]
4:1:0
Questo schema è possibile (alcuni codec lo supportano), ma non molto usato. Prevede metà della risoluzione
verticale e un quarto di quella orizzontale, con solo un ottavo della larghezza di banda originale. Il video non
compresso, in questo formato, con quantizzazione a 8 bit, usa 10 byte per ogni macropixel (4 pixer x 2). La banda
della crominanza è equivalente a quella di un segnale PAL I decodificato con linea di ritardo, e ancora molto
superiore a un segnale NTSC.
• Alcuni codec video posso funzionare con schemi 4:1:0.5 o 4:1:0.25, come opzione, con una qualità superiore a un
nastro VHS e una larghezza di banda simile.
3:1:1
Usato dalla SONY per i registratori HDCAM (ma non sugli HDCAM SR), questo schema prevede il
campionamento orizzontale della luminaza a tre quarti della frequenza di un segnale ad alta definizione, cioè 1440
campioni per riga invece di 1920. La crominanza è campionata a 480 campioni per riga, un terzo del campionamento
della luminanza.
In senso verticale, entrambi i segnali sono campionati sull'intera banda del segnale (1080 righe).
Terminologia
Il termine Y'UV si riferisce a uno schema analogico di codifica mentre Y'CbCr si riferisce a uno schema digitale.
Una differenza tra i due schemi è che i fattori di scala dei componenti di crominanza (U, V, Cb, and Cr) sono
differenti. Comunque, il termine YUV è spesso erroneamente usato per riferirsi alla codifica Y'CbCr. Come
conseguenza, notazioni come "4:2:2 YUV" si riferiscono sempre allo schema 4:2:2 Y'CbCr dal momento che non
esiste un sottocampionamento 4:x:x nella codifica analogica (come è lo YUV).
In maniera simile, il termine luminanza e il simbolo Y sono spesso usata per riferirsi al luma, indicato con il simbolo
Y'. Si noti che il il luma (Y') della tecnologia video differisce dalla luminanza luminance (Y) usata come termine
scientifico (definito dalla CIE). Il Luma è dato dalla somma pesata dei componenti tristimolo RGB dopo la
correzione di gamma, mentre la luminanza è data dalla somma pesata dei componenti tristimolo RGB lineari.
In pratica, il simbolo Y della CIE spesso indica erroneamente il luma. Nel 1993, la SMPTE stabili le Engineering
Guideline EG 28, chiarendo i due termini. Il simbolo primo ′ si usa per indicare la correzione di gamma.
I termini croma/crominanza differiscono in maniera simile dalla crominanza intesa in ambito scientifico. la
crominanza della tecnologia video è formata dai componenti tristimolo corretti e non lineari. In questo ambito, i
termini croma, crominanza, e saturazione sono di spesso riferiti allo stesso concetto.
Sottocampionamento della crominanza 66
Si veda anche
• Spazio colore
• SMPTE - Society of Motion Picture and Television Engineers
• DV
• Alta definizione
• YCbCr
• YPbPr
• CCIR 601 4:2:2 SDTV
• YUV
• → Colore
• Vista
• Bastoncelli
• Coni
Bibliografia
• Poynton, Charles. "YUV and luminance considered harmful: A plea for precise terminology in video" [6]
• Poynton, Charles. "Digital Video and HDTV: Algorithms and Interfaces." USA: Morgan Kaufmann Publishers,
2003.
• Carlo Solarino, Video produzione digitale, Vertical 1999
Note
[1] Margaret Livingstone, The First Stages of Processing Color and Luminance: Where and What in Vision and Art: The Biology of Seeing, New
York, Harry N. Abrams2002, pp. 46-67
[2] http:/ / www. dvcentral. org/ DV-Beta. html
[3] http:/ / www. adamwilt. com/ DV-FAQ-tech. html
[4] http:/ / www. dv. com/ news/ news_item. jhtml;?LookupId=/ xml/ feature/ 2003/ wilt0603
[5] http:/ / www. hometheaterhifi. com/ volume_8_2/ dvd-benchmark-special-report-chroma-bug-4-2001. html
[6] http:/ / www. poynton. com/ papers/ YUV_and_luminance_harmful. html
Video a componenti 67
Video a componenti
Il video a componenti, anche noto come component, è una tipologia
di formato → video analogico che si contrappone al → video
composito.
Il video a componenti si contraddistingue dal video composito per il
fatto di avere le informazioni video distinte in più componenti separate,
diversamente dal video composito che invece le miscela in un unico
flusso informativo.
Attualmente negli impianti domestici i cablaggi video a componenti Tre cavi, ognuno con connessione RCA ad
entrambi i capi, sono spesso usati per trasmettere
vengono gradatamente sostiutuiti dai cablaggi digitali DVI e HDMI in
segnale video analogico
grado di fonire maggiore qualità. In ambito professionale invece il
video a componenti è ancora largamente utilizzato nei cablaggi.
Voci correlate
• Interfaccia video
• → Video composito
• RCA
• S-Video
Video composito
Il video composito, acronimo CVBS,[1] [2] è una
tipologia di formato → video analogico che si
contrappone al → video a componenti.
Il video composito si contraddistingue dal video a
componenti per il fatto di avere le informazioni
componenti il video (luminanza, crominanza,
sincronismi d'immagine e di colore) miscelate in un
unico flusso informativo, quindi di norma ha una
qualità peggiore rispetto al video a componenti in
quanto è estremamente difficile impedire che le
componenti video interferiscano tra loro. Connettore RCA, usato comunemente per il video composito
Composizione
Lo spettro del video composito può raggiungere i 5,3 MHz. L'ampiezza
tipica è di 1 volt picco-picco ma in particolari sistemi può essere
sommato ad una componente a tensione continua. Per convenzione si
considera il livello della base dei sincronismi a -300 mV, il livello del
nero a 0 mV e il livello del bianco a 700 mV.
Il video composito è la somma elettrica della luminanza (Y) alla
crominanza (C) modulata in ampiezza su una sottoportante a 3.58 MHz
(nello standard televisivo NTSC) o 4.433 MHz (nello standard
televisivo PAL). La crominanza è modulata in frequenza nello standard Connettore BNC, utilizzato per il video
televisivo SÉCAM. composito in campo professionale. Questo tipo di
connettore è usato anche per ogni tipo di video
Il sistema della sottoportante di crominanza permette al video
analogico e digitale.
composito di essere compatibile sia con i sistemi in bianco e nero che a
colori. Per contro viene persa parte del dettaglio della banda video che
coincide con il centro banda colore quando il video composito viene processato per separare il colore dalla
luminanza. Inoltre rari e particolari dettagli della luminanza possono ingannare il decodificatore della crominanza
creando un effetto di battimento detto moiré che si visualizza mediante false bande colorate su immagini composte
da righe verticali in bianco e nero molto ravvicinate. Un classico esempio di questo difetto sono abiti e cravatte a
Video composito 69
righe sottili.
Codifica
Nello standard PAL il sincronismo della componente colore è detto burst e si compone di dieci cicli di riferimento
della durata di 2.2 μs immediatamente dopo il sincronismo di riga. Il burst serve per sincronizzare in fase l'oscillatore
quarzato presente nei ricevitori o monitor.
Nello standard PAL (utilizzato anche in Italia) la componente colore è ottenuto attraverso particolari modulazioni di
una portante colore a 4.43361975 MHz. Precisamente la modulazione di ampiezza determina la saturazione del
colore sullo schermo. La modulazione di fase determina la tinta cromatica. Il segnale in bianco e nero, ottenuto
attraverso la somma delle componenti primarie di colore (0.11% blu + 0.30% rosso + 0.59% verde) ed è
sostanzialmente identico al segnale bianco e nero creato con una sorgente di ripresa in bianco e nero (vidicon,
saticon, plumbicon, ccd). Le percentuali così ottenute formano il solo segnale video bianco e nero con ampiezza di
0.7 Volt. Al segnale bianco e nero viene sommato il sincronismo orizzontale e verticale di quadro e semiquadro di
ampiezza -0.3 volt, ottenendo un segnale bianco e nero di 1 Volt
La componente colore viene ottenuto trasmettendo i soli segnali di differenza del rosso e del blu (il verde si ottiene
sottraendo rosso e blu della luminanza) attraverso la modulazione in quadratura di una portante (carrier) a
4.43361975 MHz. I segnali di differenza del rosso e del blu sono derivati dalla sottrazione dagli stessi della
luminanza e sono indicati come R-Y e B-Y. Questi segnali vengono percentualmente ridotti e ridenominati con V ed
U a causa di problemi di sovramodulazione nella trasmissione in radiofrequenza del segnale televisivo. La
modulazione in quadratura si ottiene attraverso la modulazione in ampiezza ed in fase della portante colore. La
modulazione in ampiezza e fase si ottiene con la modulazione in quadratura, ovvero si utilizzano due portanti
derivate dallo stesso oscillatore ma sfasate tra loro di 90° (quadratura), sullo stesso principio del seno/coseno. Una
portante viene modulata dalla differenza del blu, mentre la portante sfasata di 90° viene modulata dalla differenza del
rosso. La somma delle due portanti modulate in ampiezza crea il segnale colore. L'ampiezza massima caratteristica
di picco di 0.3 Volt, a 4.433 MHz. Ampiezza e fase sono variabili in funzione del contenuto dei segnali di differenza
colore, ovvero della saturazione e della tinta del soggetto ripreso dalla telecamera o creato attraverso altri sistemi
quali videogiochi, computer, macchine fotografiche digitali, eccetera. Nel sistema PAL, per ottenere la correzione
del ritardo di fase presente nel sistema NTSC, dovuto a fattori di trasmissione o distorsione o elaborazione del
segnale che causano variazioni della tinta del colore in riproduzione, viene sfasato prima di + 90°, alla riga
successiva di -90° equivalente a +270°. La somma vettoriale di due righe colore soggette ad un ritardo di fase,
restituisce la fase corretta in quanto la riga successiva invertita contiene lo stesso segnale a +270° riportato a 90° ma
con l'errore invertito e vettorialmente annullato. Al segnale colore viene aggiunto, di riga in riga, una serie di 10
impulsi (burst) per sincronizzare in fase l'oscillatore quarzato presente nei circuiti di decodifica del colore. Il burst
colore si trova in una zona del segnale che corrisponte ad una zona non visibile della riga visualizzata sullo schermo.
Questa zona si trova immediatamente dopo il termine dell'impulso di sincronismo di riga, nel supernero. Il supernero
è la cancellazione di traccia ed è il tempo che il fascio di elettroni proiettato sullo schermo impiega per tornare dal
margine destro al margine sinistro.
I due segnali, luminanza (bianco e nero + sincronismi) e crominanza (colore + burst), formano il classico segnale
component o S - derivato da S-VHS. Con questi due segnali si ottiene un'ottima riproduzione del bianco e nero e dei
dettagli, ma si ottiene una limitazione nel dettaglio colore. Sommati tra loro formano il segnale video composito.
Video composito 70
Decodifica
I circuiti di decodificazione separano dal segnale video composito il segnale di crominanza ed il segnale di
luminanza il quale viene filtrato della componente a 4.433 MHz in modo da non creare un disturbo a reticolato
rappresentato dalla componente colore. Apposite ed elaborate circuiterie fanno in modo di recuperare il dettaglio
successivo dello spettro fino a 5.3 MHz per mantenere un dettaglio sufficientemente valido. Un circuito separa dal
segnale composito i segnali di sincronismo verticale ed orizzontale. Dal primo fronte negativo del segnale di
sincronismo orizzontale viene ricavata una finestra che serve a far passare il burst colore per sincronizzare in
frequenza ed in fase l'oscillatore colore quarzato dei circuiti di decodifica del colore. In circuito colore ricostruisce i
segnali della portante in quadratura e, attraverso il confronto col segnale colore ricevuto, ne ricava le differenze
colore B-Y ed R-Y. A questi due segnali viene sommata la luminanza e si ricava Y+(B-Y)=B e Y(R-Y)=R Con una
matrice resistiva, attraverso la sottrazione di R e di B da Y, si ricava il verde G. Le componenti RGB vengono
inviate al cinescopio il quale provvederà a visualizzare le componenti RGB sullo schermo, illuminando i
corrispondenti fosfori colorati in modo da ottenere l'immagine a colori..
Tecniche digitali
Nelle tecniche moderne digitali, il segnale non viene più trattato in modo analogico, ma le componenti dei colori
vengono immediatamente convertiti in digitale con un bitrate a circa 13.4 MHz. Il fatto che l'occhio umano ha minor
dettaglio sui colori rispetto al bianco e nero, ha fatto sì che non fosse neccessario tenere lo stesso dettaglio per i
singoli punti colore, ma vengono inserite alternativamente le differenze colore tra i dati di luminanza con questo
schema detto 4.2.2: Y, R-Y, Y, B-Y, Y, R-Y...
Voci correlate
• → Video
• Interfaccia video
Bibliografia
• Carlo Solarino, Per fare televisione, Vertical 1995
• Silvio Silvi, "Appunti di tecniche video - il video composito", Vip Videosystem 1988
Note
[1] CVBS è l'acronimo dell'inglese "Composite Video Blanking and Sync" o "Color Video Blanking and Sync"
[2] In Germania sono utilizzati gli acronimi BAS (del tedesco "Bild Austastung Synk"), per il video composito in bianco e nero, e FBAS (del
tedesco "Farb Bild Austastung Synk"), per il video composito a colori, è quindi possibile trovarli su qualche apparecchiatura video di origine
tedesca per indicare un ingresso o un'uscita video in video composito.
Formato contenitore 71
Formato contenitore
Un formato contenitore è un formato di file che può contenere diversi tipi di dati, → compressi tramite codec
audio/video. Il file contenitore è usato per identificare e disporre i differenti tipi di dati in maniera non contigua. I
formati contenitori più semplici possono contenere diversi tipi di codec audio, mentre quelli pià avanzati arrivano a
supportare anche i → codec video, sottotitoli e tag metadata.
Alcuni contenitori sono esclusivamente di matrice audio, ad esempio:
• AIFF (largamente usato nei sistemi operativi Mac OS)
• WAV (Resource Interchange File Format, usato prevalentemente nei sistemi Windows)
• XMF (Extensible Music Format)
Altri contenitori riguardano unicamente immagini digitali:
• FITS (Flexible Image Transport System), formato contenitore per file RAW ed i metadata associati.
• TIFF (Tagged Image File Format), formato contenitore per immagini ed metadata associati.
Altri contenitori supportano sia dati audio che video::
• 3GP (usato maggiormente da dispositivi portatili e telefoni cellulari)
• ASF (contenitore standard proprietario riguardante WMA and WMV)
• → AVI (contenitore standard Microsoft)
• DVR-MS ("Microsoft Digital Video Recording"), contenitore video proprietario, sviluppato da Microsoft e basato
su ASF)
• IFF (primo formato contenitore multipiattaforma)
• → MKV , (formato contenitore open source).
• → MP4 (contenitore audio/video standard per il formato .mp4)
• → MOV (contenitore video standard per Quicktime della Apple)
• → Ogg (contenitore audio standard della fondazione Xiph.org.
• RealMedia (contenitore standard per RealVideo e RealAudio)
Problemi ed incompatibilità
Le differenze tra i molti formati contenitori derivano da cinque grandi problematiche:
1. Popolarità; ovvero, quanto sia diffuso il formato.
2. Overhead; ovvero, la differenza di peso (in termini di memoria occupata) tra due differenti contenitori, aventi il
medesimo contenuto.
3. Supporto per funzionalità avanzate dei codec. Ad esempio, formati considerati "vecchi" quali l'→ AVI non
supportano alcuna funzionalità avanzata, sebbene il problema possa essere aggirato attraverso hacking, causando
spesso problemi di compatibilità.
4. Supporto per contenuti avanzati quali sottotitoli, metatags et similia.
5. Supporto per lo streaming.
Formato contenitore 72
Voci correlate
• FFmpeg
• Cross-platform
• Open source
• Codec
Velocità di trasmissione
Bit rate
Prefissi SI
Nome Simbolo Multiplo
Dove H è la larghezza di banda del segnale , S e 'N sono rispettivamente la potenza del segnale e del rumore del
canale. Da questa espressione si deduce chiaramente che per ogni canale esiste un ben preciso limite fisico.
Voci correlate
• Baud
• Larghezza di banda
• Teorema di Nyquist
• Teorema di Shannon
Codec video 74
Codec video
Un codec video è un programma o un dispositivo sviluppato per descrivere un flusso video sotto forma di dati
numerici adatti ad essere memorizzati su un supporto digitale.
Usualmente i codec video effettuano anche una → compressione dei dati in modo da ridurre l'elevata quantità di dati
che compone un flusso video. La maggior parte dei codec video adottano tecniche di → compressioni lossy (a
perdita di informazioni) in modo da poter ridurre i dati necessari per trasmettere i flussi video anche di 20 volte o
più, ma esistono anche dei codec utilizzati per applicazioni professionali che utilizzano → compressioni lossless
(senza perdita di informazione).
Voci correlate
• Codec audio
• → Compressione video digitale
Contenitore multimediale 75
Contenitore multimediale
Questa è una pagina di disambiguazione per orientarsi tra voci omonime o dal titolo ambiguo.
Se sei giunto qui da un'altra pagina, per favore torna indietro e correggi il collegamento, indirizzandolo alla voce più appropriata.
Un contenitore multimediale è un formato file che può contenere vari tipi di dati. Il suo ruolo è quello di
sincronizzare codec video, codec audio, sottotitoli e menu.
I contenitori più utilizzati sono:
• → Ogg ("Ogg Media", contenitore standard open source per Vorbis, → Theora e altri)
• → Audio Video Interleave (AVI) (contenitore standard Microsoft Windows)
• ASF (contenitore standard per Microsoft WMA e WMV)
• → MOV (standard di QuickTime della Apple Inc.)
• RealMedia (contenitore standard per RealVideo e RealAudio)
• → Matroska / MKV (non standard per alcun sistema ma in grado di contenere tutti i formati video ed audio sia
proprietari che open source)
Estensione .avi
Sviluppatore Microsoft
AVI, acronimo di Audio Video Interleave, è un → Contenitore multimediale realizzato dalla Microsoft nel 1992
come formato standard video per il sistema operativo Windows. Nel febbraio del 1996, Microsoft decide di integrare
nel formato AVI un set di estensioni sviluppate da Matrox OpenDML. Questo nuovo tipo di file AVI viene
chiamato, non ufficialmente, "AVI 2.0".
AVI è un → contenitore multimediale e può contenere uno o due flussi audio e un flusso video. AVI non supporta
alcun formato di sottotitoli che devono quindi essere trasformati ed inseriti dentro il flusso video. La mancanza del
supporto per sottotitoli e la mancanza di supporto per formati aperti lo differenzia da altri contenitori multimediali
come → Matroska ed → Ogg.
Audio Video Interleave 76
Voci correlate
• → Contenitore multimediale
• ASF
• → MOV
• → Ogg
• RealMedia
• → Matroska
• Sigle dei DivX
• Screener
Matroska 77
Matroska
Nome Matroska (Матрёшка)
logo
mime audio/x-matroska
video/x-matroska
tipo → Contenitore
multimediale
Matroska (le cui estensioni classiche sono .mkv e .mka) è un progetto volto a sviluppare un contenitore
multimediale simile a QuickTime di Apple, Mp4 di MPEG o l'Advanced Systems Format di Microsoft. Il suo nome
deriva dalle bambole Matrioska.
Il progetto è stato annunciato il 7 dicembre 2002 come fork del progetto Multimedia Container Format in seguito a
disaccordi con il creatore del progetto circa l'utilizzo dell'EBML (Extensible Binary Meta Language) invece di un
altro formato binario.
I fondatori del progetto Matroska credono che l'uso dell'EBML porti numerosi vantaggi, tra i quali facilitazioni in
una futura estensione del formato.
Obiettivi
Gli obiettivi del progetto sono diversi:
• Creare un formato contenitore multimediale moderno, flessibile, estensibile e multipiattaforma che permetta lo
streaming attraverso Internet, una ricerca rapida all'interno del file e menu tipo → DVD.
• Sviluppare una serie di strumenti per la creazione e la modifica di file Matroska, da rilasciarsi sotto licenza GNU
General Public License.
• Sviluppare librerie che possano essere utilizzate dagli sviluppatori per avere il supporto Matroska alle loro
applicazioni, da rilasciarsi sotto licenza GNU General Public License.
• Lavorare in concerto con produttori di hardware per incorporare il supporto Matroska in dispositivi multimediali.
• Fornire supporto nativo a Matroska per diversi sistemi operativi, tra cui:
• Linux tramite il GStreamer multimedia framework
• Haiku tramite il suo Mediakit
• Windows tramite DirectShow
• Mac OS X tramite il framework QuickTime
Matroska 78
Supporto
MPEG-1 No
MPEG-2 Sì
→ Sì
MPEG-4
WMV Sì
RealVideo Sì
→ Theora Sì
Flash Sì
Supporto
→ MP3 Sì
WMA Sì
RealAudio Sì
Vorbis Sì
AC3 Sì
DTS Sì
FLAC Sì
Supporto
VobSubs Sì
Ogg Sì
Writ
USF Sì
Matroska 79
Voci correlate
• → Contenitore multimediale
• → AVI
• ASF
• → MOV
• → Ogg
• RealMedia
Collegamenti esterni
Homepage Ufficiale [1]
Note
[1] http:/ / www. matroska. org/
MPEG-4
MPEG-4, nato nel 1996 e finalizzato nel 1998 (fu presentato pubblicamente ad ottobre di quell'anno), è il nome dato
a un insieme di standard per la codifica dell'audio e del → video digitale sviluppati dall'ISO/IEC Moving Picture
Experts Group (MPEG). L'MPEG-4 è uno standard utilizzato principalmente per applicazioni come la videotelefonia
e la televisione digitale, per la trasmissione di filmati via Web, e per la memorizzazione su supporti CD-ROM.
MPEG-4 è basato sugli standard MPEG-1, MPEG-2 e Apple QuickTime technology, supportandone tutte le
caratteristiche; ISO approvò il formato QuickTime come base per lo standard MPEG-4, l'MPEG group riteneva
infatti che fosse la migliore base di partenza e che integrasse già alcune caratteristiche essenziali[1] ; lo standard
evolutosi possedeva inoltre tutta una serie di nuove funzioni come la gestione tridimensionale degli oggetti (tramite
un'estensione del VRML). I flussi audio e video vengono trattati dallo standard MPEG-4 come oggetti che possono
essere manipolati e modificati in tempo reale bidirezionalmente. Lo standard supporta caratteristiche specificate da
terze parti come una particolare gestione dei DRM o una gestione interattiva dei contenuti.
La maggior parte delle caratteristiche dell'MPEG-4 sono opzionali e quindi la loro implementazione è lasciata alla
discrezione dello sviluppatore. Questo implica che parte dei lettori mediali di file MPEG-4 non saranno magari in
grado di gestire tutte le caratteristiche del formato. Per permettere un'elevata interoperabilità, nel formato sono stati
inclusi i concetti di profilo e di livello, quindi i vari lettori MPEG-4 potranno essere suddivisi a seconda dei profili e
livelli supportati.
Componenti MPEG-4
MPEG-4 è suddiviso in vari sotto standard chiamati part (termine inglese che in italiano significa "parte"):
• Part 1 (ISO/IEC 14496-1): Systems: Describes synchronization and multiplexing of video and audio.
• Part 2 (ISO/IEC 14496-2): Visual: A compression codec for visual data (video, still textures, synthetic images,
etc.). One of the many "profiles" in Part 2 is the Advanced Simple Profile
• Part 3 (ISO/IEC 14496-3): Audio: A set of compression codecs for perceptual coding of audio signals.
• Part 4 (ISO/IEC 14496-4): Conformance: Describes procedures for testing conformance to other parts of the
standard.
• Part 5 (ISO/IEC 14496-5): Reference Software: Provides software for demonstrating and clarifying the other parts
of the standard.
• Part 6 (ISO/IEC 14496-6): Delivery Multimedia Integration Framework (DMIF).
MPEG-4 80
• Part 7 (ISO/IEC 14496-7): Optimized Reference Software: Provides examples of how to make improved
implementations (e.g., in relation to Part 5).
• Part 8 (ISO/IEC 14496-8): Carriage on IP networks: Specifies a method to carry MPEG-4 content on IP networks.
• Part 9 (ISO/IEC 14496-9): Reference Hardware: Provides hardware designs for demonstrating how to implement
the other parts of the standard.
• Part 10 (ISO/IEC 14496-10): A codec for video signals which is also called AVC (Advanced Video Coding) and
is technically identical to the ITU-T H.264 standard.
• Part 12 (ISO/IEC 14496-12): ISO Base Media File Format: A file format for storing media content.
• Part 13 (ISO/IEC 14496-13): Intellectual Property Management and Protection (IPMP) Extensions
• Part 14 (ISO/IEC 14496-14): MP4 File Format: The designated container file format for MPEG-4 content MP4,
which is based on Part 12.
• Part 15 (ISO/IEC 14496-15): AVC File Format: For storage of Part 10 video based on Part 12.
• Part 16 (ISO/IEC 14496-16): Animation Framework eXtension (AFX)
• Part 17 (ISO/IEC 14496-17): Timed Text subtitle format (not yet finished - reached "FCD" stage in January 2005)
• Part 18 (ISO/IEC 14496-18): Font Compression and Streaming (for OpenType fonts)
• Part 19 (ISO/IEC 14496-19): Synthesized Texture Stream
• Part 20 (ISO/IEC 14496-20): Lightweight Scene Representation (LASeR) .
• Part 21 (ISO/IEC 14496-21): MPEG-J Extension for Rendering (not yet finished - reached "CD" stage in January
2005)
I profili inoltre sono definiti all'interno di diverse Part, in modo che un'esecuzione di alcune caratteristiche di una
Part non implichi la necessità di supportare l'intera Part.
MPEG-1, MPEG-2, MPEG-7 e MPEG-21 sono altri standard MPEG.
Funzionamento
Il concetto alla base del codec (COdificatore-DECodificatore) MPEG4 è la Quantizzazione. Senza scendere nello
specifico, si può riassumere come quel processo che permette, mediante un apposito algoritmo di compressione, di
trasmettere solamente la variazione dell'immagine. Allo stato dell'arte infatti esistono due modi per eseguire questa
operazione: I-frame e P-frame4: il primo codifica l'immagine senza una referenza alla precedente (refresh puro): è
più preciso ma più pesante per le applicazioni via rete, mentre la seconda esegue una compensazione nella variazione
del movimento (motion-compensated frames) analizzando appunto la differenza di immagine tra due frame correnti.
La parte statica non è ritrasmessa e non cambia tra un quadro e l'altro.
Voci correlate
• Advanced Audio Coding (AAC)
• XviD
• DivX
• 3ivx
• Nero Digital
• H.264
• M4a
• MPEG-4 Part 3
• → Theora
• SBR
MPEG-4 81
Collegamenti esterni
• Tecnologia Mpeg-4 sviluppata da Apple (in inglese) [2]
• Sito italiano sull'Mpeg4 [3]
• (EN) MPEG-4: The Next Generation [4]
• (EN) MPEG-4 Audio: AAC [5]
• (EN) MPEG Industry Forum MPEG-4 page [6]
• (EN) Moving Picture Experts Group (MPEG) Official Website [7]
• Galleria di filmati in formato H.264/AVC [8]
• FAQ sul formato H.264/AVC [9]
• MPEG-4 part 20: LASeR [10]
Note
[1] Vedere la voce Quicktime
[2] http:/ / www. apple. com/ quicktime/ technologies/ mpeg4/
[3] http:/ / www. m4a. it
[4] http:/ / www. apple. com/ mpeg4/
[5] http:/ / www. apple. com/ mpeg4/ aac/
[6] http:/ / www. m4if. org/ mpeg4/
[7] http:/ / www. chiariglione. org/ mpeg/
[8] http:/ / www. apple. com/ quicktime/ hdgallery
[9] http:/ / www. apple. com/ mpeg4/ h264faq. html
[10] http:/ / www. mpeg-laser. org
Supporto
MPEG-1 Sì
MPEG-2 Sì
→ Sì
MPEG-4
WMV Sì
RealVideo Sì
→ Theora Sì
Flash Sì
Supporto
→ MP3 Sì
WMA Sì
RealAudio No
Vorbis Sì
AC3 Sì
DTS Sì
FLAC Sì
Supporto
VobSubs No
Ogg No
Writ
USF No
Voci correlate
• → Contenitore multimediale
• → AVI
• ASF
• → Ogg
• RealMedia
• → Matroska
Ogg 83
Ogg
Ogg Media
Ogg è un → contenitore multimediale libero per il trasporto di flussi di bit progettato per permettere sia lo streaming
che l'archiviazione in maniera efficiente.
Il nome "Ogg" si riferisce al formato di file, che include un numero di codec indipendenti per il → video, l'audio ed
il testo (ad esempio, per i sottotitoli). I file con l'estensione ".ogg" possono contenere uno qualsiasi dei formati
supportati, e poiché il formato è liberamente implementabile, i vari codec ogg sono stati incorporati in molti
riproduttori multimediali, sia proprietari, sia liberi.
Spesso il termine "ogg" è stato usato per indicare il formato di file audio Ogg Vorbis, cioè un file audio codificato in
un file ogg con l'algoritmo Vorbis, poiché questo è stato il primo codec ad usare il contenitore ogg. Altri importanti
codec sviluppati per il contenitore ogg sono → Theora per la compressione video, e Speex, un algoritmo ottimizzato
per la compressione del parlato.
Il progetto è stato sviluppato originariamente da Christopher Montgomery della Xiph.Org Foundation.
È inoltre il formato ufficialmente preferito per i file audio e video di Wikipedia.
Licenze
Le specifiche di Ogg sono di pubblico dominio. Le librerie di riferimento per la codifica e decodifica sono rilasciate
sotto licenza BSD. Gli strumenti ufficiali per la gestione del container sono rilasciati sotto GNU General Public
License (GPL).
I codec di Ogg
Ogg è solo un formato che specifica il modo in cui i dati devono essere ordinati nel flusso dati. I dati audio o video
codificati da un codec specifico saranno inseriti nel contenitore Ogg. Il contenitore Ogg può contenere flussi
codificati con diversi codec: ad esempio, un file audio/video conterrà dati codificati con un codec audio e dati
codificati con un codec video.
Essendo un formato di contenimento, Ogg può integrare diversi codec. Di seguito le specifiche di Xiph.org in tal
senso:
Ogg 84
• → Codec video
• → Theora: codec di compressione video basato su VP3 di On2
• Dirac: codec sperimentale open source sviluppato originariamente da BBC
• Tarkin: codec sperimentale che utilizza trasformate wavelet 3D, nel frattempo reso obsoleto da Theora
• OggUVS: stream video non compresso
• Codec audio
• Vorbis: compressione di segnale musicale e audio generico (~16-256 kbit/s/canale)
• Speex: compressione della voce umana a bassi bitrate (~8-32 kbit/s/canale)
• FLAC: compressione audio lossless
• OggPCM: stream PCM non compresso concettualmente paragonabile a WAVEform audio di Microsoft
• Codec testo
• Writ: codec per la gestione del testo nei sottotitoli dei filmati
• Metadati
• Ogg Skeleton: formato ancora in fase sviluppo per spostare i metadati dal livello flusso a livello contenitore
Curiosità
• Nonostante la nota passione di Christopher Montgomery per Terry Pratchett e i suoi libri della serie del Mondo
Disco, in cui effettivamente esiste un personaggio chiamato Ogg, la vera etimologia del termine deriva da uno
slang coniato dallo stesso Montgomery in riferimento alla pesantezza dell'algoritmo Vorbis ai tempi della sua
nascita. Riprendendo il nome di una tattica del videogioco Netrek che consisteva in un attacco suicida, è diventato
di uso comune l'espressione inglese to ogg con il significato approssimativo di "intraprendere un'azione azzardata,
con esiti incerti e conseguenze probabilmente deleterie". Lanciare un processo di codifica di un brano musicale in
Ogg Vorbis, al tempo, rendeva infatti totalmente inutilizzabile il computer per diversi minuti.
• La struttura interna di un file Ogg ne permette il concatenamento per semplice accodamento binario. Il file
risultante è un Ogg perfettamente rispettoso delle specifiche, che prevedono appunto i cosiddetti chained streams.
Il modo più pratico di verificare questa caratteristica sono i comandi DOS
copy /b file1.ogg+file2.ogg newfile.ogg
o Unix
Ogg 85
Collegamenti esterni
• Pagina della Xiph.org Foundation dedicata ad Ogg [1]
• RFC 3533, le specifiche ufficiali del container Ogg
• RFC 3534, le specifiche del MIME type application/ogg
Voci correlate
• → Contenitore multimediale
• → AVI
• ASF
• → MOV
• RealMedia
• → Matroska
Collegamenti esterni
• (EN) OggWatch [2] Progetto per la diffusione dei formati Ogg
Note
[1] http:/ / www. xiph. org/ ogg/
[2] http:/ / www. oggwatch. com/
Theora 86
Theora
Theora è un codec → video sviluppato dalla Xiph.Org Foundation come parte del progetto → Ogg. È basato sul
codec VP3 della On2 Technologies, ed è progettato per competere con il video → MPEG-4 (come XviD e DivX),
RealVideo, Windows Media Video, e simili schemi di compressione video a basso bit rate.
VP3 è una tecnologia brevettata, ma On2 ha concesso in modo irrevocabile una licenza royalty free perpetua dei
brevetti collegati, permettendo al pubblico di usare Theora ed altri codec derivati da VP3 per qualsiasi uso senza
dover pagare diritti a On2. L'obiettivo di sviluppare un codec video esente da royalty ha posto delle limitazioni al
progetto che non ha potuto utilizzare alcune tecniche di compressione molto efficienti ma brevettate. Questo pone il
progetto dal punto di vista delle prestazioni nel segmento medio basso dei codec video, essendo simile come qualità
video a codec come l'→ MPEG-4 ASP e inferiore a sistemi come il H.264 il DivX e il VC-1.[1]
Theora è utilizzato per tutti i video di Wikipedia. Questo codec video è stato implementato nelle nuove versioni di
Firefox (3.5) e di Opera.
Nei flussi multimediali Ogg, Theora fornisce il layer video, mentre Vorbis è usato di solito come layer audio
(sebbene anche Speex e FLAC possano essere usati per l'audio).
Voci correlate
• Xiph.Org Foundation
• → Ogg
Collegamenti esterni
• (EN) Theora.org [4]
• (EN) Xiph.org Foundation [5]
• (EN) On2 Technologies [6]
• (EN) VP3.com [7]
• Elenco di video Theora [8] -- video scaricabili in formato Ogg Theora
Note
[1] Quasi pronta l'alternativa free a DivX (http:/ / punto-informatico. it/ p. aspx?i=2077274). Punto Informatico, 1-10-2007. URL consultato il
1-10-2007.
[2] La prima versione stabile di Theora (http:/ / punto-informatico. it/ 2466472/ PI/ News/ ecco-theora-10-alternativa-free-divx. aspx). Punto
Informatico, 7-11-2008. URL consultato il 7-11-2008.
[3] Theora 1.1, l'alternativa open a H.264 (http:/ / punto-informatico. it/ 2716448/ PI/ News/ theora-11-alternativa-open-h264. aspx). Punto
Informatico, 29-9-2009. URL consultato il 29-9-2009.
[4] http:/ / theora. org/
[5] http:/ / xiph. org/
[6] http:/ / on2. com/
[7] http:/ / vp3. com/
[8] http:/ / wiki. xiph. org/ index. php/ List_of_Theora_videos
88
Audio Digitale
• AAC è stato reso popolare dalla Apple. Apple's iTunes Music Store fa uso di file compressi con 128Kbps CBR
AAC e lo standard video MPEG4 raccomanda l'uso dell'AAC audio nei prossimi apparecchi e software.
• Dolby Digital (AC3) può comprimere fino a 6 canali audio, di cui 5 a piena larghezza di banda ed uno per gli
effetti a bassa frequenza (LFE), fino a 384 kbit/s. Viene utilizzato nei → DVD e nel sistema americano ATSC
DTV.
• MPC o Musepack è un formato opensource con una qualità maggiore dell'mp3 a parità di bitrate.
Bitrate
I file multimediali sono per loro natura connessi al tempo che scorre. In altri termini ad ogni secondo è associato un
certo contenuto informativo e quindi una certa sottosequenza di cifre binarie. Il numero di cifre binarie che
compongono queste sottosequenze è detto bitrate. In altre parole il bitrate è il numero di cifre binarie impiegate per
immagazzinare un secondo di informazione. Questo può essere costante per tutta la durata del file o variare
all'interno di esso. Ad esempio i cd musicali vengono campionati (registrati) ad una frequenza pari a 44.100Hz. Da
ciò si evince che ogni secondo si hanno 44.100 valori registrati dall'ipotetico microfono che vanno poi moltiplicati
per i 2 canali del suono stereo che vanno a loro volta moltiplicati per 2 poiché la registrazione avviene a 16 bit (pari
appunto a 2 byte). Quindi avremo:
La compressione, diminuendo la lunghezza globale del file, diminuirà di conseguenza la lunghezza media delle
sottosequenze ossia diminuirà il bitrate medio. Il bitrate medio diventa dunque in questi casi l'indice dell'entità della
compressione. Ad esempio se il file di origine possedesse un bitrate di 1411 Kbit/s e il file compresso possedesse un
bitrate medio di 320 Kbit/s, allora avremmo ridotto di un fattore pari a circa 4.5.
Una compressione lossy effettua un compromesso fra la perdita d'informazione e la dimensione del file finale,
mentre una losless deve bilanciare la dimensione del file finale con i tempi di esecuzione dell'algoritmo.
MP3 90
MP3
Motion Picture Expert Group-1/2 Audio Layer 3
Estensione .mp3
|+ style="text-align: center; font-size: larger; margin-left: inherit;" | MPEG 1 Audio Layer 3 MP3 (per esteso
Motion Picture Expert Group-1/2 Audio Layer 3, noto anche come MPEG-1 Audio Layer 3) è un algoritmo di
compressione audio di tipo → lossy in grado di ridurre drasticamente la quantità di dati richiesti per memorizzare un
suono, rimanendo comunque una riproduzione accettabilmente fedele del file originale non compresso.
Storia
La codifica MPEG-1/2 Layer 2 iniziò come progetto presso la DAB e
promosso dalla Fraunhofer IIS-A. Venne finanziato dall'Unione
europea come parte di un programma di ricerca più vasto chiamato
EUREKA comunemente conosciuto con il codice EU-147.
EU-147 fu attivo dal 1987 al 1994. Nel 1991 vennero fatte due
proposte per uno standard disponibile: Musicam (conosciuto come
Layer II) e ASPEC (Adaptative Spectral Perceptual Entropy Coding)
(con analogie con l'MP3). Venne scelto Musicam perché più semplice
Una delle sedi del Fraunhofer Institute
ed affidabile.
Un gruppo di lavoro condotto da Karlheinz Brandenburg e Jürgen Herre fece confluire gli studi su Musicam e
ASPEC con alcune loro idee e creò l'MP3, che fu progettato per realizzare la stessa qualità a 128 kbit/s dell'MP2 a
192 kbit/s.
Entrambi gli algoritmi furono completati nel 1992 con la sigla MPEG-1, come prima fase di sviluppo del progetto
denominato MPEG e definito come standard internazionale con il codice ISO/IEC 11172-3 e pubblicato nel 1993.
Un'ulteriore fase del progetto MPEG Audio si concluse nel 1994 con la creazione dell'MPEG-2 definito come
standard internazionale con il codice ISO/IEC 13818-3 e pubblicato nel 1995.
L'efficienza di un algoritmo di compressione è tipicamente giudicata dal bitrate finale che riesce ad ottenere, mentre
la metrica del tasso di compressione, che sembrerebbe più naturale, dipende sia dalla frequenza che dal numero di bit
del segnale in ingresso. Ciononostante, vengono comunemente comunicati tassi di compressione che utilizzano i CD
come riferimento, uno dei più comuni è quello a 44.1 kHz e 2x16bit. Qualche volta vengono utilizzati anche
parametri DAT SP (48KHz, 2x16bit). Il tasso di compressione in questo sistema di riferimento è maggiore, il che
dimostra le difficoltà nel definire il termine compressione come perdita di qualità nella codifica. Karlheinz
Brandenburg ha utilizzato il CD di Suzanne Vega, "Tom's Diner" come modello di riferimento dell'algoritmo di
MP3 91
compressione per l'MP3. Questo CD è stato scelto per la sua dolcezza e semplicità, rendendo facile l'ascolto di
qualsiasi imperfezione che la compressione può causare durante la registrazione.
La pagina web ufficiale pubblica i seguenti tassi di compressione per l'MPEG-1 Layer 1,2 e 3.
• Layer 1: 384 kbit/s, compressione 4:1
• Layer 2: 192...256 kbit/s, compressione 6:1...8:1
• Layer 3: 112...128 kbit/s, compressione 10:1...12:1
Questi sono valori piuttosto aleatori in quanto:
• La qualità dipende non solo dal formato di codifica del file, ma anche dalla qualità psico acustica del codificatore.
Il codificatore tipico layer 1 usa un modello psicoacustico molto elementare che finisce per richiedere molti più
bit per un risultato soddisfacente.
• La codifica Layer 1 a 384 kbit/s, anche con questo semplice "psico acustico" è migliore della codifica Layer 2 a
192 … 256 kbit/s.
• La codifica Layer 3 a 112 … 128kbit/s è peggiore del Layer 2 a 192 … 256 kbit/s
Un modo più realistico per considerare il bitrate è:
• Layer 1: eccellente a 384 kbit/s
• Layer 2: eccellente a 256...320 kbit/s, molto buono a 224...256 kbit/s, buono a 192...224 kbit/s, non si dovrebbe
usare sotto i 160 kbit/s
• Layer 3: eccellente a 224...256 kbit/s, molto buono a 192...224 kbit/s, buono a 160...192 kbit/s, non si dovrebbe
usare sotto i 128 kbit/s
Il confronto di un nuovo formato di file, viene fatto confrontando la qualità media di compressione del nuovo
formato con un encoder di alta qualità e molto ottimizzato, del vecchio formato.
L'algoritmo che utilizza il formato MP3, si basa su una trasformazione ibrida che trasforma il segnale dal dominio
temporale a quello delle frequenze.
• 32 band filtro in quadratura polifase
• 36 or 12 Tap MDCT, la dimensione può essere selezionata indipendentemente dalla sottobanda 0...1 e 2...31
• processamento addizionale per ridurre gli effetti di aliasing
L'AAC → MPEG-4, è il formato erede dell'MP3 sempre secondo le specifiche MPEG. Tra i successori del formato
MP3 è degno di nota l'Ogg Vorbis per la qualità di codifica e per il fatto di essere un progetto Free Software. Quasi
tutti gli altri formati sono legati a delle aziende proprietarie di diverse brevetti e licenze legate alle specifiche MPEG.
La diffusione del formato MP3 e di software gratuiti (come Winamp) apportarono una piccola rivoluzione nel
mondo della musica, la diffusione delle playlist. In precedenza le canzoni di successo erano attentamente intercalate
ai motivi meno riusciti nei CD e nelle audiocassette che si potevano ascoltare solamente nell'ordine studiato dal
produttore. Con l'avvento dei supporti digitali questo non accade più ed è possibile una maggiore personalizzazione.
• Xing: principalmente basato sul codice ISO, qualità simile all'ISO dist10.
• Blade: qualità simile all'ISO dist10
• FhG: Alcune di loro sono buone, ma altre hanno gravi difetti.
• ACM Producer Pro: Alcune versioni generano dei disturbi fastidiosi
• L.A.M.E (è un acronimo ricorsivo, per "Lame Ain't MP3 Encoder", letteralmente "Lame non è un codificatore
MP3", iniziò come una patch dimostrativa GPL che modificava l'originale codificatore dist10 ISO, realizzata da
Mike Cheng all'inizio del 1998, ed era quindi incapace di produrre file MP3 per conto suo o di essere compilato
separatamente. Nel maggio 2000 gli ultimi resti del codice sorgente ISO furono sostituiti conferendo così al
codice sorgente LAME piena funzionalità come codificatore LGPL MP3, in grado di competere con i principali
codificatori presenti sul mercato. Lame development at Sourceforge [2].
Nel sito [3] è possibile trovare un front end di Windows per il codificatore LAME (il "popolo" di JTHZ.com utilizza
LAME dal 1998).
La qualità di un file MP3 dipende dalla qualità della codifica e dalla difficoltà con la quale il segnale deve essere
codificato. Buoni codificatori hanno una qualità accettabile da 128 a 160 kbit/s, la chiarezza perfetta di un brano si
ottiene da 160 a 192 kbit/s. Un codificatore che ha bassa qualità lo si riconosce ascoltando persino un brano a 320
kbit/s. Per questo non ha senso parlare di qualità di ascolto di un brano di 128 kbit/s o 192 kbit/s. Una buona codifica
MP3 a 128 kbit/s prodotta da un buon codificatore produce un suono migliore di un file MP3 a 192 kbit/s codificato
con uno scarso codificatore.
Una caratteristica importante dell'MP3 è la → perdita di dati dovuta alla compressione – è il modo con cui si
rimuove l'informazione dal file audio originale allo scopo di risparmiare spazio. Nei moderni codificatori MP3 gli
algoritmi più efficaci fanno di tutto per assicurare che i suoni rimossi siano quelli che non possono essere rilevati
dall'orecchio umano. Questo risultato è stato ottenuto anche grazie alla scienza della psicoacustica.
Tuttavia molti ascoltatori sono in grado di riconoscere la differenza confrontando un CD originale con un formato
MP3 da 192 kbit/s e persino a 256 kbit/s di alcuni codificatori meno potenti e più obsoleti. Se il vostro scopo è di
memorizzare file audio con una fedeltà massima indirizzatevi su un compressione audio del tipo FLAC, SHN, o
LPAC. Questi generalmente comprimono un file audio PCM a 16-bit approssimativamente dal 50 al 75%
dell'originale (questo dipende dalla caratteristiche del file audio stesso).
Bit rate
Il bit rate è il numero di unità binarie che fluiscono al secondo ed è variabile per i file MP3. La regola generale è che
maggiore è il bitrate, più informazione è possibile includere dall'originale, maggiore è la qualità del file audio
compresso. Attualmente per le codifiche dei file MP3 fissano un tasso di compressione equivalente per tutto il file
audio.
Per l'MPEG-1 layer 3 i bitrate disponibili sono: 32, 40, 48, 64, 80, 96, 112, 128, 160, 192, 224, 256 e 320 kbit/s (
bits per secondo), e le frequenze campionate disponibili sono 32, 44.1 e 48 Khz. La frequenza di
campionamento a 44.1 kHz è quasi sempre utilizzata per i CD audio, mentre i 128 Kbit/s come una sorta di bitrate
standard "abbastanza buono". L'MPEG-2 e l'MPEG-2.5 (non-ufficiale) contemplano un numero maggiore di bitrate:
8, 16, 24, 32, 40, 48, 56, 64, 80, 96, 112, 128, 144 e 160 kbit/s
I file MP3 audio sono suddivisi in settori ("chunks" in inglese) chiamati frames, ("fotogrammi" in italiano). Ognuno
di questi settori è provvisto di un marcatore del tasso di compressione; in questo modo, mentre il file audio viene
riprodotto, è possibile modificarlo dinamicamente. Questa tecnica rende possibile utilizzare più bit per la parte del
suono ad alta dinamica (suoni più complessi) e meno bit per la parte a bassa dinamica (suoni meno complessi).
MP3 93
ID3
L'ID3 tag è una classificazione dei formati che permettono l'inserimento, nel file MP3, della descrizione, del titolo,
dell'artista e dell'album, o il numero della traccia.
Alternative all'MP3
Vi sono molti altri codec audio alternativi all'MP3:
• Ogg Vorbis dalla Xiph.Org Foundation, libero da brevetti;
• mp3PRO dalla Thomson Multimedia;
• MPEG-1/2 Audio Layer 2 (MP2), predecessore dell'MP3;
• MP+, una derivato dell'MP2;
• → MPEG-4 AAC, utilizzato da LiquidAudio e Apple Inc. nell'iTunes Store;
• ATRAC, usato dai Minidisc della Sony;
• AC-3, usato dalla Dolby Digital per i → DVD;
• QDesign, usato da QuickTime per alti bitrate;
• Windows Media Audio (WMA) da Microsoft;
• RealAudio da RealNetworks.
mp3PRO, MP3, AAC, e MP2 sono tutti membri della stessa famiglia tecnologica e si basano su modelli
psicoacustici simili.
Il Fraunhofer Gesellschaft è proprietario di alcune licenze di codec: Dolby Labs, Sony, Thompson Consumer
Electronics, mentre AT&T possiede altri brevetti. Su Internet si trovano altri metodi di compressione privi di perdite.
Pur non essendo simili all'MP3, essi sono buoni esempi di altri metodi di compressione disponibili:
• SHN
MP3 94
• FLAC
• Monkey's Audio (APE)
Il formato MP3 fu progettato per essere utilizzato in parallelo al formato Video MPEG-1/2, e per questo non in grado
di riprodurre adeguatamente i suoni al di sotto dei 48 kbit/s (mono) o degli 80 Kbit/s (stereo).
Nonostante alcuni fautori di codec più recenti come WMA, mp3PRO e RealAudio affermino che i loro rispettivi
algoritmi sono in grado raggiungere una qualità CD già con 64 kbit/s, i test di ascolto cieco sembrano smentirli. Va
comunque apprezzata l'indiscussa superiorità di questi e altri formati su MP3 a pari larghezza di banda impiegata.
Tra gli altri, la Xiph.Org Foundation, sviluppatrice dell'algoritmo Vorbis utilizzato assieme al container multimediale
→ Ogg, in supporto al proprio formato di compressione Free Software, fornisce in una pagina web [4] dei test di
ascolto comparato tra diversi formati audio.
Licenze e brevetti
La Thomson Consumer Electronics è proprietaria del brevetto
MPEG-1/2 Layer 3 in U.S.A. e in Giappone. La Microsoft, che ha
progettato il sistema operativo Windows, ha scelto di creare il proprio
formato proprietario WMA invece di utilizzare l'MP3, in questo modo
evita di dover pagare le relative royalties.
Per informazioni sui costi vedere: [5] e [6].
Sotto la presidenza di Mario Monti, l'antitrust europeo multò Microsoft
per abuso di posizione dominante con il massimo della sanzione, il
10% del fatturato. Microsoft fu costretta ad abilitare l'installazione su Un lettore MP3
Windows di lettori audio diversi dal nativo Windows Media Player,
venduto insieme al sistema operativo. Questi software permettevano di ascoltare l'mp3 e altri formati diversi dal
".wma": alla fine, lo stesso software "Windows Media Player" è stato modificato per la lettura di molti codec e la
loro masterizzazione, fra i quali c'è l'mp3.
Nonostante queste scelte, il formato MP3 continua ad essere ampiamente utilizzato. Vediamo perché:
• Ormai la maggior parte degli utenti ha familiarità con il formato
• La maggior parte della musica disponibile è in formato MP3
• Una grande varietà di software e di hardware hanno ottenuto dei notevoli vantaggi da questo formato,
rivoluzionando l'industria musicale e le leggi sul copyright.
• Assenza di controlli sulla copia e distribuzione. Assenza di DRM (Digital Rights Management)
• L'mp3 è un file generalmente poco pesante rispetto a molti altri formati. Tuttavia è superato nel rapporto
qualità/bitrate sia da WMA che da Ogg Vorbis , AAC. Fornisce una qualità audio più che buona con file che
occupano da 3 ai 5 MB (MegaByte), per una tipica canzone di 5 minuti compressa ad un bitrate di 128
kbit/secondo. Ciò consente il download di singoli brani anche ad utenti che non hanno una connessione ADSL, di
memorizzare parecchie ore di musica nei lettori Multimediali.
• La rivoluzione dell'mp3 sta nel fatto che i modelli psicoacustici usati per la codifica del flusso audio sfruttano il
fenomeno del mascheramento. L'orecchio umano infatti non è in grado di percepire determinati suoni sovrapposti.
In questo modo viene codificata minore informazione, senza disturbare però la qualità percettiva.
MP3 95
Voci correlate
• Lettore MP3
• Bit rate
Collegamenti esterni
• MP3 [7] su Open Directory Project ( Segnala [8] su DMoz un collegamento pertinente all'argomento "MP3")
Note
[1] http:/ / www. iis. fraunhofer. de/ amm/ techinf/ layer3/
[2] http:/ / lame. sourceforge. net/
[3] http:/ / jthz. com/ mp3
[4] http:/ / www. xiph. org/ vorbis/ listen. html
[5] http:/ / www. mp3licensing. com/ help/ developers. html
[6] http:/ / www. mp3licensing. com/ royalty/ index. html
[7] http:/ / www. dmoz. org/ Computers/ Multimedia/ Music_and_Audio/ Audio_Formats/ MP3/
[8] http:/ / www. dmoz. org/ cgi-bin/ add. cgi?where=Computers/ Multimedia/ Music_and_Audio/ Audio_Formats/ MP3/
96
HDTV
La televisione in alta definizione, in sigla
HDTV (acronimo dell'analogo termine
inglese High Definition TeleVision), o anche
semplicemente alta definizione, è la
televisione con → video di qualità
significativamente superiore a quello degli
standard televisivi maggiormente diffusi nel
mondo nella seconda metà del XX secolo e
ancora oggi molto diffusi, standard televisivi
che rientrano nella SDTV. È in altre parole
un termine che sta ad indicare
genericamente un livello qualitativo
dell'immagine televisiva.
Un'immagine televisiva ad alta definizione mostrata da un videoproiettore.
A differenza della SDTV, in cui il rapporto
d'aspetto è sia nel tradizionale formato 4:3
che in quello widescreen 16:9, l'alta definizione moderna prevede standard unicamente in 16:9.
Caratteristiche tecniche
Un fotogramma del sistema televisivo PAL (Europeo) è composto da 2 semiquadri (field) di 312,5 linee cadauno.
Nel primo semiquadro, vengono riprodotte le linee dispari, sul secondo le linee pari. Il segnale è quindi composto da
25 fotogrammi al secondo, pari a 50 semiquadri. Ogni linea orizzontale ha una durata di 64 microsecondi (15625
Hz), 53 dei quali sono utilizzati come parte attiva (quindi riproducono il segnale video), mentre i restanti 11
microsecondi sono utilizzati come segnale di sincronismo orizzontale. Lo stesso accade nei semiquadri, infatti solo
576 linee, sono da ritenersi attive, le rimanenti costituiscono l'insieme del sincronismo verticale. La risoluzione
orizzontale del fotogramma non è applicabile in termini di → pixel al video analogico, dove ogni riga è composta da
un segnale modulato analogico, quindi continuo, ma la sua risoluzione è in funzione della frequenza di trasmissione
di questo segnale; più la banda sarà ampia, più informazioni si possono trasmettere in ciascuna linea. Il segnale a
standard PAL ha una larghezza di banda di oltre 7 MHz, ma in realtà la scarsa qualità dei ricevitori TV commerciali
(e la pessima qualità degli impianti di ricezione via antenna) ha fatto col tempo ritenere che un segnale di qualità
adatto alla trasmissione ha una banda di 5 MHz, sufficienti per risolvere circa 400 linee. Questo è il massimo teorico
che può essere trasmesso con la codifica PAL, anche se la qualità ottenibile realmente è inferiore. Se la sorgente è
digitale, lo standard di campionamento prevede invece 720 pixel sull'asse orizzontale. L'evoluzione dell'informatica,
molto più rapida rispetto al broadcasting, ha fatto sì che agli standard TV si affiancassero standard per PC sempre
più performanti fino a far diventare gli standard informatici la punta di diamante degli standard video ad Alta
Definizione. Oggi conviene ragionare in termini di standard "nK" dove n è il numero di migliaia di pixel lungo l'asse
orizzontale.
HDTV 97
Formati video
Lo standard HDTV, all'inizio delle ricerche negli anni '80 del XX secolo, si
riteneva dovesse offrire una risoluzione "doppia" del PAL, quindi 1250 righe
non tutte attive (le attive si riducevano a 575 x 2 = 1.150, il che comportava, a
16/9, una risoluzione orizzontale di 2.040 pixel); tuttavia per ragioni
commerciali la dizione "Alta Definizione" è stata via via estesa nei decenni a
standard sempre meno performanti, fino a includere nell' "Alta Definizione"
standard con prestazioni effettive minori di un segnale PAL ricevuto con
apparati professionali. Quindi gli attuali standard 2K in realtà stanno
realizzando l'HDTV "effettiva" pensata 30 anni fa.
• Il formato 1080i, presenta una risoluzione complessiva di 2.073.600 pixel (1920×1080) con scansione
interlacciata, ovvero per ciascun ciclo viene trasmesso un semiquadro formato alternativamente dalle sole linee
pari o dispari dell'immagine. Quindi ogni aggiornamento coinvolge 540 righe e 1.036.800 pixel.
• Il formato 1080p, comunemente chiamato FULL HD, è il più recente dei tre ed equivale alla versione con
scansione progressiva del 1080i, per cui ogni aggiornamento coinvolge tutte le 1080 linee e i 2.073.600 di pixel
dello schermo, ma di solito è a 24Fps, la velocità della pellicola cinematografica.
Sono previsti formati 1080p a 50 e 60 fps, ma attualmente non sono di uso pratico, solo alcune telecamere e
registratori possono riprendere e registrare così tanti dati.
• Esiste anche un formato HR.HDTV (Half Resolution High Definition TV) con risoluzione pari di 960x540 ovvero
l'esatta metà della definizione FULL HD (1920x1080) che tuttavia non è uno standard ufficiale né un formato
nativo. L'HR.HDTV si ottiene dal downscaling di materiale ad alta definizione. Questo formato non viene usato
da alcuna emittente televisiva per trasmissioni TV ma soltanto per la creazione di file video Xvid. http://en.
wikipedia.org/wiki/High-Resolution_High-Definition
Gli standard a 1035 linee di scansione, in uso soprattutto in Giappone, sono stati abbandonati.
Va evidenziato che, per loro stessa natura, gli schermi LCD e plasma visualizzano comunque qualunque segnale
video in modalità progressiva, sia che originariamente sia interlacciato, sia che sia già progressivo.
HDTV 98
Per confronto, nelle riprese cinematografiche si gira a 24 fotogrammi al secondo (in pellicola) con l'utilizzo di un
otturatore a due pale che, con una frequenza doppia di 48 cicli al secondo, in proiezione copre le interlinee e i
passaggi tra un fotogramma e l'altro. Le telecamere di ripresa elettroniche (o quelle digitali) invece hanno cicli di 25
fotogrammi al secondo. Le emittenti televisive tradizionali trasmettono in scansione interlacciata 25 fotogrammi al
secondo per il sistema PAL e 30 per il sistema NTSC, quest'ultimo ha una risoluzione inferiore al precedente. [1]
La qualità relativa dei due formati HD ready è legata, oltre che a considerazioni soggettive (preferenza verso una
maggiore stabilità dell'immagine o verso una maggiore risoluzione), ai contenuti del segnale trasmesso. Le scene con
movimenti più rapidi e frequenti possono beneficiare della maggiore rapidità di aggiornamento del formato 720p,
mentre le scene statiche possono trarre vantaggio dalla maggiore ricchezza di dettagli del formato 1080i. Di fatto il
sistema progressivo elimina i difetti di fermo immagine soprattutto durante la fase di montaggio.
La definizione dei programmi HDTV è circa 4 volte superiore a quella del formato → DVD e nonostante la buona
efficienza di compressione offerta dall'→ MPEG-4, lo spazio richiesto per la loro archiviazione è comunque
rilevante. Per quanto i supporti ottici Blu-ray (lo standard HD DVD è stato abbandonato) di ultima generazione
offrano una capacità che può arrivare a 50 GB e oltre, questa sarebbe appena sufficiente per 2 ore di filmato ad alta
definizione con la codifica DVD. D'altra parte, l'uso di codec avanzati quali H.264 (MPEG-4 Part 10) consentirà la
trasmissione della qualità piena con bitrate abbastanza bassi, fino a scendere agli 8 Mbit di banda passante
disponibile sui ricevitori DTT. Questi codec vengono utilizzati anche dai lettori HD DVD e Blu-ray per abbassare la
banda passante richiesta permettendo la memorizzazione fino a 8 ore di video su supporti Blu-ray a più strati.
A partire dai primi mesi del 2009 sono presenti sul mercato televisori in grado di supportare il formato 1080p (Full
HD con scansione progressiva), anche con frequenza di ripetizione di 200 Hz.
HDTV 99
Il sistema di connessione con cui è possibile connettere una videocamera o un lettore al monitor o al videoproiettore
si differenzia tra SDI e Component HD. Nei sistemi di montaggio non-lineare è possibile utilizzare lo standard
Firewire.
"HD TV", "FULL HD 1080p" ed "HD TV 1080p", stabiliti dalla EICTA (European Information, Communications
and Consumer Electronics Industry Technology Association), che in teoria dovrebbero dare la garanzia che un
televisore sia in grado di visualizzare contenuti HD (ma nei negozi si sono visti televisori con questo sigillo, le cui
caratteristiche tecniche non lo permettono). Il sigillo HD Ready dovrebbe garantire che il televisore:
• abbia una risoluzione verticale fisica di almeno 720 righe
• disponga di (almeno) una presa analogica YUV (→ Component)
• disponga di (almeno) una presa digitale (DVI o HDMI) protetta dal sistema HDCP
• sia in grado di visualizzare contenuti con i formati 720p e 1080i.
Viceversa né "HD Ready" né "HD Ready 1080p" garantiscono che l'apparecchio riceva via etere o satellite stazioni
televisive in HD (720p o 1080i): per questa caratteristica il sigillo deve essere "HD TV" o "HD TV 1080p".
Nel 1987 la NHK irradia le prime trasmissioni analogiche in HDTV via satellite utilizzando il sistema di
compressione analogica MUSE (Multiple Sub-nyquist sampling Encoding). Lo stesso anno la RAI, in co-produzione
con la CBS e la United Artists, produce "Julia & Julia" il primo film elettronico al mondo, con Sting e Kathleen
Turner, luci di Giuseppe Rotunno, regia di Peter Del Monte. In tale produzione viene impiegata la video-camera
Sony HDC-300 di 2ª generazione con prestazioni più cinematografiche, risultato delle prime sperimentazioni. Lo
standard HD è sempre Hi-Vision 1125/60/i però col definitivo formato di immagine 16:9 (5.33:3 / 1.78:1); da qui in
poi si utilizzerà il protocollo SMPTE SMPTE 240M (1125/60i/16:9).
la Commissione Europea (ECC), con la approvazione dei 12 paesi membri, lancia il progetto Eureka 95 (EU-95) per
una HDTV europea col nuovo standard analogico 1250/50i/16:9 (1250linee / 50hz / aspect ratio 16:9).
Partecipano al progetto broadcaster (BBC, ARD, RAI, RTVE, ORF, …) e costruttori (Philips, Thomson, BTS,
Seleco, Nokia, etc.). Alla Riunione Plenaria del CCIR (tenuta nel maggio 1986 a Dubrovnik), la battaglia fra i due
standard, quello giapponese (1125/60i/16:9) sostenuto dagli USA, e quello europeo (1250/50i/16:9) si traduce in un
pareggio. Nel 1987 l'industria europea produce apparati di produzione HD anche con lo standard analogico
1250/50i16:9: camera BTS KCH-1000, videoregistratore BTS BCH-1000. Anche la Thomson produce camere HD e
per registrare usa coppie di VTR digitali D1. L'italiana Seleco produce il videoproiettore HDFP-1250 tritubo CRT
interamente europeo. Per sperimentarli, i broadcaster europei realizzano molte riprese (fiction, documentari,
concerti, sport) diffondendole via satellite a più punti di visione in occasione di mostre, congressi e presentazioni con
il sistema analogico di compressione HD-MAC.
Nel 1987 RAI produce "Un bel dì vedremo", la sua prima mini-fiction col sistema europeo analogico 1250/50i/16:9.
Seguono negli anni successivi altre produzioni sperimentali: "Capitan Cosmo" con Walter Chiari, "Allegro con
brio", "Incontrando Robot", "Il cielo in una stanza". Nel 1990 un consorzio formato da RAI, Telettra, RTVE e
Politecnico di Madrid, nell'ambito del progetto europeo EUREKA 256 (EU-256), mette a punto un sistema di
compressione digitale HDTV basato sull'algoritmo DCT (Discrete Cosine Transform), da cui nascerà cinque anni più
tardi lo standard di compressione MPEG-2.
Il sistema viene dimostrato durante i Mondiali di Calcio Italia 1990 diffondendo ad 8 sale di visione italiane le
immagini in alta definizione riprese nei campi di calcio con i sistemi HDTV 1125/60i/16:9 e 1250/50i/16:9 e
trasmesse via satellite Olympus. I grossi gruppi industriali europei capiscono l'importanza della compressione
digitale, ma non sono ancora pronti: nel progetto europeo EU-95 si prosegue con l'impiego della compressione
analogica col sistema HD-MAC, mentre il gruppo Alcatel acquista dalla FIAT la Telettra e trasferisce nelle sue
fabbriche americane lo studio della compressione digitale. Il sogno RAI si arresta bruscamente.
Sempre nel 1990 la CEE crea Vision-1250 con lo scopo di fornire un sostegno tecnico-produttivo in 1250/50i/16:9 a
broadcaster e produttori europei. I costruttori Thomson, Philips e BTS, oltre a Seleco ed altre ditte europee,
forniscono gli apparati necessari alla creazione di una "flotta di ripresa" Vision-1250, forte di circa 20 mezzi
attrezzati. Altri mezzi di ripresa vengono messi in campo dai broadcaster europei (RAI, BBC, SFP, RTVE, WDR,
BR, YLE, ecc.), con uno sforzo considerevole del mondo tecnico europeo.
Il 1992 è l'anno dei XVI Giochi olimpici invernali ad Albertville e dei Giochi della XXV Olimpiade a Barcellona.
Per entrambi Vision 1250 ed NHK effettuano una copertura HDTV con i rispettivi sistemi. Ma nubi dense si stanno
addensando sul neonato progetto EU-95 per il sistema HDTV 1250/50i/16:9. Dopo le Olimpiadi, in seno alle autorità
europee cresce la perplessità sulla opportunità di pro-seguire la sperimentazione di un sistema HD europeo
analogico. E ciò per molteplici ragioni: gli elevati costi dell'operazione (condotta ancora con sistemi analogici), lo
scarso favore presso il pubblico per l'indisponibilità di schermi televisivi di grandi dimensioni (oggi invece in
commercio) e le difficoltà nel trasporto e trasmissione dei segnali HDTV affidati ancora a sistemi di compressione
analogici.
Nel 1982, negli USA, un comitato congiunto, formato da Electronic Industries Alliance (EIA), Institute of Electrical
and Electronics Engineers (IEEE), NAB, NCTA e SMPTE, crea l'Advanced Television System Committee) (ATSC,
organizzazione volontaria e non-profit per lo sviluppo di un sistema avanzato TV. Nel 1987 La Federal
HDTV 102
Communications Commission (FCC), numerose università e gruppi di ricerca individuano 23 possibili sistemi
HDTV. Nel 1993 il FCC Advisory Committee decide di prendere in considerazione solo sistemi digitali di HDTV,
sollecitando le 4 ditte proponenti a riunirsi in una Digital HDTV Grand Alliance. Nel 1995 La "Grand Alliance"
propone un HDTV "advanced television terrestrial broadcasting system" come concordato fra i membri. Tale
proposta è trasformata dalla ATSC nella norma A/53 per uno standard digitale che prevede: sistemi HDTV (1080 x
1920, 720 x 1280 active line/active samples-per-line) e sistemi SDTV (TV a definizione standard 480 x 720 ). Nel
1996 la SMPTE sancisce ed emette gli standard: SMPTE 274M - norme 1080/50i/16:9 (Eu) e 1080/60i/16:9 (USA)-
e SMPTE 296M - norme 720/50p/16:9 (Eu) e 720/60p/16:9 (USA). L'anno successivo la FCC decide di assegnare
alla trasmissione digitale terrestre TV (DTTV) i cosiddetti "taboo channels" adiacenti ai canali già usati e lasciati
liberi per evitare interferenze fra di essi. Oltre alla A/53 vengono emesse altre norme per la televisione satellitare
direct-to-home (A/81), per la trasmissione dati (A/90), per la compressione audio AC3 (A/52), ecc. Nel mese di
novembre 1998 hanno inizio le prime trasmissioni DTV comprendenti HDTV e SDTV secondo un calendario
stabilito dalla FCC.
Per l'Europa è del 2003 la nascita dell'idea di un Digital Cinema (DC), vero "cavallo di Troia" per il mondo
cinematografico con la proposta di 24 fps (in luogo dei 50hz o 60hz della TV), costituisce anche una forte sferzata
per il mondo televisivo e produttivo. I broadcaster europei prendono coscienza che il DC offre importanti
opportunità e in particolare di poter disporre di un "common format" in DC con cui creare prodotti top destinati ad
una lunga vita (fiction, documentari, ecc.) per i quali la conservazione è ancora oggi affidata alla pellicola 35mm, ma
anche di poter disporre di una "scalabilità di formato", potendosi ricavare dal master in DC copie destinate ai mercati
con minore definizione (SDTV, → DVD, VHS, ecc.). Al tempo stesso, esso costituisce una minaccia, potendo
aggirare la diffusione TV con la distribuzione di supporti preregistrati (home-cinema).
Nel 2004 la società belga Alfacam dà inizio a regolari trasmissioni HDTV col satellite Astra, con la rete Euro1080
(utilizzando il sistema 1080/50i/16:9) battendo sul tempo i broadcaster e le autorità europee. Inizia col canale HD1 a
cui poi seguono HD2 e HD5. La produzione necessaria a riempire questi canali è fornita anche dalla flotta di ripresa
Alfacam che copre importanti manifestazioni, dal "Victory Day" a Mosca a vari eventi culturali e sportivi (nel
febbraio 2006 un considerevole gruppo di tali mezzi coprirà in HD i XX Giochi olimpici invernali di Torino).
Sempre nel luglio 2004, sotto la pressione crescente di gruppi industriali europei interessati al lancio della HDTV, il
Ministero dell'Industria francese crea un HD Forum e quest'anno il Consiglio dell'Unione Europea, col supporto della
Commissione Europea, ha organizzato il 7 giugno in Lussemburgo alla presenza di 300 rappresentanti decisionali
(governi e settori privati) una Conferenza Europea sulla Televisione ad Alta Definizione. In tale conferenza la EBU
(European Broadcasting Union) ed il "Digital Interoperability Forum" annunciano la creazione di un HDTV
European Forum.
La DCI (il gruppo di ricerca costituito dalle major di Hollywood) propone nel luglio 2005 le specifiche dei due
formati: 4096x2160 (4K) e 1920x1080 (2K), ora in via di normazione da parte della SMPTE. In Europa opera già da
tempo lo EDCF (European Digital Cinema Forum). Intento l'industria televisiva di consumo si dichiara pronta a
immettere sul mercato apparati HDTV (ricevitori MPEG-4 AVC e lettori DVD) certificandoli col marchio HD
ready. Al Satexpo di Vicenza (ottobre 2005) vengono presentati HD Council Italia (associazione nata per
promuovere la diffusione dell'Alta Definizione in Italia) e HD Forum Italia (gruppo di lavoro e coordinamento sulle
nuove tecnologie dell'alta definizione costituito presso la Fondazione Bordoni). Questi si uniscono ai Forum
nazionali inglese (UK HD Forum emanazione del DTG, Digital Television Group), tedesco (German HD Forum -
emanazione della Deutsche TV Platform), oltre che spagnolo, portoghese, svedese, belga e olandese. Gli standard in
predicato per una HDTV europea sono:
• SMPTE 296M : 720/50p (1280x720 pixel)
• SMPTE 274M : 1080/50i (1920x1080 pixel)
Entrambi comportano un bit-rate pari a :
• in SDI (senza compressione) = 1.5 Gbps
HDTV 103
Futuro
Mentre il formato HDTV si sta diffondendo nei mercati, nei laboratori di ricerca si stanno sviluppando i successori.
Ci sono in progetto sistemi come SHD (Super High Definition), detto anche "4k", con una risoluzione di 3840x2160
pixel (quattro volte i dati di un sistema Full HD) e anche di UHDV (Ultra Alta Definizione), sistema tutt'ora in via
sperimentale elaborato in Giappone, il quale prevede una risoluzione di 7680x4320 pixel (16 volte i dati di un
sistema Full HD). Tutti questi nuovi standard prevedono, come aspect ratio, l'uso del 16:9. Mentre il progetto SHD si
prevede che venga (almeno inizialmente) destinato alle sale cinematografiche, il progetto UHDV sarebbe destinato
all'ambito domestico. Il progetto SHD dovrebbe essere introdotto nel giro di qualche anno mentre per il progetto
UHDV si prevedono tempi molto lunghi, NTT DoCoMo prevede la commercializzazione nel 2025 circa.
Voci correlate
• PAL
• NTSC
• → DVD
• Blu-ray Disc
• HD DVD
• HD ready
• Televisione digitale terrestre
• broadcast flag
• SKY HD
• Ultra High Definition Video
• Digital Rights Management
• SDTV
• EDTV
HDTV 105
• → Risoluzioni standard
Altri progetti
• Wikimedia Commons contiene file multimediali su HDTV
Collegamenti esterni
• (EN) Aspect Ratios [1] - Dal sito Widescreen.org
• Lista di canali HDTV trasmessi via DVB-S in europa [4]
• Le basi dell'HDTV [5]
• Alta Definizione: chi, cosa, come, perché e quando? [6]
Note
[1] Si noti che i due sistemi citati sono, a rigore, tecniche di codifica per un segnale video composito, che non definiscono la risoluzione e la
frequenza di scansione; tuttavia i termini sono di uso molto comune per riferirsi anche a questi aspetti delle norme relative.
[2] Charles Poynton, Digital Video and HDTV: algorithms and interfaces, San Francisco, Morgan Kaufmann, 2003. 987-1-55860-732-7
[3] http:/ / www. raiway. rai. it/ index. php?lang=IT& cat=144& showINFO=85
[4] http:/ / www. kingofsat. net/ it/ hdtv. php
[5] http:/ / www. tomshw. it/ video. php?guide=20040805
[6] http:/ / www. tomshw. it/ guide. php?guide=20061107
DVD
Disco ottico
• Lettore CD
• Lettore DVD
• Masterizzatore
• Super Multi
• Software di masterizzazione
Dischi ottici
Il DVD, acronimo di Digital Versatile Disc (in italiano Disco Versatile Digitale, originariamente Digital Video Disc,
Disco Video Digitale) è un supporto di memorizzazione di tipo ottico.
DVD 106
Storia
Il DVD è il prodotto della cooperazione di alcune fra le maggiori aziende nel campo della ricerca e dell'elettronica di
consumo: il cosiddetto DVD forum, ovvero l'istituzione che si è incaricata di redigere le specifiche del nuovo
supporto, era infatti formata da Philips, Sony, Matsushita, Hitachi, Warner, Toshiba, JVC, Thomson e Pioneer.
L'intento era quello di creare un formato di immagazzinamento di grandi quantità di video digitali che fosse accettato
senza riserve da tutti i maggiori produttori, evitando quindi tutti i problemi di incertezza del mercato dovuti alla
concorrenza fra formati che si erano presentati al tempo dell'introduzione delle videocassette per uso domestico.
Il DVD forum individua 3 principali campi d'applicazione per il DVD:
1. il DVD-Video, destinato a contenere film, in sostituzione della videocassetta;
2. il DVD-Audio, pensato per sostituire il CD Audio grazie a una maggiore fedeltà e capacità;
3. il DVD-ROM, destinato a sostituire il CD-ROM.
Sia nel DVD-Video che nel DVD-Audio sono previsti sistemi di protezione in grado di disincentivare la
duplicazione dei contenuti. Proprio a causa di problemi nello sviluppo dei codici di sistemi di protezione adeguati, lo
standard DVD-Audio sembra essere l'applicazione meno fortunata del formato DVD. Al contrario lo standard
DVD-Video e DVD-ROM sono apparsi sul mercato sin dal 1997, ottenendo un enorme successo commerciale.
In un secondo momento, lo stesso DVD Forum introdusse gli
standard per i formati registrabili del DVD. Formalizzato nel
corso del 1999, il formato DVD-R è lo standard ufficiale per i
DVD Registrabili. Esso si suddivide nei formati "DVD-R for
authoring" e "DVD-R for general use". I primi sono destinati
alla creazione di copie di video protette da diritto d'autore,
necessitano di uno speciale masterizzatore e sono in grado di
implementare i sistemi di protezione dalla duplicazione. La
differenza fondamentale tra i due formati risiede nella diversa
lunghezza d’onda del laser: 635 nm per il DVD-R(A) e 650
nm per il DVD-R(G). I secondi sono in grado di contenere
qualunque tipo di materiale, ma non sono compatibili con i
sistemi di protezione utilizzati nei DVD-Video.
Più recente è l'introduzione di standard per la masterizzazione di DVD a doppio strato, simili al DVD-9 industriale, e
con una capienza di circa 9 GB di informazioni. Anche in questo caso la cordata Sony-Philips ha giocato d'anticipo,
commercializzando il formato DVD+R Double Layer (c.d. DVD+R DL) fin dal 2002, mentre solo nel 2004 si è
formalizzato lo standard ufficiale DVD-R DL.
DVD 107
Il DVD-Video
I DVD-Video sono supporti digitali in grado di contenere fino a 240 minuti[1] di materiale video in formato
MPEG-2. L'audio può essere in formato non compresso PCM (da 1 a 8 canali), in formato Dolby Digital AC3 (che
prevede da 1 a 6 canali), in formato DTS (fino a 8 canali) o in formato MPEG.
I DVD-Video in commercio possiedono un codice detto codice regionale per poter essere riprodotto, usando un
lettore DVD da tavolo, solo in una determinata zona del mondo (il globo è stato suddiviso in aree dalle major
cinematografiche). I codici regionali dei DVD-Video sono i seguenti:
0 - Tutto il mondo (nessuna
restrizione)
1 - Canada, USA e suoi territori
2 - Europa, Giappone, Sudafrica,
Medio Oriente
3 - Sudest asiatico
4 - Australia, Nuova Zelanda,
America centrale e meridionale
Le zone del DVD
5 - Russia, India, Asia nordovest e
Africa del nord
Il DVD-Audio
Il formato DVD-Audio ha subito numerosi slittamenti per problemi tecnici. Questo formato (DVDA) è stato
progettato per fornire una qualità sonora notevolmente migliore di quella del CD Audio (CDDA).
Malauguratamente, i sistemi di protezione dalla copia illegale implementati nel DVDA si sono rivelati molto efficaci
dal punto di vista della sicurezza, ma terribilmente invasivi dal punto di vista della qualità complessiva del suono. In
pratica il risultato sonoro era addirittura inferiore a quello dei normali CDDA, tanto che si è dovuto cercare altri
sistemi di protezione che avessero un effetto meno marcato sulla qualità del suono.
Nel frattempo il consorzio Sony-Philips ha introdotto, ritagliandosi una piccola fetta nel mercato audiofilo, il formato
concorrente Super Audio CD SACD.
Altro elemento che concorre al fallimento del formato DVD-Audio è la sua totale incompatibilità con gli attuali
lettori DVD-Video.
DVD 108
Dvd Time
È oggi possibile distribuire anche DVD a scadenza, aventi i medesimi standard di un DVD a doppio strato ma che si
differenziano da questo per la durata fisica della traccia che contengono. La parte centrale contiene sostanza citrica
che, a contatto col raggio ottico del lettore, viene lentamente sprigionata ed entro 48 ore rende il DVD inservibile
avendone deteriorato la traccia.
Esistono vari brevetti per realizzare questi nuovi supporti. Negli Stati Uniti questa tecnologia è stata sviluppata con il
marchio Flexplay dalla Flexplay Technologies, società fondata nel 1999 da Yannis Bakos and Erik Brynjolfsson.
Una tecnologia simile è utilizzata dalla Buena Vista con il nome ez-D.
DVD 109
Un'altra tecnologia simile, SpectraDisc, è stata sviluppata dalla SpectraDisc Corporation, acquistata interamente
dalla Flexplay Technologies nel 2003.
In Italia i DVD a scadenza sono detti Dvd Time e sono distribuiti dalla 01 Distribution che ha acquistato in esclusiva
il brevetto dalla società francese Dvd-Time. Il primo film distribuito in Italia su tale supporto è stato A History of
Violence nel 2006[2] .
Questi supporti hanno il vantaggio che il film può essere preso a noleggio senza doverlo riportare in videoteca, dopo
la visione del film.
Voci correlate
• DVD Forum
• DVD+RW Alliance
• Elenco dei produttori di lettori DVD
• Video anamorfico
Formati DVD
• DVD+R
• DVD-R
• DVD-RAM
• DVD+RW
• DVD-RW
• DVD+R DL
• DVD-R DL
• DVD-D
• mini DVD
DVD 110
Formati Video
• MPEG-2
• → MPEG-4
• DivX
• EZ-D
• VOB
Altri progetti
• Wikimedia Commons contiene file multimediali su DVD
Note
[1] La capienza in minuti di un DVD-video è solo indicativa e dipende da scelte di natura commerciale. La reale capienza in minuti di un
DVD-video dipende dal tipo di ripresa e dai settaggi scelti per i parametri della codifica in MPEG-2. Per qualsiasi supporto di memorizzazione
digitale, l'unità di misura della capienza in uso è il byte.
[2] cinecittà.com (http:/ / news. cinecitta. com/ news. asp?id=17398& idd=1). URL consultato il 10-01-2008.
Fonti e autori delle voci 111
Colore Fonte: http://it.wikipedia.org/w/index.php?oldid=26604227 Autori:: Alfio, Andy91, Archenzo, Aushulz, Avesan, Berto, Biopresto, Blatta, Bob4, Boscarol, Cialz, Cisco79, DarkAp,
Desperate92, Djdomix, Dnaiele, DoppioM, Dream.x, Elwood, Fastforward, Ferrario Jacopo, Frieda, Ft1, Gac, Gacio, Gea, Gierre, Gifh, Ginosal, Hellis, Immanuel Giel, Ithunn, Joana, La voce di
Cassandra, LapoLuchini, Luke30, M7, Massimiliano Lincetto, Nick1915, No2, Nrykko, Paginazero, Patty, R0tAbLe, Remulazz, Riverblu, Sassospicco, Senza nome.txt, Simone, Sinigagl,
Snowdog, Stefano Careglio, Suturn, Talmid3, Template namespace initialisation script, Twice25, 35 Modifiche anonime
Spazio dei colori Fonte: http://it.wikipedia.org/w/index.php?oldid=23781999 Autori:: Adp, Avesan, Berto, DGC, Djdomix, Dnaiele, Ft1, Hellis, M7, Madaki, Marcok, Sassospicco, Sbisolo,
Shadowfax, Sinigagl, Smallpox, Snarchio, Snowdog, Stefano Careglio, Twice25, Wikit2006, 11 Modifiche anonime
Temperatura di colore Fonte: http://it.wikipedia.org/w/index.php?oldid=27805602 Autori:: A7N8X, Ary29, AttoRenato, Cialz, Dnaiele, Erud, Fredericks, Gassendi, Guam, Luisa, Luken,
Magica, Pequod76, Senpai, Sesquipedale, 17 Modifiche anonime
RGB Fonte: http://it.wikipedia.org/w/index.php?oldid=26180034 Autori:: Abisys, Ary29, Blackdeep81, Cassioli, Francescost, Freefranco, Ft1, Gac, Hellis, Lox, Lukius, M7, MaEr,
Marcuscalabresus, Marioquark, Mitchan, Paolo57, PersOnLine, Purodha, Robin root, Sassospicco, Simone, Snowdog, Twice25, Vermondo, Viscontino, Wiso, Yuma, 19 Modifiche anonime
CMYK Fonte: http://it.wikipedia.org/w/index.php?oldid=25895402 Autori:: Archenzo, Ares, Artwik, Ary29, Avesan, Dani4P, Djdomix, Dnaiele, Freefranco, Gianfranco, Magica, MapiVanPelt,
MiGz, Pino alpino, Riverblu, Sassospicco, Senpai, Simone, SkZ, Stefano Careglio, TierrayLibertad, Tiziano Fruet, Twice25, 10 Modifiche anonime
Hue Saturation Brightness Fonte: http://it.wikipedia.org/w/index.php?oldid=25414942 Autori:: A7N8X, Alleborgo, Ary29, Avesan, Dejudicibus, KaeZar, Llorenzi, Mamo139,
Moongateclimber, Nick1915, Poweruser, Sassospicco, 3 Modifiche anonime
Grafica raster Fonte: http://it.wikipedia.org/w/index.php?oldid=26623968 Autori:: .jhc., Alb, Ary29, ChemicalBit, Dr Zimbu, Fabio.gastone, Giovdi, Ignlig, Jotar, Lion-hearted85, Marcok,
Negadrive, Red83, Sinigagl, Vault, Wetto, 19 Modifiche anonime
Pixel Fonte: http://it.wikipedia.org/w/index.php?oldid=27773597 Autori:: .anaconda, Alberto da Calvairate, Buzz lightyear, Cruccone, EdoM, Enrique, Fragment, Frieda, Ft1, Giannib,
Guidomac, Hellis, Jalo, Laurentius, Lp, Lukius, Mela, Mitchan, Moongateclimber, Neq00, Nosferatu, Piracmone, Qualc1, Richzena, Ripepette, Sbisolo, Scriban, Simone, Snowdog, Suisui, Trixt,
Unriccio, Wetto, Михајло Анђелковић, 36 Modifiche anonime
Risoluzione (grafica) Fonte: http://it.wikipedia.org/w/index.php?oldid=20850482 Autori:: %Pier%, Alfio, Avesan, Beta16, Bultro, Cassioli, Cls-classic, Fabiob, Frieda, Goliardico, Gvf, Hellis,
Koji, Lucas, Marcel Bergeret, Mizardellorsa, Olando, Sbisolo, Trixt, Zeus57, 4 Modifiche anonime
Risoluzioni standard Fonte: http://it.wikipedia.org/w/index.php?oldid=24166516 Autori:: %Pier%, A7N8X, Abisys, Alez, Ciampix, Civvì, Dark, Diego Zuelli, EdoM, Gbodini, Hellis, Kal-El,
Kasper2006, Lenny76, Marcuscalabresus, Mr buick, Sandr0, TheDRaKKaR, TierrayLibertad, 8 Modifiche anonime
Immagine digitale Fonte: http://it.wikipedia.org/w/index.php?oldid=23695265 Autori:: Blackdeep81, CavalloRazzo, Luciodem, Negadrive, 11 Modifiche anonime
Compressione dei dati Fonte: http://it.wikipedia.org/w/index.php?oldid=26612271 Autori:: %Pier%, Alberto Orlandini, Alfio, Alien life form, Archenzo, Blakwolf, Carlo.milanesi, Djdomix,
Dommac, F. Cosoleto, Frieda, Hellis, Ignlig, Lornova, Lukius, M@ttia, Marcok, Qualc1, Rollopack, Sbisolo, Simpod, Unriccio, 9 Modifiche anonime
Compressione dati lossy Fonte: http://it.wikipedia.org/w/index.php?oldid=22500703 Autori:: Ary29, Cruccone, Djdomix, Dommac, Fredericks, Fstefani, Gvf, Hellis, Lox, Marcok, Nosferatu,
Unriccio, Yoggysot, 11 Modifiche anonime
Compressione dati lossless Fonte: http://it.wikipedia.org/w/index.php?oldid=27774260 Autori:: Airon90, Alberto Orlandini, Alien life form, Alleborgo, Ary29, Avesan, Baruneju, CarmineXX,
Civvì, Dinwath, Djdomix, Dommac, Fmonaco, Gaetano56, Hellis, Kiwi, Laurusnobilis, Leif Erikson, Lox, Nicolap8, Piddu, Snowdog, Sylvaticus, Timendum, Unriccio, Wiso, 27 Modifiche
anonime
Joint Photographic Experts Group Fonte: http://it.wikipedia.org/w/index.php?oldid=26423319 Autori:: .anaconda, Acolleoni, Alfio, AnyFile, Ary29, Barna1000, Brownout, Coyote83,
Elborgo, Erriquez, Frieda, Gvf, Hashar, Hellis, Iskander, Kar.ma, Klemen Kocjancic, Mela, MiGz, Nico96, Objwan, Sbisolo, Simone, Suisui, Template namespace initialisation script, Unriccio,
18 Modifiche anonime
Portable Network Graphics Fonte: http://it.wikipedia.org/w/index.php?oldid=27722259 Autori:: %Pier%, A7N8X, Acolleoni, Agara73, Alfio, DonPaolo, El salvador, F l a n k e r, Fmonaco,
Giancy, Hashar, Hellis, Iskander, MiGz, Moongateclimber, Nevermindfc, Nico96, Purodha, Sbisolo, Simone, Suisui, Tia solzago, Viscontino, 12 Modifiche anonime
Video Fonte: http://it.wikipedia.org/w/index.php?oldid=27802068 Autori:: Abisys, Air France, Ary29, AttoRenato, Avesan, Diego Zuelli, Edo93, Fiertel91, Fluctuat, Frammco, Jok3r,
Limonadis, Lorenz-pictures, LucaLuca, Lucas, Marcok, Morningfrost, Nosferatu, Olando, Pakdooik, Pil56, Retaggio, Senpai, Tarf, 150 Modifiche anonime
Video digitale Fonte: http://it.wikipedia.org/w/index.php?oldid=22298348 Autori:: Abisys, Ary29, Asdf1234, AttoRenato, Casamich, Darth Kule, Francisco83pv, Hellis, Herik, Kelvin, MaEr,
Morningfrost, Tvlocali, 7 Modifiche anonime
Compressione video digitale Fonte: http://it.wikipedia.org/w/index.php?oldid=26253965 Autori:: %Pier%, 5Y, Absinthe, Avesan, Basilicofresco, Cantalamessa, Cassioli, Dommac, Guam,
Hellis, Luisa, Lukius, Morningfrost, Ninja, Perteghella, Snowdog, Svante, 8 Modifiche anonime
Sottocampionamento della crominanza Fonte: http://it.wikipedia.org/w/index.php?oldid=27651413 Autori:: Cantalamessa, Formica rufa, Granzotto, Hellis, Marcol-it, Morningfrost,
Nevermindfc, Rago, Sandr0, 4 Modifiche anonime
Video a componenti Fonte: http://it.wikipedia.org/w/index.php?oldid=26747733 Autori:: Abisys, Ary29, KS, Moongateclimber, Morningfrost, Pegasovagante, Regfla1, Senpai, Sergio46,
Ssspera, 17 Modifiche anonime
Video composito Fonte: http://it.wikipedia.org/w/index.php?oldid=27100447 Autori:: .jhc., Abisys, Abyssadventurer, Bultro, Hellis, Loox, Moloch981, Morningfrost, Ppalli, Sanfo, 20
Modifiche anonime
Velocità di trasmissione Fonte: http://it.wikipedia.org/w/index.php?oldid=24022231 Autori:: Abisys, Avesan, Cassioli, Contezero, Daniele Forsi, Fabio.gastone, Franganghi, Ft1,
Giacomo.lucchese, Giant Lizard, Hellis, Loox, Maxx1972, Nemo bis, Piracmone, Poweruser, SkY`, Toobaz, 11 Modifiche anonime
Codec video Fonte: http://it.wikipedia.org/w/index.php?oldid=21618869 Autori:: %Pier%, AnjaManix, Blaxwan, Goodsheard, Hellis, SymlynX, 2 Modifiche anonime
Contenitore multimediale Fonte: http://it.wikipedia.org/w/index.php?oldid=22352637 Autori:: Ary29, Calabash, Gspinoza, Laurusnobilis, MIX, Squattaturi, 3 Modifiche anonime
Audio Video Interleave Fonte: http://it.wikipedia.org/w/index.php?oldid=26592483 Autori:: %Pier%, Acolleoni, Archenzo, Ary29, Dalfi85, Fidech, IngFrancesco, MIX, Marcok, Nichlaus,
Nico96, Stemby, Stevenworks, TheHurricanePower, Una giornata uggiosa '94, 11 Modifiche anonime
Matroska Fonte: http://it.wikipedia.org/w/index.php?oldid=25726729 Autori:: Ary29, Cochrane, DarkAp, Fabio.gastone, MIX, Nico96, Rajven, 4 Modifiche anonime
MPEG- 4 Fonte: http://it.wikipedia.org/w/index.php?oldid=26609041 Autori:: %Pier%, Aushulz, Hellis, Kriss4Christ, Kronos, Marius, Mykelyk, Roces, Senza nome.txt, Seveso, Wikibozzy, 22
Modifiche anonime
Fonti e autori delle voci 112
MOV (formato di file) Fonte: http://it.wikipedia.org/w/index.php?oldid=23179559 Autori:: Ary29, MIX, Una giornata uggiosa '94, Unop2pf, 1 Modifiche anonime
Ogg Fonte: http://it.wikipedia.org/w/index.php?oldid=27285051 Autori:: Actam, Ary29, Blakwolf, Bouncey2k, Brownout, Grifone87, Hashar, Hellis, Jalo, Laurusnobilis, LucAndrea, MIX,
Mikelima, Mitchan, Nico96, Nosferatu, Sante Caserio, Shadd, Una giornata uggiosa '94, 15 Modifiche anonime
Theora Fonte: http://it.wikipedia.org/w/index.php?oldid=27229761 Autori:: Garak, Hellis, Laurusnobilis, Mikelima, Nico96, Sandro kensan, Sinigagl, 7 Modifiche anonime
Compressione audio digitale Fonte: http://it.wikipedia.org/w/index.php?oldid=26253877 Autori:: %Pier%, Alfio, Alfreddo, An3, Ary29, Defcon, Dommac, Hellis, Lusum, Marcok, MiGz,
Nosferatu, Sbisolo, Twice25, Xoen, 9 Modifiche anonime
MP3 Fonte: http://it.wikipedia.org/w/index.php?oldid=27766517 Autori:: .anaconda, Aamodio, Acolleoni, Afnecors, Alan p, Alfio, Alleborgo, AndreA, Ary29, Barbaking, Biopresto,
BlackMew9z, Brownout, Djechelon, Fidech, Fstefani, Gacio, Govoch, Guidomac, Hamed, Hashar, Hellis, IAF, IlCapo, Jacopo, Jorunn, Koji, LapoLuchini, Laurentius, Laurusnobilis, M7, Malex,
Marcel Bergeret, Matgio, Melkor II, MiGz, Misterioso, Mr. Blonde, Mykelyk, Nosferatu, Nur, Orionethe, P tasso, Pietrodn, Qualc1, Richhard, Rojelio, Rosario9, S-bor, Sbisolo, Scardovi,
Scimmialaser, Seveso, Simone, Simotdi, Snowdog, Suisui, Traduz, Una giornata uggiosa '94, Viscontino, Wizard, Zeus57, 78 Modifiche anonime
HDTV Fonte: http://it.wikipedia.org/w/index.php?oldid=27719627 Autori:: .anaconda, 16:9, Ab1, Abisys, Absinthe, Alleborgo, Antonino.greco, Antonio.971, Ary29, Asdf1234, AttoRenato,
Aushulz, Avesan, BMF81, Blaisorblade, Bomberman, BonAce, Brownout, Brunocip, CavalloRazzo, Codicorumus, Contezero, Derfel74, Djechelon, Elijah85, Freepenguin, Gacio, Giancy,
Golf-ball, Harrythebest93, Helix84, Hellis, Herik, Icaro829, KS, Kasper2006, Keledan, Kelvin, Klaudio, Langly, Lorenz-pictures, Loroli, Lp, LucAndrea, LucaDetomi, MaEr, Marco Bernardini,
Marcoluciano, Marcuscalabresus, Morningfrost, Nuovoastro, Oliva18, Pepe85, Piccadillo, Quoniam, Ranma25783, Rayan, Sbazzone, Scriban, Shaka, Simone, Snake79, Snowdog, Swap83,
Theferro, TierrayLibertad, Tritologol, Twice25, Valepert, Vault, Viscontino, 149 Modifiche anonime
DVD Fonte: http://it.wikipedia.org/w/index.php?oldid=27621337 Autori:: %Pier%, .mau., Al Pereira, Alfio, Amux, Ary29, Asdf1234, Beta16, Bodo, Bronzino, Bunker, Cassioli,
Deliriumtremens, Dudo, Edo, Ellevi, Erriquez, Eustace Bagge, Frazzone, Frieda, Gacio, Galoppini, Hashar, Hellis, Hypermax, Kurtsb, Lephio, Losògià, Lucabon, Lucius, M7, MapiVanPelt,
Marcok, Marcuscalabresus, Michele CaMi, Microtauro, Mitchan, Moliva, Nevermindfc, Numbo3, Outer root, Paginazero, Pegasovagante, Phantomas, Piffy, Rdocb, Rojelio, Satrixx, Servator,
Shaka, Simone, Starless74, Suisui, SuperSecret, Surfy47, Template namespace initialisation script, Tennegi, Tooby, Viames, VicMer1987, Vikinger, Win, 112 Modifiche anonime
Fonti, licenze e autori delle immagini 113
File:Pixel aspect ratio pixelseitenverhaeltnis ntsc480p pal576p hdtv720p hdtv1080p uhdv4320p by hdtvtotal com.svg Fonte:
http://it.wikipedia.org/w/index.php?title=File:Pixel_aspect_ratio_pixelseitenverhaeltnis_ntsc480p_pal576p_hdtv720p_hdtv1080p_uhdv4320p_by_hdtvtotal_com.svg Licenza: Creative Commons
Attribution-Sharealike 2.5 Autori:: User:Andreas -horn- Hornig
File:Sky Box HD Pace.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:Sky_Box_HD_Pace.jpg Licenza: Public Domain Autori:: User:Andreas -horn- Hornig
Immagine:DVD logo.png Fonte: http://it.wikipedia.org/w/index.php?title=File:DVD_logo.png Licenza: sconosciuto Autori:: Hellis, Kanchelskis, Senpai
Immagine:DVD.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:DVD.jpg Licenza: sconosciuto Autori:: Archaeologo, Lucius
Immagine:DVD-RAM FUJIFILM Disc-removalble Without cartridge-locking-pin.jpg Fonte:
http://it.wikipedia.org/w/index.php?title=File:DVD-RAM_FUJIFILM_Disc-removalble_Without_cartridge-locking-pin.jpg Licenza: Public Domain Autori:: User:Iainf, User:Ocrho
Immagine:DVD-Regions_with_key.png Fonte: http://it.wikipedia.org/w/index.php?title=File:DVD-Regions_with_key.png Licenza: GNU Free Documentation License Autori:: Anstalt, David
Levy, Dryke, Frukt, Lockal, Monaneko, MrWeeble, Peter17, 5 Modifiche anonime
Licenza 115
Licenza
Creative Commons Attribution-Share Alike 3.0 Unported
http:/ / creativecommons. org/ licenses/ by-sa/ 3. 0/