LA QUALITA' DI IMMAGINE


La qualità indica il grado di somiglianza tra la visione umana di un soggetto e la sua trasposizione in immagine. Essa dipende dalle caratteristiche dei mezzi tecnici. Vi è sempre una differenza qualitativa tra ciò che è visto con gli occhi dal vivo e ciò che è registrato e poi visualizzato dai mezzi ottici. Normalmente la riproduzione "peggiora" la realtà: non vengono resi tutti i dettagli dell'originale, e i colori non sono identici. Ovviamente non si sta parlando di quelle alterazioni che sono ricercate dagli autori, come le distorsioni prospettiche o gli effetti in postproduzione, ma della distanza involontaria tra realtà e immagine della realtà.

I parametri qualitativi sono sostanzialmente due: la definizione e la fedeltà cromatica. Per comprenderli, però, è necessaria una breve digressione sui mezzi tecnici di ripresa e di riproduzione, le cui caratteristiche sono quelle che determinano la qualità d'immagine.


I MEZZI TECNICI

Il cammino tecnologico che ha portato a produrre immagini in movimento vicine il più possibile alla percezione dell'occhio umano è stato lungo e può essere suddiviso grosso modo in tre periodi:

a. il regno della pellicola (fine '800-anni '40)

b. gli anni del dualismo pellicola/video (anni'40-fine '900)

c. l'affermazione del video digitale (anni 2000)

Occorre conoscere, seppure a grandi linee, le potenzialità tecniche e quindi linguistiche di ogni periodo per poter correttamente valutare l'uso che ne fecero gli autori delle opere cinetelevisive.

Il regno della pellicola

La cattura di immagini in movimento è stata patrimonio, dalla fine dell'800 e per molti decenni, della sola pellicola e dei relativi mezzi di ripresa (cinepresa) e proiezione (proiettore). Nel sistema cinematografico la luce entra nell'obiettivo e impressiona un'emulsione sensibile depositata sulla pellicola. Questa viene poi sviluppata (cioè vengono fatte "emergere" a toni invertiti le immagini latenti producendo così il negativo) e quindi stampata (nel caso del cinema la si stampa su un'altra pellicola, il positivo).  Nonostante diversi limiti, soprattutto di sensibilità, in generale la qualità dell'immagine nel sistema cinematografico è sempre stata da subito eccellente e dunque i miglioramenti nel corso dei decenni sono stati relativi. La ricerca tecnologica si è concentrata soprattutto su formati, colore e suono. Per molto tempo il cinema non fu in grado di restituire i colori e i film, salvo esperimenti artigianali, erano tutti in bianco e nero. Ciò influì non poco sul linguaggio: guardando quei film si deve analizzare la resa figurativa con parametri che oggi sono caduti in disuso: per esempio l'abilità di scegliere i grigi adatti (cioé di intuire quale tipo di grigio sarebbe stato generato da un certo colore), o di assicurare un'adeguata gamma tonale (varietà di grigi intermedi). Dagli anni'20 fu introdotto il colore, con crescente ma graduale successo. Nei fatti comunque il cinema si convertì completamente al colore solo negli anni'60. 

Il dualismo video/pellicola

Dagli anni '40 si è andato diffondendo un sistema di ripresa e riproduzione alternativo a quello cinematografico, il sistema televisivo. I mezzi di ripresa sono le telecamere, quelli di riproduzione i monitor e i videoproiettori. L'immagine viene scomposta in una serie di punti, tradotti poi in segnali elettrici, eventualmente immagazzinati, e quindi "ricomposti" al momento della riproduzione. Il video è si è mostrato sin dagli esordi più duttile (non occorre sviluppare e stampare), ma è sempre stato, sino a poco tempo fa, molto inferiore sul piano della qualità dell'immagine. Ciò ha comportato serie conseguenze sul piano linguistico. Gli autori dei prodotti realizzati coi mezzi televisivi sapevano che le loro opere sarebbero state viste attraverso apparecchi di dimensioni ridotte, e per di più con una bassissima definizione e dunque autolimitavano le proprie potenzialità espressive. Le opere dovevano dunque privilegiare i piani ravvicinati e rinunciavano a operare su più piani di profondità,  e le composizioni erano semplici ed essenziali. In quelle condizioni, per esempio, non era possibile apprezzare la mimica facciale di un personaggio in PA. Anche quando si affermò il colore in tv, tra gli anni '60 e '70, questo non era per nulla fedele all'originale, con la tendenza di alcune tinte (il rosso e il blu saturi, ad esempio) a "fuoriuscire" dai contorni. Per molti decenni i due mondi, quello del cinema e quello della televisione, rimasero dunque separati da ogni punto di vista: la pellicola era riservata alle opere di qualità (film, serie tv e spot di grosso investimento) e il video si occupava di tutto il resto.

L'affermazione del video digitale

Dall'inizio degli anni 2000, grazie alla massiccia digitalizzazione, i due mondi vanno convergendo a scapito della pellicola. L'introduzione dell'HD per il pubblico di massa ha drasticamente migliorato la qualità delle opere televisive e la loro resa, anche se non le ha portate al livello qualitativo della pellicola. Solo l'adozione generalizzata del formato 4K senza compressione potrà permettere una qualità comparabile. Intanto però, già oggi, quasi tutti i cinematografi hanno adottato proiettori digitali (quindi senza pellicola) e la gran parte dei film è girata con telecamere ad altissima definizione, dando vita a quello che oggi si chiama digital cinema

Il sistema di ripresa e riproduzione video

Dato che il vincitore della gara tecnologica tra pellicola e video è quest'ultimo, vale la pena soffermarsi brevemente sui suoi meccanismi elementari di funzionamento tecnologico.

Mentre nei mezzi basati su pellicola l'immagine rimane integra, in quelli video è invece scomposta in tanti punti denominati pixel (picture element): un singolo frame di un video HD ne ha quasi due milioni, e di frame ne scorrono 25 al secondo. La scomposizione avviene sul sensore, un piccolo dispositivo collocato in fondo all'obiettivo sul lato camera, costituito da un alto numero di recettori fotosensibili, tra i quali è "distribuita" l'immagine. Sostanzialmente sono due le tecnologie di sensori oggi sul mercato: il CCD (Charge-Coupled Device), per la gran parte delle telecamere, e il CMOS (Complementary Metal-Oxide Semiconductor), usate nel digital cinema. Ogni piccolo elemento fotosensibile trasforma la luce in un segnale elettrico di intensità proporzionale a quella con cui è stato colpito. Quindi in uscita dal sensore si produce un enorme flusso di informazioni digitali riguardanti milioni e milioni di pixel. 

Ogni singolo elemento fotosensibile riesce a registrare solamente livelli di intensità di luce monocromatica. Per registrare il colore vi sono molte tecnologie che hanno tutte per fine la scomposizione della luce. Ogni colore infatti può essere riprodotto dalla mescolanza di tre componenti primari (rosso, verde, blu – RGB). Se si proiettano tre raggi di luce relativi a queste tinte  dosandoli in intensità si può ottenere il bianco, il nero (con l'assenza di intensità per ognuno dei tre colori) e qualsiasi colore. Questo metodo di sintetizzare i colori con la luce si chiama sintesi additiva. Nel sensore avviene il contrario: attraverso filtri ottici si scompone la luce nei suoi colori primari, relativamente ad ogni pixel. 

Questa mole di informazioni può essere immagazzinata (su supporti magnetici, su HD, ecc.), trasmessa (via etere, via cavo, via satellite...) o riprodotta su monitor (o su videoproiettori). I monitor sono costituiti da schermi su cui sono depositati tanti piccoli elementi (i corrispettivi dei fotorecettori del sensore) che sono in grado di riprodurre i pixel ricostruendo l'immagine. La loro forma (triadi di elementi RGB) è visibile se ci si avvicina fisicamente a quasiasi monitor. 


LA DEFINIZIONE

Ora ci si può addentrare nei due fattori che determinano la qualità d'immagine: la definizione e la fedeltà cromatica.

La definizione indica l'accuratezza con cui sono riprodotti quei dettagli che, a parità di condizioni, l'occhio umano riesce a distinguere. Una definizione superiore a quella di cui è capace l'occhio umano (l'acutezza visiva umana è pari a circa 600/700 dpi a 25 cm di distanza), infatti, è inutile dato che non verrebbe apprezzata. Si tenga presente inoltre che la definizione è sempre in relazione alla distanza di visione, come del resto accade anche all'occhio umano. La definizione d'immagine che è possibile con un certo mezzo di ripresa deve essere un parametro molto chiaro ad un autore di opere cinetelevisive, perché in qualche modo la scelta, spesso dovuta a ragioni di budget, segna un limite anche nelle modalità di espressione. Per esempio con una bassa definizione è difficile lavorare su: i piani di profondità (quelli più lontani rischiano di essere confusi e poco chiari), il fuoco selettivo (la profondità di campo aumenta con le basse definizioni), i toni di luminosità (alcune gradazioni si perdono e dunque è più facile che ne risultino immagini contrastate). Quando poi la definizione è seriamente compromessa, come nel caso di formati video amatoriali, non ci si può permettere di utilizzare distanze apparenti troppo spinte.

A volte la scelta di utilizzare definizioni più basse è deliberata e rientra in un preciso disegno narrativo. Vi sono film ad esempio in cui si vuol riprodurre appositamente la qualità di immagine dei vecchi video oppure delle pellicole a formato ridotto, per dare a intendere che si tratta di materiali ripresi tempo prima. Oppure si vuol impostare tutto il film fingendo che si tratti di girato amatoriale fortuitamente ritrovato. Altri film "sporcano" le riprese, abbassandone la definizione, semplicemente per comunicare un senso di estraneità o di alienazione. I tutti questi casi, sul piano realizzativo, si usa riprendere alla massima definizione per poi successivamente abbassarla.

La definizione è un termine un po' generico e soggettivo che dipende sostanzialmente da diverse variabili tecnologiche alcune comuni ed altre no ai due mondi della pellicola e del video.

- Parametri comuni: risoluzione, sensibilità e ottiche.

- Parametri riguardanti la pellicola: area del formato.

- Parametri riguardanti il video: la qualità dei sensori, la caratteristiche dei software

Risoluzione, sensibilità e ottiche

La risoluzione è l'indicazione numerica di quanto nitidamente una immagine o un dispositivo riescono a riprodurre con precisione i dettagli. Si parla di risoluzione sia per il sistema a pellicola che per quello video, sia per la stampa che per la fotografia. Nel mondo della pellicola la risoluzione si misura contando le linee parallele equidistanti che si riesce a distinguere ("risolvere") in una stessa unità di spazio. Nell'ambito della stampa la risoluzione si esprime mediante il numero di punti che il dispositivo è in grado di risolvere in un pollice (2,54 cm): dpi (dots per inch). In ambito video e fotografico si utilizza come unità minima non il dot, ma il pixel. La risoluzione di un'immagine digitale viene misurata semplicemente moltiplicando il numero di pixel della base per il numero di pixel della sua altezza. Il megapixel è un multiplo del pixel (mega=1 milione). La risoluzione è fonte però di innumerevoli equivoci: molte case produttrici di hardware infatti pubblicizzano il numero di pixel come la misura per eccellenza della definizione. In realtà risoluzione e definizione raramente coincidono.  Se per esempio l'ottica o il software di elaborazione di un dispositivo (smartphone o camera) sono di scarsa qualità, il sensore può anche promettere una risoluzione straordinaria, ma questa non avrà effetto sulla definizione. La risoluzione indica quanti sono i pixel in cui verrà frammentata l'immagine: teoricamente più sono e più vi è la possibilità di rendere i dettagli. Il problema è che se al sensore arriva già un'immagine poco dettagliata per responsabilità dell'ottica, oppure se in uscita dal sensore le informazioni relative ai pixel sono mal elaborate, i vantaggi teorici offerti dall'abbondanza di pixel  si perderanno. Del resto, un riproduttore (un monitor o un videoproiettore) con un'alta risoluzione non migliorerà la resa di opere girate a bassa risoluzione: nessun dispositivo può "inventarsi" dettagli che non sono stati originariamente registrati o che vengono perduti. Certo, con un processo di interpolazione, si può aumentare artificialmente la risoluzione, ma questa elaborazione non porta ad un miglioramento della qualità nativa dell'immagine, ma solo ad un aumento dei pixel. 

Per quanto riguarda la sensibilità, si tratta di un parametro tipico della pellicola, ma anche dei sensori. Essa sta ad indicare la capacità del supporto di registrare l'immagine in relazione a diverse intensità di luce. Se un sensore o una pellicola è molto sensibile, riusciranno a riprendere anche in scarse condizioni di luminosità. Nella gran parte delle telecamere sono presenti regolatori manuali che permettono all'utente di far "guadagnare", luminosità al sensore. Il prezzo che si paga nella gran parte dei casi, però, è un aumento del rumore di fondo, un disturbo che porta alla diminuzione della definizione di immagine. Nella gran parte dei casi è da evitare, ma a volte è un effetto ricercato, soprattutto nella pellicola dove la visibilità della "grana" può addolcire i contrasti o i contorni.

Per quanto riguarda le ottiche, la gran parte delle telecamere è equipaggiata di serie con obiettivi zoom non rimovibili; in quelle professionali e per il digital cinema, invece, l'obiettivo è intercambiabile. Questo assicura l'accesso all'offerta di obiettivi di alta qualità, ed anche l'adattamento di obiettivi di cineprese e fotocamere. Gli obiettivi infatti differiscono grandemente quanto a qualità, a seconda di quanto e come correggono le aberrazioni, assicurano la trasparenza, lasciano passare la luce. 

Area del formato

Come si è visto, la storia della pellicola è stata segnata dall'invenzione e dall'utilizzo di tutta una serie di formati, molti dei quali si distinguono per l'estensione dell'area del fotogramma. Si va dall'area del super8 (che era il formato per il cinema amatoriale) che era 5,36mmx4,01mm a quello 70mmx48,5mm dell'IMAX passando per il 21,95mmx18,6mm dell'Academy standard. La risoluzione di queste pellicole può essere la stessa, ma il fatto di contenere un maggior numero di informazioni per quadro dà la possibilità ai grandi formati di poter essere proiettati senza perdita di qualità su schermi di maggiori dimensioni. I formati minori possono essere "bombati" (cioè portati su pellicole di formato maggiore), ma se sono proiettati su ampie superfici perdono di definizione.

Qualità dei sensori e caratteristiche del software

Tutti i mezzi video oggi sono digitali, ne consegue che il software che gestisce questa marea di bit è un fattore estremamente critico che interviene ad ogni livello, dalla cattura dell'immagine in movimento alla sua trasformazione in segnale elettrico, dalla sua conservazione alla sua riproduzione, ecc. Inoltre, quasi tutte le immagini in movimento vengono compresse via software, e ciò comporta potenzialmente una perdita di qualità. La compressione infatti cerca di eliminare dati che non sono troppo essenziali all'immagine. Se ad esempio si riprende una parete tutta rossa, la compressione memorizza solo l'area dove i pixel hanno più o meno lo stesso valore ed evita di immagazzinare le informazioni relative ad ogni suo pixel. E' chiaro che questo lavoro può essere svolto in maniera efficiente o meno, può essere leggero  o drastico, e ciò incide evidentemente nella definizione.

La qualità dei sensori delle telecamere: essa dipende da una molteplicità di fattori tra i quali la dimensione e il numero di fotorecettori, ma anche dalla tecnologia con cui questi sono resi efficienti. 


LA FEDELTA' CROMATICA

Nel campo della pellicola la fedeltà cromatica è stata oggetto di una lunga ricerca che ha trovato il primo significativo successo con l'affermarsi del Technicolor. I colori di questo procedimento erano forse sin troppo brillanti, un effetto però consapevolmente cercato dagli autori che lo adottarono. I procedimenti concorrenti hanno via via migliorato i propri risultati, ma con colori che andavano incontro a rapido deperimento dopo soli pochi anni. Caratteristica di cui si deve tener conto volendo analizzare film dei decenni scorsi. 

Nel campo del video si è visto che ogni pixel deve contenere informazioni su ognuna delle tre componenti RGB. La percezione della qualità cromatica delle immagini video dipende da più elementi: dalla qualità del sensore e la tecnologia che ha adottato, dal software di gestione e compressione, dalla "profondità" con cui è registrato (cioé quanti bit di informazione vengono dedicati per memorizzarne le caratteristiche).

Con l'avvento del digitale però il lavoro sul colore va sempre più spostandosi dalla ripresa alla postproduzione. Contrariamente ai dettagli persi dalle basse risoluzioni che non possono essere recuperati, la fedeltà cromatica invece può esserlo. Una ripresa con una indebita dominante, può essere efficacemente corretta in una fase successiva. 


Download
La qualità d'immagine
versione stampabile, senza immagini
qualita.pdf
Documento Adobe Acrobat 82.5 KB
Download
Esercitazione su: Le proprietà del quadro
Da somministrare dopo aver terminato tutte le unità riguardanti le proprietà del quadro (Formato, Velocità, Combinazione, Qualità, Durata)
scheda_lavoro_proprieta_quadro.pdf
Documento Adobe Acrobat 52.8 KB