presentazione - uniroma1.itgiovanni.gigante/lavori/cap.1-2-3... · 2015-03-16 · presentazione a....

48
Presentazione A. Batori Lorem ipsum dolor sit amet, consectetur adipiscing elit. Nullam tellus mauris, feu- giat vel pretium vel, facilisis vitae nisi. Praesent vitae nulla diam. Morbi volut- pat adipiscing elit, in pharetra sapien pellentesque ut. Praesent at tristique elit. Morbi eget nisi a sapien placerat vul- putate ac in magna. Cras nec justo lacus, eget commodo nisl. Donec non libero orci, in scelerisque mi. Donec eget sem enim, ut malesuada ipsum. Suspendisse laoreet convallis mattis. Fusce hendrerit, nisl ac laoreet sollicitudin, metus nibh feugiat massa, in aliquet enim mauris et quam. Suspendisse potenti. Class aptent taciti sociosqu ad litora torquent per co- nubia nostra, per inceptos himenaeos. Donec nec ante lorem, et dapibus ne- que. Ut tempus magna nec libero vehi- cula tempus. Suspendisse potenti. Donec vel ullamcorper mi. Sed ac libero vel elit convallis dictum nec eget mi. Do- nec facilisis eros et lacus facilisis vel eui- smod urna accumsan. Nulla ultricies lec- tus id leo ultrices mattis. Mauris a convallis justo. Morbi eu ante augue, nec interdum nisl. Ut blandit imperdiet ante, vitae placerat orci dapibus non. In iacu- lis enim eu massa elementum euismod. Donec vehicula mi ac nunc porttitor ul- lamcorper. Mauris ornare accumsan mauris. Vivamus lobortis metus id elit vehicula dapibus. Praesent feugiat con- sequat tellus, id eleifend orci lacinia quis. Nulla nec suscipit velit. Cras ac congue justo. Curabitur eget ante erat. Vestibulum at lectus non felis consequat ultricies ac non enim. In tem- pus eros quis tellus porttitor sagittis. Cras fringilla tincidunt elit, pharetra or- nare lectus accumsan non. Cras in ultri- cies nisi. Duis at sapien tellus, quis dapi- bus massa. Maecenas in odio nunc. Proin ac ante sed neque ornare dignis- sim a sit amet purus. Praesent eu lectus enim. Mauris ultrices suscipit velit ut ru- trum. Nullam quis lacinia augue. Fusce elit sapien, hendrerit at laoreet eu, tinci- dunt et eros. Suspendisse id nisi erat, ali- quam aliquam ligula. Aliquam erat vo- lutpat. Donec vel euismod eros. Vestibulum nec dolor luctus tortor auc- tor pharetra id lobortis dolor. Class ap- tent taciti sociosqu ad litora torquent per conubia nostra, per inceptos hime- naeos. Sed rutrum porta dolor, portti- tor dictum eros venenatis a. Sed eget elit accumsan turpis bibendum sodales. Aenean nibh enim, convallis vel sodales non, viverra quis urna. Vivamus suscipit risus non purus imperdiet in sollicitudin lectus consectetur. Vivamus quis velit ut lacus sagittis malesuada. Phasellus vi- tae dolor ut mauris auctor facilisis at quis augue. Aliquam molestie tortor eu nibh pharetra consectetur. Proin sapien neque, semper vitae mollis id, elemen- tum id ante. Duis dolor augue, condi- mentum eu ultricies id, cursus eu eros. Quisque condimentum porttitor ligula sit amet aliquam. Ut ut risus orci, nec cursus lacus. Integer porta, augue eu ul- trices tincidunt, odio elit imperdiet nulla, ut aliquam justo metus id dui. Aliquam tincidunt magna nec eros tincidunt a da- pibus nisl cursus. Mauris eget mi vel quam auctor euismod. In nulla dui, facilisis non ullamcorper in, luctus quis leo. Fusce nec orci in diam porttitor blandit sit amet vel nibh. Ut li- gula mauris, rhoncus ac pretium at, di- gnissim a risus. Nulla libero justo, mollis non hendrerit vel, aliquet ac nulla. Ve- stibulum eu felis turpis. Maecenas ultri- cies odio et quam aliquam adipiscing. Aliquam congue lobortis libero ut ele- mentum. Cras massa felis, accumsan ut suscipit sit amet, faucibus hendrerit est. Maecenas a enim libero. Proin et dui tel- lus. Ut vel dui et lacus faucibus luctus. Proin enim odio, euismod quis sodales vitae, luctus non erat. Cum sociis nato- que penatibus et magnis dis parturient montes, nascetur ridiculus mus. Aenean ac nulla et eros molestie rutrum. Vesti- bulum hendrerit odio eu turpis imper- diet tristique. Etiam vel tempus lectus. Aliquam iaculis lacus vel metus suscipit non bibendum arcu pulvinar. 1

Upload: others

Post on 14-Jul-2020

3 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Presentazione - uniroma1.itgiovanni.gigante/Lavori/cap.1-2-3... · 2015-03-16 · Presentazione A. Batori Lorem ipsum dolor sit amet, consectetur adipiscing elit. Nullam tellus mauris,

PresentazioneA. Batori

Lorem ipsum dolor sit amet, consecteturadipiscing elit. Nullam tellus mauris, feu-giat vel pretium vel, facilisis vitae nisi.Praesent vitae nulla diam. Morbi volut-pat adipiscing elit, in pharetra sapienpellentesque ut. Praesent at tristiqueelit. Morbi eget nisi a sapien placerat vul-putate ac in magna. Cras nec justo lacus,eget commodo nisl. Donec non liberoorci, in scelerisque mi. Donec eget semenim, ut malesuada ipsum. Suspendisselaoreet convallis mattis. Fusce hendrerit,nisl ac laoreet sollicitudin, metus nibhfeugiat massa, in aliquet enim mauris etquam. Suspendisse potenti. Class aptenttaciti sociosqu ad litora torquent per co-nubia nostra, per inceptos himenaeos.Donec nec ante lorem, et dapibus ne-que. Ut tempus magna nec libero vehi-cula tempus. Suspendisse potenti.

Donec vel ullamcorper mi. Sed ac liberovel elit convallis dictum nec eget mi. Do-nec facilisis eros et lacus facilisis vel eui-smod urna accumsan. Nulla ultricies lec-tus id leo ultrices mattis. Mauris aconvallis justo. Morbi eu ante augue, necinterdum nisl. Ut blandit imperdiet ante,vitae placerat orci dapibus non. In iacu-lis enim eu massa elementum euismod.Donec vehicula mi ac nunc porttitor ul-lamcorper. Mauris ornare accumsanmauris. Vivamus lobortis metus id elitvehicula dapibus. Praesent feugiat con-sequat tellus, id eleifend orci lacinia quis.Nulla nec suscipit velit.

Cras ac congue justo. Curabitur eget

ante erat. Vestibulum at lectus non felisconsequat ultricies ac non enim. In tem-pus eros quis tellus porttitor sagittis.Cras fringilla tincidunt elit, pharetra or-nare lectus accumsan non. Cras in ultri-cies nisi. Duis at sapien tellus, quis dapi-bus massa. Maecenas in odio nunc.Proin ac ante sed neque ornare dignis-sim a sit amet purus. Praesent eu lectusenim. Mauris ultrices suscipit velit ut ru-trum. Nullam quis lacinia augue. Fusceelit sapien, hendrerit at laoreet eu, tinci-dunt et eros. Suspendisse id nisi erat, ali-quam aliquam ligula. Aliquam erat vo-lutpat. Donec vel euismod eros.Vestibulum nec dolor luctus tortor auc-tor pharetra id lobortis dolor. Class ap-tent taciti sociosqu ad litora torquentper conubia nostra, per inceptos hime-naeos. Sed rutrum porta dolor, portti-tor dictum eros venenatis a. Sed eget elitaccumsan turpis bibendum sodales.

Aenean nibh enim, convallis vel sodalesnon, viverra quis urna. Vivamus suscipitrisus non purus imperdiet in sollicitudinlectus consectetur. Vivamus quis velit utlacus sagittis malesuada. Phasellus vi-tae dolor ut mauris auctor facilisis atquis augue. Aliquam molestie tortor eunibh pharetra consectetur. Proin sapienneque, semper vitae mollis id, elemen-tum id ante. Duis dolor augue, condi-mentum eu ultricies id, cursus eu eros.Quisque condimentum porttitor ligulasit amet aliquam. Ut ut risus orci, neccursus lacus. Integer porta, augue eu ul-trices tincidunt, odio elit imperdiet nulla,

ut aliquam justo metus id dui. Aliquamtincidunt magna nec eros tincidunt a da-pibus nisl cursus. Mauris eget mi velquam auctor euismod.

In nulla dui, facilisis non ullamcorper in,luctus quis leo. Fusce nec orci in diamporttitor blandit sit amet vel nibh. Ut li-gula mauris, rhoncus ac pretium at, di-gnissim a risus. Nulla libero justo, mollisnon hendrerit vel, aliquet ac nulla. Ve-stibulum eu felis turpis. Maecenas ultri-cies odio et quam aliquam adipiscing.Aliquam congue lobortis libero ut ele-mentum. Cras massa felis, accumsan utsuscipit sit amet, faucibus hendrerit est.Maecenas a enim libero. Proin et dui tel-lus. Ut vel dui et lacus faucibus luctus.Proin enim odio, euismod quis sodalesvitae, luctus non erat. Cum sociis nato-que penatibus et magnis dis parturientmontes, nascetur ridiculus mus. Aeneanac nulla et eros molestie rutrum. Vesti-bulum hendrerit odio eu turpis imper-diet tristique. Etiam vel tempus lectus.Aliquam iaculis lacus vel metus suscipitnon bibendum arcu pulvinar.

1

Page 2: Presentazione - uniroma1.itgiovanni.gigante/Lavori/cap.1-2-3... · 2015-03-16 · Presentazione A. Batori Lorem ipsum dolor sit amet, consectetur adipiscing elit. Nullam tellus mauris,

Indice

Presentazione (A. Batori) Introduzione (D. Matè, M.C. Sclocchi) Gli inizi e l’evoluzione della fotografia (L. Scaramella)Il contesto storico e la storia dei generi fotografici (A. Manodori Sagredo)

SEzIoNE 1: TEorIA E STorIA DELLE TECNIChE

Introduzione

Capitolo 1 Teoria dell’immagine analogica1.1 Luce, fotometria e sensitometria (M. Missori)

1.1.a Natura e caratteristiche della luce1.1.b Cenni di interazione radiazione-materia1.1.c origine del colore dei materiali1.1.d Elementi di fotometria e sensitometria

1.2 La formazione dell’immagine in bianco e nero (G.E. Gigante, L. residori)1.2.a Processo ad annerimento diretto1.2.b Processo a sviluppo1.2.c Altri processi

1.3 La formazione dell’immagine a colori (G.E. Gigante, L. residori)1.3.a Il colore1.3.b Processi a colori

Capitolo 2 Teoria dell’immagine digitale2.1 Composizione dell’immagine digitale (E. Giuzio, M. Lauria, F. Liberati)

2.1.a Acquisizione digitale2.1.b Immagine digitale

2.2 Teoria della compressione dati (G.E. Gigante, L. Graniero, F. Liberati)2.2.a Nozioni basilari di teoria dell’informazione2.2.b Algoritmi di compressione

2.3 Teoria della compressione applicata all’immagine digitale (A. Giuliano, F. Inglima, F. Liberati)2.3.a Codifica delle immagini2.3.b Algoritmi di compressione sulle immagini

3

Page 3: Presentazione - uniroma1.itgiovanni.gigante/Lavori/cap.1-2-3... · 2015-03-16 · Presentazione A. Batori Lorem ipsum dolor sit amet, consectetur adipiscing elit. Nullam tellus mauris,

Indice

3.7.c Tipologie di scanner 3.7.d Fasi successive alla progettazione3.7.e Acquisizione digitale 3.7.f Controllo di qualità

SEzIoNE II STrUTTUrA E CoMPoSIzIoNE

Introduzione

Capitolo 4 Componenti della fotografia analogica

4.1 Struttura 4.1.a Positivi monocromi su carta (D. Matè, P. Manzone, B. Cattaneo, A. Novo)4.1.b Positivi a colori su carta (D. Matè, B. Cattaneo)4.1.c Positivi su metalli, vetro e materie plastiche (B. Cattaneo, D. Matè)4.1.d Negativi su carta, vetro e materie plastiche (B. Cattaneo, D. Matè)4.1.e Stampe digitali (B. Cattaneo, D. Matè)

4.2 Sostanze fotosensibili e componenti dello sviluppo (A. Corazza, M. Placido, L. residori) 4.2.a Sostanze fotosensibili, sviluppi e fissaggi: cenni e presupposti storici4.2.b Alogenuri d’argento4.2.c Composti e reazioni dello sviluppo

4.3 Supporti 4.3.a Carta (D. Matè, A. Novo, M.C. Sclocchi, A. Magistro)4.3.b Metalli, vetro e materie plastiche (D. Matè, A. Novo, M.C. Sclocchi) 4.3.c Altri supporti (A. Novo, M.C. Sclocchi, D. Matè)

4.4 Leganti 4.4.a Sistemi colloidali (L. residori) 4.4.b Collodio, albumina e gelatina (D. Matè, A. Corazza, M. Placido, L. residori, A. Novo) 4.4.c Altri leganti (D. Matè, M.C. Sclocchi, A. Novo)

Capitolo 5 Caratteristiche e componenti della fotografia digitale

5.1 Caratteristiche dell’immagine digitale (C. Bellucci, F. De Agostini, F. Liberati) 5.1.a Aspetti dell’immagine digitale5.1.b rappresentazione dell’informazione cromatica nell’immagine digitale

5.2 Formati per le immagini digitali (D. Corciulo, F. Liberati, F. Pizzi, F. rossini, M.T. Tanasi)

54 Capitolo 3 Storia delle tecniche e dei procedimenti

3.1 ripresa, sviluppo e stampa della fotografia 3.1.a I primi procedimenti fotografici (S. Turco, S. Valentini)3.1.b L’evoluzione di fine secolo (S. Turco, S. Valentini)3.1.c I processi ai sali ferrici (S. Turco, S. Valentini)3.1.d I processi al bicromato (S. Turco, S. Valentini)3.1.e Tecniche di stampa fotomeccaniche (S. Turco, S. Valentini)3.1.f Altri procedimenti ai sali metallici (D. Matè, A. Novo, A. Argiroffo)3.1.g Una tecnica particolare: l’orotone (D. Matè)3.1.h I supporti vari (D. Matè, A. Novo)3.1.i Lo sviluppo istantaneo (r. Bianchi, D. Matè) 3.1.l La microriproduzione (r. Petrosino)

3.2 ripresa, sviluppo e stampa della fotografia a colore (G. Biancofiore, P. Piccioni) 3.2.a Il colore e la sua percezione3.2.b Gli inizi della storia della fotografia a colori3.2.c Le lastre autochromes3.2.d Dal ’35 in poi: le pellicole3.2.e I processi istantanei3.2.f Il colore digitale

3.3 Impiego moderno delle tecniche storiche (A. Novo) 3.3.a Letteratura, associazioni, eventi e siti web3.3.b Le tecniche

3.4 Apparati di ripresa e di visione 3.4.a Le fotocamere dagli inizi ad oggi (A. Corrao, M.C. Sclocchi)3.4.b I visori nella storia (…)

3.5 La nascita del digitale (G.E. Gigante, F. Liberati) 3.5.a Sintesi della storia della fotografia digitale3.5.b Prospettiva della fotografia digitale

3.6 Tecnologie di acquisizione digitale (F. Birimbelli, V. Carnevale, F. Liberati) 3.6.a Tipologie di sensori digitali3.6.b Errori di acquisizione

3.7 Apparecchiature per l’acquisizione digitale (C. Primangeli, L. Primangeli) 3.7.a Aspetti preventivi alla digitalizzazione 3.7.b Linee guida e standard internazionali

Autori

Page 4: Presentazione - uniroma1.itgiovanni.gigante/Lavori/cap.1-2-3... · 2015-03-16 · Presentazione A. Batori Lorem ipsum dolor sit amet, consectetur adipiscing elit. Nullam tellus mauris,

Indice

7.2 La coloritura e il ritocco delle fotografie 7.2.a La coloritura dei dagherrotipi (M.G. Jacob, D. Matè)7.2.b Le diverse tecniche di coloritura (D. Matè, M.G. Jacob)7.2.c La coloritura per imbibizione (D. Matè)7.2.d La fotominiatura (D. Matè, E. Damiano)7.2.e Il ritocco (D. Matè)7.2.f Le materie coloranti e gli inchiostri (D. Matè, A. Novo)

7.3 I viraggi (D. Matè, A. Novo, M. Placido, L. residori) 7.3.a Il viraggio all’oro7.3.b Il viraggio al platino e palladio 7.3.c Il viraggio al solfuro7.3.d Il viraggio al selenio7.3.e Il viraggio ai ferrocianuri7.3.f I viraggi per mordenzatura7.3.g Altri viraggi

Capitolo 8 Confezionamento delle fotografie 8.1 Il mounting delle fotografie

8.1.a Le immagini uniche (A. Argiroffo, D. Matè, F. Vitale)8.1.b Le stampe su carta (D. Matè, A. Argiroffo)8.1.c Le diapositive su vetro e pellicola (G. Chiesa, D. Matè, A. Argiroffo)8.1.e Gli adesivi e le colle nel montaggio (B. Cattaneo, D. Matè, A. Novo)

8.2 Gli album fotografici 8.2.a Un “contenitore” di immagini (F. Delia)8.2.b L’evoluzione storica dell’album (G. Chiesa, P. Gosio) 8.2.c L’album nel Novecento e la rivoluzione digitale (G. Chiesa, P. Gosio)

76 5.2.a Principali formati 5.2.b Classe di formati rAW5.2.c Dimensione dei file grafici

5.3 Metadati (A. Di Iorio, A. Giovenco) 5.3.a Metadati tecnici5.3.b Standard di metadati tecnici per le immagini digitali5.3.c Esempio applicativo di metadati tecnici

5.4 Supporti digitali (F. Liberati, F. rafaelli, A. rosi) 5.4.a Nastri magnetici5.4.b Dischi magnetici 5.4.c Dischi ottici 5.4.d Memoria e stato solido 5.4.e Nuove tecnologie

Capitolo 6 riconoscimento delle tecniche fotografiche

6.1 Identificazione delle tecniche e dei componenti6.1.a Metodologie e strumenti per l’identificazione (S. Valentini)6.1.b Analisi del danno (D. Palazzi, D. Matè, B. Cattaneo) 6.1.c Indagini scientifiche (A. Corazza, M. Placido, L. residori)

6.2 Schede tecniche dei procedimenti6.2.a Immagini uniche (B. Cattaneo, D. Matè, M.C. Sclocchi, P. Piccioni)6.2.b Positivi argentici monocromi (S. Valentini)6.2.c Processi non argentici (S. Valentini)6.2.d Negativi argentici monocromi (B. Cattaneo, P. Piccioni)6.2.e Processi a colori (B. Cattaneo) 6.2.f Processi fotomeccanici (S. Valentini)

6.3 Sistemi e supporti per la stampa digitale (A. Corrao) 6.3.a Tecnologie per la stampa 6.3.b Supporti per la stampa “Fine Art”

Capitolo 7 Trattamenti di modifica delle fotografie

7.1 La finitura delle fotografie 7.1.a Gli interventi di finishing (D. Matè, B. Cattaneo)7.1.b Il procedimento di smaltatura delle stampe (A. Magistro)7.1.c L’applicazione delle vernici (B. Cattaneo, D. Matè, A. Novo)

Autori

Page 5: Presentazione - uniroma1.itgiovanni.gigante/Lavori/cap.1-2-3... · 2015-03-16 · Presentazione A. Batori Lorem ipsum dolor sit amet, consectetur adipiscing elit. Nullam tellus mauris,

IntroduzioneD. Matè, M.C. Sclocchi

Lorem ipsum dolor sit amet, consecteturadipiscing elit. Nullam tellus mauris, feu-giat vel pretium vel, facilisis vitae nisi.Praesent vitae nulla diam. Morbi volut-pat adipiscing elit, in pharetra sapienpellentesque ut. Praesent at tristiqueelit. Morbi eget nisi a sapien placerat vul-putate ac in magna. Cras nec justo lacus,eget commodo nisl. Donec non liberoorci, in scelerisque mi. Donec eget semenim, ut malesuada ipsum. Suspendisselaoreet convallis mattis. Fusce hendrerit,nisl ac laoreet sollicitudin, metus nibhfeugiat massa, in aliquet enim mauris etquam. Suspendisse potenti. Class aptenttaciti sociosqu ad litora torquent per co-nubia nostra, per inceptos himenaeos.Donec nec ante lorem, et dapibus ne-que. Ut tempus magna nec libero vehi-cula tempus. Suspendisse potenti.

Donec vel ullamcorper mi. Sed ac liberovel elit convallis dictum nec eget mi. Do-nec facilisis eros et lacus facilisis vel eui-smod urna accumsan. Nulla ultricies lec-tus id leo ultrices mattis. Mauris aconvallis justo. Morbi eu ante augue, necinterdum nisl. Ut blandit imperdiet ante,vitae placerat orci dapibus non. In iacu-lis enim eu massa elementum euismod.Donec vehicula mi ac nunc porttitor ul-lamcorper. Mauris ornare accumsanmauris. Vivamus lobortis metus id elitvehicula dapibus. Praesent feugiat con-sequat tellus, id eleifend orci lacinia quis.Nulla nec suscipit velit.

Cras ac congue justo. Curabitur eget

ante erat. Vestibulum at lectus non felisconsequat ultricies ac non enim. In tem-pus eros quis tellus porttitor sagittis.Cras fringilla tincidunt elit, pharetra or-nare lectus accumsan non. Cras in ultri-cies nisi. Duis at sapien tellus, quis dapi-bus massa. Maecenas in odio nunc.Proin ac ante sed neque ornare dignis-sim a sit amet purus. Praesent eu lectusenim. Mauris ultrices suscipit velit ut ru-trum. Nullam quis lacinia augue. Fusceelit sapien, hendrerit at laoreet eu, tinci-dunt et eros. Suspendisse id nisi erat, ali-quam aliquam ligula. Aliquam erat vo-lutpat. Donec vel euismod eros.Vestibulum nec dolor luctus tortor auc-tor pharetra id lobortis dolor. Class ap-tent taciti sociosqu ad litora torquentper conubia nostra, per inceptos hime-naeos. Sed rutrum porta dolor, portti-tor dictum eros venenatis a. Sed eget elitaccumsan turpis bibendum sodales.

Aenean nibh enim, convallis vel sodalesnon, viverra quis urna. Vivamus suscipitrisus non purus imperdiet in sollicitudinlectus consectetur. Vivamus quis velit utlacus sagittis malesuada. Phasellus vi-tae dolor ut mauris auctor facilisis atquis augue. Aliquam molestie tortor eunibh pharetra consectetur. Proin sapienneque, semper vitae mollis id, elemen-tum id ante. Duis dolor augue, condi-mentum eu ultricies id, cursus eu eros.Quisque condimentum porttitor ligulasit amet aliquam. Ut ut risus orci, neccursus lacus. Integer porta, augue eu ul-trices tincidunt, odio elit imperdiet nulla,

ut aliquam justo metus id dui. Aliquamtincidunt magna nec eros tincidunt a da-pibus nisl cursus. Mauris eget mi velquam auctor euismod.

In nulla dui, facilisis non ullamcorper in,luctus quis leo. Fusce nec orci in diamporttitor blandit sit amet vel nibh. Ut li-gula mauris, rhoncus ac pretium at, di-gnissim a risus. Nulla libero justo, mollisnon hendrerit vel, aliquet ac nulla. Ve-stibulum eu felis turpis. Maecenas ultri-cies odio et quam aliquam adipiscing.Aliquam congue lobortis libero ut ele-mentum. Cras massa felis, accumsan utsuscipit sit amet, faucibus hendrerit est.Maecenas a enim libero. Proin et dui tel-lus. Ut vel dui et lacus faucibus luctus.Proin enim odio, euismod quis sodalesvitae, luctus non erat. Cum sociis nato-que penatibus et magnis dis parturientmontes, nascetur ridiculus mus. Aeneanac nulla et eros molestie rutrum. Vesti-bulum hendrerit odio eu turpis imper-diet tristique. Etiam vel tempus lectus.Aliquam iaculis lacus vel metus suscipitnon bibendum arcu pulvinar.

Lorem ipsum dolor sit amet, consecteturadipiscing elit. Nullam tellus mauris, feu-giat vel pretium vel, facilisis vitae nisi.Praesent vitae nulla diam. Morbi volut-pat adipiscing elit, in pharetra sapienpellentesque ut. Praesent at tristiqueelit. Morbi eget nisi a sapien placerat vul-putate ac in magna. Cras nec justo lacus,eget commodo nisl. Donec non liberoorci, in scelerisque mi. Donec eget sem

98

Autori

Page 6: Presentazione - uniroma1.itgiovanni.gigante/Lavori/cap.1-2-3... · 2015-03-16 · Presentazione A. Batori Lorem ipsum dolor sit amet, consectetur adipiscing elit. Nullam tellus mauris,

Gli inizi e l’evoluzione della fotografiaL. Scaramella

Lorem ipsum dolor sit amet, consecteturadipiscing elit. Nullam tellus mauris, feu-giat vel pretium vel, facilisis vitae nisi.Praesent vitae nulla diam. Morbi volut-pat adipiscing elit, in pharetra sapienpellentesque ut. Praesent at tristiqueelit. Morbi eget nisi a sapien placerat vul-putate ac in magna. Cras nec justo lacus,eget commodo nisl. Donec non liberoorci, in scelerisque mi. Donec eget semenim, ut malesuada ipsum. Suspendisselaoreet convallis mattis. Fusce hendrerit,nisl ac laoreet sollicitudin, metus nibhfeugiat massa, in aliquet enim mauris etquam. Suspendisse potenti. Class aptenttaciti sociosqu ad litora torquent per co-nubia nostra, per inceptos himenaeos.Donec nec ante lorem, et dapibus ne-que. Ut tempus magna nec libero vehi-cula tempus. Suspendisse potenti.

Donec vel ullamcorper mi. Sed ac liberovel elit convallis dictum nec eget mi. Do-nec facilisis eros et lacus facilisis vel eui-smod urna accumsan. Nulla ultricies lec-tus id leo ultrices mattis. Mauris aconvallis justo. Morbi eu ante augue, necinterdum nisl. Ut blandit imperdiet ante,vitae placerat orci dapibus non. In iacu-lis enim eu massa elementum euismod.Donec vehicula mi ac nunc porttitor ul-lamcorper. Mauris ornare accumsanmauris. Vivamus lobortis metus id elitvehicula dapibus. Praesent feugiat con-sequat tellus, id eleifend orci lacinia quis.Nulla nec suscipit velit.

Cras ac congue justo. Curabitur eget

ante erat. Vestibulum at lectus non felisconsequat ultricies ac non enim. In tem-pus eros quis tellus porttitor sagittis.Cras fringilla tincidunt elit, pharetra or-nare lectus accumsan non. Cras in ultri-cies nisi. Duis at sapien tellus, quis dapi-bus massa. Maecenas in odio nunc.Proin ac ante sed neque ornare dignis-sim a sit amet purus. Praesent eu lectusenim. Mauris ultrices suscipit velit ut ru-trum. Nullam quis lacinia augue. Fusceelit sapien, hendrerit at laoreet eu, tinci-dunt et eros. Suspendisse id nisi erat, ali-quam aliquam ligula. Aliquam erat vo-lutpat. Donec vel euismod eros.Vestibulum nec dolor luctus tortor auc-tor pharetra id lobortis dolor. Class ap-tent taciti sociosqu ad litora torquentper conubia nostra, per inceptos hime-naeos. Sed rutrum porta dolor, portti-tor dictum eros venenatis a. Sed eget elitaccumsan turpis bibendum sodales.

Aenean nibh enim, convallis vel sodalesnon, viverra quis urna. Vivamus suscipitrisus non purus imperdiet in sollicitudinlectus consectetur. Vivamus quis velit utlacus sagittis malesuada. Phasellus vi-tae dolor ut mauris auctor facilisis atquis augue. Aliquam molestie tortor eunibh pharetra consectetur. Proin sapienneque, semper vitae mollis id, elemen-tum id ante. Duis dolor augue, condi-mentum eu ultricies id, cursus eu eros.Quisque condimentum porttitor ligulasit amet aliquam. Ut ut risus orci, neccursus lacus. Integer porta, augue eu ul-trices tincidunt, odio elit imperdiet nulla,

ut aliquam justo metus id dui. Aliquamtincidunt magna nec eros tincidunt a da-pibus nisl cursus. Mauris eget mi velquam auctor euismod.

In nulla dui, facilisis non ullamcorper in,luctus quis leo. Fusce nec orci in diamporttitor blandit sit amet vel nibh. Ut li-gula mauris, rhoncus ac pretium at, di-gnissim a risus. Nulla libero justo, mollisnon hendrerit vel, aliquet ac nulla. Ve-stibulum eu felis turpis. Maecenas ultri-cies odio et quam aliquam adipiscing.Aliquam congue lobortis libero ut ele-mentum. Cras massa felis, accumsan utsuscipit sit amet, faucibus hendrerit est.Maecenas a enim libero. Proin et dui tel-lus. Ut vel dui et lacus faucibus luctus.Proin enim odio, euismod quis sodalesvitae, luctus non erat. Cum sociis nato-que penatibus et magnis dis parturientmontes, nascetur ridiculus mus. Aeneanac nulla et eros molestie rutrum. Vesti-bulum hendrerit odio eu turpis imper-diet tristique. Etiam vel tempus lectus.Aliquam iaculis lacus vel metus suscipitnon bibendum arcu pulvinar.

Lorem ipsum dolor sit amet, consecteturadipiscing elit. Nullam tellus mauris, feu-giat vel pretium vel, facilisis vitae nisi.Praesent vitae nulla diam. Morbi volut-pat adipiscing elit, in pharetra sapienpellentesque ut. Praesent at tristiqueelit. Morbi eget nisi a sapien placerat vul-putate ac in magna. Cras nec justo lacus,eget commodo nisl. Donec non liberoorci, in scelerisque mi. Donec eget sem

1110 enim, ut malesuada ipsum. Suspendisselaoreet convallis mattis. Fusce hendrerit,nisl ac laoreet sollicitudin, metus nibhfeugiat massa, in aliquet enim mauris etquam. Suspendisse potenti. Class aptenttaciti sociosqu ad litora torquent per co-nubia nostra, per inceptos himenaeos.Donec nec ante lorem, et dapibus ne-que. Ut tempus magna nec libero vehi-cula tempus. Suspendisse potenti.

Donec vel ullamcorper mi. Sed ac liberovel elit convallis dictum nec eget mi. Do-nec facilisis eros et lacus facilisis vel eui-smod urna accumsan. Nulla ultricies lec-tus id leo ultrices mattis. Mauris aconvallis justo. Morbi eu ante augue, nec

interdum nisl. Ut blandit imperdiet ante,vitae placerat orci dapibus non. In iacu-lis enim eu massa elementum euismod.Donec vehicula mi ac nunc porttitor ul-lamcorper. Mauris ornare accumsanmauris. Vivamus lobortis metus id elitvehicula dapibus. Praesent feugiat con-sequat tellus, id eleifend orci lacinia quis.Nulla nec suscipit velit.

Cras ac congue justo. Curabitur egetante erat. Vestibulum at lectus non felisconsequat ultricies ac non enim. In tem-pus eros quis tellus porttitor sagittis.Cras fringilla tincidunt elit, pharetra or-nare lectus accumsan non. Cras in ultri-cies nisi. Duis at sapien tellus, quis dapi-

bus massa. Maecenas in odio nunc.Proin ac ante sed neque ornare dignis-sim a sit amet purus. Praesent eu lectusenim. Mauris ultrices suscipit velit ut ru-trum. Nullam quis lacinia augue. Fusceelit sapien, hendrerit at laoreet eu, tinci-dunt et eros. Suspendisse id nisi erat, ali-quam aliquam ligula. Aliquam erat vo-lutpat. Donec vel euismod eros.Vestibulum nec dolor luctus tortor auc-tor pharetra id lobortis dolor. Class ap-tent taciti sociosqu ad litora torquentper conubia nostra, per inceptos hime-naeos. Sed rutta dolor, .

Autori

Page 7: Presentazione - uniroma1.itgiovanni.gigante/Lavori/cap.1-2-3... · 2015-03-16 · Presentazione A. Batori Lorem ipsum dolor sit amet, consectetur adipiscing elit. Nullam tellus mauris,

Il contesto storico e la storia dei generi fotograficiA. Manodori Sagredo

Lorem ipsum dolor sit amet, consecteturadipiscing elit. Nullam tellus mauris, feu-giat vel pretium vel, facilisis vitae nisi.Praesent vitae nulla diam. Morbi volut-pat adipiscing elit, in pharetra sapienpellentesque ut. Praesent at tristiqueelit. Morbi eget nisi a sapien placerat vul-putate ac in magna. Cras nec justo lacus,eget commodo nisl. Donec non liberoorci, in scelerisque mi. Donec eget semenim, ut malesuada ipsum. Suspendisselaoreet convallis mattis. Fusce hendrerit,nisl ac laoreet sollicitudin, metus nibhfeugiat massa, in aliquet enim mauris etquam. Suspendisse potenti. Class aptenttaciti sociosqu ad litora torquent per co-nubia nostra, per inceptos himenaeos.Donec nec ante lorem, et dapibus ne-que. Ut tempus magna nec libero vehi-cula tempus. Suspendisse potenti.

Donec vel ullamcorper mi. Sed ac liberovel elit convallis dictum nec eget mi. Do-nec facilisis eros et lacus facilisis vel eui-smod urna accumsan. Nulla ultricies lec-tus id leo ultrices mattis. Mauris aconvallis justo. Morbi eu ante augue, necinterdum nisl. Ut blandit imperdiet ante,vitae placerat orci dapibus non. In iacu-lis enim eu massa elementum euismod.Donec vehicula mi ac nunc porttitor ul-lamcorper. Mauris ornare accumsanmauris. Vivamus lobortis metus id elitvehicula dapibus. Praesent feugiat con-sequat tellus, id eleifend orci lacinia quis.Nulla nec suscipit velit.

Cras ac congue justo. Curabitur eget

ante erat. Vestibulum at lectus non felisconsequat ultricies ac non enim. In tem-pus eros quis tellus porttitor sagittis.Cras fringilla tincidunt elit, pharetra or-nare lectus accumsan non. Cras in ultri-cies nisi. Duis at sapien tellus, quis dapi-bus massa. Maecenas in odio nunc.Proin ac ante sed neque ornare dignis-sim a sit amet purus. Praesent eu lectusenim. Mauris ultrices suscipit velit ut ru-trum. Nullam quis lacinia augue. Fusceelit sapien, hendrerit at laoreet eu, tinci-dunt et eros. Suspendisse id nisi erat, ali-quam aliquam ligula. Aliquam erat vo-lutpat. Donec vel euismod eros.Vestibulum nec dolor luctus tortor auc-tor pharetra id lobortis dolor. Class ap-tent taciti sociosqu ad litora torquentper conubia nostra, per inceptos hime-naeos. Sed rutrum porta dolor, portti-tor dictum eros venenatis a. Sed eget elitaccumsan turpis bibendum sodales.

Aenean nibh enim, convallis vel sodalesnon, viverra quis urna. Vivamus suscipitrisus non purus imperdiet in sollicitudinlectus consectetur. Vivamus quis velit utlacus sagittis malesuada. Phasellus vi-tae dolor ut mauris auctor facilisis atquis augue. Aliquam molestie tortor eunibh pharetra consectetur. Proin sapienneque, semper vitae mollis id, elemen-tum id ante. Duis dolor augue, condi-mentum eu ultricies id, cursus eu eros.Quisque condimentum porttitor ligulasit amet aliquam. Ut ut risus orci, neccursus lacus. Integer porta, augue eu ul-trices tincidunt, odio elit imperdiet nulla,

ut aliquam justo metus id dui. Aliquamtincidunt magna nec eros tincidunt a da-pibus nisl cursus. Mauris eget mi velquam auctor euismod.

In nulla dui, facilisis non ullamcorper in,luctus quis leo. Fusce nec orci in diamporttitor blandit sit amet vel nibh. Ut li-gula mauris, rhoncus ac pretium at, di-gnissim a risus. Nulla libero justo, mollisnon hendrerit vel, aliquet ac nulla. Ve-stibulum eu felis turpis. Maecenas ultri-cies odio et quam aliquam adipiscing.Aliquam congue lobortis libero ut ele-mentum. Cras massa felis, accumsan utsuscipit sit amet, faucibus hendrerit est.Maecenas a enim libero. Proin et dui tel-lus. Ut vel dui et lacus faucibus luctus.Proin enim odio, euismod quis sodalesvitae, luctus non erat. Cum sociis nato-que penatibus et magnis dis parturientmontes, nascetur ridiculus mus. Aeneanac nulla et eros molestie rutrum. Vesti-bulum hendrerit odio eu turpis imper-diet tristique. Etiam vel tempus lectus.Aliquam iaculis lacus vel metus suscipitnon bibendum arcu pulvinar.

1312 enim, ut malesuada ipsum. Suspendisselaoreet convallis mattis. Fusce hendrerit,nisl ac laoreet sollicitudin, metus nibhfeugiat massa, in aliquet enim mauris etquam. Suspendisse potenti. Class aptenttaciti sociosqu ad litora torquent per co-nubia nostra, per inceptos himenaeos.Donec nec ante lorem, et dapibus ne-que. Ut tempus magna nec libero vehi-cula tempus. Suspendisse potenti.

Donec vel ullamcorper mi. Sed ac liberovel elit convallis dictum nec eget mi. Do-nec facilisis eros et lacus facilisis vel eui-smod urna accumsan. Nulla ultricies lec-tus id leo ultrices mattis. Mauris aconvallis justo. Morbi eu ante augue, necinterdum nisl. Ut blandit imperdiet ante,vitae placerat orci dapibus non. In iacu-lis enim eu massa elementum euismod.Donec vehicula mi ac nunc porttitor ul-lamcorper. Mauris ornare accumsanmauris. Vivamus lobortis metus id elitvehicula dapibus. Praesent feugiat con-sequat tellus, id eleifend orci lacinia quis.Nulla nec suscipit velit.

Cras ac congue justo. Curabitur egetante erat. Vestibulum at lectus non felisconsequat ultricies ac non enim. In tem-pus eros quis tellus porttitor sagittis.Cras fringilla tincidunt elit, pharetra or-nare lectus accumsan non. Cras in ultri-cies nisi. Duis at sapien tellus, quis dapi-bus massa. Maecenas in odio nunc.Proin ac ante sed neque ornare dignis-sim a sit amet purus. Praesent eu lectusenim. Mauris ultrices suscipit velit ut ru-

trum. Nullam quis lacinia augue. Fusceelit sapien, hendrerit at laoreet eu, tinci-dunt et eros. Suspendisse id nisi erat, ali-quam aliquam ligula. Aliquam erat vo-lutpat. Donec vel euismod eros.Vestibulum nec dolor luctus tortor auc-tor pharetra id lobortis dolor. Class ap-tent taciti sociosqu ad litora torquentper conubia nostra, per inceptos hime-naeos. Sed rutrum porta dolor, portti-tor dictum eros venenatis a. Sed eget elitacLorem ipsum dolor sit amet, consec-tetur adipiscing elit. Nullam tellus mau-ris, feugiat vel pretium vel, facilisis vitaenisi. Praesent vitae nulla diam. Morbi vo-lutpat adipiscing elit, in pharetra sapienpellentesque ut. Praesent at tristiqueelit. Morbi eget nisi a sapien placerat vul-putate ac in magna. Cras nec justo lacus,eget commodo nisl. Donec non liberoorci, in scelerisque mi. Donec eget semenim, ut malesuada ipsum. Suspendisselaoreet convallis mattis. Fusce hendrerit,nisl ac laoreet sollicitudin, metus nibhfeugiat massa, in aliquet enim mauris etquam. Suspendisse potenti. Class aptenttaciti sociosqu ad litora torquent per co-nubia nostra, per inceptos himenaeos.Donec nec ante lorem, et dapibus ne-que. Ut tempus magna nec libero vehi-cula tempus. Suspendisse potenti.

Donec vel ullamcorper mi. Sed ac liberovel elit convallis dictum nec eget mi. Do-nec facilisis eros et lacus facilisis vel eui-smod urna accumsan. Nulla ultricies lec-tus id leo ultrices mattis. Mauris aconvallis justo. Morbi eu ante augue, nec

interdum nisl. Ut blandit imperdiet ante,vitae placerat orci dapibus non. In iacu-lis enim eu massa elementum euismod.Donec vehicula mi ac nunc porttitor ul-lamcorper. Mauris ornare accumsanmauris. Vivamus lobortis metus id elitvehicula dapibus. Praesent feugiat con-sequat tellus, id eleifend orci lacinia quis.Nulla nec suscipit velit.

Cras ac congue justo. Curabitur egetante erat. Vestibulum at lectus non felisconsequat ultricies ac non enim. In tem-pus eros quis tellus porttitor sagittis.Cras fringilla tincidunt elit, pharetra or-nare lectus accumsan non. Cras in ultri-cies nisi. Duis at sapien tellus, quis dapi-bus massa. Maecenas in odio nunc.Proin ac ante sed neque ornare dignis-sim a sit amet purus. Praesent eu lectusenim. Mauris ultrices suscipit velit ut ru-trum. Nullam quis lacinia augue. Fusceelit sapien, hendrerit at laoreet eu, tinci-dunt et eros. Suspendisse id nisi erat, ali-quam aliquam ligula. Aliquam erat vo-lutpat. Donec vel euismod eros.Vestibulum nec dolor luctus tortor auc-tor pharetra id lobortis dolor. Class ap-tent taciti sociosqu ad litora torquentper conubia nostra, per inceptos hime-naeos. Sed rutrum porta dolor, portti-tor dictum eros venenatis a. Sed eget elitac

Autori

Page 8: Presentazione - uniroma1.itgiovanni.gigante/Lavori/cap.1-2-3... · 2015-03-16 · Presentazione A. Batori Lorem ipsum dolor sit amet, consectetur adipiscing elit. Nullam tellus mauris,

Sezione 1

Teoria e storia delle tecniche

Page 9: Presentazione - uniroma1.itgiovanni.gigante/Lavori/cap.1-2-3... · 2015-03-16 · Presentazione A. Batori Lorem ipsum dolor sit amet, consectetur adipiscing elit. Nullam tellus mauris,

1.1 Luce, fotometria e sensometriaM. Missori

Si intende qui fornire conoscenze di basesul fenomeno fisico chiamato luce, qua-le elemento fondamentale del procedi-mento fotografico. In particolare, sarà af-frontato il tema della generazione dellaluce, della sua interazione con i materia-li, della sensazione fisiologica connessacon la presenza di luce chiamata colore,della misura dell’intensità della luce edell’effetto che ha sui materiali fotografici.

La natura della luce è studiata da quel-la parte della fisica detta elettromagne-tismo e, in particolare, nell’ottica. In que-sto paragrafo, allo scopo di meglio intro-durre il lettore all’argomento, si rico-struirà brevemente il cammino storicoverso la comprensione dei fenomeni lu-minosi fino al modello oggi accettato. Cisoffermeremo su quelle tappe che hannorivelato aspetti dei fenomeni luminosiche poi si sono rivelati corretti e che sonooggi utilizzati per descrivere le proprietàdella luce.

1.1.a Natura e caratteristiche della luce

Innanzi tutto si definisce la luce comeuna forma di energia raggiante, che nonviene, cioè, accumulata indefinitamentedal corpo che l’ha generata, ma che vie-ne continuamente irradiata nello spaziocircostante. Come sarà spiegato in se-guito, la luce si propaga nello spazio cir-costante per mezzo di onde elettroma-gnetiche. Come ogni onda elettroma-gnetica, la luce è la testimonianza diprocessi di trasformazione della materia

nei quali è liberata energia.Chiarire la natura della luce ha impe-

gnato le migliori menti per molti secoli sindalla Grecia classica [Weiss, 2005]. Per laScuola pitagorica (V secolo a.C.) la luceera un fluido che veniva emesso dagli oc-chi e vi ritornava con l’immagine degli og-getti circostanti. Per Democrito (V – IV se-colo a.C.) e gli atomisti successivi, inve-ce, gli oggetti emettevano senza inter-ruzione delle immagini materiali, tantosottili però da non svuotare i corpi che leproducevano. La prima tesi fu sostenutaanche da Platone (V-IV secolo a.C.) e poida Euclide (IV secolo a.C.), che sarà anchel’iniziatore dell’ottica geometrica. Dopoil contributo greco il testimone passò almondo islamico. I progressi più signifi-cativi furono dovuti a Alhazen (circa 1000d.C.) che intuì la separazione fra l’agen-te fisico che produce la visione e la suapercezione per mezzo dell’occhio. Inoltresi interessò di ottica geometrica, delle len-ti, degli specchi e delle loro aberrazioni.Le sue idee furono riprese durante il me-dioevo europeo dal polacco Witelo. Nel-la sua opera Perspectiva, edita a Padovanel 1572, egli introdusse, tra l’altro, l’ipo-tesi che la luce sia costituita da minuscoleparticelle molto veloci. Fra medioevo e ri-nascimento si approfondirono soprat-tutto gli aspetti pratici dell’ottica, comela produzione di lenti per occhiali. Leo-nardo da Vinci osservò l’analogia fra l’oc-chio e la camera oscura (che rappresen-ta l’antesignano della fotocamera mo-derna) mentre Francesco Maurolico (1554)investigò la funzione del cristallino. Nel

1604 Johannes Kepler (detto Keplero)propose la teoria secondo cui i raggi diluce vengono emessi in numero infinitoe in tutte le direzioni da ogni punto deglioggetti.

All’inizio del ‘600 la disputa sulla veri-dicità delle immagini osservate con ilcannocchiale, che era stato appena uti-lizzato come strumento scientifico daparte di Galilei, aveva finito per porre alcentro dell’attenzione 3 ordini di proble-mi oramai riconosciuti distinti: la naturadella luce, il meccanismo della visione ele problematiche dell’ottica geometrica.Con l’avvento del metodo sperimentaleanche le teorie della luce cominciarono abasarsi sull’osservazione oggettiva dei fe-nomeni e sulla loro spiegazione me-diante modelli matematici [Frova, 1984].

Il fisico olandese Christiaan huygens(1629-1695) sostenne che le onde si pro-pagavano in un mezzo sottilissimo det-to etere. Tale considerazione era sortadall’osservazione che le onde luminose sipropagano anche nel vuoto, come nellospazio interplanetario, a differenza delsuono, sebbene la propagazione di que-st’ultimo avvenga sempre tramite onde.Con huygens il fenomeno luminoso vie-ne così associato ai fenomeni delle onde,intuizione che si rivelerà esatta. Le ondesono perturbazioni fisiche che, prodottein un punto dello spazio, si propagano eproducono un effetto in un altro punto.Un esempio facilmente intuibile di ondesono, quelle prodotte dalla caduta di unoggetto sulla superficie dell’acqua. IsaacNewton (1642-1727), considerando che le

17

Teoria dell’immagine analogica11.1 Luce, fotometria e sensitometria

1.1.a Natura e caratteristiche della luce1.1.b Cenni di interazione radiazione-materia1.1.c origine del colore dei materiali1.1.d Elementi di fotometria e sensitometria

1.2 La formazione dell’immagine in bianco e nero 1.2.a Processo ad annerimento diretto1.2.b Processo a sviluppo1.2.c Altri processi

1.3 La formazione dell’immagine a colori 1.3.a Il colore1.3.b Processi a colori

Page 10: Presentazione - uniroma1.itgiovanni.gigante/Lavori/cap.1-2-3... · 2015-03-16 · Presentazione A. Batori Lorem ipsum dolor sit amet, consectetur adipiscing elit. Nullam tellus mauris,

fotoni, una sorta di quasi corpuscoli chetrasportano una ben definita quantità dienergia, secondo la formula §1.

riassumendo, il fotone è la più picco-la quantità di qualunque tipo di radia-zione elettromagnetica, come un atomoè la più piccola quantità di materia [Fro-va, 1984]. Può essere descritto come ungrumo di energia che si muove semprealla velocità della luce pari a 299.792km/s. Questi corpuscoli possiedono unadoppia natura, corpuscolare e ondula-toria: i due vecchi modelli dei tempi dihuygens e Newton appaiono entrambiconfermati. Se consideriamo il fotonecome un’onda, allora questa può esserecaratterizzata dai seguenti parametri[AA.VV., 1985].

Lunghezza d'onda (simbolo λ). Si misura inmetri, oppure nei suoi multipli e sotto-multipli. La lunghezza dell'onda è la mi-sura della distanza fra 2 punti in fase del-l’onda stessa (ad esempio cresta-crestaoppure minimo-minimo e cosi via). Nellaterminologia tecnica e scientifica ven-gono usate le seguenti abbreviazioni ri-portate nella tabella 1.

Esiste, infine, un’unità di misura parti-colare per le lunghezze, indicato dal sim-bolo Å, che corrisponde a 0,0000000001m = 10–10 m.

Frequenza (f). Si misura in hertz (simbolohz), ma sono molto comuni i suoi multi-pli khz, Mhz, Ghz, ecc. La frequenzarappresenta il numero di oscillazioni checompie l’onda in un secondo. Ampiezza d’onda. L'ampiezza dell'onda

corrisponde alla massima intensità delcampo elettromagnetico raggiunta du-rante le oscillazioni (si misura nelle uni-tà del campo elettrico o magnetico) (Fig.1). Nella pratica si definisce, inoltre,l’intensità I dell’onda (proporzionale al va-lore medio del quadrato del campo elet-trico) che si misura in watt (simbolo W).Ad esempio l’intensità complessiva ditutto lo spettro solare a livello del mareè di circa 1 kW per m2.

La relazione matematica fondamentaledelle onde in generale e, quindi, anche diquelle elettromagnetiche è:

λ × f = v §2ovvero lunghezza d’onda (λ) per la fre-quenza (f) è pari alla velocità di propa-gazione (v), che nel caso elettromagne-tico è pari a circa 300.000 km/s (velocitàdella luce). Nota la lunghezza d’onda èpossibile ricavare la frequenza e vice-versa.Spettro elettromagnetico. Tramite i valori

1.1 Luce, fotometria e sensometria

(*) Nel caso delle lunghezze,unmicrometro è anche detto micron.

Figura 1 Andamentodell’ampiezza A di un’onda in funzionedello spazio. èrappresentata in trediverse posizioni lalunghezza d’onda λ.

1918 onde hanno la proprietà di aggirare gliostacoli, cosa che non sembrava veraper la luce, concluse che quest’ultimadoveva essere costituita da minute par-ticelle emesse dalla sorgente ad altissimavelocità. Queste particelle facevano ap-parire illuminati gli oggetti dai quali ve-nivano riflesse. Newton scoprì speri-mentalmente che la luce bianca è in realtàuna miscela di diversi colori (componen-ti cromatiche), i cui raggi vengono deviatiin maniera differente dai materiali tra-sparenti, spiegando anche il fenomenodell’arcobaleno: ad un estremo appareuna colorazione rossa (onde più lunghe),in successione gli altri colori fino ad arri-vare all'estremo opposto in cui è eviden-te una colorazione violetta (onde più cor-te). La distribuzione delle intensità lumi-nose delle diverse componenti cromatichein funzione della lunghezza d’onda è det-ta spettro della sorgente luminosa.

Con il modello di Newton l’ipotesi del-l’esistenza dell’etere per spiegare la pro-pagazione delle onde luminose nel vuo-to non era più necessaria. Tuttavia lateoria ondulatoria spiegava bene la mag-gior parte dei fenomeni ottici mentrequella corpuscolare sembrava necessariaper il fenomeno della formazione delleombre nette. Lo stesso Newton, per ri-solvere questo apparente paradosso,propose che la luce poteva avere unaspecie di doppia natura, per cui in talunifenomeni essa manifesta le sue proprie-tà ondulatorie e in altri quelle corpusco-lari, geniale intuizione che si riveleràesatta due secoli dopo grazie al contri-

buto di Albert Einstein [Segre, 1996].All’inizio del XIX secolo alcuni esperi-

menti fondamentali stabilirono in mododecisivo la supremazia della teoria on-dulatoria su quella corpuscolare. Grazieal lavoro di Thomas Young (data peromogeneità) e di Augustin Fresnel (dataper omogeneità) si dimostrò che la lucepoteva dar luogo a interferenze, ossia,sommando luce a luce, si poteva ottenereoscurità. Questo fatto è facilmente spie-gabile con la teoria ondulatoria, poichédue onde di fase opposta e della stessaampiezza possono annullarsi, mentrequesto è inspiegabile con la teoria cor-puscolare. Gli esperimenti di Young e latrattazione matematica di Fresnel sem-brarono stabilire in modo chiaro e defi-nitivo il carattere ondulatorio della luce.

Le equazioni di Maxwell (1864) reseroconto di tutti i fenomeni luminosi alloranoti riducendoli a onde elettromagneti-che. Maxwell arrivò a calcolare la veloci-tà con cui le onde elettromagnetiche sipropagano dalla sorgente che le ha ge-nerate. Tale velocità coincideva speri-mentalmente con quella della luce, aquel tempo già misurata con difficili maabbastanza precisi esperimenti.

Se per la comprensione della naturadella luce grandi passi erano stati com-piuti, un aspetto che rimaneva da com-prendere era l’interazione fra la luce e lamateria. Non si capiva ancora il mecca-nismo con il quale la luce poteva essereemessa dai corpi luminosi oppure as-sorbita da quelli opachi oppure trasmessada quelli trasparenti.

Sul finire dell’800 i progressi tecnologiciconsentirono di fare esperimenti di inte-razione fra la luce e i corpi materiali chenon riuscirono ad essere spiegati me-diante la teoria ondulatoria e la lorospiegazione aprì la strada alla concezio-ne moderna della radiazione e della luce:questi esperimenti sono la misura del-l’emissione termica e dell’effetto fotoe-lettrico. L’emissione termica riveste par-ticolare importanza sia perché moltesorgenti luminose sono di origine termi-ca sia per il concetto di temperatura di co-lore, come sarà visto in dettaglio nel se-guito. Ad ogni modo, si può anticipare chel’intensità e la distribuzione spettraledella radiazione emessa da un corpo ri-scaldato dipendono fortemente dallasua temperatura.

Nel 1900, per spiegare lo spettro dellaluce emessa da un corpo ad alta tempe-ratura, il fisico tedesco Max Planck (1858-1947), fu costretto ad introdurre l’ipotesiche gli atomi assorbissero (o emettesse-ro) energia luminosa in quantità discre-ta, ovvero in maniera non continua, se-condo la formula:

E = n × h × f §1che a parole significa che l’energia tra-sportata dalla luce (E) è uguale a n (doven è un numero intero) per la cosiddetta co-stante di Planck (h) per, infine, la frequen-za dell’onda luminosa (f) [Segre, 1996].

Nel 1905 Albert Einstein (1879-1955) ge-neralizzò ed estese la teoria di Planckspiegando l’effetto fotoelettrico ed arrivòalla conclusione che la luce è composta diquanti di energia, detti successivamente

Teoria dell’immagine analogica

NUMEroIN ForMA DECIMALE

NUMERO IN FORMADI POTENZE DI 10 SIMBoLo TECNICo

1000000000 109 G

1000000 106 M

1000 103 k

0.001 10-3 m

0.000001 10-6 m (*)

0.000000001 10-9 n

Tabella 1 Abbreviazioni riportate nella terminologia tecnica e scientifica

A

O

λ

λ

λ

Amax

XO

λ

λ

Amax

X

Page 11: Presentazione - uniroma1.itgiovanni.gigante/Lavori/cap.1-2-3... · 2015-03-16 · Presentazione A. Batori Lorem ipsum dolor sit amet, consectetur adipiscing elit. Nullam tellus mauris,

nisce l’intensità e la lunghezza d’onda del-la radiazione emessa in funzione dellatemperatura da un corpo riscaldato è det-ta legge di Plank (1900). Una lampada adincandescenza oppure lo stesso sole ap-partengono a tale categoria e ben ap-prossimano la legge di Plank.

Dalla radiazione di corpo nero nasce ilconcetto di temperatura di colore:

tEMPErAturA Di CoLorE =

la temperatura di un corpo nero che emette

radiazione di cromaticità più vicina a quella

della radiazione luminosa considerata.

La temperatura di colore della sor-gente definisce quindi il colore della luceemessa. Viene espressa in gradi Kelvin (K)(K = °C + 273,15)

Più alto è il suo valore, più dominantisaranno le radiazioni viola e blu dellospettro e la luce risultante sarà più bian-ca e fredda (Tabella 2).

Per ottenere una fedele riproduzione deicolori in una fotografia è perciò neces-sario utilizzare una pellicola ottimizzataper la sorgente di luce, quest’ultima de-finita per la sua temperatura di colore. Lepellicole a colori che vengono utilizzateper uso generico sono tarate per fornirela corretta riproduzione cromatica persorgenti luminose con temperatura di co-lore di 5500 K, che corrispondono allacondizioni di illuminazione all’aperto inuna giornata media. Se si utilizza questotipo di pellicola con delle lampade ad in-candescenza da appartamento di otter-

rà una dominante rossa. Nella fotografiadigitale questo problema viene risoltocon la cosiddetta taratura del bianco,con la quale si bilancia per mezzo delsoftware la risposta cromatica dell’ele-mento sensibile (CCD).Si accenna infine alla lampada di Wood[Weiss, 2005]. Essa fu sviluppata dal fisi-co americano robert Williams Wood (1868-1955) come sorgente di luce per comuni-cazioni durante la prima guerra mondia-le. Il filtro di vetro speciale, detto filtro diWood, assorbe le componenti visibili del-la luce e lascia passare le radiazioni invisi-bili UV comprese fra 320 e 400 nm circa

con un massimo di trasmissione a 365nm. Il filtro di Wood è un vetro al bario, so-dio e silicato ed incorpora inoltre il 9% di os-sido di nichel. Il suo aspetto visibile è vio-letto scuro. Esso è utilizzato nelle tecnichefotografiche dell’ultravioletto riflesso odella fuorescenza ultravioletta, ma ha an-che un grande uso nell’osservazione visualedi opere grafiche in genere, a causa dellafluorescenza che è in grado di generare neimateriali che porta spesso a discriminarecomponenti altrimenti non visibili ad oc-chio nudo.

1.1 Luce, fotometria e sensometria

2120 della lunghezza d’onda è possibile clas-sificare in maniera coincisa la radiazioneelettromagnetica, ad esempio raggi X,ultravioletto (UV), visibile, infrarosso(Ir), onde radio. Nell’intervallo visibile lalunghezza d’onda determina il coloredella luce percepito dal nostro occhio.

rimarchiamo ancora il fatto che la lucevisibile è solo una piccola porzione del-l’intero spettro elettromagnetico (Fig. 2).La luce che siamo in grado di vedere è so-litamente un miscuglio di lunghezze d’on-

da differenti, come scoperto da Newton. I raggi ultravioletti (UV) costituiscono

complessivamente circa l'8% della radia-zione solare e si dividono in UV-A (lun-ghezza d’onda compresa fra 315 e 400nm), responsabili dell'abbronzatura edelle reazioni fotosensibili, UV-B (280 e 315nm) che causano le scottature e sono im-plicati in alcune forme di carcinoma cu-taneo, UV-C (lunghezza d’onda compre-sa fra 200 e 290 nm), sono i più pericolosi,sono assorbiti dallo strato di ozono pre-

sente nell’alta atmosfera terrestre. I raggi infrarossi (Ir) si riferiscono alla

radiazione elettromagnetica che appar-tiene alla regione dello spettro elettro-magnetico posta oltre il rosso e la cui lun-ghezza d'onda è compresa tra 0.7 e 1000micron. Negli studi scientifici si distingueun vicino infrarosso nel caso di lunghez-ze d'onda da 0.7 a 1.3 micron circa; un in-frarosso medio per lunghezza d'onda da1.3 a 6 micron circa; un infrarosso lonta-no per lunghezza d'onda da 7 a 15 microncirca. Un particolare intervallo dell’in-frarosso, che va da 0.7 a 0.9 micron, è det-to fotografico perché alcune pellicolespeciali (dette appunto infrarosse) sonosensibili fino a queste lunghezze d'onda.

Le sorgenti di luce si possono general-mente suddividere in genere in:1. luce naturale (luce diurna);2. lampade ad incandescenza;3. luce istantanea (scarica elettrica -

lampo elettronico flash);4. lampade a scarica nei gas (al neon, ai

vapori di mercurio, xenon ad alta pres-sione, ecc);

5. sorgente a LED (Ligth Emitting Diode).

In fotografia vengono utilizzate preva-lentemente le prime tre.

Capostipite delle sorgenti luminose ècomunque la sorgente termica ovverouna sorgente che emette luce solo perchériscaldata ad alta temperatura (l’idealiz-zazione fisica di tale sorgente è detta cor-po nero, ovvero un corpo che assorbe tut-te le radiazioni e le emette solo in quan-to è riscaldato). La legge teorica che ci for-

Fig. 2Lo spettro

elettromagnetico conindicati i nomi delle

diverse bande, le frequenze, le

energie dei fotoni e lelunghezze d’onda

associate. èevidenziata la parte

dello spettro visibile.

Teoria dell’immagine analogica

FrequenzaHz

Nomedella radiazione

Raggi gamma

Energia delfotone, eV

Lunghezzad’onda, m

Raggi X

Ultravioletto

Infrarosso

Microonde

TV, FM

Trasmissione radio

Radiofrequenze

10²²—10²¹—10²⁰—10¹⁹—10¹⁸—10¹⁷—10¹⁶—10¹⁵—10¹⁴—10¹³—10¹²—10¹¹—10¹⁰—10⁹—10⁸—10⁷—

kMz — 10⁶—10⁵—10⁴—

1 kHz — 10³—

—10⁷—10⁶—10⁵—10⁴—10³—10²—10—1—10-¹—10-²—10-³—10-⁴—10-⁵—10-⁶—10-⁷—10-⁸ —10-⁹—10-¹⁰—10-¹¹

—10-¹³—1 unità X, XU—10-¹²—10-¹¹—10-¹⁰—1 argstrom, Å—10-⁹—1 nanometro, n—10-⁸—10-⁷—10-⁶—1 micron, µ—10-⁵—10-⁴—10-³—10-²—1 centimetro, c—10-¹—10⁰—1 metro, m—10¹—10² —10³—1 kilometro, km—10⁴—10⁵

Spettrovisibile

TIPo DI SorGENTE TEMPErATUrA DI CoLorE TC (K )

sole all'alba 1850

sole dopo 1 ora dall’alba 3500

sole a mezzogiorno d'estate 5500

Luna 4100

cielo coperto 6500

cielo leggermente coperto 13000

cielo azzurro intenso o nord 25000

lampade ad incandescenza da 2400 a 3000

lampade da proiezione da 2850 a 3200

lampade fluorescenti warm white (calda) 3000

lampade fluorescenti white (bianca) 3500

lampade fluorescenti cool white (bianca fredda) 4500

lampade fluorescenti daylight (diurna) 6500

lampo elettronico allo xenon 5500

Tabella 2 Temperatura di colore di alcune sorgenti di luce usate in fotografia

Page 12: Presentazione - uniroma1.itgiovanni.gigante/Lavori/cap.1-2-3... · 2015-03-16 · Presentazione A. Batori Lorem ipsum dolor sit amet, consectetur adipiscing elit. Nullam tellus mauris,

l’atmosfera. Il fenomeno è più accen-tuato, tuttavia, quando il materiale haforme geometriche particolari, come adesempio quella di un prisma.

Un altro fenomeno ottico responsabi-le della formazione dei colori è l’assorbi-mento. In generale, nell’attraversare lamateria la luce viene assorbita. La fra-zione di luce trasmessa T è data da §5

t= e -α.x §5

e dipende sia dal coefficiente di assorbi-mento α (che a sua volta dipende da λ edè misurato in cm-1) sia dallo spessore x delmateriale, mentre il prodotto di α × x èdetto densità ottica. Il grafico di T (oppuredi α) in funzione della lunghezza d’onda� rappresenta lo spettro di trasmissione(assorbimento), caratteristico di ognicomposto.

I fenomeni finora descritti dipendonoin maniera complessa dalle caratteristi-che atomiche della sostanza in gioco.

1.1.c Origine del colore dei materiali

Abbiamo già visto che la luce è compostada radiazioni elettromagnetiche di di-versa lunghezza d’onda, comprese fra cir-ca 400 nm (violetto) e 700 nm (rosso).ogni singola lunghezza d’onda vienepercepita dall’occhio come un colore(Fig. 4) (AA.VV., 1985).

Quando una sorgente di luce illuminaun oggetto la sensazione di colore chequesto ci rimanda dipende dai seguentifattori:

1 il tipo di sorgente (in particolare lacomposizione spettrale della luceemessa);

2 il modo in cui l’oggetto viene illumi-nato;

3 da come la luce interagisce con la ma-teria;

4 dalla percezione psicologica;5 ed infine dalla sensibilità dell’occhio

umano.

è importante tenere bene a menteche esistono due aspetti diversi nel mec-canismo della visione del colore: quelli fi-sici (sorgente, modo di illuminazione,interazione luce-materia) descrivibili og-gettivamente e misurabili con precisionee quelli percettivi, in cui entrano in giocoaspetti soggettivi (psicologia, sensibilitàdell’occhio umano).

Come abbiamo già visto la luce può es-sere assorbita completamente, parzial-mente oppure per nulla da corpi gasso-si, liquidi e solidi. La parte che non vieneassorbita viene riflessa dalla superficie deicorpi liquidi e solidi.

La luce emessa dalle sorgenti, e/o quel-la riflessa o trasmessa dai materiali, rag-giunge la retina dell’occhio dove avviene

il processo della visione tramite una se-rie di reazioni chimiche.Cosa succede quando la luce colpisceun oggetto?n Se riflette tutte le radiazioni visibili in

maniera diffusa, appare bianco.n Se assorbe tutta la luce appare nero.n Se assorbe una frazione costante della

luce incidente appare grigio.n Se ne assorbe solo una porzione dello

spettro della radiazione incidente ap-pare colorato.

Il colore di un oggetto si produce at-traverso la riflessione selettiva di alcunelunghezze d’onda della luce. Le lunghez-ze d’onda che non vengono riflesse, sonoassorbite dall'oggetto in esame. Per mag-giori dettagli si rimanda alla trattazionepiù approfondita presente nei testi indicatiin bibliografia [Palazzi, 1995; oleari, 1998].

La sensibilità alla luce dell’occhio uma-no è dovuta a due tipi di cellule presentisul fondo della retina: i coni e i bastoncelli.I bastoncelli producono uno stimolo ner-voso indipendentemente dalla lunghez-za d’onda della luce che li colpisce. I conial contrario reagiscono solo in un certo in-tervallo di lunghezze d’onda: ne esistono

1.1 Luce, fotometria e sensometria

Fig. 4 Lo spettro visibile conindicate le lunghezzed’onda.

2322 1.1.b Cenni di interazione radiazione-materia

Nel momento in cui della radiazioneelettromagnetica incide su di un mate-riale, si possono avere i seguenti feno-meni [AA.VV., 1985]:n riflessione speculare e diffusa;n rifrazione;n dispersione della luce;n assorbimento ottico;n luminescenza;n altri fenomeni più complessi come dif-

frazione, diffusione anelastica, emis-sione stimolata, fotoconduttività, edeffetti fotochimici dei materiali foto-grafici.

Per quanto concerne la fotografia, i fe-nomeni più importanti sono la riflessio-ne, la rifrazione, la dispersione e l’assor-

bimento (Fig. 3).Si parla del fenomeno della riflessionequando la luce incidente su di un ogget-to viene in parte rimandata indietro. Lariflessione può avvenire sia come rifles-sione speculare sia come riflessione dif-fusa: nella riflessione diffusa i raggi lu-minosi vengono rimandati indietro se-condo angoli diversi.

Si parla invece di rifrazione della lucequando la direzione del raggio trasmes-so attraverso un materiale trasparente èdiversa da quella del raggio incidentesul materiale stesso. Mentre le leggi del-la riflessione sono molto semplici, ovve-ro la luce viene riflessa con lo stesso an-golo che aveva in incidenza, una relazio-ne leggermente più complicata regola ilfenomeno della rifrazione che si basasul concetto dell’ indice di rifrazione (§3):si definisce indice di rifrazione n di un ma-

teriale il rapporto fra la velocità dellaluce nel vuoto c e quella v nel mezzo inquestione: c

n = §3v

dove n è quindi sempre maggiore di 1.L’angolo di rifrazione si può calcolaredalla relazione §4:

sen α = n2 §4sen γ n1

dove α è l’angolo di incidenza e γ quel-lo di rifrazione mentre n1 ed n2 sono gli in-dici di rifrazione del primo e del secondomateriale. Il fenomeno della rifrazione èutilizzato nelle lenti e quindi negli obiet-tivi fotografici per la formazione delle im-magini proiettate del soggetto da foto-grafare [Missori, 2007].

La dispersione della luce è invece il fe-nomeno di interazione luce-materia piùlegato ai colori ed è quello scoperto daNewton. A parità di angolo di incidenzae di sostanza, raggi di colore diverso (di-versa lunghezza d’onda) vengono devia-ti (rifratti) lungo direzioni diverse. Il mo-tivo per cui questo avviene è da ricercar-si nel fatto che l’indice di rifrazione n va-ria in funzione della lunghezza d’onda edè quindi diverso per i vari colori. Per que-sto motivo un raggio di luce bianca, adesempio solare, passando attraverso unmateriale trasparente ne esce dispersonei colori dei quali è composto. Per que-sto fenomeno si forma l’arcobaleno, ov-vero per la dispersione della luce nellegoccioline d’acqua in sospensione nel-

Fig. 3Fenomeni che

avvengono quando unraggio di luce incide su

di un materiale.

Teoria dell’immagine analogica

Luce so�usaLuceincidente

Luceriflessa

Luce emessa(fluorescenza)

Rifrazione

Lucetrasmessa

infrarosso 780ultravioletto 380

viola azzurro verdeazzurro

verde gialloverde

giallo arancione rosso

400 450 500 550 600 650 700 750

Page 13: Presentazione - uniroma1.itgiovanni.gigante/Lavori/cap.1-2-3... · 2015-03-16 · Presentazione A. Batori Lorem ipsum dolor sit amet, consectetur adipiscing elit. Nullam tellus mauris,

vata. Per ottenere, quindi, una determi-nata densità è sufficiente che il prodottoE t sia costante. Questo comporta-mento è noto come legge di reciprocitàdei materiali sensibili.

L’esposizione alla luce produce unatrasformazione della pellicola fotografi-ca che risulta, dopo il processo di svilup-po, come una perdita di trasparenza del-la stessa. La trasmissione (Tab. 4) indicapertanto la % della luce incidente che uncorpo parzialmente trasparente, come ilnegativo, lascia passare. L’opacità è l’in-verso della trasmissione. La densità è il lo-garitmo in base 10 dell’opacità.

Come è evidente dalla tabella, per ognidimezzamento di trasmissione, ovveroper ogni raddoppio di opacità, la densitàaumenta di 0.3. Essa afferma che se lacorretta esposizione è ottenuta con untempo di esposizione lungo per un piccoloilluminamento, allora potremmo otte-nere lo stesso risultato usando una op-portuna coppia di valori tempo di espo-sizione breve e grande illuminamento.Tuttavia, per questa ultima coppia divalori potremmo avere un annerimentominore, perché l’immagine latente non

ha il tempo di formarsi. Lo stesso feno-meno avviene quando si usano tempi diesposizione molto lunghi. Si parla alloradi difetto di reciprocità dei materiali fo-tografici.

Incrementando progressivamentel’esposizione di una pellicola e misurandola densità ottenuta si costruisce la curvasensitometrica. Dalla curva sensitome-trica si ricavano informazioni sulla rapi-dità, sul contrasto e sulla latitudine diposa di un materiale fotografico (Fig. 5).

1.1 Luce, fotometria e sensometria

Figura 5 Caratteristiche dellacurva sensitometrica.

2524 sensibili al blu (massimo della sensibilitàa circa 440 nm) al verde (massimo dellasensibilità a circa 545 nm) e al rosso (mas-simo della sensibilità a circa 580 nm).

I colori rosso verde e blu sono detti co-lori primari. I bastoncelli, tuttavia, sonomolto più sensibili alla luce e quindi sonoin grado di farci vedere anche in scarsecondizioni di illuminazione: è per questomotivo che in queste condizioni , ad es.di notte, non riusciamo a distinguere i co-lori e tutto ci sembra in bianco e nero !

Sommando luce di sorgenti corri-spondenti ai colori primari additivi, ros-so, verde e blu, si ottiene l’impressione delbianco (combinazione additiva di colori).Tramite questo fenomeno la televisionea colori o i monitor riescono a produrresvariate sensazioni di colori attraversol’accensione selettiva di piccoli LED ros-si, verdi e blu.

Applicando 2 o più coloranti su uno

sfondo bianco si ottiene un colore risul-tante meno brillante di quello ottenibilecon un solo colorante (combinazionesottrattiva dei colori). Al limite, utiliz-zando i colori primari della sintesi sot-trattiva, giallo, magenta e cyan, si ottie-ne il nero, poiché la combinazione diquesti colori sottrae tutte le parti dellospettro visibile. Su questo principio sibasano le stampanti e la fotografia acolori.

1.1.d Elementi di fotometria e sensitometria

La fotometria si occupa della misura-zione dell’energia luminosa percepitadall’occhio umano. Va distinta dalla ra-diometria che si occupa invece della mi-sura dell’intensità di tutta l’energia elet-tromagnetica radiante e non solo di quel-la percepita dall’occhio umano, quindi an-

che di quella invisibile. Nella fotometrial’energia elettromagnetica corrispon-dente ad ogni lunghezza d’onda vienequindi pesata con la sensibilità media del-l’occhio umano stabilita una volta per tut-te. L’unità principale che si incontra in fo-tometria è il flusso di energia luminosa,detto lumen. Dato che la risposta spet-trale della retina ha un massimo a λ=540nm, si è convenuto che il flusso lumino-so (F) di una radiazione monocromaticadi questa lunghezza d’onda, emessa dauna sorgente della potenza di 1 watt, siaF=683 lumen (simbolo: lm).

Il flusso luminoso per unità di superfi-cie è detto illuminamento (Tabella 3) e simisura in lux (simbolo lx= lumen/m2). Seil flusso luminoso per unità di superficieè riferito ad una superficie emittenteinvece che ad una superficie illuminataesso viene misurato nelle stesse unità maviene detto luminosità.

La sensitometria è invece lo studiodelle caratteristiche della risposta, intermini di annerimento, dei materialisensibili per esposizione alla luce [AA.VV.,2001]. L’annerimento viene quantificatoattraverso i concetti di trasmissione,opacità e densità di una pellicola.

L’esposizione è la “quantità di illumina-zione” §6 che arriva sulla pellicola ed è il pro-dotto dell’illuminamento della stessa (mi-surato in lux) per il tempo di esposizione(misurato in secondi) [Kowaliski, 1972].

Esposizione [lux.s]= I [lux] . t [s] §6

Il risultato dell’esposizione del materialesensibile è una densità più o meno ele-

Teoria dell’immagine analogica

SITUAzIoNE ILLUMINAMENTo (LUX)

Cielo sereno a mezzogiorno 100000

Cielo coperto a mezzogiorno 32000

Cielo sereno ore 10 65000

Cielo coperto ore 10 25000

Stanza ben illuminata + finestra 1000

Ambienti di lavoro 800-700

Interni normalmente illuminati 300-200

Scale interne 200-100

Limite per l’esposizione di beni cartacei 50

TrASMISSIoNE % oPACITà DENSITà

100 (=1) 1 0

50 (=1/2) 2 0.3

25 (=1/4) 4 0.6

12.5 (=1/8) 8 0.9

6.25 (=1/16) 16 1.2

3.125 (=1/32) 32 1.5

1.563 (=1/64) 64 1.8

Tabella 3 Valori di riferimento per i livelli di illuminamento

Tabella 4Corrispondenza fra trasmissione, opacità e densità di una pellicola

0.010 —

0.016 —

0.025 —

0.040 —

0.063 —

0.10 —

0.16 —

0.25 —

0.40 —

0.063 —

1.0 —

100 —

63 —

40 —

25 —

16 —

10 —

6.3 —

4 —

2.5 —

1.6 —

1.0 —

2.0 —

1.8 —

1.6 —

1.4 —

1.2 —

1.0 —

0.6 —

0.6 —

0.4 —

0.2 —

0.0 —

Trasmissione Opacità = I/T Densità = Log I/T ESPOSIZIONE (lux - secondi)

3.0 2.0 1.0 0.0

0.001 0.01 0.1 1.0

Densità del supportoPiede

B

Tra

tto re

ttilin

eo

C

Spalla

D

Page 14: Presentazione - uniroma1.itgiovanni.gigante/Lavori/cap.1-2-3... · 2015-03-16 · Presentazione A. Batori Lorem ipsum dolor sit amet, consectetur adipiscing elit. Nullam tellus mauris,

Lo scopo dello sviluppo è quello di ridur-re i cristalli esposti completamente ad ar-gento metallico in un tempo breve perquanto possibile, senza modificare quel-li non esposti [Kowalisky, 1973].

è nell’uso comune quello di distinguerei processi fotografici in due principali ti-pologie: quella ad annerimento diretto(printing out process) e quella a sviluppo (de-veloping out process). A queste si aggiungeil metodo chiamato a “sviluppo fisico”, checome si vedrà, non è quasi mai, in pratica,impiegato da solo [Kowalisky,1973]. Il pri-mo consiste essenzialmente nella prepa-razione artigianale o industriale di mate-riali fotografici ai sali di argento che, unavolta esposti alla luce solare, danno luogoalla formazione di una immagine mono-cromatica con sfumature di colore leg-germente diverse, ma comunque in generecomprese tra tonalità leggermente gialli-ne, e altre un po’ più rosse. L’immagine èprodotta sul supporto fotosensibile (pre-senza di sali di argento) interponendo sa-gome più o meno sottili anche di spesso-re variabile, ad esempio un elemento na-turale come foglie o petali sottili, oppureinterponendo una carta salata tra un ne-gativo di carta cerata ed una carta salataprodotta per la stampa, oppure, ancoramettendo a contatto un negativo di vetro(emulsione fotografica all’albumina o alcollodio) su una carta da stampa salata ouna carta da stampa all’albumina.

Il secondo, quello detto a sviluppo,implica l’uso di prodotti chimici in gradodi ridurre ad argento metallico alcunisali di argento attivati dalla luce, di soli-

to indicati con un asterisco: AgX*. X staad indicare un generico alogenuro, cioècloruro (Cl -), bromuro (Br -) o ioduro (I -). Gli alogenuri sottoposti ad illumina-mento in fase di esposizione danno luo-go alla formazione dell’immagine laten-te; a contatto con lo sviluppo riducenteformano, nell’ambiente alcalino attiva-tore del processo, argento metallico dan-do luogo ad una immagine in bianco enero con diverse densità ottiche in fun-zione della maggiore o minore quantitàdell’argento prodotto.

Il processo ad annerimento printingout process diretto può essere così sche-matizzato:n esposizione alla luce solaren formazione dell’immagine latenten formazione dell’immagine visibile me-

diante annerimento diretton viraggion lavaggion fissaggio n lavaggion asciugatura

Il processo a sviluppo developing out pro-cess richiede l’impiego di prodotti chimi-ci (rivelatori) che, per le loro proprietà ri-ducenti, sono in grado di formare un’im-magine visibile in bianco e nero costitui-ta da argento metallico sotto forma di fi-lamenti.

Il processo a sviluppo prevede:n esposizione alla luce solare o artificialen formazione dell’immagine latenten sviluppo chimico dell’immaginen lavaggio

n arreston lavaggion asciugaturaAlcune fasi sono evidentemente comunial primo ed al secondo processo (Tab. 5).

1.2.a Processo ad annerimento diretto

Il processo ad annerimento diretto hainizio con l’attivazione dell’alogenuro diargento AgX* e la conseguente fotolisi delsale di alogenuro:

2 AgX fi 2 Ag + X 2

La reazione è detta di fotolisi; la gelatinaè un accettore di alogeno. Le particelle diargento che si formano con l’anneri-mento hanno piccole dimensioni: l’im-magine ha una risoluzione piuttosto ele-vata a tutto vantaggio della qualità del-l’immagine della stessa.

In questo processo è frequente l’uso disoluzioni di viraggio come parte inte-grante del metodo; gli elementi in solu-zione maggiormente utilizzati per il vi-raggio erano l’oro ed il platino; il fissag-gio dell’immagine doveva necessaria-mente essere effettuato solo dopo il vi-raggio.

Tra le stampe più note prodotte me-diante annerimento diretto si citano, ol-tre al disegno fotogenico, le carte salate(negativi e positivi), le stampe all’albu-mina (Fig. 6) e gli aristotipi.

Le particelle di argento che formanol’immagine ad annerimento diretto han-no dimensioni piuttosto ridotte a con-

1.2 La formazione dell’immagine in bianco e neroG.E. Gigante, L. residori

2726 Bibliografia

AA.VV. 1985. Luce, colore, materia. Le Scienze Quaderni, 21.

AA.VV. 1994. il colore. Le Scienze Quaderni, 8.

AA.VV., 2001. ABC della fotografia. Newton & Compton Editori, roma.

Frova A., 1984. Luce colore visione. Editori riuniti, roma.

Kowaliski P., 1972. Applied photographic theory. John Wiley & Sons, New York.

Missori M., 2007. Elementi di tecnica fotografica propedeutici al restauro fotografico. In: “Libri e documenti - Le scienze per la con-servazione e il restauro”. M. Plossi & A. zappalà (eds), Biblioteca Statale Isontina, Edizioni della Laguna, Gorizia, pp. 537-569.

Oleari C., 1998. Misurare il colore. hoepli, Milano.

Palazzi S., 1995. Colorimetria. Nardini Editore, Firenze.

Segre E., 1996. Personaggi e scoperte della fisica classica. Mondatori Editore, Milano.

Weiss R.J., 2005. Breve storia della luce - Arte e scienza dal rinascimento ad oggi. Edizioni Dedalo, Bari.

Teoria dell’immagine analogica

Page 15: Presentazione - uniroma1.itgiovanni.gigante/Lavori/cap.1-2-3... · 2015-03-16 · Presentazione A. Batori Lorem ipsum dolor sit amet, consectetur adipiscing elit. Nullam tellus mauris,

magine in bianco e nero con una scala digrigi più o meno estesa in funzione dellecaratteristiche sensitometriche (curvacaratteristica) della pellicola o della cartafotografica.L’immagine latente si forma grazie alleproprietà di fotoconduttività e di con-duttività ionica del cristallo. Come si ve-drà in modo più esteso e approfondito inaltra parte del volume, gli ioni Ag+ pos-sono muoversi per salti all’interno del re-ticolo cristallino. Questa possibilità ren-de probabile l’interazione tra gli elettro-ni della banda di conduzione e gli ioni Ag+.In questa parte del testo si anticipa, inmodo conciso, quanto contenuto nelprincipio di Gurney e Mott.

In sintesi, quel principio suddivide il pro-cesso di formazione dell’immagine la-tente in due stadi: il primo elettronico, ilsecondo ionico (o viceversa, se si segue lateoria di Mitchell). restando alla teoria diGurney e Mott si possono distinguere,nella formazione dell’immagine laten-te, i due stadi seguenti:

n stadio elettronicoBr - + hν elettrone + Br

n stadio ionico elettrone + Ag+ Ag

Il primo stadio è correlato alle proprietàche il cristallo di alogenuro di argentoha di produrre una fotocorrente a se-guito dell’energia trasferita al cristalloda un fotone. Il secondo stadio è, invece,ionico e correlato alla migrazione di ioniAg+ interstiziali.

è noto che i cristalli di alogenuro di ar-gento, a temperatura ambiente, presen-tano un certo numero di difetti a livelloatomico detti interstiziali o di Frenkel.

Esistono anche altri tipi di difetti allostesso livello reticolare detti di Skottky, chesono però molto meno frequenti a tem-perature ambientali e non sono così rile-vanti per la formazione dell’immagine la-tente come invece lo sono quelli di Frenkel.

Gli ioni Ag+ hanno dimensioni suffi-cientemente piccole per migrare attra-verso gli interstizi e il numero di questiioni che si muovono nel cristallo dipen-de dalla temperatura. Questi ioni sonomobili e migrano per salti attraverso il re-ticolo cristallino.

Difetti strutturali a livello cristallino co-stituiscono siti preferenziali in cui gli ioniAg+ e gli elettroni della banda di condu-zione possono combinarsi ( teorie di Gur-ney-Mott e di Mitchell) formando picco-lissime quantità di argento metallico(immagine latente). Questo tipo di difettisi formano nel cristallo e si estendono allasuperficie, oppure provengono diretta-mente dalla formazione di uno strato su-perficiale difettoso; i fotoelettroni ven-gono catturati sui difetti di questo tipoper formare argento metallico con gli ioniargento con maggiore facilità che con gliioni interstiziali [residori, 2000a]).

L’immagine latente è stabile se si formaun numero sufficiente di atomi di argento.Si deve tenere presente che i fotoelettronisi ricombinano con le buche e gli atomi diAg si ossidano di nuovo provocando il de-cadimento dell’immagine latente stessa.

I siti di formazione dell’immagine latentesi trovano preferenzialmente in corri-spondenza dei difetti a livello cristallino.

Si è detto che l’immagine latente deveessere sviluppata chimicamente per pro-durne una visibile in bianco e nero.

Il contatto tra il materiale fotograficoimpressionato e la soluzione di sviluppopuò produrre, ad esempio, un negativo ouna stampa con zone di diversa densità:molto chiare, molto scure, una varietà digrigi più o meno intensi. Affinché questoavvenga devono essere soddisfatte lecondizioni termodinamiche (potenzialielettrochimici): riduzione di Ag+ ad Ag edossidazione del rivelatore (es. ossidazio-ne dell’idrochinone a p-benzochinone).

Alcuni agenti di sviluppo possono es-sere combinati insieme in un’unica solu-zione per ottenere l’effetto di superaddi-tività che permette un trattamento piùrapido [Woodlief, 1973).

Gli alogenuri di argento attivati AgX* ,in presenza di un rivelatore in ambientealcalino, si anneriscono molto più rapi-damente degli altri: l’immagine latentefunziona da catalizzatore.

Lasciando la pellicola, la lastra o lacarta fotografica nello sviluppo oltre iltempo necessario esso continua ad agi-re formando un velo sull’immagine; ciòè dovuto alla riduzione degli alogenuri diargento non impressionati, comunquesuscettibili, in base ai potenziali elettro-chimici, di ridursi, per effetto dello svi-luppo e in tempi più o meno lunghi.L’efficienza del processo a sviluppo [resi-dori, 2000b] dipende dalla lunghezza

1.2 La formazione dell’immagine in bianco e nero

29fronto con i filamenti di argento che si for-mano nel processo a sviluppo.

L’immagine delle stampe all’albuminaè formata, infatti, da piccole particelle diargento colloidale disperse nel legante, diforma approssimativamente sferica e dimaggiore densità negli strati più super-ficiali. Il colore delle stampe all’albuminapuò dipendere dalle dimensioni e dalla for-ma delle particelle.

1.2.b Processo a sviluppo

Il processo a sviluppo è reso in parte piùcomplesso per il maggiore impiego di pro-dotti chimici tossici, nocivi o speciali. Di-versamente dal processo diretto, l’im-magine non si forma gradualmente peresposizione alla luce solare, come avvienead esempio per produrre una stampa sucarta salata o all’albumina, ma soltantodopo il trattamento di sviluppo chimico (ri-velatore). In questo caso la fase di esposi-zione è molto più breve (frazioni di se-condo) di quella richiesta per il procedi-mento diretto; l’immagine non è ancora vi-sibile ma lo diventa soltanto dopo il con-tatto con la soluzione di sviluppo nelle con-dizioni operative più opportune (rivelato-re, tempo, temperatura, agitazione ecc.).Dopo l’esposizione e prima dello sviluppo,in base alla teoria di Gurney-Mott, si for-ma una immagine latente, cioè una mo-dificazione non visibile dei cristalli di alo-genuro di argento. Lo sviluppo chimico ri-vela l’immagine riducendo gli alogenuri diargento esposti AgX* ad argento metalli-co dando luogo alla formazione di una im-

28

Fig. 6 Stampa all’albumina

(Ed.ne Alinari)P.2. N.° 4380. Firenze -

Palazzo riccardi.La Giustizia, dettaglio

del soffitto.

Teoria dell’immagine analogica

ProCESSo AD ANNErIMENTo DIrETTo

Esposizione

Immagine latente

Formazione dell’immagine visibile (Annerimento diretto)

Lavaggio

Viraggio

Fissaggio

Lavaggio

Asciugatura

ProCESSo A SVILUPPo

Esposizione

Immagine latente

Formazione dell’immagine visibile (Sviluppo chimico)

Arresto

Fissaggio

Lavaggio

Asciugatura

Tabella 5Schema del processo ad annerimento diretto e di quello a sviluppo chimico

Page 16: Presentazione - uniroma1.itgiovanni.gigante/Lavori/cap.1-2-3... · 2015-03-16 · Presentazione A. Batori Lorem ipsum dolor sit amet, consectetur adipiscing elit. Nullam tellus mauris,

La distribuzione della frequenza dellegrandezze dei grani dipende dalla velocitàdi aggiunta dei reattivi, dalla tempera-tura, dalla presenza di altre sostanzeche influiscono sulla loro crescita.

Le emulsioni fotografiche con grani dimaggiori dimensioni sono più rapide. Aquesto proposito, si può prendere in con-siderazione sia la frequenza delle gran-dezze dei grani sia l’area prospettica to-tale. La distribuzione influisce sulla lati-tudine di esposizione: maggiore è la va-rietà delle dimensioni dei cristalli, mino-re è il contrasto, maggiore la latitudine diesposizione.

è evidente che la scelta dell’emulsionedipende dall’uso che se ne vuole fare:

Emulsioni con una grande varietà di cri-stalli di grandezze diverse hanno un bas-so contrasto rispetto a quelle con cristallidi dimensioni molto simili tra loro.

Schematizzando, nello sviluppo diret-to l’argento appare, ai dovuti ingrandi-menti, come “filamenti” [Kowalisky, 1973]che costituiscono un deposito ed asso-

1.2 La formazione dell’immagine in bianco e nero

Tabella 7Mees, 1966.

Fig. 7 Scala dei grigi - Kodak.

Fig. 8Stampa a sviluppobianco e nero (autore Lucianoresidori - “Teatro inpiazza”).

3130 d’onda della radiazione λ e dalla tempe-ratura. Minore è la lunghezza d’onda del-la radiazione, minore è l’esposizione ne-cessaria per ottenere un determinato ri-sultato in termini di densità; l’efficienza di-minuisce con l’abbassamento della tem-peratura. Il risultato finale del processo (esposi-zione, sviluppo, arresto, fissaggio, la-vaggio, asciugatura) produce una im-magine in bianco e nero stabile, forma-ta da grani di argento sotto forma di fi-lamenti. I grani possono variare di di-mensioni in funzione del tipo di emul-sione, del tipo di sviluppo e delle condi-zioni operative prescelte. In ogni caso si

formerà una immagine in bianco e nerocon gradazione di grigi più o meno ampiae dettagli più o meno definiti. Questo di-pende essenzialmente dalla dimensionidei grani: n grani di alogenuro di argento grandi

formano grani di argento anch’essi didimensioni piuttosto grandi

n grani di alogenuro di argento piccoli, aloro volta, formano grani di argentoanch’essi relativamente piccoli

Per semplicità, nello schema sottostante(Tab. 6) i grani sono rappresentati sferici.

Come è noto, la struttura dei cristalliAgX è cubica a facce centrate (cloruro o

bromuro di argento), oppure ottaedrica(cristalli non geminati, singolarmentegeminati, doppiamente geminati).

Esistono emulsioni con grani sfericimolto fini, altre a forma di tavole trian-golari di dimensioni di circa 20µm perlato, altre ancora a forma di aghi lunghicirca 50 µm. In genere, il limite superio-re per emulsioni molto rapide (granagrossa) è di circa 2,5 µm (Tab. 7).

Le dimensioni dei grani influisconosulla sensibilità (rapidità) dell’emulsione,il contrasto, la latitudine di esposizione,la definizione dell’immagine. Una emul-sione con un’ampia latitudine di esposi-zione permette di riprodurre un’ampiascala di grigi (Figg. 7, 8).

I grani di argento hanno dimensionivariabili intorno ad un valore più pro-babile in funzione dei fattori e dei para-metri che influenzano la formazione e lacrescita dei cristalli di alogenuro di ar-gento. Essi sono molto più grandi delleparticelle di argento colloidale e costi-tuiscono sistemi dispersi.

Come già detto, le dimensioni dei gra-ni prodotti nella preparazione dell’emul-sione fotografica dipende dalle numero-se variabili chimiche e fisiche che influi-scono sulle specifiche caratteristiche del-l’emulsione stessa. Nella precipitazionedei cristalli di AgX nel mezzo disperden-te (soluzione colloidale di gelatina) si di-stinguono quattro stadi: n nucleazionen crescitan maturazionen ricristallizzazione.

Teoria dell’immagine analogica

Cristalli di AgX grandi, prima dello sviluppo Cristalli di AgX grandi, dopo lo sviluppo

Cristalli di AgX piccoli, prima dello sviluppo Cristalli di AgX piccoli, dopo lo sviluppo

FILM DIAMETroDEI GrANI (µm)

SUPErFICIEMEDIA (µm)2

N° DI GrANIX 109

Alta risoluzione 0,048 0,00188 -

Film cinematografico positivo

0,30 0,07 577,5

Film positivo 0,63 0,31 117,85

Film a grana fine 0,79 0,49 52,35

Film per ritratto 0,88 0,61 25,66

Film ad alta rapidità 1,09 0,93 22,61

Pellicola per raggi X 1,71 2,30 6,32

Tabella 6 Schema dei grani di argenti prima e dopo lo sviluppo

EMULSIoNE

A GrANA GroSSA

EMULSIoNE

A GrANA FINE

Pellicola più rapida

Pellicola meno rapida

Maggiore latitudinedi esposizione

Minore latitudine di esposizione

Minore capacità di risoluzione

risoluzione complessivamente migliore

Page 17: Presentazione - uniroma1.itgiovanni.gigante/Lavori/cap.1-2-3... · 2015-03-16 · Presentazione A. Batori Lorem ipsum dolor sit amet, consectetur adipiscing elit. Nullam tellus mauris,

luppo della stampa si ricorre al tratta-mento con acqua, questa volta, però, atemperatura ambiente.

Tra i procedimenti non argentici, uno deiprocedimenti ai sali ferrici è quello dellacianotipia in cui si utilizza una carta di sup-porto trattata con citrato ferrico ammo-niacale e ferricianuro di potassio. Peresposizione alla luce solare il sale ferricosi trasforma in sale ferroso; il citrato ferrosotrasforma il ferricianuro in blu di Prussia.

Nel procedimento noto come platino-tipia, la carta di supporto è trattata consali ferrici e cloruro di platino e potassio.Segue l’esposizione ed il trattamento con

ossalato di potassio. Il procedimentodetto kallytipia, sostanzialmente analo-go alla platinotipia, utilizza al posto delcloruro di platino il nitrato di argento.

Per quanto riguarda l’uso dei sali di dia-zonio ArN2

+, essi hanno avuto ad esem-pio un certo impiego per la duplicazionedi pellicole per microfilm. In breve, il pro-cedimento si basa sull’esposizione e lasbianca dei sali di diazonio, la formazio-ne di una copia positiva da contatto co-stituita dal sale di diazonio non decom-posto (tonalità giallo chiaro ed ancorasensibile), sviluppo con copulante (feno-lo), formazione di una immagine colora-

ta azoica visibile e stabile. Queste pellicolepossono riprodurre dettagli molto fini. Le pellicole vescicolari sono ad alto con-trasto ed a elevata risoluzione. L’azoto svi-luppato nella decomposizione del dia-zocomposto genera, per riscaldamento,bolle in una resina termoplastica; il fis-saggio dell’immagine si ottiene median-te una ulteriore esposizione che decom-pone i composti diazo. Anche in questocaso, le pellicole vengono prodotte perprodurre copie positive del microfilm ne-gativo.

1.2 La formazione dell’immagine in bianco e nero

3332 migliano ad una massa impigliata e ra-mificata. I depositi di argento che si for-mano soltanto con lo sviluppo fisico [Ce-lentano, 1971; residori, 2009] sono, in-vece, compatti e nella maggior partedei casi quasi sferici.Nelle condizioni pratiche dello sviluppo ifilamenti rimangono sottili e “impigliati”fino che gli alogenuri sono poco dissolti.In questa fase lo sviluppo fisico è predo-minante e i filamenti diminuiscono di lun-ghezza e crescono in spessore. La for-mazione dei filamenti è attribuita ad unmeccanismo di cristallizzazione; tuttaviaessi hanno una struttura irregolare ed in-stabile, differente da quella che dovreb-be risultare dalla cristallizzazione.

Il colore del deposito di argento può ri-sultare neutro nella maggior maggioreparte dei casi ma può anche slittare ver-so tonalità bruno-arancio o violette, op-pure, meno frequentemente, legger-mente bluastre.

L’absorbimento della luce blu può au-mentare se si favorisce lo sviluppo ditipo “soluzione-fisico” che risulta dal-l’azione solvente degli sviluppi ordinari.

L’absorbimento selettivo è debole dopolo sviluppo non-solvente; esso aumentasensibilmente quando questo sviluppo ini-ziale è complementato da uno sviluppocontenente un solvente di alogenuro di ar-gento in cui predomina lo sviluppo solu-zione-fisico. La colorazione blu ha origi-ne da diversi fenomeni tra cui l’effetto del-la grandezza delle particelle sull’absorbi-mento spettrale, la morfologia del depo-sito di argento, l’adsorbimento della ge-

latina sulla superficie di argento. La gran-dezza delle particelle ha un ruolo di rilie-vo soltanto se sono praticamente sferiche,come dimostrato da Klein e Metz.

Particelle molto piccole fanno sì che ildeposito di argento sia bruno, mentre cri-stalli più grandi danno immagini neutreo tinte in funzione della morfologia del de-posito, che dipende dall’anione dell’alo-genuro di argento e dal tipo di sviluppo.

Un’emulsione sviluppata al cloro-bro-muro dà un’immagine bruna e il deposi-to ha struttura filamentosa; se l’emul-sione è stata fortemente indurita i granisono più compatti e l’immagine più neu-tra. Depositi di argento molto fini dannotonalità calde, grani più compatti e piùgrandi danno depositi neutri .

oltre alle fotografie in bianco e nerorealizzate grazie alle proprietà degli alo-genuri di argento sono state prodottestampe fotografiche basate su tecnichee tecnologie diverse da quelle applicateper le emulsioni ad alogenuri di argento.Si tratta, per esempio, di stampe mono-cromatiche che, nella maggiore partedei casi, presentano tonalità diverse daquelle più o meno neutre delle tradizio-nali pellicole o stampe in bianco e nero.

1.2.c Altri processi

Ad integrazione di quanto fin qui de-scritto a proposito della fotografia inbianco e nero, si fa cenno ad alcuni pro-cessi fotografici diversi da quelli che uti-lizzano come sostanze fotosensibili glialogenuri di argento:

n procedimenti al bicromato (processi al car-bone, processi alla gomma bicromata)

n procedimenti ai sali ferrici (cianotipia,platinotipia, kallytipia)

n procedimenti diazo (sali di diazonio)n procedimenti vescicolari (variante del

procedimento precedente)

Tali procedimenti hanno in genere tona-lità più o meno neutre oppure, comun-que, monocromatiche [Scaramella, 1999].

Nel caso dei procedimenti al bicroma-to, un colloide (gelatina, gomma arabi-ca, albumina, gomma lacca) è trattatocon bicromato e diventa insolubile inacqua dopo l’esposizione alla luce. Il bi-cromato si trasforma in ossido di cromo.L’immagine fotografica su un supporto dicarta (stampa) è in rilievo. Nell’ambito deiprocedimenti al bicromato si possono di-stinguere:n procedimento al carbonen procedimento alla gomma bicromata

Nel primo la carta di supporto primarioè trattata con gelatina e nerofumo, sen-sibilizzata con bicromato. L’insolubilizza-zione del colloide dipende dall’esposizio-ne. Lo sviluppo dell’immagine non è altroche un trattamento con acqua calda.

Nel secondo caso, quello cioè del pro-cedimento alla gomma bicromata, lacarta di supporto è trattata con gommaarabica che include pigmenti colorati e,anche in questo caso, sensibilizzata conbicromato ed esposta alla luce con con-seguente insolubilizzazione del colloi-de, come nel caso precedente. Per lo svi-

Teoria dell’immagine analogica

Page 18: Presentazione - uniroma1.itgiovanni.gigante/Lavori/cap.1-2-3... · 2015-03-16 · Presentazione A. Batori Lorem ipsum dolor sit amet, consectetur adipiscing elit. Nullam tellus mauris,

Fig. 9Curve di sensibilità(normalizzate) dei tretipi di coni.

3534 Non si deve pensare alla fotografia a coloricome ad un processo che nulla ha a chefare con la fotografia in bianco e nero. In-fatti, come si vedrà poco più avanti consemplici schemi di reazione, alcuni proce-dimenti a colori utilizzano, in parte, pro-dotti, materiali e metodi per la fotografiain bianco e nero, naturalmente con le in-tegrazioni e le modifiche necessarie a for-mare (o distruggere) i coloranti.

1.3.a Il colore

Prima di trattare sinteticamente deiprocedimenti, materiali e metodi utilizzatiper la fotografia a colori [residori, 2009]alcuni cenni sul colore possono essere uti-le premessa all’argomento. Quanto se-gue è tratto integralmente da “Il colore”,G.E. Gigante, in residori L., Fotografie-materiali fotografici, processi e tecniche,degradazione, analisi e diagnosi, 2009, Pa-dova, Il Prato casa editrice, 2009, pp. 302.

“il colore è una sensazione che si genera nel pro-

cesso percettivo di alcuni animali superiori tra cui

l’uomo. Come tutte le sensazioni, che sono a caval-

lo tra il mondo esterno e la sfera individuale, han-

no degli elementi di oggettività e di soggettività che

ne rendono difficile lo studio. Da qualunque punto

di vista si veda il problema, sia quello di privilegia-

re gli aspetti psicofisici che quello, alternativa, di ri-

condurre tutto alle proprietà dei materiali, si rischia

di fornire un quadro del tutto parziale.

il colore ha origine nella visione a causa della di-

versa sensibilità che hanno le cellule fotosensibili del-

l’occhio, cioè i coni ed i bastoncelli, per la luce al va-

riare della sua lunghezza d’onda. in particolare

solo i coni sono coinvolti nella percezione del colo-

re, essi sono di tre differenti tipi con una sensibili-

tà alle diverse lunghezze d’onda della luce inciden-

te che ne definisce il ruolo nel processo di percezio-

ne. i tre tipi di cono sono infatti uno maggiormen-

te sensibile a luce monocromatica nella banda del

rosso, il secondo del verde ed il terzo del blu. i tre tipi

di cellule non sono egualmente sensibili alla luce, in

particolare i coni del blu sono molto meno efficien-

ti; in figura 9 è mostrato un diagramma che mostra

le diverse sensibilità dei coni.

La percezione avviene in tre fasi successive la pri-

ma in cui il fotone è rivelato sulla retina, la secon-

da in cui i diversi segnali che provengono dalle cel-

lule sensoriali sono elaborati in modo da inviare l’in-

formazione al cervello e l’ultima fase, a livello del cer-

vello, in cui avviene l’identificazione del colore. Nel-

la seconda fase si generano tutti gli effetti, come quel-

lo della complementarietà dei colori, che determinano

successivamente la più o meno corretta identifica-

zione del colore da parte del cervello. La prima fase

è strettamente fisica, le successive sono quelle in cui

si produce la sensazione del colore e sono legate alla

psicofisica. risulta quindi evidente che la psicofisi-

ca ha un ruolo determinante nella identificazione del

colore, questo non deve però far pensare che i colo-

ri percepiti non possano essere misurati con buona

precisione. Scopo della colorimetria è appunto quel-

lo di rendere oggettiva la misura del colore.

La colorimetria si occupa principalmente della

identificazione del colore e dei meccanismi fisici e psi-

chici che ne sono alla base. Le sorgenti di luce più co-

muni, a partire dal Sole, sono in genere policroma-

tiche, cioè composte da fotoni di diversa lunghezza

d’onda, esse quindi sono caratterizzate da un colo-

re che dipende dallo spettro della sorgente stessa.

una sorgente che emette fotoni in tutta la banda del

visibile produce una sensazione di un colore bianco.

Se lo spettro non è uniforme, vi sono cioè bande di

colore che sono più intense di altre, anche la sorgen-

te apparirà colorata; da questa semplice osservazio-

ne nasce il concetto di temperatura di colore che spie-

ga il fatto che una sorgente ad incandescenza, che

emette il tipico spettro del corpo nero, genera nell’uomo

una sensazione di colore che, al crescere della tem-

peratura della sorgente, va dal rosso, al giallo per ar-

rivare al viola a temperature che sono molto al diso-

pra di quella del sole che è di 5400 K. in figura 10 sono

mostrati i colori di una sorgente ad incandescenza al

crescere della temperatura. il concetto di temperatura

di colore ha una notevole importanza in fotografia,

sia nella fase di cattura dell’immagine, in cui occor-

re illuminare l’oggetto con una sorgente opportuna,

che in quella di sviluppo che, infine, in quell di accesso

in cui la presenza di sorgenti luminose non adegua-

te può alterare la visione dei colori.

Questa breve introduzione ci permette di af-

frontare meglio il problema della misura del colore,

infatti è ora chiaro che ciò che va misurato e quin-

di classificato è la sensazione di un colore da parte

dell’uomo. il più generale e intrigante problema di

come i colori si generino in natura, può per il mo-

mento essere lasciato in secondo piano. Questo non

sarebbe vero se si trattasse ad esempio il problema

delle sostanze coloranti e delle modalità con cui sono

Blu

λ (nm)

400 450 500 550 600 650 700 750

Sens

ibili

Rosso

Verde

λ

Rosso

Blu

Verde

1.3 Formazione dell’immagine a coloriG.E. Gigante, L. residori

Bibliografia

Kenneth Mees C. E, T. H. James, 1966 a cura di, the Silver halide grains, in The Theory of the Photographic Process, N.Y., pp.31-44.

F. Celentano, 1971, Sviluppo del negativo, sensitometria e chimica fotografica, Milano, Il Castello

Kowalisky P., 1973, Applied Photographic theory, N.Y., John Wiley & Sons.

Residori L., 2000a, Struttura e composizione dei materiali fotografici, in Chimica e biologia applicate alla conservazione degli archivi,Pubblicazioni degli Archivi di Stato, Saggi 74, roma, pp. 218-270.

Residori, L., 2000b, Caratteristiche sensitometriche dei materiali fotografici, in Chimica e biologia applicate alla conservazione de-gli archivi, Pubblicazioni degli Archivi di Stato, Saggi 74, roma, pp. 271-295.

Residori L., 2009, Fotografie: materiali fotografici, processi e tecniche, degradazione, analisi e diagnosi, Padova, Il Prato.

Scaramella L., 1999, Fotografia - Storia e riconoscimento dei procedimenti fotografici, Edizioni De Luca.

Woodlief Th. Jr, editor, 1973, SPSE Handbook of Photographic Science and Engineering, Society of Photographic Scientists and Engi-neers, N.Y., John Wiley & Sons.

Page 19: Presentazione - uniroma1.itgiovanni.gigante/Lavori/cap.1-2-3... · 2015-03-16 · Presentazione A. Batori Lorem ipsum dolor sit amet, consectetur adipiscing elit. Nullam tellus mauris,

rivò la possibilità di creare i colori mediantela “sintesi additiva” dei tre colori primari. Ja-mes Clerk Mawell (1831-1879) ne annunciòi principi e ne fece dimostrazione nel 1861.

Si deve invece a Louis Ducos du hauron(1837-1920) il principio della “sintesi sot-trattiva”, (Fig. 13) resa pubblica nel 1862.

La sintesi additiva consiste nella so-vrapposizione lineare dei contributi dei trecolori base. Questo avviene quando siproiettano fasci luminosi su una super-ficie o si osserva la luce proveniente dauno schermo di un televisore. Sovrap-ponendo, ad esempio un fascio di colorerosso ad uno verde si ottiene il giallo, so-vrapponendo un fascio di colore rosso aduno blu si ottiene il magenta, sovrappo-nendo un fascio di colore verde ad unoblu si ottiene il ciano. La sovrapposizionedei tre fasci colorati rosso, verde e blu dàil bianco.

Nella caso della sintesi sottrattiva, trestrati successivi di colore si sommano. Inquesto caso lo strato sovrastante filtraquello sottostante, producendo un ef-fetto molto diverso da quello descrittonella sintesi additiva. In pratica, ad esem-pio, sovrapponendo uno strato giallo aduno magenta si ottiene un colore rosso,uno giallo ad uno blu un colore verde, unociano ad uno magenta un colore blu, so-vrapponendo tutti e tre gli strati si ottieneil nero.

L’autocromia è un processo brevettatodai fratelli Auguste e Louis Lumière nel1907; esso non è più in uso. Il processo si

basava sul principio additivo. L’immaginedell’autocromia è data da un doppio stra-to di granuli di fecola di patate diversa-mente colorati a formare un mosaico. Glistadi del processo sono, nell’ordine: n esposizionen sviluppo del negativon sbianca del negativon esposizione alla luce “bianca”n sviluppon fissaggion lavaggion asciugatura.

Si tratta, in pratica, di un particolaretipo di diapositiva in cui l’immagine è for-mata da granuli rosso-arancio, giallo-ver-de, blu-violetto [residori, 2009]. Nelle au-tocromie erano evidenti dominanti blu eviola.

Il processo a “sviluppo cromogenico” ge-nera, invece, coloranti nei tre strati fo-tosensibili dell’emulsione fotografica:n strato di emulsione sensibile al blun strato di emulsione sensibile al verden strato di emulsione sensibile al rosso

Un filtro giallo è interposto tra il primo edil secondo strato.

Le fasi del il processo sono le seguenti:n esposizione e formazione dell’imma-

gine latente (atomi di Ag del cristallodi AgX);

1.3 La formazione dell’immagine a colori

Fig. 12Esempio di uncatalogo dellaPantone.

Fig. 13Sintesi additiva (asinistra) e sottrattiva(a destra) dei colori.

3736

state impiegate dall’uomo per colorare oggetti e nel-

la produzione artistica. Nel caso della fotografia, po-

tremmo dire fortunatamente, la strada intrapresa

per produrre immagini a colore è quella di stimola-

re la sensazione del colore in una maniera che po-

tremmo dire fisiologica: cioè utilizzando tre pigmenti

come fa l’occhio. Premettiamo che questo approccio,

pure se tecnologicamente utile, non è del tutto

soddisfacente, in quanto vi sono colori che in que-

sta maniera non è possibile generare, vi sono inol-

tre gamme di colori che vengono in una certa misura

preferite rispetto ad altre. i pittori sanno quanto sia

difficile riprodurre un colore con i pigmenti disponibili,

che sono in numero decisamente superiore a tre.

il punto di partenza è quello di osservare quali

sensazioni di colore generino nell’occhio le lun-

ghezze d’onda del visibile, la risposta è semplice sono

quelle tipiche dell’arcobaleno o per essere più pre-

cisi generate in tutti quei casi in cui avviene un fe-

nomeno di dispersione della luce solare. Di qui na-

sce la definizione di bande di colore di cui è composto

lo spettro del visibile: rosso, arancione, giallo, ver-

de, azzurro, indaco e violetto. i colori generati dal-

le lunghezze d’onda dello spettro del visibile sono pre-

se come riferimento nella classificazione degli altri

colori. Essi sono definiti colori puri o saturi.”

Per quanto riguarda la misura del colore si cita-

no di seguito i diversi modelli di rappresentazione:

n Modello di colore CiE-X,Y,Z

n Modello di colore Y,x,y

n Sistema CiELab

Fig. 10Colori che vengono

percepiti al cresceredella temperatura diuna sorgente di luce

ad incandescenza.

Fig. 11rappresentazione

schematica dellaclassificazione deicolori proposta da

Munsell.

Teoria dell’immagine analogica

1800k 4000K 5500K 8000K 12000K 16000K

Value

Chroma

Hue

Purple

Red-Purple RedYellow-Red

Yellow

Green-Yellow

Green

Blue-Green

BluePurple-Blue

10

8

6

5

4

2

0

4681012 2 0

Munsell Color System

∫2 ∫4 ∫6 ∫8 ∫10 ∫12 ∫14 ∫16 ∫18 ∫20 ∫22 ∫24 ∫26

VALU

E

CHROMA

9∫

8∫

7∫

6∫

5∫

4∫

3∫

2∫

1∫

n Lo spazio di colore rGB e srGB

n Modello CMYK

n Modelli di colore HSV, HLS

Facendo ancora riferimento quanto pub-blicato da Gigante nel 2009, si evidenziaanche l’uso di “atlanti e cataloghi” di co-lori che, mediante un confronto diretto,permettono di stabilire se due superficihanno lo stesso colore. Gigante porta adesempio il Munsel Book of Colors (Fig. 11) lacui idea parte da tre variabili: tinta, sa-turazione e luminanza (o valore).

Un altro esempio è la Scala Pantone ri-prodotta in figura 12.

1.3.b Processi fotografici a colori

I processi fotografici a colori più notisono: n autocromian cromogenian sbiancamenton trasferimento di coloranten trasferimento di immagine.

Prima di riassumerne i principi, le fasi ele applicazioni, fatto salvo, come si è det-to, che la fotografia a colori si basa sullateoria del colore inteso come sensazione,cioè come fenomeno psicofisico, si pre-mette che proprio da questi elementi de-

Page 20: Presentazione - uniroma1.itgiovanni.gigante/Lavori/cap.1-2-3... · 2015-03-16 · Presentazione A. Batori Lorem ipsum dolor sit amet, consectetur adipiscing elit. Nullam tellus mauris,

Le pellicole fotografiche a colori hanno trestrati sovrapposti: uno sensibile al blu,quello sottostante sensibile al verde, l’ul-timo al rosso. Ciascuno strato, con l’espo-sizione, forma una immagine latentenello strato sensibile alla radiazione at-tinica incidente. Le parti bianche dellascena fotografata impressionano i trestrati, le parti nere non le impressionano.

Per quanto riguarda lo sviluppo cro-mogeno, a quanto detto si può aggiun-gere che i coloranti che costituisconol’immagine si formano in funzione dellosviluppo dell’argento:n sviluppo delle tre immagini latenti (in

pratica tre negativi in bianco e nerocon diverse gradazioni di grigio)

n una seconda esposizione per i sali diargento residui

n un secondo sviluppo in cui i sali d’ar-gento residui di cui sopra reagisconocon i copulanti ed i coloranti presentinell’emulsione o nel bagno di sviluppo

n formazione di tre immagini colorate(giallo per lo strato sensibile al blu, ma-genta per lo strato sensibile al verde,ciano per quello sensibile al rosso)

n eliminazione completa dell’argentomediante un trattamento di sbianca

n i tre coloranti formano un’immaginepositiva a colori (pellicole invertibili)

La pellicola “Kodachrome”, diversamen-te dalle altre, non contiene copulantichimici cromogeni nell’emulsione, maciascuno dei tre copulanti è, invece, in-corporato in una diversa soluzione disviluppo.

Il processo prevede:n rimozione dell’antialon primo sviluppon riesposizione alla luce rossan sviluppo con copulante cianon riesposizione alla luce blun sviluppo con copulante giallon sviluppo per produrre velo e forma-

zione di copulante magentan sbiancan fissaggio.

è evidentemente un processo com-plesso e che richiede un controllo moltosevero delle condizioni del trattamento.Per queste ragioni esso verrà qui di se-

guito descritto nel dettaglio. Le particolarità più evidenti delle pelli-

cole Kodachrome sono relative alla com-posizione dell’emulsione ed al tratta-mento chimico di sviluppo. Le pellicolesono molto nitide ed hanno una granaestremamente fine, di moderata e mediarapidità.

Come si è detto, i copulanti cromoge-ni non sono nell’emulsione, ma incorpo-rati nelle soluzioni di sviluppo. Poiché evi-dentemente non è possibile incorporarei copulanti in un’unica soluzione in mododa formare contemporaneamente tuttie tre i coloranti, sono impiegate soluzio-ni separate; ciascuna soluzione contieneun solo tipo di copulante.

Si riporta di seguito il procedimentocosì come è citato [Kodak, 1982].

Trattamento

La composizione della pellicola Kodachrome è sta-

ta perfezionata varie volte dal momento della sua

invenzione avvenuta nel 1935 per opera di Mannes

e Godowsky, e anche i prodotti chimici per il trat-

tamento sono stati perfezionati. Con le moderne pel-

licole Kodachrome attualmente viene usato il Pro-

cess K-14. Le fasi fondamentali sono descritte qui di

seguito.

Asportazione dello strato antialone

il rivestimento antialone nero presente sul sup-

porto della pellicola viene ammorbidito ed asportato

in modo da poter effettuare l’esposizione di inver-

sione a luce rossa attraverso il supporto della pel-

licola.

38 guenti reazioni:

sviluppo + 2Ag+X- 2Ag° + 2H+X- + sviluppo ossidato

sviluppo ossidato + copulante leucocolorante coloran-te + 2Ag° + 2H+X-

Lo sviluppo ossidato reagisce con il copulante dando un com-posto intermedio (leucolorante); segue la formazione dei co-loranti giallo, ciano e magenta. A titolo di esempio, il proces-so chimico completo per la formazione di un colorante, cianoin questo caso, consiste nei seguenti stadi e reazioni:

n sviluppo degli AgX* foto attivati nei tre strati fotosensibili;n formazione dell’immagine negativa di argento in bianco e

nero in ciascuno dei tre strati;n seconda esposizione che attiva gli AgX non esposti:n secondo sviluppo e formazione di Ag°;n formazione coloranti complementari (giallo, magenta, ciano);n sbianca (ossidazione e rimozione di Ag dall’emulsione).

Per la sbianca si utilizza, in genere, ferricianuro o bicromato.La formazione dell’immagine negativa di argento e di quellasuccessiva a colori consistono, schematicamente, nelle se-

Teoria dell’immagine analogica

NH2

N

C2H5 CH2 CH2OH

+ 2 Ag + X - alcali

NH2

C2H5 CH2 CH2OH

N

+ 2 Ag + 2H + X -

1

+ Ag +

3

NH

N

C H5 CH2 CH OH

O

Leuco colorante Colorante ciano

N

N

C2H5 CH2 CH2OH

O

N

N

C2H5 CH2 CH2OH

O

+

NH

N

C2H5 CH2 CH2OH

NH2

C2H5 CH2 CH2OH

N

OH

CONHalcali

+

O

CONH

2

1.3 La formazione dell’immagine a colori

*Il filtro giallo che sitrova al di sotto dellostrato di emulsionesensibile al blu èeliminato con iltrattamento dellapellicola

** Il sottostrato faaderire le emulsioni alsupporto dellapellicola

*** Lo schema siriferisce, inparticolare, allapellicola Ektachrome

**** L’antialo si trovanella parte inferioredel supporto oppurenel sottostrato.

39Emulsione sensibile al blu

Filtro giallo*

Emulsione sensibile al verde

Emulsione sensibile al rosso

Sottostrato **

Diapositive a colori***Sezione

Supporto (plastica o vetro)

Strato antialo ****

Page 21: Presentazione - uniroma1.itgiovanni.gigante/Lavori/cap.1-2-3... · 2015-03-16 · Presentazione A. Batori Lorem ipsum dolor sit amet, consectetur adipiscing elit. Nullam tellus mauris,

Dopo lo sviluppo del negativo, non è ri-chiesta la mascheratura per la correzio-ne dei colori, in quanto essa è data, comesi è detto, dai copulanti residui incorpo-rati nella pellicola stessa.

Si procede, quindi, alla fase di stampa(proiezione dell’immagine negativa sul-la carta fotosensibile a colori) e successivosviluppo: n esposizione in camera oscura e foto

attivazione di AgX* n formazione di argento metallico e di

coloranti nei tre strati dell’emulsionen sbiancan lavaggion asciugatura.

Dal negativo si ottengono stampe po-sitive su carta, oppure si possono produr-re trasparenze a colori anche di grande for-mato.

“Ci sono due tipi principali di carta da stampa a co-

lori: quelle positive e quelle invertibili. la carta po-

sitiva è utilizzata quando si stampa a partire da un

negativo a colori che incorpora copulanti cromo-

geni. Quando, invece, si impiega per la ripresa una

pellicola a colori diapositiva, allora si deve utiliz-

zare per la stampa una carta invertibile. in questo

ultimo caso non c’è possibilità di utilizzare quella

forma di mascheratura data, nei negativi, dai co-

pulanti cromogeni residui e risulta, così, più difficile

ottenere una buona fedeltà della riproduzione dei

colori. Per queste ragioni, quando è possibile, si ri-

corre al sistema Cibachrome, sistema che, si è visto,

non si basa sul processo con copulanti cromogeni,

bensì sul processo di sbianca. tuttavia, si deve te-

nere presente che il sistema Cibachrome non è

adatto per tutti gli usi. in particolare, la sensibilità

(rapidità) dei materiali fotografici non è molto ele-

vata e, quindi, adatta a riprese in movimento, ma

piuttosto per quelle statiche, quali la riproduzione

di quadri, mappe e documenti con elementi colo-

rati.” [residori, 2009]

Dai negativi a colori è anche possibileottenere stampe in bianco e nero su car-te adatte a questo scopo specifico.

Nel processo di “sbianca-fissaggio a di-struzione dei coloranti” i coloranti, invece diformarsi, vengono selettivamente di-strutti formando immagini positive di-rette.

Sia che si tratti di pellicola o carta,ognuno dei tre strati fotosensibili incor-pora il colorante complementare al colorecui lo strato è sensibile. A seguito del-l’esposizione e dello sviluppo, si ha la di-struzione del colorante nelle zone espo-ste e la formazione di argento metallicoin corrispondenza, naturalmente in modoproporzionale alle intensità relative del-le radiazioni incidenti. L’argento metalli-co viene rimosso completamente conun trattamento di sbianca ed il risultatofinale è una immagine positiva diretta.Un esempio molto noto di un processo di

questo tipo è quello Cibachrome, apprez-zato per le sue caratteristiche di stabili-tà e di fedeltà cromatica, ma limitato nel-l’impiego per la bassa rapidità.

Il processo a “trasferimento di coloranti”è sottrattivo. In pratica, tre immagini (se-lezioni in bianco e nero) vengono trasferitea registro su un supporto di carta per pro-durre una stampa fotografica; il vantag-gio di questo metodo è quello di potereapportare correzioni e variazioni, modi-ficando ad esempio il bilanciamento cro-matico. Si utilizza materiale fotosensibi-le al bicromato; la stampa è a regi-stro.[residori, 2009]

Infine, qualche cenno sul “processo a tra-sferimento di immagine”. Un tipico esempioè quello della Polaroid, processo in cui i co-loranti sono attaccati ai radicali idrochi-nonici e incorporati nell’emulsione.

“A ciascuno strato fotosensibile è affiancato un

altro strato in cui c’è il colorante complementare

(giallo, magenta, ciano) associato ad un rivelato-

re. Lo sviluppo riduce l’alogenuro di argento attivato

ad Ag° (si forma una immagine negativa in ciascu-

no dei tre strati); nelle zone impressionate i coloranti

si fissano in unione con il rivelatore e non possono

migrare. Nelle altre zone, invece, i coloranti si tra-

sferiscono da uno strato all’altro verso il materiale

ricevente su cui si forma l’immagine a colori” [re-

sidori, 2009].

1.3 La formazione dell’immagine a colori

4140

Teoria dell’immagine analogica

Riesposizione alla luce rossa

La pellicola viene esposta attraverso il supporto ad una luce rossa filtrata,

in modo che le densità negative in argento degli altri strati non interferiscano

con l’esposizione. Sono così esposti soltanto gli alogenuri d’argento dello stra-

to inferiore che non sono stati sviluppati in precedenza; gli altri due strati non

sono sensibili alla luce rossa e pertanto non sono impressionati.

Rivelatore Cyan

L’immagine positiva esposta di alogenuri di argento nello strato sensibile al

rosso è sviluppata con una soluzione che contiene un copulante cyan, cosicché

assieme all’immagine positiva in argento viene formata l’immagine positiva cyan.

Riesposizione alla luce blu

La pellicola è esposta dal lato dell’emulsione a una luce blu filtrata. Soltan-

to lo strato superiore viene influenzato, perché il filtro giallo posto immedia-

tamente al di sotto di esso impedisce alla luce blu di raggiungere lo stato in-

termedio dell’emulsione.

Rivelatore giallo

Viene sviluppata l’immagine positiva di alogenuri di argento appena esposta

nello strato d’ emulsione sensibile al blu, e un copulante formatore di giallo pre-

sente nel rivelatore forma la corrispondente immagine in colorante giallo.

Rivelatore magenta formatore di velo

Per preparare per lo sviluppo gli alogenuri d’argento dello strato interme-

dio dell’emulsione non viene usata una riesposizione, poiché l’argento svilup-

pato nello strato superiore e in quello inferiore bloccherebbe la luce.

È invece usato un rivelatore che produce velo. Questa soluzione rende svi-

luppabili mediante azione chimica gli alogenuri restanti nello strato sensibi-

le al verde, e quindi sviluppa l’immagine positiva in argento qui formata. Si-

multaneamente, dei copulanti formatori di colorante magenta presenti nel ri-

velatore formano l’immagine positiva magenta.

Sbianchimento

tutto l’argento è stato sviluppato; ora viene sbiancato e riportato allo sta-

to di alogenuro d’argento, e anche il filtro giallo, che è composto di argento col-

loidale, viene convertito in alogenuro d’argento.

Fissaggio

tutto l’alogenuro d’argento formato nella fase di sbianchimento è convertito dal

fissaggio in composti solubili d’argento; questi composti si dissolvono nel bagno

di fissaggio e nel lavaggio. Le immagini positive dei coloranti rimangono nei tre

strati per formare una rappresentazione del soggetto a pieni colori.”

Nel caso del procedimento a colori “negativo-positivo a svi-luppo cromogeno”, i coloranti si formano con la riduzione ad ar-gento metallico Ag0 degli alogenuri di argento AgX* esposti edattivati; lo sbianchimento elimina l’immagine negativa di ar-gento e resta, quindi, soltanto quella negativa formata dai co-loranti. Lo sbianchimento ed il fissaggio possono essere com-binati insieme. Il tono bruno arancio, che appare osservandoin trasparenza il negativo così sviluppato, dipende dalla presenzadei copulanti cromogeni residui. In assenza dei copulanti resi-dui, il negativo mostra chiaramente i colori complementari aquelli originali del soggetto o della scena fotografata.

Un semplice schema della sezione di una pellicola negativaè il seguente:

Il negativo funge da matrice per ottenere un numero indefi-nito di stampe positive. Le pellicole negative che producono ne-gativi a colori sono riconoscibili dal suffisso color che segue ilnome commerciale della casa produttrice.

Emulsione sensibile al blu

Filtro giallo

Emulsione sensibile al verde

Emulsione sensibile al rosso

Negativi a colori - Sezione Supporto (plastica o vetro)

Strato antialo

Page 22: Presentazione - uniroma1.itgiovanni.gigante/Lavori/cap.1-2-3... · 2015-03-16 · Presentazione A. Batori Lorem ipsum dolor sit amet, consectetur adipiscing elit. Nullam tellus mauris,

Bibliografia

Kodak, 1982, La fotografia per tutti - Grande Enciclopedia Pratica, Novara, Istituto Geografico De Agostini

Residori L., Fotografie-materiali fotografici, processi e tecniche, degradazione, analisi e diagnosi, Padova, il prato casa editrice, 2009, pp. 302

Le seguenti voci bibliografiche sono interamente tratte da volume residori? Trovare altrimenti una collocazione all’interno op-pure cancellareAA.VV., The Theory of the Photographic Process, third edition edited by T.h. James, N.Y., Macmillan, 1966

C. Oleari (a cura di), , Misurare il colore, hoepli, 1998

Carroll B. H., Higgins G. C., James T. H., introduction to Photographic theory - the Silver Halide Process, N.Y., John Wiley & Sons,1980

Celentano F., Sviluppo del negativo, sensitometria e chimica fotografica, Milano, Il Castello, 1871

Agoston G. A., Color theory and its Application in Art and Design, Sprinter, 1987 (II ed.)

Wyszecki G., W.S. Stiles, Color Science: Concepts and Methods, Quantitative data and Formulae, Wiley, 1982 (II ed.)

Ghedina O.F., Foto ricettario-formule, procedimenti, tecniche, 4a edizione, Milano, hoepli,.s.a.,

International Centre of Photography - Enciclopedia of Photography, N.Y, Pound Press Book-Crown Publishers Inc., 1984

Kowaliski P., Applied Photographic Theory, London, J. Wiley & Sons, 1972

Fairchild M.D., Color Appaerance Models, Addison Wesley, 1998

Hunt R.W.G., Measuring color, Fountain Press, 1998 (III ed.)

S.A., International Centre of Photography - Enciclopedia of Photography, N.Y, Pound Press Book-Crown Publishers Inc., 1984

Society of Photographic Scientists and Engineers, SPSE Handbook of Photographic Science and Engineering, edited by WoodliefThomas Jr., N.Y., John Wiley & Sons, 1973

Weissberger A., Priciples and Chemistry of Color Photography, in The Theory of the Photographic Process, third edition edited by T.h.James, N.Y, Mcmillan Company

1.3 Teoria dell’immagine analogica

4342 Fig. 14Carta test colore

Kodak.

Fig. 15Stampa a sviluppo

a colori (autoreLuciano residori).

Teoria dell’immagine analogica

Page 23: Presentazione - uniroma1.itgiovanni.gigante/Lavori/cap.1-2-3... · 2015-03-16 · Presentazione A. Batori Lorem ipsum dolor sit amet, consectetur adipiscing elit. Nullam tellus mauris,

2.1 Composizione dell’immagine digitaleG.E. Gigante, F. Liberati, E. Giuzio, M.Lauria

Negli ultimi anni la rivoluzione digita-le ha svolto un ruolo fondamentale nel-lo sviluppo del sistema di comunicazioneglobale decretando un irreversibile cam-biamento e superamento delle esistentitecnologie analogiche. Il passaggio aldigitale ha permesso, ad una grande edeterogenea platea di utenti, di moltipli-care archiviare e condividere il proprio pa-trimonio culturale attraverso sistemielettronici sempre più economici e raffi-nati. La fotografia è stata coinvolta com-pletamente in questo processo: da unacattura su supporto analogico di un nu-mero limitato e non immediatamente ac-cessibile di riprese, si è passati a innova-tivi dispositivi che consentono una mol-titudine di provini, direttamente modifi-cabili e condivisibili, aventi qualità riso-lutiva superiore rispetto alle tradiziona-li tecnologie. Dal 1983, anno in cui per laprima volta è stata presentata la mac-china fotografica digitale, ad oggi si è as-sistito ad un miglioramento delle tecni-che e degli strumenti di ripresa che han-no modificato profondamente il merca-to e le professionalità esistenti. I molte-plici vantaggi offerti dalle immagini di-gitali, facilmente elaborabili ed estre-mamente versatili, hanno coinvolto an-che altri settori legati alla ripresa come adesempio l’audiovisivo e, in particolare, lacinematografia. Questo ha consentitol’approfondimento ed il sostegno di ri-cerche incentrate sullo sviluppo di di-spositivi di acquisizione con definizionesempre più accurate, supporti di me-morizzazione con grandi capacità e si-

stemi di riproduzione di elevata qualità efedeltà.

2.1.a Acquisizione digitale

L’immagine come entità astratta è il ri-sultato di un processo chimico e fisico chesi completa nella struttura cerebrale de-gli esseri viventi. Gli organi interessati allacattura e alla sintesi delle immagini for-mano l’apparato visivo. ogni essere vi-vente ha un sistema di percezione visivostrutturato in base alle caratteristiche am-bientali e naturali ed ognuno presenta del-le differenze biologiche e fisiche diverse.Prima di procedere è opportuno ricorda-re che, oltre alle considerazioni filosofichedella nozione di forma e di immagine diAristotele, le prime rilevanti teorie relativeai fenomeni ottici, le lenti ed i concetti ri-guardanti il meccanismo della visionefurono ricavati nel XVII secolo dagli studidi G.B. Della Porta, G. Klepero e G. Galilei.Un grande interesse per considerazioni fi-siche e mediche, nel XVIII secolo, rivesti-rono i lavori di I. Newton e, più tardi di T.Young, che risultarono fondamentali perla comprensione di come avviene la per-cezione visiva dell’uomo e la sintesi dei co-lori. Tutte queste nozioni ed esperienzecontribuirono, alla fine del XIX secolo, coni lavori sperimentali di J. Maxwell e T.Sutton, alla realizzazione della prima fo-tocamera e alla nascita della fotografiamoderna ed un secolo più tardi, con l’av-vento dell’informatica, alle prime mac-chine di ripresa digitali.

L’occhio umano è costituito da un or-

gano sferico, detto bulbo oculare, cir-condato da tre membrane deputate allafunzione visiva: la cornea (trasparente,parte anteriore) e la sclera (opaca, parteposteriore) la coroide, ricca di vasi san-guigni e di pigmenti; ed infine, la retina,contenente i ricettori fotosensibili. L’estre-mità anteriore della coroide costituiscel’iride, un diaframma che si contrae e siespande per regolare la quantità di luceentrante nell’occhio. L’apertura centraledell’iride è la pupilla e nella cavità inter-na sono presenti i mezzi di rifrazione(umore vitreo, lente e corpo vitreo). Lalente, o cristallino, assorbe circa un de-cimo della luce incidente in maniera nonuniforme rispetto allo spettro della lucevisibile, mentre non è in grado di effet-tuare alcun tipo di contrasto sia alla ra-diazione infrarossa che all’ultravioletta.La luce, dopo il passaggio attraverso il cri-stallino, giunge alla retina che occupa l’in-tera parete posteriore dell’occhio.

I recettori presenti sulla superficie del-la retina sono di due tipi: coni e baston-celli. I coni, che variano da 6 a 7 milioni perbulbo oculare, sono concentrati princi-palmente nella porzione centrale della re-tina, la fovea, e sono sensibili al colore.Questi sono attivati in condizioni di illu-minazione di intensità medio-alta e perquesto sono responsabili della visionediurna. La forte concentrazione dei conied il fatto che ogni cono sia collegato aduna fibra nervosa danno all’occhio la ca-pacità di discriminare dettagli molto finiin condizioni di illuminazione medio-alta. I bastoncelli, da 75 a 150 milioni per

45

Teoria dell’immagine digitale22.1 Composizione dell’immagine digitale

2.1.a Acquisizione digitale2.1.b Immagine digitale

2.2 Teoria della compressione dati 2.2.a Nozioni basilari di teoria dell’informazione2.2.b Algoritmi di compressione

2.3 Teoria della compressione applicata all’immagine digitale 2.3.a Codifica delle immagini2.3.b Algoritmi di compressione sulle immagini

Page 24: Presentazione - uniroma1.itgiovanni.gigante/Lavori/cap.1-2-3... · 2015-03-16 · Presentazione A. Batori Lorem ipsum dolor sit amet, consectetur adipiscing elit. Nullam tellus mauris,

un filtro distinto, per acquisire ciascunouna componente cromatica specifica(acquisizione a tre sensori) dell’interaimmagine. Una volta generate le diffe-renti variazioni elettriche, una circuiteriadedicata le amplifica e le campiona pro-ducendo l’informazione numerica. Allafine di questo processo ogni valore avràun’associazione ad una gradazione digrigio o ad un colore, secondo opportu-ni modelli, e potrà essere elaborato da uncalcolatore elettronico [Stuart, 2006].

In generale è possibile definire unaimmagine come il luogo di incontro deiraggi, riflessi da uno specchio, prove-nienti da un fascio di raggi uscenti da unasorgente. Nel sistema visivo umano que-sto si concretizza con il passaggio del-l’energia luminosa che viene messa afuoco, transitando attraverso la corneae il cristallino, sulla retina prima di esse-re assorbita dalla pigmentazione foto-sensibile dei recettori. Nei coni questa pig-mentazione è di tre tipi, il che li rende sen-sibili a differenti gamme spettrali checombinate insieme favoriscono la per-cezione dei colori. Concretamente av-viene una modifica, da parte dei coni, del-la propria configurazione molecolare conrelativa generazione di un potenzialed’azione che avvia la trasmissione del-l’impulso nervoso. Il sistema visivo uma-no risponde alla radiazione elettroma-gnetica nel campo del visibile tra 360nme 800nm circa (Fig. 3), anche se la sensi-bilità dell’occhio è molto ridotta tra360nm e 410nm e tra 720nm e 800nm.Una volta convertita l’energia della ra-

diazione elettromagnetica, cioè la luce,in segnali elettrochimici questi ultimivengono convogliati verso la corteccia ce-rebrale attraverso le fibre nervose che co-stituiscono il nervo ottico. Una volta ar-rivato il segnale il cervello costruiscel’immagine visiva in accordo con le teoriesulla percezione e sulla psicologia dellaforma [halliday et al., 2006].

In una macchina fotografica a pellico-la la luce viene fatta convergere da unalente (l’obiettivo) attraverso un’aperturae un otturatore fino a raggiungere unaporzione di pellicola posizionata sul pia-no focale. Chiudendo e aprendo l’aperturae variando il tempo dell’otturatore è pos-sibile controllare come la pellicola vieneesposta. Quest’ultima operazione con-sente il cambio di livello al quale la mac-china cattura l’azione, determina quantoaccuratamente la pellicola registra le in-formazioni sul contrasto e sulla satura-zione e analizza quali parti dell’immagi-ne risultano a fuoco. Una volta fissata,

l’immagine viene impressa sulla pellicola[Freeman, 2005].

Nei dispositivi di acquisizioni digitale ilsensore campiona la luce che passa at-traverso l’obiettivo e la converte in segnalielettrici. Si tratta di segnali molto debo-li che devono essere prima amplificati edin seguito inviati ad un convertitore ana-logico-digitale (un particolare strumen-to che trasforma i segnali, corrispon-denti a gradazioni di grigio o ai colori, innumeri). Questi valori che hanno una rap-presentazione in stringhe binarie posso-

2.1 Teorie dell’immagine digitale

4746 bulbo oculare, sono distribuiti in modopiù uniforme sull’intera superficie della re-tina e sono praticamente insensibili al co-lore; questi sono resi operanti in condi-zioni di illuminazione di bassa intensità(visione notturna). Inoltre, la distribu-zione in un’area più ampia e la congiun-zione di più bastoncelli con un’unica fibranervosa diminuisce la capacità di cerni-ta dei dettagli: i bastoncelli danno cioèun’immagine globale e meno precisa del-la scena presente nel campo visivo. Perquesti motivi la visione notturna è ca-ratterizzata dalla assenza di colore e dascarsa acuità [Sears,1985].

Nel campo della fotografia tradiziona-le la scena è ripresa grazie ad un disposi-tivo noto come macchina fotografica(Fig. 1). Questa ha una struttura in parteanaloga a quanto descritto ed è costituitada tre componenti principali: il corpomacchina, l’obiettivo e la pellicola. Il cor-po macchina è una cassa rigida a tenutadi luce con elementi ottico-meccanici (ilmirino, il pentaprisma, l’otturatore) checonsentono il controllo dell’immagine e

dei suoi parametri, ed elementi elettro-meccanici per la gestione del lavoro fo-tografico (la profondità di campo o l’avan-zamento della pellicola). L’obiettivo ècomposto da un insieme di lenti sferichemontate in un contenitore cilindrico,dotato di ghiere per la messa a fuoco e perl’apertura del diaframma; questo ulti-mo ha lo scopo di ridurre a misura l’in-tensità del fascio di luce che arriva sullapellicola. La pellicola è costituita da unsupporto, generalmente triacetato dicellulosa, su cui è fissata una gelatina nel-la quale sono dispersi i sali di argento (cioèi cristalli che formano la grana) sensibilialla luce e la cui funzione è quella di fis-sare l’informazione ottica. Quando laluce colpisce i cristalli si forma l’immagi-ne latente e, in seguito, si produce il ne-gativo. Variando la dimensione dei cristallid’argento si può variare la sensibilità del-la pellicola, cioè la sua capacità di pro-durre l’immagine in condizioni di illumi-nazione diverse. Il contrasto, cioè la ca-pacità della pellicola di registrare forti dif-ferenze di luminosità del soggetto, è vi-ceversa inversamente proporzionale allasensibilità ed alla dimensione dei cri-stalli. Per poter valutare la sensibilità diuna pellicola, rispetto ad un’altra, esi-stono diversi sistemi di lettura, i più co-muni sono gli indici unificati ASA, ISo eDIN [Ang, 2007].

rispetto ad una macchina fotograficaanalogica, che cattura la luce attraversoun sistema di lenti (obiettivo) ed imprimel’informazione visiva sulla pellicola, un di-spositivo di acquisizione digitale fissa la

scena su un sensore ottico digitale. Isensori digitali ebbero il loro sviluppo incampo astronomico, all’inizio degli anni’80 del XX secolo, grazie alla loro carat-teristica di minimizzare il rumore di fon-do (dovuto alla lunga esposizione) ed inbreve tempo estesero la loro versatilità indiversi domini applicativi, in primo luogoquello fotografico. Il sensore digitale è ingrado di misurare e catturare la quanti-tà di fotoni (la luce) che lo raggiunge. Lasuperficie del sensore è formata da mi-nuscoli fotositi disposti secondo una gri-glia regolare (si ha cioè, una campiona-tura spaziale intrinseca). Praticamenteogni fotosito corrisponde ad un granulodella pellicola fotografica, solo che i gra-nuli sono posti in maniera non uniformenella pellicola, mentre i fotositi sonoperfettamente allineati in righe e colon-ne riportando così un’informazione piùcorretta dell’immagine osservata. Que-sti fotositi sono microsensori che effet-tuano la conversione da fotoni in elettroni(corrente elettrica) in relazione alla quan-tità di energia elettromagnetica mediache viene rilevata (Fig. 2).

ogni gradazione di grigio, infatti, hauna sua determinata quantità di energia;viceversa per la sintesi dei colori si usanodei filtri per discriminare le componenticromatiche. I filtri possono essere usatisui fotositi di un singolo sensore ed inquesto caso c’è una adeguata disloca-zione che porta ad una interpolazionecromatica (ad esempio il Pattern di Ba-yern). In alternativa possono essere pre-disposti dei sensori dedicati, ognuno con

Teoria dell’immagine digitale

Fig. 1Componenti principali

della macchinafotografica: corpomacchina (grigio),

lenti (azzurro),pellicola (rosso).

1

0,8

0,6

0,4

0,2

0

lunghezza d’onda

400 450 500 550 600 650 700 nm

400 450 500 00 4 550 600 650 700 50 500 550 600 65050 500

Fig. 2 Componenti principalidi un sensore ottico.

Fig. 3Curve di risposta deidiversi tipi di coni infunzione della lun-ghezza d’onda.

Page 25: Presentazione - uniroma1.itgiovanni.gigante/Lavori/cap.1-2-3... · 2015-03-16 · Presentazione A. Batori Lorem ipsum dolor sit amet, consectetur adipiscing elit. Nullam tellus mauris,

livelli) cioè la trasformazione in valorinumerici del segnale analogico nel-l’istante di rilevamento;

n la fase di codifica che permette di ot-tenere il segnale nella forma numericafinale (ovviamente nel caso di ripro-duzione del segnale si seguirà il proce-dimento inverso, trasformando il va-lore numerico discreto in segnaleanalogico). A questo ultimo aspettoprovvede un circuito che può avere ca-ratteristiche architetturali più o menoraffinate con un diverso tipo di accu-ratezza: lo ADC (Convertitore Analo-gico Digitale - Analogic to Digital Con-verter) che trasforma i segnalianalogici in digitali. ovviamente nelcaso inverso sarà utilizzato il DAC(Convertitore Digitale Analogico - Di-gital to Analogic Converter) che muta isegnali digitali in analogici [Jain, 1989].

Con il processo di campionamento siconsiderano solamente i valori che il se-gnale ha in istanti di tempo prefissati.L’andamento del segnale nei rimanentipunti può essere ricostruito a partire daivalori conosciuti, a patto che questi ultimicorrispondano ad un numero finito diistanti sufficientemente vicini tra loro. Al-trettanto intuitivamente si può capire chese il segnale varia rapidamente i valori ri-levati devono essere più vicini tra loro,così che tra un campione e l’altro non visia una insufficiente descrizione dellevariazioni imprevedibili. La distanza tradue successivi valori noti del segnale è so-

litamente detta “passo” o periodo di cam-pionamento ed i valori assunti dal segnalenegli istanti noti sono i campioni del se-gnale (Fig. 4).

La rapidità con cui un segnale varia è le-gata al suo contenuto in frequenza (se-gnali con un alto contenuto in frequen-za variano più rapidamente); per questo,la scelta del passo di campionamentodeve essere legata alla banda di fre-quenze dal segnale.

Il valore del periodo di campionamen-to, TC, viene scelto in base al cosiddettoTeorema del Campionamento (o Teoremadi Shannon). Il teorema afferma che il nu-mero dei campioni nell’unità di tempodeve essere almeno pari al doppio dellafrequenza massima del segnale che sivuol produrre; il numero di campioniconsiderato nell’unità di tempo si chiamafrequenza di campionamento del se-gnale, fc ed è correlata al periodo di cam-pionamento dalla §3.

1fc = §3

tc

In altre parole un segnale analogico può es-sere ricostruito a partire dalla sua versio-ne campionata, se e solo se il segnale ori-ginale è a banda limitata tra –h e +h, e seil periodo di campionamento TC è minoredell’inverso del doppio della frequenza piùalta del segnale originale [Gonzales et al.,2007]: cioè deve valere la §4.

1tc < §4

2h

Se non si rispetta il teorema, con il se-gnale campionato non si riesce a descri-vere esattamente il segnale analogico dipartenza, e si hanno delle aberrazione in-desiderate. Quest’ultimo fenomeno de-scritto prende il nome di aliasing (Fig. 6).

Il secondo aspetto che caratterizza ilprocesso di acquisizione digitale è laquantizzazione. Tramite il campiona-mento è possibile descrivere un segnalespecificandone il valore assunto in un nu-mero finito di istanti opportunamentespaziati. Anche dopo che è stato cam-pionato, però, il segnale non è in una for-ma utile per essere manipolato da un ela-boratore elettronico. Una rappresenta-zione esatta dei singoli campioni, infatti,potrebbe richiedere una quantità di me-moria infinita. Si consideri, ad esempio, ilcaso di un campione che assume un valoredi tipo logaritmico: questo potrà essere unnumero reale con infinite cifre decimali equindi la sua rappresentazione esatta ri-chiederebbe una quantità di memoriainfinita.

In generale non si è interessati al valo-

2.1 Teorie dell’immagine digitale

4948 no, in seguito, essere elaborati (miglio-ramento del contrasto, ricerca del con-torno) o memorizzati su adeguati sup-porti digitali (dischi e nastri).

I sensori digitali si dividono in duegrandi categorie: i dispositivi ad accop-piamento di carica (CCD, Charge CoupledDevice) e i semiconduttori (CMoS, Com-plementary Metal oxide Semiconduc-tor). Il CCD è una matrice (serie ordinatain forma di tabella) di condensatori,ognuno dei quali ha la capacità di im-magazzinare cariche elettriche; in altreparole, i condensatori della matrice sonogli elementi di immagine (i fotositi che inquesto caso vengono detti pixel, acroni-mo di picture elements) del CCD. I pixel sicaricano per effetto fotoelettrico, cheavviene quando un fotone di luce colpi-sce il materiale fotosensibile del disposi-tivo e viene convertito in carica elettrica;i pixel conservano questa carica finché uncircuito elettrico è collegato al CCD. Aquesto punto il valore della carica im-magazzinato in ogni pixel è amplificato,convertito in un valore numerico e poi tra-sferito nell’elaboratore elettronico peressere memorizzato, processato o vi-sualizzato. I CMoS, invece, hanno lamaggior parte dell’elettronica (l’amplifi-cazione del segnale elettronico, la con-versione analogica-digitale e l’elabora-zione relativa ad ogni pixel) direttamen-te nel circuito integrato [howell, 2006].Attualmente, vi sono sensori digitali al si-licio in grado di assorbire differenti lun-ghezze d’onda di luce a differenti strati diprofondità; in questo modo, si ottiene

una maggiore nitidezza e l’eliminazionedi artefatti dovuti alla interpolazionecromatica dei recettori.

2.1.b Immagine digitale

Una immagine analogica può essere de-scritta come la distribuzione spaziale dienergia radiante prodotta da una sor-gente luminosa ed esprimibile medianteuna funzione reale limitata e non nega-tiva rispetto alle variabili spaziali e tem-porali:

f = f (x, y, λ, t) §1

L’immagine effettivamente percepita èla funzione §1 modificata secondo unamedia temporale e una media rispettoalla lunghezza d’onda. In altre parolel’immagine può essere caratterizzatacome una distribuzione bidimensionaledi intensità luminosa, detta irradianza (oilluminanza). L’irradianza può essere rap-presentata mediante l’influenza di duetermini (§2): l’illuminazione i(x,y) e la ri-flettanza r(x,y).

f (x, y) = i(x, y)+r (x, y) §2

con i(x, y) > 0 e 0 < r (x, y)

L’immagine è cioè costituita da unacomponente dovuta alla luce prove-niente direttamente dalla sorgente di il-luminazione e da una componente do-vuta alla luce riflessa dagli oggetti pre-senti nella scena. L’illuminazione è re-sponsabile delle piccole (o lente) varia-zioni di luminosità (basse frequenze spa-ziali), mentre la riflettanza dà luogo alle

variazioni brusche di luminosità, peresempio in corrispondenza dei contornidegli oggetti (alte frequenze spaziali). L’ef-fettiva natura di i(x,y) è determinata dal-la sorgente luminosa, mentre r(x,y) di-pende dalle caratteristiche degli ogget-ti presenti nella scena (Tabella 1) e variatra 0 (assorbimento totale) e 1 (riflettanzacompleta) [Freeman, 1990].

Il processo di conversione di un se-gnale analogico in uno digitale avvienetramite due fasi di discretizzazione:

n il campionamento (discretizzazionetemporale), in cui si stabiliscono e siindividuano gli intervalli temporali incui dovrà essere rilevato il segnaleanalogico;

n la quantizzazione (discretizzazione dei

Teoria dell’immagine digitale

Tabella 1 Esempi di valori di luminosità e riflettanza

ILLUMINAzIoNE(SorGENTE LUMINoSA) i

Luce solare 9000

Cielo nuvoloso 1000

Interno (ambiente di lavoro) 100

Chiaro di luna 0.01

rIFLETTANzA (oGGETTo) r

Velluto nero 0.01

Parete bianca 0.80

Argento 0.90

Neve 0.93

A(t)

Tc

Fig. 4Campionamenti di unsegnale analogico diuna immagine.

Page 26: Presentazione - uniroma1.itgiovanni.gigante/Lavori/cap.1-2-3... · 2015-03-16 · Presentazione A. Batori Lorem ipsum dolor sit amet, consectetur adipiscing elit. Nullam tellus mauris,

Si ricorda che indicando con mb la lun-ghezza intesa come numero di cifre oc-correnti per rappresentare un numero Nnella base 2 (base binaria) si può ricorre-re alla §5:

§5

Dato il numero di livelli di quantizza-zione usati, mediante l’equazione pre-cedente è possibile ricavare immediata-mente il numero di bit necessari alla co-difica dei campioni. Il numero di livelli, asua volta, può essere determinato a par-tire dalla precisione richiesta e dalla mas-sima differenza del segnale in ingresso.Se, ad esempio, un segnale da converti-re varia da 400nm a 800nm e lo si vuo-le quantizzare con una precisione di 2nmsono necessari 200 livelli, per rappre-sentare i quali è necessario utilizzareotto bit, cioè alcune delle combinazionipossibili di bit di lunghezza otto (in par-ticolare quelle che vanno da 00000000a 11000111).

è fondamentale notare che mentre ilcampionamento non comporta alcunaperdita delle caratteristiche del segnale (ilquale, purché siano verificate le condizionidettate dal Teorema di Shannon, puòessere perfettamente ricostruito a parti-re dai suoi campioni), la quantizzazioneprovoca una perdita, in quanto i valori nu-merici derivati non sono uguali a quelli ori-ginali che sono andati persi nel processodi arrotondamento o di troncamento. Inogni caso questo ha un impatto poco ri-

levante sulla resa finale per considerazioniottiche (il numero di sfumature distin-guibili dall’occhio umano è limitato) epratiche (è il compromesso implicito nelmomento in cui si vuole una rappresen-tazione digitale).

riesaminando il processo di digitaliz-zazione il primo passo che deve esserecompiuto è quello di “sovrapporre” al-l’immagine analogica (una scena reale,una fotografia o un documento da digi-talizzare) una griglia fittissima di minu-scole cellette, cioè i fotorecettori delsensore digitale, dette pixel (Fig. 7).

Naturalmente, a parità di immagine,più fitta è la griglia più piccole saranno lecellette, e migliore sarà l’effetto di avereuna immagine “continua”. Attualmenteci sono dei sensori digitali che hanno unnumero di fotositi pari a quelli presentinella fovea (circa 340.000 per centime-tro quadrato) e si raggiungono sensibili-tà che superano i 12800 ISo. Una voltasuddivisa l’immagine in tante piccolearee cromatiche, si è cioè campionatal’immagine, è necessario effettuare l’ope-razione di quantizzazione ovvero rap-presentare queste “aree di immagine”attraverso numeri. Ad ogni valore otte-nuto, rappresentato nel sistema binario(il linguaggio dei calcolatori), si associaunivocamente una scala di grigio perimmagini prive dell’informazione cro-matica, o un colore, seguendo particolarimodelli (rGB, YUV e CMYK) o semplici ta-belle di corrispondenza (palette o tavo-lozza dei colori).

La nascita delle immagini digitali e lo

sviluppo della tecnologia fotografica ma-gnetica può essere fissata nel 1983, annoin cui venne presentata la prima fotoca-mera che, al posto delle normali pellico-le a emulsione chimica, operava tramitesensori e memorie digitali su cui era pos-sibile conservare alcune decine di scatticon una buona qualità. Nel tempo leevoluzioni tecnologiche relative all’ac-quisizione, il miglioramento del sistemadi lenti e la commercializzazione massi-va, hanno decretato l’inesorabile sosti-tuzione dei dispositivi analogici a van-taggio di quelli digitali, costringendo leprincipali case di produzione a cambiaree differenziare la loro offerta. Le foto-grafie tradizionali sono state sostituite daimmagini born digital e sempre più si èsentita la necessita di una replica in di-gitale di originali per consentire un re-stauro indiretto, una preservazione neltempo ed una fruizione più vasta ed im-mediata. Questo crescente interesse haconsentito la realizzazione di sensoridigitali di dimensioni e caratteristicheparagonabili alla struttura biologica

N = ∑ bi2i con 0 ≤ bi < 2mb-1

i=0

2.1 Teorie dell’immagine digitale

Fig. 7 Griglia di pixel di unaimmagine digitale(dettaglio a destra).

5150

re esatto del campione ma si è disposti adaccettare anche un valore approssimatopurché il divario non sia troppo grosso-lano. In pratica si fissa una precisione ri-tenuta valida per ottenere il migliore ri-sultato e ci si limita a specificare il valo-re dei campioni con tale accuratezza.Questa operazione di limitazione del nu-mero di cifre decimali usate per rappre-

sentare i campioni va sotto il nome diquantizzazione del segnale campionato.

Il processo di quantizzazione dei cam-pioni di un segnale è ottenuto determi-nando la precisione con la quale i cam-pioni devono essere rappresentati e, in se-guito, suddividendo l’asse delle ordinate,in cui è riportato il segnale, in tanti in-tervalli ognuno con un’ampiezza pari

alla precisione richiesta (Fig. 6). Se, ad esempio, si decide di rappre-

sentare i campioni fino alla loro prima ci-fra decimale ogni intervallo unitario saràsuddiviso in dieci parti uguali (0, 0.1,0.2, ...). Infine, a tutti i campioni che ca-dono in un certo intervallo viene asse-gnato il valore quantizzato più vicino(arrotondamento) o il valore quantizza-to immediatamente inferiore al valoreesatto (troncamento) [Dougherty, 1994].

L’ultimo processo è la codifica, che adogni campione quantizzato fa corri-spondere un numero binario, cioè una se-quenza di bit. Più esattamente, una vol-ta definiti i livelli di quantizzazione me-diante i quali approssimare i campioni delsegnale, ad ognuno di essi viene fatto cor-rispondere un diverso numero binario.Sono tali numeri binari che vengono uti-lizzati come codifica interpretabile daglielaboratori elettronici per la loro even-tuale memorizzazione o elaborazione.

Fig. 5Immagine originale(sinistra) e aliasing

(destra).

Fig. 6Quantizzazione di

un segnale analogico di una immagine.

Teoria dell’immagine digitale

A(t)

Tct

Page 27: Presentazione - uniroma1.itgiovanni.gigante/Lavori/cap.1-2-3... · 2015-03-16 · Presentazione A. Batori Lorem ipsum dolor sit amet, consectetur adipiscing elit. Nullam tellus mauris,

Negli ultimi anni i sistemi di comunica-zione digitali hanno avuto una notevoleimportanza per lo sviluppo della società.La grande quantità di informazioni, chequotidianamente è trasmessa, è au-mentata esponenzialmente ed i mezzi sucui essa viaggia, viene memorizzata edelaborata, ha avuto una evoluzione ra-pida e sempre più specifica. Sebbene cisiano stati accorgimenti strutturali e lo-gici che hanno permesso la realizzazionedi supporti sempre più evoluti e perfor-manti, la quantità di dati da gestire è ri-sultata sempre più elevata anche grazieall’adozione del digitale in diversi domi-ni applicativi (televisione, fonia, comu-nicazione - nel 2008 sono state stimate1,5 miliardi di caselle di posta elettronicaattive). In questo contesto la compres-sione dati ha avuto, ed ha, un ruolo fon-damentale. Per compressione dati si in-tende una giusta ed economica codificadell’informazione digitale; ovvero si ri-cercano strategie che consentano di ri-durre o eliminare, in maniera adeguata,elementi ridondanti senza che vi siano al-terazioni al significato del messaggioche vuole essere trasmesso o memoriz-zato. Esistono numerose tecniche perottenere una riduzione dell’informazione,ma principalmente due sono i rami in cuiè possibile classificarli: il “modello pro-babilistico”, in cui vi è eliminazione dellaridondanza basandosi sulla frequenzacon cui i dati si ripetono e quelli che inveceoperano su il concetto di “contesto” esa-minando il modo e la posizione in cui l’in-formazione si ripete nel documento di-

gitale. In letteratura sono riportati diversialgoritmi, cioè procedimenti informatici,utilizzati per la compressione. Essi sisuddividono in due categorie: losslesssenza perdita di informazione in cui,cioè, il messaggio ricostruito dopo il pro-cesso di decodifica, risulta essere ugua-le a quello originale. Si ricorre a questa ti-pologia di algoritmi per rappresentare te-sto, immagini mediche o militari, in cuil’integrità dell’informazione è un aspettodeterminante. La seconda categoria èquella degli algoritmi lossy, cioè con per-dita di informazione nei quali a fronte diuna maggiore compressione, si verificaun’alterazione della fedeltà al dato ori-ginario. Ciò è quanto avviene quotidia-namente su Internet per immagini, fil-mati o suoni.

2.2.a Nozioni basilari di teoria dell’informazione

Prima di introdurre gli aspetti fonda-mentali della compressione di dati digitaliè necessario esplicitare il concetto di“messaggio” e sua “rappresentazione”. Ilmessaggio (o informazione) può esseredefinito come una variazione in un siste-ma (quindi un cambiamento che mutauna situazione a sé stante); viceversa lasua rappresentazione è il modo tramite ilquale l’informazione è convogliata o de-scritta. Ciò significa, tra l’altro, che è pos-sibile esplicitare un messaggio utilizzan-do differenti rappresentazioni. Si consi-derino, per esempio, due persone che

raccontano un evento, l’una in manieraprolissa e l’altra in maniera concisa. Inquesto caso, il messaggio è l’accadimen-to che si sta riferendo, mentre le paroleusate dai due narratori sono la rappre-sentazione del messaggio stesso. Comeè possibile ipotizzare, ognuno farà uso diun numero differente di parole riportan-do così la versione della stessa storia indue modi diversi. Almeno in un caso siavrà un certo numero di parole non es-senziali, in quanto o prive di informazio-ni rilevanti oppure contenenti informa-zioni già note. In altri termini, almeno unodei due racconti della storia è caratteriz-zato da ridondanza dei dati.

A partire dalla metà del Novecento, iltermine comunicazione è stato semprepiù spesso adottato per designare quel-la particolare forma di trasporto imma-teriale ed astratto relativo al trasferi-mento di informazione. Un vero e propriopunto di svolta fu costituito dall’opera didue importanti scienziati, Claude Shan-non e Warren Weaver, cui si deve la for-mulazione della “Teoria Matematica del-la Comunicazione”. Negli scritti che laespongono, pubblicati alla fine degli anni1940, venne fornita, per la prima volta,una definizione generale della comuni-cazione come «trasferimento di infor-mazioni mediante segnali da una sor-gente a un destinatario». Naturalmente,per dare un senso compiuto a questa ideadella comunicazione, Shannon e Weaverformalizzarono in termini matematici lanozione di informazione come “scelta” (ovariazione di stato) ed individuando nel bit

2.2 Teoria della compressione dei datiE. Grande, L. Graniero, F. Liberati

5352 propria della natura umana permet-tendo di realizzare dispositivi in grado,grazie a programmi dedicati, di intera-gire con il mondo esterno mediante unarappresentazione fedele a quelle recepitadall’uomoe spingendo la ricerca nella vi-sione artificiale e nella cibernetica. Inol-tre si è sviluppato anche tutto un cam-po di elaborazione delle immagini (digi-tal image processing) che ha consentito

non solo di replicare e di rendere imme-diate le operazioni di miglioramento(aggiustamento livelli, contrasto, det-taglio) ma, soprattutto di favorire ope-razioni di estrazioni di caratteristiche(pattern recognition) utili in diversi ambi-ti (videosorveglianza, lavorazioni indu-striali). Attualmente l’interesse è rivoltoalla realizzazione di sistemi di memo-rizzazione capienti, affidabili e di di-

mensioni ridotte, fino ad arrivare ai ri-sultati odierni in cui è possibile conser-vare diverse milioni di immagini in di-spositivi di pochi millimetri quadrati.

ringraziamentiGli autori vogliono ringraziare Valentina,romina e renata per i loro commentied il prezioso supporto. Un ringrazia-mento particolare al piccolo Lorenzo.

Teoria dell’immagine digitale

Bibliografia

Ang T., 2007, Fotografia, Mondadori Electa, Milano, Italia.

Dougherty E. R., 1994, Digital image Processing Methods, CrC Press, London, United Kingdom.

Freeman M. H., 1990, optic, Butterworth-heinemann, oxford, United Kingdom.

Freeman M. H., 2005, reflex digitali, Mondadori informatica, Milano, Italia.

Gonzalez R. C., Woods R. E., 2007, Digital image Processing, Prentice hall, New Jersey, USA.

Halliday D., Resnick R., Walker J., 2006, Fondamenti di fisica. Meccanica, termologia, elettrologia, magnetismo, ottica, CEA, Milano,Italia.

Howell S. B., 2006, Handbook of ccd astronomy, 2 ed, Cambridge University Press, Cambridge, United Kingdom.

Jain A. K., 1989, Fundamentals of digital image processing, Englewood Cliffs, Prentice hall, New Jersey, USA.

Sears F., ottica, 1965, CEA, Milano, Italia.

Stuart A. M., 2006, CCD Astrophotography: High Quality imaging from the Suburbs, Springer, Berlin, Germany.

Page 28: Presentazione - uniroma1.itgiovanni.gigante/Lavori/cap.1-2-3... · 2015-03-16 · Presentazione A. Batori Lorem ipsum dolor sit amet, consectetur adipiscing elit. Nullam tellus mauris,

una rappresentazione congrua. Si intro-duce, pertanto, il concetto di “misuradell’informazione” come la quantità di in-formazione associata ad un messaggio laquale, a sua volta, è strettamente con-nessa all’incertezza della sua occorrenza.

Dalla definizione di media, se si indicacon m1, m2,..., mn i messaggi trasmessidalla sorgente, si ottiene che l’informa-zione media è data dalla §1:

§ 1

La quantità Hb prende il nome di entro-pia. Pertanto, in generale, l’entropia (o in-certezza della sorgente) è la quantità me-dia di informazione associata alla singo-la generazione di un simbolo da parte del-la sorgente: se i simboli della sorgentesono equiprobabili, l’entropia è massima(ad ogni emissione la sorgente fornisce lamassima informazione possibile). Sup-ponendo che ad ogni simbolo della sor-gente sia associata una parola di un codicea lunghezza variabile, allora la lunghezzamedia delle parole del codice, espressa inbit per simbolo, è il bit rate del sistema dicodifica.

In assenza di rumore nel canale di tra-smissione e nel sistema di codifica, un ri-sultato fondamentale della teoria dell’in-formazione è espresso dal “Teorema diShannon della codifica priva di rumore”(noto anche come I Teorema di Shannon):«per una sorgente di informazione discre-ta e senza memoria (o a memoria zero), ilbit rate minimo è in media uguale all’en-tropia della sorgente» [Shannon e Weaver,

1949] [Seibit, 2006] [Abramson, 1993].Il I Teorema di Shannon stabilisce quin-

di un limite inferiore, pari all’entropia del-la sorgente, per il bit rate di un sistema dicodifica (e canale di trasmissione) privo didistorsione, quando cioè l’obiettivo prin-cipale del sistema di codifica è la com-pattezza della rappresentazione. L’esi-stenza di un limite teorico consente di sta-bilire in modo semplice una misura del-l’efficienza di una tecnica di codifica alunghezza variabile (dove Lavg è la lun-ghezza media delle parole del codice uti-lizzato) come in §2:

§2

La definizione può essere generalizzataper valutare l’efficienza relativa di due co-dici distinti C1 e C2 (dove Lavg1 è la lunghezzamedia delle parole del codice C1 e Lavg2 è lalunghezza media delle parole del codiceC2 e assunto che Lavg2> Lavg1) tramite la §3:

§3

è possibile capire meglio quale sia ilsignifica dell’entropia con un esempio.

EsempioSi prenderà in considerazione un’area di im-magine avente dimensione 3x6 (vedi figura se-guente); cui si assocerà una corrispondenza te-stuale, non solo per semplificare la rappre-sentazione sul modo in cui operano i vari al-goritmi, ma anche per mettere in evidenzacome sia possibile operare su dati testuali (ri-cordiamo che molte di queste tecniche sono

state realizzate principalmente in quest’ultimodominio applicativo).

Corrispondenza testualeStringa: FFFADEAACEEBBDFFAF

Messaggi: {A,B,C,D,E,F}

Distribuzione di Probabilità:P(A)= 4/18=0.22 P(B)= 2/18=0.11P(C)= 1/18=0.06P(D)= 2/18=0.11 P(E)= 3/18=0.17P(F)= 6/18=0.33

Valore Entropia: h(p):=2.386

Questo vuol dire che il messaggio sopra ri-portato può essere espresso con parole (strin-ghe) in un opportuno codice la cui lunghezzamedia è di circa 2.4. Vedremo in seguito comesarà possibile individuare questo codice.

L’informazione digitale è elaborata dacalcolatori elettronici che possono averecaratteristiche architetturali e logichediverse, la cui unica funzionalità è il pro-cessamento di messaggi (o codici) aven-ti un significato ben definito (istruzioni,indirizzi e dati) e facilmente trattabilidalle componenti presenti. La necessità

Hb = ∑ p(mi)µ(mi) =∑ p(mi)[-logb p(mi)]n n

i=1 i=1

σ = Hb Lavg

σ = Lavg1 Lavg2

2.2 Teorie della compressione dei dati

5554 l’unità di misura della quantità di infor-mazione.

La teoria matematica della comunica-zione era mossa da esigenze tecnichemolto precise: studiare dal punto di vistafisico-matematico le condizioni di mi-gliore efficienza del trasferimento di se-gnali attraverso apparati tecnici di tra-smissione. Non a caso, il suo sviluppo èparallelo alla grande evoluzione delle te-lecomunicazioni e agli imminenti acca-dimenti bellici di quegli anni. Ma l’in-fluenza delle ricerche di Shannon e Wea-ver andò ben al di là di questo ambito spe-cialistico. I loro lavori contribuirono, in-fatti, alla definizione di “comunicazione”e alla realizzazione di uno schema gene-rale dei processi comunicativi, che hagoduto di un seguito vastissimo neglianni seguenti, permettendo una forma-lizzazione anche di concetti come “codi-fica” e “compressione”. Prima di entrarenello specifico, è opportuno descrivere ilcontesto in cui avviene lo scambio di in-formazione descrivendo il “sistema di co-municazione”:

n Una sorgente di informazione che ge-nera messaggi da inviare ad una de-stinazione. Si utilizzerà il termine mes-saggio per denotare l’informazionescambiata da una sorgente ad un de-stinatario;

n Un codificatore che trasforma i mes-saggi inviati dalla sorgente in una se-quenza di segnali adatti ad essere tra-smessi lungo il canale;

n Un canale utilizzato per trasferire i se-gnali dalla sorgente alla destinazione.Il canale può subire disturbi di varianatura alterando i dati (rumore);

n Un decodificatore che, generalmente,esegue le stesse operazioni del codifi-catore ma in ordine inverso cioè tra-sforma le sequenze di segnali, ricevutidal canale, in messaggi;

n Un destinatario, entità a cui sono ri-volti i messaggi inviati dalla sorgente.

In riferimento alle nozioni espresse inprecedenza, si distingue:n il codice con cui si rappresentano i

messaggi emessi dalla sorgente (co-dice sorgente);

n il codice mediante il quale si rappre-sentano i messaggi trasmessi lungo ilcanale (codice canale);

n il codice finale nel caso in cui sia diversoda quello sorgente (codice destina-zione).

Un esempio è quello che avviene in unacomunicazione telefonica, dove il siste-ma è costituito dalla rete di fonia ed i ter-minali. I codici in gioco sono quelli rela-tivi al parlato (codice sorgente) che èconvertito in impulsi (codice canale), iquali viaggiano lungo il doppino telefo-nico (il canale) per poi essere convertitinuovamente in onde sonore (codice de-stinazione).

Tornando ai sistemi di comunicazione,è necessario affermare che essi devono

essere costruiti in modo tale da consen-tire la trasmissione di tutti i messaggiaventi un qualsiasi significato. Tale po-tenzialità comunque trova un vincolo inspecifici limiti fisici: la limitata “banda pas-sante” dei canali di trasferimento fa inmodo che messaggi lunghi possano ri-chiedere un tempo di trasmissione ele-vato. Inoltre, il “supporto di memorizza-zione” richiede che il messaggio sia di unacapacità non maggiore a quella mate-rialmente consentita.

Un messaggio ha come caratteristicheprincipali il significato e la sua rappre-sentazione. ovviamente queste due par-ticolarità sono indipendenti l’una dal-l’altra: la rappresentazione di un mes-saggio, infatti, non dipende dal signifi-cato del messaggio stesso, ma dal modoin cui esso è codificato. Si può pensare,come esempio, al valore centoventi-quattro che ha una rappresentazionenel sistema decimale in 134, con tre cifre,e nel sistema di numerazione romanoCXXXIV, con una lunghezza di sei cifre.Con lo sviluppo dell’informatica si è postal’attenzione alle codifiche economichecioè codifiche che utilizzano un numerominimo di simboli per rappresentare le in-formazioni. Il significato della compres-sione è quindi la riduzione della quanti-tà di dati necessari per convogliare omemorizzare l’informazione associataal messaggio. Per questi motivi è im-portante misurare l’informazione, inmodo da poter stabilire, per esempio, laquantità minima di dati necessaria per

Teoria dell’immagine digitale

A B C D E F

Page 29: Presentazione - uniroma1.itgiovanni.gigante/Lavori/cap.1-2-3... · 2015-03-16 · Presentazione A. Batori Lorem ipsum dolor sit amet, consectetur adipiscing elit. Nullam tellus mauris,

vero sulla conoscenza della frequenza diogni messaggio (o simbolo dell’alfabeto)all’interno del flusso di dati (tra gli altri sa-ranno portati in evidenza i codici di Shan-non-Fano, i codici di huffman; mentre sa-ranno rimandate ad una altra sessione ledescrizioni relative la Trasformata al Co-seno e la Trasformata Wavelet, utilizza-te come elementi specifici dei più comu-ni algoritmi di compressione per imma-gini con perdita di informazione). Il se-condo insieme è costituito da quegli al-goritmi che tendono ad eliminare la ri-dondanza dei dati incentrando l’atten-zione su dove essa risiede. L’idea, nata daLempel e ziv alla fine degli anni 70, è at-tualmente quella sulla quale si concentrabuona parte della ricerca scientifica [Cap-pellini, 1985]. Un aspetto importate cheun sistema di codifica deve garantire è larobustezza, cioè la possibilità di evitareuna corruzione irrimediabile del mes-saggio e del suo significato, a causa del-la perdita o modifica di alcuni bit. Una co-difica, infatti, porta spesso alla costru-zione di parole la cui alterazione spessosi ripercuote in quelle successive (codifi-ca sequenziale) o limitrofe (codifica mul-ti-dimensionale). Per evitare questo tipodi problemi possono essere sfruttate duestrategie la prima delle quali consiste nel-l’utilizzo di un numero minimo di bitsuppletivi in grado di rilevare ed even-tualmente correggere l’errore. L’altra, latecnica più praticata, è quella di strut-turare i dati in maniera affidabile attra-verso un frazionamento in pacchetti del-l’informazione.

Quello degli algoritmi di compressioneè un campo dei più fecondi dell’informa-tica e della teoria dell’informazione. Pro-babilmente uno dei più antichi algoritmidi compressione è il codice Morse, in cuisi cercava di rappresentare un messaggiocon solo tre caratteri: punti, linee e spa-zi. Scopo del codice Morse era quello direalizzare un sistema che consentisseuno scambio rapido di messaggi, so-prattutto in situazioni di pericolo. Per rag-giungere questo obiettivo fu stabilitoche ci fosse un’associazione carattere-simboli inversamente proporzionata allaprobabilità di comparire nella totalitàdelle parole usate comunemente (adesempio il carattere e, che ha la maggiorfrequenza, ha una codifica minima . ;mentre la z ha codifica con più simboli inquanto meno frequente --..). ovvia-mente il codice Morse aveva molti vincoli,in particolare il fatto che il ricevente fos-se analogico (un operatore umano) ilche non permetteva di ottimizzare ulte-riormente il codice trasmettendo, peresempio, due caratteri alla volta o in al-tro modo. I moderni mezzi di comunica-zione hanno consentito il passaggio a tec-niche più raffinate e più affidabili.

In questa sessione saranno presenta-ti alcuni dei moderni algoritmi di com-pressione, ed, in particolare, il run LengthEncoding (rLE), basato sull’eliminazionedi dati ridondanti contigui; il codice diShannon e Fano, esempio di codifica non di-struttiva (tra i primi algoritmi teorici ot-tenuti subito dopo le nozioni della TeoriaMatematica dell’Informazione); il codice

di Huffman che è uno dei più usati algo-ritmi di compressione statistici e senzaperdita di informazione (basato sul prin-cipio di codificare messaggi con maggiorefrequenza con pochi caratteri e vicever-sa); infine, la classe di algoritmi Lempel eZiv, basati sul contesto.

Per valutare un algoritmo di codifica (edecodifica) sono considerati principal-mente due aspetti: il tempo computa-zionale, ovvero il tempo impiegato dal-l’algoritmo per elaborare i dati originali eprodurre la codifica compressa; e il tassodi compressione, ovvero il rapporto dicompressione tra il messaggio originarioe quello compresso (in altre parole, ilguadagno che si ha utilizzando l’algorit-mo di compressione). Il tempo compu-tazionale è una metrica indipendentedalle tecnologie utilizzate determinato dalnumero di istruzioni che devono essereeseguite per svolgere un determinato al-gortimo. Il tasso di compressione (T), in-vece, è calcolato come il rapporto fra la di-mensione dell’informazione compressa(DC) e quella originale (Di) ed è ottenutadalla quantità §5:

§5

In pratica è comunemente utilizzato, iltasso di compressione espresso in per-centuale (§6):

§6T% = (1- Dc ) . 100 DI

2.2 Teorie della compressione dei dati

5756 di poter usufruire dei messaggi median-te una rappresentazione congrua è statauna esigenza fortemente sentita nel mo-mento in cui si cercò di formalizzare il con-cetto di informazione e si progettarono iprimi elaboratori elettronici. Per com-prendere quali siano gli aspetti basilari ènecessario introdurre alcune nozioni.

Un codice C è un insieme di parole (ostringhe) composte da simboli di un al-fabeto Σ (che chiameremo alfabeto di so-stegno di C). Per capire questo concettosi può pensare alle lettere dell’alfabeto ita-liano come elementi di Σ e alla parole pre-senti nel vocabolario che unite insieme,rispettando una determinata sintassi esemantica, individuano una informazio-ne espressa con il codice della lingua ita-liana. La rappresentazione (o codifica) diun insieme di informazioni I in un dato co-dice C, è una funzione j: iÆC ossia unalegge che associa ad ogni informazioneche si intende rappresentare, un’oppor-tuna parola del codice C. In modo analo-go la decodifica di una informazione co-dificata in precedenza nel codice C è unacorrispondenza del tipo s: C Æ i.

Una codifica viene definita non ambiguase j risulta essere una funzione iniettiva:cioè ogni coppia di informazioni distintedi I è trasformata da j in una coppia di pa-role distinte di C. Indicando con Nx la car-dinalità dell’insieme X, cioè il numero dielementi che compongono l’insieme; lacodifica j si definisce non-ridondante seNC=NI, ridondante se NC>NI e ambigua seNC <NI.

ricordiamo che la nozione di codificaha origini antiche: esistevano codici checonsentivano la comunicazioni sicure incondizioni ostili o bellicose (il più noto èil Cifrario di Cesare).

All’interno di un calcolatore elettroni-co, come detto, i dati sono rappresenta-ti da codici: ad ogni codice è associato undeterminato significato, a seconda dicome questo viene definito e nel conte-sto in cui è utilizzato. Un esempio è l’as-sociazione tra un numero ed un caratte-re testuale o un numero ed un elementopittorico (un punto di colore o una gra-dazione di grigio). I codici possono avereun significato di valori numerici ed esse-re rappresentati mediante diversi alfabeti,facendo riferimento alla rappresenta-zione posizionale in base b (con b≥2 e b in-tero). Infatti, indicando con lb la lun-ghezza intesa come numero di cifre oc-correnti per rappresentare un numero Nnella base b, si avrà che N potrà essererappresentato mediante la §4.

§4

In questo modo il valore undici ha unarappresentazione (11) in base dieci, (13) inbase otto, (23) in base quattro e (1011) inbase due.

è possibile determinare la base ottima,cioè quella che consente di rappresentarenumeri con poche cifre (mb ottimizzato)e con un alfabeto composto da un nu-mero minimo di simboli (b minimo) e

per far questo è necessario minimizzaremb b. Senza entrare nello specifico è pos-sibile dimostrare che la base due, con al-fabeto Σ:={0,1}, si avvicina a quella ottimaed è, infatti, utilizzata in campo infor-matico, anche perché ben si presta almodo funzionale e strutturale dei co-muni componenti elettronici che costi-tuiscono l’elaboratore: deviatori elettro-nici, interruttori, flip flop, commutatoriottici, ed altri.

2.2.b Algoritmi di compressione

Una volta in possesso della teoria ne-cessaria per capire fino a quanto è pos-sibile spingersi nella compressione didati, è opportuno riportare accurata-mente il funzionamento di alcune tecni-che utilizzate.

L’evoluzione storica della compressio-ne di dati si è sviluppata in quanto spin-ta dalla necessità di dover conservare ungrande numero di informazioni testuali:le prime esigenze furono sentite nella ot-timizzazione della memorizzazione del-le informazioni anagrafiche statuniten-si. Solamente con il passare del tempo el’introduzione delle nuove tecnologie si èpensato di perfezionare le conoscenze ot-tenute anche per tipi di dato diversi (im-magini, suoni, filmati).

Dagli studi presenti in letteratura èpossibile suddividere gli algoritmi di com-pressione in due grandi rami: i “codifica-tori antropici” ed i “codificatori mediantedizionari”. I primi basano il loro funzio-namento sul modello probabilistico, ov-

Teoria dell’immagine digitale

N = ∑ aibi con 0 ≤ ai < b lb-1

i=0

∑ = {al-1, al-2,...,a1,a0} lb= [logb(N)]+1

T =1- Dc DI

Page 30: Presentazione - uniroma1.itgiovanni.gigante/Lavori/cap.1-2-3... · 2015-03-16 · Presentazione A. Batori Lorem ipsum dolor sit amet, consectetur adipiscing elit. Nullam tellus mauris,

Corrispondenza testuale

Stringa: FFFADEAACEEBBDFFAFMessaggi: {A,B,C,D,E,F}Distribuzione di Probabilità:P(A)= 4/18=0.22 P(B)= 2/18=0.11P(C)= 1/18=0.06P(D)= 2/18=0.11 P(E)= 3/18=0.17P(F)= 6/18=0.33

Le linee tratteggiate individuano le di-verse foglie dell’albero top-down creato.

Codifica Shannon Fano: A=11 B=1010C=1011 D=100 E=01 F=00Codifica stringa:00000011100011111101101011010101010000001100Lunghezza media messaggio: 2.83Il tasso di compressione è del 37.5%

HuffmanL’algoritmo di huffman è una delle tec-

niche maggiormente utilizzate ed effi-cienti per la compressione dei dati. Ge-neralmente si raggiunge un tasso dicompressione variabile dal 20% al 90%. Icodici huffman sfruttano un algoritmoche consente di definire la stringa ottima,detta parola, di collezioni di dati. Per rap-presentare i dati si utilizza un codice a lun-ghezza variabile che assegna una paroladel codice corta ai caratteri molto fre-quenti ed una parola lunga ai caratterimeno frequenti. huffman realizzò un al-goritmo che costruisce un codice prefis-

so ottimo procedendo in questo modo:

1. Selezionare dall’insieme dei valori delladistribuzione di probabilità due ele-menti con valore numerico minimop(mn-1) e p(mn). Le rispettive codifiche sa-ranno: 0::f(mn-1) e 1::f(mn). Segnare mar-cate le due distribuzioni di probabilità.

2. Sostituire ai due valori la loro somma,ottenendo così una nuova distribu-zione di probabilità.

3. ripetere il procedimento dal punto 1.fino a quando tutte le distribuzioni diprobabilità sono marcate.

Il processo di decodifica risulta essere al-quanto semplice: essendoci solo codiciprefissi, basterà leggere bit a bit e deco-dificare quando si individua il prefisso as-sociato. Il tempo di esecuzione della pro-cedura huffman su un insieme di N ca-ratteri è O(N lgN). Nel caso in cui si di-sponesse di un processore ad 1 Ghz, cioèin grado si eseguire 109 operazioni al se-condo, l’algoritmo rLE su un miliardo didati impiegherebbe un secondo per pro-durre la relativa codifica; viceversa l’al-goritmo di huffman avrebbe bisogno dicirca venti volte tanto (ovviamente sen-za considerare i diversi rapporti di com-pressione derivanti). Si dimostra che perN avente un valore grande, tendente al-l’infinito, tale codifica risulta produrre uncodice cui la media delle lunghezze del-le parole è analoga all’entropia (citata in2.2.1.a) [huffman, 1952] [Tanaka, 1987].

2.2 Teorie della compressione dei dati

5958 oltre a questi aspetti ce ne sono altricome ad esempio la quantità di risorse ri-chieste (memoria, control unit) che inquesta documento saranno citati quan-do rilevant.

run Length EncodingLa codifica run Length Encoding (rLE)

basa il suo funzionamento sulla ricerca diuna serie ripetuta di elementi uguali(run) e al posto di codificarli uno ad uno,codifica solo il primo e lo fa seguire da uncontatore che indica quante volte è ri-petuto. L’algoritmo si basa su una ideamolto semplice: si individuano parole (ocaratteri) uguali consecutivi incremen-tando un contatore. Quando si individuaun nuovo carattere diverso dai precedentisi riporta il carattere e il contatore, que-sto ultimo viene posto a zero e si proce-de con il nuovo carattere, fino al termine.L’algoritmo ha una complessità compu-tazionale lineare o(N) [Salomon, 2004]:cioè, a meno di costanti moltiplicative,vengono eseguite un numero di opera-zioni su tutti i dati analizzati.

Questo algoritmo è spesso utilizzato,con delle opportune varianti, su infor-mazioni testuali. Inoltre è applicato alleimmagini bitonali (fax ed epistole datti-loscritte) basandosi sulla ridondanzaspaziale bidimensionale, con risultatisoddisfacenti per comprimere immaginicontenenti ampie zone di colore unifor-me (si stima un tasso di compressione in-torno al 20-30%). Infine, richiedendo ri-sorse esigue e portando vantaggi per ri-

dondanza contigua, è spesso usato comeparte integrante di processi di compres-sione più complessi.

EsempioSi prenderà in considerazione una area di im-magine avente dimensione 3x6 (vedi figura se-

guente).Corrispondenza testuale

Stringa: FFFADEAACEEBBDFFAFMessaggi: {A,B,C,D,E,F}Codifica rLE: F3A1D1E1A2C1E2B2D1F2A1F1

Per questo esempio non si ha alcun guada-gno in termini di compressione, in quanto i daticonsiderati sono pochi e non vi è una ripeti-zione frequente di elementi uguali disposti inmaniera contigua.

Shannon FanoTale tipo di codifica, proposto da Shan-

non e Fano, prevede la suddivisione deimessaggi in due blocchi ordinati per va-lori decrescenti delle probabilità e la rea-lizzazione di opportuni codici prefissi.Per codice prefisso si intende un codicenel quale ogni sua parola non è il prefis-so di alcun altra ed è, quindi, univoca-

mente decifrabile. L’algoritmo ha la se-guente funzione operativa:1. ordinare i messaggi mi (con i=1,…,n)

per valori decrescenti delle probabilità.2. Partizionare gli n messaggi in due sot-

toinsiemi S1 e S2 in maniera tale che lasomma delle probabilità in S1 differiscail meno possibile dalla somma delleprobabilità di occorrenza dei messag-gi in S2.

3. Assegnare il primo bit del codice aglielementi dell’insieme: 0 agli elementidi S1 ed 1 agli elementi di S2.

4. Effettuare il partizionamento di cia-scuno dei due sottoinsiemi utilizzandolo stesso criterio per assegnare il se-condo bit del codice ed iterare questoprocedimento, a partire dal punto 1.,fino ad ottenere sottoinsiemi che con-tengono un solo elemento.Il processo di decodifica risulta essere al-

quanto semplice: essendoci solo codiciprefissi, univocamente determinati, ba-sterà leggere bit a bit e decodificare quan-do si individua il prefisso associato. Tale al-goritmo è difficilmente applicato. I moti-vi fondamentali sono due: la possibilità ditrovare il migliore partizionamento inbase alle probabilità è un problema NP-completo (conm tempi di esecuzione mol-to lunghi) e la possibilità di bilanciare indue parti uguali i due sottoinsiemi non èsempre ottimale [Fano, 1949].

EsempioSi prenderà in considerazione una area di im-magine avente dimensione 3x6 (vedi figura se-guente).

Teoria dell’immagine digitale

A B C D E F

SIMBoLo ProBABILITà SUDDIVISIoNI

F 0.33 0 0

E 0.17 0 1

D 0.11 1 0 0

B 0.11 1 0 1 0

C 0.06 1 0 1 1

A 0.22 1 1

B C

AF E

0 1

0 1 0 1

0 1

0 1D

A B C D E F

Page 31: Presentazione - uniroma1.itgiovanni.gigante/Lavori/cap.1-2-3... · 2015-03-16 · Presentazione A. Batori Lorem ipsum dolor sit amet, consectetur adipiscing elit. Nullam tellus mauris,

EsempioSi prenderà in considerazione una area di im-magine avente dimensione 3x6 (vedi figura se-guente).

Corrispondenza testuale

Stringa: FFFADEAACEEBBDFFAFMessaggi: {A,B,C,D,E,F}

Distribuzione di Probabilità:P(A)= 4/18=0.22 P(B)= 2/18=0.11P(C)= 1/18=0.06P(D)= 2/18=0.11 P(E)= 3/18=0.17P(F)= 6/18=0.33

Il processo segue la creazione dell’alberobottom-up seguente:

Codifica huffman: A=01 B=0010 C=1010D=110 E=11 F=00Codifica stringa:00000001110010101101011110010001011000000100Lunghezza media messaggio: 2.83Il tasso di compressione è del 38.9%

Codifica mediante dizionariNel 1977 Abraham Lempel e Jacob zivmutarono radicalmente la modalità ope-rativa per ottenere una riduzione deidati. Fino ad allora la conoscenza a prio-ri dei messaggi trasmessi, o comunque lostudio approfondito di quali messaggi ve-nivano scambiati con maggiore fre-quenza per caratteristiche linguistiche ocontestuali, era di fondamentale impor-tanza. Con il metodo promosso da Lem-pel e ziv invece questa conoscenza di-venta superflua: l’eliminazione della ri-dondanza avviene mediante l’utilizzo diun puntatore <distanza, lunghezza> o daun indice che fa riferimento ad un insie-me di stringhe, le occorrenze, che si ri-petono.

L’algoritmo Lz, infatti, non cambia i co-dici singoli con stringhe di bit corte, masostituisce le stringhe di dati con un co-dice di lunghezza fissa (tipicamente ottoo sedici bit). Tale algoritmo si fonda, nel-la sua classe Lz78 con varianti LzW (Lem-pel-Ziv-Welch) e LzC (Lempel-Ziv-Compress), sulla realizzazione di un di-zionario contenente delle stringhe didati ricavate dall’informazione sorgente.Questo dizionario viene a mano a manocreato durante la lettura intera del do-cumento digitale, e di solito ha una di-mensione fissa (in teoria può anche es-sere infinito) [ziv and Lempel, 1977] [Phil-lips,1992]. L’algoritmo di codifica (Tabel-la 1) è, nella sua forma più semplice, il se-guente:1. creare un dizionario di parole con un

identificatore intero per ogni voce;

2. individuare la stringa più lunga S nel di-zionario;

3. inviare in uscita l’identificatore di S e ilcarattere c successivo alla corrispon-denza;

4. aggiungere la stringa Sc al dizionario.

La decodifica (Tabella 2) usa lo stesso me-todo per costruire il dizionario facendo ri-ferimento agli identificatori (non c’è bi-sogno di inviare anche il dizionario).

Nel corso degli anni, vi è stato un notevolesviluppo di questa tecnica, tanto da dareluogo a due classi di algoritmi a finestrascorrevole con dimensione fissa ed a fi-nestra scorrevole con dimensione varia-bile (Lz77 e variante LzSS, Lempel-ziv-Storer-Szymanski). Sebbene uno degliaspetti poco favorevoli sta nel fatto chela dimensione in uscita dipende forte-mente dalla lunghezza del codice utiliz-zato, e quindi per documenti digitali dipiccole dimensioni tale tecnica può ri-sultare insoddisfacente, sono oggettodi ricerca nuove varianti [Wilkins andWintz, 1971] [Storer, 2008]. Viceversa,per elementi testuali o immagini conaree cromatiche più volte ripetute al-l’interno della immagine elettronica, edin generale per un numero di dati eleva-to, i risultati sono raffrontabili ai limitidettati dall’entropia.

Con l’avvento di nuove tecnologie nel-la codifica dei dati digitali, soprattuttoquelli multimediali quali immagini, audioe video, le tecniche di compressione han-no acquistato sempre maggiore impor-tanza. Negli ultimi anni, la larga diffusionedei media digitali ha prodotto l’incre-mento del patrimonio pubblico e privatocon un crescente aumento di dati elet-tronici che necessitano di spazio per lamemorizzazione e di grandi capacità ditrasmissione per la condivisione in re-moto. Una riduzione dei dati assume, inquesto contesto, un aspetto cruciale in

termini di costi (i dispositivi di memoriz-zazione possono conservare più infor-mazione) e tempo (scambio rapido di in-formazioni con normali infrastrutture).Per questo motivo sono state individua-te e studiate varie tecniche di compres-sione che minimizzano il numero di bit ne-cessari per rappresentare l’informazio-ne discreta, con una organizzazione piùefficiente e tempi di elaborazione accet-tabili. Le strategie di compressione ven-gono applicate da appositi programmi im-mediatamente prima della memorizza-zione o trasmissione dei dati e successi-vamente da procedimenti inversi che ri-producono l’informazione nella sua formafedele o in una rappresentazione varian-te rispetto all’originale (che, però, non al-tera il messaggio contenuto). Un ulteriorepunto cruciale è quello di studiare e rea-lizzare delle metodologie che consenta-no di rilevare e correggere errori in fase didecompressione qualora insorgano per-dite o alterazioni di dati. Infine, va ricor-dato che sebbene il grande interesse siarivolto alla codifica di formati audiovisivi,vista la recente trasformazione dall’ana-logico al digitale che ha coinvolto la tele-visione e l’industria cinematografica,sono ancora attuali i classici algoritmi of-ferti dalla teoria della compressione.

ringraziamentiGli autori vogliono ringraziare Filippo

e Valerio, Dimitri e Natalia per i lorocommenti ed il prezioso supporto.

2.2 Teorie della compressione dei dati

6160

Teoria dell’immagine digitale

B C

F A E

0 1

0 1 0 1

0 1

0 1 D

oUTPUT DIzIoNArIo

aabaacabcabcb (0,a) 1=a

aabaacabcabcb (1,b) 2=ab

aabaacabcabcb (1,a) 3=aa

aabaacabcabcb (0,c) 4=c

aabaacabcabcb (2,c) 5=abc

aabaacabcabcb (5,b) 6=abcb

Tabella 1

INPUT DIzIoNArIo

(0,a) a 1=a

(1,b) aab 2=ab

(1,a) aabaa 3=aa

(0,c) aabaac 4=c

(2,c) aabaacabc 5=abc

(5,b) aabaacabcabcb 6=abcb

Tabella 2

A B C D E F

MESSAGGI ProBABILITà CoDIFICA NUoVo ProBABILITà

C B 0.06 0.11 C=1 B=0 m7 0.17

D m7 0.11 0.17 D=1 C=10 B=00 m8 0.28

E A 0.17 0.22 E=1 A=0 m9 0.39

m8 F 0.28 0.33D=11 C=101 B=001B=001 F=0

m10 0.61

m9 m10 0.39 0.61E=11 A=01 D=110C=1010 B=0010 F=00

m11 1

Page 32: Presentazione - uniroma1.itgiovanni.gigante/Lavori/cap.1-2-3... · 2015-03-16 · Presentazione A. Batori Lorem ipsum dolor sit amet, consectetur adipiscing elit. Nullam tellus mauris,

La compressione di immagini digitali è unsettore estremamente rilevante rispet-to al più ampio contesto della compres-sione dei dati. Negli ultimi anni, infatti,la quantità di informazioni condivisa ememorizzata, ha avuto un notevole in-cremento anche grazie al rapido pas-saggio dall’analogico al digitale. Il nu-mero di immagini digitali derivati daoriginali analogici e quelle direttamenteprodotte (born digital) è cresciuto in ma-niera esponenziale. Le grandi campa-gne di digitalizzazione per la conserva-zione, consultazione e valorizzazione didocumenti di pregio, la produzione di-retta di originali elettronici e la realizza-zione personale di contenuti multime-diali (audio, video, immagini) hanno ri-scosso un notevole successo anche perfattori legati ad un risparmio di tempo ecosti. Di conseguenza i supporti tecno-logici e i mezzi di trasmissione, nono-stante evoluti, si sono trovati a gestireuna quantità di dati sempre più elevata.In questo contesto, nel campo della ela-borazione delle immagini (digital imageprocessing), quello della ricerca di tecni-che atte alla riduzione di dati, medianteuna giusta ed economica rappresenta-zione dell’informazione, è un ramo sem-pre in continua evoluzione.

Molte delle tecniche e degli algoritmiutilizzati nella compressione di immagi-ni sono mutuati da altri ambiti, ad esem-pio derivati dagli studi per la compres-

sione testuale; mentre diversi altri sonostati sviluppati sfruttando la specificitàdell’informazione visuale, operando sul-la bidimensionalità e sulle caratteristichedel sistema visivo umano agendo, adesempio, sulla rappresentazione croma-tica. L’interesse verso la compressione diimmagini ha avuto una considerevolecrescita a partire dagli anni 1960, quan-do si consolidarono le tecniche per latrasmissione dei segnali relativi alle te-lecomunicazioni e vennero prodotti cal-colatori elettronici in grado di produrre,elaborare e memorizzare le prime risor-se digitali. Il settore, all’inizio, ha visto lasignificativa applicazione del lavoro teo-rico di C. Shannon e degli altri autori chenegli anni 1940 formularono le nozioni dirappresentazione, trasmissione e com-pressione dell’informazione. La com-pressione di immagini è, tuttora, unramo dell’informatica cruciale per una va-rietà crescente di applicazioni nei piùsvariati settori e domini applicativi bastapensare alle immagini mediche in alta de-finizione, in cui sono necessarie tecnichedi riduzione dati che non comprometta-no in alcun modo la fedeltà del contenu-to; rispetto a quelle a carattere com-merciale dove questa ultima necessitànon è sentita. Infine le considerazioni af-frontate per le immagini coprono e ri-solvono buona parte dei problemi lega-ti al trattamento delle risorse multime-diali e dell’audiovisivo.

2.3.a Codifica delle immagini digitali

La compressione o codifica di immagi-ni è il processo che riduce la quantità didati necessaria a rappresentare una de-terminata quantità di informazione ascopo di trasmissione o di archiviazione.Tale processo deve soddisfare alcuni re-quisiti fondamentali che riguardano: il mi-gliore tasso di compressione (ovvero la ri-cerca della migliore codifica che offra laminimizzazione della ridondanza deidati), la garanzia di una elevata qualitàdelle immagini decodificate (cioè il gradodi fedeltà all’immagine originale) ed, in-fine, il livello di complessità computazio-nale del processo di codifica e decodificache deve richiedere tempi accettabili.

In letteratura esistono diversi algorit-mi utilizzati per la compressione delle im-magini che si suddividono in due cate-gorie principali: lossless e lossy. Nel primocaso non vi è perdita di informazione, cioèl’immagine ricostruita dopo il processo didecodifica risulta essere uguale a quellaoriginale. Si ricorre a questa tipologia dialgoritmi per rappresentare immaginimediche o militari, in cui l’integrità del-l'informazione è fondamentale. La se-conda categoria è quella in cui avvieneuna perdita di informazione, a fronte diun ottima compressione, si verifica un de-terioramento relativo del significato prin-cipale dell’immagine stessa. Ciò è quan-

2.3 Teoria della compressione applicata all’immagine digitaleA. Giuliano, F. inglima, F. Liberati

6362 Bibliografia

Abramson N., 1963, Information Theory and Coding, McGraw-hill, New York, NY, USA.

Cappellini V., 1985, Data Compression and Error Control Techniques with Applications, Academic Press.

Fano R. M., 1949, Transmission of Information, M.I.T. Press, USA.

Huffman D., 1952, A Method for the Construction of Minimum redundancy Codes, in Proceedings of the irE, 40(9):1098-1101,USA.

Phillips D., 1992, LzW data compression, in the Computer Application Journal, Circuit Cellar Inc., 27:36-48,USA.

Salomon D., 2004, Data Compression: The Complete reference, 3rd Edition, Springer, Berlin, Germany.

Seibt, 2006, Algorithmic Information Theory: Mathematics of Digital Information Processing, Springer, Berlin, Germany.

Shannon C. E., Weaver W., 1949, The Mathematical Theory of Communication, University of Illinois Press, Illinios, USA.

Storer J. A., 2008, Data Compression Conference (DCC), IEEE, USA.

Tanaka H., 1987, Data Structure of huffman Codes and Its Application to Efficient Encoding and Decoding, in IEEE transactionson information theory 33, 1 (Jan.), 154-156,USA.

Wilkins L. C., and P. A.Wintz, 1971, Bibliography on Data Compression, Picture Properties and Picture Coding, in IEEE transac-tions on information theory 17, 2, 180-197, USA.

Ziv J., Lempel A., 1977, A universal algorithm for sequential data compression, in IEEE transactions on information theory, IT-23(3):337-343,USA.

Teoria dell’immagine digitale

Page 33: Presentazione - uniroma1.itgiovanni.gigante/Lavori/cap.1-2-3... · 2015-03-16 · Presentazione A. Batori Lorem ipsum dolor sit amet, consectetur adipiscing elit. Nullam tellus mauris,

Lo standard proposto dal JPEG può ave-re varianti più o meno dissimili dalla ver-sione di riferimento bisogna, però, atte-nersi strettamente alla specifica di scrit-tura del documento compresso per ga-rantire la coerenza del processo di deco-difica che deve essere conforme alle di-rettive dettate dal gruppo di lavoro equindi includere eventuali tabelle di rife-rimento o accortezze utilizzate. Nel casoche sarà successivamente analizzato sifarà riferimento alla versione Baseline.

Come detto, il primo passo dell’algo-ritmo di compressione è la lettura del filedi immagine e, come opzione, la con-versione del suo spazio cromatico. Nelcaso di immagini in tonalità di grigio, siavrà una matrice di dimensione N x M(con N ed M le dimensioni dell’immagine)e, l’elemento di posizione (i, j) per i=1, …,Ne j=1, …,M rappresenterà nell’immagineil pixel, cioè il livello di luminosità, a quel-le coordinate (Figura 9).

Per le immagini a colori, l’algoritmo puòprovvedere alla conversione dallo spaziocromatico originario, tipicamente rGB,a quello YUV (o YIQ). Il formato YUV con-siste in tre piani colore: la luminanza (Y)e due componenti di crominanza (U e V).Questa separazione, se pur non neces-saria, permette una migliore compres-sione. Infatti, sfruttando un fenomenonoto nel campo dell’ottica, è possibile ri-durre, in prima battuta, le dimensioni del-l'immagine YUV con una leggera dimi-nuzione della qualità applicando un ri-duzione delle componenti cromatiche(down- sampling) e mantenendo intatte le

informazioni sulla luminosità. La riduzione avviene facendo la media adue a due tra pixel adiacenti dei piani Ue V: in pratica viene dimezzata la risolu-zione orizzontale di questi piani e, nelcaso considerato, si parla di codifica 4:2:2(ad ogni blocco di 2x2 pixel in Y corri-spondono blocchi di 2x1). In teoria è pos-sibile anche dimezzare la risoluzione ver-ticale (come ad esempio avviene con lacodifica video MPEG1): in questo ultimocaso si ha, comunque, la codifica 4:1:1 (adogni blocco di 2x2 pixel in Y corrispondeun solo pixel). Già questo accorgimentolossy (cioè con perdita di informazioni)permette una riduzione delle dimensio-ni del 30% (4:2:2) o del 50% (4:1:1).

Se questa fase non viene considerata, siprocessa l’immagine nel modello di colo-re originale. Per una immagine a colorirGB, ad esempio, si avrà una matrice tri-dimensionale, in cui ogni tabella corri-sponderà ad una delle tre componenticolore e quindi si avrà una dimensione(MxNx3) ed il pixel di coordinate (i, j, k) peri=1, …,N; j=1, …,M e k=1,2,3; rappresenteràil pixel di coordinate i e j riferite alla k-esi-ma componente cromatica. Infatti, qua-

lora si abbia una immagine a colori, sottoun punto di vista geometrico si hanno trepiani, ognuno rappresentante una com-ponente cromatica, e l’insieme di questi trerestituisce l’immagine (sintesi additiva). Seperò si considerano i tre piani separata-mente, questi danno ognuno un’immagi-ne in tonalità di grigio poiché sono presentisolo informazioni di luminanza relative alpiano di colore (Figura 10).Come detto, la composizione dei tre pia-

2.3 Teorie della compressione applicata all’immagine digitale

Fig. 8Processo di codificadel JPEG.

Fig. 9 Piano di unaimmagine a toni digrigio.

6564 to avviene quotidianamente su Internetper immagini a carattere commerciale epropagandistico [ISo IEC 10918-1].

Esistono numerose strategie per otte-nere una riduzione dell’informazione:

� quelle in cui vengono impiegate tec-niche di eliminazione della ridon-danza, trattando i dati come collezionidi valori su cui operare senza alcunaconsiderazione della immagine ana-lizzata basandosi sul “modello proba-bilistico”

� quelle che operano su il concetto di“contesto” considerando le caratteri-stiche della informazione.

In seguito saranno presentati i due al-goritmi principali il cui funzionamento èlegato non solo a tecniche relative allacompressione dati, ma sfruttano anchele caratteristiche legate alle immagini pereffettuare determinate scelte durante ilprocesso di codifica e decodifica.

2.3.b Algoritmi di compressione sulle immagini

La nascita di tecniche di compressionedelle immagini si realizzò come natura-le continuazione dei preesistenti lavori.Dapprima si cercò di sfruttare i concettigenerici utilizzati per l’eliminazione del-la ridondanza nei testi, successivamen-te si tentò di ottenere risultati miglioripredisponendo una adeguata organiz-zazione dei dati per poi applicare uno o

più algoritmi di compressione lineare.Questa strada, però, venne abbandona-ta, in quanto offriva risultati non validi perla tipologia trattata e, nel contempo,escludeva la possibilità di utilizzare al-goritmi modificabili in base a diverse esi-genze. Per questo vennero svolti studi re-lativi alla tipologia delle immagini ana-lizzando caratteristiche cromatiche, ot-tiche e tutti i vantaggi offerti dalla di-sposizione spaziale bidimensionale e,con lo sforzo collettivo di diverse profes-sionalità, vennero definiti validi algorit-mi di compressione. Non tutti, però,hanno avuto una vita lunga: i formati pro-prietari, sebbene validi ed efficienti, sof-frono dell’incertezza legata al predominiodi mercato e la compatibilità con nuoveversioni; viceversa, l’uso di standard con-sente una gestione e migrazione in altriformati. In seguito saranno descritti duestandard utilizzati per la compressionedelle immagini: quello basato su tra-sformata discreta del coseno denominatoJPEG del 1982 e quello su trasformata di-screta wavelet il JPEG2000 del 2001. In-fine saranno mostrate le principali ca-ratteristiche ed i miglioramenti apportatinel tempo.

Algoritmo Joint Photographic Expert GroupNel 1982 il comitato ISo/ITU istituì un

gruppo di ricerca, ai quali si associaronofotografi, ingegneri e informatici cono-sciuto in seguito come JPEG (Joint Photo-graphic Expert Group). L’intento era quellodi definire un nuovo formato standard perle immagini digitali che permettesse una

forte riduzione dello spazio occupato inmemoria a discapito di un più o menomarcato, ma accettabile, degrado dellaqualità. Questa esigenza si sentì neces-saria per favorire la condivisione e pub-blicazioni di immagini, attraverso i nuo-vi sistemi di comunicazione, che fino adallora avevano formati privi di alcunatecnica di compressione o improntati suuna codifica lossless. Un esempio è ilformato tagget image File Format (TIFF) ver-sione 5.0, che sebbene può consentirel’applicazione degli algoritmi rLE, CCTTo LzW nella maggior parte dei casi nongarantisce un tasso di compressione su-periore al 10%. Nel 1990 il gruppo di lavorodel JPEG ufficializzò il primo standardinternazionale di compressione per im-magini a tono continuo sia a livelli di gri-gio (8 bit) che a colori (24 bit). Lo standard,nato per rispondere ad esigenze di tra-smissione e archiviazioni di immaginielettroniche, in breve tempo venne adot-tato dall’intera comunità mondiale de-cretandone un successo che ancora oggi,nel 2009, rimane incontrastato nellarete Internet.

Le principali fasi in cui è suddiviso il pro-cesso di compressione riguardano laconversione dello spazio cromatico del-l’immagine, l’estrazione di un blocco bi-dimensionale di pixel da ogni compo-nente dell’immagine originale, l’applica-zione ad ogni blocco della trasformata di-screta coseno (DCT), la quantizzazionedei coefficienti ricavati dalla DCT, la com-pressione dei coefficienti quantizzati ed,infine, la scrittura del file (Figura 8).

Teoria dell’immagine digitale

Page 34: Presentazione - uniroma1.itgiovanni.gigante/Lavori/cap.1-2-3... · 2015-03-16 · Presentazione A. Batori Lorem ipsum dolor sit amet, consectetur adipiscing elit. Nullam tellus mauris,

Per vedere come effettivamente opera l’algoritmo su una immagine digitale (Figu-

ra 12) si ritiene utile portare un esempio. Si consideri un blocco 8x8 cui l’informazio-

ne numerica è riportata in Tabella 2.

Questi valori hanno una rappresentazione grafica come in Figura 13.

La DCT del blocco in questione produrrà i seguenti segnali che, come si può nota-

re, sono molto vicini in valore assoluto (Tabella 3).

Dopo la DCT, infatti, il blocco presenta leggere differenze quasi impercettibili di se-

gnale, con un picco rappresentante il valore più alto della trasformata (Figura 14.

2.3 Teorie della compressione applicata all’immagine digitale

1 2 3 4

5

6

7

8

35

30

25

20

15

10

5

0

8 7 6 5 4 3 21

Fig. 13rappresentazionegrafica dei valori delblocco 8x8 prima dellaDCT.

Fig. 14rappresentazionegrafica del blocco 8x8dopo la DTC .

67Fig. 10Piani del canale red

(r), Green (G) e Blu(B).

Fig. 11risultante della

composizione dei tre piani

(r, G, B): sintesiaddittiva

Fig. 12Estrazione del blocco

8x8 estratto dallacomponente rossa

dell’immagine.

66

Teoria dell’immagine digitale

ni, contenenti informazioni di luminanza riferite ai tre colori, restituirà in tal modol’immagine a colori (Figura 11).Come passo successivo, per ogni componente, si procede ad una suddivisione in bloc-chi bidimensionali 8x8 pixel (da alto-sinistra a basso-destra). Tali blocchi contengo-no informazioni di luminanza, sia per immagini a colori che per immagini in tonali-tà di grigio, che sono valori appartenenti all’intervallo numerico di interi positivi [0,255] (rappresentabili con otto bit). ogni blocco viene singolarmente processato nel-la fase successiva: la trasformata discreta del coseno (Discrete Cosine transform, DCT)nella sua versione bidimensionale. La DCT è una trasformata che in generale fa pas-sare il segnale dal dominio del tempo al dominio della frequenza. Si tratta di una ver-sione in campo reale della Trasformata di Fourier che invece opera in campo complesso.I coefficienti che ne derivano rappresentano le ampiezze di quei segnali armonici (co-seno) che sommati ricostruiscono il segnale. Nel JPEG viene usata la versione bidi-mensionale della DCT ed in questo caso non si parla di tempo e frequenza, ma di “spa-zio” e “frequenze spaziali”. Il blocco nel dominio dello “spazio” viene trasformato in unodi coefficienti nel dominio della frequenza spaziale. In questo blocco i coefficienti inalto a sinistra rappresentano le basse frequenze spaziali, mentre quelli in basso a de-stra le alte frequenze spaziali ossia i dettagli dell’immagine.

In particolare il primo coefficiente del blocco trasformato rappresenta la media deivalori del blocco 8x8 originario (detto anche componente continua o coefficiente DC),mentre i restanti 63 sono chiamati componenti variabili o coefficienti AC. Per com-pletezza si riporta la formula matematica della DCT bidimensionale (§1):

(§1)

dove

F (u,v) = 1 C(u) C(v)[∑ ∑ f (x,y) • cos (2x +1)uπ • cos (2x +1)νπ ] 4

7i 7

x=0 y=0 16 16 C(u) C(v) = { 1 se u,v = 0

√2 altrimenti 1

10 15 20 23 26 26 26 23

16 23 25 28 31 28 29 27

22 27 32 25 30 28 28 28

36 33 30 32 32 31 30 31

31 35 34 30 32 31 31 30

33 33 34 33 30 29 29 29

35 34 34 35 34 29 29 29

34 34 34 32 34 30 31 30

Tabella 2 Esempio: blocco 8x8

Tabella 3 Esempio: DCT

35.6750 -2.8673 -9.1401 -4.1051 -0.3770 -3.1189 -1.4943 2.7534

-23.9173 -17.3610 -5.3180 -2.3958 -3.4930 -1.2319 0.8174 0.2561

-11.9061 -7.2090 -4.1670 0.9521 2.5136 -0.1775 -1.6512 -0.6098

-4.3656 -2.5517 -1.0160 0.1097 1.6479 1.9706 -0.5606 -2.3067

1.8750 -1.9223 1.1432 0.6078 -0.1251 0.8327 0.4735 -0.7429

-0.0606 1.3824 0.5357 -0.1134 0.3494 1.0424 0.5917 -0.1803

-3.5922 -0.0371 1.1098 -0.1962 -1.4467 -0.1985 1.6668 1.6578

-2.3359 -08359 -0.0341 -0.6404 -1.3323 -0.4814 0.9786 1.19881 2 3

4

5

6

7

8

250

200

150

100

50

0

-50

8 7 6 5 4 3 21

1 2 3 4

5

6

8 7 6

5 4

3 2

Page 35: Presentazione - uniroma1.itgiovanni.gigante/Lavori/cap.1-2-3... · 2015-03-16 · Presentazione A. Batori Lorem ipsum dolor sit amet, consectetur adipiscing elit. Nullam tellus mauris,

Una volta eliminati i dettagli menoimportanti grazie alla DCT e alla quan-tizzazione, è necessario adottare unaserie di tecniche non distruttive per le re-stanti informazioni.

Tra i coefficienti rimanenti è impor-tante separare la componente continua(DC) dalla componente variabile (AC). Nelprimo caso la componente AC viene scan-sita tramite una lettura a “zig-zag” (Figura15). Questo tipo di lettura rende adiacentiil più possibile i coefficienti uguali a 0 epermette un uso efficiente dell’algortimorun Length Encoding. Sulla componen-te DC di ciascun blocco viene invece ap-plicata una tecnica detta Differential (oDelta) Pulse-Code Modulation (DPCM). Inpratica esistendo, generalmente, unarelazione statistica nelle immagini tra lecomponenti DC di blocchi adiacenti èpossibile codificare la componente DC diun blocco come differenza rispetto alvalore del blocco precedente. Questostratagemma consente una ulteriore ri-

duzione dello spazio occupato dai dati.L'ultima codifica entropica applicata ai

dati è la classica codifica a lunghezza dicodice variabile (varianti della codifica dihuffman). I dati vengono suddivisi instringhe di bit (o parole), l’algoritmo ana-lizza la frequenza statistica di ciascunaparola e ognuna viene ricodificata con uncodice a lunghezza variabile in funzionedella frequenza di apparizione. Dei codi-ci corti sostituiscono le parole che appa-iono spesso e codici più lunghi quellemeno frequenti. In tal modo il numero dibit necessari per rappresentare i dati si ri-duce consistentemente. In questo ultimocaso si effettua una codifica di tipo lo-ssless per non incrementare l’approssi-mazione con l’immagine originale. Dopoalcune informazioni, comuni a tutti i fileJPEG, inizia l’ultima fase che è la scrittu-ra sequenziale dell’immagine.

Il file terminale ha estensione JPG oJPEG.

Il JPEG presenta un processo di deco-difica inversa a quanto precedentemen-te descritto (Figura 16).

Sui dati compressi si applica la deco-difica di huffman che ricostruiscono i co-

efficienti DC e AC, a questi si effettua ilprocesso di quantizzazione inversa (odequantizzazione) ed il blocco 8x8 risul-tante viene sottoposto ad una DCT in-versa. Infine, a seconda delle imposta-zioni, si esegue la conversione da YUV amodello di colore originario [Ahmed et al.,1974; hudson et al., 1988; Mitchell et al.,1988; Leger, et al.1991; rabbani e Jones,1991].

Il JPEG è uno standard abbastanza sem-plice nella sua essenza ma ha avuto co-munque un’importanza enorme. Quoti-

2.3 Teorie della compressione applicata all’immagine digitale

Fig. 15 Lettura a “zig-zag”

Fig. 16Lettura a “zig-zag”

69efficienti che si azzerano con conseguenteriduzione di quelli significativi. Questo pro-cesso, ovviamente, elimina le informazionipiù importanti portando ad un progres-sivo deterioramento della qualità del-l’immagine compressa. La tabella di quan-tizzazione può essere specificata dall'ap-plicazione o può essere definita dal-l’utente.

Esperimenti sulla soglia psicovisualehanno portato però alla definizione di duetabelle (Tabella 4) per la luminanza (Ta-bella 4a) e la crominanza (Tabella 4b) ot-tenute empiricamente usando un cam-pionamento 2:1 orizzontale.

Inoltre effettuando una scalatura dei va-lori della matrice di quantizzazione si puòottenere una variazione sulla quantitàdi informazione eliminata nell’immagine.Il parametro di scalatura, ps, sarà com-preso nell’intervallo [0, 100] assegnandocome significato a 0, la massima perdita

di informazione con una pessima qualitàe a 100 il contrario, ovvero pochissima in-formazione scartata e, di conseguenza,un’alta qualità dell’immagine. Il parame-tro di scalatura agisce sulla matrice diquantizzazione Q come segue (§3):

§3

La trasformata coseno e il processo diquantizzazione possono essere applica-ti anche a blocchi di dimensione diversada quella 8x8, differenziandosi dall’algo-ritmo baseline; però è stato dimostratoche si ottengono risultati non soddisfa-centi in quanto si ha una tassellizzazione(blocking) troppo accentuata.

Tornando all’esempio, quello che ac-cade dopo la quantizzazione, conside-rando la Tabella 2 e applicando ad essa leTabelle 3, è quanto riportato in Tabella 5:

scalatura = { 5000 se ps < 50

ps

altrimenti 200 - 2ps

TABELLA 4A (LUMINANzA)

16 11 10 16 24 40 51 61

12 12 14 19 26 58 60 55

14 13 16 24 40 57 69 56

14 17 22 29 51 87 80 62

18 22 37 56 68 109 103 77

24 35 55 64 81 104 113 92

49 64 78 87 103 121 120 101

72 92 95 98 112 100 103 99

68 In seguito l’ algoritmo cerca di scartarele informazioni meno significanti a livel-lo visuale e per questo procede con laquantizzazione. La quantizzazione è definita come divi-sione di ogni coefficiente DCT per la suatabella di quantizzazione, seguita dal-l’arrotondamento all’intero più vicino §2:

§2

La quantizzazione è un tracciato mol-ti a uno e per questo è il passaggio prin-cipale in cui avviene la perdita di dati. Con-cretamente questa operazione si realiz-za moltiplicando la matrice 8x8 di co-efficienti in frequenza per una tabella diquantizzazione (quantization table). Tipi-camente la tabella contiene valori tra 0e 1: quelli più bassi si trovano in corri-spondenza delle alte frequenze mentrequelli più alti in corrispondenza dellebasse frequenze. I valori così ottenutisono arrotondati all’intero più vicino, inquesto modo i coefficienti meno signifi-cativi tendono ad azzerarsi, mentre ri-mangono i coefficienti relativi ai contri-buti informativi più importanti. Essendogià piccoli, i valori in alta frequenza ven-gono molto spesso arrotondati a 0. Il ri-sultato è la concentrazione di pochi co-efficienti diversi da 0 in alto a sinistra e 0tutti gli altri. Quando in un file JPEG si sce-glie il fattore di compressione, in realtà sisceglie un fattore di scala sui valori dellatabella di quantizzazione. Più i valorisono bassi e maggiore è il numero di co-

F Q(u,v) = round ( F (u,v) ) Q (u,v)

Teoria dell’immagine digitale

Tabella 4 Tabelle di quantizzazione

TABELLA 4B (CroMINANzA)

17 18 24 47 99 99 99 99

18 21 26 66 99 99 99 99

24 26 56 99 99 99 99 99

47 66 99 99 99 99 99 99

99 99 99 99 99 99 99 99

99 99 99 99 99 99 99 99

99 99 99 99 99 99 99 99

99 99 99 99 99 99 99 99

15 0 -1 0 0 0 0 0

-2 -1 0 0 0 0 0 0

-1 -1 0 0 0 0 0 0

-1 0 0 0 0 0 0 0

0 0 0 0 0 0 0 0

0 0 0 0 0 0 0 0

0 0 0 0 0 0 0 0

0 0 0 0 0 0 0 0

Tabella 5 Esempio: quantizzazione 1 2 3 4 5 6 7 8

1

2

3

4

5

6

7

8

Page 36: Presentazione - uniroma1.itgiovanni.gigante/Lavori/cap.1-2-3... · 2015-03-16 · Presentazione A. Batori Lorem ipsum dolor sit amet, consectetur adipiscing elit. Nullam tellus mauris,

n offre una grande robustezza alla per-dita o alterazioni di dati.

oltre a tutti gli aspetti visti, il JPEG2000 è un formato multirisoluzione: rie-sce a gestire autonomamente diverserisoluzioni e consente all’utente di sce-gliere la risoluzione di trasmissione o ri-produzione. Grazie ad opportuni pro-grammi (image server) è possibile acce-dere anche in remoto a immagini ad altarisoluzione mostrando dettagli e carat-teristiche altrimenti parzialmente ac-cessibili. In questo modo non c’è più la ne-cessità di produrre e gestire delle imma-gini derivate (a diverse risoluzioni) con tut-ti i problemi legati alla loro conservazio-ne e manutenzione.

Lo schema di compressione adottatoda JPEG2000 (Figura 17) può essere scom-posto logicamente in una successione ditrasformazioni così sintetizzata: all’im-magine in input è applicata la trasfor-mata wavelet, i coefficienti wavelet sonoquantizzati e codificati mediante un co-dificatore entropico (Embedded Block Co-ding with optimized truncation, EBCoT)che è il cuore del processo. La codifica en-tropica consiste di due fasi distinte (otier). Nel tier1 vengono raccolte infor-mazioni statistiche utili per il processo dicodifica di tipo lossless (MQ-coder). Neltier2 i blocchi compressi sono raggruppatiin quality layers progressivi. Poiché è pos-sibile troncare il bit-stream in diversipunti, e quindi scartare qualcuno dei la-yers, il tier2 rappresenta, implicitamente,una seconda fase di quantizzazione, che

può essere gestita sia in fase di codificache decodifica.

La superficie su cui giace l’immagine èrappresentata mediante una griglia ret-tangolare detta reference grid (griglia diriferimento). La griglia è partizionata inuna matrice di tile rettangolari di di-mensioni regolari; le dimensioni delletile e l’offset della prima tile in alto a si-nistra possono essere scelte arbitraria-mente dal codificatore con il vincolo che,pur potendo le tile superare i limiti del-l’immagine, ogni campione della stessadeve appartenere ad una e una sola tile(Figura 18).

Questa particolare struttura è giusti-ficata dalle seguenti ragioni:

n permettere semplici manipolazionigeometriche senza dover ricodificarel’intera immagine;

n effettuare modifiche localizzate del-l’immagine ricodificando solo le tile in-teressate da tali modifiche (quando,ad esempio, si effettua uno zoom);

n codificare blocchi relativamente pic-coli (con i conseguenti vantaggi in ter-mini di gestione ed uso della memoria)evitando di introdurre artefatti aibordi dei blocchi (che invece possonopresentarsi solo ai bordi delle tile).

Nell’algoritmo JPEG2000, come è pras-si per tutti gli algoritmi di compressionebasati su una trasformata lineare, la tra-sformata wavelet è eseguita su ognicomponente di colore in maniera indi-pendente l’una dalle altre. è dunque ne-cessario che le componenti siano ragio-nevolmente decorrelate l’una rispettoall’altra. Un modello rGB, ad esempio,non gode di questa importante proprie-tà, si preferisce dunque utilizzare, comevisto per il JPEG, la rappresentazionedell’immagine in uno spazio di coordinateluminanza-crominanza (es: YUV, YCbCr).

Uno spazio luminanza-crominanzastandard è quello YCbCr, che si ottiene a

2.3 Teorie della compressione applicata all’immagine digitale

7170 dianamente infatti, immagini di tale for-mato vengono ogni giorno scaricate viaInternet, vengono create e memorizzatein fotocamere digitali o precessate dacodificatori per filmati digitali (moltissi-mi usano al loro interno i principi di basedel JPEG per comprimere le immaginiche formano le sequenze video: MPEG1 eMPEG2). Ma anche il JPEG è soggetto allaobsolescenza informatica e a una “soffe-renza” per tipologie di immagini (ad esem-pio non è consentito utilizzare l’algoritmocon immagini aventi profondità colore su-periore a 24 bit o di grandi dimensione - acui solitamente si ripara con una opera-zione di mosaicatura). Per questo gli isti-tuti interessati alla valorizzazione ad altarisoluzione dei documenti in formatoelettronico e alla conservazione perma-nente del patrimonio digitale stanno stu-diando nuove strategie. Negli ultimi anni,infatti, è stato definito un nuovo stan-dard, il JPEG2000, che permette unamaggiore qualità visiva e maggiori fun-zionalità nell’ambito della sicurezza edella robustezza dei dati.

JPEG 2000Alla metà degli anni ‘80 i membri del-

l’international telecommunication union(ITU) e dell’international organization forStandard (ISo) si riunirono e diedero vitaallo standard JEPG (Joint Photographic Ex-pert Group), basato sulla Trasformata Di-screta dei Coseni (DTC), riportato nellanorma ISo/IEC 10928-1 e nel ITU-T T.81. Illavoro dei membri non si interruppe e nelMarzo del 1997 proposero lo nascita di un

nuovo standard: il JPEG2000. Il progetto,denominato JTC 1.29.14 (15444), era inte-so a realizzare un nuovo sistema di codi-fica delle immagini in grado di poteroperare su differenti caratteristiche (bi-tonali, toni di grigio, colore, multi-com-ponenti) e considerare particolari tipo-logie (fotografia, immagini mediche eastronomiche, fax, manoscritti) e of-frendo diversi modelli (trasmissioni inreal time, immagini di archivio). Lo stan-dard coordinato dal JTCI/SC92/WG1 del-l’ISo/IEC ha editato un FDIS nell’Agostodel 2000 e un IS nel Dicembre 2000. Ledifferenze rispetto al JPEG sono nume-rosissime, anzi i due formati differisconoin tutti gli aspetti fondamentali.

La principale evoluzione è rappresen-tata dal cambiamento dello strumentomatematico alla base dell’algoritmo dicompressione. Infatti, mentre il JPEG usala trasformata Discrete Cosine transform(DCT) ed opera su blocchi di 8x8 pixel, ilJPEG 2000 usa la Discrete Wavelet tran-sform (DWT) che può agire sull’intera im-magine. Il termine wavelet si riferisce allaparticolare scomposizione che viene fat-ta delle informazioni dell’immagine. Senella DCT si scompone l’immagine incomponenti armoniche (in pratica unaanalisi in frequenza) e blocco per blocco;viceversa, nella DWT, si suddivide l’inte-ra immagine in sottobande a cascata.Adottando questo approccio ed esten-dendo l’analisi a tutta l’immagine, si eli-mina il principale difetto dello standardprecedente: l’eccessiva tassellizzazioneche si manifesta al crescere del fattore di

compressione. Questo tipo di operazio-ne, che sarà analizzata in dettaglio, si ot-tiene applicando la convoluzione del-l’immagine con particolari filtri: Fr e FIr(inverso) che ricordano per la loro strut-tura delle “piccole onde”. oltre a questaconsiderazione, il JPEG 2000 presentadelle caratteristiche innovative:

n è il formato allo stato dell’arte per lacompressione lossy e lossless delle im-magini, con un risparmio di spazio aparità di qualità, rispetto allo standardJPEG, di un 20-30%;

n offre un supporto per differenti mo-dalità e spazi-colore (immagini a duetoni, in scala di grigi, a 256 colori, a mi-lioni di colori, in standard rGB, Pho-toYCC, CIELAB, CMYK) e con dimen-sioni superiori ai 4GB;

n permette differenti schemi di com-pressione adattabili in base alle esi-genze;

n è uno standard aperto a successiveimplementazioni legate al sorgere dinuove necessità;

n consente l’inclusione di un’illimitataquantità di metadati nello spazio diintestazione del file utilizzabili per for-nire informazioni private o per intera-gire con applicazioni software;

n ha la codifica region of interest (roI) cioèzone ritenute più importanti sono trat-tate con una risoluzione maggiore diquella usata per il resto dell’immagine;

Teoria dell’immagine digitale

immagine sorgente TrasformataSpazio dei Colori

TrasformataWavelet Quantizzazione

Codifica EntropicaEBCOT

Teir 1 Teir 2

immmaginecompressa

Fig. 17Processo di codifica del JPEG2000.

Fig. 18JPEG2000: griglia diriferimento epartizione in tiledell’immagine.

Page 37: Presentazione - uniroma1.itgiovanni.gigante/Lavori/cap.1-2-3... · 2015-03-16 · Presentazione A. Batori Lorem ipsum dolor sit amet, consectetur adipiscing elit. Nullam tellus mauris,

corretta decodifica) o il lifting scheme confiltro 5/3. Nessuna restrizione, invece, siapplica alla compressione lossy.

Quando si usa il filtraggio ai bordi diuna tile sorge il problema di quali valorimettere al posto dei campioni mancan-ti oltre il bordo. Pertanto si estende l’im-magine ai bordi in maniera simmetrica eperiodica rispetto al bordo stesso (filtrisimmetrici).

L'applicazione della DWT restituiscedegli opportuni coefficienti che vengonopoi quantizzati. La quantizzazione con-siste nello stabilire il numero di bit che oc-corrono per memorizzare i coefficientidella trasformata riducendo la precisio-

ne di questi valori. Se è applicata ad ognisingolo coefficiente si parla di quantiz-zazione scalare, se invece i coefficientivengono raggruppati si ha la cosiddettaquantizzazione vettoriale o trellis CodedQuantization. Questa fase implica unaperdita in termini di qualità in quanto i co-efficienti vengono approssimati. Nelloschema di quantizzazione scalare ciascuncoefficiente quantizzato è ottenuto solocome funzione del solo coefficiente wa-velet di partenza, diversamente da altrimetodi che utilizzano informazioni su uncerto numero di coefficienti vicini. I co-efficienti quantizzati sono ottenuti tron-cando la rappresentazione decimale dei

coefficienti originali divisi per il passo diquantizzazione. Ciò significa che i co-efficienti che hanno valore inferiore alpasso di quantizzazione sono azzerati enessuna informazione potrà essere rico-struita durante il processo inverso (ladequantizzazione). Per tale motivo que-sta fase così realizzata è detta quantiz-zazione a zona morta (dead-zone quanti-zation). Inoltre, il passo di quantizzazio-ne può essere diverso per ogni sotto-banda e questo permette di quantizzarein maniera più fine i coefficienti di unasottobanda rispetto a quelli di un’altra.Questo fornisce un meccanismo grezzodi quantizzazione adattativa rispetto al

2.3 Teorie della compressione applicata all’immagine digitale

7372 partire dallo spazio rGB mediante le se-guenti trasformazioni (§4):

Come risulta evidente dalle precedenti for-mule, la trasformazione è non-reversibi-le a causa dell’approssimazione nei calcoli.Nella compressione lossless, viceversa, siprendono in considerazione le compo-nenti YUV e si sfrutta la seguente formu-la (§5) per la trasformazione diretta:

§5

ogni componente è suddivisa in tile eciascuna è scomposta in più livelli di ri-soluzione mediante la DWT.

Durante la fase relativa alla trasfor-mata wavelet ad ogni tile è applicata latrasformata wavelet, secondo uno fra itre diversi schemi di decomposizione:Mallat, SPACL e Packet. In Figura 19 sonoillustrate la caratteristiche principali del-le strutture di decomposizione suppor-tate dallo standard che sono, essenzial-mente, un’estensione del ben noto sche-ma di Mallat.

Nella classica decomposizione Mallatciascun livello da 1 a L aggiunge 3 sotto-bande, denotate rispettivamente hL(passa-alto orizzontale), Lh (passa-altoverticale) e hh (passa-alto orizzontale everticale). La Figura 20 mostra i passi diuna decomposizione wavelet a 3 livelli, se-condo lo schema Mallat (questa, ovvia-mente, viene applicata ad ogni compo-nente dell’immagine).Nello standard, la struttura descritta so-pra è estesa con un parametro φl per ognilivello di risoluzione l=1,2,…,L, detto high-pass descent depth, che indica il numero dilivelli di decomposizione delle bandecontenenti alte frequenze (Lh, hL e hh)al livello l. Ad esempio φ2 significa che lebande Lh, hL, hh al livello l sono suddi-vise ciascuna in quattro sottobande; seφ3, ancora una volta le bande ad alta fre-

quenza sono suddivise in quattro sotto-bande ciascuna e le dodici sottobande ot-tenute sono a loro volta decomposte inaltre quattro sottobande. I valori di φlammessi nello standard sono 1, 2 e 3.

Lo standard JPEG2000 supporta sia latrasformata reversibile, a coefficienti in-teri, che quella non-reversibile, a coeffi-cienti reali. La trasformazione irreversibile,utilizzata normalmente dal JPEG2000,impiega il filtro Daubechies 9/7 (Tabella 6).La trasformazione reversibile, invece, vie-ne realizzata mediante il filtro Le Gall 5/3(Tabella 7) la cui caratteristica principaleè quella di consentire una ricostruzionecompleta e senza perdite (lossless) infase di sintesi.

Lo standard permette di realizzare latrasformata wavelet in due modi diver-si: “banco di filtri” e il lifting scheme. Siail metodo a banco di filtri che il lifting sche-me possono essere usati per la trasfor-mata irreversibile con il filtro 9/7. La tra-sformata reversibile, invece, può essereimplementata solo mediante il liftingscheme usando il filtro 5/3. Quindi, per lacompressione lossless è possibile utiliz-zare o un filtro a coefficienti interi (defi-nito da terzi e da includere nel file per la

Y (Cb) = (- 0.16975 - 0.33126 0.5 )(G) Cr

0.299

0.5

0.587

- 0.41869 - 0.08131

0.114 R

B

Y r (Ur) = ( R - G ) Vr

R+2G+B

B - G 4[ ]

Teoria dell’immagine digitale

Fig. 19

Immagine

decomposta

mediante lo schema di Mallat.

Fig. 20Immagine filtrata e

decompostamediante lo schema di

Mallat.

DAUBEChIES (9, 7): ANALYSIS

Low band hL(i) high band hh(i)

0 +0.602949018236358 +1.115087052456994

±1 +0.266864118442872 -0.591271763114247

±2 -0.078223266528988 -0.057543526228500

±3 -0.016864118442875 +0.0912717631142495

±4 +0.026748757410810

DAUBEChIES (9, 7): SYNThESIS

Low band gL(i) high band gh(i)

0 ++1.115087052456994 +0.602949018236358

±1 +0.591271763114247 -0.266864118442872

±2 -0.057543526228500 -0.078223266528988

±3 -0.0912717631142495 +0.016864118442875

±4 +0.026748757410810

Tabella 6 Filtro Daubechies (9, 7)

Tabella 7 Filtro Le Gall (5, 3)

LE GALL (5, 3): ANALYSIS

Low band hL(i) high band hh(i)

0 +6/8 +8/8

±1 +2/8 -4/8

±2 -1/8

LE GALL (5, 3): SYNThESIS

Low band gL(i) high band gh(i)

0 +8/8 +6/8

±1 +4/8 -2/8

±2 -1/8

Page 38: Presentazione - uniroma1.itgiovanni.gigante/Lavori/cap.1-2-3... · 2015-03-16 · Presentazione A. Batori Lorem ipsum dolor sit amet, consectetur adipiscing elit. Nullam tellus mauris,

n regione di interesse;

n error resilience (resistenza agli errori) ;

n ridotto uso di memoria nei processi dicodifica e decodifica e possibile paral-lelizzazione;

n inserimento metadati.

Il JPEG, il cui utilizzo ha avuto un rapi-do incremento a finire degli anni 1990, èil formato standard tuttora utilizzato inmolti sistemi per fotocamere digitali diuso commerciale e per le immagini pre-senti sulla rete Internet avendo una buo-na efficienza per tassi di compressionebassi e un formato più snello. ovvia-mente il JPEG2000, nato dieci anni dopo,è stato progettato proprio con l’intentodi offrire un nuovo formato utilizzabilecome sistema di archiviazione e gestio-ne di immagini digitali. Per tassi di com-pressione compresi tra 1:10 e 1:30 la suaefficienza (in termini qualitativi) è del 20-30% superiore al precedente standard,mentre per tassi di compressione piùalti la qualità cresce esponenzialmente(Figura 23). Inoltre il suo essere un for-mato multi risoluzione toglie la necessi-tà di proporre una derivazione delle im-magini per la pubblicazione in remoto(bassa risoluzione), la consultazione in lo-cale (media risoluzione) e la stampa econservazione (alta risoluzione). La pos-sibilità di gestire immagini di grandi di-mensioni (superiore ai 65536 pixel in ver-ticale o orizzontale) permette di effet-

tuare scansioni di originali con alte riso-luzioni senza dover ricorrere a tagli oprocessi di ricostruzione a mosaico.

Inoltre il JPEG2000 offre una forte ro-bustezza nel caso in cui ci siano alterazionio perdite di byte nel codestream. Infattila sua struttura a pacchetti, definita pro-prio per incrementare l’eventuale altera-zione dei dati immagazzinati o la perditadurante la trasmissione dati, lo rendepiù affidabile rispetto alla codifica offer-ta dal JPEG. In particolare è possibile ve-dere, negli esempi successivi, come unacorruzione di poche decine di byte possapregiudicare l’integrità dell’intera infor-mazione nel caso del JPEG (Figura 24, si-nistra), mentre questo porta ad una nonsensibile degradazione dell’immagine inJPEG2000 [Wang et al., 2004].

Volendo comparare il JPEG2000 con ilJPEG si può ricorrere alla Tabella 8.

Infine, le caratteristiche del JPEG2000 lo rendono un formato standard ade-guato per la migrazione da formati pro-prietari e, visto la sua robustezza, ga-rante di una preservazione nel tempo del-le immagini digitali.

Ringraziamenti

Gli autori vogliono dedicare questo lavoroa Suvi, Helia e Manuela Fondi. inoltre si rin-grazia “Capo” Alessandro, Antonella, Claudio,Piero e Luca, Francesca, Giuseppe, “il Don J.”Giovanni, Luca, e roberta per il loro preziososupporto.

2.3 Teorie della compressione applicata all’immagine digitale

7574

contenuto delle bande. Tuttavia, pro-prio perché il passo è uguale per tutti i co-efficienti appartenenti alla stessa banda,la quantizzazione è ancora uniforme. Perquesto si può ricorrere ad una quantiz-zazione non-uniforme che, unita a con-siderazioni di carattere psico-visivo, spes-so offre migliori risultati in termini diqualità percepita. è importante osservareche, al fine di poter ricostruire in manie-ra affidabile i coefficienti wavelet, deveessere segnalato durante il processo didecodifica non solo il modello usato maanche il passo di quantizzazione.

Dopo la quantizzazione ogni sotto-banda viene partizionata (processo dipacket partition) in un insieme di rettan-

goli disgiunti, detti pacchetti (o packet),in modo analogo a quanto fatto per il ti-ling. Le dimensioni dei pacchetti sono so-litamente minori rispetto a quelle deitile. Infine ciascun pacchetto è suddivi-so in blocchi rettangolari disgiunti diuguali dimensioni detti code-block che co-stituiscono le entità fondamentali per lacodifica entropica. L’area di ciascuncode-block non può superare i 4096 co-efficienti. Inoltre sia la larghezza che l’al-tezza dei blocchi devono essere poten-ze di due. ogni code-block è codificato in manieraindipendente dagli altri e questo rende lacodifica particolarmente adatta al calcoloparallelo, nel quale è possibile processa-re i code-block simultaneamente. Nellacodifica entropica l’ordine di scansione deicode-block è quello in Figura 21.

Tutto questo genera un codestreamche, opportunamente incapsulato inpacchetti e corredato da informazionitecniche, costituisce il file finale che haestensione JP2 o JPK.

In modo analogo a quanto realizzatonella presentazione del processo di codi-fica, anche la decodifica può essere scom-posta in una sequenza di trasformazioni.In Figura 22 si riporta lo schema a blocchi:in ogni blocco si realizza la funzione in-

versa rispetto a quanto descritto per la co-difica [Christopoulos et al, 2000] [ISo/IECN1646r] [ISo/IEC 15444-1]. [Daubechies,1990] [Mallat, 1989] [Taubman, 2000].

Lo standard JPEG2000, oltre a fornireun alto fattore di compressione con unavalida qualità, genera un bitstream dota-to di caratteristiche che lo rendono mol-to flessibile e capace di rispondere allenuove esigenze del mercato per una no-tevole varietà di applicazioni(telefoniamobile, navigazione interattiva in re-moto, campo astronomico). La sua ar-chitettura aperta permette di ottimiz-zare tanto il processo di codifica quantola qualità delle immagini compresse.Inoltre è possibile applicare tutte le con-siderazione viste anche nel dominio ap-plicativo delle immagini in movimento(video): JPM.Alcune delle caratteristiche salienti del-lo standard JPEG2000 sono riassuntequi di seguito:

n fattore di compressione alto e buonaqualità a bassi bit-rate;

n scalabilità per risoluzione e accesso ran-dom;

n trasmissione progressiva per qualità orisoluzione;

n controllo del bit-rate (cioè: controllodella dimensione finale dei dati com-pressi) ;

n formato con compressione lossy elossless;

n formato per immagini a toni continuie grafiche;

Teoria dell’immagine digitale

1 2 3 4 5 6 7 8

1

2

3

4

5

6

7

8

immagine ricostruitaTrasformata

InversaSpazio dei Colori

TrasformataInversaWavelet

Dequantizzazione

Decodifica Entropica

Teir 1 Teir 2

immmaginecompressa

Figura 23 Immagine JPEGcompressione 1:30(sinistra) ImmagineJPEG2000compressione 1:30(destra).

Figura 24robustezza JPEG14 byte errati(sinistra) eJPEG2000 -14 byteerrati (destra).

Fig. 21Lettura dei code-

block.

Fig. 22Processo di decodifica

del JPEG2000

JPEG JPEG2000Qualità a bit-rate alti ◊ ◊

Qualità a bit-rate bassi ◊ ◊

Multi-risoluzione • •

Compressione lossy • •

Compressione lossless • •

resistenza agli errori ◊ ◊

regioni di interesse • •

Non Possibile •Possibile •

Scarso ◊Buono ◊

Tabella 8 Comparazione JPEG – JPEG2000

Page 39: Presentazione - uniroma1.itgiovanni.gigante/Lavori/cap.1-2-3... · 2015-03-16 · Presentazione A. Batori Lorem ipsum dolor sit amet, consectetur adipiscing elit. Nullam tellus mauris,

76 Bibliografia

Ahmed N., Natarajanand T., Rao K.R., 1974, Discrete Cosine Transform in IEEE trans. on Computers, Vol. C-23, pp. 90-93, USA.

Christopoulos C., Skodras A., and Ebrahimi T. , 2000 The JPEG2000 still image coding system: an overview, in IEEE transac-tions on Consumer Electronics, Vol. 46, No. 4, pp. 1103-1127, November, USA.

Daubechies I., 1990 The Wavelet Transform, Time-Frequency Localization and Signal Analysis, in IEEE trans. on inform. Theory,Vol. 36, No. 5, pp. 961-1005, September,USA.

ISO IEC 10918-1, information technology - Digital compression and coding of continuous-tone still images: requirements and guidelines.

ISO/IEC, 2000, Information Technology-JPEG2000 Image Coding System, Final Committee Draft Version 1.0, ISo/IEC JTC l/SC29/WG 1 N1646r, March.

ISO/IEC, 15444-1, the JPEG2000 image coding system-Part 1: core coding system.

Hudson G., Yasuda H. and Sebestyen I., 1988, The International Standardization of a Still Picture Compression Technique, inProc. of iEEE Global telecommunications Conference, pp. 1016-1021,USA.

Legere A., Omachi T., and Wallace G.K., 1991, JPEG Still Picture Compression Algorithm, in optical Engineering, Vol. 30, No. 7,pp. 947-954, USA.

Mallat S., 1989, A Theory for Multiresolution Signal Decomposition: The Wavelet representation, in iEEE trans. on Pattern Ana-lysis and Machine intelligence, Vol. 11, No. 7, pp. 674-693, July,USA.

Mitchell J., Leger A. and Yamazaki Y., 1988, Still Picture Compression Algorithm Evaluated for International Standardization,in Proc. of the iEEE Global telecommunications Conference, pp. 1028-1032, USA.

Rabbani M. and Jones P., 1991, Digital Image Compression Techniques, Tutorial Texts, in optical Engineering, Vol. TT7, SPIE Press,USA.

Taubman D., 2000, high Performance Scalable Image Compression with EBCoT, in iEEE trans. im. proc. Vol9 No7, july USA.

Wang Z., Bovik A. C., Sheikh H. R. and Simoncelli E. P., 2004, image Quality Assessment: From Error Visibility to Structural Simi-larity, in iEEE transactions on image Processing, vol. 13, no. 4, Apr.

Teoria dell’immagine digitale

Page 40: Presentazione - uniroma1.itgiovanni.gigante/Lavori/cap.1-2-3... · 2015-03-16 · Presentazione A. Batori Lorem ipsum dolor sit amet, consectetur adipiscing elit. Nullam tellus mauris,

La continua evoluzione dei calcolatorielettronici ha evaso la motivazione prin-cipale per i quali questi erano stati creati.Da semplici e pure macchine calcolatrici,preso atto delle loro potenzialità, sonodivenuti, in breve tempo, fonte di svi-luppo di settori eterogenei tra di essi maconvergenti in alcune caratteristiche oesigenze comuni. La fotografia tradizio-nale è stata immediatamente coinvoltain questo processo rivoluzionario. Dauna immagine analogica, composta damilioni di pigmenti molto piccoli e spa-zialmente irregolari (la grana) depositatisulla pellicola, si è passati ad una rap-presentazione digitale composta dapunti di immagine denominati pictureelement (o pixel) disposti regolarmentein maniera tabellare. Questo ha consen-tito un abbattimento dei costi, legati aimateriali chimici per lo sviluppo e l’in-tervento dell’operatore, e dei tempi, gra-zie alla possibilità di accedere in manieraimmediata a quanto ripreso e condivi-derlo attraverso gli attuali sistemi di co-municazione. Inoltre, anche la qualità diripresa e la risoluzione hanno avuto unprofondo miglioramento grazie alla pos-sibilità di disporre di un maggior numerodi scatti e per mezzo di sistemi di acqui-sizione sempre più evoluti. Inoltre, l’ado-zione di questa tecnologia ha consen-tito di effettuare operazioni dicorrezione cromatiche e miglioramentodei dettagli in maniera semplice e rapidaed applicare automaticamente algoritmimatematici per l’estrazione di caratteri-stiche. In particolare, nel tempo, si è svi-

luppato il ramo della elaborazione delleimmagini (image digital processing) cheha promosso diversi lavori tra cui le rela-zioni di vicinanza e distanza, utili per ri-levamenti metrici e movimenti di com-ponenti meccanici autonomi(cibernetica), la definizione di percorso econtorno, per l’individuazioni di forme(patter recognition), e la ricostruzionetridimensionale di oggetti (virtual rea-lity). Il processo di acquisizione avviene at-traverso un sensore digitale, presente inun dispositivo (scanner, frame grabber omacchine fotografiche digitali), che ef-fettua una sovrapposizione tra una gri-glia regolare (o griglia di campiona-mento) e l’immagine analogica. ogniquadrato della griglia, area, dà originead un pixel e il colore ad esso associato èla media dei colori che cadono all’internodello stesso. Una volta acquisita l’imma-gine, i valori discreti associati ad ogni pi-xel, devono essere opportunamente di-sposti e corredati di informazionisuppletive per poter essere elaborati,memorizzati e visualizzati; è necessariodefinire una struttura e organizzazione,il formato di immagine, che garantiscala corretta interpretazione dell’informa-zione digitale su diversi dispositivi.

2.2.3.aAspetti dell’immagine digitale

Una immagine digitale è costituita daun insieme ordinato di numeri interi ot-

tenuto da una immagine analogica me-diante un dispositivo di acquisizione(sensore ottico digitale). L’insieme ordi-nato dei valori assume l’aspetto di unamatrice (o tabella numerica) compostada un determinato numero di righe (r) ecolonne (C) e questo consente l’indivi-duazione di ogni elemento, detto cam-pione, considerando il suo relativo nu-mero di riga e colonna. ogni campionerappresenta l’intensità luminosa media,o livello, di una porzione, un’area, corri-spondente dell’immagine analogica, equesta area viene definita picture ele-ments (o pixel). Il termine livello ha uncarattere generico in quanto con esso siindica il grado di luminosità di un colorein rapporto ad un bianco fissato appar-tenente al sistema cromatico di riferi-mento. La porzione ha tipicamente unaforma geometrica rettangolare ed è ca-ratterizzata da due dimensioni: dx (oriz-zontale) e dy (verticale), detti passi dicampionamento del processo di digita-lizzazione. I loro reciproci corrispondonoalle frequenze di campionamento, chequindi rappresentano il numero di cam-pioni per unità di lunghezza rispetto alladimensione orizzontale e quella verti-cale. Il sistema spaziale di riferimentorelativo ad una immagine digitale puòfare rinvio ad una metrica appartenentealla scena in considerazione o a quellapropria del supporto fisico dell’imma-gine analogica (cm, pica, inch).La capacità di ogni sistema di acquisi-zione di effettuare una rappresentazionein digitale della scena, in maniera più o

Figg. 2 Immagine a colore:profondità colore a 4bit (sinistra), a 8 bit(destra) a 24 bit(destra)

Tabella 1numero dei colorirappresentabili indiverse tipologie diimmagini con unaquantità variabile dicanali e profondità dicolore per canale.

79

Storia delle tecniche e dei procedimenti33.1 ripresa, sviluppo e stampa della fotografia

3.1.a I primi procedimenti fotografici 3.1.b L’evoluzione di fine secolo 3.1.c I processi ai sali ferrici 3.1.d I processi al bicromato 3.1.e Tecniche di stampa fotomeccaniche 3.1.f Altri procedimenti ai sali metallici 3.1.g Una tecnica particolare: l’orotone 3.1.h I supporti vari 3.1.i Lo sviluppo istantaneo 3.1.l La microriproduzione

3.2 ripresa, sviluppo e stampa della fotografia a colore 3.2.a Il colore e la sua percezione3.2.b Gli inizi della storia della fotografia a colori3.2.c Le lastre autochromes3.2.d Dal ’35 in poi: le pellicole3.2.e I processi istantanei3.2.f Il colore digitale

3.3 Impiego moderno delle tecniche storiche 3.3.a Letteratura, associazioni, eventi e siti web3.3.b Le tecniche

3.4 Apparati di ripresa e di visione 3.4.a Le fotocamere dagli inizi ad oggi 3.4.b I visori nella storia (…)

3.5 La nascita del digitale 3.5.a Sintesi della storia della fotografia digitale3.5.b Prospettiva della fotografia digitale

3.6 Tecnologie di acquisizione digitale 3.6.a Tipologie di sensori digitali3.6.b Errori di acquisizione

3.7 Apparecchiature per l’acquisizione digitale 3.7.a Aspetti preventivi alla digitalizzazione 3.7.b Linee guida e standard internazionali3.7.c Tipologie di scanner 3.7.d Fasi successive alla progettazione3.7.e Acquisizione digitale 3.7.f Controllo di qualità

3.1 ripresa, sviluppo e stampa della fotografia

Page 41: Presentazione - uniroma1.itgiovanni.gigante/Lavori/cap.1-2-3... · 2015-03-16 · Presentazione A. Batori Lorem ipsum dolor sit amet, consectetur adipiscing elit. Nullam tellus mauris,

3.5 La nascita del digitaleG.E. Gigante, F. Liberati

L’attribuire ad un periodo storico un ap-pellativo “epoca della riforma o della con-troriforma” o “l’epoca delle scoperte scien-tifiche o della stampa” ha il significato diindividuare l’elemento principale che ca-ratterizza gli avvenimenti del periodo, al-meno in una determinata sfera della so-cietà. Queste operazioni sono spessopericolose perché focalizzano l’attenzio-ne su un particolare aspetto, seppure im-portante, distogliendo l’attenzione dauna analisi più complessiva. Infatti, nelmomento in cui si assiste ad un radicalecambiamento, è facilmente riscontra-bile come da uno stimolo scaturiscanouna serie di azioni, a volte complesse, chenon sono direttamente collegate al fe-nomeno preso a simbolo dell’epoca. Unulteriore elemento che ostacola una ana-lisi completa ed accurata avviene quan-do si cerca di descrivere un cambiamen-to ancora in atto e vissuto dall’interno. Inquesto ultimo caso, definire e dare indi-cazioni precise del fenomeno risulta es-sere un compito arduo in quanto la mol-teplicità dei contributi che avvengono dadiversi fattori porta inevitabilmente aduna correlazione di eventi, a volte di-sparati, che si legano strettamente gli unicon gli altri e difficilmente sono distin-guibili. Quello che si può dire, in primaistanza, riguardo la rivoluzione tecnolo-gica avvenuta negli ultimi quarant’anniva ricondotto sicuramente alle ricercheaffrontate sui materiali atti a realizzare di-spositivi per il trattamento e l’elabora-zione di informazioni digitali. Nel con-tempo però, non è possibile prescindere

dai fattori che ne hanno condizionatol’evoluzione. La formalizzazione di teoriematematiche, chimiche e fisiche, infatti,hanno concorso a definire il concetto di‘digitale’ e di ‘scienza dell’informazione’come sono, ora, noti.

In ogni caso, se si vuole far scaturire lanascita del digitale da un aspetto pret-tamente pratico è possibile affermareche il millennio in corso sarà probabil-mente ricordato come l’“Età del silicio”. èquest’ultimo materiale ad aver consentitouna rivoluzione progettuale senza pre-cedenti, favorendo il progressivo e natu-rale passaggio della conservazione etrattamento dell’informazione dai tradi-zionali materiali analogici ai sistemi ope-ranti su una codifica numerica. Circuiti in-tegrati e microprocessori, realizzati in si-licio, aventi elevata complessità proget-tuale hanno reso possibile, a partire da-gli anni Quaranta, la costruzione di si-stemi in grado di effettuare un gran nu-mero di calcoli in tempi estremamente ra-pidi. Inoltre, la teoria sviluppata nel cam-po dell’informatica (riguardo la rappre-sentazione, la codifica e la trasmissionedell’informazione), gli apporti della chi-mica dei materiali (per la costruzionedei dispositivi atti alla memorizzazionedei dati discreti, come i nastri magneticied i supporti ottici) e della fisica (le fibreottiche, il laser) nonché la continua evo-luzione tecnologica (la nanotecnologia)hanno permesso un ampliamento deldominio applicativo. Da strumenti dedi-cati unicamente al calcolo, gli elaboratorielettronici sono diventati elementi es-

senziali in molti campi: fotografico, audio,audiovisivo, multimediale. Questo pas-saggio è stato spesso favorito da un im-mediato riscontro dei benefici apportatidal digitale rispetto ai risultati ottenibilidalle tradizionali tecniche analogiche.

3.5.a Sintesi della storia della fotografia digitale

Proprio in questo contesto il rapido svi-luppo delle tecnologie digitali nell’ambi-to della fotografia è stato un episodiomolto significativo. I primi lavori sulla ri-producibilità di immagini elettronichevennero affrontati da George Smith eWilliam Boyle nel 1969, i quali riuscironoa formalizzare la teoria e lo sviluppo deisensori ottici: i CCD (Charge Coupled De-vices, dispositivo ad accoppiamento di ca-rica). Boyle e Smith erano due ricercato-ri impegnati nella realizzazione di nuovidispositivi per l’acquisizione di contenu-ti audiovisivi (video-sorveglianza e vi-deo-comunicazioni). Questi, mutuandoi risultati ottenuti per le memorie a bol-le magnetiche e sfruttando le tecniche dimemorizzazione delle cariche tramiteun sottile strato metallico depositatosulla superficie di un cristallo di silicio,progettarono il primo dispositivo di ac-quisizione, memorizzazione e riprodu-zione di immagini dinamiche (Fig. 1).Nell’aprile del 1970 venne presentato,nei laboratori Bell di Murray Hill (NewJersey), il primo prototipo di sensore ot-tico: una griglia regolare di sei celle fo-

81

Page 42: Presentazione - uniroma1.itgiovanni.gigante/Lavori/cap.1-2-3... · 2015-03-16 · Presentazione A. Batori Lorem ipsum dolor sit amet, consectetur adipiscing elit. Nullam tellus mauris,

senza perdita di informazione (lossless)rispettanti le caratteristiche della sin-tesi di immagini nel sistema visivoumano (a fronte di una minore fedeltàe definizione dell’immagine si ha unrisparmio, in termine occupazionale,rispetto all’acquisizione “grezza” raw);

n l’adozione di strategie per la salva-guardia dei dati e la definizione di for-mati standard di immagini con speci-fiche aperte a nuove caratteristiche(inserimento di metadati, diritti di au-tore, watermarking);

n la diffusione dei sistemi di visualizza-zione, condivisione e di archiviazionedati.

occorre notare che la nascita del digi-tale, nell’ambito fotografico, è avvenutacosì rapidamente perché tutto era pron-to affinché ciò accadesse. In particolare,la microelettronica aveva raggiunto, ne-gli anni ottanta, un sensazionale svi-luppo, per cui erano disponibili sensori ot-tici di pregiata risoluzione e con costi con-tenuti. I sistemi di gestione ed elabora-zione delle immagini erano stati svilup-pati e si erano superate limitazioni, tec-niche ed economiche, che impedivano inprecedenza un’efficiente trattamentodei dati. Infatti, alcuni eventi di pocoantecedenti, permisero un più rapidosviluppo degli elaboratori elettronici in al-tri domini applicativi e diversi dal semplicecalcolo, grazie a due fattori: n negli anni Cinquanta avvenne lo svi-

luppo della televisione e di conse-guenza la nascita dei primi sistemi di

Video tape recorder (VTr), che aprironola strada alla memorizzazione digrandi quantità di immagini, soprat-tutto televisive;

n negli anni Sessanta ci fu il grande im-pulso delle imprese spaziali e la con-seguente ricerca di tecniche efficientiper le trasmissioni dati. In quegli anni,a bordo dei satelliti venivano messedelle telecamere i cui segnali eranoconvertiti in formato digitale per poteressere trasmesse a terra. Vennero cosìperfezionati i metodi di acquisizionee quelli relativi alla riduzione del ru-more (il bias, il flat e il dark) per poipassare a tecniche completamente di-gitali. Tra i pionieri di questi lavori èopportuno citare Eugene F. Lally.

Tutto questo accadeva prima dell’iniziodella fotografia digitale. In particolare, nel1975 fu realizzata la prima videocamera di-gitale (funzionante a CCD) con una qua-lità dell’immagine sufficiente per le ri-prese televisive in toni di grigio. Nello stes-so anno, Steven Sasson costruì un primoprototipo di macchina fotografica utiliz-zando alcuni componenti elettronici dimemorizzazione dati, una lente da tele-camera ed un esemplare di sensore elet-tronico CCD disponibile dal 1973 (il mo-dello Fairchild). Il sistema pesava 3,6 kg,produceva immagini in toni di grigio edaveva una risoluzione di circa 10.000pixel (nel 2009, è possibile disporre di ri-soluzioni superiori ai 25 milioni di pixel).I tempi di acquisizione erano di 23 se-condi circa (nel 2009, sono nell’ordine di

10-3/10-4sec), i dati venivano salvati su unnastro magnetico digitale e la visualiz-zazione richiedeva un monitor dedicato.ovviamente il sistema non è mai entra-to in commercio. Sempre in quegli annivi furono diversi tentativi in cui si speri-mentarono tecnologie ibride analogichee digitali finché, nel 1981, la Sony produsseil primo prototipo di macchina fotogra-fica digitale la Mavica (Magnetic Video Ca-mera) che registrava le immagini elettro-niche su un apposito floppy disk. Tale di-spositivo aveva due sensori CCD per mi-surare separatamente la luminosità ed ilcolore. Le immagini erano costituite dacirca 720.000 pixel ed era possibile me-morizzare solo 25 foto con risoluzionespaziale usata nel sistema televisivo(320x240) e profondità limitata a 10-8 bit(da 1024 a 256 toni di grigio o palette deicolori).

Da quel momento la competizionecommerciale ha reso frenetica la corsa, enel 1986 già erano in commercio sensorida 1,4 milioni di pixel, per fotografie di for-mato 13x18. Nel 1987, la Kodak, mise incommercio una gamma di prodotti peracquisire, memorizzare e stampare lefotografie digitali e, nel 1990, incidere,usando il formato Photo CD, diretta-mente sui compact disc (CD), fino allorausati unicamente per la riproduzione dimusica digitale. Questi furono il primotentativo di realizzare sistemi completiatti alla gestione e fruizione di fotografiedigitali e dei relativi standard.

Uno dei principali canali di diffusionedei sistemi di acquisizione di immagini

3.5 La nascita del digitale digitale

8382

tosensibili, i pixel, in grado di “catturare”l’intensità luminosa da una scena di ri-presa. Sebbene la produzione fu così ra-pida, solo a metà degli anni ottanta si riu-scirono a realizzare le prime macchine di-gitali, che divennero un prodotto di mas-sa a partire dalla metà degli anni No-vanta. Dalla nascita del primo CCD, co-munque, la fotografia tradizionale subìun progressivo ed inarrestabile cambia-mento. A partire dalla Kodak, che nel2004 ha annunciato la progressiva ces-sazione della fabbricazione di pellicole fo-tografiche e dei materiali di sviluppo, lemaggiori case produttrici si stanno riti-rando dal mercato di sviluppo analogicoper dedicarsi completamente al digitale.Quindi, in quasi trent’anni, si è assistitoal completo passaggio al digitale nel-l’ambito della fotografia. è un periodoestremamente breve, considerando laradicazione dell’industria delle pellicole fo-tografiche e la diffusione capillare dellafotografia, in auge sin dai primi anni delsecolo scorso.

L’archiviazione numerica delle imma-gini fotografiche, comunque, rappre-

senta una possibilità che ha diversi no-tevoli vantaggi e qualche problematicità.Il fatto che una fotografia, come qualsiasiimmagine visibile (ma anche invisibile),possa essere scomposta in tanti piccolielementi, i pixel, senza che si perda nul-la, è un dato di fatto che ha a fondamentodiverse ragioni scientifiche, che non è ilcaso qui di ricordare. Una fotografia di-gitale è quindi una tabella ordinata di nu-meri che possono essere utilizzati per ri-produrre l’immagine stessa in una qual-sivoglia periferica: video, stampante,ecc. La visualizzazione della fotografiaviene fatta fissando un fattore, detto dirisoluzione, che assegna il numero di pi-xel per pollice. Questo fattore è general-mente diverso nel caso in cui si impieghiun normale video (bassa risoluzione: po-chi pixel per pollice) o che l’immagine siastampata (alta risoluzione: molti pixel perpollice). Un ulteriore aspetto è la pro-fondità cioè quante gradazioni di colore,o toni di grigio, sono rappresentate daisingoli valori numerici afferenti ai pixel.In immagini a toni di grigio, ad esempio,sono riservati di solito 256 livelli (8 bit) che

vanno da 0 (nero) a 255 (bianco); mentrein quelle a colori true color si usano al-meno 24 bit, quindi 16777216 gradazioni dicolore (Fig. 2).

Le motivazioni che hanno spinto aquesto passaggio sono numerose, alcu-ne delle quali legate più alla brevità delperiodo di transizione piuttosto che alleconseguenze dell’inserimento della nuo-va tecnologia. In breve, tra i fattori de-terminanti nella nascita della fotografiadigitale possono essere citati: n la disponibilità di sensori ottici con ele-

vate prestazioni sia in termini di ri-sposta dinamica che di risoluzione esensibilità;

n lo sviluppo di sistemi di gestione sem-plici ed algoritmi di elaborazione ra-pidi ed efficienti. Con il digitale la fasedi trattamento delle immagini è im-mediata (contrasto, regolazione livellietc.) ed, inoltre, si abbattono i costidovuti ai materiali chimici per lo svi-luppo e all’intervento dell’operatoreaddetto alla stampa;

n la nascita di algoritmi di compressionecon perdita di informazione (lossy) o

Fig. 1Smith e Boyle con un

primordiale sistema diacquisizione basato

su CCD.

Fig. 2Immagine a tono di

grigio 8-bit (sinistra)Immagine a colori

24-bit (destra).

Storia delle tecniche e dei procedimenti

Page 43: Presentazione - uniroma1.itgiovanni.gigante/Lavori/cap.1-2-3... · 2015-03-16 · Presentazione A. Batori Lorem ipsum dolor sit amet, consectetur adipiscing elit. Nullam tellus mauris,

successo. In breve tempo, inoltre, la con-vergenza tecnologica ha consentito unuso del documento fotografico, limitatonella sua dimensione analogica a risiederesu un supporto fisico ben definito, lacarta, ad essere accessibile attraverso ipiù disparati dispositivi: cellulari, pal-mari, navigatori satellitari, cornici elet-troniche ed altro.

3.5.b Prospettiva della fotografia digitale

Questi avvenimenti introducono altritemi di notevole importanza nel passag-gio alla fotografia digitale. I primi sistemiusavano formati di archiviazione delleimmagini digitali che erano di proprietà delcostruttore. Negli anni novanta, sotto laspinta dello sviluppo dei sistemi di elabo-razione e di gestione delle immagini, fu-rono sviluppate le tecniche di compres-sione ed introdotti i principali formatidelle immagini (TIFF, JPEG, BMP) alcuni deiquali mutuati dalla grafica digitale cheaveva già avuto un significativo sviluppo.è difficile discutere in maniera sintetica icomplessi rapporti che si sono intreccia-ti tra grafica e fotografia digitale, chehanno condiviso una fase di rapido svi-luppo a partire dai primi anni Novanta. Lagrafica ha sicuramente il merito di aver mi-gliorato l’usabilità dei sistemi ed, in par-ticolare, la gestione di consultazione ed ar-chiviazione delle fotografie digitali. Inol-tre, sono stati sviluppati i primi pro-grammi per il disegno assistito che hanno

permesso di sperimentare una serie dialgoritmi che si sono successivamentedimostrati molto utili per l’elaborazionedelle fotografie. Sempre merito della gra-fica è stato lo sviluppo dei sistemi di vi-sualizzazione 3D e di animazione, cherappresentano attualmente la nuova fron-tiera della fotografia e cinematografia.

Come abbiamo in parte già detto iprincipali fattori che rendono la foto-grafia digitale molto competitiva rispet-to alle tecniche convenzionali sono: unatrasmissione rapida ed efficiente, una ge-stione ed archiviazione semplice, unaelaborazione immediata e l’uso in siste -mi multimediali. Anche la significativa ri-duzione dei costi ha la sua importanza.Tutti questi fattori non sono invece sem-pre determinanti nel caso della “foto-grafia d’arte”, a parte la possibilità di in-tegrazione multimediale. Questo spiegain parte la relativa lentezza con cui la fo-tografia digitale sia stata adottata daiprofessionisti del settore. La grande dut-tilità delle tecniche convenzionali, ben co-nosciute dagli artisti anche negli aspet-ti più nascosti, ha rappresentato un for-te attrattore per i professionisti dellagenerazione precedente a quella dell’av-vento del digitale. I giovani fotografistanno invece indagando le possibilità of-ferte dai vari algoritmi e nuove stru-mentazioni che estendono le tecnicheconvenzionali e ne propongono di nuovedifficilmente ottenibili.

In ogni caso si riscontrano alcune pro-blematicità che hanno origine dalla non

completa conoscenza dei rischi che pos-sono incorrere al passaggio verso il digi-tale. Attualmente, dai dagherrotipi allestampe e pellicole, si ha una conoscenzaapprofondita dei fenomeni che possonocorrompere, danneggiare o degradare glioriginali analogici. Tramite un interven-to preventivo ed un eventuale restauro èspesso possibile controllare il processo didegrado degli originali stampati. Nel di-gitale, la cui natura dell’informazione èuna collezione di stringhe binarie, questifenomeni non interessano solamente idati ma anche i sistemi atti ad elaborar-li e conservarli. I problemi relativi alla pos-sibile corruzione dei dati, durante e dopol’acquisizione, sembrano essere risoltigrazie a tecniche di rilevamento e corre -zione errori ben collaudate (CirC, bit diparità, …). resta ancora aperta la ne -cessità di individuare il miglior supportodi memorizzazione (la cui struttura logicae chimico-fisica variano ed i tempi diaspettativa di vita non sono sempre bendefiniti) ed i formati in cui sono organiz-zati i dati (spesso proprietari e, a volte,desueti, con l’inevitabile migrazione ver-so nuove specifiche). Questi sono alcunidegli aspetti strettamente correlati allapreservazione del digitale, fortementecondizionato anche dall’obsolescenzainformatica. Un grande impegno, per lafotografia digitale, sarà quello di rispet-tare tutte le condizioni offerte dalla tra-dizionale ripresa analogica a vantaggio diun utilizzo e condivisione in contestisempre nuovi e non convenzionali.

3.5 La nascita del digitale digitale

8584 elettroniche sono state le scienze, so-prattutto con la rapida trasformazionedei sistemi astronomici che in meno di undecennio, a partire dal 1979, hanno vistola conversione dei telescopi al digitale,l’impiego di telecamere digitali in satel-liti (Hubble Space telescope, 1990) e la na-scita di numerosi gruppi di astrofili chefortemente hanno lavorato per la tran-sizione al digitale. Altrettanto impor-tante, all’inizio, è stato il ruolo della te-levisione e dei nuovi sistemi di comuni-cazione che hanno fortemente spintoverso le tecnologie digitali con la realiz-zazione, fin dalla metà degli anni Set-tanta, delle prime telecamere per ripre-se televisive e all’inizio degli anni No-vanta con una rapida conversione del fo-togiornalismo ai sistemi digitali. Va ri-badito che si sono sviluppate prima le vi-deocamere e solo successivamente quel-le fotografiche; questo è accaduto perdue ragioni concomitanti: n il sensore CCD consente un acquisi-

zione di immagini dinamiche, quindi èstato naturale sfruttarne al meglio lesue caratteristiche;

n il mondo della televisione è molto più“giovane” di quello della fotografia,quindi più pronto ad accettare le no-vità. Inoltre è ben nota la scelta dellaBBC che da più di dieci anni ha abban-donato il sistema analogico ed invia ilsegnale video in digitale sfruttando siail canale terrestre che quello satellitare.

Vi è inoltre da considerare che, inizial-mente, il vero vantaggio risiedeva proprionella rapidità di trasmissione dati, grazieanche allo sviluppo dei sistemi di comu-nicazione globale basati sul digitale: larete Internet. Già nel 1984, comunque, laCanon sperimentava la fotografia digitalealle olimpiadi di Los Angeles, provando adentrare in un settore (quello commer-ciale) in cui la qualità dell’immagine èmolto importante, dimostrando così laavvenuta maturazione delle tecnologie.

Tutti questi elementi, essenziali per fi-nanziare il costoso sviluppo delle tecno-logie, non sarebbero bastati se non vi fos-se stato la contemporanea diffusione algrande pubblico degli elaboratori elet-

tronici e, successivamente, la nascitadella rete con un conseguente enormesviluppo delle risorse (in termini di me-moria e di programmi) e del mercatodelle immagini. Per dare dei riferimentipiù precisi si può ricordare che l’Apple e ilCommodore, primi calcolatori per un mer-cato di massa, sono apparsi nel 1974 e larete si è sviluppata a partire dal 1991. Losviluppo dei sistemi di fotografia digita-le è andato in parallelo. Nel 1990 la Logi-tech mise sul mercato il primo sistema fo-tografico completamente digitale, la Dy-cam Model 1, che consentiva di archiviare32 immagini in toni di grigio di 90240 pi-xel ed un tempio di acquisizione superioreai 10-2 secondi. Nel 1994 la Apple intro-dusse l’Apple Quicktake 100 primo sistemacostruito per funzionare con un elabo-ratore elettronico. Un anno dopo la Ko-dak realizzò la DC40, a cui fece concor-renza la Casio QV-11 e nel 1996 la Sony's Cy-ber-Shot, tutte in grado di interfacciarsicon i calcolatori elettronici (Fig. 3).

La possibilità di vedere e trasferire di-rettamente le immagini acquisite suglielaboratori ne ha decretato l’immediato

Fig. 3Macchine

fotografiche digitali:Mavica, Dycam,

QuickTake, DC40,Cyber-Shot.

Storia delle tecniche e dei procedimenti

Page 44: Presentazione - uniroma1.itgiovanni.gigante/Lavori/cap.1-2-3... · 2015-03-16 · Presentazione A. Batori Lorem ipsum dolor sit amet, consectetur adipiscing elit. Nullam tellus mauris,

3.6 Tecnologie di acquisizione del digitaleF. Birimbelli, V. Carnevale, F. Liberati

La nascita dei dispositivi di acquisizio-ne digitale può essere fissata nel 1969,anno in cui George Smith e William Boy-le, ingegneri dei laboratori Bell di Murrayhill nel New Jersey, progettarono un chipche poteva essere usato come compo-nente predisposto all’acquisizione di im-magini processabili da un calcolatoreelettronico. La loro intenzione era quel-la di costruire un semplice meccanismodi ripresa digitale (il PicturePhone) e, in bre-ve tempo, consapevoli della versatilità of-ferta dal prototipo prodotto, mutuato peranalogia dalle memorie a bolle magne-tiche, riuscirono ad estendere e migliorarele funzionalità per garantire una acqui-sizione valida di immagini fisse ed inmovimento, realizzando il sensore digi-tale [Boyle et al., 1970]. L’idea si fondavasu nozioni note: la possibilità di memo-rizzare delle cariche per mezzo di un sot-tile strato metallico depositato sulla su-perficie di un cristallo di silicio. Il silicio èun materiale semiconduttore, cioè un ele-mento che presenta una conduttivitàelettrica intermedia tra quella dei con-duttori metallici e quella degli isolanti.Negli anni a venire i sensori digitali ebberoun grande utilizzo in ambito astronomi-co, in quanto offrivano ottime prestazioni(sensibilità e definizione), la facilità di ge-stione dell’informazione e la possibilità diminimizzare l’eventuale presenza di ru-more attraverso opportuni algoritmi[Leo et al., 1995]. Inoltre, la possibilità dimodificare ed elaborare con semplici edimmediati passaggi il livello qualitativodelle informazioni cromatiche digitali,

l’immediata accessibilità e distribuzione,i nuovi algoritmi di compressione dati neldominio applicativo delle immagini fisseo in movimento favorirono, in breve tem-po, il loro utilizzo a livello commerciale.Quest’ultimo aspetto determinò l’ab-battimento dei costi ed il graduale ab-bandono della fotografia analogica, trop-po legata all’intermediazione di un ope-ratore per lo sviluppo e l’elaborazione equindi con costi maggiori. Inoltre gli al-goritmi applicabili alle immagini digita-li sono diventati così raffinati da “simu-lare” in tutto e per tutto (anche se i puri-sti dell’analogico non concordano) le ela-borazioni chimiche e le tecniche di un la-boratorio fotografico.

3.6.a Tipologie di sensori digitali

In una macchina fotografica tradizio-nale, la luce viene fatta convergere da unalente (l’obiettivo) attraverso un’apertura(l’otturatore), fino a raggiungere unaporzione di pellicola posizionata sul pia-no focale. La macchina digitale ha un fun-zionamento analogo ma invece di cat-turare l’informazione cromatica su unsupporto analogico, sfrutta un sensore di-gitale che campiona la luce filtrante at-traverso l’obiettivo e la converte in segnalielettrici. Il dispositivo di acquisizione è ca-ratterizzato da una matrice di micro-scopiche regioni (i fotositi, photosite) di di-versa forma (quadra, rettangolare edesagonale), disposte a griglia sulla su-perficie di un cristallo di silicio, sensibili

alla luce.I segnali elettrici vengono am-plificati e poi inviati ad un convertitoreanalogico-digitale che li trasforma in va-lori discreti. I numeri risultanti sono co-dificati e processati da un sistema infor-matico che provvede a memorizzarli oelaborarli.

Il principio di funzionamento dei foto-siti è teoricamente analogo a quello deipannelli fotovoltaici. Il sensore è costi-tuito da due zone di composizione simi-le, il silicio, ma addizionate con materialidiversi (drogaggio tipo N e tipo P). Con iltermine drogaggio, nell’ambito dei se-miconduttori, si intende l’aggiunta alsemiconduttore di piccole percentualidi atomi non facenti parte del semicon-duttore stesso allo scopo di modificare leproprietà elettriche del materiale. Il ma-teriale drogato in sé continua a risultareelettricamente neutro ma nell’ambitodel reticolo cristallino gli atomi drogan-ti possono avere un elettrone in più ri-spetto a quelli necessari a soddisfare i le-gami del reticolo stesso (drogaggio tipoN) o un elettrone in meno (drogaggio tipoP). Le cariche elettriche non possonopassare da una zona all’altra liberamen-te ma sono sottoposte a delle regoledettate dalle proprietà dei due materia-li. Le due zone sono ovviamente a caricanulla, quindi in ciascuna area, prima chela luce la colpisca, il numero di cariche po-sitive è uguale a quello delle cariche ne-gative, cambia solo la loro disposizione(Figura 1a). Tra le due zone ve ne è una dicontatto (giunzione NP detta zona disvuotamento o deplation layer) che agisce

8786

Page 45: Presentazione - uniroma1.itgiovanni.gigante/Lavori/cap.1-2-3... · 2015-03-16 · Presentazione A. Batori Lorem ipsum dolor sit amet, consectetur adipiscing elit. Nullam tellus mauris,

all’emulsione fotografica. Al termine del-l’esposizione l’immagine “impressa” nelsubstrato del sensore è trasmessa sottoforma di segnale elettrico ad un circuitointegrato che ne effettua il campiona-mento, mutando il segnale d’immaginein una ordinata sequenza numerica di va-lori codificati nel sistema binario (i bit).

Il termine CCD deriva dal modo in cuila macchina digitale interpreta le carichedei singoli fotositi. In genere, dopo averesposto il CCD, le cariche sulla primafila di fotositi sono trasferite a un dispo-sitivo di uscita (read out register) dovevengono amplificati e poi inviati al con-vertitore analogico-digitale. ogni fila dicariche viene elettricamente accoppiataa quella successiva in modo che, dopo lalettura e cancellazione di una fila, quel-le successive si spostano verso il basso peroccupare lo spazio. Dopo che tutte le filedi fotositi sono state lette il CCD viene ri-caricato di elettroni ed è pronto ad ac-quisire una nuova immagine (Figura 2).

I fotositi sono sensibili soltanto allaquantità di luce che ricevono; non si oc-cupano del colore. Per percepire il colo-re la macchina digitale deve poter effet-tuare una sorta di filtraggio mediante larappresentazione in rosso, verde e blu(rGB) simile al metodo proposto da J.Maxwell. Per ottenere una sintesi deicolori è possibile operare in diversi modi,ma la più comune è quella che adoperauna serie di filtri rGB sui singoli fotositi.Questa combinazione di filtri viene chia-mata “allineamento di filtri a colori” (co-lor filter array) e la maggior parte dei CCD

usano uno schema detto Pattern di Ba-yern (Figura 3).

Grazie a questi filtri, il CCD può pro-durre immagini distinte e incomplete dicolore rosso, verde e blu. Le immagini nonsono complete perché se si fa riferimen-to, ad esempio, al canale rosso quest’ul-timo è privo di tutti quei pixel coperti daun filtro blu e viceversa l’immagine blumanca dei pixel coperti da un filtro rosso.Ad entrambe, inoltre, mancano tuttiquei pixel coperti da un filtro verde. Perrealizzare un’immagine a colori comple-ta, viene utilizzato un metodo di inter-polazione sofisticato: il colore di ognipixel è determinato analizzando quelliadiacenti. Per esempio, se si osserva unpixel e si nota che i vicini hanno valori alti,allora, per la sintesi additiva dei colori (vi-sto che si ha una campionatura per com-ponenti rGB) il colore risultante sarà ilbianco. La numerosa presenza di fotosi-

ti verdi rispetto a quelli rossi o blu è giu-stificata dalla diversa sensibilità dell’oc-chio umano che è maggiore alla compo-nente verde, per questo motivo è semprebene avere più risoluzione di questo ca-nale. Di algoritmi di interpolazione ve nesono molti ed alcuni estremamente com-

3.6 tecnologie di acquisizione del digitale

Fig. 2 Struttura generica diun CCD.

Fig. 3Pattern di Bayer per lasintesi dei colori in unCCD.

8988

come un filtro selettivo delle cariche chepossono passare attraverso. Le regolesono le seguenti: le cariche negative pos-sono passare da N a P e, analogamente,le cariche positive possono fare lo stessoda P ad N. Viceversa le cariche negativenon possono passare da P ad N e, di con-seguenza, le cariche positive non posso-no passare da N ad P. Quando i fotoni im-pattano sul silicio nella parte N, cedonoenergia agli elettroni “liberi” dai legami divalenza (legami del reticolo) che passanonella zona di conduzione: tale carica ne-gativa migra verso il lato P, mentre la la-cuna prodotta positiva resta dov’è (e vi-ceversa per il lato N). In questo modo sicontinuano ad accumulare cariche posi-tive da un lato e negative da un altro. Ciòdetermina una differenza di potenzialetra i due lati e, grazie all’uso di un con-duttore, è possibile consentire il fluire dicorrente. Essendo entrambi i lati pro-porzionali al numero di cariche prodottee quindi al numero di fotoni ricevuti, èpossibile misurare la quantità di luceche arriva al sensore.

I sensori digitali si dividono in duegrandi categorie: i dispositivi ad accop-piamento di carica (CCD, Charge Coupled

Device) e i semiconduttori all’ossido di me-tallo complementare (CMoS, Comple-mentary Metal oxide Semiconductor) [Buil,1991] [Lomheim et al., 2007] [Nakamura,2005] [holst, 1998].

Il dispositivo ad accoppiamento di ca-rica (Charge Coupled Device, o CCD) è unchip di silicio ricoperto dai fotositi siste-mati in una tabella: una griglia rettan-golare o quadrata. Per ogni area appar-tenente alla griglia il sensore catturauna quantità di luce, una media, che poiviene processata in maniera adeguata. Inparticolare ciascun fotosito raccoglieuna quantità proporzionale alla duratadell’esposizione e all’intensità del flussoluminoso incidente. Quest’ultimo è ener-gia E definibile come §1.

hcE = §1

l

dove h è la costante di Planck, c la ve-locità della luce e l è la lunghezza d’ondadella luce.

Parte dell’energia E è trasformata inelettroni, ossia in cariche elettriche, chesono immediatamente integrate nel sub-strato adiacente alla matrice dei pixel. Ladislocazione dei punti di rilevamento di

intensità luminosa in maniera regolare èun vantaggio rispetto alle tradizionalimacchine a pellicola. In questo ultimocaso, infatti, sul supporto è presente unpulviscolo argenteo (la grana), che im-prigiona le informazioni, con una dispo-sizione spaziale irregolare. Nelle cameredigitali, invece, si ha un sensore che con-sente una campionatura regolare in-trinseca dell’immagine, in cui ogni foto-sito prende il nome di pixel (acronimo dipicture elements). Quindi, durante l’espo-sizione, cioè il processo di integrazionedelle cariche, vi sarà una precisa mappaelettronica dalla scena ripresa che andràformandosi sulla superficie del sensore.Il processo di integrazione è general-mente lineare ed esente dal difetto di re-ciprocità presente nelle emulsioni foto-grafiche, ciò vuol dire che la carica accu-mulata (integrata) dal fotosito è linear-mente proporzionale ai fotoni che lo col-piscono (di solito un elettrone per un fo-tone). Inoltre, durante questa fase, ècatturata una percentuale ben più alta difotoni, dal 20% al 60% rispetto al 2-3% del-l’emulsione fotografica. Tutto ciò significamaggior sensibilità (efficienza quanti-ca) del CCD rispetto (nel 2009, 18200 ISo)

Fig. 1Funzionamento

fotositi. Nella parte asinistra (Figura 1a):zone a carica nulla

dove vigono le regoledi P e N. Nella parte a

sinistra (Figura 1b):zone con accumulo di

cariche dopo l’impattocon i fotoni.

Storia delle tecniche e dei procedimenti

Page 46: Presentazione - uniroma1.itgiovanni.gigante/Lavori/cap.1-2-3... · 2015-03-16 · Presentazione A. Batori Lorem ipsum dolor sit amet, consectetur adipiscing elit. Nullam tellus mauris,

sensibile è adibita a raccogliere l’intensi-tà luminosa (Figura 6). La carica viene poitraslata verso il fondo, dove si trova un re-gistro seriale, per essere accumulata edin seguito inviata per essere interpreta-ta. La lettura dell'immagine, al terminedell’esposizione, avviene mediante tra-sferimento progressivo verticale del con-tenuto delle righe della matrice del sen-sore dalla prima riga all’ultima, dallaquale il segnale è prelevato e campiona-to numericamente. Tutte queste fasisono scandite da temporizzatori se-quenziali e paralleli. Il Full Frame, per-tanto, necessita di otturatore meccani-co per bloccare la luce che colpisce ilsensore durante il tempo di traslazionedelle cariche verso il registro di lettura. Itempi, infatti, non sono molto rapidi(nell’ordine di 10-1 sec) e per questo si po-trebbero registrare e raccogliere, duran-te la traslazione, ancora fotoni, quindinuova carica, alterando l’immagine eprovocando distorsioni indesiderate.

Il CCD Frame transfer è diviso in due par-ti contenenti lo stesso numero di fotosi-ti. Una parte è addetta all’acquisizionedella luce, l’altra, oscurata, è addetta altrasferimento della carica al sistema dielaborazione dati (Figura 7). Quando av-viene l’esposizione, la parte fotosensibi-le salva le cariche e le trasla verso la par-te oscurata liberando così il sensore perun altro scatto quasi istantaneamente epermettendo intanto alla parte oscura-ta di gestire la composizione dell’imma-gine. Il trasferimento delle cariche dauna parte all’altra del sensore è molto ve-

loce (nell’ordine di 10-4 sec) consentendocosì di rinunciare alla presenza dell’ottu-ratore e offrendo l’opportunità di dosarecon l’elettronica i tempi di esposizionecon una precisione equivalente al tempodi trasferimento della carica.

In questo caso vi è una disposizione inverticale dei registri di scorrimento (shift)delle cariche elettriche accumulatesi du-rante il processo di integrazione. Ad ognicolonna di elementi fotosensibili è asso-ciata una colonna adiacente di elemen-ti (i registri) che godono in generale del-le stesse proprietà e tecnologia: in so-stanza il sensore comprende un’areaoscurata ed una esposta (Figura 8). Allafine del processo di integrazione le cari-che accumulatesi negli elementi foto-sensibili sono istantaneamente trasferi-te nei registri verticali per poi essere tra-slocate, riga per riga, nel registro oriz-zontale di lettura del segnale di uscita delCCD. Così facendo si ha una rapidità ditrasferimento delle cariche al di fuoridell’area esposta come nel Frame Tran-sfer. Lo shift delle cariche dai pixel ai re-gistri verticali di lettura, infatti, durapoco più di un milionesimo di secondo. Losvantaggio sta nel fatto che l’area del pi-xel è in gran parte, anche oltre la metà,occupata dall’area oscurata riducendocosì drasticamente la quantità di lucetrattata dall’area fotosensibile. La solu-zione sta nell’utilizzare delle microlenti so-vrapposte ad ogni pixel in modo da con-vogliare tutto il fascio di luce in arrivo ver-so le aree fotosensibili. Anche per questa tecnologia si hanno notevoli vantaggi per

3.6 tecnologie di acquisizione del digitale

9190

plessi proprio per determinare al megliole sottili ombreggiature che servono a co-stituire la scena ripresa. Le differenzefra questi algoritmi sono solo una dellecaratteristiche che distingue la qualitàdelle varie macchine digitali: l’analisi puòavvenire per blocchi di dimensioni diffe-renti (esempio la hP analizza blocchi9x9) o con fotositi dalla forma spazialeparticolare (Fuji utilizza fotoelementicon struttura ottagonale “a nido d’ape”)oppure conl’utilizzo di filtri diversi CYGM(ciano, giallo, verde e magenta); in que-sto caso si ha una maggiore quantità diluce entrante e, di conseguenza, unaminimizzazione del rumore (strategia

presente in molte delle macchine Ca-non). Esistono anche sistemi di acquisi-zione in cui si sfrutta un allineamento atre scatti, la sintesi, cioè, di una immaginea colori grazie all’acquisizione di tre espo-sizioni distinte, una per componente;questo sistema si rifà alla digicromato-grafia, già usata nell’800, dal fotograforusso Prokudin-Gorskii. Siccome non siutilizza l’interpolazione, negli allinea-menti a tre scatti non vi sono artefatti cheinvece possono incorrere per il sistema adallineamento singolo (soprattutto inaree a forte contrasto). Però, scattare trefotografie in successione richiede deitempi maggiori in cui il soggetto deve es-sere statico e la luce costante; di conse-guenza queste macchine risultano utiliper ritrarre oggetti inanimati in uno stu-dio. Le tecnologie viste sono quelle piùusate, ma è anche vero che ci sono altrimodi per l’acquisizione di informazionicromatiche e per la realizzazione di CCD,in seguito ne saranno mostrate alcune.

Nella sua forma semplice un sistema adallineamento lineare consiste in un sen-sore, con una unica fila di fotositi, che ef-fettua tre distinti passaggi filtrati sul-l’area dell’immagine. Essendoci soltantoun sensore costituito da una sola fila di fo-tositi è possibile incrementare la risolu-zione anche con costi minimi. Natural-mente, come l’allineamento a tre scatti,quello lineare, sebbene non abbia problemirelativi all’interpolazione cromatica, sipresta a lavori realizzati in laboratorio.

Nei CCD trilineari ci sono tre linee di pi-xel, una per ogni componente colore, che

vengono traslate lungo l’immagine da ac-quisire (Figura 4). Con ogni allineamen-to filtrato separatamente, la macchinadeve fare soltanto un passaggio sull’areadell’immagine.

Questo tipo di CCD è utilizzato princi-palmente negli scanner piani e nei dorsidigitali a scansione per le acquisizione digrande formato. In ogni caso il soggettodella ripresa deve essere immobile, laluce costante per tutto il tempo di espo-sizione e la griglia di pixel deve esseremossa da un braccio elettromeccanicoper garantire una acquisizione completae regolare.

Alcune macchine digitali utilizzano al-lineamenti multipli, cioè una serie diCCD distinti disposti in maniera oppor-tuna, ognuno in grado di acquisire unacomponente di colore specifica. Quandola luce penetra all’interno della macchi-na viene passata attraverso un tri-prismache la suddivide in tre fasci-copia. ognicopia viene indirizzata ad uno specificoCCD che è filtrato per uno specifico colore(Figura 5). In alternativa è possibile uti-lizzare tre prismi con due filtri dicroici (ros-so/verde e blu/giallo) che separano il fa-scio di luce in tre copie direttamente re-lative alle componenti rosso, verde e blu.Le macchine ad allineamenti multiplipossiedono la flessibilità di un sistema adallineamento singolo ma senza alcunproblema legato all’interpolazione. Aven-do, però, il triplo di CCD rispetto ad unamacchina ad allineamento singolo, spes-so si va incontro a costi elevati.

Nel CCD Full-Frame tutta l’area foto-

Storia delle tecniche e dei procedimenti

Fig. 4Schema CCD

trilineare.

Fig. 5Schema CCD

multiplo.

Fig. 6CCD Full frame.

Fig. 7CCD Frame Transfer.

Page 47: Presentazione - uniroma1.itgiovanni.gigante/Lavori/cap.1-2-3... · 2015-03-16 · Presentazione A. Batori Lorem ipsum dolor sit amet, consectetur adipiscing elit. Nullam tellus mauris,

ghezze d’onda al variare della profondi-tà. Mentre nel CMoS e nel CCD pixelcontigui raccolgono diverse lunghezzed’onda, perdendo quindi parte dell’in-formazione in arrivo al sensore, nel Fo-veon la luce viene sfruttata appieno (Fi-gura 10) senza bisogno di interpolazioneper “prevedere” quali saranno i colori inogni pixel.

In Figura 11 è riprodotta una sezione diun pixel in un sensore in cui è chiaro ve-dere come le lunghezze d’onda vicine al-l’ultravioletto (blu nel nostro caso) sonoquelle più corte e vengono raccolte in su-perficie. La luce verde e rossa, con mag-giore lunghezza d’onda, viene raccolta aprofondità maggiore. Nella figura, inoltre,lo zero di riferimento è la riga viola in su-perficie, mentre i tre strumenti rotondisono delle rappresentazioni dei voltmetriche misurano la differenza di potenzialetra la superficie e i vari strati. A questopunto si ha già la griglia di immagine chenegli altri sensori richiedeva diversi pas-saggi e algoritmi di interpolazione.

Questo tipo di tecnologia favorisceun’acquisizione con colori fedeli, chiari e

nitidi (Figura 12 sinistra), permette una ri-duzione degli artefatti cromatici in trame(Figura 12, centro) ed elimina le abberra-zioni che si creano in situazione di fortecontrasto (Figura 12 destra), tipiche deidocumenti bitonali (fax, lettere,ecc.) [Fo-veon, 2009].

3.5.b Errori di acquisizione

Nella fotografia digitale la presenza dirumore (noise) all’aumentare della sensi-bilità è sempre stato un problema inevi-tabile. Nei sensori CCD il rumore può es-sere causato dal ripetuto passaggio di ca-rica da un pixel all’altro. La carica infattinon riesce a passare sempre integra dauna fila all’altra per via di difetti intrinse-ci ai materiali di progettazione stessi (laminima resistenza da parte dei condut-tori, la non assoluta precisione da partedei controllori e dei timer del processo, lecariche residue nei pixel). La dispersionedelle cariche lungo i vari salti costringe illettore alla fine della griglia ad abbassa-re la soglia per individuare se ad un pixel

3.6 tecnologie di acquisizione del digitale

9392 quanto riguarda scatti a raffica. Infine, lecamere dotate di CCD interline transfernon hanno bisogno di disporre di ottu-ratori elettromeccanici, in quanto sono,di per sé, dotate di efficientissimi e velo-cissimi otturatori elettronici.

I sensori basati su semiconduttore al-l’ossido di metallo complementare,CMoS, sfruttano la stessa tecnologiautilizzata per la realizzazione di micro-processori e memorie a stato solido. Unsensore CMoS può essere ricondotto adun mosaico di elementi fotovoltaici (ipixel) che filtrano ciascuno uno dei tre ca-nali dello spettro rGB. Quando un pixelviene stimolato dalla luce appartenenteall’ampiezza di spettro che è destinata acoprire si produce una differenza di po-tenziale in un fotodiodo. Per selezionarequale dei tre colori fondamentali andrà a

colpire il singolo sensore sopra ognuno diessi vi è un filtro che lascia passare soloil colore desiderato. Come i sensori CCD,anche i CMoS usano una matrice di fo-todiodi per convertire il segnale lumino-so in una carica elettrica che viene accu-mulata in piccoli elementi contenitivi(condensatori). Il segnale viene accre-sciuto da un amplificatore che, nel casodel CMoS, è presente su ciascun pixel. Lacarica è così scansionata prima ancora diessere trattata dai chip addetti all’ela-borazione dell’immagine (Figura 9).

Nel 2007 si è avuto un miglioramentoin questo campo grazie l’introduzione diuna nuova tecnologia: il Foveon. Nel Fo-veon ogni fotosito è composto da una su-perficie di silicio di quattro micrometri op-portunamente trattata. Questa superfi-cie consente di filtrare le diverse lun-

Fig. 8CCD Interline.

Fig. 9Struttura generica

di un CMoS.

Storia delle tecniche e dei procedimenti

Fig. 10 Tecnologia Foveon.

Fig. 11 Tecnologia Foveon.

Fig. 12 Esempi di acquisizionecon CCD tradizionale(sinistra) e Foveon (adestra).La figura è stataricavata dagli esempipresenti nel sito dellaFoveon(www.foveon.com).

Page 48: Presentazione - uniroma1.itgiovanni.gigante/Lavori/cap.1-2-3... · 2015-03-16 · Presentazione A. Batori Lorem ipsum dolor sit amet, consectetur adipiscing elit. Nullam tellus mauris,

Bibliografia

Buil C., 1991. CCD Astronomy, Construction and use of an astronomical CCD camera, Willmann-Bell, richmond, Virginia, USA.

Boyle W. and G. Smith, 1970. A new semiconductor device concept has been deviced which shows promise of having wide ap-plication, in System technical Journal. Wiley, hoboken, New Jersey, USA. Vol. 49, n.4.Foveon, 2009, “Foveon tecnology”, www.foveon.com.

Holst G. C, 1998. Ccd Arrays, Cameras and Displays, SPiE-international Society for optical Engine; 2 Sub edition, Bellingham, Wa-shington, USA.

Leo A., G. Quarra, D. Sarocchi, 1995. Introduzione storica e descrittiva dei CCD, Enciclopedia Astronomia Video - Fabbri Editori,Milano, Italia.

Lomheim T. S. and G. C. Holst, 2007. CMoS/CCD Sensors and Camera Systems, in SPiE - international Society for optical Engine.Bellingham, Washington, USA.Massey P., 1997. A user's Guide to CCD reductions with irAF (National optical Astronomy observatories: Tucson).Tucson, Arizona,USA.

Nakamura J., 2005. image Sensors and Signal Processing for Digital Still Cameras, CrC.1 edition. London, United Kingdom.

Palmer J. and A.C. Davenhall, 2001. the CCD Photometric Calibration Cookbook, Starlink, SC/6.4. Swindon, United Kingdom.

Wells L.A and D.J. Bell, 1994. Cleaning images of Bad Pixels and Cosmic rays using irAF (National optical Astronomy observato-ries: Tucson). Tucson, Arizona, USA.

3.6 tecnologie di acquisizione del digitale

9594 è arrivato il fascio luminoso in modo taleche, in condizioni di poca luce, vi sia unalettura di pixel esposti anche quandonon lo sono.

Altro problema dei sensori CCD e CMoSè la deriva termica. Dovendo restare ac-ceso per molto tempo (per usare il miri-no elettronico nelle compatte, per espor-re con tempi lunghi nella fotografia astro-nomica) il sensore (che è dotato di com-ponenti elettrici attivi che si occupano deitrasferimenti delle cariche) comincia ascaldarsi causando una produzione dicariche termiche. Attualmente i moder-ni CCD hanno una produzione di carichetermiche piuttosto bassa anche a tem-peratura ambiente. Questi CCD, raf-freddati intorno ai 30°C, producono menodi un elettrone al secondo, poco più di200 elettroni in una posa di cinque mi-nuti. Ciò da luogo ad un rumore termicodi meno di 15 elettroni, quasi uguale al ru-more di lettura dovuto all’elettronicadella camera CCD, che è un valore non si-gnificativo. Nel Foveon il problema ru-more è particolarmente importante: do-vendo attraversare strati di silicio la luceche arriva ai vari sensori alle diverse pro-fondità è fortemente attenuata. Anchequi il sensore di immagine, in caso di pocaluce, darà una lettura errata dell’infor-mazione in arrivo dai pixel (nei primisensori di questo tipo la sensibilità ISonon raggiungeva valore superiore a 400).

Altro problema si presenta qualora unfotosito venga colpito da troppa luce,questo può influenzare i fotoelementiadiacenti. Se il software della macchina

digitale non è sufficientemente capace digestire questo fenomeno si vedrà un ef-fetto blooming, cioè macchie di colore echiazze luminose nell’immagine finale.L’effetto blooming capita più spesso conquei CCD più piccoli e con quelli ad alta ri-soluzione, perché i fotositi sono in posi-zione più ravvicinata fra loro.

A questi si aggiungono problemi lega-ti a pixel caldi o freddi cioè quelli che han-no rispettivamente una corrente di buio(dark current) elevata rispetto alla media omeno; la corrente di buio è la corrente chepassa continuamente sul sensore di ri-presa. Questo è un parametro influenza-bile dai sensori, dalla corrente passante edalla temperatura. Tale fenomeno è ri-producibile: in identiche condizioni ditemperatura e di durata di una esposizioneun dato sensore genera sempre lo stessonumero di elettroni a meno di un fattoredi dispersione statistica (rumore Termico),variabile a seconda del tipo di sensore im-piegato. La quantità di cariche elettrichegenerate è quasi proporzionale al tempodi integrazione. La dark current prodottadipende fortemente dalla temperaturadel sensore: la sua intensità diminuisce ingenere di un fattore 2 per ogni 6°C inmeno di temperatura del sensore. Perquesta ragione essa viene anche chia-mata corrente termica (thermal current) ele cariche prodotte si chiamano carichetermiche (thermal charges). Questo pro-blema può essere eliminato se si opera inun modo appropriato, magari utilizzandodei sistemi di raffreddamento adeguati.Un ulteriore approccio è quello di agire di-

rettamente sull’immagine prodotta. Unistante prima di scattare la foto vera e pro-pria il dispositivo cattura un’immagine adotturatore chiuso: non arrivando luce alsensore l’unica cosa che esso trasmette-rà all’elaboratore sarà il rumore. Sottra-endo tale immagine contenente una“mappa” del rumore allo scatto vero eproprio compiuto in seguito si ottieneuna drastica riduzione del rumore.

Inoltre ci possono essere problemi di vi-gnettatura, dovuta all’ottica che tende adilluminare di più la parte centrale dellezone periferiche con un gradiente circo-lare (problema noto anche nella foto-grafia analogica).

Anche l’inquinamento luminoso giocaun ruolo di disturbo notevole: si creanoscostamenti luminosi in presenza di for-ti fonti lucenti.

A tutto ciò vanno aggiunte pratiche dicorretta manutenzione: la presenza dipolvere e grasso sul sensore, sui filtri o sulsistema ottico crea delle zone buie inquanto blocca parte della luce incidente(per questo motivo, recentemente, sonostati utilizzati filtri elettromagnetici cheimpediscono al pulviscolo di raggiungereil sensore); l’uso approssimativo porta larottura di parti meccaniche ed, infine, lapresenza di acqua e umidità può provocaredanni ai circuiti elettronici [Massey, 1997][Palmer et al., 2001] [Wells et al., 1994].

ringraziamentiGli autori vogliono ringraziare Mar-

gherita, Federica, “Clint” e “Dolly” per i lorocommenti ed il prezioso supporto.

Storia delle tecniche e dei procedimenti