accademia di belle arti di carraraarchive.accademiacarrara.it/biennio-specialistico... · il suo...

208

Upload: others

Post on 30-May-2020

2 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei
Page 2: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

2

Page 3: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

Accademia Di Belle Arti Di Carrara

Scuola di Nuove Tecnologie dell'ArteBiennio di Net Art e Culture Digitali

WE.ARE.ABLE

social wearable augmented reality

candidato: Antonino Cartisano

relatore: Massimo Cittadini

co-relatore: Massimiliano Menconi

a.a. 2011-2012Sessione di tesi del 5 ottobre 2012

Page 4: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei
Page 5: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

_____________________________________INTRODUZIONE 9

CAPITOLO PRIMO:

Dal computer calcolatore al computer “comunicatore”

1. La macchina di Anticitera e i padri dell’informatica “moderna”

_________________1.1 La mano, il primo computer “digitale” 16

________________________1.2 Il primo calcolatore analogico 17

________________________1.3 La prima macchina aritmetica 18

__________________________1.4 Leibniz e il sistema binario 19

__________________1.5 XIX secolo: Rivoluzione Tecnologica 21

__________________________1.6 I primi computer meccanici 22

______________________________________1.7 Alan Turing 25

____________1.8 “As We May Think” secondo Vannevar Bush 28

2. La “visione” utopistica di Engelbart e Licklider

________________________2.1 I “Giant brain” degli anni ‘40 31

_______2.2 Engelbart e il potenziamento dell’intelletto umano 34

_________________2.3 Licklider e la simbiosi uomo computer 41

2.4 La dimostrazione dell’esistenza dei sogni di Engelbart e ___________________________________________Licklider 45

3. La Rete nata dalle reti

3.1 La commutazione di pacchetto di Paul Baran e Leonard ___________________________________________Kleinrock 54

_______________3.2 Il time-sharing e l’Intergalactic Network 56

______________________3.3 Arpanet per un milione di dollari 59

___________3.4 “The Computer as a Communication Device” 62

5

Page 6: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

__________________3.5 Lo Xerox Parc e la nascita di internet 65

CAPITOLO SECONDO:

Socializzare al tempo della “Rete”

4. Comunicazione e condivisione del Sé in Rete

_______4.1 La Teoria dell’informazione e della comunicazione 72

__4.2 La comunicazione mediata dal computer e Identità in rete 75

_______________4.3 Nomofobia e disturbi da social addiction 83

CAPITOLO TERZO:

Dalle Realtà Virtuali alle Realtà Aumentate

5. L’Ultimate Display e i primi passi in Realtà Virtuale

5.1 Il teatro dell’esperienza e “la realtà per un nichelino” di _____________________________________________Heilig. 91

_________________5.2 L’Ultimate Display di Ivan Sutherland. 96

___________5.3 Ambienti Virtuali interattivi: Myron Kreuger 106

_________________________5.4 L’ingresso nel Cyberspazio 121

6. Augmented Reality

________________6.1 Virtual Reality vs. Augmented Reality 141

_______________________6.2 Enabling Display Tecnologies 145

_______________________6.3 I continuum di Paul Milgram 149

_____6.4 Che cos’è la Realtà Aumentata? E di cosa si occupa? 155

CAPITOLO QUARTO:

Il progetto we.are.able: social wearable augmented reality

________________________________________Introduzione 177

6

Page 7: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

_____________________Motivazioni e obiettivi del progetto 179

_____________________Descrizione del progetto we.are.able 182

___________________________________Risultati raggiunti 192

________________________________________Conclusione 201

Bibliografia

Sitografia

7

Page 8: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

8

Page 9: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

INTRODUZIONE

La prima parte dell'elaborato tratta l'evoluzione della tecnologia, dai primi strumenti di calcolo, succeduti alla mano come primo calcolatore, ai più attuali dispositivi elettronici che, oltre ad aver contribuito al progresso umano con un nuovo tipo di comunicazione (Internet), hanno fornito l'interazione con un nuovo mondo, parallelo al nostro.

Il mondo della Realtà Aumentata.

"Il primo computer digitale" è attribuito alla mano (dattilonomia). Non sorprende quindi il fatto che il termine inglese "digit" (cifra), utilizzato nel linguaggio di moderni computer, derivi dalla parola latina "digitus" (dito).

Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei primi strumenti di calcolo analogici, come la Macchina di Antikythera, la Pascalina e la Macchina a Scatti di Leibniz.

Si arriva difatti ad introdurre il mondo ad un nuovo punto di vista teorico-matematico, quello dell'aritmetica binaria di Leibniz (1701) e dell'utilizzo di schede perforate (Telaio Jacquard ). Nascono così i primi computer meccanici, ideati per agevolare l'uomo nel risolvere calcoli, tra cui la Macchina Differenziale di Charles Babbage (1820) e la Tabulatrice di Hollerith (1890). Una vera e propria rivoluzione per l'epoca.

Grazie allo straordinario progredire delle tecnologie informatiche nel XX secolo, come la Macchina di Turing e Colossus, Bush riuscì a risollevare il paese, segnato dalla fine del secondo conflitto mondiale, con As We May Think e il Memex.

I computer iniziarono così ad essere visti non più come macchine in sé ma come strumenti per aumentare l'intelletto. Gli anni '60 furono infatti caratterizzati dalla simbiosi tra l'uomo e i computer, dettata da Licklider, e dalla creazione dell'ARPA (ARPANET, 1967 con Licklider e Bob Taylor, antenata dell'attuale Internet), potenziata dal time-sharing di Bob Berner e dalla commutazione a pacchetto di Kleinrock e Davies ("Sai Larry, questa rete sta diventando troppo complessa per essere disegnata sul retro di una busta").

Parallelamente alla nascita di queste idee geniali, nel 1968 Engelbart vive la sua storica conferenza "Madre di tutte le demo" ed Alan Key con Smart-Talk (1968-1972) introduce il desktop, il primo mondo virtuale in cui l'uomo si può immergere e navigare.

Il progredire tecnologico porterà così alla creazione di Xerox ALTO (1973), il primo personal computer della storia, e la nascita di INTERNET (1980), in cui chiunque può crearsi un'identità online (che può rispecchiare o meno la vita reale), fornirsi di una propria homepage o attaccare un post sui Social Network.

Questo avvento delle nuove tecnologie e l'abbattimento dei costi, oltre ad avere un aspetto più che positivo, mostra anche l'aspetto negativo, provocando

9

Page 10: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

un'esigenza sempre più forte di socializzare, quindi di rimare in rete (Nomofobia o disturbi da Social Addiction o Friendship Addiction).

Le rivoluzioni tecnologiche portano così ad un progresso umano e quindi all'esplorazione di nuovi orizzonti. Si fanno i primi passi verso il mondo in Realtà Virtuale e in Realtà Aumentata.

Uno dei primi fu Heiling che diede vita al Sensorama Simulator, un'esperienza multisensoriale mai provata prima. Susseguirono Sketchpad e The Ultimate Display, entrambe di Sutherland, in cui pose le basi per l'avvento della realtà virtuale.

Nel 1968 completato l'Head Mounted Three Dimensional Display (spada di Democle), Sutherland e il suo staff svilupparono il matrix multiplier e il clipping divider.

A differenza di Shuterland, Myron Krueger concepì un'idea diversa di realtà virtuale: non sarebbero stati ingombranti ed isolanti marchingegni a condurre l'uomo in mondi artificiali, ma una stanza appositamente studiata. Nascono così parallelamente altri esperimenti di realtà virtuale, come Put that there (1980), sotto la supervisione di Richard Bolt, con interfaccia a comando gestuale-vocale, come Aspen Movie Map, una sorta di evoluzione del Sensorama di Hollerith e ascendente dell'attuale Google Street View (immersività), come Moondust, ideato da Janor Lanier.

Nel 1981 si assaggiò quello che oggi definiamo wearable computer. Difatti Thomas Zimmerman, appassionato di musica come Lanier, ideò Dataglove ("quella mano fluttuante era qualcosa di più di una mano. Ero io"), un guanto-sensore impiegato nella realtà virtuale.

Si respirava così una nuova aria. Un'aria di una nuova era dalle potenzialità non meno affascinanti e suggestive: l'era della Realtà Aumentata.

Nata per agevolare l'uomo (manutenzione Boeing 747), prese subito campo mediatico. Brevettato da Sportvision, 1st & Ten è il primo esempio di AR ad essere utilizzato nei broacasting televisivi.

Si ha così la prima esplosione mediatica del concetto AR. Esplosione favorita dall'uscita di ARToolKit e successivamente di FLARToolkit

(2004), grazie alle quali si potevano creare applicazioni in AR (alcuni esempi sono il 3-D stethoscope per l'ambito medico, IARM per quello militare e N'Building per quello architettonico).

Anteprima di ciò che ci potrebbe riservare il futuro, è data da Pranav Mistry, con la creazione del dispositivo augmented reality wearable, Sixth Sense. Questo dispositivo di interfaccia gestuale wearable aumenta il mondo fisico di informazioni digitali, attraverso l'utilizzo di movimenti e gesture naturali della mano per interagire con i contenuti virtuali.

Si ritorna così,dopo un excursus di migliaia di anni, alla mano, da strumento calcolatore a strumento di realtà aumentata.

Mano che avrà un ruolo anche nella seconda parte del mio elaborato, quella dedicata al progetto.

10

Page 11: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

La seconda parte dell'elaborato tratta il concetto di wearable computer. Verrà utilizzato difatti un guanto,attraverso il quale si potrà interagire in

augmented reality e si potranno scambiare informazioni e dati, tramite dispositivi NFC. Informazioni che riguarderanno il nostro status emotivo oppure dati sull'ambiente che ci circonda (es. temperatura, luminosità), tracciate dai sensori disposti sull'apposito guanto.

Tutte informazioni reali, dettate dal nostro corpo e da ciò che ci circonda, non caratteristiche di false personalità come per lo più accade nei Social Network.

Questo mio progetto vuole così portare il "sociale" che è in rete, in quello in cui "tutti si è amici di tutti", nella vita reale. Quindi, siccome lo scambio di dati si effettuerà solo tramite contatto fisico, utilizzando un guanto, quale migliore contatto c'è che una sincera stretta di mano tra "amici virtuali"?

11

Page 12: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

12

Page 13: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

13

Page 14: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

14

Page 15: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

CAPITOLO PRIMO:Dal computer calcolatore al computer “comunicatore”

1. La macchina di Anticitera e i padri dell’informatica “moderna”

In senso Engelbartiano1 un computer, oltre che digitale o analogico, può essere

inteso come strumento in grado di “aumentare” l’intelletto, accrescere cioè le

capacità umane nella risoluzione e comprensione di complesse problematiche e

situazioni (professionali, scientifiche, sociali, politiche ecc..) che inevitabilmente

si (ri)presentano nella vita di tutti i giorni.

By "augmenting human intellect" we mean increasing the capability of a man to approach a

complex problem situation, to gain comprehension to suit his particular needs, and to derive solutions to problems. ("Augmenting Human Intellect: A Conceptual Framework" Douglas

Engelbart, 1962)

Si tratta di una “way of life” dove le intuizioni umane, i presentimenti e le

capacità di sentire le situazioni (feel for situations) coesistono simbioticamente ad

un più complesso sistema-mondo fatto di tecnologia ed aiuti ad alto potenziale

cognitivo. In poche parole, un sistema dove le macchine per pensare2 e l’intelletto

umano si integrano perfettamente.

Secondo questa concezione per rintracciare nella storia dell’umanità quello che

può essere indicato come il primo computer, occorre guardare ad una tecnologia

remota ed innata, ma in uso ancora oggi: la mano.

15

1 Termine che deriva da Douglas Carl Engelbart (Portland, 30 gennaio 1925), inventore statunitense e pioniere dell'interazione uomo-macchina.

2 La macchina ci permette di lavorare con la conoscenza, allargando l'area delle capacità umane.

Page 16: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

1.1 La mano, il primo computer “digitale”

Le nostre mani senza dubbio rappresentano la prima forma, seppur primitiva,

di amplificatore dell’intelletto (e non solo): sono la chiave che ha aperto all’essere

umano la porta dell’evoluzione, distinguendolo così dagli altri esseri viventi.

La mano ci ha permesso di: costruire utensili e strumenti di caccia, riprodurre

graficamente e simbolicamente ciò che i nostri occhi o la nostra mente vedevano

(grotte di Lascaux), e soprattutto di calcolare.

Grazie all’uso della dattilonomia3 i nostri antenati potevano fare calcoli

aritmetici e, tramite sistemi di rappresentazione, potevano visualizzare numeri

complessi semplificando notevolmente il lavoro che la mente (diversamente da

questa tecnologia) avrebbe dovuto compiere. Sebbene non ci siano prove concrete

e le sue origini siano del tutto oscure, del sistema dita-mente si hanno tracce in

diverse epoche storiche.

Quintiliano (35-96 d.C.), maestro di retorica e oratore romano, per esempio,

afferma che un oratore sarebbe stato considerato ignorante se avesse sbagliato un

calcolo o se avesse utilizzato gesti con le dita in modo errato mentre era

impegnato nella risoluzione del medesimo.

Gli Arabi (abilissimi matematici) chiamavano la dattilonomia “aritmetica dei

nodi”4, ampiamente utilizzata per tutto il Medioevo Islamico. Tale tecnica venne

inserita tra i cinque metodi di espressione umana e preferita a qualsiasi altro

sistema di calcolo perché non richiedeva materiali né strumenti particolari oltre

che a un arto. Si hanno tracce anche nel Medioevo Europeo dove il teologo

anglosassone Beda (672-735 a.C, monaco divenuto santo inglese), nel primo

capitolo del “De computa vel loquela digitorum”, dimostra la possibilità di

esprimersi ed eseguire calcoli con numeri da 1 a 9999 utilizzando la mano.

16

3 Arte ormai (quasi del tutto) abbandonata del conteggio aritmetico tramite l’uso delle dita, adoperando invece dei caratteri le varie inflessioni e movimenti di quest’ultime in modo da rappresentare cifre e calcoli complessi.

4 Aritmetica basata sull'utilizzo di un insieme di cordicelle, annodate tra loro, di diversi colori,che rappresentavano dei numeri e dalla loro reciproca posizione se ne potevano ricavare le unità, le decine, le centinaia e le migliaia.

Page 17: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

Non sorprende quindi il fatto che il termine inglese “digit” (cifra), utilizzato

comunemente nel linguaggio dei moderni computer, derivi dalla parola latina

“digitus” (dito).

Per calcoli di natura più complessa e problematiche sempre più pressanti,

l’uomo nel corso della sua storia ha cercato di costruire strumenti “per pensare”

sempre più tecnologicamente avanzati, allo scopo sia di automatizzare che di

velocizzare determinati processi, sollevando così la mente dal compiere azioni

ripetitive considerate di basso livello (calcoli aritmetici), lasciandola cioè libera di

comprendere meglio e di operare su scelte decisionali e valutative. L’aumento

dell’intelletto diventa così maggiore libertà nelle scelte da compiere e maggiore

possibilità di prendere decisioni corrette e più in fretta.

Nascono quindi strumenti con logiche e caratteristiche più articolate, atte alla

risoluzione di problematiche e situazioni sempre più difficili (che possiamo

collocare nella preistoria

dell’informatica), come: gli antichi

abachi, la scrittura e successivamente le

prime macchine ad ingranaggi per il

calcolo astronomico. La più famosa di

quest’ultime è la macchina di

Antikythera5.

1.2 Il primo calcolatore analogico

Definita come il primo calcolatore

analogico della storia, la macchina di

Antikythera risulta essere qualcosa di

veramente unico nel suo genere. Secondo uno dei suoi più autorevoli studiosi, il

17

5 Nota anche come meccanismo di Antikythera, (150-100 a.C). Si tratta di un sofisticato planetario mosso da ruote dentate, che serviva per il calcolo delle fasi lunari, del sorgere del sole ed altri eventi astronomici (eclissi, movimenti dei pianeti allora conosciuti ecc...).

Trae il nome dall'isola greca di Anticitera (Cerigotto) presso cui è stata rinvenuta. È conservata presso il Museo archeologico nazionale di Atene.

Fig. 1 - Scansione a raggi-X degli ingranaggi che compongono il frammento principale della

macchina di Anticitera.

Page 18: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

prof. Michael Edmunds, insegnante di astrofisca presso l'Università di Cardiff,

siamo di fronte ad un “device straordinario” in cui l’assoluta precisione meccanica

ed astronomica è talmente elevata, considerando la datazione presunta

dell’oggetto (I secolo a.C.), da “lasciare letteralmente a bocca aperta”.

La minuziosità e complessità dei suoi elementi costruttivi è paragonabile agli

orologi costruiti dai maestri del XIX secolo. La sua logica di funzionamento

risulta essere di gran lunga superiore a qualsiasi altra tecnologia similare e

contemporanea alla sua creazione: basti pensare che con pochissime modifiche

avrebbe potuto funzionare come calcolatore matematico e che la stessa tecnologia

sarà utilizzata molti secoli dopo nei calcolatori meccanici.

1.3 La prima macchina aritmetica

...The first arithmetic machine presented to the public was from Blaise Pascal, born in Clermont, Auvergne on June 19, 1623; he invented it at the age of 19 [...] Pascal's machine is the

oldest one; it could have served as model to all the others; this is why we preferred it. ("Encyclopedia" Diderot e D'Alembert, 1751)

Il primo calcolatore aritmetico meccanico, come si legge nell'Encyclopedia6, è

la “Pascalina”, ideata dal genio di Blaise Pascal (1623-1662), matematico e

filosofo francese, all’età di 19 anni come dispositivo che alleviasse il carico di

lavoro che il padre (intendente della finanza) doveva affrontare quotidianamente.

L’esempio perfetto del mezzo meccanico (frutto dell’ingegno umano) che viene in

aiuto per operazioni e compiti ripetitivi, lasciando alla mente l’onere di valutare i

risultati prodotti e confrontarli, inserendoli in contesti e situazioni reali.

Per la sua realizzazione Pascal ha dovuto combattere oltre che con la sua salute

anche contro l’ignoranza del suo tempo. Come spesso accade alle grandi idee

rivoluzionarie anche l’invenzione di Pascal si dimostrò prematura rispetto alle

possibilità economiche, tecniche e meccaniche dell’epoca. Per funzionare meglio

18

6 L' Encyclopaedia è una vasta enciclopedia in lingua francese, pubblicata da un consistente gruppo di intellettuali, sotto la direzione di Diderot e D'Alembert, e rappresenta un significativo punto di arrivo di un percorso teso a creare un compendio universale del sapere.

Page 19: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

e a lungo necessitava di maggiore precisione e forza, ma ciò non toglie il fatto che

la macchina calcolatrice realizzata da Pascal, segnò l’inizio di una corsa

inarrestabile che porterà fino ai moderni calcolatori.

Il principio meccanico della Pascalina non è molto diverso dalla suddetta

macchina di Antikythera e fondamentalmente si basa, come per gli abachi, sul

sistema di numerazione posizionale, in cui i simboli (cifre) usati per scrivere i

numeri, assumono valori diversi a seconda della posizione che occupano nella

notazione. La Pascalina era in grado di computare solo semplici addizioni e

sottrazioni, un limite che nel 1670 Gottfried Wilhelm von Leibniz7 cercò di

superare grazie al prototipo della sua macchina a scatti, dotata di tecnologia per

eseguire anche calcoli più complessi, come moltiplicazioni e divisioni.

1.4 Leibniz e il sistema binario

Nonostante fosse un enorme progresso rispetto alla Pascalina, la macchina a

scatti risulta essere un’innovazione che passa in secondo piano se confrontata a

quello che lo stesso Leibniz, dal punto di vista teorico-matematico, stava

introducendo al mondo.

Per molti anni infatti Leibniz dedicò i suoi studi all’aritmetica binaria8 (1701),

compiendo così uno dei passi più importanti e significativi nella storia delle

macchine elaboratrici: oltre a codificare un alfabeto appropriato per la logica

19

7 Gottfried Wilhelm von Leibniz (1646-1716) era un matematico tedesco, oltre che scienziato e filosofo, noto più come precursore dell'informatica e del calcolo automatico.

8 Il sistema numerico binario è definito un sistema numerico posizionale in base 2, cioè che utilizza 2 simboli, tipicamente 0 e 1, invece dei 10 del sistema numerico decimale tradizionale.

Fig. 2 - La Pascalina

Page 20: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

binaria che permette di scrivere tutti i numeri con due sole cifre (0 e 1), descrisse

compiutamente anche le regole che la governano. Il matematico tedesco

introdusse, dettandone le norme principali, il mondo alla soglia del nuovo mondo

(abbozzando quello che oggi costituisce il linguaggio ufficiale dell’informatica),

ma anche ad una sua visione differente.

La concezione binaria infatti è riconducibile alle sue ricerche di natura

filosofica dualista, dove vide una spiegazione matematica della creazione di tutto

l’universo fisico a partire dal nulla (0) e da Dio (1): "Omnibus ex nihilo ducendis

sufficit unum"9. Le regole che governano la natura sono le stesse che verranno

successivamente utilizzate per il linguaggio dell’informatica, dove è dalla somma

di energia e non energia, materia e non materia, di 1 e di 0, che si crea tutto.

Il passo che Leibniz aveva compiuto si rivelò precursore e quindi determinante

per il futuro del pensiero tecnologico, tuttavia le sue idee rivoluzionarie rimasero

nel dimenticatoio per molti anni. Furono infatti

riscoperte e rivitalizzate solo nel 1847 dal

matematico inglese George Boole (1815-1864),

il fondatore della logica matematica. Nel suo

libro “The Mathematical Analysis of Logic”

Boole descrive un sistema algebrico (oggi

conosciuto come algebra booleana10) basato

sulla logica binaria ,derivata dal lavoro di

Leibniz e suoi predecessori, in cui una serie di

istruzioni (yes-no e on-off) e operazioni di base

(AND, OR e NOT) consentono di codificare in un

linguaggio più prossimo alla macchina qualsiasi tipo

di funzione logica.

20

9 "Per trarre tutte le cose dal nulla basta l'Uno". Così è scritto su una medaglia intitolata “Imago Creationis”, disegnata da Leibniz nel XVII secolo, per “Mostrare alla posterità, in argento” la sua scoperta del sistema binario.

10 Un insieme di regole dettate per la manipolazione e le operazioni su espressioni logiche, definite dall'insieme { 0 , 1}, dove: + somma logica (operatore binario logico OR ), • prodotto logico (operatore binario logico AND ), l’operazione unaria NOT, ovvero espressioni che possono risultare in due soli valori possibili, vero e falso (true e false).

Fig. 3 - Il medaglione “Imago Creationis” disegnato da Leibniz

Page 21: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

1.5 XIX secolo: Rivoluzione Tecnologica

Il passo evolutivo degli elaboratori meccanici, grazie al lavoro costante di

matematici, inventori e scienziati, sembra accelerare notevolmente già a partire

dai primi anni del XIX secolo. Società, economia, politica, stili di vita ed ogni

aspetto della realtà in questo preciso momento storico cambia radicalmente

(nascono il telegrafo e successivamente il telefono, la lampadina, la radio, la

fotografia, il cinema, la locomotiva ecc...), frutto di una forza incontrollabile

generata dalla (seconda grande) Rivoluzione Industriale.

Sebbene non sia ascrivibile a questo secolo la nascita effettiva dei computer per

come li intendiamo noi oggi, senza dubbio va quantomeno riconosciuto come il

momento storico che ha segnato un evidente accelerazione culturale, giustificata

anche dallo sviluppo di nuove tecnologie di base, e come un passo evolutivo

necessario. In termini darwiniani questo periodo può essere distinto come l’anello

di congiunzione tra le macchine meno evolute di concezione tipicamente

meccanica-analogica e quelle più evolute che seguiranno.

Un passaggio dalle semplici calcolatrici agli elaboratori elettronici, non

dissimile a quello avvenuto per l’uomo milioni di anni fa (da scimmia a Homo

sapiens).

Nel 1801 l’imprenditore francese Joseph-Marie Jacquard (1752-1834)

introdusse nella sua azienda tessile un particolare tipo di telaio automatizzato, in

cui i disegni venivano “programmati” mediante schede di cartone perforate,

conosciuto ancora oggi come il Telaio Jacquard. In corrispondenza del foro gli

aghi potevano attraversare e ricamare la trama desiderata. L’intuizione di Jacquard

si basava (probabilmente senza rendersi conto delle possibilità che avrebbe

introdotto) sull’applicazione pratica della logica binaria ad un sistema

automatizzato che poteva essere facilmente programmabile: 1 = foro presente (il

filo passa), 0 = foro assente (il filo non passa). Sebbene storicamente non sia del

tutto riconosciuto come diretto ascendente dei moderni computer calcolatori, il

21

Page 22: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

telaio di Jacquard rappresenta comunque uno stadio evolutivo tecnologico di

interessante rilievo e di notevole importanza per le future applicazioni. Un

esempio da seguire.

1.6 I primi computer meccanici

Ascendenti dirette invece possono essere definite e considerate a tutti gli effetti

come i primi computer meccanici della storia, le macchine di Charles Babbage

(1791-1871), matematico inglese e scienziato proto-informatico.

Rispetto ai suoi predecessori che hanno sempre cercato di costruire macchine

calcolatrici capaci essenzialmente di eseguire le quattro operazioni principali

(addizione, sottrazione, divisione, moltiplicazione), il matematico inglese voleva

creare calcolatori universali dotati di memoria, di una parte operativa e di un’unità

di controllo (concettualmente e “architetturalmente” molto simili a quelli

moderni), capaci di svolgere sequenze di calcoli determinati dall’esecuzione di

uno specifico programma. I calcolatori numerici presentati da Babbage hanno

introdotto il concetto per la quale una macchina può imitare molto da vicino

alcune azioni umane, semplicemente istruendole tramite apposite tavole di

istruzioni programmate.

to “programme a machine to carry out operation A” means to put the appropriate instruction table into the machino so that it will do A ("Computing Machinery and Intelligence" A.M. Turing,

1950)

Al tempo di Babbage i tabulati numerici (prevalentemente ad uso astronomico)

erano calcolati da operatori umani che venivano chiamati “computers”(che

significa dall'inglese “colui che calcola”, così come il termine “conductor”

significa “colui che guida”) e naturalmente erano soggetti ad un elevato tasso di

errori. Il suo obiettivo divenne quindi quello di annullare tali imprecisioni tramite

l’utilizzo di macchine calcolatrici.

22

Page 23: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

I was sitting in the rooms of the Analytical Society, at Cambridge, my head leaning forward on the table in a kind of dreamy mood, with a table of logarithms lying open before me. Another

member, coming into the room, and seeing me half asleep, called out, "Well, Babbage, what are you dreaming about?" to which I replied "I am thinking that all these tables" (pointing to the

logarithms) "might be calculated by machinery". (Babbage)

Babbage a partire dal 1820 iniziò a lavorare su un prototipo di macchina

differenziale11 che, secondo i suoi progetti, doveva elaborare e compiere

operazioni meccanicamente, sfruttando il principio del metodo delle differenze12.

Pubblicò i suoi studi in un documento

intitolato "Note on the application of

machinery to the computation of astronomical

and mathematical tables" che presentò alla

Royal Astronomical Society il 14 giugno del

1823. L’idea fu riconosciuta talmente brillante

da ottenere immediatamente fondi necessari per

realizzarla, ma la sua costruzione non fu mai

del tutto ultimata.

I problemi ricorrenti che Babbage riscontrò

durante tutto l’arco del suo lavoro, furono

essenzialmente dovuti alla meccanica degli

ingranaggi disponibili a quel tempo, tecnicamente

troppo poco adatti ad un dispositivo che richiedeva indici di precisione

elevatissimi.

Subito dopo i vari tentativi infruttuosi di rendere il sistema differenziale

operativo, Babbage si concentrò sulla progettazione di uno strumento di calcolo

ben più complesso, ma dalle potenzialità pressoché infinite: la macchina analitica.

23

11 La macchina avrebbe utilizzato il sistema decimale e sarebbe stata alimentata in modo meccanico, ossia tramite il movimento di una maniglia che avrebbe fatto girare gli ingranaggi.

12 Metodo usato per risolvere numericamente equazioni differenziali, prevalentemente ordinarie anche se sono spesso usate come schema di avanzamento nel tempo per problemi alle derivate parziali. Sono di gran lunga il metodo più semplice e intuitivo tra tutti poiché non si utilizzano moltiplicazioni.

Fig. 4 - Ricostruzione della macchina differenziale di Babbage

Page 24: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

Tale engine13 si differenzia rispetto al suo precedente lavoro poiché dotato di

“intelligenza programmabile”, ossia della possibilità del dispositivo di ricevere

una serie di istruzioni attraverso input ed eseguirle basandosi sui dati e sulle

informazioni analizzate. L’analytical engine, progettato da Babbage, sfrutta

l’intuizione di Jacquard delle schede perforate (utilizzata nel telaio) come

primitiva interfaccia uomo-macchina e strumento di controllo della macchina

stessa.

La sua natura flessibile la rende molto simile all’architettura utilizzata nei

moderni elaboratori informatici, dove dati e memoria del programma sono

separati e le operazioni sono basate su istruzioni.

The Analytical Engine has no pretensions to originate anything. It can do whatever we know how to order it to perform14 ( "The Ladies Diary" journal Taylor's Scientific,1842)

Ancora una volta la sfida tecnologica sfortunatamente fu troppo elevata da poter

essere vinta: Babbage aveva creato il primo computer programmabile della storia,

anche se le sue idee rimasero a lungo solo sulla carta.

Nonostante i suoi progetti fossero incompiuti, Babbage viene riconosciuto

all’unanimità come il principale precursore delle logiche che hanno reso possibile

la nascita dei computer. Molti dei suoi successori recuperarono i suoi progetti e

dimostrarono che le macchine che aveva progettato erano in grado di eseguire ciò

che lui aveva sognato.

Un altro ascendente diretto di forte rilevanza “storica” dei moderni elaboratori

fu ideato nel 1890 da Herman Hollerith15 (1860-1929), il quale vinse un bando di

24

13 Parte del file che si occupa di dati di tipo scientifico.

14 Tratto da "The Ladies Diary " di Taylor, opera in cui vennero pubblicate le memorie di Lady Lovelace (1842), matematica inglese che lavorò al fianco di Babbage durante la realizzazione della macchina analatica. Egli la soprannominò "l'incantatrice dei numeri", colpito dalle sue abilità e dal suo intelletto. Lady Lovelace, ossia Ada Lovelace (1815-1852), è spesso ricordata come la prima programmatrice di computer al mondo.

15 H.Hollerith era un ingegnere statunitense, noto come fondatore dell'IBM (L'International Business Machines Corporation).

Page 25: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

concorso indotto dal United States Census Office (ufficio censimenti degli Stati

Uniti) e finalizzato alla costruzione di una macchina in grado di classificare e

contare automaticamente le schede necessarie per il controllo censitorio del paese.

Hollerith utilizzò l’ormai consolidata idea delle schede perforate del sistema

Jacquard-Babbage, non per specificare un programma da eseguire, ma per

indicare alla macchina i dati da elaborare. Le risposte degli individui venivano

interpretate e codificate su apposite schede da operatori umani secondo la logica

binaria, mediante la rappresentazione di fori o non fori (per esempio un individuo

“maschio” poteva essere rappresentato tramite un foro, mentre una “femmina”

con l’assenza di foro). Per ogni foro la macchina attivava un circuito elettrico,

altrimenti spento in sua assenza, che a sua volta metteva in funzione un complesso

sistema di contatori in grado di immagazzinare ed interpretare le informazioni

relative alle risposte fornite dall’individuo nel questionario del censimento.

La tabulatrice di Hollerith16 divenne il primo dispositivo di calcolo a fare uso

dell’elettricità. Completò il suo lavoro di conteggio e analisi schede in 50 giorni,

(ci vollero 8 anni per portare a termine il precedente censimento senza l’uso di

questo tipo di tecnologia) alla media di circa 800 schede al minuto.

Una vera e propria rivoluzione per l’epoca.

1.7 Alan Turing

La prima metà del XX secolo richiama alla mente da una parte il ricordo di

distruzione e morte dettato dalle due grandi guerre mondiali, dall’altra lo

straordinario progredire delle tecnologie informatiche. Guerra e ricerca

tecnologica fanno parte in questo contesto di un sistema simbiotico, sono gli

ingredienti essenziali che hanno scandito nell’ultimo periodo storico l’evoluzione

che ci ha portato fino ai computer per come li conosciamo e li utilizziamo ancora

25

16 La macchina tabulatrice era congegnata su un meccanismo molto semplice: un insieme di fili metallici venivano sospesi sopra il lettore di schede, poste in corrispondenza di appropriate vaschette di mercurio; una volta che i fili venivano spinti sulla scheda, essi permettevano di chiudere elettricamente il circuito solo in corrispondenza dei fori praticati durante la rilevazione. Il circuito elettrico attivato consentiva l’avanzamento del relativo contatore, avvertendo l’operatore della lettura avvenuta.

Page 26: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

oggi. La prima incentiva la seconda a trovare espedienti sempre più efficienti e

determinanti alla rottura degli enigmi crittografici17, all’elaborazione di sempre

più complessi calcoli balistici e allo sviluppo di nuove tecnologie.

Si tratta di una guerra nella guerra dove le menti geniali degli scienziati e dei

ricercatori, ancor più che le armi dei soldati in battaglia, possono fare davvero la

differenza.

Durante la Seconda Guerra Mondiale per decodificare messaggi criptati

tedeschi occorrevano macchine

eccezionali e menti eccezionali.

Il matematico e crittografo

inglese Alan Mathison Turing

(1912-1954) fortunatamente era

una di queste.

You needed exceptional talent, you needed genius [...] and Turing's was

that genius.18

Ideò un modello teorico di un dispositivo in grado di risolvere qualsiasi

algoritmo esistente. La macchina, denominata Macchina di Turing, era costituita

da due elementi principali: un nastro di dati riscrivibile ed infinito, e un

meccanismo in grado di muoversi lungo il nastro bidirezionalmente e di

modificare le informazioni su di esso, scrivendone di nuove e cancellandone

quelle già esistenti.

Lo sviluppo di questa macchina era, secondo Turing, la risposta al problema

della decidibilità19. Ancora oggi risulta essere un modello fondamentale per

26

17 La parola crittografia deriva dall'unione di due parole greche: κρυπτóς (kryptós) che significa "nascosto", e γραφία (graphía) che significa "scrittura". La crittografia studia le "scritture nascoste", ossia i metodi per rendere un messaggio "offuscato" in modo da non essere comprensibile a persone non autorizzate a leggerlo.

18 Citazione di Asa Briggs (1921), uno dei storici inglese più autorevoli, noto per la sua trilogia sull'era Vittoriana: "Victorian People", "Victorian Cities," and "Victorian Things".

19 Diremo decidibile un problema per il quale esiste un algoritmo (quindi una procedura eseguibile con un numero finito di passi) in grado di risolverlo.

Fig. 5 - Rappresentazione grafica della macchina di Turing.

Page 27: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

chiunque si occupi di computazione ed abbia bisogno di dimostrare la validità

degli algoritmi progettati.

Prendendo spunto dalla brillante idea visionaria della Macchina di Turing fu

progettato Colossus, il primo calcolatore elettronico programmabile della storia.

Venne utilizzato nel corso della Seconda Guerra Mondiale, a decorrere dal

1944, per cercare di decriptare i messaggi cifrati tedeschi. Colossus confrontava

due flussi di dati: il messaggio originale criptato e un tentativo di codifica,

valutandone di volta in volta la sua attendibilità.

Il mezzo (Colossus) e la mente (Turing) permisero di disinnescare

innumerevoli attacchi nemici e di indebolirne notevolmente i fronti attraverso

attacchi a “sorpresa”, grazie alla conoscenza preventiva della dislocazione delle

truppe avversarie. Senza di loro lo scenario della Seconda Guerra Mondiale

avrebbe potuto avere esito differente.

Turing oltre ad aver contribuito (a modo suo) alla sconfitta di Hitler, giocò

anche il ruolo di “attore principale” e precursore nell’ambito di ricerca

sull’ intelligenza artificiale20. In “Computing Machinery and Intelligence” (del

1950) Turing si pone un semplice quesito: “Can machine think?”.

La sua ricerca sulle possibilità di creare “thinking machine” (macchine

pensanti) include anche aspetti neurologici e fisiologici. Si lascia ispirare infatti

dalle complicate interconnessioni neuronali, analizzandone la logica e

riconoscendo analogie matematiche di funzionamento con le macchine. La

soluzione migliore, secondo il matematico britannico, sta nel creare un sistema

intelligente in grado di “apprendere” e accrescere la sua “esperienza”, così come

avviene nei bambini (tramite il gioco, i rimproveri, gli apprezzamenti, etc..).

Per cercare di rispondere alla questione Turing suggerisce inoltre un semplice

test, denominato appunto test di Turing. Immagina uno scenario in cui un uomo A

e una donna B devono fornire risposte dattiloscritte ad un soggetto C.

Quest’ultimo ha il compito di determinare chi dei due è il maschio e chi è la

27

20 Il termine di intelligenza artificiale fu proposto per la prima volta da Marvin Minsky e John McCarthy durante un seminario di informatica al Darthmounth College di Hannover, nel New Hampshire (Stati Uniti), nel 1956.

Page 28: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

femmina. Nell’eventualità che una macchina si sostituisse ad A o B, e se i risultati

forniti da C fossero statisticamente identici alla situazione precedente, allora la

macchina poteva essere considerata pensante.

The reader must accept it as a fact that digital computers can be constructed, and indeed have been constructed, according to the principles we have described, and that they can in fact mimic

the actions of a human computer very closely. ("Computing machinery and intelligence" A.M.Turing, 1950).

Turing riconosce la difficoltà sulla fattibilità delle sue idee, ma non la loro

impossibilità. È convinto che presto saremo in grado di innestare all’interno delle

macchine il dono del pensiero, predicendo di fatto che entro la fine del secolo

(XX secolo) chiunque potrà parlare di macchine pensanti senza aspettarsi di

essere contraddetto.

La questione “Can machine think?” è rimasta insoluta ancora oggi (e forse una

soluzione non la avrà mai), ma senza dubbio progresso tecnologico e decenni di

ricerca nel campo delle intelligenze artificiali hanno aumentato le nostre

possibilità di risposte al quesito proposto da Turing oltre 60 anni fa.

the only way by which one could be sure that machine thinks is to be the machine and to feel oneself thinking ("Computing machinery and intelligence" A.M.Turing, 1950).

1.8 “As We May Think” secondo Vannevar Bush

Il 1945 oltre ad essere ricordato come l’anno della fine del secondo conflitto

mondiale, è anche l’anno in cui lo scienziato e tecnologo statunitense Vannevar

Bush (1890-1974) pubblica un articolo dal titolo “As We May Think”. Sebbene i

due eventi abbiano una portata in termini di rilevanza storica ben diversa, in

qualche modo sono entrambi segnali, speranze e motivo di enormi ennesimi

cambiamenti sociali, economici, politici, culturali e tecnologici. Il dopoguerra ha

28

Page 29: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

lasciato molte dolorose ferite da rimarginare, bisognava ricostruire un mondo,

riprogettarlo. As We May Think suggerisce modi per farlo.

Bush durante la Seconda Guerra Mondiale aveva messo la propria esperienza

di scienziato al servizio della patria e, come il matematico inglese Alan Turing,

aveva ricoperto un importante ruolo nella ricerca militare. Il suo saggio del 1945 è

una riflessione sul rapporto tra tecnologia, il tema della felicità universale e della

pace nel mondo (temi assai attuali in epoca post-bellica).

Of what lasting benefit has been man's use of science and of the new instruments which his research brought into existence? (“As We May Think” Vannevar Bush, 1945)

Come può la tecnologia contribuire al benessere dell’umanità? E come può il

background della conoscenza umana immagazzinata fino ad oggi (e quella futura)

sostenere l’uomo a vivere in pace? Sono queste essenzialmente le domande che

Bush si pone e al quale cerca di dare una risposta. Occorre ragionare sia sulle

tecnologie che sul metodo di ricerca e costruzione scientifica affinché permettano

all’uomo di costruirsi “una casa in cui possa vivere in buona salute”.

La conoscenza umana è un insieme collegato con il tutto che, in quanto tale, ha

una dimensione universale, non limitabile alla vita del singolo individuo. Il sapere

quindi è frutto di processi accumulativi e si genera grazie alla collaborazione

interna di sistemi collegati che includono tutto il sapere umano. Il primo cardine

che Bush identifica si riferisce al fatto che la conoscenza per poter essere utile

deve essere continuamente ampliata, archiviata e soprattutto consultata.

Deve poter essere accessibile.

La produzione di informazioni, grazie alle tecnologie moderne (stampa,

giornali etc.), è ad un ritmo sempre crescente (produciamo sempre più

informazioni), ma all’aumentare della ricchezza informativa non viene corrisposta

un altrettanto efficace grado di condivisione. Un’informazione può essere

facilmente archiviata grazie all’uso delle macchine, ma la sua consultazione e

condivisione richiede tecnologie per l’epoca ancora non disponibili. Un limite

che verrà superato solo parecchi anni dopo con l’avvento di internet per le masse.

29

Page 30: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

A partire da queste premesse lo scienziato statunitense immagina una macchina

rivoluzionaria dotata di schermi, sistemi di archiviazione dati, di tastiera e svariati

gruppi di leve e bottoni. Un nuovo strumento a disposizione degli scienziati per

svolgere il loro lavoro. Si potrebbe definire un “luogo dell’intelletto”, poiché è lì

che sono immagazzinate le informazioni che ogni ricercatore necessita (libri, testi,

articoli, appunti che produce etc.) ed è lì che avviene il contatto tra mente umana e

macchina.

Fig. 6 - A sinistra la copertina di una rivista in cui è pubblicato il saggio di Vannevar Bush, “As We May Think”. A destra, un’illustrazione del Memex.

Il Memex, questo è il nome del dispositivo, non solo aiuta a visualizzare i dati

di cui si ha bisogno in un qualsiasi momento ma agisce anche da estensore della

memoria individuale (MEMory EXtender). Nella presentazione dei documenti si

comporta emulando le associazioni di idee e concetti che la mente umana e i flussi

di pensiero producono costantemente. Infatti una volta che la nostra mente ha un

elemento a disposizione, tende a saltare istantaneamente all’elemento successivo,

suggerito in base ad un intreccio di piste (pre)registrate.

Il Memex in poche parole è il primo esempio della meccanizzazione della

selezione per associazione. Un primitivo Hypertext21.

30

21 Termine inglese che significa "ipertesto", ossia un insieme di documenti correlati tra loro attraverso parole chiavi.

Page 31: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

C’è abbondanza di aiuti meccanici con i quali effettuare trasformazioni nei documenti scientifici [...] Per il pensiero evoluto non esiste nessun sostituto meccanico. Ma il pensiero

creativo e il pensiero essenzialmente ripetitivo sono cose molto differenti. Per il secondo esistono, e possono esistere, potenti aiuti meccanici. (“As We May Think” Vannevar Bush, 1945)

2. La “visione” utopistica di Engelbart e Licklider

“As We May Think” e l’intuizione del Memex del 1945 sono passaggi

fondamentali che hanno notevolmente influenzato i fautori della prima

rivoluzione informatica, avvenuta tra gli anni ‘60 e ‘70 e che ci ha condotto fino ai

giorni nostri. Leggere il testo di Bush e immaginare il Memex come lo strumento

capace di amplificare le conoscenze umane è, facendo le dovute proporzioni (e

senza voler ricadere nella blasfemia), come osservare Mosé che indica al suo

popolo la strada verso la terra promessa (computer).

Le condizioni tecniche e tecno-logiche affinché si possa raggiungere erano

tuttavia ancora proibitive (occorreva attraversare il Mar Rosso).

2.1 I “Giant brain” degli anni ‘40

Colossus (completato nella sua prima versione nel 1943) era completamente

elettronico, funzionava attraverso 1500 valvole per la logica (2400 nella seconda

versione del 1944) e cinque lettori a nastro perforato, capaci di leggere fino a

5000 caratteri al secondo. Sebbene fosse il primo calcolatore elettronico

programmabile della storia e fosse tra le tecnologie più avanzate dei primi anni

‘40, aveva comunque molte limitazioni rispetto agli standard a cui siamo abituati

(a parte chiaramente la potenza di calcolo).

In primo luogo non è dotato di nessun tipo di programma pre installato:

affinché potesse eseguire altre operazioni occorreva intervenire direttamente sul

cablaggio e sulle valvole. Colossus inoltre non è definibile come computer

General-purpose22 poiché progettato esclusivamente per compiti crittoanalitici.

31

22 Identifica hardware e software che risolvono problemi generali e quindi non sono dedicati ad una specifica funzione.

Page 32: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

Gli esperimenti nei centri di ricerca americani ed inglesi (soprattutto militari o

associati ad essi) della prima metà degli anni ’40 continuarono senza sosta, step-

by-step, alla creazione e progettazione di grandi costosissime macchine

elaboratrici che, nel migliore dei risultati ottenuti, potevano vantare una potenza

di calcolo di poche centinaia di kHz (molto meno di una moderna calcolatrice).

Gli elaboratori di questi anni erano veri e propri colossi che occupavano intere

stanze e richiedevano moltissime energie per poter funzionare, sia da un punto di

vista di consumi che da quello degli addetti ai lavori. L’ENIAC23 (1946)

probabilmente è l’esempio più significativo del termine coniato per descrivere i

computer di prima generazione, definiti appunto “Giant Brain”: era lungo 30

metri, pesava oltre 25 tonnellate, la sua realizzazione costò 500.000$ (circa

6.000.000$ odierni) e consumava 150 kW.

Tali mezzi erano utilizzati per eseguire calcoli inesplicabili richiesti dalla fisica

nucleare; erano macchine esclusivamente pensate per operare number crunching24

massivo. Senza sosta.

Elaborazioni dati che implicavano una serie di procedure che potremmo

definire anche “rituali”, ed intendevano l’interazione con il computer alla pari di

uno strumento-ambiente ostile all’uomo a cui bisognava adattarsi.

Immaginiamo di trovarci all’interno di un centro di ricerca militare (o

universitario) dell’epoca e di poter osservare l’intero “rito” partendo dalla volontà

di risolvere un determinato problema: entriamo in una stanza in cui possiamo

notare alcuni operatori dall’aria molto indaffarata che cercano di identificare

esattamente quali sono i dati che il computer deve manipolare e le regole

necessarie alla risoluzione del problema di base. Iniziano a codificarle secondo la

logica più opportuna e successivamente procedono alla compilazione del

programma. Utilizzano il linguaggio FORTAN25.

32

23 L'Electronic Numerical Integrator and Computer (ENIAC) è il primo computer elettronico general-purpose, costruito alla Moore School of Electrical Engineering (Pennsylvania) per un ex centro di ricerca dell'esercito degli USA,il Ballistic Research Laboratory.

24 Termine inglese la cui traduzione è sgranocchiatore di numeri. Così venivano definiti in gergo i computer proprio per le loro capacità computazionali.

25 Uno dei primi linguaggi di programmazione (1954)

Page 33: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

Appena il programma è ultimato incomincia la fase di conversione. Altri operatori

si apprestano a trasferire il tutto su schede perforate (il dispositivo di input) e,

appena concluso il lavoro, consegnano le schede all’amministratore del sistema al

“centro di calcolo”, la stanza più grande e calda di tutta la struttura.

L’amministratore è l’unico a cui è concesso sottoporre i programmi alla

macchina, una sorta di sommo sacerdote del rituale, mediatore tra gli utenti

(comuni mortali) e i computer mainframe. Presso di lui dopo poche ore o giorni,

in base alla mole di dati analizzati, è possibile ritirare le stampe con i risultati

richiesti. Ad ogni errore (anche banale) occorreva ripetere tutto da zero.

Alla luce di questo, le parole e le idee di Vannevar Bush nel 1945 dovevano

sembrare ancor più allucinate e fantascientifiche.

Basti pensare che i teorici “ortodossi” dell’informatica a cavallo tra gli anni ‘40

e ‘50 immaginavano un futuro di progressi tecnologici che sarebbero stati sfruttati

per costruire computer sempre più grandi e più potenti, comandati da pochissimi

eletti, il cui compito era quello di tradurre i problemi del mondo in linguaggi

esoterici da sottoporre alle macchine.

33

Fig. 7 - Colossus

Page 34: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

Ciò che aveva immaginato Bush andava ad intaccare proprio quel sistema

elitario, poiché mirava ad un rapporto più diretto, personale ed immediato con le

macchine elaboratrici. Non sorprende quindi il fatto che tali idee abbiano avuto

credito e (molta) stima solo parecchi anni dopo, grazie all’avvento della

miniaturizzazione delle tecnologie di base e soprattutto ad altre menti altrettanto

brillanti e profetiche, che hanno rivoluzionato il mondo creandone di nuovi:

Douglas Carl Engelbart, Joseph Carl Robnett Licklider e David Edward

Sutherland(di quest’ultimo ci occuperemo più approfonditamente nel terzo

capitolo).

2.2 Engelbart e il potenziamento dell’intelletto umano

Engelbart nel 1945 era un giovane radarista della Marina statunitense (1925),

impegnato in gran parte delle sue giornate a distinguere le minacce rappresentate

dai puntini sugli schermi. Poco prima della fine della guerra si imbatte

nell’articolo di Bush “As We May Think” e ne rimane davvero affascinato.

“Sopravvissuto” al conflitto, trova lavoro in una piccola ditta di elettronica a

Mountain View (che nel giro di pochi anni si sarebbe trasformata da frutteto a

cuore pulsante e trainante della Silicon Valley), si compra una casa e si sposa.

All’età di trent’anni compresi che avevo raggiunto tutti gli obiettivi della mia vita [...] mi chiesi che cosa avrei fatto da quel momento in poi e compresi che si trattava di una decisione importante.

("Realtà Virtuali" Howard Rheingold, citazione di Douglas Engelbart, 1983)

Nel 1950 mentre attraversava i frutteti della valle per recarsi (come tutti i

giorni) al lavoro, incominciò a pensare al futuro. Non solo il suo, ma quello di

tutti. Cercava di capire quali opportunità avrebbe potuto cogliere per rendere il

mondo migliore. Gli ritornò alla mente quanto letto dall’articolo di Bush in merito

alla tecnologia e alla sua possibilità di essere d’aiuto per la collettività, e subito si

rese conto che gli scenari che cercava di immaginare si imbattevano sempre sugli

stessi ostacoli: i problemi dell’uomo diventavano ogni giorno sempre più

34

Page 35: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

complessi e difficili da risolvere con i mezzi a disposizione. I computer, che in

quel periodo numericamente (in tutti gli Stati Uniti) erano circa una dozzina, non

erano all’altezza delle possibilità umane, erano ancora poco potenti e troppo

tecnici e distanti per essere compresi e considerati strumenti utili alla collettività.

Continuava a domandarsi che cosa si sarebbe dovuto fare per cercare di

incrementare le nostre possibilità e cosa poteva fare lui in particolare per aiutare il

mondo ad essere migliore.

Ebbe una sorta di rivelazione, divenuta ormai (quasi) leggendaria.

L’immagine mentale che gli si presenta davanti è quella di un gruppo di

persone che lavorano in un modo del tutto nuovo, mai pensato prima. Sono scene

sfocate, ma è consapevole che ben presto potranno diventare nitide. Vide persone

davanti ad uno schermo televisivo collegato ad un elaboratore di informazioni. Sul

monitor venivano visualizzati simboli con cui era possibile interagire per mezzo

di pulsanti. Le persone controllavano il computer e lo indicavano interagendo con

gli strumenti di conoscenza, informazione e pensiero che integra al suo interno.

I had the image of sitting at a big CRT screen with all kinds of symbols, new and different symbols, not restricted to our old ones. The computer could be manipulating, and you could be

operating all kinds of things to drive the computer. The engineering was easy to do; you could harness any kind of a lever or knob, or buttons, or switches, you wanted to, and the computer

could sense them, and do something with it (Douglas Engelbart Interview, December 1986)

Gruppi di lavoro di questo tipo, secondo Engelbart , avvalendosi del nuovo

prezioso strumento,avrebbero potuto risolvere facilmente qualsiasi tipo di

problema, anche quelli più complessi. La sua idea dopo tutto è semplice: è

convinto, e lo è stato fin dal primo momento che si è trovato di fronte ad un

computer, che se queste macchine erano in grado di mostrare informazioni su un

tabulato avrebbero potuto anche scriverle e disegnarle sullo schermo, così come

sarebbero state in grado di ricevere input in maniera più “umana”.

Aveva trovato l’obiettivo della sua vita: Engelbart voleva realizzare quella

visione.

35

Page 36: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

Nel 1962, a distanza di 12 anni dalla sua “visione”, pubblica un progetto

concettuale, frutto delle sue ricerche presso lo Stanford Research Institute (SRI) di

Menlo Park in California, in un documento dal titolo emblematico: “Augmenting

Human Intellect: A Conceptual Framework”.

Il testo non è solo uno screening finalizzato a dimostrare l’effettiva possibilità

che i computer da “pareti elettroniche vive mangia numeri” possano essere

trasformati in ”strumenti di conoscenza risolutori di problemi”, ma è qualcosa di

più: è il manifesto di un nuovo modo di pensare, progettare e creare tecnologie il

cui scopo principale è appunto quello di aumentare le capacità intellettuali umane

e conseguentemente quelle della collettività (non a caso lo stesso Engelbart sarà

considerato il pioniere della Network Augmented Intelligence).

Parla di “possibility of finding solution to problems that before seemed

insoluble” attraverso una collaborazione diretta tra intelletto umano e computer

mediata da uno schermo, dispositivi di input e un nuovo linguaggio.

Tutti elementi che (almeno fino a quel momento) non esistevano ancora.

Era consapevole, quando ebbe la sua “visione”, che per la sua realizzazione

oltre a fondi economici sostanziosi, tecnologie di base accessibili e tempi di

sviluppo relativamente lunghi, occorrevano anche studi approfonditi sulla

linguistica, sulla psicologia e sul comportamento umano. Occorreva creare nuovi

modelli adatti allo scopo.

In “Augmenting Humen Intellect” Engelbart infatti più che cercare soluzioni

tecniche, traccia le linee-guida teoriche del nuovo modo di pensare al rapporto tra

computer-mente umana, illustrandone progressivamente i passaggi che lo hanno

ispirato. A partire dalle analisi sulla percezione sensoriale, fino ad arrivare alla

comprensione delle possibilità di sfruttare (in particolare) la linguistica e le

capacità umana di elaborare segni come elementi chiave per condizionare

l’intelletto umano.

Gli individui interagiscono sul mondo attraverso limitate possibilità di

movimento date dai nostri arti, e ricevono dal mondo informazioni tramite

l’utilizzo dei sensi. L’interpretazione ed elaborazione di questi dati è delegata al

36

Page 37: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

cervello seguendo due tipologie di processi: conscio e inconscio. Il primo si

occupa di tutte quelle azioni che coinvolgono in qualche modo la nostra volontà

(come riconoscere una forma, ricordare, visualizzare, astrarre, dedurre etc.),

mentre il secondo implica la mediazione delle informazioni ricevute dai sensi e

quelle rielaborate dal sistema conscio. La capacità di mediazione degli input

sensoriali generati consciamente e inconsciamente è inoltre dettata anche dal

background culturale ed esperienziale che contraddistingue ogni individuo.

In determinate situazioni complesse l’individuo tende ad ignorare questo tipo

di informazioni, cercando di privilegiare le sue capacità innate derivate dal suo

bagaglio di conoscenze.

For instance, an aborigine who possesses all of our basic sensory-mental-motor capabilities, but does not possess our background of indirect knowledge and procedure, cannot organize the

proper direct actions necessary to drive a car through traffic, request a book from the library, call a committee meeting to discuss a tentative plan, call someone on the telephone, or compose a letter

on the typewriter ("Augmenting Human Intellect: A Conceptual Framework" D. C. Engelbart, 1962)

Ogni processo del pensiero ed agire umano, a partire dalle cose più semplici

fino ad arrivare a quelle più complesse, è costituito da sotto-processi strutturati

gerarchicamente e indipendenti tra loro, la parte integrate di un bagaglio, un tool-

kit di capacità che tutti devono conoscere, imparare ad usare al meglio ed

amplificare. Fanno parte di questo repertoire hierarchy tutte le abilità di base

(definite Explicit Human: movimenti muscolari, utilizzo dei sensi etc.), quelle

acquisite dall’uso di oggetti (definite Explicit Artifact) e quelle composte dalla

combinazione di entrambe le competenze (Composite).

Engelbart definisce questo tipo di sistema attraverso un modello denominato

H-LAM/T26 in cui il linguaggio umano, gli oggetti, la metodologia e la

specializzazione nel loro utilizzo sono gli ingredienti essenziali del

comportamento umano, dell’intelletto e della percezione del mondo.

37

26 Human using Lauguage, Artifacts, Methodology, in which he is Trained

Page 38: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

La scrittura di un testo, per esempio, avviene mediante l’uso di una serie di

processi e sub-processi (sviluppo del soggetto, composizione delle frasi, delle

parole etc.), ognuno dei quali deve essere organizzato secondo gerarchie, dettate

dall'esperienza, ben precise che vanno a comporre il linguaggio della scrittura.

Cosa accadrebbe se un nuovo mezzo tecnologico introducesse un modo diverso

di composizione dei testi? Engelbart cerca di rispondere a questa domanda

ipotizzando un nuovo tipo di macchina da scrivere.

Una macchina da scrivere elettronica con un particolare meccanismo di

“stampa”, ben più complesso di quelli normalmente utilizzati, in cui il carattere

visibile (stampato) è composto anche da invisibili marcatori che, tramite l’utilizzo

di un apposito device, consentono di leggere e “catturare” il testo per duplicarlo e

riutilizzarlo in un nuovo documento. Un sistema che velocizza la creazione di

bozze e di pensieri, liberando notevolmente la creatività dai vincoli strutturali

della scrittura tradizionale.

Questa ipotetica macchina da scrivere ci permette in tal modo di utilizzare un nuovo processo di composizione del testo [...] Se il groviglio di pensieri rappresentato dalla bozza di uno scritto

diventa troppo complesso, possiamo compilare velocemente una bozza riordinata. Sarebbe pratico poter adattare una maggiore complessità ai percorsi possibili del pensiero in cerca del percorso che

meglio si adatta alle nostre esigenze [...] ("Augmenting Human Intellect: A Conceptual Framework" Douglas Engelbart, 1962)

Un simile strumento innovativo può provocare effetti di vasta portata sulle

gerarchie dei processi e delle capacità umane: alcune possono salire nell’ordine di

importanza, altre possono scendere e altre ancora possono essere attivate (capacità

latenti). In poche parole: è in grado di riorganizzarle secondo nuove logiche.

The important thing to appreciate here is that a direct new innovation in one particular capability can have far-reaching effects throughout the rest of your capability hierarchy.

("Augmenting Human Intellect: A Conceptual Framework" Douglas Engelbart, 1962)

38

Page 39: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

Il riposizionamento delle gerarchie del repertorio dei processi e sub-processi è

la chiave che caratterizza l’evoluzione dell’intelletto umano. Ad ogni innovazione

di strumenti, utensili e tecnologie corrisponde un relativo potenziamento

dell’intelletto umano e questo sviluppo, nota Engelbart, avviene fin dalla prima

comparsa del cervello umano.

Gli esseri umani sono le uniche forme di vita ad aver sviluppato la possibilità

di manipolazione dei concetti (attraverso la mente l’uomo può sviluppare concetti

generici da specifiche situazioni e predire specifiche situazioni da concetti

generali, associati o ricordi), di poter manipolare simboli (rappresentare pensieri e

concetti mentali attraverso l’uso di segni ed immagini specifiche), oltre ad un

linguaggio che è sia espressione diretta dei pensieri e dei concetti mentali che

mezzo principale di comunicazione. Il linguaggio si evolve, si modifica e si

arricchisce seguendo l’evoluzione delle tecnologie e delle capacità di una

determinata cultura.

Il linguaggio umano è inteso, secondo una concezione neo-Whorfiana27, come

il mezzo che influenza più di tutti la capacità di pensiero e di visione del mondo

esterno da parte di una determinata cultura. Sia il linguaggio utilizzato da una

civiltà che le capacità di pensiero durante la loro evoluzione sono direttamente

condizionati dai mezzi con cui è possibile manipolare simboli.

In sintesi, manipolare i simboli equivale a condizionare le capacità cognitive

degli esseri umani.

Una dimostrazione (puramente concettuale) di questa ipotesi potrebbe essere la

seguente: immaginiamo una civiltà pari alla nostra ma evoluta in un ambiente in

cui determinate combinazioni “naturali” e culturali hanno creato i presupposti per

pensare all’aspetto (forma e peso) di uno strumento di incisione (e scrittura) più

simile ad un mattone anziché a quella di una matita.

39

27 L'Ipotesi di Sapir-Whorf (o ipotesi della relatività linguistica) sostiene che la categorizzazione linguistica non è solo il risultato dell'organizzazione della nostra esperienza, ma ne è, allo stesso tempo, la discriminante: chi, infatti, "conosce" linguisticamente il mondo in un certo modo ne sarà influenzato di conseguenza, ovverosia il modo di esprimersi influenza il modo di pensare.

Page 40: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

Per scrivere accuratamente un testo, seguendo questa premessa, occorrerà

scrivere più grande e magari premere maggiormente per rendere più nitido,

preciso e leggibile il tratto. Come prima conseguenza ci sarà un dispendio di

energie maggiore, ma anche una produzione di documenti di dimensione

nettamente più voluminose. Le modalità di archiviazione (che consentono

l’organizzazione del commercio e del governo) e i calcoli (che consentono lo

sviluppo delle scienze) assumeranno una forma molto diversa rispetto alla nostra.

Un’altra conseguenza diretta sarà un progressivo rallentamento della

produzione scritta di testi a causa dei libri troppo grandi e più in generale della

cultura, scoraggiando notevolmente le persone dall’apprendere e dal comprendere.

I concetti all’interno di questa civiltà si evolveranno diversamente e la

simbologia per rappresentarli sarà dissimile rispetto alla nostra.

It thus seems very likely that our thoughts and our language would be rather directly affected by the particular means used by our culture for externally manipulating symbols, which gives little

intuitive substantiation to our Neo-Whorfian hypothesis ("Augmenting Human Intellect: A Conceptual Framework" Douglas Engelbart, 1962)

Tramite l’uso di computer appositamente progettati, dotati cioè di schermo di

visualizzazione (output) e strumenti di interazione uomo-macchina adatti (input),

e un linguaggio appropriato fatto di immagini e segni, l’uomo è in grado di

rappresentare facilmente i concetti che vuole manipolare, oltre ad organizzarli

(direttamente davanti agli occhi), trasformarli, immagazzinarli e ricordarli. Ogni

individuo così potrà adoperare gli strumenti di cui il computer sarà composto (non

sono posti limiti al riguardo): potrà creare immagini estremamente sofisticate,

grafici, scrivere testi secondo nuove modalità più affini ai flussi del pensiero ed

eseguire una vasta quantità di processi non più legati alla semplice elaborazione

numerica. Comunicherà con il computer mediante interazioni minime in grado

però di produrre risultati dal potenziale immenso.

40

Page 41: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

Nel limite di quello che è possibile immaginare, Engelbart stava già

descrivendo l’utilizzo di un computer del futuro, ben diverso da quell’interazione

ritualistica di cui abbiamo avuto modo di parlare precedentemente.

Il rapporto tra utente e computer si fa diretto e immediato. Diventa Personal.

I crescenti problemi che la società doveva affrontare e che Engelbart vedeva

come un possibile ostacolo, grazie alle macchine per pensare potevano finalmente

essere risolti.

2.3 Licklider e la simbiosi uomo computer

Anche Licklider ebbe una rivelazione simile a quella di Engelbart che

trasformò la sua vita radicalmente. Fu una “sorta di esperienza di conversione”.

Più o meno nello stesso periodo in cui Engelbard iniziò a lavorare allo Stanford

Research Institute ai progetti e ricerche di Augmenting Human Intellect, Licklider

si occupava di psicoacustica, “costretto” ogni giorno a lavorare con modelli

matematici utili a comprendere le complessità del sistema uditivo umano. Man

mano che faceva progressi, Licklider cominciò a trovarsi letteralmente sommerso

da una mole imponente di dati, finché un giorno non decise di riflettere sul modo

in cui gli scienziati utilizzano il loro tempo. Decise di fare un esperimento su sé

stesso.

Durante una comune giornata lavorativa annotò le proprie attività e il tempo

che aveva impiegato a portarle a termine. Scoprì qualcosa che fu per lui una

scossa, divenuta pian piano convinzione, che un nuovo modo di lavorare e un

nuovo modo di pensare poteva e doveva essere realizzato. Circa l’85% del suo

“thinking time” o almeno quello che per lui avrebbe dovuto essere tempo dedicato

a “riflessione”, in realtà era utilizzato per mettere se stesso nella condizione di

pensare, per prendere decisioni, per imparare qualcosa che aveva bisogno di

sapere.

Much more time went into finding or obtaining information than into digesting it (Licklider)

41

Page 42: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

Per molti dei lavori ripetitivi che svolgeva quotidianamente (e che svolge

qualsiasi scienziato-ricercatore) si accorse, o meglio intuì, un possibile scenario in

cui le macchine elaboratrici di dati (appositamente ri-progettate) avrebbero potuto

assumerne l’incarico, lasciando così all’uomo il potere di sfruttare al meglio le

potenzialità del suo intelletto.

Anche se al momento della sua “visione” (dettata dalla volontà di recuperare il

“thinking time” sprecato per compiti delegabili alle macchine) nessun computer

disponibile poteva essere utilizzato per compiti di questo tipo. Aumentavano di

potenza, ma non di intelligenza utile alle necessità di Licklider (così come per

quelle di Engelbart).

Ad ogni modo aveva comunque capito quale sarebbe stato il tema centrale

dello sviluppo tecnologico futuro: gli esseri umani e i computer avrebbero

lavorato assieme in modi nuovi, occorreva solo concepire il tipo appropriato di

interfaccia e tecnologia.

Ricerche avanzate in questo campo incominciarono a svilupparsi capillarmente

nei vari centri universitari di tutti gli Stati Uniti, ma la gran parte degli sforzi

sembrava essere indirizzata verso gli sviluppi sull’intelligenza artificiale. Al MIT,

per esempio, i diretti “discendenti” degli approcci teorici di Alan Turing erano al

lavoro per consegnare al mondo (anche se nessuno sapeva quanto tempo ci

sarebbe voluto) una tecnologia informatica che un giorno avrebbe potuto sostituire

gli esseri umani nella loro qualità principale, quella che la contraddistingue più di

tutte: quella di essere un animale pensante.

Licklider invece intravide un’altra possibilità: anziché macchine capaci di

sostituirsi all’uomo, suggerisce un accordo cooperativo tra il wetware umano e

l’hardware e il software dei computer, chiamando questa partnership simbiosi

uomo-computer.

Nel 1960 pubblica “Man-Computer Symbiosis” in cui espone chiaramente

quelli che saranno gli intenti della sua ricerca, iniziata già a partire dal 1957 con la

sua visione, e ponendo come obiettivo a lungo termine appunto la simbiosi tra

l’uomo e i computer.

42

Page 43: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

Secondo lo scienziato americano, la cooperazione tra l’intelletto-capacità

umane e le componenti elettroniche dovranno consentire in primis di facilitare

l’esternazione dei pensieri così come ora consentono la risoluzione dei problemi

formulati, e secondariamente di avere un maggiore controllo decisionale in merito

a situazioni complesse senza la dipendenza da programmi predeterminati.

Si tratta di un concetto biologico più che tecnico. La simbiosi dei due

“organismi” diversi tra loro (computer e uomo) si ottiene tramite un'intima

collaborazione, finalizzata alla costruzione di conoscenza così come avviene in

natura nelle società simbiotiche (Blastophaga grossorum e albero di fico).

“living together in intimate association, or even close union, of two dissimilar organisms” (“Man-Computer Symbiosis” Joseph Licklider, 1960)

Tra non molti anni, secondo le speranze di Licklider, i cervelli umani ed i

calcolatori saranno associati molto strettamente tra loro e il sodalizio che ne

risulterà avrà capacità intellettuali che nessun essere umano ha mai avuto,

elaborerà dati in un modo a cui nessuna delle macchine per la manipolazione delle

informazione che attualmente conosciamo riesce ad avvicinarsi.

I computer di prima generazione (come abbiamo visto) erano progettati per

risolvere problemi pre-formulati e processare dati tramite procedure pre-

determinate. Ad ogni imprevisto o risultato inatteso, l’intero processo si fermava

finché non veniva sviluppata l’estensione necessaria per risolvere le

complicazioni riscontrate nella risoluzione del problema principale. Una

collaborazione di questo tipo può essere considerata tutt’altro che simbiotica.

Il cervello umano deve pre-disporre un programma specifico ad ogni necessità,

sottoporlo alla macchina assieme ai dati utili ed attendere che il computer, una

volta terminato il processo, ne restituisca il risultato.

Tuttavia il requisito della pre-formulazione per la maggior parte dei problemi

che l’uomo deve affrontare (in ambiti di ricerca scientifico-tecnologico) non può

essere considerato l’approccio più corretto in quanto le formulazioni, i dati e le

43

Page 44: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

variabili da includere nel sistema non sono per nulla semplici da codificare,in

quanto richiedono sforzi eccessivi e spesso sono frutto di frustrazione. In un

contesto simile il rischio di imbattersi in errori inattesi durante l’esecuzione dei

programmi aumenta esponenzialmente in base alla dimensione (in termini di

difficoltà) del problema stesso. Molto spesso la domanda "Qual è la risposta (al

problema)? " diventa "Qual è la domanda?".

L’obiettivo della simbiosi uomo-computer è quello di portare le macchine ad

essere efficaci anche nella formulazione di problemi, non solo nel fornire risposte.

Il computer che si immagina Licklider deve essere necessariamente diverso dal

mainframe orientato al controllo, al calcolo e indirizzato a sostituire l’uomo

attraverso una sempre più crescente potenza di elaborazione e intelligenza

artificiale. Così come il gregario di questi mezzi (l’operatore) deve essere diverso

sia dal tecnico analista programmatore che manipola linguaggi esoterici, sia

dall’utente che interagisce con la macchina attraverso i vincoli imposti da

procedure rigidamente definiti (rituale).

Per avvicinare l’uomo e la macchina alla simbiosi occorre un cambiamento che

sia determinante, sia nei mezzi che nei modi di interagire con essi. Serve una

computer in grado di facilitare l’emergere di un nuovo pensiero, che sia un aiuto

costante per la creazione di nuova conoscenza, poiché il “controllo delle

situazioni complesse”, come abbiamo visto, non può avvenire tramite programmi

e procedure risolutive pre-impostate ma deve attuarsi tramite la possibilità di

prendere decisioni, costruire strategie e valutare ipotesi in tempo reale.

To enable men and computers to cooperate in making decisions and controlling complex situations without inflexible dependence on predetermined programs. (“Man-Computer Symbiosis”

Joseph Licklider, 1960)

Come in tutti i sistemi simbiotici esistenti in natura, Licklider crede che anche

in quello “artificiale” uomo-computer esistano i presupposti affinché il potenziale

di ognuna delle due componenti sia valore aggiunto per entrambe le parti. Gli

44

Page 45: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

uomini sono rumorosi narrow-band device28, ma il loro sistema nervoso è

costituito da numerosi canali che lavorano in parallelo e sono

contemporaneamente sempre attivi. Diversamente i computer sono molto più

veloci e precisi nell’elaborazione numerica, anche se “costretti” a svolgere solo

poche operazioni per ogni dato momento. Gli uomini sono “flessibili” in grado di

ri-programmarsi sulla base di nuove informazioni ricevute mentre i computer sono

sono vincolati a svolgere funzioni pre-programmate da qualcun altro. E ancora: gli

uomini parlano lingue ridondanti organizzate coerentemente intorno agli oggetti e

alle azioni impiegando solo pochi elementi, viceversa i computer non utilizzano

un linguaggio ridondante (fatto di due simboli 0 e 1).

Computing machines can do readily, well, and rapidly many things that are difficult or impossible for man, and men can do readily and well, though not rapidly, many things that are

difficult or impossible for computers. That suggests that a symbiotic cooperation, if successful in integrating the positive characteristics of men and computers, would be of great value. ("Man-

Computer Symbiosis" J.C.R. Licklider, 1960)

La speranza di Licklider è quella di creare un sistema in cui i cervelli umani e i

computer possano coesistere assieme in un legame, la cui risultante potrà pensare

come nessun cervello umano abbia mai pensato e processare informazioni in

modo mai fatto da nessun computer.

2.4 La dimostrazione dell’esistenza dei sogni di Engelbart e Licklider

All’interno delle “visioni” pionieristiche di Engelbart e Licklider si poteva

osservare il futuro. Entrambi sapevano che non sarebbe bastato progettare e

teorizzare modi nuovi per utilizzare i computer, ma in qualche modo avrebbero

dovuto anche realizzarli, dare una dimostrazione inequivocabile dell’esistenza dei

45

28 Dispositivi a banda stretta

Page 46: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

loro sogni e trascinare, assieme ad altri “illuminati” tecnologici, il mondo verso il

nuovo mondo.

Nel 1957, dopo aver cercato senza successo di far conoscere la propria idea di

computer, Engelbart trova lavoro presso lo Stanford Research Institute in qualità

di “semplice” ricercatore. Questo gli permette di mettere a punto un modo per far

capire alla gente di cosa stava parlando nella sua “visione”. Dedica gran parte del

suo tempo libero ad elaborare formalmente la struttura concettuale di cui aveva

bisogno (quello che poi diventerà “Augmenting Human Intellect”).

Nello stesso periodo Licklider, affermato professore-ricercatore al

Massachussetts Institute of tecnology, incominciava ad intuire qualcosa circa la

possibilità di delegare parte dei lavori da scienziato alle macchine.

Engelbart e Licklider non si conoscevano ancora, ma lentamente i loro percorsi

incominciarono ad avvicinarsi. Per farli convergere fu necessario un evento

avvenuto dall’altra parte del mondo. Una "causa scatenante" capace di aprire le

menti di molti scienziati e ricercatori (all'epoca ben più importanti ed influenti di

Doug e Lick) dallo stallo culturale e tecnologico che si insinuò a decorrere dalla

fine della Seconda Guerra Mondiale. Non è che dal 1945 la tecnologia si fosse

fermata, anzi tutt'altro, accelerò notevolmente ma sempre verso un'unica

direzione: potenziare sempre più i computer affinché elaborino sempre più

informazioni e più velocemente possibile. Ad eccezione di pochi isolati casi, il

computer, o meglio il suo scopo, era sempre quello ereditato dagli anni '40.

Engelbart e Licklider sono i simboli di quei "isolati casi" che negli anni '60

avrebbero reso possibile la nascita del computer per come lo conosciamo noi oggi.

Gli occhi di tutta l’umanità in questo (ennesimo) delicato momento storico

carico di tensioni, pronte a sfociare in una nuova guerra, è rivolto principalmente

in direzione delle due super-potenze artefici di questo status: da una parte gli Stati

Uniti e dall’altra parte la Russia. Siamo in piena Guerra Fredda e la corsa agli

armamenti, oltre ad aver pericolosamente “arricchito” le due parti di testate

nucleari, ha anche incentivato notevolmente il progresso tecnologico-scientifico.

46

Page 47: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

Tuttavia il governo americano in quegli anni stava incontrando molte difficoltà

nel tenere il passo tecnologico-militare dell’Unione Sovietica e il lancio dello

Sputnik, il primo satellite artificiale in orbita attorno alla Terra (1957), ne fu la

prova indiscutibile agli occhi dell’intero pianeta.

I Russi erano ufficialmente in grado di lanciare oggetti dalle dimensioni di una

bomba in qualsiasi punto del mondo e anche oltre. Il know-how29 americano

improvvisamente non era quello più avanzato. Serviva una scossa e serviva

subito. Il lancio dello Sputnik fu la "causa scatenante".

A poco tempo di distanza dal lancio del razzo sovietico, il governo americano

creò un dipartimento finalizzato ad incentivare lo sviluppo di nuove tecnologie.

Nasce l’Advanced Research Project Agency (ARPA)30.

L’ARPA aveva il mandato di “scovare” e finanziare direttamente le idee più

innovative, originali, "folli" e rivoluzionarie che potevano aiutare gli Stati Uniti a

recuperare credibilità e superiorità tecnologica nei confronti dei rivali russi.

Engelbart e Licklider avevano esattamente il tipo di idee di cui l'America aveva

bisogno, che forse il mondo aveva bisogno e che l'ARPA stava cercando.

Alcune delle menti più brillanti del MIT vengono “chiamate alle armi” della

battaglia tecnologica in atto per progettare e costruire il SAGE (Semi-Automatic

Ground Envirorment), un sistema di difesa radar computerizzato segretissimo che

avrebbe dovuto intercettare eventuali minacce russe. Licklider era tra gli arruolati

al progetto e il suo incarico era quello di occuparsi degli aspetti “fattori umani”.

Al SAGE disponevano sia di “cervelli elettronici” grandi (immensi a dire la

verità, i più grandi mai costruiti dall’uomo) e potenti che di menti umane geniali,

oltre ad aver accesso a risorse finanziarie praticamente senza limiti. Erano le

condizioni ottimali affinché le idee che da tempo sia Engelbart che Licklider

predicavano, potessero essere prese in considerazione nell’ambiente informatico.

47

29 Termine inglese che significa letteralmente "sapere come",è utilizzato per identificare le conoscenze e le abilità operative necessarie per svolgere una specifica attività lavorativa.

30 "Agenzia per i progetti di ricerca avanzata per la difesa". È un'agenzia governativa del Dipartimento della Difesa degli Stati Uniti, incaricata dello sviluppo di nuove tecnologie per uso militare.

Page 48: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

Ben presto l’idea di collegare dispositivi video ai computer divenne anche

fattore di primaria necessità, data l’immensa mole di informazioni provenienti

dalla rete distribuita di radar del SAGE, che dovevano essere costantemente

monitorate e riconosciute.

Il fattore “rapidità” assumeva così una doppia importanza: da un lato occorreva

che le informazioni venissero elaborate real time (utilizzando super computer

adatti allo scopo, Whirlwind31 e AN/FSQ-732) e dall’altro era necessario

visualizzarle istantaneamente su display grafici in modo tale da facilitare il più

possibile scelte decisionali (dati elaborati o raffigurati lentamente non potevano

essere certo di aiuto in un contesto di difesa della nazione dalle minacce di missili

a testata nucleare). Serviva velocità di calcolo e di rappresentazione.

Gli operatori del SAGE furono i primi ad osservare graficamente i dati

provenienti dal computer.

Licklider grazie al suo incarico al SAGE conosceva seppur in modo

approssimativo gli stadi di avanzamento del progetto, sapeva che da lì a poco

qualcosa di grande poteva accadere. Sentiva che la sua “visione” poteva prendere

forma. Licklider parlò così delle sue idee a Jack Ruina (1924), professore di

ingegneria elettrica nonchè il direttore dell’ARPA di quel periodo, e lo convinse

che queste innovazioni potevano essere il futuro, non solo in ambito militare, ma

anche per la vita di tutti i giorni. Jack Ruina gli credette.

Nell’ottobre del 1962 Licklider divenne il direttore dell’Information

Processing Tecnique Office (IPTO), il dipartimento voluto da Jack Ruina per

approfondire il rapporto tra tecnologie sperimentali (come quelle del SAGE),

strumenti e metodi di rappresentazione ed elaborazione dati e le loro possibilità di

sviluppo in campo non militare.

Licklider oltre ad aver budget e autorizzazione a sviluppare queste nuove

tecnologie dell’elaborazione grafica di informazioni, attirò a sé molti dei

programmatori e giovani appassionati del MIT, dell’Università della California,

48

31 Sviluppato nel Massachusetts nel 1947 e divenuto operativo ad aprile del 1951, è il primo computer in grado di operare in tempo reale.

32 Modello di supercomputer sviluppato alla fine degli anni '50.

Page 49: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

della Rand Corporation, dell’Università dello Utha e dei più affermati gruppi di

ricerca degli Stati Uniti. Aveva mosso l’interesse collettivo verso un progetto di

futuro che ormai in molti iniziarono a condividere ed ammirare. Tra i tanti

“convertiti” alla visione di Licklider ci fu un certo Robert William Taylor (1932).

Bob Taylor in quel periodo era un giovane direttore di ricerca della NASA che

stava sostenendo progetti scientifici di un certo rilievo storico e culturale (si

occupava del programma Apollo33, che di lì a poco avrebbe mandato, e fatto

ritornare vivi, un equipaggio umano). Come Licklider aveva interessi in

psicoacustica (argomento del suo progetto di laurea) e condivideva l’approccio

alle nuove tecnologie esplicato in Man-Computer Symbiosis del 1960.

Più o meno nello stesso periodo, Taylor ebbe modo di incontrare anche

Engelbart nel suo laboratorio allo Stanford Research Institute, ed entusiasmato dal

futuro che riusciva ad immaginare e a far immaginare, decise di finanziarne

direttamente le ricerche teoriche, le stesse che saranno presenti in Augmenting

Human Intellect del 1962.

Le strade di Licklider e di Engelbart confluirono definitivamente nel 1964

grazie all’aiuto di Taylor, che raccomandò a Licklider Engelbart il suo team di

ricerca dell'SRI.

Licklider aveva gli strumenti, sopratutto economici, per sviluppare nuove idee,

Engelbart aveva le idee, i progetti giusti e un team di ricerca avanzato.

Un gruppo di finanziatori dell’ARPA si recò allo Stanford Research Institute e

promise ad Engelbart attrezzature informatiche di ultima generazione e fondi (1

milione di dollari all’anno) per creare gli amplificatori dell’intelletto che aveva

concepito nella sua “visione” e descritto nel suo testo pubblicato circa 2 anni

prima.

Finalmente Engelbart aveva tutti gli elementi necessari a realizzare ciò che

aveva immaginato nel lontano 1950: aveva i progetti, una ricerca lunga un

decennio e adesso anche i mezzi tecnologici ed economici.

I piani di Engelbart erano chiari e semplici.

49

33 Programma americano spaziale che portò allo sbarco dei primi uomini sulla Luna.

Page 50: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

Il primo passo fu quello di formare l’Augmentation Research Center (ARC),

un laboratorio concepito per spingere la tecnologia verso nuovi domini:

“augmentation” (potenziamento) in contrapposizione ad

“automation” (automazione), cioè potenziare l’intelletto umano anziché cercare di

generare macchine sempre più potenti e distanti dall’uomo.

Già a partire dal nome del suo laboratorio, Engelbart fa capire quanto vuole

distanziarsi dalla ricerca scientifico-tecnologica "ortodossa", quella elitaria e

mondo direzionale che aveva dominato la scena per molti anni. All'ARC si

realizzano, o meglio si cerca di realizzare (le premesse del successo c'erano tutte),

macchine per pensare e non computer semi-automatici calcolatori.

Il gruppo di ricerca dell’ARC aveva il compito primario di realizzare gli

strumenti informatici di base, necessari allo sviluppo di tecnologie più complesse

ed avanzate: dall’hardware di input e di output fino al software di comunicazione

e sistemi grafici mai pensati prima. Andava creato tutto.

Sia il progetto Whirlwind che il SAGE avevano dimostrato la fattibilità

dell’idea di utilizzare il tubo catodico (CRT) per rappresentare graficamente le

informazioni elaborate dai computer. L’impatto di queste innovazioni, create per

la prima volta nei centri di ricerca militari affini al progetto ARPA, attirò a se

nuovi possibili sviluppi nel campo dei rapporti tra l’uomo e i computer, ben

lontani dall’elettronica.

I pionieri informatici che avevano reso possibile tecnicamente l’unione tra

schermi e computer, incominciarono a rendersi conto che i loro studi,

parallelamente alla ricerca per migliorare le tecnologie dei display, dovevano

concentrarsi in particolare sulla percezione umana. Avevano bisogno di

comprendere meglio come l’essere umano interagisse con il mondo esterno e

come, da esso, ne è influenzato per realizzare computer sempre più human brain-

friendly.

I ricercatori del Lincoln Laboratory del MIT ed altri vicini all’ARPA, già a

partire dai primi anni ’60, avviarono studi dettagliati sulle modalità di

50

Page 51: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

rappresentazione grafica nel sistema monitor-computer: in particolare si

concentrarono nel sviluppare un rapporto funzionale tra pixel e bit.

Ivan Edwards Sutherland (1938), uno dei dottorandi del Lincoln Laboratory,

realizzò Sketchpad (1964), un software che in un sol colpo aveva abbattuto tutti

gli ostacoli fino a quel momento riscontrati nei vari tentativi di sviluppare

modalità di interazione e rappresentazioni di dati su schermi, e segnò la nascita

della computer graphics e delle interfacce grafiche.

Sketchpad era la risposta a ciò che Licklider ed Engelbart stavano cercando.

Permetteva agli utenti, tramite un dispositivo ottico simile ad una penna, di creare,

modificare, duplicare, salvare, combinare immagini direttamente su uno schermo

televisivo collegato ad un computer. In poche parole si poteva disegnare forme,

modelli, ambienti tridimensionali attraverso gestualità tipiche del disegno.

Era qualcosa di rivoluzionario nella sua semplicità. Ogni azione dell’utente

poteva essere assimilata e memorizzata dal computer come un qualsiasi altro dato

e contemporaneamente generare in tempo reale un cambiamento sullo schermo.

Sketchpad era un nuovo linguaggio, una simulazione che permetteva ai computer

e agli esseri umani di comunicare direttamente: cambiando qualcosa sullo

schermo cambiava anche qualcosa all’interno della memoria del computer, non si

51

Fig. 8 - Ivan Sutherland in alcune delle sue dimostrazioni delle funzionalità di Sketchpad

Page 52: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

trattava ancora di una vera e propria bit-map, ma Sutherland aveva intuito il modo

più efficace per far funzionare computer relativamente poco potenti come quello

del Lincoln Laboratory con il display a tubo catodico. Aveva fatto qualcosa di

incredibile (Sketchpad) tanto da meritarsi l'appellativo di programma più

importante della storia. Grazie a Sketchpad chiunque poteva vedere che i

computer potevano essere utilizzati anche per scopi ben diversi dalla semplice

elaborazione dati. Vedere Sketchpad all’opera, voleva dire convincersene

fortemente.

Si poteva disegnare un’immagine sullo schermo con la penna ottica - e poi riportarla nella memoria del computer. In questo modo infatti si potevano salvare molte immagini. [...] C’erano

già stati schermi grafici e penne ottiche nell’esercito, ma Sketchpad era storico nella sua semplicità - una semplicità, occorre aggiungere, che era stata deliberatamente costruita da un intelletto capace

-e nel fatto che non rendeva necessaria nessuna competenza specifica [...] Era, per farla breve, un programma semplice che mostrava come potrebbe essere semplice il lavoro dell’uomo se ci fosse

un computer tale da essere veramente d’aiuto. ("The Home Computer Revolution" Ted Nelson, 1977)

Il Fall Joit Computer Conference del 9 dicembre del 1968 e più in particolare

la sessione denominata “A research center for Augmentig Human Intellect”, erano

il luogo e il momento ideale per osservare il futuro. Engelbart e il suo ARC erano

pronti a presentare al mondo le innovazioni che avrebbero cambiato la storia dei

computer. Venne ricordata come “The mother of all demos”.

La dimostrazione che Engelbart compie del suo sistema NLS (oN Line System)

lascia tutti senza fiato. Vennero introdotte features come: il mouse, la video

conferenza, l’ipertesto, il software per l’elaborazione di testi e il concetto di

collaborazione in tempo reale a distanza. Praticamente stavano dimostrando il

futuro. Improvvisamente, agli occhi dei 1000 professionisti del settore presenti

fisicamente alla conferenza, qualsiasi altro computer sembrò obsoleto. Non poteva

essere altrimenti, guardare Engelbart che si muoveva all'interno dei dati, li

organizzava, li condivideva, li memorizzava, li rielaborava, in poche parole che

52

Page 53: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

utilizzava il computer in un modo mai visto prima, doveva essere (per ritornare

alla metafora biblica) un pó come osservare Mosè attraversare il Mar Rosso.

Al termine della "madre di tutte le demo", l'esistenza dei sogni di Engelbart e

Licklider non doveva essere più dimostrata, divenne palese a tutti. Il dispositivo

capace di aumentare l'intelletto umano e di avere con esso un rapporto simbiotico

(che in qualche modo Bush aveva ipotizzato già nel 1945), in cui contribuirono a

crearlo altre menti geniali sia attivamente (Sutherland) che passivamente,

sostenendo economicamente le ricerche e i progetti (Taylor), divenne il punto di

arrivo di una generazione, ma anche quello di partenza per altre, pronte ad

immaginare nuovi mondi.

3. La Rete nata dalle reti

Fin dai primi anni ’60 con la nascita dell’ARPA, si iniziò già a creare una rete.

Una rete fatta di intelligenze (università, centri di ricerca, laboratori, aziende di

comunicazione e informatiche) geograficamente distribuite in tutti gli Stati Uniti il

cui obiettivo era quello di sperimentare nuove tecnologie, nuovi modi di utilizzare

quelle già esistenti ed incentivare in particolare la ricerca sui computer e sugli

strumenti di comunicazione (prevalentemente in ambito militare). Queste

53

Fig. 9 - Depliant informativo per la sessione di demo (The mother of all demos) del 9 dicembre del 1968 di Douglas Engelbart,

Page 54: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

intelligenze avevano il compito di progettare le tecnologie di base che avrebbero

permesso il progredire di altre ben più sofisticate. In un contesto di questo tipo, lo

scambio continuo di informazioni da una parte all’altra della “rete” di ricercatori e

scienziati è senza dubbio uno degli aspetti di maggiore importanza. Le normali

linee telefoniche, le pubblicazioni di ricerche, le visite in loco, erano tutti

collegamenti obsoleti, lenti e poco produttivi per gli obiettivi che la stessa ARPA

voleva raggiungere in tempi brevi. Ben presto quindi, la necessità di collegare

attivamente i nodi della “rete” tramite nuovi mezzi più veloci e diretti, fu

determinante per lo sviluppo di quella che sarà conosciuta come ARPANET

(l’antenata della moderna e frenetica Internet).

[...] è tempo di cominciare a pensare ad una nuova e non ancora esistente rete pubblica, un impianto di comunicazione [...] progettato specificatamente per la trasmissione di dati digitali tra

un vasto insieme di utenti. ("On distributed communications networks", Paul Baran, 1964)

3.1 La commutazione di pacchetto di Paul Baran e Leonard Kleinrock

Alla base di una rete di comunicazione devono esserci procedure ben precise

che ne descrivono i comportamenti. Nel 1960 all’interno della RAND Corporation

(uno dei nodi dell’ARPA), grazie ad una brillante intuizione di Paul Baran 34

(1926-2011), hanno inizio le prime ricerche sulle modalità di invio e ricezione di

informazioni alfa-numeriche tramite sistemi computerizzati. Basandosi sul

funzionamento delle complesse reti neuronali che compongono il cervello umano,

Baran riesce a creare un modello valido denominato in seguito rete distribuita.

Tale modello si basa essenzialmente sulla ridondanza e molteplicità delle

interconnessioni del sistema, dove per ogni singolo nodo esistono diverse

connessioni verso altri nodi e le informazioni per raggiungerne uno specifico

hanno diverse possibili strade da percorrere. Il numero delle “vie” percorribili

aumenta con l’aumentare delle dimensioni della rete. Un sistema di questo tipo,

54

34 Ingegnere polacco naturalizzato (acquisito cittadinanza) statunitense, considerato uno dei primi inventori della commutazione a pacchetto.

Page 55: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

così come il cervello umano, riesce a “sopravvivere” anche se alcuni nodi sono

danneggiati.

Un’altra brillante idea suggerita da Baran e ripresa successivamente da

Leonard Kleinrock 35 (1934) e Donald Watts Davies 36 (1924-2000) , è il concetto

di commutazione a pacchetto. Baran suggerisce infatti di: suddividere le

comunicazioni in entità elementari di lunghezza specifica (pacchetti di dati),

trasmetterle in seguito assieme alle informazioni necessarie sulla composizione

delle informazioni ed instradarle individualmente e in modo indipendente (tramite

percorsi e tempi differenti), per essere successivamente ricomposte nel punto di

destinazione.

Questo tipo di comportamento, a differenza di quello a trasmissione continua,

consente da un lato di limitare perdite di informazioni (se un pacchetto non arriva

a destinazione o arriva danneggiato o corrotto, il sistema provvede a inviare

nuovamente la parte mancante) e dall’altro di garantire una maggiore velocità di

comunicazione in quanto ogni pacchetto tenderà sempre a seguire il percorso

(momento per momento) meno saturo.

Le idee di Baran inizialmente non trovarono riscontro presso la comunità

scientifica dell’ARPA, salvo poi essere riconsiderate grazie ai successivi

esperimenti e ricerche di Kleinrock e Davies.

Basically, what I did for my PhD research in 1961-1962 was to establish a mathematical theory of packet networks [...] (L. Kleinrock)

La commutazione a pacchetti e il concetto di rete distribuita erano le

fondamenta su cui la futura Rete avrebbe dovuto poggiare.

55

35 Informatico statunitense, noto per essere stato il primo a stabilire la comunicazione tra computer nell'ottobre del 1969.

36 Informatico gallese, ritenuto uno dei primi inventori della commutazione a pacchetto.

Page 56: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

3.2 Il time-sharing e l’Intergalactic Network

Con l’istituzione all’interno dell’ARPA dell’IPTO nel 1962, grazie soprattutto

alle idee rivoluzionarie e la lungimiranza di Licklider, ci fu uno sviluppo

tecnologico senza precedenti nella storia: da un lato si alimentarono enormemente

le ricerche informatiche sulla costruzione di computer innovativi (come abbiamo

visto nel precedente paragrafo), ben diversi da quelli comunemente in uso in quel

periodo, e dall’altro venne incentivata notevolmente la creazione di nuove

modalità di comunicazione.

Si sostiene erroneamente che tali progressi fossero incentivati soprattutto dalle

necessità di una risposta alla minaccia di interruzione delle comunicazioni in caso

di guerra termonucleare. In realtà Licklider venne scelto per dirigere l’IPTO da

Jack Ruina, appositamente per le sue concezioni di computer come strumento

simbiotico al servizio dell’uomo e delle attività di comunicazione.

La scelta di Ruina indirettamente ha condizionato l’evoluzione di ciò che di lì a

poco diverrà ARPANET. Il direttore dell’ARPA sapeva che scegliendo Licklider,

quest’ultimo avrebbe condotto a sé, e alle sue idee, studenti universitari,

appassionati di tecnologie, programmatori indipendenti, che poco avevano a che

fare con ambienti militari.

[...] ARPAnet non nacque per assicurare le comunicazioni militari in caso di guerra nucleare - questa è un'impressione sbagliata piuttosto comune - ma piuttosto per collegare computer e

ricercatori delle università, assistendoli nel condurre ricerche comuni sui computer e sulle reti di comunicazione, e per usare questi computer nelle ricerche di base. [...]eravamo consapevoli delle

applicazioni potenziali di ARPAnet per la sicurezza nazionale, ma gli sforzi per usare tale tecnologia a questo fine vennero solo molto dopo. (Intervista rilasciata a Scientific American di

Charles Herzfeld37, 1995)

Nel 1963 Licklider viene messo a capo dell’Intergalactic Computer Network

(ICN), un gruppo di lavoro specifico all’interno dell’IPTO che aveva il compito di

56

37 Nato nel 1925, conosciuto come direttore dell'ARPA che autorizzò la creazione di Arpanet.

Page 57: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

ragionare e cercare soluzioni adeguate sui problemi che affliggevano i centri di

ricerca della rete ARPA.

A questo punto è doveroso fare una digressione su uno dei concetti

fondamentali che hanno permesso lo sviluppo della Rete. Come abbiamo avuto

modo di analizzare in precedenza (paragrafo 2), i computer, sebbene in questi anni

abbiano incrementato notevolmente le loro capacità di calcolo e stiano diventando

sempre più economici, risultavano essere comunque troppo costosi ed impegnativi

per essere dedicati ad una singola persona. Da tempo si stavano cercando

soluzioni per velocizzare i processi di calcolo e ridurre i “tempi morti” (di attesa

risultati dei calcoli), ma date le potenzialità tecniche e le numerose difficoltà

legate allo sviluppo di una gestione multi utente di questo tipo di elaboratori, i

computer continuavano comunque ad essere dedicati all’esecuzione di un solo

programma alla volta.

Nel 1957 l'informatico Bob Berner (1920-2004) introdusse per la prima volta il

concetto di time-sharing38 in una pubblicazione su “Automatic Control

Magazine”, di cui il primo progetto ufficiale venne avviato da John McCarthy39

(1927-2004), alla fine dello stesso anno.

In quel periodo McCarthy ha avuto modo di osservare molto da vicino lo

sviluppo del progetto SAGE, che oltre ad essere uno dei primi sistemi ad

utilizzare display grafici con interfaccia utente point-and-click40, era dotato di

supporto multiutente tramite l’utilizzo del time-sharing. Si trattava comunque di

un computer special purpouse, realizzato cioè per compiti specifici ,che non

permetteva lo sviluppo interattivo di programmi. Da questa esperienza iniziò a

concepire uno schema per lo sviluppo di un sistema time-sharing general

purpouse, ossia dedicato non solo ad un singolo possibile utilizzo, descritto

57

38 Termine inglese che significa "partizione di tempo" (sin. multitasking) ed è il modello di elaborazione per sistemi operativi, sviluppato della tecnica di multiprogrammazione, che permette l'esecuzione ciclica di più processi da parte della CPU.

39 Informatico statunitense, conosciuto per essere stato l'inventore dell'intelligenza artificiale, ossia l'abilità di un computer di svolgere funzioni e ragionamenti tipici della mente umana, nel 1955.

40 Interfaccia adoperata per facilitare l’utente nell’analisi dei dati con le tecniche di analisi interattive, basate sul semplice uso del mouse, che richiedono una minima istruzione.

Page 58: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

accuratamente in un memorandum del 1959 dal titolo “A Time Sharing Operator

Program for our Projected IBM 709”. Questo tipo di sistema fu l’essenziale

precursore che ha permesso lo sviluppo del Computer Networking. Licklider

assimilò il concetto di time-sharing per sviluppare un’idea altrettanto importante

per quanto riguarda il futuro dell’interazione uomo-computer. Non pensò (almeno

per il momento) di dotare ogni individuo di un computer dedicato (costi troppo

elevati), pensava piuttosto a sistemi centralizzati, cui tutti potevano accedere

attraverso un terminale remoto. Questo tipo di applicazione avrebbe consentito,

oltre un utilizzo più intelligente delle risorse (in termini di uomini e di macchine)

distribuite nei vari centri affiliati al progetto ARPA, anche comunicazione ed

interscambio di informazioni. Il concetto di time-sharing, dove una grossa

macchina divideva le sue capacità di calcolo per un certo numero di utenti ad

intervalli di operazioni regolari, è l’idea chiave alla base dei programmi scientifici

dell’IPTO di Licklider. L’obiettivo principale ben presto divenne quello di

costruire una macchina multi-user che fosse in grado di eseguire programmi

software in parallelo. Licklider riteneva che nel giro di pochi anni il sogno di

creare una macchina dalle potenzialità spiccatamente interattive e in grado di far

comunicare le persone a distanza e in un modo del tutto differente dal telefono,

si sarebbe concretizzato. Inoltre notò anche che la rete intergalattica che di lì a

poco si sarebbe sviluppata, avrebbe potuto affermarsi solo se tali macchine

interattive sarebbero state alla portata di tutti.

Twenty years from now, some form of keyboard operation will doubtless be taught in kindergarten, and forty years from now, keyboards may be as universal as pencils, but at present

good typists are few. ("One-Line Man Computer Communication", Licklider, Welden E. Clerck, August 1962)

Nel 1963 Licklider scrive una serie di appunti interni al progetto ARPA dal

titolo “Memorandum For Members and Affiliates of the Intergalactic Computer

Network” in cui espone profeticamente i concetti, i problemi da risolvere al fine di

creare l’Intergalactic Network voluto dall’ARPA e collegare così in una rete gli

elaboratori a disposizione nei vari centri. Il periodo di Licklider al comando

58

Page 59: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

dell’IPTO (1962-1965) non fu lungo da veder realizzate le sue idee, ma in un

certo senso il suo spirito innovativo e rivoluzionario venne tramandato ai suoi

successori, Ivan Surtherland e Robert Taylor.

3.3 Arpanet per un milione di dollari

Nel 1966 le idee di Licklider sembravano mature per poter essere finalmente

portate da una fase progettuale ad una operativa. Bob Taylor incontra Charles

Herzfeld (nuovo direttore dell’ARPA) per illustrare i risultati ottenuti con le

tecnologie di base (time-sharing, commutazione a pacchetti, etc.) e richiedere i

fondi necessari per la messa in opera della rete distribuita.

Si dice che siano bastati solo 20 minuti a Taylor per ottenere il milione di

dollari di cui l’IPTO aveva bisogno per sviluppare le idee di Licklider

sull’Intergalactic Network.

Il capo scelto per assumere il comando del progetto ARPAnet fu Larry Roberts

che, nei primi mesi del 1967,organizza una serie di incontri con i vari centri e

organismi accademici-universitari, al fine di esporre quelli che saranno i nuovi

obiettivi e progetti. Molti degli enti coinvolti però si dimostrarono scettici in

quanto poco convinti che l’idea di condividere parte delle loro risorse

informatiche, già fin troppo scarse, all’interno di una Rete fosse la soluzione

migliore per il progresso della tecnologia e della ricerca.

Douglas Engelbart, direttore dell’ARC presso lo Stanford Research Institute,

decide invece di sostenere tale progetto, convinto come Licklider e Taylor che la

Rete sarebbe stato strumento di fondamentale importanza per tutto il genere

umano. Prima però bisognava risolvere una serie di problemi legati soprattutto

alla compatibilità di linguaggi tra i vari computer esistenti, che spesso ne

impedivano la comunicazione. Lo stesso tipo di problematiche suscitate da

Licklider qualche anno prima nel "Memorandum For Members and Affiliates of

the Intergalactic Computer Network". Per cercare di oltrepassare le difficoltà di

compatibilità tra i modelli di computer utilizzati nei vari centri di ricerca,

59

Page 60: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

bisognava pensare ad un sistema diverso che esuli dalla volontà di collegare le

macchine direttamente tra loro, un contributo molto importante su questo tipo di

interazione arrivò grazie all'informatico Wesley Clark (1927). La sua idea, molto

semplice ed efficace, consisteva nel creare una sottorete di computer tutti uguali,

denominati IMP (Interface Message Processor), e pienamente compatibili tra

loro, dedicati esclusivamente alla trasmissione e ricezione dei dati. In questo

modo tali macchine avrebbero comunicato tramite lo stesso linguaggio senza

riscontrare particolari difficoltà, e ogni nodo (costituito dal mainframe del centro

di ricerca) della Rete che si stava progettando, avrebbe dovuto essere istruito per

interpretare e dialogare esclusivamente con la sottorete, anziché con tutti gli altri

computer della Rete.

Le tecnologie per la costruzione della Rete distribuita erano ormai tutte

disponibili e ampiamente testate, occorreva passare dalla teoria all’azione. Nel

1969 grazie agli sforzi dell’ARPA ed in particolare dei centri di ricerca affiliati,

che avevano testato la commutazione di pacchetti e sviluppato gli IMP necessari

alla creazione della sottorete per la comunicazione con i nodi principali, vennero

ufficialmente stabilite le prime connessioni.

Il 30 agosto L’IMP numero 1, un computer di 12k di memoria il cui codice di

sistema necessario al funzionamento occupa circa 800 metri di nastro perforato,

viene interfacciato al computer Siggma-7 dell’UCLA (University of California

Los Angeles). Il 1° ottobre L’IMP numero 2 raggiunge lo Stanford Reserach

Institute a Menlo Park in California ed iniziano le sperimentazioni di invio e

ricezione messaggi. Il primo tentativo consisteva nell’invio della parola login, ma

giunsero a destinazione solo le lettere “l” e “o” prima di una caduta improvvisa

della connessione. Successivamente, solo dopo aver ripristinato il sistema, fu

possibile leggere dall’altro lato del collegamento la parola intera.

Fu un successo.

Nel giro di pochi mesi vennero aggiunti altri importanti nodi e stabilizzate le

connessioni.

Era ufficialmente nata Arpanet.

60

Page 61: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

Sai, Larry, questa rete sta diventando troppo complessa per essere disegnata sul retro di una busta"41

È bene sottolineare a questo punto la duplice importanza che ha avuto, e che ha

tuttora, l’idea della commutazione a pacchetto (elemento cardine che ha permesso

la nascita e lo sviluppo della Rete), per il mondo non tecnico: in primo luogo ha

permesso la creazione di un sistema comunicativo decentralizzato (senza un

controllo centrale), in cui ogni nodo di smistamento sa dove e come fare arrivare

le informazioni richieste a destinazione; in secondo luogo, l’idea dei “pacchetti”

garantisce la possibilità non solo di trasportare semplici messaggi, ma anche di

dislocare tutto ciò che gli uomini sono in grado di percepire e le macchine di

elaborare (voci, suoni, video, immagini ecc...). Fattore determinante per

l’esplosione della Rete come mezzo di comunicazione universale e multimediale.

Parallelamente ai primi esperimenti di time-sharing degli anni '60 nei laboratori

affiliati all’ARPA che consentivano a molti individui di interagire direttamente

con il computer centrale per mezzo

di un punto di accesso (terminale),

invece di aspettare il loro turno per

presentare i programmi agli

operatori informatici, vennero

sviluppate anche altri tipi di

risorse che diventeranno il cardine

della nuova rete. Come suggerisce

Howard Rehingold 42 (1947) nel

libro "Comunità virtuali", dal

momento che si costruisce un sistema

di elaborazione che consente a

cinquanta-cento programmatori di interagire direttamente e individualmente con

61

41 Leonard Kleinrock tramite un commento ironico al suo amico Larry Roberts fa notare la somiglianza della rete ad una busta.

42 Critico letterario statunitense noto per aver coniato il termine "comunità virtuali".

Fig. 10 - Illustrazione di Leonard Kleinrock dei nodi della Rete ARPANET nel 1972

Page 62: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

l’elaboratore principale, si sta automaticamente creando il potenziale per una

comunità. Infatti la posta elettronica fu una delle primissime funzionalità che

venne implementata assieme al time-sharing. Condividere la potenza di calcolo

dell’elaboratore voleva dire anche condividere le conoscenze di ogni singolo

operatore al lavoro.

La posta elettronica non fu più abbandonata, anzi venne presto trasferita

all’interno della neonata Rete per consentire la comunicazione a distanza e

immediata tra operatori geograficamente distribuiti.

Grazie ad essa infatti era possibile inviare con la stessa facilità un messaggio di

poche righe ad un unico destinatario, così come un messaggio di cento pagine ad

una o mille persone.

I pionieri di ARPANET stavano già sperimentando (probabilmente senza

esserne del tutto consapevoli) un nuovo mezzo e nuove modalità di

comunicazione: si scambiavano messaggi, file, conoscenze, ma anche battute e

semplici chiacchiere tra studenti. Non era solo uno strumento con cui creavano

connessioni finalizzate alla ricerca scientifica, era anche un nuovo modo di

interfacciarsi con altre persone distanti geograficamente. I privilegiati a far parte

di questa Rete di conoscenza stavano sperimentando il linguaggio e gli effetti

della comunicazione attraverso i computer.

3.4 “The Computer as a Communication Device”

Prima che nel 1969 il prototipo di ARPANET entrasse in funzione, Licklider e

Robert Taylor (i padri di questo progetto) scrissero un articolo dal titolo più che

mai premonitore di come nel corso degli anni sarebbe cambiato il computer e il

suo utilizzo: “The Computer As Communication Device”.

Nel giro di pochi anni, gli uomini saranno in grado di comunicare più efficacemente tramite una macchina che in incontri faccia a faccia. ("The Computer As Communication Device" J.C.R.

Licklider and Robert W. Taylor, 1968)

62

Page 63: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

Secondo Licklider, la possibilità di condividere informazioni all’interno di una

Rete e la possibilità di accesso a risorse di calcolo significative nelle mani di

utenti esperti, erano le componenti fondamentali per lo sviluppo spontaneo di un

nuovo ambiente in grado di stimolare il pensiero e la comunicazione.

Dall’interazione tra persone mediata attraverso il computer, sarebbero potute

nascere nuove e proficue idee, in cui le risorse condivise all’interno del sistema-

rete avrebbero ulteriormente facilitato gli individui nella risoluzione di problemi

tramite soluzioni creative e funzionali.

L’idea espressa nell’articolo si basava sull’osservazione dettagliata del sistema

presentato alla "Madre di tutte le demo" da Engelbart nella storica conferenza

1968 (vedi paragrafo 2). Un certo numero di operatori era riunito in una sala

appositamente attrezzata con questo innovativo sistema di interazione, impegnato

ad osservare grafici e testi prodotti per la riunione, discutendone di volta in volta i

loro contenuti.

Da questa sessione sperimentale Licklider e Taylor avevano avuto modo di

confermare le loro ipotesi iniziali, cioè che al centro del processo di

comunicazione c’è sia uno scambio di modelli di informazione pre-esistenti che

una creazione continua di nuovi modelli mentali.

di sicuro i modelli più numerosi, più sofisticati, sono quelli che risiedono nelle menti degli uomini. ("The Computer As Communication Device" J.C.R. Licklider and Robert W. Taylor, 1968)

Questi modelli sono generati all’interno della mente del singolo individuo

secondo processi di elaborazione di ciò che si percepisce attraverso i sensi (parole,

immagini, suoni), delle proprie esperienze e dei ricordi immagazzinati in

memoria. Essi sono di natura strettamente personale e privata, quindi per essere

condivisi, percepiti, discussi e assimilati da altri devono essere necessariamente

esternati. Il processo di esternazione dei modelli mentali, consente agli individui

di concordare e coordinare le azioni e di incrementare conseguentemente la

capacità di controllo collettivo sull’ambiente.

63

Page 64: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

Il computer di nuova generazione (che Licklider ed Engelbart avevano

immaginato e che stavano contribuendo a creare) capace di combinare nuove

modalità di rappresentazione delle immagini alle tecnologie di comunicazione, se

messo a disposizione di tutti, avrebbe rappresentato lo strumento di

collaborazione più potente che sia mai stato inventato.

Condividere informazioni, passare da livelli di macro analisi a livelli più

dettagliati delle stesse, assemblare e costruire nuovi modelli di pensiero, tagliare

ed incollare dati, sono tutte potenzialità concepite dai nuovi mezzi informatici con

i quali è possibile costruire forme di comunicazione fluide e dinamiche,

completamente differenti a qualsiasi altra forma collaborativa resa possibile con i

precedenti ausili tecnologici.

Se a questo ci aggiungiamo anche le capacità di collegare tale conoscenza

generata dal lavoro di un gruppo, di una comunità locale, di un centro di ricerca o

università attorno ad un computer, con altre geograficamente distribuite,

otteniamo una crescita esponenziale delle potenzialità dell’intelletto collettivo.

[...] Allo stato attuale vi sono forse non più di una dozzina di comunità che operano con computer interattivi multi-accesso. Si tratta di comunità socio-tecniche pionieristiche, e pre diverse

ragioni molto più avanti del resto del mondo che ha a che fare con i computer [...] Essere collegati sarà un privilegio o un diritto? Se la possibilità di sfruttare il vantaggio dell’amplificazione

dell’intelligenza sarà riservata a un’élite privilegiata, la rete non farà che esasperare le differenze tra le opportunità intellettuali. Se invece l’idea della rete dovesse risultare, come noi speravamo

progettandola, un ausilio per l’istruzione, e se tutte le menti vi dovessero reagire positivamente, di certo il beneficio per il genere umano sarà smisurato. ("The Computer As Communication Device"

J.C.R. Licklider and Robert W. Taylor, 1968)

La rete immaginata da Licklider sconvolge il paradigma della comunicazione

tipico dei media, come il telefono e la televisione. Non c’è una più un sistema

composto da una sola fonte, un solo canale di trasmissione e un solo ricevente. La

comunicazione mediata dal computer nella Rete assume forme più instabili e

mutevoli che sono sempre nuove.

I partecipanti alle comunità in Rete sono soggetti attivi che costruiscono di

volta in volta il proprio mondo di significati e di modelli costantemente

64

Page 65: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

rinegoziabili con gli altri, al fine di generare un nuovo significato e nuova

comprensione. Una nuova conoscenza.

3.5 Lo Xerox Parc e la nascita di internet

Nel 1969 Peter McCullogh,, amministratore delegato della Xerox, proclamò

l’intenzione di fare della sua azienda l’architetto delle informazioni per il futuro.

Istituì il laboratorio informatico denominato PARC (Palo Alto Research

Center). Le aspettative di questo nuovo colosso sulla ricerca informatica di

tecnologie e sulla sperimentazione di nuovi device e sistemi di interazione uomo-

macchina erano elevate, così come l’interesse che suscitava a gran parte del

gruppo di innovatori che era impegnato nei progetti dell’ARPA.

Le giovani “superstar” della programmazione che avevano reso possibile la

nascita di ARPANET, sentivano sulle loro spalle il peso che la guerra del Vietnam

stava portando con sé, per molti di loro non era per nulla facile lavorare per il

Dipartimento della Difesa. La Xerox chiamò Robert Taylor e quest’ultimo volle

con sé Alan Kay43 (1940), con il seguente trasferimento di molti altri personaggi

di spicco dell’ARPA al PARC. Confluirono tutti in un ambiente dove il direttore

della ricerca condivideva le loro opinioni in merito alla tecnologia informatica e

come doveva svilupparsi nell’immediato futuro, avevano a disposizione le

migliori strumentazioni dell’epoca e un budget economico molto importante.

Molte delle idee che segnarono la prima rivoluzione informatica, quella

dell’ARC di Engelbart (dalle macchine calcolatrici al computer come strumento

dell’intelletto), passarono al PARC, dove avevano intenzione di portarle ad un

livello più elevato, al fine di creare computer sufficientemente potenti, compatti

ed economici da poter essere disponibili e utilizzabili da chiunque: Personal

computer.

65

43 Informatico statunitense, conosciuto com l'inventore del linguaggio di programmazione Smalltalk, programmazione orientata agli oggetti. Inoltre ha concepito i laptop, le interfacce grafiche moderne e ha contribuito a creare ethernet ed il modello client-server.

Page 66: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

Per farlo avevano bisogno che il prezzo delle due principali componenti dei

computer (elaboratore e schermo) fossero disponibili a costi decisamente più

bassi. Grazie alle nuove tecnologie per la fabbricazione di entrambi gli elementi

necessari al team di sviluppo del PARC ci fu un graduale ma costante

dimezzamento del prezzo, così come aveva predetto Gordon Moore 44 (1929) che,

secondo le loro stime, avrebbe permesso di realizzare l’obiettivo entro sette anni.

Progettarono un’interfaccia grafica uomo-computer che si basava sulla

tecnologia bit-mapped (simile a quella creata da Sutherland con Sketchpad e che

mancava all’ARC) in cui ciascun elemento dell’immagine sullo schermo è

rappresentato da un bit specifico nella memoria del computer (la memoria del

computer contiene una mappa di bit che corrisponde alla configurazione dei pixel

sullo schermo). La comunicazione tra pixel e bit è biunivoca: è possibile agire sul

bit del computer e osservare il cambiamento sullo schermo, ed è possibile agire

sullo schermo per esempio cliccando tramite il dispositivo di puntamento su un

immagine ed osservare il computer reagire.

Le idee di Engelbart, successivamente riprese da Ivan Sutherland e da Alan

Kay, hanno reso possibile lo sviluppo dell’interfaccia grafica come strumento

essenziale dell’interazione uomo-computer. Con Smart-Talk, sviluppato allo

Xerox PARC tra il 1968 e il 1972, Alan Kay introduce l’utilizzo di un linguaggio

iconico e di una rappresentazione grafica delle funzioni del computer (cartelle,

menu, sovrapposizione di finestre ecc...) come principale strumento di interfaccia

tra uomo e computer, oggi conosciuta come metafora del desktop.

Il desktop di Alan Kay è stato difatti il primo mondo Virtuale in cui l’uomo

abbia mai potuto immergersi e navigare.

La sensazione di immersione non era data da immagini tridimensionali

stereoscopiche fluttuanti che reagivano conseguentemente allo spostamento della

testa, ma piuttosto dai processi mentali che avvengono grazie all’utilizzo delle

icone come strumento di controllo e comunicazione con il computer.

66

44 Informatico ed imprenditore statunitense che aveva previsto il dimezzamento del costo della potenza degli elaboratori ogni due anni.

Page 67: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

Il computer è un medium! L’avevo sempre considerato uno strumento, forse un veicolo [...] Quello che McLuhan voleva dire è che se il computer è un nuovo vero mezzo di comunicazione,

allora il suo uso effettivo dovrebbe addirittura cambiare gli schemi di pensiero dell’intera civiltà. (Alan Kay)

Nel 1973 il team dello Xerox PARC progettò e costruì per uso interno, come

strumento di esplorazione delle nuove tecnologie e progettazione di sistemi

sempre più avanzati, il primo Personal Computer della storia: lo Xerox ALTO. s

Lo sviluppo di ARPANET continuò ad essere costante fino al 1983 quando si

sdoppiò in ARPANET (utilizzata per la ricerca) e MILNET (utilizzata per scopi

militari). Entrambe le reti continuavano ad essere geograficamente distribuite,

disponevano, tra i vari nodi, di linee di connessione ad alta velocità e ad alta

portata di utenza. Sempre nello stesso anno venne realizzata da alcuni

programmatori dell’ARPA una nuova versione di Unix (sistema operativo

altamente utilizzato in ambienti accademici e universitari) compatibile con i

protocolli di comunicazione della Rete (TCP/IP45) e distribuito ad un prezzo

accessibile. Ben presto ARPANET incominciò ad espandersi di sottoreti locali a

temi di discussione specifiche interne agli ambienti accademici ed universitari,

diventando sempre più una Rete di reti. Più cresceva e più le persone volevano

entrare a far parte di questo network di intelligenze che si scambiano conoscenze,

informazioni e dati in ogni parte degli Stati Uniti.

A partire dagli anni '80 fu chiamata dapprima ARPA Internet e successivamente

solo INTERNET.

Il progetto iniziato negli anni '60 dall’IPTO di Licklider divenne nel giro di

vent’anni la rete intergalattica che aveva ipotizzato e sognato, i suoi sforzi, così

come quelli di tutti i ricercatori, hanno reso possibile la nascita del più potente

mezzo di comunicazione e condivisione che l’uomo abbia mai inventato.

Il luogo ideale per amplificare l’intelletto.

67

45 Transfer Control Protocol / Internet Protocol

Page 68: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

68

Page 69: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

69

Page 70: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

70

Page 71: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

CAPITOLO SECONDO:Socializzare al tempo della “Rete”

4. Comunicazione e condivisione del Sé in Rete

L’affermazione di una cultura “digitale” nei principali laboratori Universitari

(MIT, SRI ecc..) e militari (ARPA, IPTO etc..), sfociata nei successi con la

realizzazione delle macchine per pensare volute da Engelbart, capaci di

aumentare l’intelletto umano, ed avvicinarsi sempre più alla visione di simbiosi

tra uomo e tecnologie sognata da Licklider, conferì indubbiamente sia maggiore

attendibilità alle ricerche sulle innovazioni tecnologiche, che la fiducia necessaria

a spingersi oltre, andando cioè sempre più in profondità nell’esplorazione delle

possibilità di questi nuovi potentissimi strumenti.

Ciò avrebbe richiesto una revisione del modello di cultura tecnologica e

comunicativa su cui erano stati conseguiti gran parte dei successi raggiunti.

Una volta che il computer aveva raggiunto la soglia necessaria di potenza,

velocità e usabilità, poteva superare le barriere comunicative (tempo e spazio) e

collaborative tra le persone.

Come abbiamo visto nel precedente capitolo, non si trattava di sostituire

l’uomo nelle sue attività quotidiane, quanto piuttosto aiutarlo nella gestione e nel

superare le limitazioni a cui può incorrere.

Tramite l’aiuto del computer quindi sarebbe cambiata la natura stessa delle

relazioni tra le persone e conseguentemente tra le persone stesse e il proprio

lavoro. Modificando le caratteristiche dell’interazione con il computer,

avvicinando cioè sempre più quest’ultime alla natura sociale dell’uomo (da

macchina calcolatrice “fredda” a strumento per pensare), si sarebbero amplificate

oltre che le potenzialità gestionali delle complesse problematiche dell’umanità

(attraverso i nuovi modi di memorizzare le informazioni, di valutazione ecc...)

anche quelle comunicative.

71

Page 72: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

Licklider, che attivamente contribuì alla realizzazione di internet (o meglio

delle tecnologie e teorie che lo hanno reso possibile), fu influenzato nella sua

“visione” dalle teorie dell’informazione e della comunicazione pubblicate da

Claude Elwood Shannon nel 1948.

4.1 La Teoria dell’informazione e della comunicazione

Le fondamenta delle teorie di Shannon, così come le rispettive evoluzioni ed

applicazioni che portarono alla nascita della rete, poggiavano sull’osservazione e

analisi delle proprietà e caratteristiche tipiche della comunicazione tra le persone,

quindi del veicolo principale che la rende possibile: il linguaggio.

Poiché i sistemi comunicativi servono soprattutto a mettere in contatto le

persone, la loro progettazione richiede lo studio approfondito e la comprensione

delle caratteristiche che stanno alla base dello scambio di informazioni e della

collaborazione tra esseri umani.

Shannon fu uno dei primi a discutere di leggi fisiche sulla comunicazione,

partendo da dati dell’osservazione empirica. Il suo obiettivo era quello di trovare

un modo per rendere oggettivamente misurabile l’informazione, così da poterla

capire, descrivere e manipolare: uno dei principi fondamentali alla base della

teoria è infatti l’informazione che può essere trattata come una quantità fisica

misurabile. La riflessione di Shannon, oltre che su questo aspetto, si concentrò

anche sulle modalità in cui avviene effettivamente il passaggio delle informazioni

tra le persone, in particolare su come può un messaggio partire da un dato luogo

iniziale e raggiungere, senza subire trasformazioni o interferenze, il luogo di

destinazione designato. Altre riflessioni si concentrarono invece su problematiche

di natura più concreta, che si erano rivelate di vitale importanza durante la

Seconda Guerra Mondiale, come quelle relative alla crittografia e decrittografia,

cioè sulla possibilità di estrarre dal rumore i codici che mascheravano i messaggi

crittografati.

72

Page 73: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

Queste riflessioni lo portarono a definire il concetto di entropia1, o meglio a

ridefinirlo secondo un nuovo punto di vista2, strettamente legato alla

comunicazione. Shannon osservò che l’incertezza in ogni sistema è dovuta alla

mancanza dell'informazione, quindi se prendiamo in considerazione la

comunicazione tra due persone, oppure la decifrazione di un messaggio

alfanumerico, osserviamo che man mano che diminuisce la casualità delle

informazioni, si riduce anche l’incertezza. Il messaggio, o parte di esso, diventa

quindi più chiaro e comprensibile ai nostri sensi. E' proprio grazie alla possibilità

di eliminare o escludere completamente il rumore dal messaggio, che riusciamo a

ricavare informazioni. In conclusione, sintetizzando quanto espresso da Shannon

nel documento del 1948 “A Mathematical Theory of Communication”, è possibile

affermare che l’informazione è riduzione dell’incertezza.

Shannon oltre a queste osservazioni identifica quelli che sono gli elementi di

base di un sistema di comunicazione, qualunque esso sia e qualunque sia la

tecnologia su cui regge. Questi elementi, generalmente identificabili e descrivibili

con facilità, sono:

1. una fonte di informazione, che può essere rappresentata come una persona o

una macchina (oggetto), in ogni caso si tratta di un dispositivo di diffusione

dell’informazione (messaggio), in grado di trasformarla in un formato adatto ad

essere veicolato. É la cosiddetta fase di codifica del messaggio, che avviene

mediante precise caratteristiche dettate appunto da chi lo trasmette (fonte);

73

1 E' un concetto attinto dalla fisica, risalente alla seconda legge della termodinamica, elaborata nel XIX secolo. Secondo questa legge, l’entropia è il grado di casualità che esiste in ogni sistema, e tende ad aumentare per effetto dell’incontro tra molecole, rendendo incerta l’evoluzione del sistema stesso.

2 La probabilità relativa che si verifichi un evento tra tutti quelli possibili (per esempio, che si indovini una lettera dell’alfabeto), dipende dal numero totale di casi nella popolazione degli eventi (le lettere dell’alfabeto) e dalla frequenza dell’evento specificato (numero di domande con risposta si - no necessarie per trovare la risposta corretta). Quindi per una lettera dell’alfabeto, occorre ridurre il valore di incertezza, che in questo caso è pari a 20 (il numero delle lettere dell’alfabeto). Per farlo è sufficiente porre semplici domande a cui si possa rispondere affermativamente o negativamente (si, no), per esempio si potrebbe chiedere se la lettera viene dopo la “L” (lettera che ipoteticamente divide a metà l’alfabeto), e così via fino ad escludere ad ogni domanda i valori possibili riducendo l’incertezza. Nel caso preso in esame l’incertezza potrebbe essere ridotta ad un valore di cinque.

Secondo Shannon l’ entropia di un sistema è rappresentata quindi dal logaritmo del numero di possibili combinazioni di stati in quel dato sistema. Il logaritmo rappresenta il numero delle domande per ridurre l’incertezza.

Page 74: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

2. un canale, ossia semplicemente il mezzo attraverso il quale il messaggio

viene inviato;

3. un apparato di ricezione che decodifica il messaggio nel modo più

opportuno, cioè in una qualche approssimazione della sua forma originale;

4. una fonte di rumore, interferenza o distorsione, che cambia il messaggio in

modo imprevedibile durante la trasmissione, da una fonte ad un ricevente

passando per un qualsiasi canale.

Nella loro semplicità gli elementi che compongono la teoria di Shannon,

offrono un modo per trattare la comunicazione e l’informazione come entità

misurabili e quantificabili, esattamente come accade con altre forze fisiche o

comunque di sistemi tangibili. Questo tipo di caratterizzazione matematica

permette di studiare i molteplici fenomeni che compongono l’universo

imprevedibile della comunicazione tra persone o tra macchine, tra cui: la massa di

informazione prodotta dalla fonte, la capacità del canale di trattare l’informazione

per ogni dato tempo di trasmissione, la quantità media di informazione contenuta

in un particolare messaggio.

Permette, dunque, di progettare sistemi comunicativi in grado di trasmettere

informazioni e messaggi in modo affidabile e sicuro.

Joseph Licklider, che in quegli anni era impegnato al MIT nello studio della

psicoacustica (lo stesso che qualche anno più tardi “provocò” involontariamente

in lui la “visione” di una macchina elaboratrice diversa), rimase folgorato dal

concetto d'informazione espresso da Shannon, tanto da renderlo parte integrante

della sua ricerca sulla comprensione del funzionamento della mente e del cervello

umano. Già durante la Seconda Guerra Mondiale, presso il laboratorio del MIT,

studiò la comunicazione per scopi estremamente concreti. I motori dei caccia-

bombardieri erano rumorosissimi, tanto da generare nella cabina di pilotaggio un

livello di rumore tale da ridurre la tenuta psicofisica degli equipaggi e

conseguentemente della loro sicurezza.

Una delle componenti analizzate fu proprio la comunicazione tra i membri

dell’equipaggio. Licklider aveva osservato che in un ambiente particolarmente

74

Page 75: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

rumoroso dove la comunicazione tende ad essere minima, in quanto se ne perde

gran parte, occorre essere ridondanti nei messaggi che si vogliono esprimere ed è

necessario confidare sull’intesa reciproca affinché l’informazione, o meglio parte

di essa, possa comunque arrivare a destinazione. Gli esperimenti compiuti in

laboratorio hanno dimostrato questa tendenza, ma hanno aggiunto anche un

elemento importante: anche in condizioni di intenso rumore, se un messaggio è

“atteso” dal destinatario, quindi i suoi canali percettivi sono pre-attivati per il

riconoscimento, entro una certa soglia limite di disturbo l’informazione è

comunque percepita anche se con maggiore difficoltà ed impegno. Gli esperimenti

condotti nel corso degli anni hanno dimostrato che i canali uditivi (il principale

apparato di ricezione umano) sono a “capacità limitata”, ossia in condizioni di

scarsa qualità dell’ambiente sonoro in cui si agiscono (troppo rumore, troppo

distanti, voce bassa ecc...), riescono a tenere traccia, quindi a filtrare, solamente i

messaggi che in qualche modo sono “attesi” estrapolandoli dal contesto. Il nostro

cervello elabora l’informazione escludendo tutte le altre non attese.

L’atto percettivo nella comunicazione tra persone è attivo e selettivo in ognuna

delle sue fasi e in ogni suo elemento (fonte, messaggio, canale, ricevente,

rumore), non avviene secondo una modalità in cui una “fonte attiva” invia i

segnali e una “passiva” li riceve, bensì anche il dispositivo ricevente del

messaggio svolge un ruolo attivo, ossia estrae ed elabora l’informazione rilevante

dal rumore di fondo.

4.2 La comunicazione mediata dal computer e Identità in rete

Sebbene il primo vero e proprio studio metodico sulla comunicazione mediata

dal computer (Computer-mediated communication, CMC) si sia sviluppato nel

campo della psicologia sociale all’inizio degli anni ’80, alcuni elementi chiave che

ne hanno reso possibile lo sviluppo possono essere ricondotti già negli anni '60.

Come abbiamo visto in precedenza, il lavoro pionieristico di Engelbart e Licklider

ha influenzato gli ambienti affini alle tecnologie informatiche suscitando così

75

Page 76: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

l’evoluzione del computer, da semplice strumento di calcolo a manipolatore di

simboli, fino ad arrivare a potentissimo mezzo relazionale, quindi di

comunicazione. Nel saggio "The computer as communication device" di Licklider

e Taylor (che abbiamo analizzato nel paragrafo 3.4) sono già implicati una serie di

concetti che saranno di fondamentale importanza per lo sviluppo delle teorie sulla

CMC. Ciò che viene descritto nel loro testo, non è un elaboratore tipico,

“tradizionale”, era qualcosa di più: era un computer pensato come mezzo di

comunicazione, ossia come vero e proprio medium sociale in grado di sviluppare

relazioni creative tra gruppi di lavoro, che se svolte attraverso le nascenti reti,

avrebbero trasformato definitivamente lo stesso computer in uno spazio di

comunicazione.

Dopo gli studi di Licklider e Taylor, negli anni '80 grazie soprattutto

all’evoluzione e la proliferazione di quelli che furono i primi sistemi

computerizzati, l’interesse e lo studio della CMC diventa sempre più di attualità e

utile nella progettazione e organizzazione strategica di reti di comunicazione

all’interno delle aziende. In questo contesto nasce l’esigenza di valutare gli

strumenti informatici sia da un punto di vista tecnico (legato alla produttività) sia

da quello socio-psicologico (legato agli effetti della comunicazione e interazione

con le macchine). Gli studiosi focalizzarono il loro interesse soprattutto nella

comprensione degli effetti che avrebbe provocato un tipo di una comunicazione

semplice e rapida, capace di raggiungere istantaneamente qualsiasi luogo. Altre

importanti considerazioni avrebbero implicato i potenziali effetti derivati dalla

natura prevalentemente testuale della CMC, quindi priva di situazioni e

comportamenti tipici della comunicazione e dei codici non verbali, e gli effetti

dovuti alla mancanza di informazioni relative all’identità degli interlocutori con

una conseguente notevole accentuazione dell’anonimato.

Nel tentativo di trovare riscontri alle problematiche che questo tipo di

comunicazione avrebbe potuto causare alle/nelle persone e nei rapporti sociali, si

svilupparono diversi approcci di studio, che possiamo categorizzare in: CMC

76

Page 77: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

socialmente povera (di prima generazione), CMC socialmente ricca (di seconda

generazione) e CMC come dimensione quotidiana (terza generazione).

La teoria Reduced Social Cues (RSC) di Sproull e Kiesler si sviluppa all’inizio

degli anni '80 e implica all’interno di una comunicazione mediata dal computer,

sia una scarsità di informazioni relative al contesto sociale in cui avviene che una

scarsità di norme comunemente accettate, in grado di orientare lo sviluppo della

comunicazione stessa, oltre che un’intrinseca limitazione della “larghezza di

banda”, cioè della quantità di informazioni veicolate nell’unità di tempo.

In base a questo approccio la CMC è di natura povera. Di fatto, se nella

comunicazione face to face gli interlocutori dispongono di molteplici canali, oltre

a quelli verbali, nella CMC anni '80 lo scambio di informazioni e messaggi è

prevalentemente di tipo testuale, quindi efficace secondo i due studiosi per la

trasmissione di indicazioni, ordini o direttive ben precise, ma notevolmente

“povera” per quanto riguarda gli aspetti relazionali e sociali tra gli interlocutori

che prendono parte alla comunicazione. Ciò che manca alla CMC è la capacità di

trasmettere gli indicatori sociali (dietro un pc siamo tutti uguali e persino i

rimproveri più duri ricevuti tramite mail risultano meno autorevoli e duri da

assimilare).

La mancata presenza di indici di disparità sociale consente di livellare le

relazioni e più in generale lo status (incentivando una partecipazione maggiore

assoggettata dai condizionamenti sociali) dei singoli interlocutori, quindi, soggetti

che normalmente in una conversazione face to face sarebbero emarginati, in

questo contesto possono liberamente esprimersi. Tuttavia la condizione di

anonimato, unita al processo di deindividuazione in cui sembra agire una

comunicazione mediata dal computer comporta, da un lato un atteggiamento degli

individui più libero, aperto ad esprimersi e a comunicare senza restrizioni,

dall’altro giustifica comportamenti violenti o anti-sociali.

77

Page 78: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

L’approccio della RSC pur essendo un modello articolato e completo fu

soggetto a numerose critiche, causate dalle contraddizioni che lo compongono, per

esempio sostiene che la CMC e i suoi limiti di larghezza di banda sono poco adatti

a veicolare i contenuti sociali, ma non spiega né l’utilizzo della posta elettronica

per scopi che esulano dalle attività lavorative, né il fatto che in determinate

situazioni la CMC dà luogo a comportamenti socialmente accettati più che

nell’interazione faccia a faccia. In base a queste critiche vennero proposti modelli

alternativi che hanno messo in luce altri aspetti poco considerati della CMC. In

particolare il Social information processing (SIP), sviluppato da Walther e

78

Fig. 11 - Famosissima illustrazione ironica di Peter Steiner “On internet nobody knows you’re a dog”, Su internet nessuno sa che sei un cane

Page 79: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

Burgoon (1992), sostiene che la comunicazione mediata dal computer può

veicolare la stessa socialità di una qualsiasi altra comunicazione face to face se chi

ne fa parte dispone del tempo strettamente necessario per svilupparla. Secondo i

due studiosi infatti gli esseri umani, a prescindere dal mezzo con cui comunicano,

sviluppano il bisogno di ridurre l’incertezza che può scaturire in situazioni in cui

il messaggio è impoverito di tutti gli aspetti sociali-emozionali, al fine di

raggiungere una certa affinità nei confronti degli altri individui. Gli utenti della

CMC tendono a soddisfare questi bisogni ancestrali adattando le proprie strategie

comunicative al medium utilizzato. Quindi la CMC Social information processing

non è meno efficace nelle interazioni sociali rispetto ad una comunicazione faccia

a faccia, ma è semplicemente meno efficiente, ossia occorre più tempo agli

interlocutori per veicolare lo stesso tipo di sensazioni.

Questi nuovi modelli hanno messo in evidenza l’importanza del contesto

sociale in cui si svolge la comunicazione. All’inizio, come abbiamo visto, la CMC

si svolgeva prevalentemente nei luoghi di lavoro, quindi risultava più fredda e

impersonale, ma a partire dagli anni '90, parallelamente alla diffusione capillare

anche in situazioni domestiche della tecnologia telematica, incominciò a

“sovraccaricarsi” di contenuti sociali, tanto da poter essere definita

Hyperpersonal3. Socialmente attiva.

Le interazioni diventano sia ad un livello conscio che inconscio attive e più

stereotipate (rispetto alla comunicazione faccia a faccia), ossia si tende a

categorizzare socialmente l’interlocutore, e in mancanza d'informazioni sulla sua

persona, si tende a farlo in modo stereotipato, basandosi esclusivamente su ciò che

si ha a disposizione (nickname, firma del messaggio, homepage, blog ecc...).

Ognuno quindi ha la possibilità di curare attentamente la presentazione del sé

online, progettando accuratamente l’immagine che desidera dare di se stesso agli

altri, nascondendo o potenziando le caratteristiche che ritiene più o meno

socialmente utili in quel determinato contesto comunicativo.

79

3 Iperpersonale, Walter 1997

Page 80: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

Questa caratteristica di iperpersonalità della CMC si rifletterà in modo ben più

evidente con l’introduzione della vita online e quindi della comunicazione

attraverso il computer come parte integrante della vita quotidiana di ogni

cittadino. Il passaggio a questa nuova generazione di CMC è rimarcato dal

superamento delle “vecchie” teorie matematiche della comunicazione di massa

intese come trasferimento di informazioni (Shannon), da una visione di esse non

più come beni che esistono in natura, bensì come il frutto di prodotti sociali, e

infine, da una concezione non riduzionistica della dimensione sociale, ossia i

sistemi simbolici, quelli normativi e i codici interpretativi non si manifestano solo

quando le persone sono in comunicazione face to face, fisicamente vicine, ma ci

accompagnano in ogni momento dell’esistenza.

La CMC può essere distinta in due tipi: sincrona e asincrona. Nella prima la

comunicazione avviene in tempo reale quando gli interlocutori si trovano

contemporaneamente online, con le stesse modalità di un dialogo telefonico o

della conversazione diretta face to face. I mezzi tipici della CMC sincrona sono: le

videoconferenze, l’internet phone (skype), le chat e i servizi di instant messaging

(ICQ, MSN o quelli dei Social network). Si tratta di un tipo di comunicazione

diretta che si basa sull’interazione in tempo reale con l’altro o gli altri individui

che ne prendono parte, è quindi multimediale (consente lo scambio di immagini,

musica, video, documenti o file), ipertestuale ed emozionale (grazie all’uso

frequente di emoticons4).

Nella comunicazione asincrona invece, lo scambio di informazioni e messaggi

avviene in tempistiche differenti e gli interlocutori non devono essere

necessariamente connessi allo stesso momento. Posta elettronica (email), mailing

list, newsgroup e Multi User Doungeon (MUD) sono i mezzi tipici della CMC

asincrona. Dal punto di vista strettamente psicosociale è possibile considerarla

differente sia rispetto alla comunicazione scritta non mediata dal computer che

dagli altri mezzi di comunicazione.

80

4 Riproduzioni stilizzate delle principali espressioni facciali umane che esprimono un'emozione (sorriso, broncio, ghigno, etc.). Vengono utilizzate per aggiungere componenti extra-verbali alla comunicazione scritta. Il nome nasce dall'accostamento delle parole "emotional" e "icon" e sta ad indicare proprio un'icona che esprime emozioni.

Page 81: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

Nella vita sociale “reale”, ognuno può costruirsi facilmente, grazie a propri

sensi e alle proprie capacità cognitive, l’immagine mentale della personalità

dell’interlocutore o degli individui che si hanno attorno. Cerchiamo

continuamente di recuperare più informazioni possibili in modo tale da popolare

quell’immagine, che inizialmente è sfocata, influenzata dai pregiudizi e dalle

situazioni già riscontrate, di nuove caratteristiche fino a raggiungere un livello

considerato accettabile. Diversamente in rete, date le caratteristiche della CMC,

non può essere così.

Nella vita online ognuno è un “essere digitale”, ossia è ciò che lascia trapelare

attraverso lo schermo, comunicando e digitando.

Ognuno è ciò che scrive.

Essere visibili quindi vuol dire scrivere e comunicare, nella CMC spesso non

c’è esistenza al di fuori della parola. Per esistere in rete occorre manifestarsi,

presentarsi, chattare, mentre rimanere in silenzio vuol dire semplicemente non

esistere.

In rete, date le caratteristiche tecnologiche del mezzo comunicativo,

l’interazione tra individui o tra gruppi di individui assume tratti decisamente

particolari, in cui il corpo si oppone al teso in un continuum che da un lato vede il

reale, la fisicità e dall’altro il virtuale, la Rete.

Il corpo è l’asse portante dell’interazione e della comunicazione nella vita

quotidiana e si manifesta nella sua dimensione agli altri, il testo invece è

l’elemento principale nella comunicazione “virtuale” e si distacca dal corpo.

Questa distinzione implica una rottura dalla fisicità corporea in rete, quindi una

liberazione dalle paure di mettere a rischio il proprio corpo, la propria incolumità.

Online la nostra mente può permettersi maggiori libertà. Ed è per questo che nella

comunicazione mediata dal computer si tende a sperimentare, a costruire e a

modellare l’identità che sostituisce il corpo rimasto al sicuro al di qua dello

schermo. Nella società è accettata un'unica entità primaria che è strettamente

collegata alla nostra fisicità e alle nostre azioni, è un'identità per lo più forgiata

dalla struttura sociale, che implica determinati comportamenti ad ogni precisa

81

Page 82: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

situazione. Può esistere quindi una sola personalità per un solo corpo. L’individuo

che manifesta personalità multiple è difatti tracciato come patologico, disturbato

o, nel migliore dei casi, considerato semplicemente bizzarro. Nella rete invece,

non solo l’identità multipla è possibile, ma difatti è l’unica modalità possibile di

presentazione, poiché se ciò che scriviamo ci identifica, allora la soggettività di

ognuno è il personaggio del racconto che si vuole raccontare agli altri.

Internet offre la possibilità di presentarsi intenzionalmente in un'infinita varietà

di modi differenti (è possibile avere un’altra età, sesso, storia, aspetto fisico

ecc...), esternando difatti la rappresentazione della molteplicità che ogni essere

umano incarna nella vita reale (si è figli, ma anche genitori, si lavora o si studia, si

è vicini di casa, amici, parenti ecc... e chiaramente per ognuna di queste possibilità

si attuano comportamenti differenti). Questi diversi aspetti del sé in rete possono

essere dissociati (si possono presentare solo alcuni aspetti, quelli ritenuti più

opportuni al contesto), potenziati (migliorare al massimo una propria caratteristica

o un proprio interesse specifico) o integrati (versione completa di se stessi).

L’aspetto dell’intenzionalità è sicuramente una delle componenti principali

che riguardano questi processi comunicativi, e la CMC, date le sue caratteristiche,

rende il controllo e la gestione del proprio “Io online” più facile. Come abbiamo

visto, su internet e più in generale nel mondo della comunicazione mediata dal

computer, non esistono discriminazioni, ognuno può presentarsi per quello che è

oppure può costruirsi un'identità differente.

La costruzione di un'identità online avviene innanzitutto con la scelta di un

nome, dove a differenza della vita reale, rispecchia una grande importanza sociale.

Il nome o meglio il nickname è il punto d'ingresso all’interno del mondo della

rete, il contatto diretto tra il nostro essere reale e il nostro essere digitale.

Non è un'aggiunta al nome anagrafico, ma è una sua sostituzione,

l’incarnazione della nuova identità dell’individuo online.

Questa possibilità consente infatti di dare luogo a relazioni sociali stabili e

significative che non sarebbero state possibili se la comunicazione fosse stata

completamente anonima. Inoltre, la tendenza a mantenere l’identità piuttosto

82

Page 83: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

stabile (soprattutto non cambiando spesso nickname) contribuisce alla creazione

della “persona online” di essere riconoscibile, identificabile e considerata presente

agli occhi degli altri infonauti.

Oltre al nome la persona online viene costituita da altri espedienti, dai più

antichi, come la firma in calce, ai messaggi di posta elettronica e la costruzione di

una propria homepage o sito personale (curriculum, foto, informazione contatti,

biografia ecc...), fino ai più recenti, quali i messaggi, i commenti e i post

pubblicati sui blog (spesso veri e propri diari della nostra vita) o sui Social

Network (Facebook, Twitter, MySpace ecc...) o ancora i video pubblicati sulle

piattaforme dedicate (Youtube, Vimeo ecc...). In pratica tutto ciò che può

contribuire a identificarci.

L’analisi di tutte queste forme e strumenti per comporre un'identità online è in

realtà il sostegno di una visione del sé frammentata e molteplice, in cui un

individuo, grazie a queste possibilità, può costruire diverse entità, ognuna delle

quali sarà utilizzata per altrettanti modi di essere e presentarsi nei diversi contesti

della vita in rete. Proprio questa possibilità rappresenta la rete stessa come uno

spazio di sperimentazione delle proprie personalità, un nuovo moratorium5 in cui

il confine tra comunicazione online e comunicazione offline si fa sempre più

permeabile man mano che internet entra sempre più a far parte della quotidianità.

4.3 Nomofobia e disturbi da social addiction

sai di essere dipendente da Internet quando... ti alzi alla tre del mattino per andare in bagno e

prima di tornare a letto controlli se hai ricevuto qualche mail (Patricia Wallace, 1999)

La bomba dei rapporti sociali esplosa con l’avvento di Internet nelle case di

tutti ha portato sicuramente enormi, profondi e radicali cambiamenti sia nei modi

83

5 Concetto psicoanalitico che nella sua versione originale indica quelle situazioni circoscritte in un periodo di tempo limitato, in cui le persone possono permettersi di sperimentare senza dover subire conseguenze troppo pesanti. La rete è dunque vista come nuovo moratorium in quanto chi sperimenta una nuova identità può interrompere il collegamento quando la situazione diventa troppo pesante o difficile da controllare, nella vita reale invece è più difficile uscire da determinate situazioni.

Page 84: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

di pensare e quindi di agire, che in quelli di condividere, comunicare e

socializzare. Il nuovo medium, come abbiamo visto, ha portato con sé una

rivoluzione culturale, e come tutte le forze dirompenti, in poco tempo, ha

modificato ogni aspetto della nostra società a partire dalle sue unità principali: gli

individui. É proprio la natura della rete ad affascinare ed ammaliare gli utenti,

attraverso le sue promesse riesce infatti ad aumentare sempre di più la sua

appetibilità. Su Internet nascono immense comunità virtuali, discussioni di ogni

genere e argomento, giochi interattivi testuali oppure complessi MUD grafici, si

chiacchiera nelle chat con persone lontane molto velocemente, si conoscono

persone che difficilmente si riusciranno mai ad incontrare.

In poche parole è un mondo che non dorme mai e sembra non conoscere limiti.

Per viverlo intensamente, o semplicemente sbirciare al suo interno, occorre

essere “connessi”, cioè abbandonare il proprio corpo e raggiungere virtualmente

la propria identità nella dimensione prevalentemente testuale del web, dove grazie

a semplici click è possibile avere sotto controllo ogni situazione: sia essa una

sessione di gioco, una ricerca oppure una conversazione con persone lontanissime

da noi. Occorre quindi dissociarsi fisicamente dalla realtà materiale per vivere

quella virtuale della rete.

Internet e i suoi strumenti (Social Network su tutti), sono il frutto casuale del

bisogno innato dell’uomo di comunicare con i suoi simili, a prescindere dalle

limitazioni temporali o spaziali, e anche per questo motivo sono sicuramente

dispositivi di grandissima utilità. Ma se utilizzati in maniera inappropriata o

eccessiva possono scatenare vere e proprie situazioni patologiche di dipendenza

con conseguenze gravissime nella vita reale-sociale.

Se da un lato Internet e i Social Network (Facebook, Twitter, My Space ecc...)

sono potenti mezzi aggregativi e sociali, in grado di migliorare enormemente le

potenzialità comunicative di ciascun individuo, dall’altro possono rappresentare

una vera e propria minaccia in quanto un utilizzo incontrollato del medium porta

ad una graduale sostituzione dei rapporti sociali reali con quelli virtuali di qualità

inferiore. Questo è il paradosso della rete: Internet è una tecnologia sociale che in

84

Page 85: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

determinate circostanze può provocare il distacco dal sociale e far cadere gli

individui nella solitudine e depressione.

Internet e i Social Network al pari dell’alchool, del fumo e delle droghe

possono creare forme di dipendenza più o meno gravi. Si tratta di veri e propri

disturbi della persona(lità) e come tali vanno curati. Questi possono essere l’IAD

(Internet Addiction Disorder), la Social Network Disorder, la Friendship

Addiction e la Nomofobia.

Si manifestano principalmente in soggetti “predisposti”, ossia che trascorrono

molte ore sul web senza praticamente mai riuscire a staccare il collegamento e

comportano prevalentemente un ossessivo controllo dei nuovi messaggi, notifiche,

aggiornamenti, oltre che una ricerca senza sosta di nuove amicizie.

L’individuo soffre lo status di disconnessione dalla vita online, tanto da

desiderare il momento in cui finalmente potrà accedere ed immedesimarsi al suo

Io virtuale. Ovviamente questo pensiero costante influisce sulla propria vita

privata e lavorativa. Oltre a questo stato di assuefazione al web, che prelude alla

necessità di restare collegato al mondo virtuale per un certo periodo di tempo e

cresce man mano che trascorrono le ore, sono presenti veri e propri disagi fisici

(mal di testa, disturbi del sonno, stanchezza, apatia etc...).

Il web rappresenta nella modernità un mondo sicuro e controllabile dove è

possibile instaurare facili rapporti sociali, senza rischi, poiché questi non

richiedono, come nella vita reale, un contatto diretto faccia a faccia, che per molti

può rappresentare un vero e proprio ostacolo. I Social Network per esempio

rispondono in modo efficace ad alcuni dei bisogni fondamentali dell’essere

umano:

1. bisogni di sicurezza: le persone con cui tendiamo a comunicare nei social

network sono “amici“, non estranei (come in realtà sarebbero da considerare

nella maggior parte dei casi), ed è nel potere di ciascun individuo di decidere

chi è amico e chi no, chi seguire e chi ignorare. É possibile quindi controllare

ciò che egli mostra di sé, della sua vita e condividere con lui esperienze,

commenti etc. ;

85

Page 86: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

2. bisogni associativi: con gli amici è possibile condividere, comunicare e

scambiare opinioni, risorse, informazioni, applicazioni, e volendo cercare

qualcuno con cui intraprendere relazioni sentimentali più approfondite;

3. bisogni di autostima: ciascuno ha il controllo della propria friends list e può

decidere in tutta semplicità chi è amico e chi no, chi seguire e chi no, ma anche

gli altri possono farlo: quindi se in tanti lo scelgono come amico allora vuol

dire che è cool;

4. bisogni di autorealizzazione: è possibile raccontarsi nel modo che si

preferisce (talvolta rendendosi diversi da ciò che si è in realtà) ed è possibile

utilizzare tutte le proprie competenze per aiutare gli amici.

Tuttavia i Social Network non forniscono alle persone vera stima di se stesse o

senso di controllo delle situazioni, ma solo sensazioni fittizie e poco durature,

poiché svaniscono non appena chiuso il collegamento, quindi tornando a

confrontarsi nuovamente nella vita reale, dove non c’è più il controllo, le persone

addotte dalle patologie del web sentono la necessità di ricollegarsi. Anche

l’ossessiva ricerca degli amici online è da considerare come una vera e propria

patologia in determinati contesti. Il soggetto è persuaso dall’idea che ad un

elevato numero di “amici” corrisponda ad un alto valore di se stessi agli occhi

delle altre persone. Il problema di fondo è che gli amici spesso sono conoscenti

visti raramente nella vita reale, o peggio ancora mai visti, che mai si

incontreranno o che addirittura in altre circostanze non si sarebbero nemmeno

avvicinati a loro, in poche parole persone selezionate a caso che poco hanno a che

fare con la persona che ne richiede l’amicizia.

Tali richieste sono un sopperire alla poca stima personale del soggetto,

riconducibili quindi ad un senso di inadeguatezza e solitudine che può essere

compensata nella vita online attraverso liste infinite di amici virtuali, solo in così

si ha una soddisfazione e rafforzamento del proprio ego.

In caso di mancata connessione al web si hanno attacchi di panico, agitazione,

ansia, fino a raggiungere stati di irritabilità, disturbi del sonno e depressione. Tutto

ciò ovviamente ha ripercussioni anche gravi sulla vita al di fuori del web:

86

Page 87: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

l’ossessione della connessione causa distacco dalla realtà che a lungo termine si

traduce in perdita dei contatti sociali, familiari e lavorativi.

La nomofobia6 , nota anche come sindrome da disconnessione, provoca uno

stato psicopatologico di insopprimibile ansia e paura. Per scatenare questi attacchi

di panico è sufficiente che il proprio smartphone, oppure notebook, a causa di

assenza di segnale sia impossibilitato alla connessione, o peggio che questo sia

stato smarrito o abbandonato da qualche parte. Ciò deriva proprio dal fatto che

grazie al web mobile, Internet è praticabile ovunque, quindi si ha sempre a portata

di mano una soluzione a qualsiasi “problematica” o evenienza si presenti (trovare

un indirizzo o un percorso, trovare un contatto che serve, tenere sotto controllo le

mail, le notifiche di Facebook ecc...). Da qui il terrore a privarsi di una simile

capacità con il rischio di rimanere isolato.

La questione del web e dei disturbi che può causare in determinati individui è

certamente tanto vasta e complessa quanto delicata. Agli albori di Internet per le

masse (anni '90), i soggetti che utilizzavano Internet per un totale di 50 ore

settimanali e per un uso superiore ai sei mesi venivano considerati come individui

disturbati. Oggi Internet è ovunque, lo si può navigare dal computer, come allora,

ma soprattutto in mobilità, sul cellulare, sui tablet, al mare, in montagna, di giorno

di notte, praticamente sempre.

Ha invaso la vita quotidiana.

Chiunque abbia un cellulare di ultima generazione passa più ore connesso di

quanto l’user più addicted avrebbe mai potuto fare 10 o 20 anni fa.

Ciò sicuramente è stato scatenato dall’avvento delle nuove tecnologie,

dall’abbattimento dei costi e dall’esigenza sempre più forte di socializzare e di

rimanere in contatto con gli amici, con la rete.

Con tutto il mondo.

87

6 Contrazione del termine inglese “no mobile fobia”, ossia la forte angoscia che colpisce un individuo all’idea di perdere il cellulare o di restare disconnessi dai social network per più di una giornata.

Page 88: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

88

Page 89: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

89

Page 90: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

90

Page 91: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

CAPITOLO TERZO:Dalle Realtà Virtuali alle Realtà Aumentate

5. L’Ultimate Display e i primi passi in Realtà Virtuale

Le rivoluzioni tecnologiche (come abbiamo visto nel primo capitolo) non

avvengono semplicemente perché il progresso umano è un processo inevitabile

che sistematicamente (nel corso dei secoli) avviene portandoci verso nuovi

orizzonti culturali, sociali e tecnici. I veri cambiamenti di paradigma tecnologici

hanno bisogno di incastri e situazioni ben precise. Uno o più visionari devono

avere la disponibilità e l'accesso alle tecnologie di base che rendano possibili le

loro “visioni” e devono incontrare finanziatori che li sostengano economicamente.

Se queste condizioni non vengono rispettate, difficilmente l’idea giusta, anche

fosse la più importante e geniale di tutte, diventa parte integrante di una nuova

tecnologia.

Un esempio di questa “legge” dei paradigmi tecnologici può essere ritrovato in

Engelbart e Licklider. Entrambi hanno avuto idee visionarie: pensare al computer

non come calcolatore, ma come strumento capace di aumentare l’intelletto umano

tramite una collaborazione simbiotica. Licklider trovò subito nell’ARPA un

finanziatore generoso per sviluppare le sue idee, mentre Engelbart dovette

aspettare parecchi anni prima di trovare nello stesso Licklider (IPTO) il sostegno

economico necessario a realizzare la sua visione di computer.

5.1 Il teatro dell’esperienza e “la realtà per un nichelino” di Heilig.

Se Morton Leonard Heilig avesse avuto un supporto finanziario adeguato,

forse le realtà virtuali avrebbero potuto essere sperimentate a fondo già a partire

dagli anni '60 e non grazie all’ausilio tecnologico delle macchine per pensare

bensì alle possibilità offerte dal cinema. Hollywood avrebbe potuto essere la forza

trainante dello sviluppo del nuovo paradigma tecnologico della realtà virtuale.

91

Page 92: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

Heilig non era né un programmatore, né un ingegnere del MIT o di altri illustri

istituti Accademici/Universitari, era un visionario di Hollywood, eppure fu il

primo a pensare e sviluppare prototipi di macchinari in grado di portare l’uomo

all’interno del mondo virtuale.

Fu il Cinerama ideato da Fred Waller ad ispirare Heilig nella sua concezione di

esperienza multisensoriale, non tanto per quello che permetteva, ma piuttosto per

quello che annunciava. L’idea di base del Cinerama è piuttosto semplice e fonda

le sue radici sugli aspetti della percezione visiva dell’uomo: i nostri occhi sono in

grado di osservare 155 gradi verticalmente e 185 gradi orizzontalmente. Gli

schermi cinematografici di quegli anni erano in grado di riempire solamente una

piccolissima porzione di quello spazio visivo, seppur molto apprezzati, non

consentivano un’adeguata immersione all’interno dello spazio filmico. Waller non

voleva fare altro che espandere gli schermi attraverso l’utilizzo di proiezioni

multiple e creare una sensazione di coinvolgimento più soddisfacente.

Ideò per l’Aviazione statunitense un visore cinematografico (in uno dei primi

simulatori di volo) con cinque proiezioni di immagini riprese attraverso cinque

angolature leggermente diverse. Ciò permetteva l’addestramento dei piloti anche

per quanto riguarda la loro visione periferica, in quanto l'essere avvolti dalle

immagini in movimento rendeva la simulazione più realistica e quindi più

efficace.

Nel dopoguerra Waller decise di proporre all’industria hollywoodiana una

versione commerciale del suo sistema.

Del resto Waller sapeva che Hollywood avrebbe avuto la necessità di

sperimentare nuove forme di attrazione, data la concorrenza della neonata

tecnologia a tubo catodico televisiva, e un'idea come la sua sicuramente avrebbe

giovato al mondo cinematografico. Gli bastarono infatti poche dimostrazioni per

convincere Mike Todd (un importante produttore dell’epoca) ad investire 10

milioni di dollari sulla sua idea.

92

Page 93: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

"This is Cinerama" fu il primo film ad utilizzare la tecnica delle proiezioni

multiple su schermi curvati che circondano il campo visivo degli spettatori. Fu un

successo straordinario.

Heilig in quel periodo si trovava in Italia e avendo sentito parlare di questa

nuova rivoluzionaria tecnica cinematografica, volle subito provarla. Tornò negli

Stati Uniti.

Guardando un film alla Tv o al cinema si è seduti all’interno di una realtà che

osserva un’altra realtà attraverso una finestra in cui avvengono le proiezione di

immagini. Allargando questa finestra fino a immergere fisicamente lo spettatore si

raggiunge un senso di profondo coinvolgimento personale. L’esperienza si sente

non ci si limita più ad osservarla. Heilig cominciò a pensare a metodi e strumenti

per ingannare la gente, convincendola di essere all’interno del film, di essere

all’interno di un’altra realtà. A partire dal 1954 incominciò a creare un concept di

quello che avrebbe dovuto essere il suo progetto più importante: Il teatro

Dell’Esperienza.

The really exciting thing is that these new devices have clearly and dramatically revealed to everyone what painting, photography and cinema have been semiconsciously trying to do all along

- portray in its full glory the visual world of man as perceived by the human eye (“The Cinema of The Future”, pubblicato sulla rivista messicana “Espacios” da Morton Heilig,1955)

Heilig voleva espandere la sensazione di coinvolgimento provata con il

Cinerama anche attraverso gli altri sensi e creare così il cinema del futuro. Inizia a

studiare le modalità in cui normalmente i sensi influiscono sull’attenzione

dell’uomo nelle situazioni quotidiane e schematizza i tratti essenziali del cervello,

dei canali sensoriali, della rete motoria, di tutti gli input percettivi principali che

creano il senso della realtà.

Gli occhi grazie ai quali possiamo osservare immagini tridimensionali a colori

180 gradi orizzontalmente e 150 verticalmente, le orecchie che ci permettono di

distinguere volumi, ritmi, suoni, parole e musica, il naso e la bocca per rilevare gli

odori ed i sapori ed infine la pelle, con la quale possiamo identificare la

93

Page 94: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

temperatura, la pressione e le texture, sono tutti gli organi che compongono “the

building bricks, which when united create the sensual form of man’s

consciousness”.

Individua anche il grado d'influenza sulla percezione del reale dei vari sensi,

identificando nella vista quello che monopolizza maggiormente la nostra

percezione (70%), mentre l’udito (20%), l’olfatto (5%), il tatto (4%) e il gusto

(1%) sono considerati meno influenti, anche se è dall’insieme di tutti che

possiamo percepire il mondo come reale. Considerare solo la vista come la

principale delle nostra abilità di percezione, sarebbe riduttivo.

L’obiettivo di Heilig era quello di replicare la realtà per ciascuno di questi sensi

all’interno di un teatro appositamente progettato, che chiama appunto Teatro

dell’Esperienza.

[...] La bobina cinematografica del futuro sarà un rotolo di nastro magnetico suddiviso in tracce separate per ogni modalità sensoriale importante [...] Lo schermo non riempirà solo il 5% del

vostro campo visivo come gli schermi dei cinema rionali, o il mero 7,5% del Wide Screen o il 18% dello schermo “miracle mirror” del Cinemascope, o il 25% del Cinerama - ma il 100%. Lo

schermo si curverà accanto alle orecchie dello spettatore da entrambi i lati ed oltre il suo limite visivo sopra e sotto [...] Saranno concepiti mezzi ottici ed elettronici per creare profondità illusoria

senza occhiali. (“The Cinema of The Future”, pubblicato sulla rivista messicana “Espacios” da Morton Heilig, 1955 - traduzione italiana "La Realtà Virtuale" di Howard Rehingold, 1993)

Heilig per la sua idea di cinema del futuro trovò estimatori disposti ad investire

in Messico, ma sciaguratamente poco tempo dopo aver iniziato a sperimentare

alcune proiezioni con lenti ottiche particolari, l’investitore morì in un incidente

aereo. Rientrato negli Usa cercò nuovi finanziamenti e persone disposte ad

aiutarlo nella sua impresa, ma anche in questo caso la cattiva sorte giocò un ruolo

da protagonista: il direttore di una grossa azienda di proiettori interessata al

progetto morì in un incidente aereo. Non se ne fece più nulla.

Heilig decise che se voleva trovare investitori doveva far provare loro

direttamente l’esperienza. Tutto quello che aveva erano solo delle idee e degli

schizzi. Troppo poco per far capire esattamente quello che voleva essere la sua

94

Page 95: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

visione di cinema del futuro. Iniziò quindi a progettare e costruire pezzo dopo

pezzo, all’interno del suo garage, una versione monoposto del suo teatro

dell’esperienza, che chiamò Sensorama Simulator.

Il Sensorama era il dispositivo che ha permesso ad Heilig di mettere finalmente

in pratica le sue teorie, anche se si trattava di un dispositivo più simile ad un

Arcade Game anni '80 a gettoni da sala giochi, che ad un cinema ad alto

potenziale tecnologico.

Lo spettatore doveva sedersi e

appoggiare la testa all’interno della

cabina, in cui erano disposti tutti i

replicatori di sensazioni olfattive, uditive,

tattili e visive. Lo schermo ad ampia

estensione che occupava gran parte del

campo visivo e il suono stereo che si

espandeva tutto intorno, amplificavano la

sensazione di essere partecipi all’interno

della scena. Gli scossoni, il vento e gli

odori sincronizzati perfettamente al

filmato rendevano la sensazione quasi una

convinzione di essere lì. Di essere

protagonista di ciò che si “vede” e si

“sente” all’interno del Sensorama.

Heilig aveva inventato la realtà per un

nichelino, un dispositivo capace di creare

esperienze di realtà mai provate prima, una simulazione del reale finalizzata

all’intrattenimento, la stessa che oggi si può ammirare in tutte le sue potenzialità,

nei grandi parchi divertimento di tutto il mondo.

Un altro brevetto del 1960 dimostra come Heilig sia stato davvero un

visionario che ha precorso i tempi, e che se non fosse stato per le vicende legate al

95

Fig. 12 - Locandina pubblicitaria del Sensorama di Morton Heilig

Page 96: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

finanziamento dei suoi progetti, sarebbe indicato da tutti come il fondatore della

realtà virtuale ancor più di Ivan Sutherland.

Heilig infatti aveva lavorato ad un dispositivo Head Mounted chiamato

Stereoscopic-television Apparatus For Individual Use, meglio conosciuto come

Telesphere Mask. Si tratta di una versione portatile ed indossabile del Sensorama

che si posiziona sulla testa, come un casco, e consente di replicare l’esperienza

visiva di una realtà virtuale pre-informatica.

Heilig è stato il pioniere di questa tecnologia e avrebbe potuto portare il mondo

nell’era del Ciberspazio1 già negli anni '60, se solo avesse incontrato le persone

giuste al momento giusto.

Come simulatore ambientale, il Sensorama costituì uno dei primi passi verso la duplicazione dell’atto dello spettatore di stare di fronte ad una scena reale. L’utente è totalmente immerso in una

cabina progettata per imitare la modalità di esplorazione mentre la scena è rappresentata simultaneamente ai vari sensi. Il passo successivo consiste nel permettere allo spettatore di

controllare il proprio cammino attraverso l’informazione disponibile per creare una possibilità direttamente di interazione altamente personalizzata vicina alla soglia dell’esplorazione virtuale.

( “Viewpoint Dependent Imaging” Scott Fisher, 1981)

5.2 L’Ultimate Display di Ivan Sutherland.

Negli stessi anni in cui Heilig brevettava il Sensorama, Ivan Sutherland,

all’epoca dottorando al MIT, conclude il suo percorso di ricerche con la

realizzazione di quello che sarà definito come uno dei software più importanti di

tutti i tempi: Sketchpad. Sutherland grazie alla sua brillante intuizione, ispirata

alle “visioni” Engelbartiane e Licklideriane, era riuscito a creare un sistema di

controllo e comunicazione uomo-computer, attraverso il quale l’interazione

avveniva per mezzo di forme grafiche elaborate in real time, un dispositivo di

puntamento e un display collegato ad un “normale” computer.

96

1 Termine inglese utilizzato per indicare il dominio caratterizzato dall'uso dell'elettronica e per immagazzinare, modificare e scambiare informazioni attraverso le reti informatiche e le loro infrastrutture fisiche.

Page 97: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

Fu una vera e propria rivoluzione che influenzò notevolmente i percorsi nella

delle future tecnologie dell’interazione tra le macchine e le menti umane.

Con "Sketchpad: A Man-Machine Graphical Communication System" (questo

era il titolo completo della sua tesi di dottorato, supervisionata da Claude

Shannonn) nasce difatti la computer grafica ed il primo sistema di CAD

(computer aided design).

Sketchpad non era soltanto uno strumento per disegnare. era un programma che obbediva alle leggi che si voleva fossero vere. per disegnare un quadrato si tracciava una linea con la penna

ottica, poi si davano al computer pochi comandi [...] Sketchpad prendeva la linea e le istruzioni e via! Un quadrato appariva sullo schermo. ("La Realtà Virtuale" Howard Rehingold, 1993,

citazione di Alan key sul software Sketchpad)

Sutherland aveva appena incominciato ad esplorare la soglia di un nuovo

mondo, il mondo della grafica computerizzata, e ben presto sentì l’esigenza di

varcare quella soglia, calandosi letteralmente all’interno di essa.

Voleva portare all’estremo il concetto di contatto intimo tra intelletto umano e

computer che Licklider aveva profetizzato nel suo saggio "Man-Computer

Symbiosis" del 1960.

Nel 1965 Sutherland, succeduto proprio a Licklider al “comando” dell’IPTO,

scrive "The Ultimate Display", un breve saggio in cui espone lucidamente e

profeticamente l’avvento di un nuovo modo di rappresentare le informazioni

generate dai computer.

Il mondo in cui viviamo è un “physical world” in cui le sue proprietà e

caratteristiche fondamentali diventano a noi note solo con l’esperienza. In

particolare i nostri sensi ci danno la capacità di comprendere e prevedere i

comportamenti all’interno di questo mondo. Per esempio, possiamo facilmente

intuire dove un oggetto cadrà, che tipo di forma ha un determinato angolo che non

riusciamo a vedere oppure quanta forza ci occorre per vincere la resistenza di un

oggetto e spostarlo. Quello che ci manca, secondo Sutherland, è la familiarità con

concetti di natura più scientifica ed astratta, difficilmente collegabili

all’esperienza sensoriale diretta.

97

Page 98: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

Un display connesso ad un computer ci consente di fare esperienza con questi

tipi di astrazioni, difficilmente realizzabili nel mondo fisico.

It is a looking glass into a mathematicl wonderland ("The Ultimate Display" Ivan Sutherland, 1965)

Per fare in modo che questi display diventino effettivamente gli occhiali

all’interno del mathemtical wonderland generato nella memoria dei computer,

occorre fare in modo che essi coinvolgano più sensi possibili.

Gli esperimenti di Heilig con il suo prototipo di dispositivo Head Mounted

Display Telesphere Mask e più in generale con il Sensorama e il Teatro

dell’Esperienza, hanno dimostrato che il coinvolgimento multi-sensoriale dello

spettatore amplifica la sensazione di “presenza fisica” all’interno della

simulazione di realtà in atto. Sebbene quelli di Heilig siano soluzioni analogiche,

cioè senza il supporto tecnologico di un computer, rappresentano comunque un

percorso interessante da seguire e integrare nei nuovi display digitali, gli stessi a

cui Ivan Sutherland ambisce.

The Ultimate Display è proprio questo. Una visione sulle future capacità

tecnologiche in grado di fornire output e input attraverso l’uso congiunto di tutti i

sensi umani, in modo tale da immergere l’utente all’interno dei dati elaborati dai

computer e dei mondi da esso generati.

Dal momento che i computer, attraverso l’uso di specifici sensori, possono

facilmente rilevare la posizione di molti dei muscoli che compongono il nostro

corpo, è possibile costruendo macchine capaci di interpretare tali movimenti,

interagire direttamente con gli oggetti e i mondi Virtuali generati dagli elaboratori

(per esempio attraverso gli occhi o il linguaggio degli sguardi).

There is no reason why the objects displayed by a computer have to follow the ordinary rules of physical reality with which we are familiar. [...] The user of one of today's visual displays can

easily make solid objects transparent - he can "see through matter!" Concepts which never before had any visual representation can be shown, [...] ("The Ultimate Display" Ivan Sutherland, 1965)

98

Page 99: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

All’interno di questi nuovi mondi è possibile creare oggetti e strutturare leggi

fisiche a noi poco familiari, in modo tale da poterle studiare allo stesso modo in

cui le potremmo osservare e conoscere nel mondo naturale.

By working with such displays of mathematical phenomena we can learn to know them as well

as we know our own natural world. Such knowledge is the major promise of computer displays. ("The Ultimate Display" Ivan Sutherland, 1965)

L’Ultimate Display descritto e immaginato da Sutherland è una semplice

“stanza”, un ambiente in cui il computer controlla l’esistenza della materia e delle

sue specifiche regole.

Con Sketchpad, Sutherland ha creato una finestra tra il mondo reale e quello

generato attraverso il computer, in cui è possibile osservare, elaborare o creare

oggetti, disegni o progetti, interagire con essi comunque mantenendo un certo

distacco fisico (che può essere rappresentato dai dispositivi di input, dal monitor

ecc...). Con l’Ultimate Display invece abbatte quella stessa finestra permettendoci

di attraversarla e di varcare la soglia dell’esplorazione virtuale dei nuovi mondi e

degli oggetti creati all’interno di essi, a cui viene conferita una connotazione quasi

magica: “Con una programmazione adatta questo tipo di display potrebbe

letteralmente essere il paese delle meraviglie in cui camminò Alice”.

Parallelamente alla rivoluzione informatica che stavano sostenendo Engelbart e

Licklider, Sutherland getta le basi per l’avvento dell’era ciberspaziale, in cui i

concetti di “potenziamento dell’intelletto” e “simbiosi uomo-macchina” vengono

estremizzati. Il ciberspazio è il luogo ideale per familiarizzare con situazioni poco

conosciute, sperimentare ed osare nuove possibili soluzioni ai problemi che la

nostra civiltà deve affrontare e che senza l’ausilio di un’esperienza diretta

sarebbero impossibili da concepire e risolvere.

Sutherland nel 1965, con la descrizione dell’Ultimate Display, non solo

profetizza l’avvento delle realtà virtuali, ma pone anche le basi affinché queste

possibilità non rimangano soltanto sulla carta.

99

Page 100: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

A partire dal 1966 (dopo aver lasciato la direzione dell’IPTO a Robert Taylor)

all’interno del Lincoln Laboratory del MIT, Sutherland e il suo staff iniziarono a

condurre i primi esperimenti sulle tecnologie necessarie a realizzare un sistema

coordinato, che consentisse all’utente di camminare e calarsi completamente

all’interno dei (dati generati da un) computer.

Occorreva creare tutto dal nulla.

L’idea fondamentale che è alla base del display tridimensionale è di presentare all’utente un’immagine in prospettiva che cambia in base ai suoi movimenti. L’immagine retinica degli

oggetti che vediamo, è dopo tutto, soltanto bidimensionale. Perciò potendo porre due immagini bidimensionali appropriate sulle retine dell’osservatore, possiamo creare l’illusione della vista di

un oggetto tridimensionale [...] L’immagine rappresentata dal display tridimensionale deve cambiare esattamente nello stesso modo in cui cambierebbe l’immagine di un oggetto reale a causa

di movimenti della testa dello stesso tipo. ("Realtà Virtuali" Howard Rehingold, 1993, citazione di Ivan Sutherland sul Three dimensional head mounted display)

L’Head Mounted Three Dimensional Display, completato in ogni sua parte nel

1968 e denominato dagli “addetti ai lavori” spada di Damocle, era composto da

sotto-sistemi interconnessi, molti dei quali costruiti proprio durante la prima fase

di sperimentazioni del MIT: “occhiali” speciali contenenti due tubi a raggi

100

Fig. 13 - Due immagini della “spada di Damocle” (il Three dimensional head mounted display) di Ivan Sutherland del 1968.

Page 101: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

catodici, due generatori di linee analogici bidimensionali (display) che deflettono

il segnale ai tubi a raggi catodici, due sensori di posizione della testa, uno

meccanico e l’altro ad ultrasuoni utilizzati per misurare la posizione dell’utente

nello spazio, un computer general purpose, un matrix multiplier e un clipping

divider.

Questi ultimi due sistemi meritano una spiegazione più dettagliata.

Così come osservando nella realtà un oggetto, si ha una sensazione prospettica

che il nostro sistema occhio-cervello è in grado di identificare come autentica,

permettendoci di orientarci e conseguentemente determinare una serie di

informazioni necessarie alla comprensione dell’oggetto stesso (forma,

dimensione, distanza ecc...), anche il dispositivo di Sutherland, per raggiungere il

suo scopo, deve essere in grado di riprodurre lo stesso tipo di sensazione.

L’illusione prospettica degli oggetti virtuali quindi dovrà cambiare in base ai

movimenti della testa e al punto di vista dell’utente, in modo realistico e

convincente.

Osservare un oggetto generato dal computer da angolazioni differenti

all’interno di uno spazio virtuale richiede, ad ogni movimento, l’esecuzione di una

traslazione matematica tra le coordinate dell’utente (del suo punto di vista) e le

coordinate della stanza. Chiaramente più l’ambiente virtuale sarà dettagliato e

ricco di oggetti, più i calcoli da eseguire saranno numerosi e complessi. Sebbene

questi primi passi fatti da Sutherland all’interno delle realtà virtuali comprendano

poco più di cubi wire-frame, la mole di calcolo necessaria a comporre la scena

sarebbe stata comunque eccessivamente complessa da gestire con i normali

hardware a disposizione.

Il primo passo per entrare all’interno del mondo computerizzato era quello di

creare equipaggiamenti hardware special purpose in grado di assumersi i compiti

di traslazione delle coordinate e quelli relativi alla visualizzazione degli oggetti

tramite la prospettiva più appropriata.

Il matrix multiplier e il clipping divider sono le geniali soluzioni hardware che

Sutherland e il suo staff hanno brillantemente sviluppato.

101

Page 102: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

Il primo ha il compito di individuare i punti estremi dei vettori che

compongono gli spigoli di un qualsiasi oggetto all’interno dell’ambiente virtuale e

moltiplicarli per i dati forniti dal sistema di rilevamento spaziale posto sopra la

testa dell’utente (nuove coordinate), aggiornandoli automaticamente alla nuova

posizione e spostando così definitivamente la vista dell’oggetto in sincronia con il

movimento della testa dell’osservatore.

Al clipping divider invece è affidato il compito di convertire le informazioni

numeriche di un oggetto tridimensionale in uno bidimensionale ottimizzato per la

rappresentazione sullo schermo grafico del dispositivo head mounted. Inoltre il

clipping divider si occupa di rimuovere tutte quelle linee che compongono

l’oggetto nella sua rappresentazione tridimensionale, che si trovano dietro la testa

dell’utente, fuori dal punto di vista o che sono nascoste dall’oggetto stesso o da

altri oggetti oggetti in primo piano (per esempio guardando una poltrona dal

davanti non è possibile vedere la sua parte posteriore, quando una persona è

seduta sulla poltrona è possibile vedere solo parte di essa).

Sia il matrix multiplier che il clipping divider acquisiscono le informazioni dal

rilevatore di posizione, elaborano i dati ricavati e trasmettono l’output al

generatore di vettori responsabile della visualizzazione di quest’ultimi sullo

schermo. La luce emessa dalle proiezioni dei tubi a raggi catodici (posti accanto

alle tempie) veniva riflessa da una serie di lenti e specchi che producevano

un’immagine virtuale, posta a circa 35 centimetri di fronte all’utente. Tale

immagine appariva come una sovrimpressione sul mondo fisico.

in questo modo il materiale visualizzato può apparire come sospeso nello spazio o coincidere con mappe, scrivanie, pareti, o tasti di una macchina per scrivere. (“Three dimensional head

mounted display “ Ivan Sutherland, 1968)

Fin dai primi esperimenti Sutherland si preoccupò di trovare valide ed

ingegnose soluzioni per rilevare in tempo reale i movimenti della testa dell’utente,

convinto che gran parte del successo del reality engine fosse legata alla precisione

del sistema di tracking. Come abbiamo visto in precedenza, gran parte del

102

Page 103: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

“lavoro” era svolto dall’hardware matrix multiplier e clipping divider, tuttavia essi

recuperavano le informazioni da elaborare direttamente dal sistema di rilevamento

della posizione dell’utente. Quindi se l’obiettivo di Sutherland era quello di calare

le persone all’interno di un mondo virtuale che si comporti prospetticamente in

modo “credibile”, allora era necessario che tutto il sistema, ed in particolare il

dispositivo di tracking, fosse preciso, veloce e quindi affidabile.

Per questo motivo Sutherland decise di sperimentare diverse soluzioni di

rilevamento, in particolare si concentrò su un sistema ad ultrasuoni sperimentale e

su un altro di tipo meccanico.

Il sistema ad ultrasuoni era in grado di rilevare, grazie alla combinazione di tre

trasmettitori ad onde continue, posti direttamente nel dispositivo head mounted,e

4 ricevitori posizionati sul soffitto in corrispondenza dei quattro angoli della

“stanza”, l’esatta posizione della testa dell’utente e i suoi movimenti all’interno di

uno spazio prestabilito. Forniva al fruitore dell’esperienza virtuale un grado di

libertà di movimento superiore rispetto al sistema meccanico, ma era poco

affidabile perché soggetto ad interferenze che compromettevano la lettura corretta

delle coordinate spaziali dell’utente. La tecnologia ad ultrasuoni sperimentata da

Sutherland era ancora ad uno stato embrionale per questo tipo di applicazioni in

cui era necessaria la massima precisione. I risultati raggiunti durante gli

esperimenti comunque facevano ben sperare per il futuro.

Il sistema meccanico invece venne realizzato appositamente per garantire

misurazioni accurate e in tempo reale della posizione della testa. Consisteva in

una coppia di tubi che si agganciavano mediante appositi giunti al dispositivo

head mounted e ad una serie di binari sul soffitto. Il mechanical head position

sensor costringeva l’utente in una morsa vincolante ad un volume di pochi

movimenti della testa: 180 centimetri lateralmente e poco meno di un metro in

altezza. L’utente comunque era libero di muoversi, voltarsi, inclinare lo sguardo in

alto o in basso fino a 40°.

103

Page 104: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

Questo tipo di sensore è l’esempio di come la tecnologia analogica-meccanica

degli anni '60 superasse in termini di prestazioni ed affidabilità quelle digitali

dello stesso periodo.

Il reality engine, completo anche della sua componente software, venne avviato

per la prima volta il 1°gennaio del 1970 (dopo tre anni di intenso lavoro, suddivisi

tra il MIT e l’Università dello Utha). Ciò che apparve davanti agli occhi di Daniel

Vickers, studente universitario a cui fu conferito il compito di far funzionare il

software congiuntamente agli hardware del dispositivi HMD, fu un cubo wire-

frame di circa 6 centimetri per lato, un semplice oggetto fluttuante nello spazio,

fatto di luce e nulla più, ma comunque presente.

Quel cubo rappresentava il futuro.

Negli esperimenti successivi, grazie all’utilizzo di computer più potenti, fu

possibile costruire un’intera “stanza” che circondava l’osservatore. Le pareti erano

sospese nello spazio all’interno della stanza fisica ed ognuna di esse era

contrassegnata da lettere (N,S,W,E)che ne indicavano la direzione (North, South,

West, East) e C per il soffitto e F per il pavimento.

an observer fairly quickly accommodates to the ideas of being inside the displayed room and can view whatever portion of the room he wishes by turning his head. (“Three dimensional head

mounted display “ Ivan Sutherland, 1968)

La prima stanza del ciberspazio era semplice, quadrata e monocromatica, era la

tana del Bianconiglio nella quale Alice cadde prima di approdare nel paese delle

Meraviglie (per rimanere in tema con la metafora fatta dallo stesso Sutherland nel

suo testo "The Ultimate Display" del 1965), era quel luogo non luogo da cui

poteva partire la nuova era dell’esplorazione ciberspaziale.

Fin dalla prima dimostrazione di Sketchpad, Sutherland aveva intravisto la

possibilità di entrare a stretto contatto con quelle linee che il programma era in

grado di generare attraverso semplici ed intuitivi input. Era fortemente convinto, e

lo sarà sempre di più durante le sperimentazioni della spada di Damocle, che il

ciberspazio possa amplificare le capacità di progettisti e creativi allo stesso modo

104

Page 105: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

in cui le altre possibilità informatiche amplificavano le capacità di scienziati e

contabili.

Affinché i mondi generati dal computer possano amplificare il potenziale

umano, è fondamentale che essi siano immersivi e navigabili.

L’idea di immersione è un concetto fondamentale che sta alla base delle

proprietà della realtà virtuale. Essere immersi in un mondo generato dal computer

vuol dire avere l’illusione di essere presenti fisicamente in un luogo in cui ciò che

è visibile si comporta esattamente come si sarebbe comportato nella realtà.

Immersione non vuol dire per forza simulazione della realtà, ma semplicemente

una sua diversa rappresentazione purché sia in grado di convincere i nostri sensi

che ciò che vediamo e sentiamo attraverso il dispositivo HMD è “realmente”

davanti a noi.

Il secondo concetto fondamentale è l’idea di navigazione. Così come aveva

notato Sutherland nell’Ultimate Display, il coinvolgimento multi-sensoriale è

determinante nel creare un'illusione di presenza fisica accettabile all’interno del

mondo virtuale. Per sentirsi parte integrante di un mondo non basta

semplicemente osservare ed ascoltare, bisogna interagire, toccare, spostare,

modificare gli oggetti che compongono la simulazione. Occorre essere attivi e

andarsene in giro (navigare) come se ci si trovasse realmente all’interno di esso.

Nelle prime esplorazioni, la spada di Damocle presentava solamente un primo

abbozzo di sensazione di immersione, era quasi completamente privo della sua

componente esplorativa (navigazione).

Daniel Vickers, il primo ad aver assaporato il magico sapore di un cubetto

all’interno del ciberspazio, suggerì a Sutherland l’utilizzo di un dispositivo di

input da associare al sistema HMD, in modo tale da aggiungere alla semplice

presenza passiva, la possibilità di manipolare direttamente gli oggetti ed interagire

con essi. Di “navigare”.

Un osservatore all’interno dell’ambiente tridimensionale del HMD ha a sua disposizione una bacchetta magica con la quale può raggiungere e “toccare” gli oggetti sintetici che vede. Una

bacchetta per creare ed interagire con gli oggetti sintetici visibili soltanto a chi indossa il casco

105

Page 106: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

cala gli astanti in un’atmosfera di stregoneria ed è alla base per il suo nome Apprendista Stregone. ("La Realtà Virtuale" Howard Rehingold, 1993, Daniel Vickers)

L’Apprendista stregone aumentò sensibilmente il senso di presenza percepito

dall’utente all’interno del mondo virtuale poiché implicava un coinvolgimento

attivo da parte di altri sensi. Rendeva possibili azioni magiche come far apparire

oggetti, allungare, rimpicciolire, ruotare, far scomparire, fondere e separare.

Tutto grazie a pochi semplici comandi.

scoprimmo che il senso di presenza aumentava quando aggiungevamo la bacchetta. Più sensi vengono coinvolti, più completa è l’illusione ("La Realtà Virtuale" Howard Rehingold, 1993,

Daniel Vickers)

La possibilità di interagire con il mondo che ci circonda è il fattore

determinante che ci permette di conoscere ed esprimere il nostro potenziale e

quello di ciò che ci sta attorno.

5.3 Ambienti Virtuali interattivi: Myron Kreuger

I concetti di immersione e navigazione all’interno di uno spazio

computerizzato non implicano che essi siano per forza generati tramite l’uso di

tecnologie specifiche. Le visioni che creano il coinvolgimento sensoriale

all’interno dello spazio possono essere plasmate attraverso l’uso di mezzi ottici,

elettronici o entrambi. Gli input gestuali che permettono l’esplorazione

dell’ambiente in cui si è immersi sono tendenzialmente legati all’uso di dispositivi

indossabili, quali Head Mounted Display piuttosto che occhiali, bacchette

magiche, tastiere e guanti speciali in grado di rilevare la posizione e i movimenti

delle mani (di questi ultimi ce ne occuperemo nel prossimo paragrafo).

Tuttavia non sono l’unico modo per poter entrare dentro il computer.

Le realtà virtuali, o meglio quelle pratiche tecnologiche che sarebbero

diventate le realtà virtuali, a cavallo tra gli anni '60 e '70 erano ancora in una fase

sperimentale in cui venivano abbozzate le tecnologie del futuro. Sutherland e i

106

Page 107: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

suoi colleghi dell’Università dello Utha costruiscono il primo reality engine

capace di proiettare un individuo all’interno di un mondo esplorabile, in cui sono

presenti oggetti tridimensionali osservabili da ogni direzione, semplicemente

muovendo la testa. La potenza degli elaboratori di questi anni era in grado di

gestire in tempo reale solamente immagini geometriche, wire-frame basilari, senza

superficie o colore. Per creare mondi virtuali accettabili sia sotto il profilo

dell’esperienza che dell’illusione delle presenza all’interno di essi, occorreva un

radicale incremento della potenza di calcolo e delle tecnologie di input ed output

sensoriali.

Oppure sarebbe stato necessario un approccio diverso.

Mentre la tendenza delle ricerche e sperimentazioni future sulle realtà virtuali

sembra essere destinata verso una simulazione del reale, arricchita da elementi

“magici” (finalizzata in particolare alla creazione di strumenti di ambito militare,

ARPA, NASA ecc..), una sensibilità non proveniente né dall’ingegneria hardware

né da quella software, incominciò a strutturare un’idea di realtà virtuale come

mezzo per l’espressione artistica nell’interazione uomo-computer.

Myron Krueger era quella sensibilità.

Artista e tecnico sognatore, laureato in Computer Science presso l’Università

del Wisconsin, così come Morton Heilig e Douglas Engelbart, ebbe una “visione

differente” della tecnologia, e come loro fu costretto a lottare duramente affinché

le sue idee potessero realizzarsi.

Krueger ha sempre sostenuto che gli effetti sonori e visivi, le immagini video e

la grafica computerizzata, le tecnologie di input, i dispositivi di output ed i

software che controllano tutto il sistema, possono e devono essere considerati

come strumenti in grado di suscitare nuovi tipi di comportamenti umani. Le

componenti psicologiche, sociali, comportamentali ed artistiche della realtà

virtuale sono gli aspetti più interessanti che lo stesso Krueger intende studiare a

fondo.

La realtà virtuale deve essere soprattutto esperienza umana diretta. Deve essere

consapevolezza di un mondo remoto o innaturale che ci permette di sperimentare,

107

Page 108: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

esplorare, creare, modificare, conoscere e comunicare attraverso i nostri sensi con

ciò che ci circonda. Deve generare e pretendere interazione, poiché è proprio a

partire da questo lato esperienziale che è possibile generare nuova conoscenza.

Myron Krueger crede così fortemente nelle possibilità espressive delle

tecnologie legate alla cultura del ciberspazio, tanto che a partire dalla fine degli

anni '60 (parallelamente ai lavori di Ivan Sutherland) incomincia a sperimentare

l’utilizzo delle immagini elettroniche interattive all’interno di ambienti artificiali,

costruiti manipolando contemporaneamente sia l’aspetto visuale che quello

sonoro. La componente virtuale nella concezione Kruegeriana è strettamente

legata allo spazio fisico in cui è presente l’osservatore ed è lì che fisicamente

avviene l’immersione. L’utente che è all’interno di questi ambienti, non ha

bisogno di dispositivi o periferiche invasive per essere proiettato nell’esperienza

virtuale, ma è l’ambiente stesso che manifesta la sua virtualità attraverso suoni,

immagini e interazioni, direttamente dalle pareti che compongono la stanza.

L'individuo si trova così a partecipare consapevolmente ad una manifestazione

che si fa gioco dei cliché della percezione del reale attraverso inusuali esperienze,

sperimentazioni ed esplorazioni al di fuori della normalità e le possibilità di

personalizzare graficamente l'ambiente circostante in cui è inserito il suo

simulacro corporeo. All'interno di questi responsive envirorments l'individuo è

portato a sperimentare direttamente il linguaggio digitale in tutte le sue forme

utilizzando il suo corpo e attraverso i dispositivi di interfaccia può ibridarsi con

l'ambiente-macchina in cui è immerso.

In poche parole, quello che Krueger intende realizzare è difatti una media room

come alternativa ai reality engine.

Nell'aprile del 1969 Myron Krueger, presso la Memorial Union Gallery

dell'Università del Winsconsin, assieme a Dan Sandin, Jarry Erdman e Richard

Venezesky, apre ufficialmente al pubblico GLOWFLOW, la prima di una serie di

realtà artificiali, in cui lo consacreranno come uno dei padri fondatori della realtà

virtuale.

108

Page 109: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

In realtà GLOWFLOW era un progetto Universitario disegnato appositamente

per studiare il rapporto tra arte e tecnologie, a cui Krueger era stato invitato a

partecipare.

GLOWFLOW non faceva uso di grafica computerizzata ma creava effetti

visivi tramite l'utilizzo di altre tecnologie. Una semplice rete di tubi riempiti con

fluidi fosforescenti collegati sapientemente ad un sistema computerizzato e a

sintetizzatori sonori, rendevano uno spazio buio in qualcosa che nessuno aveva

mai visto prima.

Grazie alla presenza di pannelli sensibili alla pressione incastrati nel

pavimento, il pubblico semplicemente camminando all'interno della stanza

interagiva inconsciamente con essa. Le pareti dell'ambiente GLOWFLOW erano

rivestite da colonne verticali opache e tubi di vetro trasparente orizzontali. Le

particelle fosforescenti erano sospese nell'acqua contenuta all'interno dei tubi che

veniva pompate velocemente da una parte all'altra della stanza ad ogni input

generato dal pavimento. Passando attraverso le colonne opache (che al loro

interno contenevano una luce nascosta) i fosfori venivano attivati

temporaneamente, generando così vettori di luce che schizzavano nello spazio per

poi ritornare nell'oscurità. Simultaneamente all'effetto visivo, venivano eseguiti

suoni sintetizzati elettronicamente. Le possibili configurazioni sonore e visive si

accendevano e si spegnevano in base ad una serie di istruzioni provenienti dal

minicomputer nascosto, che elaborava gli input e ne determinava un conseguente

output più o meno casuale.

La gente reagiva all'ambiente in modo sorprendente: si formavano gruppi di persone fra loro estranee. Giochi, battimani e canti nascevano spontaneamente. La stanza sembrava soggetta a

sbalzi di umore, a volte piombava in un silenzio di tomba, a volte era rumorosa e disordinata. Ognuno si inventava un proprio ruolo. [...] Altri si comportavano da guide, spiegando che cosa

erano i fosfori e che cosa stava facendo il computer. Sotto molti punti di vista la gente all'interno della sembrava primitiva, intenta ad esplorare un ambiente che non comprendeva, tentando di farlo

corrispondere a ciò che già sapeva o si aspettava. [...] molti erano preparati a sperimentare questo aspetto e se ne andavano convinti che la stanza aveva reagito alle loro azioni in modi determinati,

mentre in realtà non era così. ("La Realtà Virtuale" Howard Rehingold, 1993)

109

Page 110: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

Lo spettacolo di luci e suoni artificiali che si sviluppava all'interno di

GLOWFLOW era veramente qualcosa di mai visto prima e di sicuro impatto

emozionale. Tuttavia per Krueger non era importante il fattore estetico in sé, ma

riteneva molto più interessante osservare il modo in cui questo nuovo tipo di

luogo suscitava forti reazioni umane. Grazie a GLOWFLOW Krueger ebbe il

modo di concepire alcune idee che lo influenzeranno nel corso delle successive

opere:

1. l'arte interattiva è potenzialmente un medium di rappresentazione ricco,

abbastanza distante dalle preoccupazioni della scultura, dell'arte grafica o

della musica;

2. al fine di rispondere in modo intelligente, il computer deve poter percepire

il più possibile dal comportamento dei partecipanti;

3. al fine di concentrarsi sui rapporti tra gli ambienti interattivi e i

partecipanti, è necessario coinvolgere solo un piccolo numero di persone in un

dato momento;

4. i partecipanti devono essere consapevoli di come l'ambiente sta

rispondendo;

5. la scelta dei sistemi di risposta sonori e visivi deve essere dettata dalla loro

capacità di trasmettere una grande varietà di relazioni concettuali;

6. la risposta visiva così come quella musicale e sonora non dovrebbe essere

giudicata arte. L'unica preoccupazione estetica a cui bisogna prestare

attenzione è la qualità dell'interazione;

L'indagine di Krueger all'inizio della sua carriera artistica, circa le

caratteristiche peculiari dei computer che avrebbero reso possibile la creazione di

una forma pura di computer art, si trasformò, dopo GLOWFLOW, in messa in

pratica delle sue stesse ipotesi. Gli ambienti reattivi, come iniziò a chiamarli,

divennero laboratori per scoprire i modi in cui gli esseri umani possano entrare in

relazione con l'ambiente tecnologico, erano i luoghi di sperimentazione formativa,

psicologica ed artistica del comportamento umano nelle sue espressioni sociali.

110

Page 111: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

I responsive environments di Krueger non erano semplici espressioni artistiche,

ma genuine realtà artificiali che presentavano regole sociali ed opportunità

comunicative invisibili, capaci di incoraggiare determinati comportamenti e di

scoraggiarne altri, di amplificare alcuni aspetti dell'intelletto umano e di

mascherarne altri. Ognuno degli ambienti sviluppati da Krueger indaga su queste

possibilità, generando grazie ai partecipanti e alla partecipazione degli ambienti

stessi, esperienze immersive e completamente navigabili.

Dopo GLOWFLOW del 1969, Krueger si dedicò alla realizzazione di

METAPLAY, presentato un anno dopo (maggio del 1970), nuovamente alla

Memorial Union Gallery di Madison. Con METAPLAY secondo Krueger "i

canoni di arte e bellezza vennero accantonati. L'attenzione si era incentrata

sull'interazione stessa e sulla consapevolezza dell'interazione dei partecipanti".

Nel nuovo ambiente interattivo Krueger oltrepassò la semplicità di

GLOWFLOW , includendo all'interno del sistema videocamere, schermi

retroproiettati, grafica computerizzata e circa 800 interruttori sensibili alla

pressione.

METAPLAY era la messa in pratica delle sue considerazioni dopo

GLOWFLOW, si avvaleva della potenza di calcolo di un PDP-12 (il discendente,

dieci anni dopo, del PDP-1, che aveva scatenato la "visione" di Licklider) per

facilitare una relazione real time tra l'ambiente e i suoi partecipanti.

111

Fig. 14 - L’immagine di sinistra riporta la struttura della camera scura di GLOWFLOW, caratterizzata da tubi fluorescenti. L’immagine di destra invece rappresenta in modo schematico

il funzionamento del METAPLAY.

Page 112: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

L'ambiente progettato da Krueger era composto da due strutture situate in

edifici diversi: una stanza METAPLAY (dove avviene la partecipazione) e una

dedicata alla regia. Una parete della stanza METAPLAY era occupata da un

enorme schermo di retroproiezione (250 cm x 300 cm) in cui veniva proiettato

l'otuput visivo. Una videocamera, posizionata davanti allo schermo, era puntata

direttamente verso i partecipanti e consentiva di acquisirne in tempo reale

l'immagine video.

All'interno del centro di controllo, situato a circa quattrocento metri di distanza,

c'era l'artista (che non per forza doveva essere tale) che poteva disegnare

attraverso una tavoletta grafica e visualizzare il risultato su un sistema special

purpose. Una seconda videocamera acquisiva le immagini generate dall'artista, le

inviava ad un mixer che le combinava assieme a quelle generate dalla

videocamera nella stanza METAPLAY.

Sia le immagini computerizzate che le quelle convertite erano sotto il controllo

diretto dell'operatore che aveva il compito ed il potere di sovrapporre le immagini

computerizzate tracciate con la tavoletta grafica alle immagini del pubblico

dell'altra sala. Alcuni comandi erano stati programmati in modo tale da consentire

all'artista di manipolare le immagini, rimpicciolirle, espanderle, applicare ad esse

effetti speciali.

I partecipanti potevano guardare lo schermo ed osservare le proprie immagini

video; talvolta quelle immagini video venivano arricchite dalle immagini grafiche

generate dall'artista nel centro di controllo. Gli interruttori sensibili alla pressione,

che erano nascosti nel pavimento sotto una superficie di polietilene nero,

consentivano ai partecipanti di interagire con gli output visivi e sonori mediati

dall'operatore del un centro di controllo.

Con l'obiettivo di provocare una reazione in uno dei primi gruppi in visita al

METAPLAY, Krueger scelse uno dei partecipanti ed utilizzò la tavoletta grafica

per sovraimporre un contorno luminoso alla sua mano. Quando il partecipante

muoveva la mano, Krueger velocemente disegnava un nuovo contorno della mano

nella sua nuova posizione. Poi il partecipante rovesciò la situazione trasformando

112

Page 113: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

Krueger da artista a collaboratore di una performance: cominciò ad utilizzare il

dito come una stilo ed imitò l'atto di disegnare una linea a mezz'aria. Krueger

disegnò una linea che seguiva il suo gesto. La linea apparve sullo schermo e fu

vista da tutti i partecipanti. Improvvisamente i partecipanti scoprirono che era

possibile interagire con le immagini sullo schermo e che potevano passarsi il

controllo del dito magico toccandosi le dita.

Krueger continuò a giocare con i partecipanti in una forma di interazione che

non era stata prevista inizialmente, rivelatasi grazie al comportamento dei

partecipanti e questi ultimi continuarono ad esprimere se stessi attraverso le nuove

possibilità offerte dallo spazio artificiale, scoprendo così un nuovo strumento.

Tra maggio e giugno del 1971, presso la Memorial Union Gallery, Krueger

esibisce PSYCHIC SPACE, un ambiente composito ideato come strumento per

creare al suo interno tutta una serie di realtà e sperimentazioni differenti: era sia

uno strumento di espressione musicale che una ricca esperienza di visione

interattiva.

Le pareti ed il soffitto erano ricoperte di polietilene nero, e il pavimento, così

come per i precedenti responsive environment, era composto da una fitta griglia di

moduli sensibili alla pressione. Una delle pareti in realtà era un finto muro che

“nascondeva” l’enorme schermo di retroproiezione, dove veniva presentato ai

partecipanti l’output visivo, e un elaboratore PDP-11 che aveva il controllo degli

input proveniente dai sensori e del suono all’interno della stanza. Il computer

comunicava inoltre con la cabina di controllo, situata dall’altra parte del campus,

in cui un Graphic Computer Display Adage AGT-10 (lo stesso tipo di elaboratore

grafico di METAPLAY) elaborava in tempo reale i dati ricevuti dal PDP-11 e

generava il flusso video (tramite una videocamera puntata direttamente sul

monitor grafico) che veniva proiettato all’interno della stanza PSYCHIC SPACE.

In questo modo, la stretta relazione tra i movimenti dei partecipanti all’interno

dello spazio fisico e la conseguente risposta dei dispositivi di output era resa

esplicita nella progettazione dell’ambiente stesso.

113

Page 114: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

L’obiettivo di Krueger era quello di incoraggiare i partecipanti ad esprimere se

stessi attraverso un ambiente sensibile che reagiva direttamente (e in modo

evidente) in base ai loro movimenti. Una delle prime applicazioni di PSYCHIC

SPACE consisteva in un semplice gioco di interazione: un programma rispondeva

automaticamente ad ogni passo delle persone che entravano all’interno della

stanza con suoni elettronici. La tipica reazione, subito dopo aver “svelato” il

meccanismo di interazione, era quella di saltare

da una parte all’altra del pavimento, di rotolare,

di correre, di scivolare ecc...

Altri esperimenti di questo tipo vennero

proposti nel corso dell’esposizione di

PSYCHIC SPACE, ma è con The Maze che

Krueger riuscì a creare all’interno dello spazio

virtuale definito dal display video e dal

pavimento in grado di rilevare la posizione del

partecipante, un'esperienza interattiva più

articolata e decisamente più interessante.

Camminando all’interno di PSYCHIC SPACE

da solo, un partecipante a The Maze riconosce sullo schermo un simbolo grafico

corrispondente alla sua posizione fisica nella stanza. Ogni suo spostamento nello

spazio è corrisposto da uno equivalente del simbolo grafico presente nello

schermo (spostandosi in avanti il simbolo grafico si muove verso la parte alta

dello schermo, allontanandosi dallo schermo fa spostare il simbolo verso la parte

bassa dello schermo).

Quando il partecipante sembra aver capito la relazione tra il movimento

all’interno dello spazio e la posizione dell’oggetto grafico, il sistema interviene

inserendo un secondo simbolo sullo schermo in un punto differente.

Il partecipante inevitabilmente cercherà di capire cosa succede se raggiunge la

stessa posizione del nuovo oggetto grafico. Una volta raggiunto il target il

114

Fig. 15 - Appunti di Krueger riguardanti PSYCHIC SPACE.

Page 115: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

labirinto appare magicamente sullo schermo: il partecipante si muove fisicamente

nell’ambiente oscuro e non visibile, proiettandosi all’interno del labirinto virtuale

osservando se stesso sotto forma di simbolo.

Il cercare di uscire dal labirinto, quindi raggiungere l’ipotetica vittoria del

gioco, generava un ulteriore labirinto. Ben presto il partecipante scopriva che non

c’era un modo chiaro per vincere.

Se il partecipante decideva di “imbrogliare” passando attraverso i muri virtuali

del labirinto, il sistema reagiva deformando se stesso o semplicemente sfasava la

posizione del simbolo grafico (rappresentante lo spettatore) rispetto alla sua

posizione all’interno della stanza.

In questo modo lo scopo dell’interazione iniziava a diventare più chiaro:

Krueger voleva giocare con i confini mentali che finge esistano, come regole di un

labirinto senza regole2. The Maze era un gioco concettuale che utilizzava

movimenti e segnali visivi come segni che venivano interpretati all’interno dello

spazio di PSYCHIC SPACE per creare un luogo virtuale che esisteva all’interno

della mente del partecipante. Uno spazio psichico nascosto all’interno di una

stanza buia che era il risultato di un processo di sperimentazione, frustrazione,

interazione, esperienza, esplorazione e continua scoperta.

Gli esperimenti di Krueger condotti tra il 1972 e il 1974 sull’utilizzo di sistemi

differenti per rilevare la posizione di persone all’interno di un ambiente e reagire

alle immagini video, lo condussero allo sviluppo di un vero e proprio engine per

Artificial Reality. Il suo successivo lavoro è stato il frutto di questi esperimenti e

fu progettato per diventare un laboratorio espandibile, che nel corso degli anni si

sarebbe arricchito di nuove funzionalità e tecnologie.

VIDEOPLACE nel 1975 era quel laboratorio, seppur in versione preliminare.

Grazie alla sua decennale esperienza nello sviluppo di sistemi di rilevamento

dei gesti e delle posizioni delle persone all’interno di uno spazio fisico, alle

capacità di mixaggio video e della computer grafica, Krueger iniziò a rendersi

115

2 "La Realtà Virtuale" Howard Rheingold, 1993

Page 116: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

conto di come l’evoluzione della potenza degli elaboratori poteva accrescere le

possibilità di interazione dei suoi responsive environments.

Inoltre aveva ormai capito che, mentre i corpi dei partecipanti sono vincolati da

leggi fisiche (gravità), le loro immagini potevano essere spostate sullo schermo,

ridotte, ruotate, colorate e digitate insieme in modo arbitrario.

Quindi una maggiore potenza di elaborazione video poteva essere utilizzata per

mediare l'interazione e le consuete leggi di causa ed effetto con alternative

proposte dall’artista.

Ben presto VIDEOPLACE divenne l’incarnazione delle sue idee sugli ambienti

creati dalle percezioni umane stimolate o mediate da tecnologie video ed

informatiche.

VIDEOPLACE è un ambiente concettuale privo di esistenza fisica. Riunisce persone situate in luoghi differenti all’interno di un’esperienza visiva comune, permettendo loro di interagire in modi

inaspettati tramite il mezzo video. Il termine VIDEOPLACE è basato sulla premessa che l’atto della comunicazione crea un luogo che è composto dalle informazioni che tutti i partecipanti

condividono in quel momento. [...] VIDEOPLACE tenta di aumentare questa percezione del luogo, includendo la visione, la dimensione fisica ed una nuova interpretazione del tatto. ("La

Realtà Virtuale" Howard Rehingold, 1993)

Le prime versioni di VIDEOPLACE consistevano in due o più stanze separate

geograficamente (che possono essere adiacenti o a centinaia di chilometri di

distanza) l’una dall’altra. In ogni ambiente una sola persona poteva entrare in una

stanza buia dove videocamere, mixer e proiettori consentivano di interagire con le

immagini video provenienti dalle altre stanze. L’aspetto più interessante di questo

tipo di interazione a distanza era che le persone si identificavano con le proprie

immagini video, anche se sotto forma di silhouette. Quelle silhouette li

rappresentavano non solo visivamente, ma anche fisicamente, erano la loro

trasposizione in uno spazio virtuale. Durante i primi esperimenti di

VIDEOPLACE, Krueger ed un suo assistente (situato in un’altra stanza remota)

stavano usando le mani per indicare gli oggetti all’interno dello spazio virtuale

condiviso: l’immagine della mano di Krueger si sovrappose a quella del sua

116

Page 117: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

assistente che reagì di istinto spostando la mano, proprio come se fosse stato

toccato fisicamente.

Il nuovo spazio comunicativo non era solamente qualcosa di immateriale in cui

le immagini video potevano interagire tra loro, ma era un vero e proprio spazio

corporeo con precise sensibilità sui confini del corpo virtuale degli altri

partecipanti. Le azioni e i movimenti delle silhouette dei singoli partecipanti

provocavano reazioni fisiche, visceralmente connesse con la percezione di sé

stessi all’interno dell’ambiente condiviso.

Fin dal 1977 Krueger riconobbe le potenzialità comunicative di

VIDEOPLACE.

VIDEOPLACE non era solamente un nuovo modo di interagire con il

computer, ma era anche una nuova forma di telecomunicazione.

L’ambiente reattivo non si limita all’espressione estetica. È un potente strumento con applicazioni in molti campi. VIDEOPLACE generalizza in modo chiaro l’atto della

telecomunicazione. Crea una forma di comunicazione così potente che due persone potrebbero scegliere di incontrarsi virtualmente, anche se fosse possibile per loro incontrarsi fisicamente. ("La

Realtà Virtuale" Howard Rehingold, 1993)

La struttura di VIDEOPLACE rimane sostanzialmente la solita di PSYCHIC

SPACE e METAPLAY, una stanza con uno schermo video delle dimensioni di una

parete ed una videocamera. Quello che Krueger cercò di implementare era

l’hardware necessario per visualizzare le immagini, mescolarle con elementi

grafici e per conferire alla stanza una maggiore sensibilità nel comprendere il

comportamento umano.

117

Fig. 16 - Esempi di rappresentazioni in VIDEOPLACE.

Page 118: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

Krueger fece esattamente ciò che Ivan Sutherland aveva fatto con il primo

display Head Mounted quando costruì gli hardware special purpose clipping

divider e matrix multiplier per eseguire le funzioni speciali complesse, di cui il

suo sistema aveva bisogno, il più velocemente possibile.

Implementò, tramite una combinazione hardware e tecniche software di analisi

delle immagini video, un sistema special purpose per riconoscere a partire dalle

silhouette i gesti e la posizione dei partecipanti all’interno di VIDEOPLACE.

Concentrandosi sulle linee che formano le silhouette, Krueger era in grado di

rilevarne i contorni, determinare le intersezioni degli oggetti, calcolare

l’orientamento e il movimento. Una linea su uno schermo visibile ad un

partecipante consiste in una serie di pixel adiacenti che vengono attivati dal fascio

di elettroni del tubo a raggi catodici; la posizione e lo stato dei singoli pixel (come

avvenne per l’ideazione dell’interfaccia grafica bit-mapped) possono essere

memorizzati ed aggiornati nella memoria del computer. Il computer

conseguentemente, tramite una moltitudine di calcoli, può determinare se una

linea è in quiete o in movimento, può rilevate la sommità o la base di

un’immagine, può distinguere le linee rette dalle curve. Grazie a queste e ad altre

analisi di questo tipo, in pratica diventa possibile creare in tempo reale un modello

dei movimenti dei partecipanti ripresi dalla videocamera.

Krueger costruì processori speciali (algoritmi di visione ottimizzati nel silicio)

per ognuna di queste analisi delle immagini video.

Divennero circa 12 nel 1990.

Krueger con VIDEOPLACE voleva essere in grado di esaminare una silhouette

video e determinare automaticamente se la persona nell’immagine stava facendo

un gesto. Il suo obiettivo divenne più raggiungibile grazie allo studio approfondito

della modalità della percezione umana: i nostri occhi sembrano avere circuiti

dedicati per scoprire contorni, oggetti che si muovono velocemente, punti di

rosso, piccole quantità di luce e movimenti impercettibili all’interno di grandi

spazi. Grazie a queste “scorciatoie” possiamo riconoscere le forme e i loro

movimenti senza pensarci. Krueger capisce quindi che nel contesto di un corpo

118

Page 119: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

umano la linea più alta di una silhouette rappresenta la sommità della testa,

l’estremo più a destra di una linea sottile significa la punta di un dito e che la

punta di un dito indica prestare attenzione a dove esso è puntato.

Tramite accorgimenti di questo tipo, VIDEOPLACE raggiunge un livello di

sensibilità mai raggiunti prima, rappresenta la massima espressione delle idee di

realtà artificiali che Krueger voleva manifestare al mondo.

Uno degli esperimenti più significativi di VIDEOPLACE legati alla sensibilità

del contesto, si chiamava CRITTER.

All’interno di una stanza assieme all’immagine video della silhouette del

partecipante, appare una piccola creatura artificiale animata, rotonda con quattro

zampette, che è in grado di interagire direttamente con essa: se l’utente sta fermo

CRITTER si muove verso di esso, se cerca di prenderlo l’animaletto fugge. A

seconda dei movimenti e della successione delle interazioni con il personaggio

animato e con l’ambiente circostante, CRITTER eseguirà azioni e si atteggerà

apparentemente con modalità tipiche di una creatura intelligente.

119

Fig. 17 - Esempio di interazione tra una persona e CRITTER.

Page 120: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

Gli ambienti descritti da Krueger nel corso della sua brillante carriera

all’interno dell’artificial reality, suggeriscono un nuovo mezzo d'arte sulla base di

un impegno di interazione in tempo reale tra uomini e macchine.

Tale mezzo artistico è composto da sensori, display e sistemi di controllo.

Accetta input dai partecipanti e genera output riconoscibili come

corrispondenti al loro comportamento. Il rapporto tra input e output è arbitrario e

variabile, progettato in modo tale da permettere all'artista di intervenire tra

l'azione dei partecipanti e i risultati percepiti attraverso gli schermi o esperienze

sonore.

All’interno dei responsive environment di Krueger il movimento fisico del

partecipante può causare suoni, generare immagini grafiche, sovrapposizioni

video che gli consentono di navigare all’interno di uno spazio visivo definito un

computer. È la composizione dei rapporti tra azione e reazione che è importante.

La bellezza della risposta visiva e auditiva degli ambienti che crea, è del tutto

secondaria. La risposta è il mezzo!

L’indagine di Krueger è legata soprattutto alle modalità con cui il medium

diventa strumento in grado di approfondire gli aspetti comportamentali,

psicologici e comunicativi che avvengono all’interno delle esperienze artificiali.

Così come una forma d’arte, i medium di Krueger sono unici. Invece di creare

un dipinto, una scultura, l’artista delle realtà artificiali sta creando una sequenza di

possibilità. Al contrario, il pubblico non è semplicemente l’osservatore distaccato

museale, ma è attivamente coinvolto nella creazione dell’opera d’arte.

Le opere di Krueger sono dei contesti di interazione, in cui i fruitori possono

dare vita, più o meno spontaneamente e collettivamente all’evento artistico, che è

in continuo divenire e sempre mutevole. Il senso dell’opera è costruito

attivamente attraverso l’azione fisica dei partecipanti all’interno dell’ambiente

stesso, ma è soprattutto grazie al mezzo tecnologico che è possibile generare una

fusione tra il corporeo e gli elementi video-grafici dei responsive environments.

Un altro aspetto determinante delle opere di Krueger (data la loro caratteristica

di essere luoghi sensibili al comportamento umano) è che i complessi elementi

120

Page 121: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

fondamentali che stanno alla base del loro linguaggio e dei loro meccanismi di

interazione, sono facilmente elaborabili dalla mente del fruitore in modo semplice

ed intuitivo, creando così un continuo scambio di aspettative, illusioni, azioni e

reazioni tra l’ambiente e il partecipante.

Ognuna delle esperienze dei mondi di Krueger è strettamente personale, ed è

legata alle capacità espressive e creative di ogni singolo individuo che vi

partecipa: l’opera, e conseguentemente il suo significato, quindi non è unica, ma

sono tante quanti sono i personaggi che interagiscono con essa.

man-machine interaction is usually limited to a seated man poking at a machine with his fingers...I was dissatisfied with such a restricted dialogue and embarked on research exploring

more interesting ways for men and machines to relate. (Myron Krueger)

5.4 L’ingresso nel Cyberspazio

L’idea di interagire con un ambiente fisico intelligente, che capisce i nostri

comportamenti, rispondendo di conseguenza, e che proietta la mente umana

all’interno di una nuova forma di esperienza artificiale strettamente collegata allo

spazio in cui si trova il corpo, può essere considerata per molti aspetti

rivoluzionaria. Sebbene i primi approcci alle realtà virtuali tra la fine degli anni

'60 e la prima metà degli anni '70 siano da considerare come i primi “voli” dei

fratelli Wright, avevano comunque tracciato il percorso da seguire per ciò che

avrebbe dovuto essere il futuro. Ivan Sutherland sperimentò i primi dispositivi

Head Mounted e i primi dispositivi di input gestuali (apprendista stregone),

diversamente Myron Krueger aveva concepito un'idea differente di realtà virtuale:

non sarebbero stati gli ingombranti (ed isolanti) marchingegni a condurre l’uomo

all’interno di mondi artificiali, bensì le pareti di una stanza appositamente

studiata.

A Myron Krueger, come abbiamo visto, interessavano gli aspetti artistici,

comportamentali, performativi e comunicativi che potevano essere generati

all’interno di questi ambienti. Inevitabilmente per raggiungere il suo scopo ha

121

Page 122: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

dovuto costruire hardware special purpose ed utilizzare tecnologie informatiche

all’avanguardia (come il riconoscimento delle forme, degli input corporei ecc...),

“influenzando”, visti i risultati raggiunti, anche altri pionieri dei mondi artificiali

in quella che era la sua idea di approccio alle realtà virtuali.

La Media Room costruita dai ragazzi dell’Architecture Machine Group (ARCH-

MAC3) del MIT può essere considerata come il frutto dell’influenza di Krueger

negli ambienti di ricerca più legati all’ARPA e ad un certo tipo di concezione delle

tecnologie.

Era una stanza dalle dimensioni e dall’aspetto simili ad un comune ufficio, al

suo interno però c’erano un mini computer che controllava i display e gli altri

device della stanza, una sedia controller e uno schermo di retroproiezione grande

come una parete. Come negli ambienti di Krueger, questa stanza era un

dispositivo di immersione all’interno di un mondo virtuale, ma differisce da essi

in quanto la personificazione del fruitore con ciò che lo circonda visivamente,

sonoramente, fisicamente, avviene come una navigazione all’interno di uno spazio

di informazioni. La Media Room è il mezzo principale dell’ARCH-MAC per

condurre ricerche nell’ambito di ciò che chiamano Spartial Data-Managment

System o SDMS. Un concetto molto interessante che incominciò lentamente a

prendere forma già a partire dalla fine degli anni '70. Secondo i ricercatori

dell’ARCH-MAC, soprattutto per Richard Bolt e Nicholas Negroponte, i dati

immagazzinati all’interno dei computer potevano essere rappresentati in qualche

forma visibile ed esplorati cognitivamente, eseguendo una specie di navigazione

fisica attraverso il mondo dei dati.

122

3 Nel 1967 all’interno del MIT grazie anche al sostegno dell’ARPA, Nicholas Negroponte fonda l’Architecture Machine Group (ARCH-MAC), un laboratorio creativo che aveva come obiettivo principale lo studio di nuovi approcci all’interazione uomo-computer. I computer, secondo Negroponte avrebbero potuto accrescere le potenzialità intellettuali e l’immaginazione degli esseri umani combinando le capacità di rappresentazione cinematografiche con il potere di elaborazione delle informazioni tipico dei calcolatori.Così come precedentemente accaduto all’ARC e successivamente al PARC, all’interno dell’ARCH-MAC si voleva inventare il futuro. I loro esperimenti partirono dall’esplorazione delle tecnologie già disponibili e si indirizzarono su quelle che sarebbero da li a poco arrivate (riconoscimento vocale, film olografici).I campi di ricerca dell’ARCH-MAC comprendevano le scienze cognitive, quelle informatiche, quelle cinematografiche e quelle delle telecomunicazioni. Nel 1985 L’ARCH-MAC diventa MEDIA LAB, tuttora ancora attivo presso il MIT quale istituto di ricerca sulle tecnologie, il design e il multimedia.

Page 123: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

Ciò che loro chiamano appunto Dataland (1979).

Si tratta di un prototipo di mondo virtuale fatto di informazioni computerizzate,

una finestra visiva all’interno dei dati personali dell’operatore (i programmi e i

file che noi oggi chiamiamo electronic desktop). La navigazione in questo

ambiente non è come quella che può avvenire su un computer “normale” dei primi

anni '80, ma è di tipo multimediale (ricca di grafica e suoni) e soprattutto

fisicamente immersiva. L’utente, che era sulla sedia, veniva proiettato grazie ai

monitor e allo schermo-parete all’interno del Dataland, dove poteva letteralmente

“volare” attraverso la rappresentazione bidimensionale di una struttura di dati

tridimensionale.

Era l’ingresso concettuale all’interno del ciberspazio.

Nel 1982 usciva nelle sale cinematografiche americane il film TRON, che

incarnò l’immaginario delle realtà virtuali e introdusse il grande pubblico

all’interno del Dataland dei computer.

Look, just so I can tell my friends, what this dream is about, okay? Where am I?4

Nel 1984 lo scrittore William Gibson, nel suo romanzo intitolato

Neouromancer,, coniò il termine cyberspace (ciberspazio) e ne descrisse le

peculiarità, come immense strutture di dati nell'allucinazione vissuta

consensualmente in cui milioni di persone partecipavano collegandosi

direttamente con i loro sistemi nervosi.

Una rappresentazione grafica di dati di dati ricavati dai banchi di ogni computer del sistema

umano. Impensabile complessità. Linee di luce allineate nel non-spazio della mente, ammassi e costellazioni di dati. Come luci di una città che si allontanano... ("Neouromancer" William Gibson,

1984)

L’ingresso nel Dataland era ancora ben lontano dal poter essere realizzato

tecnicamente, ma produsse un movimento culturale che influenzò notevolmente

123

4 Citazione dal film "TRON" di Kevin Flynn,

Page 124: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

l’immaginario collettivo sui concetti di information tecnology, cibernetica, high

tech e più in generale su tutto ciò che riguarda il rapporto tra le tecnologie

informatiche e gli esseri umani.

Il Dataland e l’ingresso nel ciberspazio sono gli obiettivi dei ricercatori

dell’ARCH-MAC e forse sono la diretta conseguenza di ciò che Engelbart diceva a

proposito della necessità dell’uomo di trovare altri strumenti, altre tecnologie che

permettano sempre più di far fronte alle complessità degli stessi strumenti che

stavano creando.

La Media Room dell’ARCH-MAC grazie alla sua interfaccia fisica creava un

real space environment, in cui lo spazio virtuale grafico e l’immediatezza

dell’ambiente reale in cui si trova l’operatore, convergevano in un continum

spazio interattivo. La consapevolezza dello spazio reale in cui si trovano gli utenti

è ben evidente nelle modalità di interazione del sistema Put That There (metti

quello lì).

Put That There (1980) era un esperimento all’interno della Media Room

dell’ARCH-MAC, realizzato da Christopher Schmandt ed Eric Hulteen, sotto la

supervisione di Richard Bolt, in cui vennero collegati due sistemi tecnologici

innovativi al fine di creare nuove modalità di interazione con agli ambienti. Il

primo di questi era il riconoscimento vocale, mentre il secondo era un dispositivo

di rilevamento della posizione nello spazio (ROPAMS, Remote Object Position

Attitude Measurement System5, sviluppato dalla Polhemus Navigation Science,

Inc). Grazie alla combinazione di questi elementi e al display parete della Media

Room, riuscirono a sviluppare un'interfaccia a comando gestuale-vocale. Un

operatore si sedeva sulla sedia di fronte allo schermo (che poteva visualizzare una

mappa generata dal computer piuttosto che un calendario), puntava il dito verso il

target desiderato, pronunciando al alta voce una serie di comandi vocali del tipo

“Put That”, poi spostava il dito verso un qualsiasi altro punto dello schermo e

diceva “...There”. Il computer eseguiva il comando: spostava l’oggetto selezionato

con la punta delle dita nel punto indicato.

124

5

Page 125: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

L’aspetto interessante di questo tipo di ambiente virtualizzato ed intelligente è

che si avvale di un linguaggio di interazione naturale che combina gesti e voce,

tipico per esempio, della comunicazione con i bambini. “Metti quello lì” è

un'indicazione umana che non può non prescindere dalla consapevolezza sia di

colui che chiede l’azione (operatore) che di colui che la compie (computer),

dell’essere compresenti all’interno dello stesso ambiente (Media Room) che è da

una parte fisico (la stanza dove l’utente indica e pronuncia i comandi) e dall’altra

virtuale (la proiezione dello spazio artificiale sullo schermo).

A partire 1978, parallelamente ai progetti Dataland e Put That There,

all’ARCH-MAC incominciarono a sperimentare i cosiddetti viaggi simulati. Scott

Fisher, all’epoca soprannominato “l’uomo 3D”, esperto della computer grafica e

della creazione di ambienti virtuali tridimensionali, si spostò all’ARCH-MAC per

125

Fig. 18 - Esempio del funzionamento di “Put That There”

Page 126: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

partecipare al progetto. Nel giro di poco tempo riuscirono a creare uno strumento

informativo chiamato Aspen Movie Map (o semplicemente Aspen Map), tutt’ora

riconosciuta da tutti come un importante predecessore della realtà virtuale.

La Movie Map in un certo senso era l’evoluzione naturale del Sensorama di

Morton Heilig degli anni '60. Il prototipo sviluppato da Heilig, così come quello

dell’ARCH-MAC, sebbene con modalità completamente differenti, era in grado di

offrire al fruitore della simulazione di un ambiente tridimensionale convincente

che lo circondava e lo integrava al suo interno. L’utente poteva sentirsi parte di

esso, o meglio, completamente immerso in esso.

Tuttavia l’esperienza simulata di Heilig era una visione di tipo passivo, in

quanto l’utente si limitava semplicemente ad osservare il mondo che si sviluppava

attorno a lui. Vent’anni dopo invece, grazie alle tecnologie informatiche digitali e

il talento di Fisher, il contesto della Aspen Map divenne navigabile. L’utente si

trasforma in operatore attivo, in grado di muoversi più o meno liberamente

all’interno della simulazione.

La Movie Map era un prototipo di Mondo Virtuale diverso, ma decisamente

interessante. Può essere considerato l’ascendente diretto di quello che oggi è il

sistema di map browsering interattivo più famoso e forse più utilizzato online:

Google Street View.

La tecnologia si è gradualmente orientata verso gli ambienti di simulazione personale a basso costo nei quali lo spettatore è anche in grado di controllare il proprio punto di vista all’interno di

un ambiente virtuale - una possibilità importante che mancava al prototipo del Sensorama. un esempio in tal senso è la Aspen Movie Map.... Immagini della città di Aspen, in Colorado, sono

state riprese, con un sistema di ripresa speciale montato su un tetto di un’automobile, col quale sono stati filmati ogni strada ed ogni angolo della città, combinando il tutto con riprese della città

dall’alto di gru, di elicotteri, di aeroplani e riprese degli interni degli edifici. La Movie Map ha dato agli operatori la possibilità di sedere di fronte ad uno schermo sensibile al tocco e di guidare

nella città di Aspen a proprio piacimento, imboccando tutte le strade che volevano, toccando lo schermo, indicando quali svolte volevano fare ed in quali edifici volevano entrare. (Scott Fisher)

Se da un lato Myron Krueger e i ricercatori dell’ARCH-MAC sembravano non

amare l’utilizzo di dispositivi di realtà virtuale, come HMD o sistemi di input

126

Page 127: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

indossabili, l’obiettivo di Jaron Lanier e della sua VPL Research Inc fu proprio

quello di sviluppare questi nuovi strumenti di controllo, al fine di migliorare le

possibilità di interazione e navigazione all’interno dei mondi generati dal

computer (e creare un vero e proprio business).

Jaron Lanier era un tipo strambo per un’idea apparentemente stramba.

Non si interessò di computer fino a che non si convinse che "l’informazione è

esperienza alienata", non era per nulla contento di come la vita doveva essere

spezzettata in frammenti binari per venire modellata dai computer, ma

visceralmente era attratto da essi in particolare per l’idea che potessero essere

facilmente utilizzati come strumenti musicali.

All’epoca si considerava prevalentemente un musicista.

L’incontro diretto con i primi computer lo ispirarono a pensare a come

modellare mondi, sentiva che quelle immagini che magicamente apparivano sullo

schermo, frutto di decenni di ricerca e di lavoro da parte dei pionieri informatici di

prima generazione (Engelbart, Licklider ecc...), erano piccole realtà che potevano

essere mutate.

Nel 1981, dopo aver abbandonato gli studi e anche le speranze di diventare

compositore, si diresse nel cuore della Silicon Valley, che in quel periodo era il

centro del mondo (informatico), a bordo di un auto “senza tetto, che si metteva in

moto con un cacciavite e che aveva fori di proiettile su un lato” (era

un’automobile abbandonata dai narcotrafficanti).

Cercò di guadagnare qualche soldo realizzando effetti sonori per videogiochi

elettronici e parallelamente imparò l’arte della programmazione.

Trovarsi a metà degli anni '80 nella Silicon Valley nel pieno splendore del

rinascimento elettronico, dove il boom dei personal computer e dei videogiochi

aveva portato alla nascita di società come la Apple Computer o l’Atari (solo per

citarne alcune), ed avere il talento e la visione di chi sapeva che le immagini sugli

schermi erano in realtà mondi plasmabili, poteva sicuramente essere

un'opportunità da non lasciarsi scappare. Bastava cogliere l’occasione giusta,

quella che Jaron Lanier stava cercando e che aveva cercato durante tutta la sua

127

Page 128: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

vita (e i suoi viaggi in tutti gli Stati Uniti). Puntualmente, dato il suo talento, la

chance si manifestò sotto forma di lavoro da programmatore di videogiochi per

l’Atari. Nel 1983 realizzò Moondust6. Fu un successo.

Guadagnò abbastanza soldi da potersi licenziare e tentare la fortuna come

imprenditore. Lanier aveva un’idea ben precisa di come le potenzialità dei

computer potessero generare simulazioni, suoni, immagini e modelli dinamici da

condividere e scambiare con altre persone allo stesso modo in cui questi riescono

a scambiarsi parole dette o scritte. È a partire da tali concetti che Lanier si avviò

allo sviluppo di un nuovo linguaggio di programmazione, completamente diverso

da qualsiasi altro, un linguaggio che sarebbe potuto essere utilizzato anche da non

esperti del settore, e che avrebbe sfruttato immagini e suoni per comunicare con le

funzioni primarie del computer al posto di aridi codici alfanumerici.

L’idea di questo nuovo linguaggio maturò inizialmente dal suo desiderio di

creare nuove forme musicali attraverso strumenti simulati al computer,

128

6 Moondust è il primo art video game in cui si impersona un astronauta, di notevole complessità grafica e con punteggio astratto, assegnato tramite un algoritmo.

Fig. 19 - Rappresentazione di Moondust.

Page 129: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

successivamente, in corso d’opera, Lanier capì che tale sistema sarebbe potuto

essere applicato ad un linguaggio di programmazione generico, che sarebbe stato

in grado di fare uso di una notazione puramente simbolica. Il Mandala (il nome

scelto da Lanier per questo progetto) invece delle solite incomprensibili (per i non

esperti) sequenze di istruzioni logiche fatte di “if”, “else”, variabili e numeri,

utilizzava disegni di canguri, cubetti di ghiaccio, uccelli cinguettanti rappresentati

su un pentagramma musicale. Questi simboli erano ugualmente incomprensibili,

ma di gran lunga più affascinanti perché erano il frutto di una simulazione grafica

dinamica delle funzionalità del computer. Erano dei mondi virtuali, una fusione

tra le capacità di linguaggio delle macchine con quello iconico, in grado di

suscitare nell’uomo un più elevato stato di immersione all’interno di essi.

Lanier era convinto che i linguaggi di programmazione fossero in realtà la

forma larvale di qualcosa di gran lunga più interessante, che era ormai prossimo

ad arrivare. Potevano diventare qualcosa di altrettanto importante quanto la

comunicazione simbolica, “una nuova forma di comunicazione sullo stesso livello

del linguaggio parlato e della scrittura”. Definisce questo futuro metalinguaggio

potenziato dal computer “comunicazione post-simbolica”.

Quando scrivi un programma e lo mandi a qualcun altro, specialmente se il programma è una simulazione interattiva, è come se stessi creando un mondo nuovo, una fusione del regno

simbolico con quello naturale. Invece di comunicare simboli come lettere, numeri, immagini o note musicali, crei universi in miniatura che hanno i loro propri misteri da scoprire (Jaron Lainer,

intervista di Howard Rehingold)

Con il Mandala nasce più o meno ufficialmente la VPL Research, Inc, ma è

grazie all’incontro del guanto di Thomas Zimmerman (1983), che le realtà virtuali

divennero parte integrante della ricerca e della vita di Jaron Lanier.

Thomas Zimmerman nel 1981, più o meno nello stesso periodo in cui Lanier

arrivò nella Silicon Valley, era alle prese con esperimenti domestici sulla

retroazione dei gesti corporei.

Anche lui come Lanier si interessava di musica e stava cercando un modo

intelligente e pratico per realizzare un dispositivo di input gestuale che fosse in

129

Page 130: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

grado di controllare un sintetizzatore musicale. Pensò che la mano potesse essere

lo strumento più adatto al suo scopo, o meglio che attraverso un guanto

appositamente progettato, avrebbe potuto determinare facilmente la flessione delle

dita e i relativi cambiamenti in tempo reale, quindi tramite lo sviluppo di un

software ad hoc, simulare per esempio l’atto di suonare una chitarra senza

necessità di averla fisicamente in mano.

Un po' come quando ci si lascia trasportare dai riff chitarristici e dal ritmo della

musica, simulando di suonare lo strumento contemporaneamente all’ascolto della

canzone. Solo che il guanto di Zimmerman avrebbe prodotto suoni veri.

Strumenti di questo tipo, a dire la verità esoscheletri, costringenti per le mani

più che guanti, erano già stati sperimentati a partire dagli anni '50, ma erano

troppo scomodi e poco precisi, così comprò un guanto da lavoro e componenti per

un valore inferiore ai 10 dollari e iniziò a costruire il primo prototipo.

Nel 1982 Zimmerman brevettò il suo guanto ottico in grado di rilevare la

flessione delle dita. Gli venne assegnato l’US Patent No 4,542,291.

Il sensore del dispositivo era costituito da un tubo flessibile con superficie

interna riflettente ed estremità aperte in modo tale che da un lato di una delle due

estremità possa essere posizionata o una sorgente luminosa e, all’altro capo, un

rilevatore fotoresistivo, oppure in alternativa ad una fonte luminosa generica,

poteva essere utilizzata una fibra ottica (di gran lunga più precisa) in modo tale

che l’intensità e la combinazione dei raggi di luce diretti o riflessi potessero

rilevare quando il tubo flessibile è piegato. Il tubo flessibile può essere di gomma

nera o qualsiasi altro materiale idoneo, mentre la parete interna può essere trattata

con vernice alluminio a spruzzo. Nella posizione di non flessione delle dita il tubo

è dritto, consentendo alla luce emessa dalla sorgente di colpire direttamente il

rivelatore fotosensibile. Quando il tubo viene piegato dal movimento delle dita, la

luce ricevuta sarà una combinazione di luce diretta o riflessa. La quantità di luce

diretta che raggiunge il rivelatore fotosensibile diminuisce man mano che la

flessione del tubo aumenta, fino a raggiungere il momento in cui tutta la luce che

130

Page 131: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

raggiunge l’altra estremità del tubo (dove è posizionata la fotoresistenza) è di tipo

riflessa.

La funzione del sensore fotoresistivo è di cambiare la sua resistenza a seconda

dell’intensità luminosa che agisce su di esso. L'effetto combinato del tubo piegato

sul percorso ottico e la fotosensibilità del rivelatore producono un dispositivo che

cambia la sua resistenza elettrica quando viene flesso.

Il sensore in grado di rilevare il cambiamento di intensità della luce poteva

essere un fototransistor, una fotocellula, un dispositivo a fibra ottica, o qualsiasi

altra componente con caratteristiche simili.

Un altro sensore brevettato da Zimmerman è costituito da un tubo flessibile

che, a differenza di quello precedentemente descritto, aveva la parete interna che

poteva essere divisa in due o tre zone longitudinali di colore rosso, verde e giallo.

Le zone di diverso colore del tubo incidono sull'intensità della luce che raggiunge

il rivelatore fotosensibile all'estremità opposta del tubo. A seconda del tipo di

sorgente di luce, se di colore simile o di colore diverso alla parete, veniva riflessa

da quest’ultima in modo più o meno intenso. La sorgente di luce, in questo tipo di

flex sensor, era multipla e in particolare doveva essere costituita da tante sorgenti

luminose colorate quante sono le zone di colore nella parete del tubo (se si

decideva di utilizzare tubi con pareti suddivise in due sezioni longitudinali, una di

colore giallo e l’altra di colore verdi, le fonti luminose dovevano essere due, una

gialla e una verde). Queste fonti luminose multiple (che potevano essere LED,

luci ad incandescenza, neon etc..), a differenza del sensore con una singola

sorgente, venivano emesse ad impulsi (on e off) scanditi da intervalli di tempo

prestabiliti. Il parametro output del rilevatore era perciò campionato

corrispondentemente all’analisi degli stessi spazi temporali.

In questo modo le informazioni che si potevano ottenere permettevano di

determinare non solo il grado di piegatura del dispositivo, ma anche la sua

direzione (dall’alto verso il basso, da sinistra verso destra, ecc...). Più sensori di

luce colorata erano utilizzati e più la precisione del dispositivo aumentava.

131

Page 132: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

I flex sensor low cost brevettati da Zimmerman potevano essere collegati su un

tessuto di un guanto, una tuta o un bendaggio elastico ed essere facilmente

utilizzati per determinare elettricamente la posizione di giunture e degli arti, o

ottenere informazioni sulla loro posizione, velocità e accelerazione. I segnali

provenienti da questi sensori possono essere elaborati per applicazioni come: la

cinesiologia7, la fisioterapia, la computer animations, il controllo remoto e nuova

modalità di interfaccia uomo-computer.

La portata di questo brevetto, almeno inizialmente, non fu come lo stesso

Zimmerman poteva aspettarsi, poiché un anno prima di lui (1981) un ricercatore

di nome Gary Grimes che lavorava ai Bell Laboratories, aveva brevettato un

dispositivo di interfaccia molto simile. Il vero punto di svolta avvenne quando

Lanier e Zimmerman si incontrarono qualche anno più tardi ai laboratori

dell’Atari Research. Bastò poco ai due per stringere un accordo. Zimmerman

divenne uno dei fondatori della VPL Research, Inc a cui cedette il suo brevetto e si

mise al lavoro per migliorarlo e renderlo ulteriormente preciso.

A Jaron Lanier venne l’idea di associare al guanto anche un sensore di

posizione assoluta, come quelli utilizzati da Sutherland per l’Head Mounted

Display o per altri dispositivi di input gestuali.

Fu un passo decisivo per la carriera di entrambi e per le sorti della loro azienda.

Il modello migliorato, oltre al sistema di localizzazione spaziale ad ultrasuoni,

sfruttava la più costosa, sottile e precisa tecnologia a fibre ottiche al posto delle

guide luminose di led. Il rivestimento su ogni fascio di fibre era inciso in

corrispondenza di ogni giuntura delle dita. Il grado di flessione di ogni nocca

determinava direttamente quanta luce passava attraverso le precisissime incisioni

prima di arrivare ai sensori di luce, posizionati alla fine del fascio ottico.

Alla VPL Research, Inc decisero che era giunto il momento di associare

all’hardware un sistema di software in grado di trasformare il dataGlove in un

132

7 Scienza che tratta lo studio del movimento umano.

Page 133: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

reality engine completamente funzionante e sbarcare definitivamente in quegli

ambienti simulati che Jaron Lanier coniò come Realtà Virtuali.

“Virtual” means something that exists only as an electronic representation, which has no other concrete existence. Is it as if were there even if it isn’t. It’s not necessary the right world. I like it

better than “artificial”. I like better than “synthetic”, “Shared Dream”, “Telereality” (An Interview with Jaron Lanier, Wole Earth Review, Kevin Kelly).

Zimmerman, Lanier, Young Harvill (co-creatore del sistema a fibre ottiche del

guanto) e Steven Bryson lavorarono per oltre due anni

cercando di perfezionare il software di collegamento

degli input gestuali del guanto ai mondi generati dai

computer.

L’impresa si rivelò molto ardua, in quanto

dovevano riuscire a far funzionare in modo coordinato

i numerosi segnali elettrici provenienti dai flex sensor

con quelli del sistema di posizionamento assoluto, e

conseguentemente sviluppare un programma in grado

di generare l’output del mondo virtuale tramite le sue

forme visive ed uditive. Jaron Lanier incominciò a

trasformare il Mandala in uno strumento per la realtà

virtuale. Parti del suo progetto originale, insieme ad

altre completamente sviluppate ex novo dallo stesso

Lanier e gli altri programmatori si sono evolute nel

sistema software per virtual reality che la VPL

commercializzò per molto tempo a partire dalla

seconda metà degli anni '80.

Il dataGlove della VPL Research, Inc, venne

ultimato in tutte le sue parti e commercializzato. Uno

dei maggiori contratti che la VPL sottoscrisse fu con la NASA che già da qualche

tempo stava conducendo esperimenti sui mondi virtuali.

133

Fig. 20 - Esempio di body VLP caratterizzato da cavi in fibra ottica

che attraversano l’intera tuta e guanti, producendo un segnale durante una

qualsiasi flessione.

Page 134: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

Nel 1984, allo Human Factors Research Division del NASA/Ames, Scott Fisher

venne inviato a tenere una conferenza sui display Head Mounted stereoscopici,

sulle ottiche necessarie per visualizzare scenari molto ampi, e della possibilità di

esplorazione di mondi Virtuali. Michael McGreevy era in prima fila. Iniziò ad

interessarsi dei sistemi HMD sviluppati dall’Aviazione degli Stati Uniti che

venivano chiamati VCASS. Assomigliavano vagamente al casco di Darth Vader e

contenevano tecnologie ben più sofisticate dei sistemi sviluppati da Sutherland.

McGreevy era convinto che un sistema di questo tipo sarebbe stato l’ideale base

di partenza per la sperimentazione scientifica sui fattori umani delle realtà virtuali.

Il VCASS usato dall’aviazione, usava tubi catodici miniaturizzati ad altissima

risoluzione appositamente progettati, fibre ottiche e necessitava di grandi quantità

di calcolo: in poche parole non badarono a spese per questo tipo di progetto, fatto

per altro enormemente giustificato dalla possibilità di innalzare le capacità di

sopravvivenza dei piloti e conseguentemente anche la salvaguardia di aeroplani da

mezzo miliardo di dollari.

Quando McGreevy si accorse che il costo del dispositivo avrebbe superato di

gran lunga il budget per il progetto di ricerca (solo il casco costava un milione di

dollari), decise di costruirsene uno per conto proprio.

Disponeva già di un rilevatore Polhemus ed un sistema di visualizzazione

Evans and Sutherland. Per la costruzione il dispositivo HMD decise di utilizzare,

invece dei display a tubi catodici dotati di risoluzione e qualità superiori, display

LCD ben più economici, ma comunque in grado di garantire risultati adeguati allo

scopo. Ben presto grazie a McGreevy la componente “occhiali” della realtà

virtuale della NASA stava diventando disponibile.

Nel 1985, la NASA assunse Scott Fisher che aveva come obiettivo la

costruzione di un laboratorio che fosse il banco di prova per esplorare tutti gli

aspetti di stazioni di lavori virtuali, dalla telerobotica, alla chirurgia.

Scott Fisher iniziò a negoziare con la VPL Research, Inc per aggiungere al

sistema della NASA, denominato VIVED (Virtual Environment Display), il

134

Page 135: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

dispositivo di input gestuale che avevano sviluppato. Ciò consentì al VIVED di

collegare i movimenti della mano al mondo generato dal computer.

Nel 1986 era possibile immergersi all’interno dei mondi virtuali del ciberspazio

non solo con lo sguardo, ma anche con le mani.

Potevano toccare ed esplorare mondi artificiali nel modo più naturale possibile:

attraverso le mani e i gesti.

“Quella mano fluttuante era qualcosa di più di una mano. Ero io.”

Se vuoi assicurarti di essere nel mondo reale, sposta la testa molto velocemente da una parte o dall’altra. Se il resto del mondo non si muove insieme alla tua testa per un paio di centinaia di

millisecondi, ti trovi in Virtualandia. Lo sfasamento temporale è sempre un problema nella costruzione di sistemi per realtà virtuale e gestire calcoli complicati molto rapidamente è sempre

stato parte del problema ("Realtà Virtuali" Howard Rheingold, 1993)

Il problema principale per un reality engine da questo momento in poi si spostò

sulle possibilità di migliorare, con la speranza un giorno di eguagliare, le più

precise caratteristiche del nostro sistema “mano-dita-occhio-cervello”, in modo

tale da ridurre sempre di più la discrepanza percettiva che può esistere all’interno

dei mondi virtuali.

Nel 1987 un’azienda denominata Abrams-Gentile Enterteinment (AGE), offrì

alla VPL Reserach, Inc, la possibilità di accedere al mercato del mondo dei

giocattoli con una versione appositamente riprogettata del dataGlove. L’obiettivo

era quello di creare un guanto di input gestuale dai costi contenuti che funzionasse

135

Fig. 21 - Esempio di tecnologia di rilevamento dei guanti: dataGlove

Page 136: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

come dispositivo di controllo per i popolari videogiochi da consolle Nintendo,

potenzialmente un mercato nell’ordine delle decine di milioni di dollari.

A partire dal 1991 venne commercializzato il PowerGlove a meno di 100

dollari. Il suo funzionamento non era dissimile a quello del dataGlove (che però

costava 6.300 dollari) in quanto possedeva sia sensori di rilevamento della

posizione assoluta che flex sensor per determinare il grado di flessione delle

singole dita della mano. Ciò che lo differenziava erano le tecnologie utilizzate.

Come abbiamo visto in precedenza, il

dataGlove, utilizzava fibre ottiche e sensori

di posizione assoluta ad altissime capacità

performative, il PowerGlove, invece, faceva

uso di un inchiostro elettro-conduttivo

stampato su una striscia di plastica

flessibile che seguiva il dito nei suoi

movimenti e un sistema di rilevazione

basato su sensori ad ultrasuoni.

La precisione del guanto per i videogiochi

non era il massimo, tutt’altro, ma fu

comunque un importante passo nella storia

dei reality engine poiché avviava la

“massa” ad un nuovo modo di giocare e di

concepire l’interazione con gli ambienti

virtuali generati dall’industria dei giochi

elettronici.

La realtà virtuale, o meglio accenni di essa,

incominciarono a materializzarsi fisicamente al grande pubblico.

Tra il 1988 ed il 1990 la VPL Research, Inc era il fornitore di sistemi di realtà

virtuale pronti all’uso: i laboratori di ricerca non erano costretti a reinventare i

dispositivi HMD e quelli di input, potevano acquistare soluzioni già sviluppate ed

136

Fig. 22 - Jaron Lanier con dataGlove e Eyephone, i dispositivi di realtà virtuale ideati

dalla sua azienda, VPL Research..

Page 137: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

ampiamente rodate, facilitando quindi la costruzione dei mondi piuttosto che degli

hardware necessari per navigarli. Il sensore di posizione Polhemus Navigation

System costava 2.500 dollari, il data Glove altri $6.300, L’Eyephone (l’HMD

della VPL) $9.400 e il pacchetto software $7.200, per un totale di 25.400 dollari,

esclusi i costi per l’acquisto dei computer e delle workstation necessarie per far

funzionare il tutto.

La realtà che era possibile ottenere dipendeva molto dalla potenza di calcolo

degli elaboratori a disposizione, ma anche delle capacità di programmazione del

team di sviluppo del mondo virtuale che si voleva costruire. Ben presto i primi

ambienti solidi con accenni di ombre, superfici e grafiche più dettagliate

cominciarono ad essere esplorabili. Il tasso di miglioramento del livello di realtà

dei mondi virtuali fu incredibilmente rapido e continuò a crescere parallelamente

agli sviluppi tecnologici.

La realtà virtuale ha dimostrato, e dimostra tutt’ora, che l’essere umano è in

grado di poter creare qualunque esperienza si possa desiderare. I pionieri del

ciberspazio, fin dai primi esperimenti di immersione all’interno di mondi generati

dal computer (Sutherland, ma ancor prima di Heilig), avevano compreso che

avere il potere di creare l’esperienza significava anche avere il potere di ridefinire

i concetti base che la definiscono come l’identità, la comunità e la realtà.

Questo implica le potenzialità di un cambiamento della natura umana.

Marshall McLuhan nella sua celebre opera “Gli strumenti del comunicare”

indica i mezzi di comunicazione elettronici come strumenti in grado di alterare i

rapporti tra i sensi: la quantità di input uditivi e visivi generati dall’avvento della

radio, dai telefoni e successivamente dalla televisione, modificarono

inequivocabilmente il nostro modo di percepire la realtà.

Vediamo, sentiamo e conseguentemente comprendiamo il mondo in maniera

differente.

Dal momento che il nostro “normale” status di coscienza è per natura una

simulazione iperrealista di ciò che noi consideriamo realtà, “là fuori” (costruiamo

modelli del mondo che ci circonda all’interno della nostra mente, utilizzando gli

137

Page 138: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

input provenienti dagli organi sensoriali, opportunamente rielaborati dal nostro

cervello), l’esperienza nel ciberspazio è destinata a trasformarci poiché non fa

altro che fornirci nuovi modelli, nuove simulazioni alternative a quelle a cui

normalmente siamo abituati.

Gli esseri umani sono per natura costruttori per eccellenza di modelli mentali,

così come i computer lo sono diventati nel corso degli anni per nostra volontà.

La capacità delle macchine per pensare di emulare ambienti e situazioni reali è

in costante progresso, come abbiamo visto, strettamente legato a quello della

potenza di calcolo e dell’elaborazione-rappresentazione delle immagini

tridimensionali. Dal momento in cui saranno in grado di generare modelli

talmente realistici da non poter essere distinti dalla realtà non simulata

elettronicamente (modello mentale umano), le nostre più fondamentali definizioni

di ciò che è reale verranno completamente ridefinite.

La realtà è sempre stata troppo piccola per l’immaginazione umana. L’impulso per la creazione di una “macchina per la fantasia interattiva” è soltanto la manifestazione più recente dell’antico

desiderio di rendere le nostre fantasie palpabili. (Howard Rehingold, 1993)

É altrettanto vero però, che almeno per quanto riguarda la tecnologia

informatica degli anni '90, la realtà sembrava essere (e lo è tuttora) “troppa” da

poter essere sintetizzata all’interno di un mondo computerizzato. All’epoca il più

potente (e costoso) engine per la realtà virtuale era in grado di elaborare circa

duemila poligoni al secondo e generava un mondo ben lontano dalle nostre

aspettative di realtà. Alvy Ray Smith, co-fondatore di Pixar, affermò che “La realtà

inizia ad 80 milioni di poligoni per fotogramma”.

Era una previsione più che accettabile che aveva lo scopo di suggerire la

direzione verso cui si sarebbero dovute muovere la tecnologie di riproduzione

grafica.

La tendenza futura, favorita senza dubbio dalla legge di Moore, da un lato

sembrò dirigersi verso la volontà di raggiungere e sorpassare la soglia indicata da

138

Page 139: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

Alvy Ray, dall’altro incominciò a deviare il suo percorso, in direzione di un

potenziamento della realtà piuttosto di una sua simulazione iperrealistica.

6. Augmented Reality

Someone once said that a Boeing 747 is not really an airplane, but five million parts flying in close formation (citazione di Caudell e Mizzel, 1992)

Essere un operaio specializzato addetto alla manutenzione (quindi smontaggio

e assemblaggio) dei Boeing 747, alla fine degli anni '80, non doveva essere di

certo una passeggiata. Chiunque si occupasse di questo doveva essere in grado di

consultare migliaia di informazioni e istruzioni dettagliate di ciascuna delle

singole componenti del velivolo, solitamente fruibili tramite complessi schemi

CAD su schermo di una postazione collegata ad un elaboratore oppure su

immense stampe (che in quel caso occupavano interi pavimenti dell’hangar).

Alla difficoltà della manodopera quindi si aggiungeva quella della

consultazione dei manuali necessari a svolgere il lavoro.

Il risultato era una procedura troppo macchinosa e troppo lenta.

Nel 1990, negli stessi laboratori di ricerca della compagnia aerospaziale

Boeing, per la prima volta venne utilizzata l’espressione “Augmented Reality” per

indicare un particolare sistema di fruizione dei contenuti, concepito da Thomas

Caudell e David Mizell, in grado di facilitare enormemente le operazioni di

manutenzione dei velivoli.

Il dispositivo sviluppato dai due ricercatori consisteva in un display Head

Mounted (denominato HUDset (Heads-Up Display Head set), concettualmente

simile al prototipo sviluppato da Ivan Sutherland negli anni '60, ma

opportunamente migliorato in dimensioni e portabilità, dotato di ottica a lente

semitrasparente (see-through) e di un sistema di tracking della posizione della

testa all’interno dello spazio di lavoro.

139

Page 140: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

Questa nuova enabling technology consentiva di visualizzare gli schemi di

assemblaggio e le istruzioni operative testuali, direttamente in sovrimpressione

sulle specifiche componenti “fisiche” del Boeing da smontare o riassemblare, che

di volta in volta entravano nel campo visivo dell’operaio.

this technology is used to “augment” the visual field of the user with information necessary in the performance of current task, and therefore we refer to the technology as “augmented reality”.

(citazione di Caudell e Mizzel, 1992)

L’informazione percepita dalla vista degli addetti veniva “aumentata” dal

dispositivo con un altro livello informativo sovrapposto al reale, in grado di

arricchire di significato ciò che in quel preciso momento stava osservando. In

poche parole oltre a semplificare e velocizzare notevolmente il lavoro degli

addetti alla manutenzione dei giganteschi aeroplani (non dovevano più

interrompere l’assemblaggio per andare a controllare le schede tecniche),

introdusse il mondo informatico ad una nuova era delle Realtà Virtuali, o meglio

ad una loro variante dalle potenzialità non meno affascinanti e suggestive.

L’era della realtà aumentata.

140

Fig. 23 - L’immagine di sinistra rappresenta un operaio al lavoro,con il sistema di display Head Mounted, progettato da Tom Caudell e David Mizell. A destra un dettaglio della stessa applicazione.

Page 141: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

6.1 Virtual Reality vs. Augmented Reality

Il concetto di Virtual Reality o VR, coniato nel 1989 da Jaron Lanier (un anno

prima che Tom Caudell e David Mizell definissero la loro tecnologia Augmented

Reality) implicava nella sua accezione la sofisticata tecnologia, sviluppata già a

partire dagli anni '60, che collegava i computer ad una serie di sensori in grado di

stimolare la percezione umana e che consentiva un'interazione immersiva tra un

soggetto attivo e il modello computerizzato generato.

Il termine virtuale però non è da contrapporre al reale.

Il filosofo francese Pierre Lévy8 rifletté a lungo su questo concetto, partendo

dalla considerazione che ogni rappresentazione immateriale è anch’essa reale in

quanto comunque percepibile, arrivando a definire il virtuale semplicemente come

uno dei possibili modi dell’essere e che non ha niente a che vedere con il concetto

di falso o non reale (inteso come un qualcosa che non esiste).

Il termine “virtuale” deriva dal latino virtualis che, nella filosofia scolastica

antica, indicava appunto un qualcosa che esiste in potenza ed è in grado di passare

in atto (per esempio l’albero è virtualmente presente nel seme).

Per Levy il virtuale deve essere contrapposto all’attuale e quindi ciò che è

virtuale esiste, perché possibile, anche senza consistenza materiale e concreta.

I mondi virtuali sono esperienze possibili che possono essere contrapposte o

concordate a quelle del reale, in base al grado di sensazione di immersività e

navigabilità che sono capaci di suscitare nello spettatore.

Tanto più dettagliata sarà la simulazione in atto della realtà, quindi come

abbiamo visto, più poligoni saranno elaborati, e più sensi verranno coinvolti, tanto

più profondo sarà il suo grado di immersione.

141

8 Il filosofo francese Pierre Lévy (1956) è noto per i suoi studi sul mondo degli ipertesti, sulle implicazioni culturali dell'informatizzazione e sugli effetti della globalizzazione. Si interessa così di computer e Internet intesi come strumenti per aumentare le capacità di cooperazione, non solo della specie umana nel suo insieme, ma anche quelle di collettività come associazioni, imprese, gruppi locali, etc. Egli sostiene infatti che il fine più elevato di Internet è l'intelligenza collettiva (come Douglas Engelbart).

Page 142: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

Il termine virtual reality quindi può essere definito come un ambiente

tridimensionale immersivo generato dal computer. Da questo concetto possiamo

estrapolare tre punti chiave:

1. si tratta di un ambiente generato completamente al computer secondo

modelli tridimensionali ed elaborazioni real time che richiedono prestazioni di

calcolo e grafica elevatissime, per fornire un adeguato livello di realismo;

2. questo modello oltre ad “ingannare” la nostra percezione visiva deve essere

anche interattivo. Deve essere navigabile e reattivo. Il sistema deve reagire alle

azioni dell’utente in modo efficace e credibile;

3. l’utente deve essere completamente immerso sensorialmente all’interno di

questo ambiente;

Uno dei segni distintivi delle realtà virtuali (nella maggior parte delle sue

applicazioni) è l’uso di Head Mounted Display come dispositivo privilegiato di

visualizzazione che isola completamente l’utente dal mondo esterno, in quanto la

sua percezione dipende esclusivamente da ciò che il computer “decide” di

mostrare. L’ esperienza visiva, uditiva e più in generale dei canali sensoriali

propriocettivi9 è sotto il controllo del reality engine che ne determina il grado di

coinvolgimento e il livello di affidabilità. Affinché questa immersione sia

considerata realisticamente valida, almeno per quanto riguarda la sensazione di

presenza (non per i dettagli grafici), il sistema deve necessariamente reagire in

modo coerente ad ogni movimento del soggetto, determinando di volta in volta la

scena così come si sarebbe comportata nella realtà.

Questo senza dubbio risulta essere uno dei problemi più complessi e

difficilmente risolvibili delle realtà virtuali, poiché, come abbiamo visto in

precedenza, non si tratta solo di modellare un mondo graficamente credibile, ma

che reagisca ai nostri sensi percettivi nel modo più realistico possibile.

Ogni movimento o modifica effettuata da parte dell’utente comporta una

conseguente ed appropriata modifica all’interno del mondo virtuale percepito.

Tale sistema è chiuso in sé stesso e non esiste nessuna connessione diretta tra le

142

9 Capaci di percepire e riconoscere la posizione del proprio corpo nello spazio, grazie alla ricezione delle informazioni dai sistemi sensoriali.

Page 143: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

coordinate propriocettive dell’utente e quelle dell’ambiente in cui è immerso. Il

collegamento deve essere creato artificialmente10 tramite dispositivi e tecnologie

di rilevamento degli input sensoriali.

Qualsiasi incongruenza riguardante il sistema di rilevamento delle coordinate,

che ha il compito di determinare il punto di vista della scena virtuale rispetto alla

posizione del corpo dell’utente, viene percepita come un errore di registrazione,

ossia una discrepanza tra quello che ci si aspetterebbe normalmente di vedere e

ciò che effettivamente vediamo.

Tali errori sono riconosciuti come veri e propri conflitti tra il sistema visivo e

quello cinestetico o propriocettivo dell’utente. Tuttavia, a causa della maggiore

influenza della vista rispetto agli altri canali sensoriali (come aveva anche

evidenziato Heilig nei suoi studi per il Teatro dell’Esperienza e il Sensorama), è

possibile che l’utente all’interno di una realtà virtuale accetti o regoli lo stimolo

visivo errato, sostituendo più o meno inconsciamente le discrepanze che si

verificano.

Un dispositivo di realtà aumentata, contrariamente a quello della realtà

virtuale, consente di osservare direttamente la realtà che ci circonda,

aumentandola con informazioni aggiuntive generate dal computer. Non si tratta

perciò di una rappresentazione simulata di un intero mondo in cui si è immersi

sensorialmente, ma di un potenziamento attraverso oggetti virtuali coerentemente

registrati all’interno di quello esistente e reattivi alla fisicità dell’utente. Il senso

di presenza delle applicazioni di realtà aumentata non deve essere ricreato

sinteticamente, poiché l’utente agisce nel contesto reale.

Il vantaggio di questo aspetto è duplice.

In primo luogo, gli ambienti reali contengono una quantità di informazione

tanto più elevata quanto più difficilmente riproducibile in un qualsiasi altro

ambiente simulato. In secondo luogo, se l’obiettivo finale delle applicazioni dei

virtual environment è quello di migliorare le prestazioni umane per un compito

specifico, questo sarà svolto sicuramente in modo più naturale se il soggetto si

143

10 Azuma 1993

Page 144: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

sente immerso e a suo agio all’interno dell’ambiente (che riconosce o conosce) in

cui deve svolgere l’attività.

Anche per gli augmented reality engine il problema di mantenere coerente la

visione degli oggetti virtuali con la posizione dell’utente nel contesto reale in cui

sono rappresentati gli oggetti stessi, è un grande e difficile ostacolo da superare.

In questo caso un errore di registrazione non può essere né compensato né

accettato dall’utente, in quanto è compreso tra due stimoli visivi differenti per

natura (realtà osservata direttamente e virtualità di oggetti-testi generati), che sono

fusi all’interno di un'unica scena.

L’osservatore è ben più sensibile a questo tipo di situazioni percettive devianti,

rispetto a quelle che possono riscontrarsi negli ambienti puramente virtuali.

Ciò impone ai progettisti di applicazioni e sistemi augmented una più rigida

attenzione alla risoluzione di queste problematiche.

Sia i sistemi di realtà virtuale che quelli di realtà aumentata devono assicurare

all’utente un senso profondo di immersione all’interno dell’ambiente,

garantendone di conseguenza anche la ricezione di un insieme coerente di input.

144

Fig. 24 - Tabella in cui vengono riportate tutte le varie tipologie con relative caratteristiche di augmented display.

Page 145: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

6.2 Enabling Display Tecnologies

Per mantenere questo status di immersione ibrido tra il virtuale ed il reale, i

sistemi di augmented reality, così come quelli di virtual reality, necessitano di un

dispositivo, o diversi dispositivi comunemente definiti augmented display, in

grado di fondere visivamente i due diversi punti di vista (quello generato dal

computer e quello osservato direttamente) in un'unica visione.

Le tecnologie di display più comuni, o meglio quelli considerabili “storici”, sono i

see-through head-mounted display che grazie a tecnologie video o ottiche

consentono di vedere il mondo reale “aumentato” con oggetti, informazioni, dati

virtuali sovrapposti e perfettamente integrati ad esso. Come indicato dal nome

stesso (head-mounted) si posizionano ovviamente tra le categorie di display

indossabili, ossia head-worn (di cui fanno parte anche i virtual retinal display e

gli head-mounted pjojective display), e offrendo così un buon grado di mobilità e

libertà di azione dell’utente.

Oltre ad essere la tipologia di head-mounted display più economica e semplice da

realizzare, il video see-through è anche il dispositivo di visualizzazione per la

realtà aumentata tecnicamente più simile a quelli dedicati per l’esplorazione degli

ambienti totalmente virtuali (quelli sviluppati dalla NASA o dell’EyePhone

sviluppato da Lanier).

145

Fig. 25 - Schema del funzionamento di un dispositivo video see-through.

Page 146: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

Generalmente è costituito da una o due videocamere, poste in corrispondenza

degli occhi che sostituiscono appieno la vista dell’utente, generando un feed video

digitalizzato della realtà. Quest’ultimo, opportunamente combinato in real time

con la scena virtuale corrispondente (prodotta dal sistema grafico

dell’applicazione AR in base alle coordinate della posizione della testa e del punto

di vista), viene proiettato sul monitor situato di fronte agli occhi dell’utente,

permettendo così di ottenere una percezione aumentata dell’ambiente circostante.

L’utente quindi non osserva la realtà direttamente, ma ciò che osserva è mediato

dall’utilizzo delle telecamere.

Questa tecnica nella sua semplicità offre alcuni vantaggi interessanti.

Dal momento che la realtà osservata è “digitalizzata”, così come le immagini

generate virtualmente, risulta molto più facile manipolarne i contenuti,

aggiungendo o rimuovendo elementi da essa. Ciò consente inoltre di avere sia un

miglior risultato visivo, grazie al controllo pressoché totale sui parametri di

luminosità, tonalità, saturazione e contrasto delle immagini acquisite, sia una

maggiore precisione nel tracking degli oggetti e dei movimenti della testa

dell’utente.

Tuttavia a queste facilitazioni, che potrebbero tranquillamente rendere i video

see-through una tecnologia largamente utilizzata nel campo delle realtà

aumentate, bisogna aggiungere altrettanti svantaggi, ad iniziare proprio dalla

bassa risoluzione con cui necessariamente agisce. La realtà ripresa attraverso le

telecamere perde inevitabilmente risoluzione e conseguentemente qualità. Per

quanto fedele possa essere al reale, un'immagine ripresa attraverso un dispositivo

di video capture, sarà comunque inferiore rispetto a ciò che i nostri occhi sono in

grado di percepire. Non è solamente una questione pixel, ma di una serie di

caratteristiche fisiche del sistema occhio-mente che nessuna telecamera riuscirà

mai ad eguagliare. Alcune di queste features riguardano, per esempio, la gestione

del punto di vista, della visione periferica e della messa a fuoco.

Il punto di vista percepito dall’utente del sistema video HMD (dato

principalmente dal posizionamento della fonte di input video), seppur

146

Page 147: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

migliorabile, risulta essere decisamente limitato e poco fedele a quello reale,

causando nell’utente disorientamento e sforzi troppo significativi per cercare di

“aggiustare” a livello percettivo la visualizzazione. Limiti che sono da segnalare

anche per quanto riguarda la visione periferica e la messa a fuoco che di certo non

consentono un uso prolungato di questo tipo di dispositivi.

A differenza di quelli video, gli HMD see-through ottici sfruttano le innovative

tecniche di beam-splitting (sperimentate già da Sutherland con il three

dimensional head-mounted display del 1968) per riflettere e sovraimprimere la

realtà aumentata direttamente negli occhi dell’utente. Le scene virtuali, generate

dal sistema grafico, vengono sovrapposte a quelle provenienti dal punto di vista

reale dell’utente, mediante l’utilizzo di appositi optical combiners che hanno la

peculiarità di essere in parte sia trasmissivi che riflessivi. Questo particolare

sistema di lenti lascia passare le immagini provenienti dalla realtà (come se

l’utente indossasse un paio di occhiali da sole) e contemporaneamente riflette in

direzione degli occhi le immagini corrispondenti alla scena, generate

virtualmente.

I display head-mounted see-through non solo hanno il vantaggio di mantenere

intatta la risoluzione del mondo reale, ma risultano anche più sicuri e privi di

aberrazioni visive da risolvere (come per esempio accade nei dispositivi HMD che

utilizzarono telecamere per riprodurre l’ambiente reale)

147

Fig. 26 - Schema in cui viene rappresentato il funzionamento dei display optical see through.

Page 148: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

Un’altra categoria molto interessante da prendere in considerazione nella

nostra breve analisi, riferita agli augmented display, è quella dei cosiddetti hand-

held display, ossia tutti quei dispositivi di visualizzazione video o ottici che

devono essere letteralmente “tenuti in mano”. A differenza degli head-worn sono

utilizzati ad una distanza superiore (circa la distanza di un braccio appunto), il

livello di immersività dell’esperienza che

assicurano non è elevato e sono sicuramente

più “ingombranti”. Tuttavia attualmente sono

la migliore soluzione per introdurre la realtà

aumentata nel mercato di massa a causa dei

bassi costi di produzione, della notevole

facilità d’uso e soprattutto della discrezione con

la quale agiscono. Fanno parte di questa

categoria gli smartphone, cellulari

multifunzione, che proprio grazie alla loro versatilità e alle tecnologie di cui sono

dotati (GPS, magnetometro, accelerometro, giroscopio, connessione WiFI, 3G,

Bluetooth ecc...),rappresentano forse lo strumento ideale per sviluppare a costi

contenuti applicazioni di realtà aumentata.

Sulla base di quanto preso in considerazione fino ad ora, possiamo definire con

precisione il concetto di realtà aumentata. Come ci suggerisce Ronald T. Azuma11

un sistema AR12, per essere considerato tale, deve:

1. combinare assieme oggetti reali e virtuali all’interno di un real environment;

2. essere interattivo ed in tempo reale;

3. allineare correttamente oggetti reali e virtuali con gli altri elementi

dell’ambiente.

148

11 Ha costruito il primo sistema di realtà aumentata funzionante, grazie all'allineamento tanto curato tra oggetti 3D reali e virtuali che l'utente percepiva la coesistenza con gli oggetti nello stesso spazio ("Per questo lavoro mi sono concentrato esclusivamente sul problema di registrazione, sulla tracciabilità, la calibrazione e il lavoro di sistema necessari per raggiungere questo obiettivo con un ottica see-through head-mounted display"). Ci sono stati precedenti sistemi di AR ma avevano errori di registrazione di notevoli dimensioni.

12 Iniziali di Augmented Reality (Realtà Aumentata)

Fig. 27 - Esempi di più recenti display head-worn. A sinistra il prototipo di display retinale monocromatico della MicroVision. A destra i

“famosi”Google Glasses (Sergey Brin)

Page 149: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

L’aspetto importante della definizione proposta da Azuma è che non limita

l’augmented reality né ad una particolare tipologia di display (come ad esempio

gli HMD che, come abbiamo visto, ne esistono molte tipologie con caratteristiche

e possibilità diverse), né limita la sua applicazione alla sola esperienza visiva, in

quanto può potenzialmente essere applicata a tutti i sensi che compongono la

complessità della percezione umana (udito, tatto e olfatto). Inoltre con il termine

“augmented” si intende in generale la capacità di potenziare l’esperienza

sensoriale dell’uomo, non soltanto aggiungendo ad una determinata scena oggetti

virtuali che aiutano a comprendere meglio ciò che ci circonda, ma anche

rimuovendo da essa all’occorrenza oggetti reali. Sebbene questa pratica sia meno

diffusa e venga chiamata Mediated Reality o Diminished Reality, è comunque un

interessante sottoinsieme delle tecnologie Augmented Reality.

6.3 I continuum di Paul Milgram

Nel 1994 Paul Milgram, in collaborazione con Fumio Kishino, Akira Utsumi e

Haruo Takamura, pubblica un documento dal titolo “Augmented Reality: A class

of displays on the reality-virtuality continuum”, in cui definisce la tassonomia

delle correlazioni esistenti tra gli ambienti Virtual, quelli Augmented ed i relativi

display.

L’opinione diffusa di una Virtual Reality, come abbiamo visto in precedenza, è

quella in cui il partecipante-osservatore è completamente immerso all’interno di

un mondo sintetico, che può o non può imitare le proprietà di un ambiente reale,

di uno già esistente o di uno di pura fantasia, ma che per certi versi può anche

essere superiore, per esempio superando le leggi della fisica che regolano la

gravità, il tempo e le proprietà materiali. Al contrario, un ambiente strettamente

collegato al reale dovrà per forza rispettarle.

149

Page 150: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

A partire da questa semplice distinzione Milgram pone i concetti di “reale” e

“virtuale” come antitesi di un Reality-Virtuality Continuum (fig. 28) in cui agisce

una Mixed Reality, ossia tutto l’insieme degli ambienti generici misti, composti da

oggetti ed immagini sia del mondo reale che di quello virtuale e rappresentati

contemporaneamente all’interno di un unico display.

La Mixed Reality è un qualsiasi punto tra i due estremi del continuum Reality

Virtuality, come può esserlo per esempio la Realtà Aumentata (AR).

L’estremità a sinistra del continuum definisce qualsiasi ambiente costituito

esclusivamente da oggetti reali (Real Environment) e include tutto ciò che è

possibile percepire direttamente tramite i canali sensoriali. L’estremo a destra

invece rappresenta l’opposto, ossia un ambiente costituito unicamente da oggetti

virtuali generati attraverso simulazioni grafiche computerizzate (Virtual

Environment) e fruibili mediante l’utilizzo di dispositivi Head Mounted immersivi

o semplici display.

Augmented Reality augmenting natural feedback to the operator with simulated cues (conference papers by Millgram and Kishino, 1994)

L’Augmented Reality nello schema del continuum di Milgram si posiziona a

fianco del Real Environment da cui ne è direttamente dipendente, in quanto è

predominante in questo caso la percezione del mondo reale, che diventa

“aumentata” grazie ad informazioni generate dal computer e inserite all’interno

del contesto. L’Augmented Virtuality include tutti quei sistemi che sono

150

Fig. 28 - Reality Virtuality Continuum di Paul Milgram (1994).

Page 151: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

prevalentemente sintetici, ma che annoverano la presenza di immagini attinte dal

mondo reale. Proprio per questa sua caratteristica è relazionata ai Virtual

Environment.

Il continuum Reality-Virtuality di Milgram del 1994, sebbene si tratti di

un’estensione del concetto di Mixed Reality e delle relazioni esistenti tra gli

ambienti reali e quelli virtuali (e conseguentemente tra le tecnologie che le

rendono possibili), a causa della sua struttura monodimensionale non può

includere tutte le variabili di cui questi ambienti sono pregni, risultando quindi fin

troppo semplice per una corretta distinzione tra i sistemi Augmented Reality e

Augmented Virtuality da altri. Milgram quindi definisce una tassonomia specifica

con cui i mondi misti e quelli virtuali possono essere rappresentati sulla base delle

loro proprietà essenziali (tecnologie di visualizzazione), grazie a un continuum

multidimensionale formato da tre assi: Reproduction Fidelity (Riproduzione

Fedeltà, RF)), Extent of Presence Metaphor (Estensione della Metafora della

Presenza) e Extent of World Knowledge (Estensione della Conoscenza del

Mondo).

Molte delle discussioni sugli ambienti virtuali (intesi come le parti che agiscono

all’interno del Reality-Virtuality continuum), riguardano prevalentemente gli

strumenti (computer, display) e le tecniche grafiche con cui si possono generare

oggetti virtuali dalla qualità sufficientemente elevata da farli apparire “reali”. Il

Primo asse che Milgram identifica è appunto relativo a questi aspetti di

151

Fig. 29 - Reproduction Fidelity Continuum.

Page 152: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

riproduzione più o meno fedeli alla realtà: le immagini generate sono classificate

nel continuum RF a partire da semplici immagini wireframe (Ivan Sutherland e la

sua “Spada di Damocle”) fino a quelle di 3D Animation fotorealistica.

In questo contesto i fattori che influenzano un’applicazione di realtà aumentata

o virtualità aumentata nel posizionarsi in un qualsiasi punto lungo l’asse del

continuum RF, sono essenzialmente legati alla loro capacità hardware di elaborare

e riprodurre le informazioni/immagini in tempo reale (per visualizzare immagini

wireframe in tempo reale la potenza di calcolo necessaria sarà di gran lunga

inferiore a quella per immagini ad alta definizione), ma anche alla tecnologia del

display di rappresentazione delle scene generate (per immagini wireframe sarà

sufficiente un display monoscopico, viceversa per una riproduzione

tridimensionale un display 3D HDTV).

Altre discussioni sugli ambienti virtuali invece si concentrano sui fattori

relativi alla sensazione di “presenza” che suscitano all’interno del mondo

computerizzato. Il continuum Extent of Presence Metaphor analizza proprio questi

fattori, misurando il livello di immersione dell’utente all’interno di un Virtual

Environment o Mixed reality. Anche in questo caso la classificazione è

strettamente legata alla tecnologia di visualizzazione utilizzata dal sistema.

Ognuna di queste conferisce un grado diverso di immersione che può variare da

un senso di presenza minima, dato da immagini monoscopiche su monitor WoW

(Window on the World) , fino ad un coinvolgimento totale, dato dalla vista

Realtime imaging attraverso particolari e sempre meno invasivi display head

mounted che lentamente incominciano ad assomigliare a normali occhiali o

futuristici retinal display13.

152

13 Il display retina è un display ad alta definizione con una quantità di pixel quattro volte superiore rispetto ai modelli precedenti. La densità di pixels, 326 ppi (pixel-per-inch, pixel per pollice) è maggiore rispetto al limite di risoluzione dell'occhio umano (ovvero la minima distanza tra due punti tale che sia ancora possibile distinguerli) che è di 300 ppi. Lo schermo appare così come "stampato" con i colori delle immagini in completa continuità, come se si osservasse un foglio di carta.

Page 153: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

Per esempio gli Artificial environment di Myron Krueger (che abbiamo avuto

modo di analizzare nel paragrafo 5.3) possono essere posizionati circa a metà del

continuum EPM, poiché fanno uso di immagini panoramiche su schermi grandi

che hanno il potere e il fascino di avvolgere letteralmente lo spettatore all’interno

di una realtà artificialmente generata, garantendo anche libertà di movimento ed

azioni all’interno di essa.

Le tecnologie di visualizzazione utilizzate nei sistema di realtà aumentata

invece sfruttano la vista diretta degli utenti sul mondo reale. L’immersione degli

utenti in questo ambiente avviene semplicemente tenendo gli occhi aperti ed

osservando ciò li che circonda.

Un altro importante elemento che molto spesso viene ignorato nella definizione

di questi environment (VR, AV o AR), è il grado di conoscenza del mondo

(EWK), in pratica quanto sappiamo degli oggetti e del mondo virtuale in cui questi

sono esposti.

153

Fig. 31 - Extent of World Knowledge

Fig. 30 - Extent of Presence Metaphor.

Page 154: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

L’estremo di sinistra del continuum EWK, World Unmodelled, che rappresenta

il caso in cui l’utente non conosce nulla del mondo remoto che sta osservando, si

caratterizza come una serie di scene fatte da immagini ed informazioni non

modellate (se non per migliorarne la qualità), che sono esplorate “alla cieca” e

visualizzate tramite l’ausilio di appositi display. Fanno parte di questa categoria

per esempio i sistemi di telemanipolazione, in particolare quelli che sono effettuati

in ambienti ostili all’uomo o semplicemente difficili da raggiungere, come

l’esplorazione subacquea o di altri pianeti.

Man mano che ci si sposta verso l’altra estremità della dimensione EWK

invece, troviamo il mondo completamente modellato. É questo il caso delle

virtual reality nel senso tradizionale (e storico) del termine, ossia di ambienti

totalmente virtuali che possono essere generati solamente se il Reality Engine

dispone di una conoscenza completa su ogni aspetto del mondo che sta

elaborando: la posizione degli oggetti, quella della vista dell’osservatore e, nel

caso in cui si tratti di esplorazione attiva (quindi con possibilità di interazione sul

mondo da parte dell’utente), anche delle azioni che il soggetto compie per

manipolare gli oggetti.

La definizione di Azuma di Augmented Reality, quella di Mixed Reality e dei

continuum multidimensionali descritti da Paul Milgam (nei testo pubblicato nel

lontano 1994), hanno portato ad un’idea ben precisa dei concetti e delle tecnologie

che sono alla base degli ambienti virtuali, siano essi più affini al reale (Augmented

Reality) o completamente distaccati da esso (Virtual Reality). I continui sviluppi

innovativi nel campo della rappresentazione (display), dell’elaborazione

multimediale (computer) e della mediazione dei contenuti (interfacce ed input

sensoriali) hanno altresì contribuito enormemente ad incentivare la

sperimentazione e l’esplorazione all’interno dei mondi sinteticamente modificati,

in particolare di quelli maggiormente legati alla realtà (AR) e ai suoi rapporti con

la percezione e i comportamenti umani causati dal suo utilizzo.

L’inerzia dello sviluppo delle augmented reality è attualmente nel pieno della

sua potenza, anzi se possibile, ancor più amplificata grazie all’esplosione

154

Page 155: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

dapprima di nuovi mezzi comunicativi (internet) e successivamente dai nuovi

strumenti smart di fruizione ed elaborazione delle informazioni (smartphone,

tablet).

6.4 Che cos’è la Realtà Aumentata? E di cosa si occupa?

Ma che cos’è la realtà aumentata? In che modi si distingue dalle altre

tecnologie? E quali sono le sue applicazioni pratiche? Sono tutte domande

legittime riguardanti le nuove possibilità offerte dallo sviluppo dell’AR, a cui

cercheremo, in questo ultimo paragrafo, di dare una risposta.

La realtà aumentata è una tecnologia “ancestrale”che fonda le sue radici nel

lavoro pionieristico di Ivan Sutherland del 1968, salvo poi trovare nuovo lustro e

un’identità ben precisa (come abbiamo visto in precedenza), differenziandosi dalla

realtà virtuale di concezione tradizionale, a partire dagli anni '90, con la

realizzazione del primo dispositivo AR funzionante presso i laboratori della

Boeing e le successive definizioni di Milgram e di Azuma. La realtà aumentata si

presenta alla percezione del senso comune come un’idea estremamente potente (e

per certi versi anche troppo rivoluzionaria) e, come tutte le altre idee potenti che

hanno fatto la storia dell’informatica (la internet, le realtà virtuali ecc...) e non

solo, si presta ad una facile mitizzazione e ideologizzazione. É un “mito del

presente14” come lo definirebbe Roland Barthes (1915-1980), già ben strutturato

nelle sue caratteristiche, funzionalità e modi espressivi, benché sia appena nato.

Occorre tuttavia demistificarlo, sottraendo da esso il fascino e la potenza

dell’innovazione tecnologica quasi “magica” che porta con sé, al fine di farne

risaltare esclusivamente gli aspetti specifici di cui è impregnato: in particolare

quello di essere un mezzo che non solo ha il potere di agire nei discorsi della

società, ma anche nei discorsi sulla società (meta-sociali) e nei modi in cui la

cultura rappresenta se stessa.

155

14 Presentava come “naturali” delle situazioni e delle qualità che erano in realtà storicamente determinate.

Page 156: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

In questo ambiente comunicativo nuovo, la realtà aumentata istituisce una

diversa forma di lettura-scrittura del reale, ossia una nuova modalità di

significazione e di testualità che si differenzia enormemente rispetto a quelle

tradizionali (come successe negli anni '60 con l’invenzione dell’ipertesto), proprio

perché strettamente collegata alla fisicità di un oggetto o di un determinato

ambiente in cui essa agisce.

Sotto questo aspetto l’AR può essere definita come un dispositivo intertestuale

sincretico, ovvero un insieme eterogeneo di significanti (elementi testuali e

contenuti) che convergono in un’unica esperienza fruitiva attraverso diverse

modalità sensoriali (visive, uditive, gestuali, spaziali ecc...). Per esempio come

accade nella realtà aumentata di Tom Caudell e David Mizell per gli operai addetti

alla manutenzione della Boeing oppure nelle sue forme più evolute, o ancora sulle

più attuali applicazioni per dispositivi smartphone come Wikitude15, Google

Goggles16 oppure Soundhood17 (solo per citarne alcuni).

In queste applicazioni gli elementi del reale sono strettamente collegati al

mondo virtuale multimediale, che agisce nella percezione umana attraverso i

canali sensoriali per determinare nuove modalità cognitive ed espressive.

Tuttavia gli aspetti di intertestualità e sincretismo non sono sufficienti a

distinguere la realtà aumentata per esempio da un gioco interattivo su schermo,

dalla navigazione quotidiana su internet o da un film. Anche in questi casi si è di

fronte a testi complessi, che fanno uso di linguaggi differenti e che sono

imprescindibili da esperienze e rimandi multimediali e multisensoriali,

interconnessi tra loro secondo una serie di citazioni e rimandi continui a volte

impliciti, altre volte espliciti. Una realtà aumentata come quella generata dal

sistema brevettato nel 1998 da Sportvision e battezzato 1st & Ten, è l’esempio

156

15 Applicazione per smartphone che sfrutta a pieno la realtà aumentata, permettendoci di sapere in tempo reale cosa c’è intorno a noi con relative indicazioni su come arrivare a destinazione e la distanza stimata.

16 Applicazione per smartphone che consente di utilizzare, per esempio, codici a barre, copertine dei libri o immagini come chiavi di ricerca verbali su google.

17 Applicazione per smartphone che consente di riconoscere e visualizzare facilmente i dettagli informativi testuali (titolo canzone, autore, casa discografica) o iconici collegati (copertina disco, video, immagini ecc..) di una canzone, a partire dalla sua melodia.

Page 157: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

forse più opportuno per dimostrare come gli aspetti intertestuali e sincretici delle

AR siano parte integrante delle tecnologie già assimilate nell’immaginario sociale,

quindi per nulla innovative se osservate senza tenere in considerazione le modalità

in cui il prodotto finale (cioè l’immagine risultante dalla fusione delle fonti reali

con quelle virtuali) è stato generato.

Il 1st & Ten fu il primo sistema AR ad essere utilizzato nei broadcasting

televisivi per aumentare di contenuti testuali e visivi utili al pubblico un evento

sportivo trasmesso in diretta, ed è tuttora considerabile come uno dei pochi

esempi concretamente operativo su larga scala mediatica (ancora in uso) e

perfettamente aderente alla definizione scientifica di AR proposta da Azuma

solamente un anno prima in A Survey of Augmented Reality18.

Le immagini virtuali (first-down line, linea del fuorigioco, tempo dei piloti in

una gara, pubblicità ecc...) inserite nel contesto reale (campo di gioco, circuito)

sono accuratamente registrate secondo le tre dimensioni (i segmenti della linea

virtuale calpestati dai giocatori scompaiono così come fanno le linee reali di

demarcazione del campo) e tracciate utilizzando differenti punti di vista

(molteplici telecamere), quindi sono sincronizzate con lo streaming video live

attraverso un leggero delay che consente di eliminare qualsiasi tipo di

problematica relativa alla registrazione.

157

18 Augmented Reality (AR) is a variation of Virtual Environments (VE), or Virtual Reality [...] AR allows the user to see the real world, with virtual object superimposed upon or composited with the real world [...] AR systems that have the following charateristics: 1) Combines real and virtual 2) Interactive in real time 3) Registered in 3-D.

Fig. 32 - A sinistra il sistema 1st & Ten, ideato da Sportvision. La linea gialla è “aggiunta” alle riprese in diretta. A destra un altro esempio di augmented reality nei broadcasting televisivi. Il

cartellone pubblicitario è virtuale.

Page 158: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

Tecnicamente e concettualmente una linea aggiunta su un campo da football

non differisce per esempio dagli effetti speciali dei film. In entrambi i casi gli

elementi “virtuali” interagiscono con altrettanti reali secondo una perfetta

sincronia, creando l’illusione di presenza fisica all’interno della scena e

“ingannando” lo spettatore (o meglio i suoi sensi). Nei film tuttavia questa

“magia” è frutto di un lavoro di post produzione che può essere più o meno lungo

e/o di qualità a seconda dei risultati che si vogliono ottenere. In un sistema AR le

immagini, i testi-oggetti virtuali sono sia perfettamente inseriti nel contesto reale

mediante una generazione automatica, sia in tempo reale quindi fedeli al punto di

vista dell’osservatore (nel caso di 1st & Ten le telecamere posizionate per

riprendere l’evento), sia si comportano esattamente come elementi fisicamente

presente in scena.

L’augmented reality a differenza di altre esperienze può, e deve, essere

soprattutto indirizzata alla generazione di contenuti a livello user o crowd,

implementabili quindi soggettivamente e/o collettivamente. Sotto questi aspetti

molte delle più interessanti applicazioni AR disponibili per smartphone si basano

proprio sulla possibilità di “aumentare” la realtà attraverso contenuti

personalizzati all’interno dell’ambiente circostante, apponendo fisicamente dei

marker (ARcode o QRcode19) agli oggetti, testi e mondi fisici per connetterli

direttamente con i rispettivi virtuali, oppure, così come avviene per esempio in

TagWhat20 , applicare in un dato luogo una tag che lo identifica e lo trasporta in

una nuova dimensione, conferendo all’utente la possibilità di lasciare un

messaggio proprio come su una bacheca tridimensionale.

Sebbene quella di “taggare” sia un’accezione derivata dalle piattaforme

comunicative tipiche del web 2.0 (social network) e quindi non distintivo della

158

19 Abbreviazione inglese di "quick response" (risposta rapida), derivata dal fatto che il codice è stato sviluppato per garantire una veloce decodifica del suo contenuto. E' un codice a barre bidimensionale composto da moduli neri disposti all'interno di uno schema di forma quadrata, impiegato per memorizzare informazioni destinate alla lettura tramite un telefono cellulare o uno smartphone.

20 App che offre la possibilità di elaborare delle mappe personalizzate, basate su proprie fotografie, su cui collocare le più svariate informazioni: testo, immagini, video e link. Dei veri e propri ipertesti fortemente contestualizzati.

Page 159: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

realtà aumentata, implica comunque interessanti sviluppi nel campo di ciò che è

stato definito internet of things21, in cui appunto la fisicità degli oggetti e delle

cose viene collegata con il sapere della Rete. Una rete fatta di cause ed effetti in

cui il dialogo tra soggetti ed oggetti avviene in modo istantaneo, generando così

uno scenario in cui la simulazione non è più tale, non è più una semplice aggiunta

(augmentation)o sottrazione (diminishing) o trasformazione, ossia mediazione

rispetto alla realtà, ma diventa realtà stessa già nel momento in cui è figurata,

immaginata, percepita. Uno scenario in cui il simbolico confluisce nelle things

(cose) che diventano quindi il principale device di comunicazione.

il web non è più un insieme di pagine HTML che descrivono qualcosa. Il web è diventato il mondo stesso e ognuno in questo mondo riflette un' ombra di informazioni22, un set di dati che

vengono catturati e processati in maniera intelligente dai dispositivi, dai sensori, da codici offrendo notevoli opportunità. (O’Reilly & Battelle 2009)

Quindi se definiamo l’internet delle cose come l’estensione naturale della Rete

al mondo degli oggetti e dei luoghi concreti, e indichiamo la realtà aumentata

come uno degli strumenti in grado di connettere tali oggetti e luoghi alla rete,

allora device come gli smartphone, grazie alle loro tecnologie sempre più

sofisticate (GPS, giroscopio, magnetometro, accelerometro, fotocamera rete WiFI,

3G ecc...), possono essere considerati la finestra, o meglio gli occhi e le orecchie,

con la quale possiamo osservare e soprattutto generare il nuovo mondo e i nuovi

modi di pensare.

É interessante notare come la prima esplosione “mediatica” del concetto di AR,

favorita senza dubbio dal rilascio di ARToolKit23 (1999) e successivamente di

159

21 "Internet delle cose" citata per la prima volta da Kevin Ashton, nel 1999.

22 Secondo Tim O’Reilly (2009) ogni persona possiede informazioni che sono come la sua ombra e si riflettono nelle sue caselle e-mail, nei contatti skype, nei post del blog o su facebook, nei cinguettii di Twitter, nelle foto, nei video... In poche parole in ogni aspetto della sua essenza online.

23 Una libreria software open-source che permette al programmatore di sviluppare applicazioni AR, utilizzando un algoritmo di visione per calcolare la reale posizione e orientazione della telecamera relativamente al marker, permettendo così al programmatore di disegnare oggetti virtuali sulla scena reale.

Page 160: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

FLARToolKit24 (2004), sia stata meno penetrante rispetto a quella che è

attualmente in atto, incentivata soprattutto dalla diffusione massiccia degli smart

device. La diffusione di questi dispositivi è iniziata già a partire dal 2009 e non ha

ancora subìto rallentamenti o brusche frenate, anzi secondo le recenti ricerche-

statistiche sta addirittura accelerando: negli Stati uniti oltre il 50% degli

“utilizzatori” di internet in mobilità accede alla rete utilizzando uno smartphone25

(circa 84 milioni), mentre in Italia è appena avvenuto il sorpasso di questi

dispositivi sui cellulari tradizionali (oltre 20 milioni)26.

La loro diffusione massiccia è il simbolo della nuova rivoluzione digitale,

l’ennesimo passo verso la simbiosi sognata da Licklider tra l’uomo e le

tecnologie. Gli smartphone ad oggi sembrano essere il terreno più fertile della

sperimentazione sulle realtà aumentate e sulle loro possibilità interattive tra gli

ambienti, oggetti, testi e gli esseri umani.

Sicuramente uno dei primi step verso l’internet delle cose alla portata di tutto e

tutti.

Il potere di collegare il reale al virtuale, l’attuale al possibile (e viceversa),

tipico delle applicazioni AR, è prevalentemente un atto di potenziamento

informativo e percettivo, non tanto riferito alla realtà in sé, quanto all’esperienza e

ai nuovi modi di interazione che il soggetto acquisisce con essa.

Difatti ciò che viene aumentato grazie alle applicazioni dell’Augmented Reality

non è la realtà in sé, ma piuttosto la percezione che gli utenti hanno del mondo

che li circonda (tramite informazioni virtuali che altrimenti sarebbero state

impossibili da visualizzare attraverso i propri sensi) e le possibilità di interazione

con esso (le informazioni trasmesse dagli oggetti virtuali aiutano gli utenti ad

eseguire le attività del mondo reale). Sono queste le caratteristiche che rendono

l’Augmented Reality veramente interessante, l’esempio specifico della Man-

160

24 Versione Actionscript (v3) di ARToolKit in grado di riconoscere un marker visuale da un'immagine in input e calcolare sia l'orientamento che la posizione della telecamera nel mondo 3D, per poi sovrapporre grafiche virtuali sull'immagine video reale.

25 blog.nielsen.com/nielsenwire/?p=31688

26 www.nielsen.com/it/it/news-insights/comunicati-stampa/2011/continua-a-crescere-la-navigazione-da-mobile-in-italia-.html

Page 161: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

Computer Symbiosis teorizzata da Licklider e della tecnologia immaginata da

Engelbart in grado di potenziare l’intelletto umano.

Si tratta di un processo di augmentation che può avvenire secondo due

modalità: il primo è di tipo qualitativo, ossia avviene tramite l’aggiunta di

contenuti più dettagliati e approfonditi, il secondo è di tipo quantitativo, cioè

semplicemente tramite l’aggiunta di più contenuti.

Per esempio un sistema AR che permette di applicare un marcatore virtuale sul

luogo in cui è parcheggiata la macchina, rappresenta un accrescimento qualitativo

dell’esperienza (Augmented Car Finder), mentre le applicazioni che permettono

di recuperare, a partire da un oggetto, le informazioni legate ad esso (prezzo,

modelli disponibili, produttore ecc...) sono da considerare come augmentation

quantitative, quindi essenzialmente di natura cognitiva.

Il dominio di applicazione di una realtà aumentata in cui il livello di

intensificazione ed estensione, inteso come accrescimento qualitativo

dell’esperienza, tanto elevato quanto necessario,

è sicuramente quello medico. Già agli albori del

concetto di augmented reality iniziarono i primi

interessanti esperimenti sull’effettiva possibilità

di estendere grazie all’AR le capacità dei medici

durante semplici analisi “scopiche” di controllo,

o veri e propri interventi di chirurgia assistita e

microinvasiva.

Uno dei primi sistemi di controllo in ambito

medico venne progettato a partire dal 1992, presso

l’University of Noth Carolina a Chapel Hill. Un gruppo di ricercatori condusse

diverse sessioni di prova con un dispositivo ad ultrasuoni per scansionare il ventre

di una donna incinta. L’obiettivo del progetto era quello di creare un vero e

proprio “3-D stethoscope” che riuscisse a conferire al medico la capacità di

visualizzare tramite un See-Through Head Mounted Display, le immagini

161

Fig. 33 - Esempio di sistema medico per visualizzare in tempo reale le immagini 3D del

feto all’interno del grembo materno.

Page 162: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

tridimensionali in tempo reale del feto (sviluppo e posizione) all’interno del

grembo materno.

Vedere ciò che ad occhio nudo non era possibile osservare e farlo nel modo più

naturale possibile.

Ben diversa invece può essere considerata l’applicazione dell’augmented

reality in situazioni più complesse come gli interventi chirurgici.

Il sistema immaginato a questo scopo prevedeva l’uso di un modello

tridimensionale delle anatomie del paziente (generato attraverso una raccolta di

immagini 3-D, ricavate da risonanza magnetica o sistemi di rilevamento

ecografico), che avrebbe permesso di mappare l’esatta posizione delle formazioni

maligne da rimuovere o analizzare. Il modello, opportunamente combinato in Real

Time con il paziente e con “mockup” di istruzioni, avrebbe guidato la mano del

chirurgo (e/o dell’apprendista) alle corrette operazioni da eseguire.

Indubbiamente un sistema di questo tipo profila scenari decisamente suggestivi

e futuristici, ma la sua concreta realizzazione era (ed è tuttora) considerata di

difficile praticabilità, anche se applicativi AR di simulazione e training per

operazioni chirurgiche, di natura molto simile a quella appena descritta, sono in

realtà in via di sperimentazione (simulatore Canada National Research Council27

e Mini-Virtual Reality Encanced Mannequin for self-directed learning28). Sebbene

questi esempi non siano concretamente attivi, rappresentano comunque l’idea di

AR come strumento in grado di potenziare significativamente le capacità

percettive dell’uomo, quindi di migliorare sensibilmente le sue possibilità di

azione all’interno delle situazioni della vita di tutti i giorni: da quelle lavorative,

162

27 Simulatore neurochirurgico che utilizza l'innovativa tecnologia NRC per ricreare l'atmosfera da sala operatoria, consentendo ai medici di "allenarsi" per prove complesse, come operazioni al cervello, prima di eseguire l'intervento chirurgico vero e proprio.

28 Ambiente digitale di formazione in cui si riproducono, attraverso la sovrapposizione tra elementi reali e digitali, situazioni e azioni complementari a quelle che possono verificarsi nello svolgersi della loro professione medico-sanitaria. Per creare questo contesto immersivo, vengono posizionati sui polsi del personale medico in formazione due marker che permettono la visualizzazione delle azioni, direttamente sul monitor. Contemporaneamente il sistema permette anche il monitoraggio delle azioni (compressioni toraciche e ventilazioni di salvataggio) e dei gesti eseguiti, per avere un riscontro immediato sulle procedure fatte ed una auto-valutazione del lavoro eseguito, consentendo una correzione degli eventuali errori commessi.

Page 163: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

dove sono richiesti interi sistemi dedicati, a quelle ludiche in cui è sufficiente

semplicemente un app da scaricare ed installare sul proprio smartphone.

Oltre a queste possibili augmentation qualitative o quantitative dei contenuti

tipici dei sistemi AR, occorre analizzare un'ulteriore caratteristica già più volte

indicata come elemento chiave nella riuscita di esperienze aumentate del mondo

reale e più in generale degli ambienti che fanno parte del Reality-virtuality

Continuum.

Tale tratto distintivo è legato al fattore “immersione”, cioè la possibilità di

creare simulazioni di ambienti in modo tale che risultino percettivi e reattivi (cioè

in grado di rispondere coerentemente e in modo intelligente ai mutamenti di

postura, punto di vista, orientamento, gestualità ecc...) specificatamente indirizzati

ad uno schema corporeo. Ovviamente il grado di immersione nelle realtà

aumentate è a sua volta legato al tipo di tecnologia utilizzata (difatti Milgram nel

continuum EPM associa direttamente il livello di immersione al dispositivo di

visualizzazione) e alle necessità dell’applicazione

L’esempio più eclatante in merito ad un'immersione pressoché completa di

questo tipo di facilitazioni, tralasciando le centinaia di applicazioni per

smartphone (che per evidenti limiti tecnici sono da considerare come i sistemi

“poveri” dell’augmented reality),è rappresentato dall’utilizzo dei complessi

sistemi AR dedicati in ambito militare.

Diversamente dal dominio medico (che abbiamo visto in precedenza), quello

militare, è sempre stato terreno fertile per la nascita, lo sviluppo e l’affermazione

delle nuove tecnologie. Successe con i computer, con internet, con le Realtà

Virtuali (HMD, simulatori per addestramento ecc...) e naturalmente anche con le

Realtà Aumentate.

L’esercito già nei primi anni '90 utilizzava (e utilizza ancora) display

augmented che presentano al pilota, direttamente sulla visiera o sul vetro della

fusoliera del velivolo, dati ed informazioni che possono essere sia di natura

tecnica (equipaggiamenti disponibili, autonomia carburante, altezza di volo,

inclinazione ecc...) che di tipo operativo, cioè direttamente collegate alla zona in

163

Page 164: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

cui sta agendo in quel momento il pilota (presenza di nemici o alleati, obiettivi,

allarmi etc..).

A partire da questi dispositivi la Tanagram Partner, grazie anche al contributo

del DARPA, sta attualmente sviluppando una tecnologia militare in AR, che se

dovesse rispettare quanto promesso nei prototipi, senza dubbio cambierebbe

completamente gli scenari di guerra per come li conosciamo noi oggi.

L’Intelligent Augmented Reality Model (IARM) è stata presentata nel giugno del

2010 in occasione del meeting-workshop sulle Augmented Reality a Santa Clara,

in California, dal CEO Joseph Juhnke ed è stata accolta con enorme entusiasmo

da tutto l’ambiente. La mission di Tanagram Partner è quella di dotare i soldati di

fanteria di un dispositivo intelligente, in grado di aumentare la percezione degli

ambienti e migliorare lo scambio di informazioni tra le truppe: immerge

completamente i militari nella visione potenziata della realtà che li circonda.

IARM sarà dotato di sensori leggeri e display che raccolgono e forniscono dati

da e per ogni singolo soldato nel campo di battaglia. L’equipaggiamento

tecnologico include un computer, una videocamera a 360 gradi, sensori UV e

infrarossi, telecamere stereoscopiche e goggles display OLED29 trasparenti.

I soldati saranno messi in condizione di comunicare direttamente con la base

operativa e tra di loro, trasmettendo informazioni importanti e utili

all’ottimizzazione delle loro azioni, attraverso l’utilizzo di un linguaggio testuale

o iconico specifico (simboli e colori potrebbero essere utilizzati per indicare la

pericolosità di una determinata zona oppure la presenza di nemici, pericoli,

cecchini lungo un determinato percorso) o attraverso gesti e posture corporee

specifiche.

IARM in poche parole intende migliorare i processi di decision making dei

singoli soldati rispetto agli obiettivi della missione, grazie soprattutto alla

possibilità di “arricchire” collaborativamente in tempo reale di oggetti-testi,

164

29 Dispositivo dall'aspetto di un paio di occhialini, ma con il display in oled situato a lato di una delle lenti. Fornito inoltre di fotocamera frontale che permetterà l'utilizzo di app di AR, mentre i comandi verranno impartiti tramite input cinetico o vocale. L'hardware sarà probabilmente un single core da 1ghz e una quantità di ram tra i 256 e i 512 MB. Inoltre sono dispositivi autonomi, quindi potremo reperire le informazioni di AR direttamente dalla rete.

Page 165: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

informazioni e nuovi significati la mappa dell’ambiente in cui essi agiscono.

Sebbene questo tipo di applicazione sia legato a specifici usi strategici militari,

incarna perfettamente quello che è il concetto di immersività all’interno di un

ambiente aumentato da testualità e possibilità comunicative strettamente connesse

gli uni alle altre. Non è da escludere che nel prossimo futuro strumenti come

questi possano essere utilizzati nella quotidianità e nei rapporti sociali: il progetto

Tanagram prevede infatti di dotare di questi equipaggiamenti anche forze civili,

come pompieri e unità di soccorso.

Un’altra caratteristica essenziale delle applicazioni AR, come per molte altre

tecnologie, è legata alla possibilità dell’utente di generare il proprio testo, di

intervenire non solo sul significato, ma anche a livello del significante,

modificandolo aggiungendo, sottraendo collegando e scollegando elementi da

esso. Una tendenza questa della ricombinazione degli elementi che è uno dei tratti

forti della cultura digitale, ma rappresenta anche il fondamento su cui si basa in

generale tutta l’attività culturale dell’uomo. In particolare nelle applicazioni di

augmented reality non si tratta tanto di creare il proprio testo attraverso un

165

Fig. 34 - Illustrazioni del dispositivo progettato dalla Tanagram Partners.

Page 166: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

intervento diretto, ma piuttosto fare in modo che il testo si crei da sé, secondo un

processo generativo che si avvale della comunicazione come principale forza

trainante e trasformatrice che avviene come risposta a determinate e specifiche

sollecitazioni semantiche e gestuali degli utenti.

La realtà aumentata può essere intesa come modi diversi di percepire la realtà,

tanti quanti sono i layer di contenuti-testi che sono stati generati, siano essi frutto

di processi e mappe autogenerative che ricreano

il percorso esperienziale dell’utente in base a ciò

di cui ha bisogno oppure di precise

augmentation sviluppate collaborativamente o

singolarmente per qualsiasi finalità specifica

(marketing, advertising, lettura interattiva,

istruzione, ecc...). Ogni livello rappresenta un

particolare aspetto di ciò che si osserva, un

punto di vista differente sul mondo e il suo

comportamento. Ciò rende l’AR uno strumento

particolarmente adatto a riappropriarsi dei propri

spazi, soprattutto nei contesti urbani, ormai da

tempo deturpati dalle pubblicità, che possono

essere rimodellati, arricchiti o depotenziati.

Il concetto di realtà aumentata per esempio può

portare alla costruzione di edifici come l’N

Building a Tachikava (Tokio), grazie alla

collabrazione tra il gruppo Teradadesign e

Qosmo. Si tratta di un palazzo commerciale

intelligente che nella sua unica facciata visibile (rivolta verso i passaggi pedonali)

integra un sistema di controllo climatico e gestione della luce solare, con uno

design neutro (privo di insegne luminose, cartelloni pubblicitari ecc...) e un

sistema di comunicazione basato appunto sull’augmented reality.

166

Fig. 35 - N’building

Page 167: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

In realtà tutta la facciata dell’edificio è una gigantesca composizione di

“finestre” QRcode, che hanno la funzione di mascherare alla vista tutto ciò che

riguarda il contenuto interno dell’edificio, spogliandolo di fatti di qualsiasi tipo di

espressività. Tuttavia utilizzando un dispositivo in grado di interpretare i disegni

dei marker, il palazzo comunica con l’esterno mostrando tutta la sua vitalità, si

scoprono quindi promozioni, saldi, informazioni, ma anche messaggi, tweet e

possibilità di interazione con l’edificio stesso o chi c’è al suo interno.

L’N building è il risultato della sovrapposizione di più layer: uno fisico

(materiale con cui è costruito), uno tecnologico (controllo climatico) e uno

appunto informativo-interattivo virtuale (realtà aumentata). La sua stretta

interconnessione tra il mondo reale e quello informatico (virtuale) lo rende un

concreto (ed interessante) esempio di internet delle cose applicata ad un edificio,

ma ciò che forse è ancora più interessante è rappresentato dal fatto che: da un lato

gli utenti possono sperimentare attivamente l’aumento delle capacità sensoriali

osservando qualcosa che non è visibile ad occhio nudo, dall’altro l’ambiente fisico

urbano viene privato di tutte quelle informazioni accessorie che hanno il potere di

saturare le nostre capacità cognitive (pubblicità, promozioni, etc...), trasferendole

nella virtualità.

Riappropriarsi degli spazi urbani è anche l’obiettivo di molti artisti o gruppi

collettivi che sfruttano proprio l’AR per “correggere” la realtà inquinata

visivamente dalle campagne di advertising.

While other media outlets such as television and the Internet have founds ways to provide users with the ability to filter their informational intake, public space remains the elusive frontier in

which commercial interests govern the discourse In an effort to highlight the individual’s lack of autonomy in this arena [...] have begun to explore the potential of augmented reality to

reappropriate outdoor commercial singage in order to transform, filter, and democratize the messaging in public space [...] (gruppo anti-advertising Public Ad Campaign)

Utilizzando uno dei più popolari browser AR, Junaio, il gruppo Public ad

Campaign ha creato un canale denominato AR | AD Takeover in cui alcune

campagne pubblicitarie vengono utilizzate come marker per essere riconosciute e

167

Page 168: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

sostituite in realtà aumentata con opere d’arte. L’intento, come esplicato nel

manifesto, è proprio quello di riappropriarsi degli spazi urbani, monopolizzati dai

brand commerciali, quindi della realtà in modo tale da democratizzarla, filtrarla ed

eventualmente rimodellarla secondo nuove modalità. Il consumatore si riappropria

del suo territorio e torna a percepire il mondo per com’è davvero, sottraendo da

esso i miti e falsi miti indotti dalla pubblicità.

Se da un lato il futuro degli spazi urbani e delle AR sembra indicare la via della

purificazione, dall’altro l’augmented reality è sicuramente considerata la nuova

frontiera della pubblicità, se possibile, ancora più persistente e per certi versi

anche più “pericolosa”, in quanto fortemente incentrata sulla singola persona, sui

suoi gusti, georeferenziata e sempre più presente, coinvolgente e persuasiva.

In pratica un terreno ancora vergine tutto da conquistare.

I concept video di Keiichi Matsuda, Augmented (Hyper) Reality: Domestic

Robocop e Augmented City sono proprio questa realtà: mondi di pubblicità che

invadono tutti i nostri spazi virtuali (quasi) fino a soffocarci, tanto da doversi

dotare di schermi “respingenti” anche solo per camminare in città.

É evidente che gli scenari di Matsuda siano ben lontani dall’essere

possibilmente attuabili, ma manifestano quello che è il concetto chiave: la realtà

aumentata è un mondo di contenuti significanti e significati, siano essi testuali o

multimediali, che instaurano legami sempre più profondi e inscindibili con il

nostro sé, man mano che le tecnologie-dispositivi di visualizzazione e delle

interfacce divengono sempre più human freindly e trasparenti, nonché socialmente

accettabili.

Il prototipo del Sixth Sense, sviluppato da Pranav Mistry (come progetto di

dottorato di ricerca in Fluid Interfaces al Media Lab del MIT) e presentato al TED

nel novembre del 2009, rappresenta proprio questa tendenza.

É un anteprima di ciò che potrebbe riservare il futuro.

Un futuro a dire la verità non troppo lontano.

Il Sixth Sense è un dispositivo di interfaccia gestuale wearable (indossabile)

che “aumenta” il mondo fisico di informazioni digitali e consente alle persone di

168

Page 169: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

utilizzare movimenti e gesture naturali della mano per interagire con le

informazioni e i contenuti virtuali.

Il prototipo del dispositivo di Mistry è composto da: un proiettore

miniaturizzato (pico projector), uno specchio, una mini camera e un dispositivo di

mobile computing tascabile.

Le immagini, informazioni e i testi-contenuti sono proiettate su enabling

surfaces utilizzate come interfaccia, ossia qualsiasi parete o oggetto fisico attorno

al soggetto che indossa il dispositivo. La mini camera riconosce gli oggetti fisici e

traccia i gesti dell’utente attraverso l’utilizzo di fiducials colorati posti sulla punta

delle dita. I movimenti di questi ultimi vengono elaborati ed interpretati dal

software e fungono da istruzioni di interazione per le interfacce delle applicazioni

previste. Il numero massimo di fiducials, quindi di gestures multitouch, è

ovviamente limitato al numero delle dita. Il sistema Sixth Sense implementa

diverse applicazioni che ne dimostrano la vitalità, l’utilità e la flessibilità. Per

esempio l'app delle mappe consente all’utente di navigare in una mappa

169

Fig. 36 - Pranav Mistry alla presentazione del suo dispositivo augmented reality indossabile, Sixth Sense.

Page 170: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

visualizzata su una superficie vicina con i semplici gesti delle mani, consentendo,

similmente a quanto accade sui dispositivi multitouch (smartphone, tablet), di

interagire con essa ingrandendola, rimpicciolendola o ruotandola. Sixth Sense

inoltre permette di disegnare sulle superfici e di controllare l’interfaccia del

sistema, attraverso l’utilizzo di particolari gesture o tramite il riconoscimento di

simboli disegnati con le dita nello spazio di fronte al raggio d’azione della

telecamera. Per esempio disegnando una lente di ingrandimento sarà attivata

l’applicazione delle mappe, disegnando il simbolo “@“ sarà possibile controllare

la posta. Il sistema Sixth Sense aumenta gli oggetti fisici nella realtà con la quale

l’utente interagisce, proiettando sopra di essi informazioni che li riguardano. Per

esempio un giornale cartaceo può mostrare direttamente video, notizie live o

informazioni dinamiche attinte dalla rete, oppure disegnando virtualmente un

cerchio sul polso permette di visualizzare la proiezione sul proprio braccio di un

orologio analogico. In poche parole il Sixth Sense è veramente un sesto senso, o

meglio, è un potenziamento di tutti i sensi umani che grazie alle tecnologie

riescono a manifestare e ad interagire con oggetti, spazi, ambienti arricchiti di

informazioni, di nuovi contenuti e significati. In un futuro non troppo lontano

quindi potrà essere possibile, incontrando una persona di nostra conoscenza,

vedere proiettate sul suo corpo o intorno ad esso tutte le informazioni che la

riguardano, tutti i dati della sua vita online e offline che ha deciso di condividere.

A questo punto della nostra analisi è giusto chiedersi se l’augmented reality è

destinata a durare nel tempo, quindi affermarsi come tecnologia stabile, oppure se

rappresenta una moda passeggera, “un mito del presente” che terrorizza e attira

allo stesso tempo, e che senza il giusto mix di contenuti e utilità potrebbe essere

un soltanto ennesimo hype tecnologico destinato a scomparire.

L’hype cycle30 diffuso da Gartner nel luglio del 2012 colloca la realtà

aumentata al cosiddetto “Peak of inflated expectations”, ossia quella fase del ciclo

di esposizione mediatica di un emergente tecnologia in cui si iniziano a produrre

170

30 Letteralmente significa "il ciclo di eccitazione", è il modello di analisi per verificare l’esposizione mediatica rispetto all’introduzione di una qualsiasi nuova tecnologia. Messo appunto dalla società di consulenza tecnologica americana Gartner.

Page 171: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

articoli, commenti ed analisi generalmente positivi che attivano aspettative

“gonfiate” rispetto a quelle reali. Ciò indica anche una possibilità di adozione

definitiva entro i prossimi 5 anni.

Nella stessa analisi condotta nel 2008 (figura 38) l’AR veniva considerata al

primo stadio del ciclo (Technology trigger, sostanzialmente l’inizio di un lieve

interesse mediatico), con possibile adozione oltre i 10 anni. Solamente l’anno

successivo (2009), in contemporanea con l’esplosione degli smartphone, l’AR

incomincia a scalare l’hype cycle e la sua adozione passa da più di 10 anni a meno

di 10 (tra i 5 e i 10 per l’esattezza).

Da un punto di vista dello sviluppo, i dispositivi e le applicazioni AR non solo,

come abbiamo visto nei precedenti paragrafi, hanno tutte le caratteristiche

tecnologiche e sociali (dispositivi portatili di visualizzazione, affidabilità,

semplicità e immediatezza d’uso, utilità pratica, possibilità comunicative tutte da

esplorare) per poter essere largamente utilizzati, ma implicano anche un impatto

171

Fig. 37 - L’hype cycle delle reltà aumentate nel 2012 conferma la tendenza di crescita rispetto ai precedenti anni.

Page 172: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

172

Fig. 38 - Confronto dell’hype cycle delle realtà aumentate redatto da Gartner tra il 2008 e il 2011.

Page 173: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

culturale dirompente destinato a cambiare, o meglio “potenziare”, i rapporti tra

significanti e significati, i linguaggi e le modalità con cui è possibile interagire

con il mondo che ci circonda, così come i modi con cui possiamo comunicare ed

interagire creando nuovi testi e nuovi contenuti.

Nuovi mondi.

173

Page 174: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

174

Page 175: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

175

Page 176: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

176

Page 177: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

CAPITOLO QUARTO:Il progetto we.are.able: social wearable augmented reality

1. Introduzione

“L’uomo è un animale sociale e le persone non sono fatte per vivere da sole”

Così diceva Seneca nei suoi testi qualche millennio fa. Niente di più vero.

L’uomo ha il bisogno innato di condividere e socializzare, è nella sua natura. Nel

mondo siamo 7.080.360.000 individui, ci scambiamo in media 2250 parole ogni

giorno a 7,4 altre persone, inviamo 294 miliardi di email1, 19 miliardi di sms ed

oltre 250 milioni di tweet.

Eppure ci sentiamo soli.

Quasi un terzo della popolazione mondiale (circa 2 miliardi di persone) “vive”

su web2 e, a quanto pare, è sempre alla costante ricerca di amici (gli account attivi

su facebook sono quasi 1 miliardo3) con cui socializzare, scambiare opinioni,

condividere esperienze. Se da un lato questo non fa che confermare lo status della

natura umana, dedotto già dal sopra citato Seneca, dall’altro mi ha fatto riflettere

su quanto effettivamente sia paradossale al tempo dei Social Network “parlare” di

amici ed amicizie.

Le persone tendenzialmente cercano di stringere amicizia con chi ha già molti

amici, piuttosto che con chi ne ha pochi. É il cosiddetto paradosso dell’amicizia4

che vale tanto nella vita reale quanto in quella di Facebook & Co5, ma

ovviamente, date le potenzialità dei mezzi della rete, qui raggiunge la sua

massima espressione.

177

1 www.pandemia.info/2011/01/14/numeri-di-internet-nel-mondo.html

2 www.webnews.it/2012/01/18/web-2-miliardi-persone/?ref=post

3 www.pianetatech.it/internet/social-network/facebook-1-miliardo-utenti-iscritti-agosto-2012-grafico-foto.html?cp

4 Fenomeno sociale osservato dal sociologo Scott L. Feld già a partire dal 1991.

5 Inteso come i social network in generale.

Page 178: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

Per avere tanti “amici” occorre essere “socialmente attivi”, muoversi

all’interno del Social network, farsi conoscere, dimostrare la propria esistenza,

dedicando (tanto) tempo e (tanta) fatica alla costruzione del profilo che meglio ci

rappresenta.

Ciò porta, con il passare di intere giornate online a fissare uno schermo isolati

nella propria stanza, a trascurare o comunque modificare profondamente i rapporti

sociali della vita reale. É possibile avere fino a 5000 amici su facebook quando in

realtà studiosi ed esperti del comportamento e della psicologia umana sostengono

che il numero di relazioni (degne di essere chiamate tali) massime che un

individuo può gestire e coltivare, assecondando le innate esigenze del nostro Io,

sono 150. Molti quindi hanno parecchi più “amici” (o ambiscono ad averne di più)

sulla propria pagina facebook di quanti ne avrebbero mai potuti avere nella vita

reale, e per gestire al meglio la situazione rinunciano magari ad uscire con gli

amici di infanzia, quelli con la quale hanno fatto le prime esperienze di vita, a

studiare, a mangiare, a dormire etc.

Con i Social Network il concetto di amico (dal lat. amicus, da amare, "amare,

voler bene"6) è pressoché stravolto, si diventa amici con una richiesta (una

notifica ricevuta sullo schermo) e si accetta con un semplice click.

Quindi è ribaltato anche il processo di costruzione di un amicizia. Nella vita di

tutti i giorni prima ci si conosce e dopo, magari, si diventa amici, online invece

accade esattamente il contrario: prima diventiamo amici e dopo, magari, ci

conosciamo. In questo modo i contatti si popolano di persone “amiche” che mai

incontreremo, e che forse in contesti reali non ci saremmo mai nemmeno

immaginati di frequentare.

Stringere amicizie non è mai stato così semplice.

Tutte le “difficoltà” tipiche dell’incontro face to face sono azzerate dalla

distanza e dalla mediazione dello schermo che diventa il rifugio dell’esperienza.

Così come è facile stringere amicizie lo è altrettanto condividere.

178

6 Dal vocabolario Treccani

Page 179: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

La possibilità di condividere i propri stati d’animo, le esperienze quotidiane, i

desideri, la propria vita, in poche parole tutto, è l’altro aspetto considerato

“interessante” dei Social Network.

Tutti condividono qualcosa. Chi più, chi meno ossessivamente.

La costruzione della propria persona online passa proprio da questa

condivisione che contribuisce enormemente a renderci socialmente attivi

all’interno del network. Molto di ciò che si condivide volontariamente con la

nostra cerchia di amici o con tutta la Rete sono situazioni private (foto, immagini,

video, interessi, storie, relazioni etc.), esposte al giudizio e ai commenti nella

speranza di accrescere la propria popolarità o con il semplice obiettivo di

mostrarsi in una sorta di follia collettiva egocentrica tendente al voyeurismo.

2. Motivazioni e obiettivi del progetto

A partire da queste personali considerazioni sui Social Network e sulle

modalità con cui essi agiscono sulla natura umana, ho incominciato a sviluppare

un’idea di un progetto che avrebbe dovuto in qualche modo evidenziare, o meglio

smascherare, i paradossi sociali implicati nell’utilizzo di questi nuovi e potenti

strumenti.

Gli obiettivi del progetto mi sono apparsi fin da subito molto chiari. In primo

luogo, avrebbe dovuto riportare la socializzazione dalla “cameretta” alla “strada”,

da facebook (e i vari social) al dialogo faccia a faccia, da un luogo (ad oggi)

considerato sicuro ad uno estraneo seppur più consono alla natura umana.

Secondariamente avrebbe anche dovuto enfatizzare il concetto della

“condivisione”, portandolo all’estremo grado possibile, ossia ad una sua

espressione automatizzata, incontrollabile e continuativa, nonché involontaria.

Ma come? E con che mezzi?

Dati gli obiettivi, occorreva ragionare sulle modalità con cui questi si sarebbero

concretamente realizzati. Una delle prime idee, seppur dai contorni molto sfumati

ed evanescenti, focalizzò quella che sarebbe stata la strada che andava percorsa:

179

Page 180: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

ossia si trattava di un dispositivo, o meglio una serie di dispositivi wearable7 che

sarebbero stati in grado di monitorare costantemente l’utente nelle sue azioni, ma

soprattutto nelle sue emozioni quotidiane, e che le avrebbero automaticamente

condivise sulle varie piattaforme sociali a cui l’utente è iscritto.

Il sistema quindi avrebbe agito in background, ossia “silenziosamente” ed

“invisibilmente” agli occhi dell’utente che lo indossa, interpretando le sue

emozioni e condividendole con gli altri loggati allo stesso modo.

A partire da questa premessa è possibile specificare alcuni concetti chiave del

progetto.

Il concetto di login, in primis, inteso come presenza all’interno della rete, da

atto virtuale, diventa realmente legato alla fisicità del luogo in cui agisce l’utente

stesso. In poche parole è indossando il dispositivo e agendo negli spazi e nei

tempi della quotidianità della vita reale (nelle strade, nei supermercati etc.) che la

“partecipazione” social dell’individuo risulta possibile. Il processo di condivisione

informazioni e status personali, ricerca amici, comunicazione e rappresentazione

del Sé, grazie a questi “wearables”, viene di fatto (ri)applicato nella vita reale, e

l’interazione tra le persone viene liberata dalla mediazione dello schermo e della

tastiera, ritornando ad essere fisica e diretta. Face to face.

L’immagine mentale che mi è apparsa era quella di persone che camminano per

le strade indossando abiti ed accessori apparentemente “normali”, ma che hanno il

“potere” di “capire” i loro sentimenti, le emozioni, gli stati d’animo e quelli

fisiologici, ma anche di monitorare le loro azioni e le informazioni personali,

interpretare questi dati e infine condividerli in un network. Questa rete di

contenuti è in realtà il luogo stesso in cui gli individui si muovono fisicamente e

osservano gli altri. Infatti, grazie ad interfacce di visualizzazione gli utenti loggati

al sistema (cioè quelli che indossano i dispostivi) possono vedere manifestarsi lo

status (ossia tutte ciò che i wearables decidono di condividere) delle altre persone,

e in base a quanto percepito decidere se interagire o meno.

180

7 Dispositivi indossabili

Page 181: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

L’intero sistema vuole essere un mezzo per riportare gli incontri, il diventare

“amici”, lo scambio di informazioni, la comunicazione, le emozioni, nuovamente

nelle “strade” ossia in una dimensione reale. Osservare direttamente una persona e

“percepire” attraverso il network ciò che prova in quel preciso istante è ben

diverso dal leggerlo sul suo profilo facebook standosene seduti davanti allo

schermo. Quell’emozione che sta provando è vera ed è fisicamente visibile

attraverso i suoi comportamenti, quindi, per esempio, se è triste possiamo andare a

consolarla, se è stanca possiamo aiutarla, se vediamo che ha le stesse nostre

passioni possiamo parlarci e magari diventare amici, e così via.

Ciò su cui bisognava lavorare quindi era sostanzialmente una modalità di

integrazione tra i concetti di amicizia e condivisione dei Social Network, il

physical computing8 e una di rappresentazione di queste informazioni in real time

direttamente collegata con il luogo fisico in cui l’utente interagisce. L’augmented

reality mi sembrò il link ideale tra lo spazio dei contenuti social e quelli materiali.

181

8 Physical computing, nel senso più ampio, significa costruire sistemi interattivi fisici attraverso l'uso di software e hardware in grado di rilevare e rispondere al mondo analogico.

Fig. 39 - Illustrazione del concept Weareable

Page 182: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

Rispetto alla premessa sull’amicizia e l’aggiunta di amici al profilo dei Social

Network, questo sistema rappresenta un ritorno al suo significato originale. Si

diventa amici, non perché me lo chiedi tramite un click così come hai fatto con

altre migliaia di persone pseudo sconosciute, e soprattutto non lo fai perché vuoi

vedere le ultime foto che ho inserito, ma semplicemente lo fai perché lo desideri

dato che si hanno esperienze, emozioni e situazioni in comune, e che sono

manifestate anche senza il dialogo con la presenza faccia a faccia. Si diventa

amici e ci si scambia informazioni semplicemente abbracciandosi o stringendosi

la mano.

L’obiettivo del progetto quindi può essere sintetizzato nella volontà di creare

un emotional physical network, ossia un social network differente da qualsiasi

altro attualmente disponibile, che si svolge interamente a partire dalla fisicità delle

persone (non dalla loro presenza online, bensì da sé stessi) e dalle loro emozioni

scaturite nella quotidianità del reale.

Ho deciso, dopo molti ragionamenti, di chiamare il progetto “we.are.able”. Un

“gioco” di assonanza con il termine inglese wearable (indossabile) e il suo

significato in italiano, che vuol dire letteralmente “siamo in grado”.

Siamo in grado... è un monito. Un incentivo a guardare ai rapporti sociali con

positività e speranza. “Siamo in grado” di comunicare, di condividere, di esserci

vicini, di litigare, di emozionarci. Siamo in grado di fare ciò a distanza, grazie alla

rete, ma forse dobbiamo riabituarci a farlo nella vicinanza e nel quotidiano, dove

agiscono le persona(lità) vere. We.are.able vuole essere proprio questo ri abituarsi,

ma vuole anche convincere le persone che è possibile fare qualsiasi cosa la nostra

mente sia, appunto, in grado di immaginare.

3. Descrizione del progetto we.are.able

Dopo aver analizzato le motivazioni e gli obiettivi del progetto, in questa

sezione saranno formalizzate brevemente le caratteristiche tecniche, tecnologiche

e teoriche di ciò che è il sistema we.are.able.

182

Page 183: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

Il sistema we.are.able è composto da un hardware e un software appositamente

sviluppati e che si interfacciano a qualsiasi smartphone.

La parte hardware del progetto we.are.able consiste in un dispositivo

indossabile intelligente (un cappello, una maglietta, un paio di scarpe etc.), che

attraverso l’utilizzo di appositi sensori strategicamente distribuiti, gestiti da un

microcontroller, è in grado di rilevare in tempo reale i biofeedback dell’utente e di

predisporli per l’analisi e la loro interpretazione.

Il lato software si occupa appunto della lettura ed elaborazione dei dati

acquisiti dai sensori, nonché della loro sintetizzazione e categorizzazione in

emozioni ben precise.

Il programma inoltre aggiorna lo status dell’utente sul Social Network con

informazioni-emozioni elaborate, rendendole così visibili agli altri.

La possibilità di interfacciare questo sistema ai comuni smartphone è duplice:

da un lato consente di sfruttarne le tecnologie e sensori integrati in essi (GPS,

magnetometro, accelerometro, giroscopio, videocamera, Wifi, Rete Mobile, etc.),

semplificando così l’hardware necessario,

dall’altra può essere utilizzato come dispositivo di visualizzazione AR degli

status condivisi.

Uno degli aspetti chiave dell’intero progetto può sicuramente essere riscontrato

nella capacità di rilevare e riconoscere automaticamente le emozioni

dell’individuo che indossa fisicamente il dispositivo.

A tal proposito mi è stato di fondamentale importanza lo studio, seppur

generico e non di certo approfondito, di alcune teorie e tecniche utilizzate in

ambito medico per capire e monitorare l’attività biofisica di una persona.

La teoria polivagale di Stephen Porges9 rappresenta sicuramente il punto di

partenza della mia ricerca in questo campo, a me particolarmente sconosciuto.

183

9 E' un Professore di Psichiatria e Ingegneria Biomedica e Direttore del Centro “Brain-Body” presso la University of Illinois di Chicago. E’ il primo Presidente della Federazione delle Scienze Comportamentali, Psicologiche e Cognitive e della Società per la Ricerca Psicofisiologica. Il Professor Porges ha pubblicato circa 200 articoli analizzati da gruppi di esperti ed è l’autore di “The Polyvagal Theory: Neurophysiological Foundations of Emotions, Attachment, Communication, and Self-Regulation” (Norton, 2011).

Page 184: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

Il cervello è stato da sempre considerato la sede della razionalità e del pensiero,

così come il cuore quella delle emozioni, cioè di quei pensieri non quantificabili e

analizzabili scientificamente.

Questa credenza è stata smentita proprio dagli esperimenti e studi condotti da

Porges, espressi nella sua teoria (1995), il quale dimostrò l’effettiva esistenza di

una forte interconnessione tra le emozioni e il battito cardiaco. In particolare notò

che ad influenzare le nostre relazioni sociali è difatti il cambio di frequenza

cardiaca, cioè il cosiddetto HRV (Heart Rate Variability), un parametro che regola

la capacità di prendere decisioni e gestire o controllare stress ed emozioni di varia

natura10. La frequenza cardiaca, o Heart Rate (HR), può essere definita come il

numero medio di battiti al minuto, in quanto il tempo che intercorre tra un battito

e l’altro non è mai costante, ma cambia in continuazione. La Heart Rate

Variability è appunto questa naturale variabilità della HR ed è intimamente legata

all'espressione corporea delle emozioni (ansia, stress, rabbia, rilassamento,

pensieri, sorpresa, gioia etc.). Basti pensare ad alcuni momenti del quotidiano in

cui il battito aumenta per uno stato di eccitazione o in seguito ad uno shock. La

classica situazione da "mi hai fatto prendere un colpo!!!".

Negli ultimi anni, questa abilità di osservare il battito cardiaco è diventata una

specie di porta d'ingresso per considerare i molti degli aspetti psicofisiologici e

osservare così direttamente, come il sistema nervoso regola appunto il nostro

corpo. L’accelerare o il diminuire del battito cardiaco, quindi il variare della

frequenza, è una risposta agli stimoli che provengono dall’esterno o dal nostro

organismo stesso. Queste regolazioni che tendono a garantire il necessario

equilibrio tra flessibilità e stabilità sono date, secondo la teoria di Porges, dal

nervo vago, un nervo che è presente solo nei mammiferi e che nel tempo si è

evoluto fino a diventare il “mediatore” dell’innervazione del sistema nervoso

autonomo del cuore.

Lo studio della relazione tra frequenza cardiaca, sua variazione nel tempo, il

sistema nervoso e le emozioni ha dimostrato, attraverso modelli ben precisi, che

184

10 www.blitzquotidiano.it/societa/psicologia-cuore-hrv-polivagale-porges-584584/

Page 185: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

negli stati di stress, ansia, rabbia e tristezza la variazione (HRV) tende ad essere

disordinata e caotica, viceversa in stati emotivi positivi, come l'amore e la

gratitudine, tende ad essere invece ordinata e ritmica11.

A partire da questa considerazione, che reputo assolutamente fondamentale ai

fini del progetto we.are.able, è possibile quindi, teoricamente, monitorando

l’individuo attraverso un sensore HRV, riconoscere i suoi stati emotivi seppur a

caratteri estremamente generici.

Ciò è sicuramente un passo teorico importante.

Ma come è possibile misurare l’HRV (ovviamente per scopi non clinici) ?

Premesso che questo tipo di misurazioni non sono particolarmente complesse e

non richiedono hardware sofisticati da gestire, risultano tuttavia non sempre

precise e forse non troppo affidabili, anche se questo in realtà dipende molto dalla

qualità e tipologia del sensore utilizzato. In rete esistono numerosi progetti, più o

meno “domestici”, di sensori HRV do it yourself (fatti in casa appunto) che

possono essere facilmente replicati con poche componenti elettroniche di base e

tanta buona volontà. Il più interessante di tutti, forse perché Open Source e tra

tutti quelli che ho avuto modo di osservare anche il meno “fai da te”, è senza

185

11 www.drmueller-healthpsychology.com/disorders_heartcoherence.html

Fig. 40 - Grafico che rappresenta le differenze della frequenza cardiaca tra le emozioni negative e quelle positive.

Page 186: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

dubbio il Pulse Sensor12, sviluppato da Joel Murphy and Yury Gitman, che oltre ad

essere plug and play e compatibile con arduino, è attualmente disponibile

all’acquisto (circa 20$) in versioni da 5 o 3 volt.

Per la fase pratica del mio progetto ho deciso

di utilizzarlo nella sua versione da 3v. Ad ogni

modo il principio di funzionamento di tutti i

sensori HRV è similare: un sensore

Photoplethysmograph (fotopletismografico),

ossia un mini-sistema fatto da un’emittente

luminosa infrarossi, un fotodiodo ed un

amplificatore di segnale, che viene applicato ad

un dito. Tale sensore funziona attraverso l’emissione e la captazione di luce

infrarossa, che è assorbita nel sangue. Il sensore rileva le variazioni cicliche del

tono pressorio dei capillari delle dita, che rappresentano fedelmente il battito

cardiaco.13 In pratica vengono misurate le pulsazioni dei capillari, il loro

ristringersi ed ingrossarsi è appunto causato dal battito cardiaco.

Un altro elemento importante della teoria di Porges, che è strettamente legato

al mio progetto è quello relativo al prevalere, per gli esseri umani e più in generale

per tutti i mammiferi, delle esigenze sociali, che non solo hanno una funzione

relazionale, ma anche appunto di regolazione psicofisiologica. Secondo Porges la

nostra propensione alle relazioni sociali è strettamente funzionale alla nostra

necessità di regolare, attraverso i contatti e la condivisione, i nostri parametri fisici

e psicologici. Fondamentalmente infatti noi creiamo relazioni sociali che hanno lo

scopo di farci sentire sicuri e di mantenere il nostro benessere psicofisico14.

Le interazioni sociali quindi, grazie al grado di intimità, affetti positivi,

sicurezza che offrono, non solo ci forniscono una funzione emotiva, ma

soprattutto una funzione di regolazione del nostro sistema fisico, mediato

186

12 pulsesensor.com/

13 www.elemaya.com/XHeartvar.htm

14 www.bioenergeticaesocieta.it/212__La_teoria_polivagale_di_Stephen_Porges

Fig. 41 - Pulse Sensor

Page 187: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

attraverso le risposte del nervo vago. Se le relazioni sociali tendono a non essere

appropriate per la nostra situazione fisiologica infatti tendono a diventare fonte di

stress, rabbia e frustrazione.

Amicizia e interazioni sociali quindi possono contribuire al diretto

miglioramento oltre che dello stato emotivo, anche di quello della salute.

In base a questa premessa, “il ritorno” alle interazioni face to face, obiettivo

principale del mio progetto, assume un valore ancor più grande poiché

strettamente collegato all’espressione delle nostre emozioni, ossia alla variazione

di frequenza del battito cardiaco e quindi al nostro benessere e alla nostra salute.

Oltre all’HRV un altro parametro biofisico di fondamentale importanza per

quanto riguarda l’analisi degli stati emotivi, è l’attività elettodermica (EDA),

meglio conosciuta come EDR (Electrodermal Response) o GSR (Galvanic Skin

response). L’EDA rileva il potenziale di eccitazione delle ghiandole sudoripare,

ossia l’attività conduttiva della pelle, per misurare e analizzare lo stato di

attivazione di un soggetto (arousal). La valutazione di questo particolare stato,

detto anche di vigilanza o di allerta, viene utilizzata in psicofisiologia come indice

delle risposte di orientamento e di difesa degli stati emozionali conseguenti, tra

cui l’ansia e le fobie. L’importanza di questo tipo di misurazioni è relativa al fatto

che un individuo mostra uno stato di attivazione diverso a seconda della

percezione che ha della situazione in cui si trova.

Ciò comporta quindi una diretta relazione tra l’attività simpatica, l’attivazione

emozionale e la resistenza al passaggio di corrente attraverso il derma. Proprio a

causa di questa “risposta” della pelle e del tessuto muscolare agli stimoli esterni

ed interni, la conduttanza varia nell’ordine di parecchi microsiemens15, quindi

risulta facilmente misurabile attraverso elettrodi posti sul palmo della mano o

sulle dita. Se correttamente tarato, un dispositivo di questo tipo, seppur

rudimentale, è in grado di rilevare le sottili differenze e risposte cutanee prodotte

dagli stati emotivi come paura, rabbia, stati di allarme, impulsi sessuali etc.

187

15 Il siemens (SI) è l’unità di misura della conduttanza elettrica.

Page 188: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

Anche in questo caso la rete è piena di esempi e prototipi di Galvanic Skin

Response sensor interfacciabili facilmente con arduino e dalle dimensioni

compatte. Tra i più interessanti c’è il progetto di Anna Dumitriu and Tom Keene e

Alex May, realizzato al Biosensing and

Networked Performance Workshop tenuto ad

Istanbul nel settembre del 2011, e quello di

Sean M. Montgomery and Ira M. Laefsky

apparso sulla rivista Make n°26 denominato

“The Truth Mater16”.

L’aspetto interessante del primo GSR sensor è

dato dalle modalità con cui vengono gestiti gli

input e soprattutto gli output. Sfrutta le

potenzialità di arduino per generare una

mappatura di toni audio dei valori della resistenza elettrica della pelle, ottenuti

tramite due semplici elettrodi a contatto con la punta delle dita. Tale output

sonoro, tramite un semplice cavo audio Jack da 3.5mm, può essere inviato ad uno

smartphone iPhone/Android e quindi elaborato e visualizzato.

The Truth Mater allo stesso modo è un sensore GSR molto interessante,

soprattutto perché non è particolarmente

complesso da assemblare. E' possibile infatti

acquistare presso il sito makershed.com (circa

25$) il kit già predisposto con tutte le

componenti elettroniche necessarie e inoltre

sembra garantire ottimi risultati, almeno per

quanto riguarda le finalità del mio progetto.

HRV e GSR sono dunque parametri biofisici di

fondamentale importanza per l’acquisizione di informazioni relative agli stati

emozionali dell’individuo. É evidente che attraverso la sola analisi di questi dati

risulta impossibile ed alquanto improbabile poter riuscire a categorizzare e

188

16 makeprojects.com/Project/The-Truth-Meter/703/1#.UE70mb8-FZf

Fig. 42 - Il progetti di Anna Dumitriu and Tom Keene e Alex May

http://theanthillsocial.co.uk/projects/biosensing

Fig. 43 - The Truth Mater

Page 189: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

definire con precisione le infinite sfaccettature che compongono le sensazioni

umane. Difatti situazioni di forte stress, ansia o agitazione presentano parametri di

variazione della frequenza cardiaca e della conduttanza della pelle molto simili,

inoltre tali biofeedback possono essere sensibilmente differenti a seconda

dell’individuo soggetto all’analisi.

Non esiste quindi un modello definitivo delle emozioni.

Tuttavia recenti studi, indirizzati proprio verso quello che è definito affective

computing17, stanno confermando la possibilità di ottenere risultati concreti nella

progettazione di interfacce e tecnologie capaci di riconoscere gli stati affettivi,

emozionali degli utenti e di rispondere assecondandone le necessita fisiologiche.

Gli scenari descritti e immaginati dall’affective computing e la possibilità di

determinare tramite semplici sensori HDR e GSR stati emotivi (generici),

rappresentano comunque un incentivo importante rispetto all’ipotetico sviluppo

del sistema di rilevamento e condivisione delle emozioni che intendo realizzare.

189

17 affect.media.mit.edu/index.php

Fig. 44 - Esempio di modello delle emozioni basate sul rilevamento dei valori GSR e HRV

Page 190: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

Date le caratteristiche e le modalità con cui i sensori agiscono (in entrambi i

casi il rilevamento avviene sfruttando le dita, il polso, o più in generale la mano),

il concetto di “dispositivo indossabile” incominciò a manifestarsi sotto forma di

guanto.

Oltre alla praticità per la disposizione dei sensori del rilevamento dei parametri

necessari, è anche in un certo senso uno “strumento” dal fascino ancestrale. L’idea

del guanto richiama infatti alla mente da un lato la mano, intesa come primo

dispositivo di calcolo della storia (direttamente collegato alle prime rudimentali

forme di memorizzazione e quindi all’aumento delle facoltà cognitive umane),

dall’altro i dataGlove utilizzati come principale dispositivo di interazione

all’interno dei mondi virtuali.

La mano, e conseguentemente il guanto, rappresenta la nostra estensione verso

il mondo sensibile, il punto di contatto tra ciò che percepiamo e quello che siamo,

tra il nostro interno e l’esterno. Sono l’interfaccia, oltre che delle sensazioni tattili

che ci permettono di percepire ed interagire con l’ambiente, anche delle nostre

emozioni: carezze, schiaffi, strette di mano, pacche sulla spalla, sono tutte

rappresentazioni emotive che sono palesate verso gli altri attraverso l’utilizzo

della mano.

190

Fig. 55 - Illustrazioni del guanto e del posizionamento ipotetico dei sensori.

Page 191: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

Il dispositivo we.are.able in questo senso diventa quindi la metafora perfetta

per rilevare e conseguentemente esternare e condividere agli altri in modo

amplificato dalle potenzialità dei social network le nostre emozioni e sensazioni.

Oltre ai sensori di monitoraggio dei biofeedback, il guanto we.are.able

potrebbe essere dotato di un sensore NFC (Near frequence Communication) in

corrispondenza del palmo della mano.

Le informazioni di ogni individuo, sia quelle di natura emozionale, che quelle

“convenzionali” dei social network (contatti, immagini, video, file e tutto ciò che

si vuole condividere) possono essere scambiati attraverso una stretta di mano.

Questo gesto oltre a sancire il passaggio di dati da un dispositivo ad un altro,

da un individuo ad un altro, rappresenta anche il vincolo di amicizia. La stretta di

mano ritorna ad essere un fattore importante di contatto umano tra le persone e il

significato del diventare amici e delle modalità con cui lo si diventa assume

connotati ben più fisici e diretti rispetto alle modalità con cui ciò avviene

all’interno dei Social Network.

191

Fig. 56 - illustrazione della “richiesta” di amicizia come stretta di mano e scambio di dati tramite i sensori NFC posizionati all’altezza del palmo delle mani

Page 192: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

I due individui da quel momento in poi saranno collegati l’un l’altro e sarà

possibile ricevere aggiornamenti reciproci sui cambi di status emotivi rilevati dal

sistema.

4. Risultati raggiunti

In seguito ad aver definito gli obiettivi principali, gli aspetti concettuali e

tecnologici del progetto we.are.able ho incominciato a sviluppare una serie di test

che mi avrebbero permesso in primis di capire le potenzialità delle componenti a

mia disposizione, e in un secondo momento, di risolvere le problematiche

tecniche relative alla comunicazione tra un microcontroller, i sensori e un iPad.

In questa primissima fase di sviluppo del progetto ho deciso di lavorare con i

seguenti dispositivi:

- un microcontroller Lilypad18 (una versione di Arduino compatta, ma potente,

appositamente progetta per applicazioni wearable)

- un RedPark Cable19 e relativo breakout seriale compatibile

- alcuni sensori Lilypad (LightSensor, TempSensor, Accelerometer ecc...)

- cavi a coccodrillo, breadbord, LED e resistenze a volontà

- un iPad

192

18 web.media.mit.edu/~leah/LilyPad/index.html

19 www.redpark.com/c2db9.html

Fig. 57 - A sinistra il LightSensor, al centro la Lilypad board e a destra il TempSensor

Page 193: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

Ciò che era importante in questi test preliminari effettuati era appunto riuscire a

visualizzare correttamente i dati ricavati dai sensori e trasmessi da Lilypad sul

dispositivo iOS, quindi poterli elaborare a piacere.

Dapprima ho effettuato alcune prove molto semplici di comunicazione seriale

tra Lilypad e iPad tramite il cavo RedPark.

Il classico test “hello word”.

Il RedPark serial cable deve essere connesso alla Lilypad mediante i pin seriali

tx (trasferimento) e rx (ricezione). Dal momento che questi pin sulla board si

trovano esattamente sotto la breakout di alimentazione, diventa poco pratico il

collegamento.

Per questo motivo ho definito 2 pin seriali virtuali, rxPin e txPin

rispettivamente al pin 3 e il pin 2 della Lilypad, in modo tale rendere più facile e

pratica la gestione dei collegamenti.

#include <SoftwareSerial.h>

#define rxPin 3

#define txPin 2

SoftwareSerial mySerial = SoftwareSerial(rxPin, txPin);

void setup() {

Serial.println("setup ready!");

mySerial.begin(9600);

}

Dopo aver dichiarato mySerial come nuova porta seriale e inizializzata

all’ascolto dei dati, ho impostato lo script del void loop(), in cui semplicemente è

definito quanto segue.

Finchè il valore ricevuto dalla porta seriale è minore o uguale a 0 scrivi “hello

word”.

void loop() {

while (mySerial.available() <= 0) {

mySerial.println("hello world");

delay(300);

193

Page 194: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

}

mySerial.println("goodbye world");

while(1) { }

}

Quando il valore letto diventa 1, ossia vengono ricevute informazioni dalla

porta seriale (quindi dall’iPad), scrivi “goodbye word”.

Fin qui nulla di complicato.

A questo punto è necessario sviluppare una piccola applicazione per iOS

delegata alla lettura dei messaggi seriali inviati da Arduino e che sia in grado,

tramite un input specifico dell’utente, come il touch su un pulsante, di trasmettere

anche solamente 1 byte di dati (in modo tale da attivare il programma scritto in

arduino e uscire così dal loop “hello word”).

Il cavo seriale RedPark affinché funzioni correttamente necessita di apposite

librerie esterne da integrare nei programmi sviluppati, che devono essere

richiamate opportunamente all’interno del codice per la gestione dei bytes in invio

e lettura20.

La parte significativa dello script xCode del programma (o almeno quella che

contiene i passaggi utili a capirne la logica) è all’interno della funzione

readBytesAvailable:(UInt32) numBytes, quella delegata appunto alla lettura dei

bytes disponibili attraverso la porta seriale.

Questi vengono inclusi all’interno di una stringa (string), appositamente

formattata, e inviata a sua volta al serialView, ossia all’oggetto di testo

dell’interfaccia in cui vengono visualizzati i dati sotto forma di stringa di caratteri.

- (void) readBytesAvailable:(UInt32)numBytes {

NSLog(@"readBytesAvailable:");

int bytesRead = [rscMgr read:rxBuffer Length:numBytes];

NSLog( @"Read %d bytes from serial cable.", bytesRead);

NSString *string = nil;

for(int i = 0;i < numBytes; ++i) {

194

20 La procedura completa per il collegamento e l’assemblaggio del cavo è disponibile all’indirizzo makeprojects.com/Project/Connect-an-iPhone-iPad-or-iPod-touch-to-Arduino-with-the-Redpark-Serial-Cable/1130/1

Page 195: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

if (string) {

string = [NSString stringWithFormat:@"%@%c",

string, ((char *)rxBuffer)[i]];

self.serialView.text = string;

L’azione -(IBAction) sendString:(id) sender è collegata all’elemento

dell’interfaccia denominato appunto sendString. In questa sezione del codice

vengono definite le variabili e gli elementi di interfaccia necessari a “costruire” un

campo di testo in cui l’utente può digitare qualcosa e inviare queste informazioni

alla Lilypad, il quale provvederà ad aggiornare il proprio status, uscendo dal loop

“hello word” e scrivendo così nel monitor seriale la stringa “goodbye word”.

In questo caso viene utilizzato il txBuffer per trasmetter i bytes da iOS ad

Arduino.

-(IBAction)sendString:(id)sender {

[self.textEntry resignFirstResponder];

NSString *text = self.textEntry.text;

int bytesToWrite = text.lenght;

for (int i = 0; i < bytesToWrite; i++) {

txBuffer[i] = (int) [text characterAtIndex:i];

}

int bytesWritten = [rscMgr write:txBuffer

Lenght:bytesToWrite];

}

L’esperimento successivo è stato invece leggermente più complesso, poiché

prevedeva l’utilizzo, seppur in modo elementare, di un sensore. Un LightSensor

195

Fig. 58 - schermata dell’iPad del programma “hello word”

Page 196: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

interfacciato alla Lilypad board che rendeva visibili i dati ricavati direttamente su

iPad. Per prima cosa ho definito nello Sketch di Arduino il pin analogico della

Lilypad a cui ho collegato il sensore (in questo caso il n°1), successivamente ho

settato anche una variabile “lightReading” in cui vengono “depositate” le letture

del valore ricavato dal LightSensor.

int lightPin = 1;

int lightReading;

void setup() {

Serial.begin(9600);

}

All’interno del void loop() del codice di Arduino ho dichiarato che la variabile

LightReding deve “leggere” appunto i segnali analogici inviati dal lighPin, ossia

dal sensore e, se disponibili, stamparne il valore.

void loop() {

lightReading = analogRead(lightPin);

if (Serial.available() >= 0) {

Serial.print("LIGHT SENSOR: ");

Serial.print(lightReading);

Serial.println();

delay(500);

}

}

Nulla di più semplice.

Il risultato nel serial monitor di arduino è effettivamente la lettura dei valori

acquisiti dal sensore.

LIGHT SENSOR: 134

LIGHT SENSOR: 136

LIGHT SENSOR: 54

LIGHT SENSOR: 0

e così via...

196

Page 197: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

Ovviamente più viene oscurato il sensore e più i valori scendono.

Il programma xCode è sostanzialmente lo stesso di quello utilizzato per il

primo esperimento, fatta eccezione per la IBAction sendString.

I dati provenienti dal sensore sono visualizzati sull’iPad allo stesso modo della

stringa “hello word” del test precedente.

- (void) readBytesAvailable:(UInt32)numBytes {

NSLog(@"readBytesAvailable:");

int bytesRead = [rscMgr read:rxBuffer Length:numBytes];

NSLog( @"Read %d bytes from serial cable.", bytesRead);

NSString *string = nil;

for(int i = 0;i < bytesRead; ++i) {

if (string) {

string = [NSString stringWithFormat:@"%@%c",

string, ((char *)rxBuffer)[i]];

} else {

string = [NSString stringWithFormat:@"%c", ((char

*)rxBuffer)[i]];

}

}

[NSNumber numberWithInt:[string intValue]];

self.sensorValue.text = string;

NSLog(@"sensor value: %@", string);

}

197

Fig. 59 - Lilypad in azione

Page 198: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

Un punto di svolta di questi test è stato il tentativo di collegare più sensori

contemporaneamente. Finché si tratta di interpretare i dati da un sensore non

esistono particolari difficoltà, in quanto ciò che arduino invia all’iPad tramite

comunicazione seriale è esattamente ciò che serve. Ho un solo sensore, quindi,

attraverso il cavo seriale passano esclusivamente i dati relativi a quel sensore e

nulla più. Con due o più sensori invece, emerge il problema sostanziale di

identificare i singoli dati dei sensori. Per farlo occorre creare lato Arduino, un

“protocollo” che determini la gerarchia dei sensori, quindi le modalità di

assemblaggio del flusso di dati provenienti dai sensori, e lato iPad, un relativo

“protocollo” di interpretazione dei dati, quindi splittaggio e archivio dei dati

ricevuti.

Questo è il codice Arduino del programma.

int sensorValue = 0;

const int analogOne = A0;

const int analogTwo = A1;

Per prima cosa si definiscono i sensori e i loro relativi pin analogici di

operatività. Quindi in questo caso analogOne = A0 (LightSensor) e analogTwo =

A1 (TempSensor).

void setup() {

// open serial communications at 9600 bps

Serial.begin(9600);

establishContact();

}

Successivamente si apre la comunicazione seriale e si richiama la funzione di

controllo della comunicazione tra Arduino e iPad (la analizzeremo in seguito).

void loop() {

if (Serial.available() > 0) {

int inByte = Serial.read();

sensorValue = analogRead(analogOne);

Serial.print(sensorValue, DEC);

198

Page 199: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

Serial.print(",");

// read the sensor:

sensorValue = analogRead(analogTwo);

// print the results:

Serial.print(sensorValue, DEC);

Serial.println();

}

}

All’interno dei void loop() si inizializzano i sensori, ma soprattutto si imposta

la “grammatica” di quello che può essere definito come un rudimentalissimo

“protocollo” di comunicazione, ossia si definiscono le regole di scrittura della

stringa da inviare all’iPad, si dichiara quale sensore agirà per primo, quale per

secondo e quali sono gli elementi che li renderanno riconoscibili dal programma

xCode per iPad. analogOne è il primo valore, analogTwo il secondo. Il separatore

è una semplice virgola (“,”) e l’indicatore di fine ciclo di rilevamenti è il

serial.println(), che equivale al tasto return (invio) della tastiera. L’output dei

valori inviati dalla seriale sarà quindi qualcosa di questo tipo:

valoreSensore1,valoreSensore2 (primo rilevamento)

valoreSensore1,valoreSensore2 (secondo rilevamento)

valoreSensore1,valoreSensore2 (terzo rilevamento)

valoreSensore1,valoreSensore2 (quarto rilevamento)

etc...

La funzione establishContact è appunto uno strumento di controllo dello status

della connessione. Finché la seriale riceve bytes minori o uguali a 0 scrivi la

stringa “ready” sulla seriale.

void establishContact() {

while (Serial.available() <= 0) {

Serial.println("ready"); // send a starting message

delay(300);

}

}

199

Page 200: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

Il programma per iPad di questo test è chiaramente molto più complesso

rispetto ai precedenti.

All’interno del metodo newMessageAvailable avviene il “controllo” dello

status della connessione mediante un semplice if ... else. Se la stringa che è stata

ricevuta da msg (una variabile che raccoglie le stringhe ricevute da arduino) è

uguale a “ready”, ossia la stessa utilizzata nella funzione establishContact, il

programma non fa nulla, attende semplicemente l’arrivo di dati concretamente

utilizzabili.

Se, come accade sempre (a meno di problemi di connessione), la stringa

ricevuta è diversa da “ready”, il programma elabora i bytes ricevuti secondo il

protocollo stabilito, controlla se l’array (il contenitore dove andranno memorizzati

i valori) riceve correttamente due valori separti da “,” e li separa archiviandoli

(temporaneamente) in posizioni dell’array differenti: objectAtIndex: 0 per il

sensore 1 e objectAtIndex: 1 per il sensore 2.

-(void) newMessageAvailable:(NSString*)msg {

if ([msg isEqualToString:@"ready"]) {

// do nothing

}

else {

// check if mySernsor array receive 2 value and store

it.

NSArray *mySensor = [msg componentsSeparatedByString:@","];

int count = [mySensor count];

if (count == 2) {

NSString *sensor1 = [[NSString alloc] initWithString:

[mySensor objectAtIndex: 0]];

int sensor1Int = [sensor1 intValue];

NSString *sensor2 = [[NSString alloc] initWithString:

[mySensor objectAtIndex: 1]];

200

Page 201: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

A questo punto i valori dei due sensori (LightSensor e TempSensor) sono

separati e gestibili indipendentemente l’uno dall’altro.

Quindi è possibile manipolarli.

Nel test che ho effettuato, per valori del sensore di luminosità inferiori a 30,

l’output testuale che è possibile leggere è “Chi ha spento la luce?? Adesso qui è

decisamente buio!!"

Altrimenti, per valori superiori si legge: “C’è una buona quantità di luce!!!”.

int sensor2Int = [sensor2 intValue];

// [sensorValue setText:msg];

[sensorValue1 setText:sensor1];

[sensorValue2 setText:sensor2];

// method of sensor detect output

if ( sensor1Int <= 30) {

[sensor1Output setText:@"Chi ha spento la luce??

Adesso qui è decisamente buio!!"];

}

else {

[sensor1Output setText:@"C'è una buona quantità

di luce!!!"];

}

}

}

}

5. Conclusione

Il progetto we.are.able è un progetto work in progress, aperto quindi a diversi

possibili sviluppi futuri. I test da me effettuati, seppur molto semplici, mi hanno

permesso comunque di capire la fattibilità tecnica del progetto e soprattutto di

delineare un road map dei lavori necessari a realizzare un primo prototipo di

emotionalGlove.

201

Page 202: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

Il primo passo sarà quello di sostituire i sensori di luce e di temperatura con

quelli di HRV e GSR. Quindi creare un programma che interpreti i dati ricevuti in

modo coerente con gli obiettivi del progetto. La terza fase prevede

l’implementazione del collegamento alla rete dei Social Network dei sensori e

conseguentemente l’aggiornamento degli status attraverso l’interpretazione dei

parametri biofisici ricavati dai sensori. La quarta fase sarà quella dello sviluppo

del sistema di augmented reality per visualizzare in real time gli status aggiornati

in tempo reale della persona osservata. L’ultimo step consentirà di implementare

nel sistema hardware-software l’utilizzo di altri sensori (su tutti l’NFC per lo

scambio dell’amicizia e dei dati), il collegamento wireless tra il guanto e il

cellulare e i miglioramenti necessari dell’interfaccia del programma.

Per seguire gli sviluppi futuri del progetto we.are.able...

202

Blog Weareable Canale Youtube

Page 203: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

Bibliografia

Vannevar Bush, As We May Think, The Atlntic Monthly, July 1945

A. M. Turing, Computing Machinery and Intelligence, 1950

J.C.R. Licklider, Man-Computer Symbiosis 1960

Dougls Engelbart, AUGMENTING HUMAN INTELLECT: A Conceptual Framework, 1962

Marshall McLuhan, Gli strumenti del comunicare, Il Saggiatore, 1964

Ivan Sutherland, The Ultimate Display, 1965

Ivan Sutherland, A Head-Mounted Three Dimensional Display, 1968

J.C.R. Licklider, Robert Taylor, The Computer as a Communication Device, 1968

Myron Krueger, Responsive Environment, 1977

Howard Rheingold, La Realtà Virtuale, i mondi artificiali generati dal computer e il loro potere di trasformare la società, Baskerville, 1993

Howard Rheingold, Comunità Virtuali. Parlare, incontrarsi, vivere nel ciberspazio, Sperling & Kupfer Editori, 1994

Paul Milgram, Augmented Reality: A class of displays on the reality-virtuality continuum, 1994

Ronald T. Azuma, A Survey of Augmented Reality, 1998

Partricia Wallace, La Psicologia di Internet, Raffaello Cortina Editore, 2000

Woodrow Barfield, Thomas Caudell, Fundamentals of Wearable Computers and Augmented Reality, Routledge, 2001

Gabriella Pravettoni, Web Psychology, Guerini E Associati, 2002

Giampiero Maioli e Mario Gerosa, Brera Academy Virtual Lab, un viaggio dai mondi virtuali alla realtà aumentata nel segno dell’open source, Francongeli, 2010

203

Page 204: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

Progetto Thesis, Social chi? una panoramica sui social network, Athena Edizioni, 2010

D.W.F. van Krevelen e R. Poelman, A Survey of Augmented Reality Technologies, Applications and Limitations, 2010

Alasdair Allan, Learning iPhone Programming, O’Reilly, 2010

Alasdair Allan, iOS Sensor Apps with Arduino, O’Reilly, 2011

Communication Strategies Lab, Realtà Aumentate, esperienze, strategie e c, Rontenuti per l’augmented reality, Apogeo, 2012

Sitografia

http://ancienthistory.about.com/od/abacus/qt/FingerNumbers.htm

http://en.wikipedia.org/wiki/Finger_counting

http://www.examiner.com/article/the-antikythera-mechanism-secrets-of-a-2-000-year-old-computer

http://www.museoscienza.org/approfondimenti/documenti/macchina_poleni/storia6.asp

http://it.wikipedia.org/wiki/Sistema_numerico_binario

http://it.wikipedia.org/wiki/Telaio_Jacquard

http://daily.wired.it/news/scienza/2012/02/24/turing-centenario-matematica-19040.html

http://www.kurzweilai.net/memorandum-for-members-and-affiliates-of-the-intergalactic-computer-network

http://www.comunicazionidimassa.net/TTCM/LA-COMUNICAZIONE-MEDIATA-DAL-COMPUTER.html

http://www.psicologiaebenessere.it/la-comunicazione-mediata-dal-computer-cmc/

http://www.corriere.it/scienze_e_tecnologie/12_maggio_09/dipasqua-paura-perdita-cellulare_66422648-99cb-11e1-85ab-3c2c8bfb44fd.shtml

204

Page 205: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

http://thedigitalage.pbworks.com/w/page/22039083/Myron%20Krueger

http://jtnimoy.net/itp/newmediahistory/videoplace/

http://www.strano.net/bazzichelli/interfacce.htm

http://augmentedrealityevent.com/are-2012-schedule/are2011-schedule-snapshot/are-2011-schedule/mission-critical-ar/

http://www.readwriteweb.com/archives/military_grade_augmented_reality_could_redefine_modern_warfare.php

http://www.pranavmistry.com/projects/sixthsense/

http://produceconsumerobot.com/biosensing/

http://web.media.mit.edu/~leah/LilyPad/index.html

http://blog.moderndevice.com/2012/07/12/pulse-sensor-iii-heart-rate-variability/

205

Page 206: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

Alla mia famiglia e alla mia ragazza, che mi hanno sempre sostenuto e sopportato, anche in questi mesi, fatti di ore ed ore passate davanti

allo schermo e ai libri...

206

Page 207: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

207

Page 208: Accademia Di Belle Arti Di Carraraarchive.accademiacarrara.it/biennio-specialistico... · Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei

208