tesi
TRANSCRIPT
Quest'opera è stata rilasciata sotto la licenza Creative Commons
Attribuzione - Non Commerciale - Condividi allo stesso modo.
Per leggere una copia della licenza visita il sito web
http://creativecommons.org/licenses/publicdomain/ o spedisci una
lettera a Creative Commons, 559 Nathan Abbott Way, Stanford,
California 94305, USA.
Ad Andrea
(e ai suoi genitori, Claudio ed Angela)
UNIVERSITÀ DEGLI STUDI DI ROMA “LA SAPIENZA” UNIVERSITÀ DEGLI STUDI DI ROMA “LA SAPIENZA”
FACOLTÀ DI SCIENZE DELLA COMUNICAZIONE FACOLTÀ DI SCIENZE DELLA COMUNICAZIONE
CORSO DI LAUREA IN SCIENZE DELLA COMUNICAZIONE
CATTEDRA DI TEORIA E TECNICHE DEI NUOVI MEDIA
TESI DI LAUREA
SSPPAAZZII PPUUBBBBLLIICCII DDIIGGIITTAALLII Dal digital divide agli usi comunitari delle nuove tecnologie
CANDIDATO CANDIDATO
Fabrizio Nasti
RELATORE CORRELATORE RELATORE CORRELATORE
Prof. Alberto Marinelli Prof. Giuseppe Anzera
- A.A. 2003/2004 – SESSIONE INVERNALE -
Contenuti
Introduzione vii
Ringraziamenti xi
Capitolo I
Critica della Società dell’Informazione 1
1. Le origini della “società dell’informazione” 4 1.1 La matematizzazione della realtà 4 1.2 La razionalizzazione della sfera pubblica 6 1.3 L’organizzazione scientifica di produzione e consumo 8 1.4 La società disciplinare e il totalitarismo 11
2. Dalla “società dell’informazione” alla “società in
rete” 15 2.1 Informazionalismo e globalizzazione: Manuel Castells
e la ristrutturazione del capitalismo 16 2.2 Il “capitalismo culturale” di Jeremy Rifkin 22 2.3 Postfordismo e informazionalismo:
i saperi al lavoro fra subordinazione e liberazione 24 2.3.1 Marx, il “general intellect”
e il capitalismo cognitivo 25 2.3.2 Esodo dalla “società del lavoro”? 29
Contenuti ii
2.4. L’etica hacker e lo spirito dell’informazionalismo 32 2.4.1 La criminalizzazione dell’hacking 33 2.4.2 Breve storia dell’hacking 34 2.4.3 Informazionalismo ed etica hacker 38
3. Una “società della conoscenza” post-capitalista ? 41 3.1 Risocializzazione della sfera produttiva 41 3.2 Economia dell’abbondanza e società post-capitalista 46
4. La società dell’informazione: estensione del
fordismo e della razionalizzazione tecnocratica 51
Note 56
Capitolo II
L’Ecologia Digitale: una razionalizzazione
democratica 63
1. Tecnologia e società: la prospettiva della
“razionalizzazione democratica” di Andrew
Feenberg 65 1.1 Strumentalismo e determinismo tecnologico 67 1.2 Essenzialismo, teorie critiche e costruttivismo 70 1.3 La razionalizzazione democratica 74 1.4 Razionalizzazione democratica
e disuguaglianze digitali 81
2. Un’altra razionalità è possibile:
l’ecologia digitale 88 2.1 Ecologie dell’informazione 90
Contenuti iii
2.2 “Proprietà intellettuale” vs. information e digital
commons 92 2.3 L’ecologia digitale 99
3. Il software libero e open source 100 3.1 Archeologia del software 101 3.2 Le origini e i principi del software libero:
il progetto GNU 103 3.3 Il sistema operativo GNU/Linux e gli sviluppi del
software libero 105 3.4 Gli aspetti commerciali del software libero
e open source 111 3.5 Le implicazioni sociali ed economiche
del software libero 115 3.5.1 I benefici economici 116 3.5.2 Il software libero, i governi e lo sviluppo locale 120 3.5.3 Modelli sociali e motivazioni
nello sviluppo di software libero 126 3.5.4 Tecnologia, software libero, inclusione sociale 132
Note 142
Capitolo III
Spazi pubblici digitali:inclusione ed esclusione
sociale nell’età dell’informazione 153
1. Stratificazione ed esclusione sociale
nella società in rete 160 1.1 L’aumento dell’ingiustizia sociale e della povertà 160
Contenuti iv
1.2 I processi di esclusione sociale nella società in rete 163
2. Le geografie della società in rete 171 2.1 Geografie della comunicazione 171 2.2 La relazione fra lo spazio dei flussi
e lo spazio dei luoghi 174 2.3 La geografia di Internet 177
2.3.1 La geografia tecnologica 178 2.3.2 La geografia dell’accesso 181 2.3.3 La geografia della produzione 189
3. Dal digital divide all’inclusione sociale nella
società in rete 194 3.1 Il digital divide: origini e dimensioni principali 194
3.1.1 Le “ICT per lo sviluppo” 199 3.2 Oltre il digital divide 202
3.2.1 I limiti del “digital divide” 205 3.3 “Digital Inequality” 214 3.4 Le nuove tecnologie per l’inclusione sociale 218
3.4.1 Ridefinire l’accesso 220 3.4.2 L’Unione Europea e le tecnologie
per l’inclusione sociale 224
Note 228
Capitolo IV
Prodigi in Tunisia: laboratori comunitari 235
1. La Tunisia in rete 235 1.1 Il mercato delle telecomunicazioni 237
Contenuti v
1.2 Le mappe della connettività 239 1.3 Le politiche pubbliche 240 1.4 Il progetto Publinet 241
2. Il Progetto Prodigi in Tunisia 244 2.1 Le attività sul campo: mediazione e formazione 244 2.2 Il contatto con il territorio 247 2.3 Laboratori e corsi di formazione 248 2.4 La scelta del software libero 250
Note 252
Bibliografia 253
Introduzione
Le nuove tecnologie dell’informazione e della comunicazione
hanno costituito in questi ultimi anni il mio principale ambito di
interesse e di studio. Le loro molteplici manifestazioni, prima tra
tutte Internet, e i relativi impatti nella società, investono un
ampio spettro di fenomeni tecnici e sociali, che interessano le
relazioni economiche e produttive, le dinamiche del consumo
culturale e quelle della partecipazione politica, i rapporti
interpersonali, la cooperazione sociale e la produzione e lo
scambio di informazioni e conoscenze. Esse sono alla base delle
trasformazioni economiche e sociale che guidano gli sviluppi
della società dell’informazione.
Il mio interesse di studio per le nuove tecnologie, in origine
rivolto in particolare alla loro applicazione negli ambiti della
comunicazione pubblica e sociale, si è poi esteso alle
conseguenze della loro diseguale distribuzione nella società. Le
opportunità offerte da queste tecnologie per una rinnovata
partecipazione dei cittadini al processo politico- amministrativo,
sollevavano al contempo la preoccupazione che una loro
diffusione squilibrata nella società potesse contribuire ad
aggravare le esistenti disparità in termini di potere e risorse, e
imponevano, dunque, la necessità di un intervento pubblico volto
a correggere i meccanismi di mercato che generavano tali
squilibri.
Il tema della distribuzione irregolare delle nuove tecnologie
e delle competenze necessarie a sfruttarne i benefici, ha ottenuto
nel frattempo il riconoscimento degli attori politici ed economici
dominanti, ed è stato rilanciata ed amplificato dall’espressione
Introduzione viii
digital divide. Questo termine, però, e l’insieme di assunti su cui
si basa, si sono rilevati col tempo inadatti a cogliere la
complessità dei fenomeni di disuguaglianza ed esclusione sociale
che si impongono con sempre maggior forza nel mondo
contemporaneo, i quali sono sì legati, in effetti, alle potenzialità
delle nuove tecnologie, ma, più che da relazioni di tipo causale,
in una forma ambivalente e contraddittoria.
Molti degli assunti impliciti nel concetto di digital divide, e
molto dell’interesse che esso ha suscitato, possono infatti
ricondursi al fervore tecnologico che ha contraddistinto la
retorica dell’avvento di una “società dell’informazione”. Per fare
luce su questa retorica, e di conseguenza su quella che circonda il
concetto di digital divide, nel primo capitolo ripercorreremo
alcune tappe della “storia delle idee” che sembrano porsi come
diretti antecedenti della società dell’informazione. Seppure
esaltata da più parti come assoluta novità, e nonostante essa
esprima di fatto alcune trasformazioni significative nelle
strutture sociali, l’attuale “società dell’informazione”
rappresenta, in realtà, la continuazione di un lungo processo
storico che punta nella direzione di un estensione del dominio
della razionalizzazione tecnocratica sulla vita dell’uomo. E così
come in tutte le fasi storiche, questo dominio incontra anche oggi
la resistenza di soggetti e gruppi sociali, i quali, facendo perno
sulle ambivalenze della tecnica, mettono in atto
razionalizzazioni democratiche e danno vita alle forme di
un’ecologia digitale.
Nei margini delineati da questa opposizione fondamentale,
trovano spazio la riconsiderazione complessiva dei presupposti
su cui si fonda l’idea di un digital divide e l’indicazione di una
prospettiva alternativa: quella, cioè, che considera le nuove
tecnologie come elementi di un più ampio insieme di risorse, da
Introduzione ix
attivare in sinergia allo scopo di promuovere processi di
inclusione sociale. In questo senso, date le peculiari dinamiche
spaziali della società in rete giocate sull’asse della
contrapposizione fra flussi e luoghi, l’uso delle tecnologie per
scopi di inclusione e coesione sociale trova il suo campo di
applicazione privilegiato in quello spazio dei luoghi in cui le
identità culturali e le relazioni sociali in esso radicate, attaccate
e indebolite dalle logiche impersonali e strumentali dei flussi di
informazioni, ricchezza e potere, costituiscono nondimeno il
valore aggiunto nella costruzione di capitale umano, culturale e
sociale, che a loro volta pavimentano il percorso verso
l’inclusione.
E’ necessario, dunque, promuovere nei luoghi ampi e
sistematici processi di appropriazione di quelle stesse tecnologie
su cui i flussi si strutturano per dominare i primi e farne
strumenti e oggetti della propria valorizzazione. E affinchè le
nuove tecnologie possano realmente integrarsi con le risorse e le
relazioni presenti nel territorio allo scopo di contribuire
all’inclusione e alla coesione sociale, è auspicabile, in
conclusione, che le politiche pubbliche si orientino verso la
realizzazione, la promozione e il supporto di spazi pubblici
digitali. Tali spazi, insieme fisici e virtuali, possono infatti
essere intesi come l’ambiente intenzionalmente e pubblicamente
costruito all’intersezione dei due spazi, quello dei flussi e quello
dei luoghi.
Un ambiente aperto ed accessibile, che scaturisce, dunque,
da una molteplicità di risorse, pratiche e relazioni radicate sul
territorio che ruotano intorno alle nuove tecnologie digitali,
espandendo per questa via il loro raggio d’interesse e d’azione
alla dimensione intraterritoriale e globale: centri pubblici per
l’accesso e la formazione alle nuove tecnologie, risorse di
Introduzione x
software libero a disposizione on line e off line, comunità in rete
per lo sviluppo di software libero, contenuti digitali di dominio
pubblico o rilasciati sotto licenze che ne tutelano il fair use,
portali e servizi di pubblica utilità, reti civiche o comunitarie
legate alla prossimità geografica, reti di cooperazione e
condivisione on line, siti web e piattaforme software
collaborative, social software, sistemi di open publishing,
mailing lists comunitarie, ecc.
In questo complesso insieme, le strutture per l’accesso e la
formazione alle nuove tecnologie possono svolgere il ruolo di
catalizzatori e moltiplicatori di energie e risorse legate al
territorio; per poter far questo, però, essi devono diventare
qualcosa di più che semplici punti di accesso pubblico ad
Internet, il più delle volte integrati in istituzioni che riservano
loro solo poco spazio e visibilità o comunque non riescono ad
attirare un pubblico adeguato. Devono piuttosto essere pensati,
progettati e gestiti come spazi pubblici digitali: ossia, in questo
caso, come spazi fisici, “posseduti”, gestiti e animati dalla
comunità locale, attraverso associazioni o strutture partecipative
ad hoc; finanziati attraverso un mix di impegno pubblico e
privato; impegnati ad attrarre competenze ed energie per
costruire mobilitazione e innovazione sociale intorno a e
sfruttando le potenzialità di un’ampia gamma di tecnologie, da
Internet al video digitale. In questo modo essi possono rivelarsi
strumenti fondamentali per favorire lo sviluppo a livello locale e
promuovere l’inclusione e la coesione sociale.
Ringraziamenti
Questa tesi è il frutto delle letture, delle esperienze e delle
riflessioni da me maturate nei cinque anni appena trascorsi. In
questo lasso di tempo molte persone hanno contribuito più o
meno direttamente alle mie esplorazioni nel campo delle nuove
tecnologie, o ne hanno semplicemente accompagnato il percorso.
Qualcuno di loro, in realtà, mi accompagna da molto più tempo.
Altre quasi non sanno accendere un computer, e anche se loro
non sanno cos’è, mi ricordano cosa (non) è il digital divide. A
tutte devo comunque tanto, perché senza di loro il mio mondo
sarebbe freddo come una scheda di memoria. Ma ne nominerò
solo alcune, e l’ordine sarà quasi rigorosamente casuale: spero in
ogni caso che nessuno ci rimanga male.
Devo ringraziare innanzitutto i miei genitori, per avermi
dato la possibilità di iniziare il viaggio, e poi di arrivare fin qui;
per la pazienza con cui hanno atteso, nonostante tutto, che io
compissi le mie contorte evoluzioni prima di portare a termine
questo primo difficile compito della mia vita. Grazie di cuore di
tutto quello per cui non vi ho mai ringraziato abbastanza.
Poi un grazie a Chi, la mia musa ispiratrice, nonché
correttrice di bozze, prepara-caffè, maestra di coccole e
massaggi, e tanto altro ancora; senza di lei sarebbe stato tutto
molto più difficile. Grazie a Luca, per la sua filosofia della
banana, per le mille discussioni sui mondi tecnologici, per aver
condiviso con me gioie e dolori di questa università, e per aver
sempre creduto in me …. Grazie a Daniele, per il preziosissimo
contributo dato alla veste grafica di questa tesi. Grazie a Lollo e a
Giulia, perché mi sono stati vicini.
Ringraziamenti xii
Grazie a Davide, a Ugo, al Palletta e ad Alfredo, amici da una
vita, chi più chi meno. E ai primi due, bartender alle prime armi,
un grazie in più per il supporto “morale” (e gratuito) ricevuto in
quel del BaoBar. Può passare anche da lì, da un pinguino che si
dimena in savana, il tentativo di diffondere una cultura
informatica più aperta e libera (free as in free speech, not as in
free beer!).
Un grazie particolare, infine, va ai Prodigi, a Matilde, a
Giulio, ad Iginio, ad Ale e a Ludovica, perchè alla fine sono le
persone che fanno la differenza, e non le tecnologie; e perché in
fondo siamo una comunità strutturatissima. Grazie anche a tutti
i partecipanti al progetto in Tunisia, ad Enrico, Tony, Gianna,
Muriza, Maddalena, Andrea, Jamel, Imhed e Lotfi, e alla
comunità di Kerchaou.
Capitolo I
Critica della Società dell’Informazione
Il dibattito in ambito accademico e politico relativo al
cosiddetto digital divide, e più in generale ai complessi rapporti
tra la società e le nuove tecnologie dell’informazione e della
comunicazione, è spesso condizionato da un equivoco di fondo e
reso incerto da alcune ambiguità. L’equivoco è riconducibile alla
centralità assegnata alle tecnologie, in particolare ai mezzi di
comunicazione, nella nascita e nello sviluppo di inedite
configurazioni sociali, presunte o reali, attuali o future. Esso si
manifesta, da un lato, nell’assunzione di una prospettiva che fa
propria una qualche forma di determinismo tecnologico;
dall’altro, è evidente in quella sorta di neo avventismo laico –
storicamente connesso alla capacità dei nuovi mezzi di
comunicazione di trascendere i vincoli della distanza – che ha la
sua forma più visibile nell’hype che circonda l’avvento di ogni
nuovo strumento o applicazione. Le ambiguità sono invece legate
all’oggettiva difficoltà di inquadrare le tecnologie digitali, e i
media a cui danno forma, in uno statuto epistemologico univoco.
Da un lato, l’inedita velocità con cui si evolvono tecnologie e
formati nel nuovo ambiente digitale rende rapidamente obsoleti
Capitolo I 2
non solo l’hardware e il software, ma anche i modelli
interpretativi utili alla loro comprensione e contestualizzazione.
Dall’altro, la natura generalista dell’infrastruttura informatica e
telematica che fa da base alle attuali inedite ibridazioni di vecchi
e nuovi media rende artificiosa o quantomeno critica una netta
distinzione tra i loro diversi ambiti d’applicazione sul versante
della produzione così come su quello del consumo: si assiste ad
un’esplosione della comunicazione iper mediata, che assume una
centralità senza precedenti in contesti che vanno, senza
soluzione di continuità e con frequenti sovrapposizioni, dal
sistema produttivo alla comunicazione interpersonale. Occorre, a
mio avviso, assumere in pieno tali ambiguità, indagando, anche
retrospettivamente, il ruolo dell’informazione e della
comunicazione al di là del tradizionale ambito di pertinenza dei
media studies; nel far questo è necessario al tempo stesso
rigettare gli equivoci del determinismo e dell’avventismo.
Scopo di questo capitolo è inquadrare assunti e realtà del
digital divide nel più ampio contesto delineato dall’interazione
fra le dinamiche di innovazione e diffusione selettiva che
interessano le moderne tecnologie dell’informazione e della
comunicazione e i processi di ristrutturazione che coinvolgono a
diversi livelli il capitalismo, in quanto sistema economico e
sociale prevalente nonché ambito privilegiato di sviluppo di tali
tecnologie. Si rende utile, perciò, il riferimento ad alcune
tendenze di lunga durata sottese al ruolo dell’informazione e
della comunicazione nelle società industriali avanzate e alla loro
evoluzione conseguente all’applicazione delle tecnologie digitali
nelle sfere sociale, economica e culturale.
Al di là dei pur notevoli elementi di discontinuità osservabili
nell’attuale fase storica, ad uscire rafforzata dai mutamenti in
corso sembra essere la presa, sui diversi ambiti delle attività
Società dell’Informazione 3
umane, di una “razionalizzazione tecnocratica” sempre più
sofisticata ed escludente. Originata dal cuore stesso
dell’industrialismo – come sistema sociale oltre che economico –
nelle pretese di regolazione sociale ispirate all’“organizzazione
scientifica del lavoro”, questa presa è oggi approfondita ed estesa
dalla pervasività delle reti strumentali che si appoggiano alle
infrastrutture fisiche di informazione e telecomunicazione
(Robins e Webster 2001). Su tali reti, infatti, si strutturano e
transitano le funzioni economiche, finanziarie e di potere
dominanti, il cui nocciolo è sempre più costituito da flussi di
informazioni e di conoscenze. In questo senso le reti informano e
veicolano saperi e risorse culturali, cognitive, linguistiche,
affettive, relazionali e di socialità, intercettate dalle macchine
digitali e fatte sempre più oggetto di mercificazione tanto sul
versante della produzione quanto su quello del consumo.
Istanze tecnologiche ed economiche sempre più globalizzate,
da una parte, e identità soggettive e culturali sempre più
frammentate e desocializzate, dall’altra, non sembrano poter
essere più armonizzate da alcun principio d’integrazione sociale.
Ad esso fa da surrogato un processo di mercificazione – globale –
delle esperienze e degli immaginari – locali –, che produce in
realtà una “socializzazione antisociale“ (Castells 2001):
decontestualizzate e impacchettate, queste risorse immateriali
comuni vengono “appropriate” e valorizzate nelle politiche di
marketing, sospinte dai meccanismi promozionali
nell’immaginario collettivo e nei processi della percezione
sociale, rivendute nei parchi a tema e nei centri commerciali o
trasmesse dalle megacorporations della comunicazione
attraverso le reti elettroniche globali “a interazione vigilata” del
cyberspazio.
Capitolo I 4
La logica strumentale all’opera nelle dinamiche economiche
e tecnologiche attua, quindi, una connessione artificiale e
funzionale fra globale e locale, nella quale finisce per inglobare
al suo interno anche i processi culturali; essa accompagna così il
capitalismo nella sua opera di “sottomissione di una porzione
sempre maggiore dell’esperienza umana al dominio della sfera
economica” (Rifkin 2001). Brevetti, copyrights, licenze, marchi,
loghi, e i rispettivi meccanismi tecnici e giuridici di controllo e
sfruttamento, sono funzionali alla privatizzazione forzata di
sempre più ambiti del patrimonio culturale – e persino biologico
– dell’umanità e completano il tragitto del capitalismo lungo
quel percorso di “predazione delle esternalità”, tracciato al suo
avvio dalle enclosures delle terre “comunali” (commons)
nell’Inghilterra del XVI secolo. L’universalismo astratto della
razionalità strumentale, dato per spacciato insieme ai suoi tragici
paradossi con il declino della fabbrica fordista e della burocrazia
monolitica, riemerge nelle forme diffuse, reticolari, leggere,
persino trasgressive, dei network globali dell’intrattenimento
digitale, dei mercati elettronici della finanza o delle reti delle
imprese transnazionali.
1. Le origini della “società dell’informazione”
1.1 La matematizzazione della realtà
Come argomentato, tra gli altri, da Robins e Webster (1999)
e da Mattelart (2001), e per altri versi anche da Anderson
(1991) 1, il ruolo fondamentale delle risorse e delle tecnologie
dell’informazione e della comunicazione nell’organizzazione
sociale e nelle idee che ne sostengono l’affermazione, ha in realtà
origini più antiche di quanto comunemente si pensi. Accennando
Società dell’Informazione 5
appena al rapporto dialettico fra le strutture della testualità e le
tecnologie della stampa e del libro, da un lato, e lo sviluppo dello
spirito della modernità, delle “coscienze nazionali” o delle stesse
burocrazie degli Stati moderni, dall’altro (Anderson 1991;
Ricciardi 1998), si può invece ripercorrere con Mattelart (2001)
la storia delle idee e degli avvenimenti che hanno segnato
l’affermarsi della formula e della retorica della “società globale
dell’informazione”.
Secondo il sociologo francese i suoi presupposti risalgono “a
ben prima dell’ingresso della nozione di informazione nella
lingua e nella cultura della modernità”, agli ideali illuministici di
calcolabilità e matematizzazione della realtà e di
“automatizzazione del ragionamento e dell’azione”, ossia alla
“mistica del numero” e di un “linguaggio universale”, lontano
antecedente del “linguaggio informatico” che ne formalizzerà due
secoli dopo il progetto di una ricomposizione “pre-babelica”
dell’umanità. In quel lasso storico, tra il XVII e il XVIII secolo,
prende forma il progetto ideale e concreto di una società
trasparente e governata dal “pensiero del numerabile e del
misurabile”. Quest’ultimo “diventa il prototipo di ogni discorso”
e “al tempo stesso l’orizzonte della ricerca della perfettibilità
umana": sui suoi principi, tra l’altro, Adam Smith edifica nella
seconda metà del Settecento le fondamenta dell’“economia
politica” liberale, mentre già un secolo prima i pionieri della
“statistica” – ovverosia la scienza dello Stato (e del commercio) –
si confrontavano con la nuova realtà geo-politica frammentata,
sorta alla firma dei trattati di Westfalia del 1648, i quali
inauguravano il concetto moderno di Stato-nazione e con esso
quello di confini stabili e appartenenze univoche. Per lo Stato, e
soprattutto, da quel momento in poi, per la sua forma
“nazionale”, la raccolta, la conservazione, il trattamento e la
Capitolo I 6
trasmissione di informazione e la capacità di comunicare sono
sempre state condizioni indispensabili per amministrare e
coordinare strutture sociali territorialmente disperse e
complesse, mantenendone allo stesso tempo la coesione e
l’integrità, e per “controllare i membri devianti della popolazione
interna e sorvegliare le popolazioni esterne” (Robins e Webster,
1999, trad. it. p. 147) 2.
1.2 La razionalizzazione della sfera pubblica
Il ruolo dell’informazione e della comunicazione è stato
cruciale, inoltre, per il processo democratico del dibattito
politico nella sfera pubblica. E’ stato, come noto, il filosofo e
sociologo tedesco Jurgen Habermas (1962) a descrivere
magistralmente genesi, consolidamento e disgregazione, tra il
XVII e la prima metà del XX secolo, della “sfera pubblica
borghese”. Essa nasce come quell’ambito di discussione pubblica
separato dallo Stato e ad esso contrapposto, sorto alla
“convergenza storica dei principi democratici, dei nuovi canali di
comunicazione e pubblicità e della fede illuministica nella
Ragione” (Robins e Webster 1999, p. 148). Al suo fulcro vi è
l’”argomentazione razionale” di “privati”, dotati dei prerequisiti
di cultura e proprietà, riuniti in “pubblico” in quanto
“controparte del potere pubblico” (statuale) e destinatario delle
sue decisioni riguardanti le sfere della produzione e riproduzione
sociale. Fondamentale nel percorso di sviluppo e
“autointendimento”, anche politico, della sfera pubblica borghese
in quanto tale è il ruolo della “stampa”, prima sotto forma di
gazzette e dispacci amministrativi, poi di giornali, riviste,
pamphlet e libri. Essi fornirono l’infrastruttura comunicativa
necessaria al pieno dispegarsi di una sfera pubblica con funzioni
Società dell’Informazione 7
politiche ormai matura. All’interno dell’ampio Stato-nazione
questa infrastruttura comunicativa si arricchì via via di nuovi
media che garantissero i canali di discussione e comunicazione e
l’accesso alle risorse informative necessari all’”uso pubblico della
ragione”.
Quello che più attiene alla discussione qui presentata è il
successivo processo di trasformazione del “dibattito razionale e
informato della sfera pubblica” in “organizzazione scientifica
della società da parte di tecnici e burocrati” (ibid.). Le complesse
dinamiche originate proprio dall’emergere di questo spazio
pubblico di discussione finirono per rafforzare ed estendere le
prerogative del mercato, da un lato, e i poteri di uno Stato
divenuto nel frattempo “borghese”, dall’altro. Furono queste due
forze, impersonali e dirompenti, della “modernita” (Touraine
1992), insieme alle contraddizioni insanabili sorte al suo interno
nell’atto di diventare essa stessa elemento di quel dominio da cui
aspirava ad emanciparsi, a “disgregare” la sfera pubblica
borghese prosciugandone la vecchia base sociale, situata
originariamente nello spazio di separazione – poi svanito – fra
Stato e società, fra ambito “pubblico” e ambito “privato”.
Il “pubblico culturalmente critico” dei club letterari, dei
salotti e dei café diventa il “pubblico consumatore di cultura” dei
mass-media, dell’”industria culturale” e della società di massa; la
“discussione assume la forma di un bene di consumo”, la
razionalità stessa si trasforma in consumo (Habermas 1962, pp.
192-196). Ad accompagnare questa intrusione del mercato e delle
relazioni commerciali nella sfera pubblica e la sua progressiva
“mercificazione”, si fa sempre più strada la regolazione
dell’ambito di discussione pubblica da parte di ampi corpi
imprenditoriali e politici – una “rifeudalizzazione” nelle parole
di Habermas. La massiccia intrusione nella sfera privata dei
Capitolo I 8
media di massa e dei loro messaggi, emanazione del potere
statuale e commerciale, riduce drasticamente l’autonomia di una
sfera pubblica trasformata in “pubblicità” e in “opinione
pubblica”. La funzione di mediazione fra Stato e società, svolta
un tempo proprio dal dibattito politico di privati riuniti nella
sfera pubblica, viene presa in carico da istituzioni come partiti,
associazioni e industrie mediali, e condotta dentro i margini
della manipolazione, della propaganda e del marketing politico e
commerciale. Come conclude lo stesso Habermas, “la dimensione
pubblica critica è soppiantata da quella manipolativa” (ibid., p.
213).
Nel complesso, in questo processo di erosione di una sfera
pubblica di discussione informata e critica, la ragione in essa
coinvolta ed esaltata lascia il posto, con quel passaggio storico e
filosofico della modernità individuato da Adorno e Horkeimer
(1944) come “dialettica dell’Illuminismo”, alla razionalizzazione
tecnocratica e amministrativa della vita politica e
all’organizzazione scientifica e totalizzante dell’informazione e
comunicazione pubblica. E’ interessante notare, per altro, come
lo stesso sviluppo delle risorse d’informazione e comunicazione
necessarie al pieno dispiegarsi di uno spazio di discussione
pubblica incoraggi, invece la centralizzazione e il rafforzamento
di quell’apparato statale e imprenditoriale teso proprio a
pregiudicare il dibattito razionale in favore di istanze di
razionalizzazione e controllo (Robins e Webster 1999).
1.3 L’organizzazione scientifica di produzione e
consumo
Sui processi informazionali legati all’ambito politico-
amministrativo si innestarono, accentuandone l’estensione, le
Società dell’Informazione 9
dinamiche al centro dello sviluppo storico del capitalismo in
quanto “modo di produzione” 3 e in particolare
dell’”organizzazione scientifica del lavoro” 4. Al cuore del
"taylorismo" – come teoria e come pratica – secondo Robins e
Webster (1999, p. 139) vi è infatti proprio l'appropriazione e la
“duplice articolazione di informazione/conoscenza per una
pianificazione efficiente e per il controllo”. Il "fordismo" si
occupò in seguito di incorporare questa
informazione/conoscenza nella tecnologia delle strutture
organizzative della produzione – la famosa "catena di montaggio"
–, automatizzando le mansioni e il controllo tecnico su di esse e
rendendo quindi invisibili i rapporti di potere. Queste due
“dottrine” non si limitarono a organizzare il lavoro all’interno
della fabbrica: esse furono le forze che contribuirono ad
estendere le funzioni di controllo e razionalizzazione alla società
in generale. Nel corso della loro ricognizione storica del ruolo
dell’informazione nelle società industriali e dell’apparato
ideologico che ne ha accompagnato la crescita, Robins e Webster
illustrano il percorso che ha condotto i principi
dell’organizzazione scientifica oltre le “mura” della fabbrica.
Innanzitutto ciò avvenne per via della disciplinarizzazione della
forza lavoro, dentro e fuori gli stabilimenti, funzionale agli stessi
criteri di efficienza e controllo: “la sorveglianza manageriale del
lavoro intensivo alla catena di montaggio si combina con
l’inquadramento ideologico nella e della vita privata. L’una è
impensabile senza l’altra” (Mattelart 2001, p. 36). Più
direttamente, furono gli stessi sostenitori dell’organizzazione
scientifica del lavoro a promuovere esplicitamente la
riorganizzazione di una società-macchina, guidata da ingegneri
ed esperti sulla base degli stessi principi di calcolabilità,
razionalità strumentale ed efficienza (Robins e Webster 1999) 5.
Capitolo I 10
Su questo versante, quindi, l’organizzazione scientifica
dell’informazione e della conoscenza e l’ideologia che
l’accompagnava accentuarono i meccanismi amministrativi di
pianificazione e controllo già all’opera nello Stato-nazione.
Ma fu soprattutto l’indiscussa capacità del “taylorismo” – e
del “fordismo” – di incrementare la produttività, la crescita
economica e, di conseguenza, la ricchezza sociale, a legittimare
l’estensione dei suoi caratteri all’intero contesto sociale. “Il
sistema di consumo di massa e la promessa del sogno
consumistico” furono i necessari complementi allo sviluppo della
produzione di massa; l’integrazione e la regolazione di questo
complesso sistema di produzione e consumo richiedeva
l’applicazione alla società in generale degli stessi principi di
efficienza e ottimalità che governavano la produzione. La
raccolta, l’aggregazione e la disseminazione di informazioni
acquisirono un ruolo fondamentale per l’organizzazione
scientifica del consumo, dei bisogni, dei desideri e
dell’immaginazione e diedero vita alle forme moderne del
marketing e della pubblicità che a loro volta contribuirono a
plasmare i formati dei tradizionali mass media (stampa, radio,
televisione). Per questa via, dunque, i principi
dell’organizzazione scientifica e della razionalizzazione
penetrarono a fondo nelle attitudini e nell’immaginario sociali,
guidati dall’”efficienza” del mercato e del sistema di consumo.
Le istanze di pianificazione e controllo, incarnate da un lato
nei meccanismi amministrativi dello Stato-nazione, dall’altro nei
principi dell’organizzazione scientifica della produzione e del
consumo, fecero perno sul ruolo fondamentale dell’uso
strumentale dell’informazione/conoscenza. Il loro dispiegarsi
nella società rappresenta, insieme alle connesse questioni del
potere politico e aziendale, il reale orizzonte della “rivoluzione
Società dell’Informazione 11
dell’informazione” nella forma, indicata da Beniger (1986), di
una “rivoluzione del controllo”.
Tale fondamentale rivolgimento, da molti fatto risalire ai
rapidi progressi registrati negli ultimi trenta o quaranta anni del
secolo scorso nei diversi campi delle ICT, è quindi in realtà il
frutto di un processo molto più lungo, avviatosi come risposta
alla “crisi di controllo” determinata nei primi anni dell’Ottocento
dall’avvento della ferrovia e degli altri trasporti a vapore
(Beniger 1986, p. 25), proseguito con la moltiplicazione degli
strumenti di calcolo e comunicazione durante tutto il corso del
secolo (Fidler 1997) e culminato con
l’emergere, nel primo Novecento, dell’organizzazione scientifica del
lavoro (come filosofia sia di produzione sia di riproduzione sociale). E’
in questo momento che la pianificazione e l’organizzazione scientifica si
sono mosse oltre la fabbrica per regolare l’intero stile di vita. […]
Quando queste strategie di amministrazione e di controllo
dell’informazione sono state sviluppate su una base sistematica, è stato
in quel momento storico, crediamo, che la rivoluzione dell’informazione
si è scatenata. Le nuove tecnologie dell’informazione e della
comunicazione hanno fatto avanzare con maggior sicurezza, e
automatizzato, queste attività combinate di informazione e intelligence,
ma esse rimangono essenzialmente miglioramenti di quella che è stata
fondamentalmente una rivoluzione politico-amministrativa (Robins e
Webster 1999, pp. 154-155).
1.4 La società disciplinare e il totalitarismo
Le complesse dinamiche fin qui osservate portano a
compimento, tra l’altro, lo sviluppo della “società disciplinare”
descritta da Michel Foucault, la cui opera si focalizza proprio
sulla relazione inscindibile fra conoscenza e potere 6. Nel
Capitolo I 12
processo di riconfigurazione della relazione fabbrica-mondo
esterno – e conseguentemente delle stesse strutture della vita
quotidiana – susseguente all’imporsi del “fordismo” come
modello organizzativo della produzione, la società si trovò
assoggettata ad un nuovo tipo di controllo, analizzato da
Foucault nella sua nota interpretazione del Panopticon. Ideato da
Jeremy Bentham alla fine del secolo XVIII come struttura
architettonica che garantisse l’esercizio automatico e ininterrotto
del potere e del controllo nelle carceri, nelle scuole e nelle
fabbriche, tale meccanismo insieme visivo e disciplinare fa si che
la sorveglianza venga, per così dire, interiorizzata dal
sorvegliato, “oggetto di un’informazione, mai soggetto di
comunicazione” (Foucault 1975). “Con la rivoluzione
dell’informazione, non solo la prigione o la fabbrica, ma la
totalità sociale può arrivare a funzionare come macchina
gerarchica e disciplinare” (Robins e Webster 1999, p. 166). Nelle
origini “disciplinari” della “società dell’informazione” – inscritte,
come abbiamo visto, nel ruolo delle risorse e delle tecnologie
dell’informazione e nella relativa convergenza delle istanze di
organizzazione e sorveglianza – sono rintracciabili persino i
germi di quel totalitarismo che ha segnato il XX secolo al di là
delle vicende tragiche e circoscritte del suo effettivo e dichiarato
esercizio del potere (Revelli 2000). Un accenno alle origini
storiche delle tecnologie e delle applicazioni informatiche, in
quanto concretamente e simbolicamente legate all’avvento della
“società dell’informazione”, può fornire elementi utili a
mostrarne questo lato oscuro.
A promuovere la nascita e le prime fasi di sviluppo
dell’informatica moderna furono, tra la fine dell’Ottocento e la
metà del Novecento, da un lato le esigenze degli apparati
militari, dall’altro proprio quelle necessità di pianificazione e
Società dell’Informazione 13
controllo che facevano capo, come visto, sia allo Stato e alle sue
strutture politiche e amministrative, sia al settore industriale
(Robins e Webster 1999). In entrambi casi le spinte
all’innovazione vennero quindi sostenute dalle capacità di spesa
in “ricerca e sviluppo” dello Stato con il fondamentale supporto
del complesso industriale nelle sue punte più avanzate – ciò che
avviene, d’altronde, in (quasi) tutti i campi dell’innovazione
tecnologica e dell’hi-tech. Da una parte, i primi utilizzi e i
progressi dei mastodontici “super computers” o mainframe
furono allo stesso tempo finalizzati e dovuti, a cavallo fra le due
guerre mondiali, alle esigenze di decrittazione dei messaggi
nemici, ai calcoli balistici dei programmi missilistici e antiaerei e
al progetto Manhattan per la bomba atomica (Mattelart 2001, p.
45-46). Dall’altra, le prime macchine a schede perforate erano
già state impiegate, sul finire del XIX secolo, per il conteggio
automatico dei voti nelle consultazioni elettorali, ma soprattutto
per la registrazione, la schedatura e l’analisi statistica delle
popolazioni. 7 Lo sviluppo dei servizi statistici e di censimento 8
aveva già accompagnato, tra la metà e la fine dell’Ottocento, il
trionfo della “ragione contabile” e con essa dei principi
dell’”uomo medio”; fondamenti di una nuova scienza della “fisica
sociale” e di un nuovo modo di regolazione sociale, la “società
assicurativa”, presupposto per il futuro stato assistenziale del
secondo dopo-guerra; pilastri, inoltre, dell’“antropometria” e
della sua “missione igienica di normalizzazione delle classi a
rischio”. “Nel 1890, in occasione del censimento generale,
l’amministrazione federale degli Stati Uniti fa uso per la prima
volta, per il trattamento automatico dei dati raccolti, della
macchina a schede perforate inventata due anni prima dallo
statistico Hermann Hollerith (1860-1929). A partire dal 1896, la
macchina è industrializzata e commercializzata dalla Hollerith
Capitolo I 14
Tabulating Machine Corp., nucleo originario dell’IBM
(International Business Machine)” (ibid., p. 33-36).
Il ricercatore e giornalista statunitense Edwin Black (2001),
nel libro “L’IBM e l’Olocausto” 9, ha svelato l’enorme mole di
documentazione che testimonia l’impiego di schede perforate,
macchine punzonatrici e tecnici IBM per l’individuazione e la
catalogazione di milioni fra ebrei, omosessuali, rom e oppositori
politici di diverse nazionalità, perseguitati, arrestati, deportati o
uccisi dalla Germania nazista fra il 1933 e il 1945. Secondo le
prove fornite da Black e dai suoi collaboratori, non solo l’IBM e
le sue filiali in Europa e in Germania continuarono a fare affari
tramite la fornitura di schede e macchinari ai nazisti per quasi
tutta la durata del regime; in effetti le prove mostrerebbero
anche che l’azienda statunistense contribuì attivamente a far
funzionare quei meccanismi delicati e complessi che,
evidentemente, richiedevano un’assistenza costante e soprattutto
configurazioni personalizzate e un addestramento specifico,
entrambe attività “orientate allo scopo”. Al preliminare lavoro di
censimento volto ad individuare e catalogare gli ebrei e le altre
minoranze da ghettizzare e perseguitare, si aggiunsero via via la
gestione “efficiente” delle linee ferroviare e dei treni per la
deportazione, l’amministrazione dei campi di concentramento e
la registrazione dei detenuti e dei giustiziati. Al di la’ delle
vicende giudiziarie in corso tese a individuare le responsabilità a
carico dell’IBM e dei suoi manager dell’epoca, quello che conta è
che ci troviamo di fronte all’esempio forse più abominevole nella
storia di un utilizzo delle risorse dell’informazione al servizio di
una forma, estrema, di ”ingegneria sociale”.
Ma ad “informare” il progetto criminale del nazismo furono
gli stessi principi (e lo stesso apparato concettuale e tecnico) di
ingegneria sociale, organizzazione e controllo dell’informazione
Società dell’Informazione 15
ed efficienza che guidano il “buon governo” – tanto più se
“elettronico” – delle società democratiche. Insieme alle
“istituzioni di persuasione attiva”, ai diversi “meccanismi di
segretezza, sicurezza e censura” e ai “crescenti sviluppi in
direzione della mercificazione e commercializzazione
dell’informazione”, la massiccia “collezione di informazione da
parte di interessi aziendali e politici” costituisce, infatti, una
delle forze che sostengono l’“organizzazione scientifica delle
risorse dell’informazione”, “meccanismo cruciale per assicurare
la coerenza organizzativa dello Stato-nazione (la società di
massa)” (Robins e Webster 1999). Si può allora concordare con
Anthony Giddens, secondo il quale, alla luce della convergenza e
dell’intreccio fra i processi di gestione delle “risorse allocative”
(pianificazione, amministrazione) e delle “risorse autoritative”
(potere, controllo), determinata dalla dipendenza di entrambi
dalla sorveglianza e dal monitoraggio continui – e quindi da un
utilizzo strumentale dell’informazione –, “il totalitarismo è una
tendenza propria dello Stato moderno” (Giddens 1985, cit. in
Robins e Webster 1999, p.194).
2. Dalla “società dell’informazione” alla “società in rete”
Sin qui si sono cercati di evidenziare e contestualizzare due
aspetti del rapporto fra le risorse e le tecnologie
dell’informazione e della comunicazione e la società nel suo
complesso. In primo luogo, la centralità di tali risorse (la
cosiddetta “rivoluzione dell’informazione”) ha origini più antiche
di quanto comunemente si creda e risale almeno alla “seconda
rivoluzione industriale” di fine ‘800 e alle innovazioni
nell’ambito dell’organizzazione che vi ebbero luogo; è quindi
Capitolo I 16
sganciata, almeno in parte, dalle specifiche innovazioni tecnico-
scientifiche degli ultimi 50-60 anni. In secondo luogo, la
mobilitazione di tali risorse e tecnologie è stata funzionale da
allora alla regolazione (nel binomio “pianificazione” e
“controllo”) delle istanze politiche ed economiche delle società
industriali avanzate, capitalistiche o stataliste che fossero; la
dimensione fondamentale di questo processo si è svolta nella
direzione di una razionalizzazione tecnocratica dei diversi
ambiti della vita umana.
Si rende opportuna, a questo punto, una ricognizione degli
elementi di discontinuità riscontrabili nell’attuale scenario
dominato dalle tecnologie digitali e di rete, da diverse forme di
riorganizzazione delle strutture economiche e politiche a livello
locale e globale e da significativi mutamenti nella sfera culturale,
così come sono state presentate e discusse nella letteratura degli
ultimi anni. Il lavoro di alcuni di questi autori si pone in misura
diversa in antitesi alle posizioni sin qui presentate, nella misura
in cui tende ad assegnare all’approfondimento dei processi di
valorizzazione dell’informazione e della conoscenza osservato
negli ultimi trenta anni, un carattere di “trasformazione epocale”
nel percorso di sviluppo del capitalismo e delle società
occidentali in generale.
2.1 Informazionalismo e globalizzazione: Manuel
Castells e la ristrutturazione del capitalismo
Il notevole contributo teorico ed analitico del sociologo
Manuel Castells 10 intorno all’“età dell’informazione” segue le
orme dei classici lavori di Daniel Bell e di Alain Touraine sulla
società postindustriale, riprendendo ed adattando, dal primo, il
ruolo sostanziale dell’innovazione scientifica e tecnologica, e dal
Società dell’Informazione 17
secondo l’importanza attribuita alle mutazioni del “gioco sociale”
e all’interazione fra i suoi protagonisti, tra i quali in particolare i
“movimenti sociali”. L’opera di Castells è inoltre debitrice nei
confronti delle analisi dell’economista Robert Reich sulle
trasformazioni del ruolo sociale dell’impresa e nella divisione
internazionale del lavoro e sulla crescita in numero ed
importanza dei cosiddetti “analisti simbolici” 11. Secondo l’autore
catalano “la ristrutturazione del modo di produzione capitalista
alla fine del XX secolo”, susseguente alla crisi attraversata negli
anni ‘70 dal modello keynesiano, ha plasmato “un modo di
sviluppo mai visto prima, l’informazionalismo” in cui “l’elemento
essenziale per l’avanzamento della produttività nel processo
produttivo […] risiede nella tecnologia di generazione del sapere,
dell’elaborazione delle informazioni e della comunicazione
simbolica” (1996, pp. 15-17). Pur sottolineando che
l’informazione e la conoscenza hanno costituito elementi critici
in tutti i modi di sviluppo, Castells (ibid., p. 17-18) evidenzia che
la peculiarità del nuovo modo di sviluppo “consiste nel fatto che
la sua fonte principale di produttività è l’azione della conoscenza
sulla conoscenza stessa […] in un circolo virtuoso di interazione
tra le fonti del sapere della tecnologia e l’applicazione della
tecnologia allo scopo di perfezionare la generazione della
conoscenza e l’elaborazione delle informazioni […] in un ciclo di
feedback cumulativo tra innovazione e usi dell’innovazione”.
L’asse principale dello sviluppo di quello che Castells
definisce “capitalismo informazionale” è individuato dal
sociologo spagnolo nella “rivoluzione delle tecnologie
dell’informazione” e nel nuovo “paradigma tecno-economico” da
essa plasmato, allo stesso modo in cui “la determinante
innovazione nella generazione e distribuzione di energia” fu alla
base del capitalismo industriale. All’estensione e
Capitolo I 18
all’accrescimento della forza del corpo umano resi possibili dalle
innovazioni della seconda rivoluzione industriale, subentrano
oggi l’amplificazione e l’estensione di una mente umana
potenziata da computer e sistemi di comunicazione. Le
innovazioni “sinergiche” ed esponenziali degli ultimi cinquanta
anni nei campi della microelettronica, dell’informatica e delle
telecomunicazioni, nonché negli ambiti convergenti
dell’ingegneria genetica e delle biotecnologie, e la loro complessa
interazione con la ricerca militare, gli interessi commerciali, gli
investimenti statali e gli ambienti culturali di riferimento, si
sono coagulate intorno allo “spartiacque tecnologico degli anni
Settanta” dando origine, a partire dalla costa occidentale degli
Stati Uniti, ad un nuovo sistema tecnologico che ha pervaso “le
funzioni, i gruppi sociali e i territori del globo dominanti”, con
una rapidità inedita per le rivoluzioni tecnologiche precedenti,
determinata proprio dalla natura “virtuosa” ed esponenziale dei
suoi sviluppi.
La concretizzazione a lungo termine più eclatante e visibile
di questo sistema tecnologico è stata senza dubbio Internet. La
Rete delle reti si è strutturata, nel giro di un trentennio, come la
principale infrastruttura di comunicazione a livello globale e la
prima nella storia a consentire lo scambio in tempo (quasi) reale
di enormi e crescenti quantità di dati in grado, sfruttando la
duttilità del codice binario, di veicolare una gamma pressoché
infinita di formati, risorse, attività e relazioni sociali: dal traffico
voce alle risorse informative che le diverse strutture dell’azienda
in rete si scambiano per funzionare e interagire tra loro e con
clienti e fornitori; dal semplice formato testuale della posta
elettronica, dei newsgroups di Usenet, degli oramai lontani
BBSs, e poi delle chat e dell’instant messaging, ai formati
multimediali e interattivi che circolano sul World Wide Web o
Società dell’Informazione 19
sui circuiti della televisione digitale e che assolvono alle più
disparate funzioni comunicative, informative o transattive; dalle
applicazioni di calcolo distribuito del grid computing e dallo
scambio di dati fra istituzioni scientifiche e accademiche in tutto
il mondo all’altrettanto globale condivisione di risorse audio,
video, software e altro attraverso i circuiti delle reti peer to peer.
In questa parziale ricognizione ciò che salta agli occhi è la natura
assai eterogenea degli scambi e delle attività che avvengono
attraverso i protocolli di comunicazione che costituiscono
l’infrastruttura logica di base di Internet: gli ambiti della
produzione e del commercio, del consumo e dell’intrattenimento,
della ricerca scientifica e della collaborazione accademica, delle
relazioni interpersonali e di gruppo, tutti trovano nella Rete e nei
formati digitali un’infrastruttura e un ambiente comuni. Ne
consegue, tra l’altro, che in tale ambiente prendano forma allo
stesso tempo i dispositivi del potere così come le relative istanze
di resistenza.
Le evoluzioni tecniche che plasmarono il nuovo paradigma
tecnologico e diedero vita alla Rete delle reti, si intrecciarono – e
si alimentarono reciprocamente – con i processi di
ristrutturazione capitalistica avviati negli anni Settanta per porre
rimedio alla crisi del modello keynesiano di sostegno alla
domanda. La “ricerca di nuovi mercati, in grado di assorbire la
crescente capacità produttiva di beni e servizi” che non trovava
più sbocchi nelle economie avanzate, innescò il processo di
sviluppo di un’”economia globale”, cioè “un’economia le cui
componenti centrali hanno la capacità istuzionale,
organizzativa e tecnologica di operare come un’unità in tempo
reale o scelto su scala planetaria”. Le sue linee fondamentali
furono il frutto dell’”interazione fra mercati, governi e istituzioni
finanziarie internazionali”:
Capitolo I 20
[…] né la tecnologia né gli affari potevano dar vita in modo autonomo
all’economia globale. Gli agenti decisivi per la realizzazione della nuova
economia globale furono i governi e, in modo particolare, i governi dei
paesi più ricchi, i G-7, e le istituzioni internazionali sussidiarie da essi
dipendenti: il Fondo Monetario Internazionale, la Banca Mondiale e
l’Organizzazione Mondiale per il Commercio. Tre politiche interrelate
gettarono le fondamenta della globalizzazione: la deregolamentazione
dell’attività economica nazionale (a partire dai mercati finanziari); la
liberalizzazione del commercio e dell’investimento internazionali; la
privatizzazione delle società di proprietà pubblica.
Le nuove tecnologie dell’informazione e della comunicazione
risultarono non a caso uno degli oggetti privilegiati delle
politiche di liberalizzazione e privatizzazione e al tempo stesso
gli strumenti indispensabili per la loro piena implementazione su
scala globale nei più diversi settori merceologici e produttivi
(Schiller 1999). Gli effetti – globali ma differenziati per aree
geografiche e influenze culturali – generati dall’intreccio di
queste politiche furono l’integrazione globale dei mercati
finanziari, l’internazionalizzazione spinta del commercio (in
particolare la crescita del settore dei servizi) e soprattutto della
produzione (crescita degli investimenti diretti all’estero,
sviluppo delle imprese multinazionali) e la conseguente
trasformazione organizzativa del processo produttivo in reti di
produzione transnazionali. E’ interessante notare, come fa
Castells, come una volta garantito il collegamento tecnologico, il
processo di generazione e diffusione della tecnologia e del
relativo know-how si organizza intorno a queste stesse reti,
grazie allo stretto legame fra ricerca di base e ricerca applicata e
alla loro diffusione “selettiva” e diseguale, da cui dipendono
sviluppo economico e competitività.
Società dell’Informazione 21
“Informazionalismo, globalizzazione e networking”, i
caratteri principali della “nuova economia” identificata da
Castells, sono dunque processi strettamente interconnessi tra di
loro, e a loro volta legati a trasformazioni profonde nei modelli
d’impresa (sviluppo dell’”impresa a rete”), nella struttura
occupazionale e di divisione internazionale del lavoro
(polarizzazione sociale, flessibilità, precarizzazione,
“individualizzazione del lavoro”), nei meccanismi di creazione e
misurazione del “valore” (finanziarizzazione), nella
configurazione e nelle dinamiche del potere politico (perdita di
influenza da parte dello Stato-nazione), nei processi, nei modelli
e negli strumenti della comunicazione e degli scambi culturali
(“virtualità reale”), nelle dinamiche del consenso politico e del
processo democratico, nella configurazione dominante delle
dimensioni materiali fondamentali dell’esperienza, ossia spazio e
tempo (prevalenza dei flussi sui luoghi, tempo indifferenziato o
acronico). L’assetto sociale complessivo scaturito da queste
dinamiche organizza sempre più le funzioni e le strutture
dominanti intorno a reti, la cui logica binaria
(inclusione/esclusione) e i cui flussi prevalgono sugli stessi attori
e sullo stesso potere: la “società in rete” è “caratterizzata dalla
preminenza della morfologia sociale rispetto all’azione sociale”.
In conclusione, questa struttura sociale fondata in maniera
predominante sui network ha avuto origine, secondo il sociologo
spagnolo, dall’intreccio di tre processi indipendenti: l’affermarsi
in campo economico delle esigenze di flessibilità gestionale e
globalizzazione di capitali, produzione e commercio; l’emergere
nella società dei valori della libertà individuale e dell’apertura
della comunicazione; gli straordinari miglioramenti delle
prestazioni dei computer e delle telecomunicazioni, resi possibili
dai progressi della microelettronica (Castells 2001).
Capitolo I 22
2.2 Il “capitalismo culturale” di Jeremy Rifkin
Al di là della già menzionata versatilità della Rete, la
convergenza dei diversi ambiti delle relazioni umane verso un
ambiente omogeneo il cui perno è rappresentato dalla
comunicazione, è stata indagata, da un punto di osservazione
maggiormente attento agli aspetti culturali, da Jeremy Rifkin
(2000). L’autore statunitense sottolinea infatti come le società
moderne stiano attraversando una fase di profondo
cambiamento, riassumibile nel graduale passaggio, nei diversi
ambiti delle attività sociali, dalla prevalenza della proprietà di
beni fisici alla priorità dell’accesso a servizi, prima, ed
esperienze, poi. Questo mutamento si inscrive in una
trasformazione più ampia del capitalismo, ovverosia il
progressivo slittamento dalla “produzione industriale” alla
“produzione culturale”. Quest’ultima rappresenterebbe “la fase
finale del modo di vita capitalistico, il cui scopo è quello di
sottoporre una porzione sempre maggiore dell’esperienza umana
al dominio della sfera economica” (ibid.). Mentre Stati e mercati
vengono sostituiti dalle Reti, la dimensione della “mercificazione
del lavoro”, il più tipico dei tratti di un’economia e di una società
industriali, estende la sua presa in direzione di una
“mercificazione del divertimento”, e quindi del tempo e della vita
stessa, in cui le risorse culturali e le esperienze umane sono
frammentate, decontestualizzate e impacchettate per essere
messe a valore nel processo produttivo o rivendute a pagamento
come “diritto d’accesso” a mondi ibridi fra virtuale e reale –
turismo, parchi a tema, centri commerciali, sport, musica,
cinema, televisione, e ora anche Internet e l’“intrattenimento
digitale” delle reti globali che danno forma al ciberspazio 12. Dato
il legame strutturale che sussiste fra comunicazione e cultura,
Società dell’Informazione 23
quando, come sta avvenendo oggi, gran parte delle risorse e degli
strumenti di comunicazione vengono privatizzati e
commercializzati, la cultura stessa non può che andare incontro
allo stesso processo di mercificazione. Il risultato è un
“ipercapitalismo fondato sull’accesso a esperienze culturali” e un
processo di “recinzione” del patrimonio culturale dell’umanità –
inteso come insieme costituito dalle risorse culturali, ma anche
dagli stessi caratteri biologici dell’uomo e delle diverse specie
animali e vegetali con cui esso ha interagito nel corso della sua
storia per trarne sostentamento.
Rifkin non è il solo, inoltre, a sottolineare come questi
processi presentino significative analogie con le enclosures che
interessarono le “terre comunali” nella fase di avvio del
capitalismo – caratterizzata da quella che Marx ha definito
“accumulazione primitiva” – tra il XVI e il XVII secolo, e
inaugurarono quella “predazione di esternalità” di cui parla Yann
Moulier Boutang. Il sistema della produzione di merci, infatti, si
è sempre rivolto nel corso della sua storia a ricchezze “esterne”
per reperirvi quelle risorse indispensabili al suo funzionamento
ma che esso non era in grado di produrre “secondo la sua logica e
i suoi propri metodi” (Gorz 2003, pp. 51-57). Dall’ambiente
naturale, bene in origine collettivo, appropriato e sfruttato dal
sistema industriale, alle risorse sociali di fiducia e onestà,
indispensabili per l’efficacia degli istituti finanziari e di mercato
(contratti, compravendita, ecc.) e originate nella sfera delle
relazioni sociali; dalle attività di cura e riproduzione familiare
che garantivano la disponibilità della forza-lavoro e la
socializzazione primaria dei bambini; fino all’odierna crescente
valorizzazione economica dei “beni collettivi dell’umanità, come
la biodiversità, i genomi e i saperi viventi in corso di
brevettazione e privatizzazione” (ibid.), degli spazi comuni,
Capitolo I 24
urbani e naturali, delle “conoscenze vive e, più in generale,
[delle] capacità umane prodotte nella cooperazione e mediante
essa” (ibid.), spontaneamente e al di fuori dai meccanismi dello
scambio mercantile e anzi tanto più utili e di “valore” quanto più
inserite in un ambiente di condivisione e reciprocità. In ognuno
di questi casi di appropriazione di esternalità da parte delle forze
del capitale, tali risorse sono state depredate e deteriorate, in
alcuni casi fino al loro esaurimento. Secondo Rifkin la massiccia
introduzione delle risorse culturali nel ciclo produttivo configura
il grave rischio, di cui già si intravedono le prime avvisaglie nella
loro trasformazione in prodotti di “consumo” 13, di un loro
progressivo impoverimento e deterioramento, con conseguenze
nocive per le stesse prerogative del mercato ma soprattutto per i
fondamenti su cui si basa l’esistenza delle diverse comunità
umane e in definitiva dell’umanità stessa in quanto tale.
2.3 Postfordismo e informazionalismo: i saperi al
lavoro fra subordinazione e liberazione
Le considerazioni di Rifkin sulla “deriva culturale” del
capitalismo si intrecciano, quindi, con le riflessioni, di origine
soprattutto europea, sulle mutazioni del lavoro e dell’impresa
indotte dall’accresciuto ruolo delle risorse di informazione e
conoscenza nei processi di valorizzazione capitalistica. Non solo
il valore aggiunto – e spesso la stessa sostanza – di prodotti e
servizi immessi sul mercato è sempre più costituito dalla loro
componente “immateriale”, ma gli stessi processi produttivi
tendono ad incorporare una quota sempre maggiore di “capitale
umano”, intendendo con ciò l’insieme delle conoscenze e delle
“facoltà umane generiche” messe a lavoro non più solo “tra le
mura” dell’impresa fordista ma nella società nel suo complesso.
Società dell’Informazione 25
Si trova un accenno a tali questioni nello stesso Castells (1996, p.
107), quando afferma che la specificità dell’informazionalismo
“non è il tipo di attività che impegna l’umanità, ma la sua abilità
tecnologica nell’impiegare come forza produttiva diretta ciò che
contraddistingue la nostra specie come eccezione biologica: la
sua superiore capacità di elaborare simboli”; ne deriva, dice
ancora Castells (ibid., p. 32), “un rapporto stretto tra i processi
sociali di creazione e manipolazione dei simboli (la cultura della
società) e la capacità di produrre ed erogare beni e servizi (le
forze produttive). Per la prima volta nella storia la mente umana
è una diretta forza produttiva, non soltanto un elemento
determinante del sistema produttivo”.
2.3.1 Marx, il “general intellect” e il capitalismo cognitivo
I mutamenti delle forme del lavoro e dell’impresa nel nuovo
contesto tecnico-organizzativo del capitalismo sono state
affrontate soprattutto nell’ambito del dibattito relativo alla
nascita del post-fordismo – un dibattito risalente, in realtà,
addirittura alla metà degli anni Ottanta (Revelli 2001, p. 115). In
pratica l’insieme di fenomeni e trasformazioni riassunti da
Castells nel concetto di “impresa a rete”, trova in questi autori
una sistemazione teorica che ne sottolinea il ruolo di cesura
storica rispetto al fordismo, ovverosia rispetto al modello
tecnico-organizzativo che ha dominato la scena dello sviluppo
industriale e ha plasmato le strutture delle società avanzate
lungo il corso del Novecento. In particolare la “teoria critica” di
matrice europea, e soprattutto il pensiero “neo-marxista” e
“post-operaista” italiano 14, nell’incontro con la scuola “post-
strutturalista” francese, ha evidenziato come il nuovo paradigma
implichi un’inedita messa al lavoro dell’intelletto umano, che da
Capitolo I 26
un lato prefigurerebbe un processo di estensione e
approfondimento dello sfruttamento capitalistico sulla totalità
delle relazioni umane, dall’altro costituirebbe uno
stravolgimento dei fondamenti del capitalismo tale da sancirne la
crisi irreversibile.
All’origine di tali interpretazioni si colloca innanzitutto la
riproposizione di un anomalo e controverso brano di Karl Marx,
tratto dai Lineamenti fondamentali della critica dell’economia
politica del 1857-58; tale brano è riletto quasi come antesignano
(e allo stesso tempo come contrappunto) delle teorie odierne che
parlano di un’“economia della conoscenza” e di un “capitalismo
cognitivo” – espressioni utilizzate, forse con eccessivo
compiacimento, per riferirsi appunto alle mutate condizioni di
valorizzazione del capitale. In quel testo “si parla ora dello stato
generale della scienza, ora del sapere sociale generale
(knowledge), ora del general intellect, ora delle forze generali
della mente umana” (Gorz 2003, p.10). Marx parla quindi del
“sapere oggettivato nel capitale fisso” (Virno 2001) – ossia della
scienza e della tecnologia incarnate nel sistema di macchine e
originate dal general intellect – il cui sviluppo già mostrava fino
a che punto il “sapere sociale generale, knowledge”, fosse
diventato “forza produttiva immediata”. La tesi lì sostenuta da
Marx – con una forse involontaria ma notevole lungimiranza – è
che la “conoscenza (knowledge)” – o il “sapere astratto”, o il
general intellect – sarebbe diventata “la forza produttiva
principale” e “la principale fonte di ricchezza”, relegando il
lavoro immediato in un ruolo “indispensabile, ma subalterno,
rispetto al lavoro scientifico generale”. Andrè Gorz (2003, p. 10)
fa notare opportunamente l’oscillazione della terminologia
marxiana, per cui inclusi nel general intellect sembrano essere
anche la “«formazione e [lo] sviluppo artistico, scientifico ecc.»
Società dell’Informazione 27
che l’individuo potrà acquisire grazie all’«aumento del tempo
libero» e che retroagisce sulla «produttività del lavoro». Il che fa
sì – prosegue ancora Gorz citando il brano di Marx – che la
liberazione «del tempo dedicato allo sviluppo pieno
dell’individuo» può essere considerata, «dal punto di vista del
processo di produzione immediato, come produzione di capitale
fisso, questo capitale fisso being man himself». L’idea di
“capitale umano” si trova dunque già nei manoscritti del 1857-
58”.
La stessa ambiguità del termine “conoscenza” si riscontra
d’altronde nell’uso che se ne fa oggi per indicare la materia
prima della nuova economia: nel novero delle attuali forze
produttive, non solo le conoscenze formali incarnate negli
individui si aggiungono alla conoscenza oggettivata nel sistema
di macchine – divenuto tra l’altro in grado di manipolare altra
conoscenza – ma esse sono in realtà solo una minima parte del
complesso di conoscenze informali, capacità espressive,
relazionali, cooperative, affettive, immaginative, inclinazioni
etiche, mentalità, saperi pratici, ecc., che gli individui producono
nella cooperazione sociale al di fuori dalla sfera produttiva – che
producono proprio in quanto fuori da essa, attingendo al general
intellect come il parlante attinge alla lingua (Virno 2001) – e di
cui il processo produttivo si appropria gratuitamente, novello
plusvalore assoluto. Queste competenze cognitive e affettive non
sono oggettivabili, riguardano le più generiche attitudini della
mente, la semplice facoltà di pensare, e appartengono a
quell’“intellettualità di massa” definita come “l’insieme del
lavoro vivo post-fordista” proprio “in quanto depositario di
competenze cognitive non oggettivabili nel sistema di macchine”
(ibid).
Capitolo I 28
L’inedita compenetrazione di “azione comunicativa e azione
produttiva”, “lavoro e linguaggio” – sino all’affermazione
secondo la quale “il lavoro è interazione” (ibid.) – è legata a
doppio filo alle potenzialità delle tecnologie digitali; non tanto,
appunto, come mezzi di oggettivazione del sapere diffuso, quanto
come macchine le cui funzioni riguardano piuttosto
“l’interazione comunicativa” e “la codificazione linguistica”
(Formenti 2002). Il computer, allora, e la “rivoluzione
microelettronica” in generale, rappresenterebbero in ambito
produttivo un punto di non ritorno in quanto danno vita a
macchine il cui compito non è “oggettivare competenze
precostituite, bensì intercettare le conoscenze là dove esse si
producono, cioè nel corso delle interazioni che avvengono
all’interno del lavoro vivente” (ibid.) per inserirle in quei circuiti
dell’accumulazione flessibile, capaci di mettere in rete risorse,
modi, tempi e luoghi di produzione fra loro molto diversi. Ne
deriva una messa al lavoro (e a valore) dell’intero insieme di
attività umane, che divengono quindi direttamente o
indirettamente produttive, e anzi in qualche modo producono se
stesse. Come afferma Gorz (2003, pp. 12-14, 48) non solo
“lavorare è prodursi” – dal momento che, a differenza della
spoliazione “dei saperi, delle capacità e delle abitudini sviluppati
nella cultura quotidiana” necessaria all’inserimento dei
lavoratori nel processo produttivo parcellizzato della fabbrica
taylorista, “i lavoratori postfordisti devono entrare nel processo
di produzione con tutto il bagaglio culturale” acquisito; ma la
centralità assunta dal capitale simbolico nel processo di
valorizzazione fa sì che anche il consumo sia “produzione di sé”.
Attraverso tale concettualizzazione è possibile, per alcuni,
affermare il destino ineluttabile di subordinazione effettiva
(sussunzione reale, con terminologia marxiana) al dominio del
Società dell’Informazione 29
capitale cui va incontro non più solo il lavoro, ma ogni ambito
dell’esistenza – sottomesso ad un foucaltiano “biopotere”
attraverso cui il capitale produce direttamente i corpi e le menti
dei produttori-consumatori; un tipo di dominio al quale diventa
possibile opporre solo la politicizzazione antagonista di ogni
relazione sociale direttamente o indirettamente implicata nel
processo capitalistico di produzione. E’ questo il punto di vista
del pensiero attualmente più in voga in buona parte della sinistra
radicale europea; un punto di vista in cui si collocano anche le
riflessioni sui concetti di Impero e di Moltitudine espressi in
particolare da Toni Negri e Micheal Hardt in alcuni loro recenti
lavori (Hardt e Negri 2000; 2004). Da questa prospettiva,
tutt’altro che uniforme, si osserva il confluire della politica,
dell’economia, delle facoltà, delle abitudini, della stessa sfera
affettiva in un unico elemento, l’uscita del lavoro da una pura
dimensione economica, l’ingresso della politica nel processo del
lavoro, lo svilupparsi di forme di vita e di comportamenti non più
riconducibili separatamente all’una o all’altra sfera, tanto sul
versante del potere quanto su quello di chi vi si oppone.
2.3.2 Esodo dalla “società del lavoro”?
Le critiche di Formenti (2002) alla versione più “ortodossa”
– per quanto tale aggettivo possa qui risultare paradossale – del
pensiero “post-operaista” e in generale ai limiti del paradigma
postfordista, si appuntano in particolare proprio sull’estensione
del concetto marxiano di sussunzione reale all’“inserimento
d’una sfera sempre più ampia di attività umane nella catena del
valore di una produzione capitalistica terziarizzata,
smaterializzata, semiotizzata […] soprattutto perché le attività in
questione […] non vengono unificate dal modo di produzione,
come avveniva con le vecchie attività professionali omologate
Capitolo I 30
dalla catena di montaggio fordista, al contrario: esse sono tanto
più funzionali al nuovo modo di produrre quanto più conservano
le loro differenze”. Riprendendo le considerazioni di Rifkin
sull’“economia dell’accesso” e sulle new enclosures, Formenti
interpreta queste ultime come la manifestazione di un nuovo
processo di sussunzione formale, non più solo del lavoro in senso
classico, ma delle attività e delle risorse sociali comuni in
generale al capitale; un processo analogo a quello che interessò
nella fase aurorale del capitalismo le attività artigianali,
concentrate dall’imprenditore sotto il suo comando unificato e
nel suo spazio produttivo, ma ancora non intaccate nei rispettivi
metodi di lavoro. Due fattori impedirebbero invece di estendere
il concetto di sussunzione reale agli attuali fenomeni di
estrazione di valore dalla spontanea cooperazione sociale: da un
lato la già citata “polverizzazione” delle attività direttamente o
indirettamente produttive e l’irriducibilità delle loro differenze –
il paradosso per cui “l’uomo a molte dimensioni” non può più
essere privato delle sue molteplici prerogative ma ugualmente
deve essere ridotto all’unica dimensione della merce. Dall’altro, e
soprattutto, ad impedire una tale riproposizione sarebbero le
resistenze opposte dagli attori sociali dall’interno stesso di
relazioni compiutamente capitalistiche – relazioni, cioè, e
strumenti abilitanti, generati dallo stesso sviluppo capitalistico.
Tali resistenze sarebbero analoghe per natura ed intensità a
quelle incontrate dall’ideologia del laissez-faire a cavallo tra
Ottocento e Novecento, all’apice di quella “grande
trasformazione”, in primo luogo culturale, della società, situata
da Karl Polanyi all’origine del capitalismo moderno. Le società
occidentali starebbero attraversando, infatti, un’analoga fase di
riconfigurazione dei rapporti sociali, determinata oggi in gran
parte dall’intreccio fra la rivoluzione informatica e digitale e le
Società dell’Informazione 31
trasformazioni culturali e sociali sostenute dai movimenti sociali
degli ultimi trent’anni. A differenza di allora, però, i “soggetti”
che secondo Formenti si oppongono alla nuova “trasformazione”
– hackers, frange del lavoro cognitivo, piccole imprese
innovatrici, ricercatori e scienziati, sviluppatori di free software,
utenti delle reti p2p e in generale di Internet, “comunità virtuali”
– lo farebbero proprio per preservarne i caratteri originari,
difendendo modelli di relazione non residuali, perché sorti al
centro stesso dello sviluppo capitalistico e del suo incessante
processo di mutamento, ma paradossalmente ad esso in qualche
modo contrapposti, perché fondati sulla gratuità dello scambio,
sulla cooperazione e sulla condivisione di strumenti e risorse.
Ci troviamo qui su quel crinale della riflessione intorno al
nuovo paradigma produttivo e sociale scaturito dalla “crisi” del
capitalismo industriale e dall’avvento delle nuove tecnologie
dell’informazione e della comunicazione, secondo cui le “linee di
rottura del modello socio-economico novecentesco” (Revelli
2001) riscontrabili nelle trasformazioni in corso,
rappresenterebbero una possibile modernizzazione positiva
lungo un percorso di emancipazione individuale e collettiva dalla
“società del lavoro”. Una visione condivisa, pur con sfumature e
accenti molto diversi tra loro, non solo da Rifkin e da molti
esponenti dell’“utopia digitale” californiana, rappresentata da
autori, ricercatori e guru quali Nicholas Negroponte, Kevin Kelly
e Gorge Gilder e da riviste patinate come Wired e Mondo2000;
ma anche da quelle che lo stesso Formenti definisce le “eresie
della teoria postfordista” e da una parte della net theory
accademica nordeuropea e nordamericana. Da questa assai
sfaccettata prospettiva il lento dissolvimento della distinzione fra
tempo di lavoro e tempo libero, la centralità assunta dagli aspetti
relazionali e comunicativi (il “lavoro al femminile”) e in generale
Capitolo I 32
l’emergere dei caratteri di una “società dell’informazione”
vengono intesi, piuttosto che come gli elementi di un processo di
subordinazione della totalità delle attività umane al controllo del
capitale e della sfera produttiva, come i contorni ancora sbiaditi
di uno scenario caratterizzato dalle diverse espressioni di
un’auspicabile identificazione positiva di vita e lavoro.
2.4. L’etica hacker e lo spirito
dell’informazionalismo
Significative in proposito sono le riflessioni che provengono
dalla letteratura riguardante la cosiddetta “etica hacker”. Con
evidente ed esplicito riferimento alla nota opera di Max Weber 15
e condividendo in pieno il punto di vista di Castells, il ricercatore
finlandese Pekka Himanen (2001) presenta i caratteri di quello
che definisce “spirito dell’età dell’informazione” o
“dell’informazionalismo”, rinvenendone le origini appunto
nell’“etica hacker”. Se Weber aveva rintracciato la matrice
storico-culturale dell’economia capitalistica nell’etica monastica
del cattolicesimo medievale e soprattutto nell’etica protestante,
in particolare nel loro approccio al lavoro come sacrificio,
vocazione e “conferma dello stato di grazia”, Himanen istituisce a
sua volta un legame fra l’informazionalismo, inteso nei termini di
nuovo modo di sviluppo del capitalismo, e l’etica hacker, ossia
quella concezione del lavoro – e della vita – che privilegia la
passione e le motivazioni personali rispetto al guadagno
economico e lo interpreta come mezzo di realizzazione personale
piuttosto che come valore in sé in quanto “risposta alla chiamata
divina”.
Società dell’Informazione 33
2.4.1 La criminalizzazione dell’hacking
E’ innanzitutto necessario spazzare il campo dagli equivoci
che circondano le diverse accezioni del termine hacker, equivoci
generati per lo più dal perverso intreccio fra le semplificazioni e
le vere e proprie distorsioni implicate dai meccanismi di
newsmaking adottati dai media fin dagli anni Ottanta e le
campagne denigratorie e persecutorie messe in atto, soprattutto
a partire dai primi anni Novanta, nei confronti delle
controculture informatiche da diversi governi – quello
statunitense in primis, seguito, tra gli altri, anche da quello
italiano 16. In tali rappresentazioni, infatti, l’hacker viene
mostrato come un esperto informatico dedito ad un’ampia
gamma di attività criminose o a scopo criminale: dalla violazione
di codice informatico alla penetrazione in reti protette, dalla
diffusione attraverso la Rete di diversi tipi di virus, worm e
trojan informatici all’aggiramento delle barriere poste al libero
utilizzo di software commerciale, fino al cosiddetto “furto
d’identità”, ossia l’appropriazione indebita, attraverso sistemi
informatici (sniffing) e meccanismi sociali e psicologici
(phishing), di dati personali relativi ad informazioni bancarie.
In tempi più recenti, da un lato la mole di ricerche ben
documentate su storia, cultura e valori condivisi del variegato
universo hacker ha portato ad una sua maggiore comprensione,
soprattutto in ambito accademico e nella copertura dei media
indipendenti; dall’altro, però, ciò non è servito ad impedire la
sua ulteriore criminalizzazione da parte del sistema dei media
mainstream, delle istituzioni governative e degli apparati di
controllo e repressione, sulla base dell’accostamento fra
l’hacking e la nuova categoria, emersa con particolare veemenza
dopo l’11 Settembre, del cyberterrorismo (Vegh 2005). In questo
senso, il progressivo slittamento dall’equazione hacker-criminale
Capitolo I 34
a quella – più adeguata ai tempi … – hacker-terrorista, sembra
mirato ad indebolire quel potenziale di dissenso che è venuto
caratterizzando il movimento hacker negli ultimi anni, nella sua
parziale sovrapposizione con quei movimenti che fanno uso dei
nuovi media per proporre esperienze, modelli economici e
immaginari, alternativi a quelli dominanti – ad esempio le
pratiche dell’attivismo on line e del mediattivismo, o l’esplicito
riferimento a tale sovrapposizione del neologismo hactivism –
(Di Corinto e Tozzi 2002; Lovink 2002; 2003). Nel frattempo
persino la violazione del copyright sulle cosiddette opere
dell’ingegno nella nuova fase digitale – soprattutto musica,
audiovisivi e software – attraverso la loro condivisione nei
circuiti delle reti peer to peer, o addirittura il semplice sviluppo
del software necessario al loro funzionamento, sono stati fatti
oggetto di criminalizzazione – e in molti casi di veri e propri
procedimenti legali – e superficialmente assimilati per certi versi
all’universo hacker.
2.4.2 Breve storia dell’hacking
Nelle ricostruzioni delle reali connotazioni che sono andati
assumendo nel tempo i termini hack, hacker, hacking e le loro
diverse derivazioni (Levy 1984; Di Corinto e Tozzi 2002;
Himanen 2001; Willliams 2002; Castells 1996; Berra e Meo
2002), si fa risalire la loro origine “non informatica” al clima
goliardico dei campus statunitensi e in particolare del MIT di
Boston nei primi anni Cinquanta: hacks erano gli scherzi
raffinati e inventivi, attività creative svolte per divertimento, per
lo più innocue e non dolose, in alcuni casi semplici passatempi
che richiedevano una certa abilità. Più avanti il termine acquistò
una connotazione più netta e “ribelle”, per cui oltre a continuare
ad indicare prese in giro e scherzi elaborati, sempre più diretti
Società dell’Informazione 35
contro l’amministrazione e i vincoli burocratici e formali che essa
incarnava, cominciò ad essere utilizzato anche nell’accezione di
“esplorazione senza limiti”, sia delle diverse zone off-limits degli
istituti del campus (tunnel hacking), sia delle potenzialità delle
tecnologie allora disponibili, in particolare il telefono (phone
hacking 17). “La combinazione tra divertimento creativo ed
esplorazioni senza limiti costituirà la base per le future
mutazioni del termine hacking” (Williams 2002).
I primi ad auto-definirsi computer hacker, nei primi anni
Sessanta, trassero ispirazione da un gruppo di studenti del MIT,
appassionati di modellismo ferroviario, riuniti alla fine degli
anni Cinquanta nel Model Railroad Club e dediti alla
realizzazione di complessi sistemi elettrici per il funzionamento
dei loro modellini, per la quale diventava fondamentale e
prendeva forma un altro degli aspetti significativi della futura
cultura hacker, ossia la sfida a raggiungere l’eleganza e
l’efficienza del prodotto realizzato, in altre parola la ricerca
dell’eccellenza. I primi mainframe che arrivarono al MIT, in
particolare nel suo Laboratorio di Intelligenza Artificiale,
trovarono quindi un clima già intriso di quella curiosità nei
confronti della tecnologia e del desiderio di esplorarne le
potenzialità e migliorarne il funzionamento. L’hacking divenne
l’attività di comporre in modo non convenzionale programmi che
sfruttassero appieno le scarse risorse di calcolo di quelle prime
macchine (mainframe e minicomputer), per scopi non
necessariamente utilitaristici e conservando uno spirito giocoso,
irriverente e creativo. A differenza del primo hacking – che in
generale consisteva di attività di natura semi-clandestina,
individuali o svolte in piccoli gruppi – la “programmazione
creativa” delle prime macchine informatiche si inseriva inoltre
all’interno di una disciplina scientifica basata sulla
Capitolo I 36
collaborazione e sull’aperto riconoscimento dell’innovazione. I
concetti di innovazione collettiva e proprietà condivisa del
software distanziarono di conseguenza l’attività di computer
hacking dai suoi precedenti non informatici e segnarono un altro
passaggio cruciale nell’evoluzione dei caratteri della cultura
hacker.
La successiva generazione di programmatori (e hacker),
cresciuta nel clima dei movimenti controculturali degli anni
Sessanta, si trovò a portarne più o meno consapevolmente i
tratti. Nel frattempo la diffusione dei computer e la nascita delle
prime reti di comunicazione estendeva la portata della
costruenda cultura hacker oltre le mura del MIT e verso gli altri
campus (Stanford, Cambridge, Harvard) e i rispettivi bacini
culturali e sociali. A tale estensione fece seguito, a partire dalla
seconda metà degli anni Settanta, una riduzione dell’ampiezza
del significato associato ai termini hacker e hacking, i quali
assunsero connotazioni allo stesso tempo maggiormente elitarie
e tribali. Cominciò in questo modo a prendere corpo quel senso
di appartenenza ad una comunità di pari sulla base del quale,
secondo la tautologica definizione di uno dei maggiori
osservatori del mondo hacker, Eric Raymond, “gli hacker sono
quelli che la cultura hacker riconosce come tali” (Castells, 2001).
In questo modo il rispetto dei valori, delle tradizioni e delle
regole più o meno esplicite che caratterizzavano la cultura
hacker – in altre parole la condivisione di quella che si
cominciava apertamente a definire “etica hacker” – divenne il
prerequisito per farne parte, alla pari delle capacità di
programmazione. In questa etica continuava a maggior ragione
ad essere valido il tabù delle origini nei confronti di ogni
comportamento malevolo e gratuitamente doloso.
Società dell’Informazione 37
Ma per quanto questo indirizzo costituisse un elemento
fondamentale dell’etica hacker, i giovani programmatori che la
diffusione esponenziale dei computer e i primi esperimenti di
della rete ARPANET mettevano in contatto con hacker di grande
livello e con la loro filosofia “anarchica”, cominciarono a
sperimentare le proprie capacità con finalità dannose (virus,
irruzioni nei sistemi informatici militari, blocco degli stessi nodi
della rete), in un clima culturale in cui parte dell’underground
informatico si sovrapponeva con la nascente sottocultura punk.
Fu in quel momento, nei primi anni Ottanta, che il termine
hacker e i suoi affini assunsero, nei discorsi istituzionali e
soprattutto nei media mainstream, una connotazione negativa
associata ai crimini informatici. Il rigetto della cultura hacker
verso tali comportamenti malevoli portò la stessa maggioranza
degli hacker a coniare per tali “criminali informatici” il termine
cracker e poi la più sottile distinzione tra black hat e white hat.
Tuttavia, come sottolinea Williams (2003, p. 199)
[…] le valenze ribelli del termine [hacker] risalenti agli anni ’50 rendono
difficile distinguere tra un quindicenne che scrive programmi capaci di
infrangere le attuali protezioni cifrate, dallo studente degli anni ’60 che
rompe i lucchetti e sfonda le porte per avere accesso a un terminale
chiuso in qualche ufficio. D’altra parte, la sovversione creativa
dell’autorità per qualcuno non è altro che un problema di sicurezza per
qualcun’altro.
Soprattutto se si tiene conto, come raccomanda di fare il
critico della Rete Geert Lovink (2004, p. 22, nota 37) –
lamentando il carattere ideologico di molte rappresentazioni
buoniste e consensuali della cultura di Internet e dell’etica
hacker in particolare – del “fatto storico che molti hacker
Capitolo I 38
dovevano hackerare per accedere alla Rete, prima che diventasse
accessibile al pubblico all’inizio degli anni Novanta. Forzare la
sicurezza non è un atto criminale per definizione, soprattutto se
lo inquadriamo nel contesto di un’altra etica hacker, «le
informazioni vogliono essere libere» (una definizione che va al di
là del solo codice)”. Lovink sottolinea opportunamente anche un
altro aspetto da tenere presente, un aspetto per altri versi notato
anche da Castells: il mondo hacker, i suoi valori e le sue
aspirazioni sono tutte interne a quella “fiducia tecnocratica nel
progresso del genere umano attraverso la tecnologia” che il
sociologo spagnolo indica come il motore fondamentale dello
sviluppo di Internet.
2.4.3 Informazionalismo ed etica hacker
Il legame fra l’informazionalismo e l’etica hacker è dettato
quindi in primo luogo dal contributo fondamentale che chi si
riconosceva nei suoi valori ha fornito alla cosiddetta “rivoluzione
informatica”. La nascita e lo sviluppo, negli anni Settanta, di
quello che sarebbe diventato nel tempo lo strumento principe
della “produttività” nel campo dell’agire economico, il personal
computer 18, furono infatti paradossalmente il frutto proprio di
questo tipo di approccio non strumentale: quello dei primi
“appassionati” di computer che, sulle orme dei primi computer
hacker, nei garage della West Coast assemblavano schede e
periferiche per dar libero sfogo alla propria creatività e al
proprio spirito anticonformista o, nelle formulazioni dei più
visionari, per dotare il popolo di un mezzo di comunicazione alla
portata di tutti o favorire modelli di relazione tra le persone
fondati sulla condivisione e l’informalità (Revelli 2001; Di
Corinto e Tozzi 2002; Castells 2001). 19 Come sottolinea Marco
Revelli (2001, pp. 103-104) “la sofisticata tecnologia che ha
Società dell’Informazione 39
cambiato il nostro modo di vivere e di produrre è nata in realtà
prima che se ne potesse anche solo immaginare un uso possibile.
O, comunque, è stata concepita nel quadro di un immaginario
potenziale d’utilizzazione radicalmente diverso da quello in cui si
sarebbe in realtà incarnata”. Non fu casuale in proposito la cecità
delle aziende allora leader del settore informatico, prima fra
tutte l’IBM, e dei loro uffici marketing, che non compresero il
potenziale rivoluzionario del PC e tanto meno gli spazi di
mercato che esso apriva. Per la prima significativa immissione
sul mercato di questo nuovo strumento di calcolo in miniatura
bisognò aspettare che lo spirito libertario dei primi hacker,
alimentato dalla temperie culturale della contestazione
studentesca, incontrasse la vocazione imprenditoriale e
individualista che trovava terreno fertile nella cultura americana.
La stessa realizzazione e successiva diffusione di ARPANET e poi
di Internet, la cui storia si intreccia ovviamente con quella dei
primi computer, furono il risultato di molteplici innovazioni nei
campi dell’informatica e delle telecomunicazioni provenienti
dall’“improbabile intersezione tra Big Science, ricerca militare e
cultura libertaria” (Castells 2001). In questo intreccio la cultura
hacker e i suoi esponenti giocarono il fondamentale ruolo di trait
d’union tra i diversi ambiti coinvolti – in particolare tra
l’ambiente universitario e i network alternativi che cominciavano
a sperimentare usi alternativi delle prime reti accademiche – e
tra questi e l’ambiente imprenditoriale e i suoi prodotti, e allo
stesso tempo costituirono il “terreno fertile delle innovazioni
tecnologiche più importanti realizzate attraverso la cooperazione
e la libera comunicazione” (ibid.).
L’esempio forse più indicativo e sicuramente più noto del
contributo della comunità hacker all’evoluzione delle tecnologie
informatiche e in particolare di Internet e del World Wide Web è
Capitolo I 40
rappresentato dal modello aperto di sviluppo del software. La
stragrande maggioranza dei protocolli, dei programmi e delle
applicazioni su cui si basa il funzionamento e la gestione della
Rete sono stati sviluppati in un regime di condivisione e
“apertura” del codice sorgente e messi a disposizione delle
comunità degli sviluppatori e degli utenti sotto la tutela di
licenze “libere” (ovvero non proprietarie) oppure in totale
assenza di copyright (ovvero come “dominio pubblico”). Se
quelle creazioni fossero state “chiuse” da “clausole di non
divulgazione” e dall’apposizione di licenze che ne limitavano la
libera copia e la modifica, Internet non sarebbe affatto diventata
quel medium aperto e difficile da recintare che oggi conosciamo.
E in effetti l’imperativo alla cooperazione e all’apertura e
condivisione del codice costituisce uno dei valori fondanti della
cultura hacker.
Ma secondo Himanen e Castells, la cultura hacker è alla base
del nuovo modello di sviluppo fondato sulle tecnologie
dell’informazione non solo per il suo contributo fondamentale
all’innovazione tecnologica e alla sua diffusione nella società in
generale o in quanto espressione di modelli di relazione e
comportamento della sola comunità degli hacker, ovvero di uno
dei protagonisti della rivoluzione informatica. In maniera forse
anche più significativa, infatti, il sistema di valori dell’etica
hacker trova riscontro nell’intero insieme di caratteri
dell’“informazionalismo”, a cominciare dalla già citata
valorizzazione, in campi molto diversi tra loro, della creatività,
delle attitudini relazionali, della flessibilità organizzativa, delle
capacità di adattamento, del lavoro di squadra e della
cooperazione, della condivisione delle conoscenze, per lo meno
nella misura in cui questi caratteri sono funzionali
all’accumulazione capitalista. Ovvero, nell’analisi di Himanen
Società dell’Informazione 41
“l’espressione etica hacker viene usata in un’accezione che
trascende il mondo dell’informatica” e “considerata da questo
punto di vista, l’etica hacker diventa sinonimo di quel generale
rapporto entusiastico nei confronti del lavoro che si sta
affermando nella nostra età dell’informazione”. In questo senso
più ampio, ancora secondo Himanen, l’etica hacker trova
espressione in un’etica del lavoro e in un’etica del denaro; ma
anche, e forse soprattutto, in una netica, ossia un’etica del
network, fondata sulla condivisione, la cooperazione, il
decentramento, la libertà e il libero accesso per tutti alle risorse
costruite collettivamente nella Rete.
3. Una “società della conoscenza” post-capitalista ?
3.1 Risocializzazione della sfera produttiva
Facendo riferimento proprio alle implicazioni ad ampio
raggio dell’avvento della cosiddetta etica hacker, oltre che ad una
consolidata letteratura di stampo più tradizionale, Formenti
(2002) e Revelli (2001) sottolineano i diversi fenomeni di
sburocratizzazione, decentramento e flessibilizzazione cui vanno
incontro i modelli organizzativi e i processi di produzione, così
come quelli di personalizzazione, autonomizzazione,
individualizzazione e responsabilizzazione che interessano più
direttamente un lavoro sempre più declinato al plurale, in una
società scossa dalla “rivoluzione microelettronica” e pervasa
dalla “lunga durata” dei movimenti controculturali del ventennio
Sessanta-Settanta. Ma, sebbene i caratteri tecnici e sociali
riscontrati come indicatori di un cambio di paradigma socio-
economico sembrerebbero confortare le ipotesi dei due autori
circa, rispettivamente, una possibile “risocializzazione della
Capitolo I 42
sfera produttiva” (Formenti 2002) e un possibile “esodo dal
dominio del lavoro totale” che ha dominato la scena del
Novecento (Revelli 2001), non sfuggono ad entrambi, seppure
con accenti e declinazioni differenti, i pericoli – e le avvisaglie –
di una riconfigurazione e intensificazione in forma elettronica e
digitale del dominio del capitale e del mercato sulla sfera sociale.
Se per Formenti queste avvisaglie sono da ricercare, come si
diceva, nel processo di new enclosure che interessa i beni comuni
digitali sorti dalla cooperazione sociale in rete, Revelli sottolinea
invece come sia “legittimo assimilare tale nuova forma di
«internalizzazione» delle facoltà comunicative e cooperative di
una pluralità di figure del lavoro disseminate sul territorio per
un verso alla marxiana – pre-moderna – «sussunzione formale
del lavoro al capitale» […]; per altro verso a una più avanzata –
post-moderna – forma di «sussunzione reale»” (Revelli 2001).
Nell’ambito della teoria critica di stampo europeo, i
contributi di Ulrich Beck, Yann Moulier Boutang e Andrè Gorz si
confrontano con la crisi della modernità e dei suoi tratti
caratteristici incentrati sul modo industriale di sviluppo, sul
welfare e sul ruolo preponderante dello Stato assistenziale, su
forme gerarchiche di organizzazione e divisione del lavoro e sui
conseguenti specifici modelli di integrazione fra l’individuo e la
società. Venuto meno il modello d’integrazione radicato nella
società industriale e nelle dinamiche dei suoi rapporti di forza –
in particolare quelli, mediati dallo Stato, fra capitale e lavoro – i
legami sociali che su tale modello si fondavano si sfaldano,
dando vita a nuove configurazioni che, se da un lato fanno perno
su flessibilità estrema, individualismo spinto e consumismo
sfrenato e producono quella che Beck definisce una “società del
rischio”, dall’altro offrono l’opportunità di liberare l’individuo
dalla rigida disciplina del lavoro fordista, risocializzare alcuni
Società dell’Informazione 43
ambiti della sfera produttiva, sostenere forme di cooperazione
sociale non monetizzabili. Nell’analisi di Moulier Boutang la
crescita del cosiddetto lavoro autonomo di seconda generazione
osservata negli ultimi decenni rappresenta l’ennesima tappa
della lunga marcia che l’umanità conduce da secoli verso
l’emancipazione dal lavoro, a partire dalla schiavitù e passando
attraverso le diverse fasi del lavoro salariato. Gorz, d’altro canto,
mostra come lo stravolgimento delle classiche nozioni di “lavoro”
e di “valore” agito dallo sviluppo del “capitalismo immateriale” e
dal ruolo che in esso giocano saperi e conoscenze, rappresenti la
crisi del capitalismo tout court, e più in generale di una
concezione economicista dei rapporti sociali. Dalle riflessioni di
questi autori prende corpo l’ipotesi di una ricostruzione di
meccanismi di tutela individuale e collettiva a partire dalla
proposta di un reddito d’esistenza – o di cittadinanza, a seconda
delle formulazioni e delle giustificazioni, e con una diversità di
intenti che travalica le sottigliezze linguistiche – slegato dalla
specifica e sempre più precaria condizione occupazionale e in
grado di valorizzare le attività e gli scambi della cooperazione
sociale informale senza snaturarli in forma di merce.
In questo ampio orizzonte interpretativo le nuove tecnologie
dell’informazione e della comunicazione, ed in particolare le reti
di comunicazione fisse e mobili, e i diversi soggetti protagonisti
della loro “appropriazione sociale”, diventano rispettivamente
l’ambiente e gli attori, allo stesso tempo virtuali e reali, in grado
di sviluppare le forme più avanzate della cooperazione sociale.
Anche se da una prospettiva decisamente diversa, più legata
all’immaginario libertario che caratterizza gli approcci
provenienti dalla sponda occidentale dell’Atlantico, i
pionieristici lavori “sul campo” di Howard Rheingold, prima sulle
comunità virtuali (1994) e poi sulle cosiddette smart mobs
Capitolo I 44
(2002), confermano l’importanza cruciale dei valori e delle
pratiche di cooperazione e condivisione nello sviluppo e nei
percorsi di appropriazione dei dispositivi della comunicazione
digitale e più in generale nei modi delle relazioni sociali. Una
centralità paradossale che, se da un lato finisce per condizionare
la sorte commerciale di servizi e strumenti informatici e della
comunicazione, fino a sancirne il carattere di killer application o
al contrario di fallimento, dall’altro collide con l’esigenza delle
imprese che operano nei settori delle telecomunicazioni,
dell’informatica e della produzione e fornitura di contenuti e
servizi, di estrarre valore monetario dalle conoscenze e dalle
passioni implicate in quelle pratiche. Un esempio di tale
contraddizione, ampiamente trattato da Rheingold nel suo
ultimo libro e più che mai attuale, è rappresentato dalla
cosiddetta Terza Internet, o Internet mobile. In questo ambito,
considerando qui solo le modalità di connessione e accesso alle
reti mobili da parte degli utenti e tralasciando le pur connesse
questioni relative allo sviluppo di “oggetti intelligenti”,
“computer indossabili”, “applicazioni di realtà aumentata”, reti
sociali amplificate e smart mobs, almeno due modelli,
tecnologici, economici e politici allo stesso tempo, si contendono
gli spazi aperti dalle innovazioni tecnologiche nel campo della
connettività senza fili. Da una parte, le reti mobili di terza (e
quarta) generazione implementate dall’alto, dagli operatori della
telefonia e delle telecomunicazioni, e basate su investimenti e
licenze da milioni di euro, protocolli proprietari e servizi a
pagamento di dubbia attrattiva. Dall’altra, l’ampia gamma di
tecnologie wireless a basso costo che sfruttano le porzioni libere
dello spettro radio e funzionano secondo la logica dei commons
digitali, ossia aumentando il loro valore al crescere degli
Società dell’Informazione 45
utilizzatori e valorizzando le dinamiche di condivisione e
moltiplicazione delle reti peer to peer 20.
Tradizionalmente questi beni comuni erano costituiti da
terreni per il pascolo e l’agricoltura, boschi e legname, riserve
idriche ittiche, vie di comunicazione e trasporto. A questi beni
comuni “classici” se ne aggiungono ora altri, risorse immateriali
la cui accresciuta importanza – o la cui stessa esistenza – è il
frutto delle recenti e intrecciate innovazioni nei campi della
microelettronica, dell’informatica, della comunicazione e della
biologia molecolare. Frequenze radio, algoritmi, protocolli
informatici, linguaggi di programmazione e “codici sorgenti”, ma
anche le risorse culturali e informative prodotte dall’umanità
nella sua storia, prima e durante l’avvento dei mezzi di
comunicazione di massa, e rese sempre più fruibili dai nuovi
formati digitali (narrazioni, miti, musica, letteratura,
performances varie e prodotti audiovisivi, ecc.) – e persino il
corredo genetico o i singoli geni degli esseri viventi – sono infatti
da più parti descritti come i nuovi commons del XXI secolo,
“alfabeti della conoscenza” e per questo soggetti allo statuto di
patrimonio collettivo dell’umanità. In realtà, è lecito attendersi
che la natura “pubblica” di queste risorse e la stessa affermazione
di un nuovo “spazio pubblico” (commons) ri-costruito
dall’avvento del digitale e dei nuovi media sulle macerie della
“fabbrica del consenso” dei vecchi media broadcast non sarà
qualcosa di dato e di assunto, bensì l’oggetto di contese, continue
ri-negoziazioni e veri e propri conflitti (Lovink 2003) (vedi Cap.
2 par. 2.2).
Capitolo I 46
3.2 Economia dell’abbondanza e società post-
capitalista
Le aspettative, per molti versi “profetiche”, di un’inedita e
rivoluzionaria “economia dell’abbondanza”, sono state senz’altro
dettate, nella seconda metà degli anni Novanta, dalle sirene
dell’ottimismo e del determinismo tecnologico. Ma a sostenere
questa visione nell’immaginario collettivo e nelle teorie e nelle
pratiche economiche è stata anche la fondata considerazione
della natura immateriale delle nuove “materie prime”
indispensabili ai processi produttivi – in sostanza creatività,
conoscenza e risorse di relazione – e dei prodotti da immettere
sul mercato. In effetti, se i principali input del sistema
produttivo diventano beni “non rivali”, ossia che non si
deteriorano o si esauriscono con l’uso, e anzi si moltiplicano
proprio in virtù della loro fruizione o sulla base delle cosiddette
“esternalità positive di rete”, sembrerebbe lecito attendersi una
crescita del sistema pressoché infinita 21 Lo stesso valore dei
prodotti, d’altra parte, come già sottolineato, è in molti casi
rappresentato più dal contenuto immateriale che dalla loro
sostanza fisica; quest’ultima inoltre si riduce a mero supporto
per beni del tutto immateriali come il software o i prodotti
dell’industria culturale (musica, audiovisivi, ecc.) o addirittura
scompare grazie a mezzi di distribuzione essi stessi digitali come
la Rete (Carlini 2002).
Le aspettative generate da tali valutazioni e da un
entusiasmo assai meno fondato, hanno contrassegnato l’avvento
della “società della conoscenza” e dato il là all’euforia che ha
accompagnato l’impressionante crescita dell’indice dei titoli
tecnologici della Borsa di Wall Street, il Nasdaq, alla fine degli
anni Novanta 22. L’infondatezza dei business plan della maggior
Società dell’Informazione 47
parte delle imprese dot.com moltiplicatesi nel giro di pochi mesi
sulla scia del miraggio dei “soldi facili” e foraggiate
dall’immissione di generosi finanziamenti da parte del venture
capital e dei milioni di investitori on-line abbagliati da una
presunta “democratizzazione del capitale”; la resistenza da parte
degli utenti alla commercializzazione di Internet; i conseguenti
fallimenti a catena fino al vero e proprio crollo di tutto il listino
tecnologico; i cospicui tagli al personale e “ridimensionamenti”
vari che falcidiarono anche le imprese che erano riuscite a
rimanere in piedi: il susseguirsi degli eventi, nel giro di pochi
mesi, ha arricchito pochi speculatori, che ebbero la loro buona
dose di responsabilità nel repentino crollo dei titoli tecnologici,
mandato sul lastrico centinaia di migliaia di risparmiatori, molti
dei quali avevano investito nelle dot.com i loro fondi pensione,
impoverito quei lavoratori i cui stipendi venivano pagati con
stock options (diritti di opzione sui titoli azionari della società) e
soprattutto tarpato le ali all’intero sistema di assunti
dell’ideologia della “crescita infinita” nonché al suo corollario
della tecnologia come panacea.
Le aspettative – e i veri e propri miraggi – che sorreggevano
l’economia della post-scarsità, si sono quindi presto dovute
scontrare con i canoni dell’economia classica e con gli interessi e
le posizioni consolidate degli attori economici dominanti e dei
loro garanti istituzionali. Cosa non ha funzionato? Tra gli aspetti
più controversi c’è senz’altro la questione che con termine
ombrello e affatto neutrale viene riassunta sotto la definizione di
“proprietà intellettuale” e agitata dalle grandi corporations
dell’intrattenimento, dell’informazione e del software e dalle
grandi istituzioni sopranazionali che si occupano di commercio
internazionale. L’estensione a dismisura della durata e dei campi
di applicazione dei cosiddetti “diritti di proprietà intellettuale” e
Capitolo I 48
l’equiparazione di fattispecie affatto diverse (diritti d’autore,
copyright, marchi e brevetti) che l’utilizzo di tale espressione
ombrello comporta, hanno in realtà ben poco a che fare con la
difesa di inventori, autori e artisti e molto con la necessità di
ricreare artificiosamente quella scarsità delle risorse,
presupposto fondamentale dell’economia politica classica così
come della sua critica, e soprattutto della conservazione delle
posizioni di potere economico e politico acquisite. Nella sua
analisi dei nuovi meccanismi della valorizzazione nel contesto
dell’economia immateriale, centrati sulla trasformazione della
conoscenza in valore, Gorz (2003) riporta un’osservazione di
Enzo Rullani che “si applica a ogni merce la cui materialità, di
un costo unitario molto basso, è solo il vettore o l’imballaggio del
suo contenuto immateriale, cognitivo, artistico o simbolico”
(ibid., p. 32):
Il valore di scambio della conoscenza è dunque interamente legato alla
capacità pratica di limitarne la libera diffusione, cioè di limitare con
mezzi giuridici (brevetti, diritti d’autore, licenze, contratti) o
monopolistici la possibilità di copiare, di imitare , di “reinventare”, di
apprendere le conoscenze altrui. […] La scarsità della conoscenza, quel
che le dà valore, è dunque di natura artificiale. Essa deriva dalla
capacità di un “potere”, di qualsiasi tipo, di limitarne temporaneamente
la diffusione e di regolamentarne l’accesso23.
Nelle lotte che si consumano intorno alle questioni relative
alla cosiddetta “proprietà intellettuale” nell’attuale fase di
sviluppo del capitalismo la posta in gioco è costituita dalle
conseguenze potenzialmente deflagranti generate dall’avvento di
un’economia basata in prevalenza sulla valorizzazione e sulla
produzione di beni e risorse immateriali e non rivali.
Società dell’Informazione 49
Riassumendo gli aspetti per i quali il nuovo capitalismo cognitivo
si distingue dal capitalismo classico e ne rappresenta in qualche
modo persino la negazione, Gorz (2003, pp. 33-34) sottolinea
innanzitutto come nel nuovo sistema economico “la forza
produttiva principale, la conoscenza, è un prodotto che, in gran
parte, risulta da un’attività collettiva non remunerata […] essa è
in gran parte intelligenza generale, cultura comune, sapere
vivente e vissuto […] non ha valore di scambio, il che significa
che può in teoria essere condivisa a piacere”. Inoltre “la
conoscenza formalizzata, separabile dai suoi produttori e che
esiste soltanto per essere stata deliberatamente prodotta, è
anch’essa virtualmente gratuita, poiché può essere riprodotta in
quantità illimitata a un costo trascurabile e condivisa senza
dover passare per la forma valore (per il denaro) […] il che
significa che la principale forza produttiva, e la principale fonte
di valore può per la prima volta essere sottratta
all’appropriazione privata”. Infine, ed è “la vera novità,
rivoluzionaria […], la conoscenza, separata da ogni prodotto nel
quale è stata, è o sarà incorporata, può esercitare in sé e di per sé
stessa un’azione produttiva sotto forma di software”,
economizzando una quantità di lavoro molto maggiore di quella
che è costata e distruggendo immensamente più valore di quel
che serve a creare. La prospettiva di un’“economia
dell’abbondanza” torna qui nella forma auspicata di un
superamento progressivo dei meccanismi classici dell’economia
capitalista:
L’economia dell’abbondanza tende di per sé verso una economia della
gratuità e verso forme di produzione, di cooperazione, di scambi e di
consumo fondate sulla reciprocità e la messa in comune, nonché su
Capitolo I 50
nuove monete. Il “capitalismo cognitivo” è la crisi del capitalismo tout
court.
Per contrastare questa tendenza, prosegue Gorz, l’economia
capitalistica deve appropriarsi di un prodotto, la conoscenza, per
far sì che esso non diventi ciò che in realtà è in origine, cioè un
bene collettivo, e farlo invece funzionare come “capitale
immateriale”. Da questa esigenza sembrerebbero derivare allora
gli attuali sforzi in direzione dell’imposizione e dell’estensione di
artificiali “diritti di proprietà intellettuale”. Ma “questa
appropriazione”, dice ancora Gorz, “non dev’essere sempre
diretta. Basta che il capitale si appropri dei mezzi di accesso alla
conoscenza – in particolare i mezzi di accesso a Internet – per
conservare il controllo di quest’ultima, impedendole di diventare
un bene collettivo abbondante. L’accesso e i mezzi di accesso alla
conoscenza diventano dunque la posta in gioco principale di un
conflitto centrale”. Il cerchio si chiude, se è vero, come
affermano Robins e Webster (2001, p. 132), che “la rivoluzione
dell’informazione [...] è una questione di accesso differenziato (e
non equo) alle risorse informative e di controllo su di esse”. La
diseguale distribuzione degli strumenti, delle risorse, delle
competenze e delle opportunità legate alle nuove (e vecchie)
tecnologie dell’informazione e della comunicazione è, allora,
direttamente implicata dall’evoluzione delle forme del
capitalismo contemporaneo.
Società dell’Informazione 51
4. La società dell’informazione: estensione del fordismo e della razionalizzazione tecnocratica
Nel tentativo di tirare le fila degli spunti fin qui presentati,
torna ancora una volta utile il punto di vista non convenzionale
sull’attuale evoluzione del capitalismo “informazionale” di autori
come Robins, Webster e Mattelart e il loro puntuale richiamare
l’attenzione sui fattori di lunga durata 24.
E’ lo stesso Castells, d’altronde, nell’esporre le
trasformazioni in corso e le loro implicazioni a largo raggio, ad
usare alcune significative cautele e a gettare così una luce diversa
sulla vulgata prevalente di una società (e di un’economia)
“dell’informazione” o “della conoscenza”. Le complesse e
contraddittorie tendenze legate alla crescita della produttività
nei diversi settori dell’economia a seguito della diffusione delle
tecnologie dell’informazione 25, ad esempio, fanno affermare al
sociologo spagnolo che la differenza dell’economia
informazionale rispetto all’economia industriale
non sta nelle fonti di aumento della produttività. […] La peculiarità
risiede nella comprensione del potenziale di produttività contenuto
nell’economia industriale matura grazie allo spostamento verso un
paradigma tecnologico fondato sulle tecnologie dell’informazione.
(Castells 1996, p. 106)
E ancora, poco dopo, più significativamente:
[…] anche se l’economia informazionale globale è distinta dall’economia
industriale, l’una non contrasta le logiche dell’altra; le sussume,
piuttosto, attraverso l’approfondimento tecnologico […] (ibid. p. 107)
Capitolo I 52
Robins e Webster (2001), da parte loro, fanno riferimento al
lavoro di Jean-Paul de Gaudemar 26 e alla sua suddivisione dello
sviluppo capitalistico in periodi, a seconda delle modalità con cui
il capitale ha utilizzato la forza lavoro e mobilitato le
popolazioni. In particolare, per il sociologo francese, alla
“mobilitazione assoluta” del primo Ottocento si sostituì
progressivamente una “mobilitazione relativa”, che estese
progressivamente il ruolo della tecnologia e trovò il suo
compimento nell’organizzazione scientifica del lavoro di Taylor e
nella catena di montaggio automatizzata di Ford. Gli “effetti
collaterali” prodotti dal fordismo diedero poi vita, nel ventennio
Sessanta-Settanta del Novecento, ad una serie di movimenti
sociali che contestavano in parte o in tutto il sistema sociale e le
sue “disfunzioni” contribuendo a far sì che le forze del capitale
ristrutturassero il modo di accumulazione per ammortizzare e
contenere queste contro-mobilitazioni. Molta della retorica
intorno alle ICT, dagli anni Ottanta in poi, è sembrata in effetti
proporre il tentativo di assimilare le richieste legate alla qualità
della vita provenienti da quei movimenti, come motore di una
nuova fase di accumulazione.
La mobilitazione delle nuove tecnologie dell’informazione può essere
considerata come una risposta a chi sfidava il fordismo, come modo di
produzione e stile di vita. […] La cosiddetta rivoluzione
dell’informazione […] rappresenta una nuova fase significativa nella
strategia di mobilitazione relativa, una fase in cui la dominazione
tecnologica viene usata in modo estensivo e sistematico in sfere che
vanno molto al di là del luogo di lavoro. Questa trasformazione
rappresenta un’intensificazione e, soprattutto, una riconfigurazione del
fordismo come stile di vita. (Robins e Webster 2001, pp. 159-160).
Società dell’Informazione 53
Nel quadro così delineato della “mobilitazione”, da parte del
capitale, della forza lavoro, delle popolazioni e delle risorse
sociali – un quadro confortato dall’osservazione dell’ambigua
realtà che si è cercato sin qui di presentare – le nuove tecnologie
non supportano semplicemente una sovrapposizione totale fra
lavoro e interazione fino alla sussunzione reale di ogni attività
sociale da parte del capitale; né sembra d’altra parte
giustificabile sostenere una loro intrinseca, seppur potenziale,
carica emancipatrice, in ambito produttivo o nel più ampio
contesto sociale, per quanto riguarda, ad esempio, l’esercizio
democratico o l’inclusione sociale. La loro applicazione estensiva
incarna piuttosto il desiderio da parte del capitale e dello Stato
di istituire “un ordine razionale ed efficiente, prima nella sfera di
produzione e poi nella società in generale”, ciò che i due autori
inglesi definiscono come “l’immaginazione cybernetica del
capitale” (ibid., pp. 157-177).
La crescente pervasività delle nuove tecnologie, le loro
concrete applicazioni, i loro modelli di utilizzo dominanti
propongono, in altre parole, una sottile estensione di quella
ideologia razionalista che ha segnato sin dai suoi lontani esordi
la “società dell’informazione” e ha fatto sì che le lusinghe e le
mistificazioni della “razionalizzazione tecnocratica” (Feenberg
2001) egemonizzassero l’orizzonte culturale delle società
occidentali. E ciò non tanto per qualche presunta essenza delle
tecnologie o della tecnica in quanto tale, quanto piuttosto per il
sistema di valori e di assunti che le une e l’altra sono andate
incarnando nelle specifiche configurazioni sociali che le hanno
prodotte e utilizzate. Come vedremo nel secondo capitolo, infatti,
le due prospettive complementari del determinismo e dello
strumentalismo hanno guidato l’affermazione di un approccio
“ingegneristico” alle tecnologie in generale, che non ha fatto
Capitolo I 54
altro che rafforzare un’agenda tecnocratica e “depoliticizzata”. In
questo modo si sono mascherati, sottovalutati ed ignorati i reali
processi di costruzione sociale della tecnologia, che interessano
tanto il versante della sua progettazione e realizzazione quanto
quello del suo utilizzo e della sua appropriazione e coinvolgono
aspetti emotivi, cognitivi e culturali oltre che economici, tecnici e
politici (Feenberg 2001; Warschauer, 2003). Il frame
interpretativo e suggestivo proposto dal concetto di un digital
divide ha contribuito a perpetuare questo schema anche nel
campo in divenire delle nuove tecnologie e dei nuovi media e del
loro possibile contributo alla crescita autonoma di individui e
comunità, indirizzando l’attenzione di ricercatori, società civile e
amministratori sulla questione del gap tecnologico, piuttosto che
sugli aspetti problematici dell’integrazione e dei concreti utilizzi
dei nuovi “strumenti del comunicare” nelle diverse culture e nei
diversi contesti sociali per finalità di promozione sociale.
Le tecnologie, ed in particolare le ICT, non sono entità
separate che esercitano un impatto esterno sulle strutture, sulle
organizzazioni e sulle istituzioni sociali. Esse si caratterizzano
piuttosto come network (Kling 2000; Warschauer 2003) o
sistemi (Gallino 1998; Ortoleva 1998) sociotecnici, in cui le
“tecnologie in uso” e i mondi sociali si costituiscono
reciprocamente in modi complessi e altamente interrelati. Così
demistificate le tecnologie si prestano ad essere messe in
discussione in quanto artefatti culturali che hanno origine in
specifiche configurazioni di sistemi mezzi-fini e vengono definite
dall’uso socialmente contestuallizzato (Feenberg 2001). In
questo senso nell’analisi delle interazioni fra tecnologia e società
c’è spazio per prefigurare lo scenario di una possibile
“razionalizzazione democratica” (ibid.).
Società dell’Informazione 55
Questa tensione a “democratizzare la tecnica” e a
riavvicinarla ai bisogni sociali espressi da comunità e individui –
e in particolare la sua concretizzazione nei modelli aperti di
accesso alle tecnologie e alle conoscenze e nel loro ancoraggio ai
territori reali – può forse indicare l’unica via per la quale
riequilibrare la diseguale distribuzione di strumenti, competenze
e opportunità legate alle tecnologie dell'informazione e della
comunicazione, promuoverne utilizzi finalizzati all’inclusione
sociale, e allo stesso tempo garantire un controllo democratico
sulla loro progettazione tecnica e le relative applicazioni, che
ricollochi nel giusto ordine di priorità bisogni sociali e
innovazioni tecniche. Il secondo capitolo tenterà di approfondire
tale incorporazione sociale delle tecnologie, con particolare
riferimento al rapporto fra le nuove tecnologie dell’informazione
e della comunicazione e le problematiche dello sviluppo e
dell’inclusione sociale.
Capitolo I 56
Note
1 Cfr. in Anderson (1991, cap. X) l’illuminante illustrazione del ruolo
svolto dai censimenti, dallo sviluppo della cartografia e dai musei, tutti
“artefatti” culturali centrati su una forte valorizzazione
dell’informazione/conoscenza, nei processi di “immaginazione” e
consolidamento della coscienza nazionale – e quindi dello Stato-nazione;
tale ruolo è rintracciabile in particolare nel passaggio dagli imperi coloniali
ai nazionalismi post-coloniali. Cfr. in questo senso anche Robins e Webster
(1999, p.134, nota 2). 2 Negli attuali incerti e contrastati processi di trasferimento della
legittimità politica dallo Stato, da un lato verso organismi sovranazionali,
dall’altro verso attori istituzionali “locali”, tali funzioni di coordinamento e
controllo vengono naturalmente a riconfigurarsi e ad estendersi.
L’applicazione delle nuove tecnologie dell’informazione e della
comunicazione rafforza, inoltre, la loro presa sulla società consentendo un
“decentramento centralizzato” delle risorse e degli archivi informativi a
tutti i livelli. 3 Pur senza voler qui riproporre quel "determinismo tecno-economico"
che Formenti (2002) denuncia riprendendo l'osservazione di Marco Revelli
(2001) circa la vocazione totalitaria del concetto marxiano di "modo di
produzione", in particolare come riletto tra gli altri da Gramsci – una
vocazione inscritta a pieno titolo, secondo Revelli, nel razionalismo
autodistruttivo del Novecento – , è tuttavia innegabile, a mio avviso, la
relazione storica che intercorre fra i modelli produttivi e i caratteri culturali
e istituzionali dell'intero sistema sociale. La considerazione di tale legame
si spinge oltre l’ovvietà se solo ci si sforzi di considerare la natura
contingente e arbitraria del ruolo fondamentale che produzione (e
consumo) e lavoro rivestono, in maniera differenziata, nelle società
occidentali. 4 Con questa espressione si indica la dottrina di gestione e
organizzazione della produzione ideata da F. W. Taylor tra la fine
dell’Ottocento e l’inizio del Novecento, in contemporanea con i primi
sviluppi del “capitalismo aziendale”, cioè a forte prevalenza di imprese di
Società dell’Informazione 57
medie e grandi dimensioni riunite tipicamente in conglomerati
oligopolistici. E’ da sottolineare che tale dottrina venne fatta propria anche
dalla rivoluzione sovietica, non prima di aver decretato la neutralità di
questa “scienza dell’organizzazione del lavoro”; significativamente essa
venne assunta a paradigma dell’organizzazione razionale dell’insieme della
società socialista (Mattelart 2001). 5 Nello stesso senso si esprimevano più di un secolo prima gli auspici
di Claude-Henri de Saint-Simon (1760-1825), non a caso tra i primi
sostenitori della “scienza positiva”; il filosofo francese sosteneva, infatti,
prima ancora che in Francia prendesse forma il processo di
industrializzazione, la necessità di assimilare l’organizzazione della società
a quella di una grande industria (Mattelart 2001). 6 Tale relazione è riscontrabile nella stessa ambivalenza del termine
disciplina, che da un lato denota un campo di sapere e dall’altro un insieme
di tecniche e norme che regolano il comportamento. 7 Tali “attività” non furono semplicemente la conseguenza di
innovazioni tecnologiche; piuttosto, le esigenze di “controllo” alle quali
rispondevano, figlie di una lunga evoluzione sociale, culturale e politica in
un determinato contesto, finirono evidentemente per essere “inscritte” in
quelle stesse tecnologie e per determinarne caratteristiche e usi che a loro
volta retroagirono sulla società, estendendo ad esempio le stesse dinamiche
di sorveglianza e controllo, ma dando anche vita a processi di
trasformazione della tecnologia. E’ questo complesso sistema di
interrelazione fra tecnologia e società che sottovalutano gli assertori più o
meno dichiarati di una qualche forma, ottimista o meno, di determinismo,
tecnologico o sociologico che sia (Feenberg 1999; vedi Cap. 2 par. 1). 8 Cfr. nota 1 del presente paragrafo 9 Cfr. anche www.ibmandtheolocaust.com; della vicenda si parla anche
nel notevole film-documentario canadese “The Corporation” realizzato nel
2003. 10 Impegnato negli anni Settanta nello sviluppo di una "sociologia
urbana" di ispirazione marxista, il sociologo di origine catalana ha
progressivamente rivolto il suo interesse verso le trasformazioni sociali,
culturali ed economiche legate all'avvento delle nuove tecnologie
Capitolo I 58
dell'informazione e della comunicazione, continuando a dedicare una
particolare attenzione proprio alle dinamiche spaziali e alle evoluzioni della
forma città nel nascente contesto dell'informazionalismo. Il lavoro cui si fa
qui riferimento è la monumentale trilogia da più di 1200 pagine L'Età
dell'Informazione: economia, società, cultura – la sua opera certamente
più completa e ambiziosa – in cui l'autore raccoglie e sistematizza
interpretazioni ed analisi sviluppate da lui e da altri già a partire dai primi
anni Ottanta. 11 I riferimenti sono in particolare a: A. Touraine, La société post-
industrielle, 1969; D. Bell, The coming of Post-Industrial Society, 1973; R.
Reich, The Work of Nations, 1991 12 Riprendendo il tema della progressiva “fine del lavoro”, trattato in
un precedente lavoro, Rifkin (2000, pp. 345-353) descrive inoltre, proprio a
conclusione del suo saggio, ciò che definisce la “dialettica di un ethos del
gioco”. Ossia quella dinamica contraddittoria per cui da un lato la
dimensione ludica riconquista nel “capitalismo culturale” il ruolo
preminente ricoperto fino all’avvento della società industriale e del suo
ethos del lavoro; dall’altro “il tipo di gioco prodotto da questa civiltà non è
che un pallido simulacro di quello che esisteva nella sfera culturale:
essendo acquistato, non è un’esperienza sociale, ma contrattuale”. Come
vedremo, oltre a richiamare alcune riflessioni sulla cosiddetta “etica
hacker”, tali considerazioni condividono con un ampia letteratura la
prospettiva di una possibile rivitalizzazione della sfera culturale come un
“terzo settore”, slegato dagli interessi commerciali ma anche dalle
prerogative statali e in grado di ricollocare in posizione centrale relazioni
umane non mercificate. 13 Il significato originario del termine e la sua intrinseca connotazione
“negativa” fanno tra l’altro giustizia del suo successivo utilizzo in un
contesto segnato invece proprio dalla produzione e dal “consumo” di massa
come elementi fondanti. 14 In Italia la tradizione dell’ “operaismo”, sorta negli anni Sessanta
intorno alla rivista Quaderni Rossi e portata avanti negli anni Settanta e
Ottanta dalle posizioni di gruppi come Potere Operaio e Autonomia
Operaia, è oggi ereditata appunto da una “scuola” post-operaista, per nulla
Società dell’Informazione 59
omogenea, che Franco "Bifo" Berardi indica con il termine di
“composizionismo”, anche con l'intenzione di segnare una discontinuità con
la matrice novecentesca. “Composizione sociale” e “composizione di classe”
sono infatti concetti al centro della riflessione operaista originale, insieme a
quello di “autonomia” dello spazio sociale dal dominio capitalistico; in essi
prende forma il ruolo della “soggettivazione”, come soggetto in continuo
divenire, nei processi di sottrazione progressiva del lavoro vivo dal dominio
del capitale e di un più complessivo “rifiuto del lavoro” (Berardi 2003).
Questi concetti vengono richiamati in modo contraddittorio in riferimento
ai processi che interessano il lavoro, e in particolare le punte più avanzate
di “lavoro cognitivo”, nella fase “post-fordista” 15 Cfr. Weber Max, L’etica protestante e lo spirito del capitalismo 16 Cfr. Sterling Bruce, The Hacker Crackdown, 1992; Gubitosa Carlo,
Italian Crackdown, Apogeo, 1999. 17 Nei primi anni Settanta tali “esplorazioni” vennero perfezionate e
codificate con il termine phreaking. Con tale termine si indicò allora la
pratica, resa possibile da un fischietto che si trovava in omaggio nelle
confezioni di una marca di corn flakes (la Captain Crunch, da cui il
soprannome del primo phreaker, John Draper), di riprodurre l’esatta
frequenza utile per connettersi liberamente alle linee telefoniche
interurbane. I futuri fondatori della Apple, Steve Jobs e Steve Wozniak,
furono tra i primi a fare uso della cosiddetta blue box e a distribuirne
esemplari fra i loro colleghi universitari (Di Corinto e Tozzi 2002). 18 Il primo rudimentale PC, l’Altair, fu realizzato alla fine del 1974 da
Ed Roberts, titolare della MITS, una piccola ditta di elettronica sita ad
Albuquerque, nel New Mexico. Era composto esclusivamente da un
processore Intel 8080 e da alcune schede di memoria RAM per un totale di
256 bytes. Non prevedeva, almeno fino al 1977, nessuna periferica di input-
output e veniva venduto a 397$ (Revelli 2001). Nel 1976 fu la volta
dell’Apple I, mentre si dovette attendere il 1981 per il primo costoso
modello di PC della IBM, equipaggiato con il DOS targato Microsoft, che
avrebbe dato il via all’avvento dei “PC compatibili” e con essi gradualmente
ad un mercato di massa, prima business e poi consumer, sia per l’hardware
sia per il software.
Capitolo I 60
19 Risale proprio a quegli anni l’idea di Lee Felsenstein – tra i primi
“hacker” e futuro animatore del noto Homebrew Computer Club – di
portare i primi antesignani del PC nelle strade, per farne strumento di
relazione fra le persone. Insieme ad altri tecno-attivisti Felsenstein fondò
nel 1973 il Community Memory Project e, con la collaborazione di
un’organizzazione no profit impegnata sul fronte dell’uso sociale dei
computer, la Resource One, realizzò un sistema client-server composto da
un enorme mainframe posizionato nel suo appartamento collegato via
telefono ad un “terminale stupido”, una telescrivente situata in un negozio
di dischi a Berkeley su cui chiunque poteva lasciare messaggi su una
bacheca elettronica, fissare appuntamenti, offrire o richiedere oggetti e
servizi, dare libero sfogo alla propria immaginazione. Si può forse
considerare il Community Memory Project il primo esempio nella storia di
“spazio pubblico digitale”. 20 Ciò vale in particolare per la tecnologia del wireless mesh
networking. 21 Almeno nella misura in cui questa “crescita infinita” venisse
supportata da dinamiche di consumo in grado di assorbirne e sostenerne i
volumi di produzione. Il tracollo della new economy registrato alla fine
degli anni Novanta è stato in effetti ricondotto da alcuni nei binari della
teoria economica classica e interpretato come una “crisi di
sovrapproduzione” (cfr. Lovink 2003; Formenti 2001). Una tale
interpretazione economicista della crisi non è condivisa da Formenti, che
invece ne individua le cause più nella “resistenza culturale” opposta dagli
attori sociali coinvolti nelle pratiche di condivisione della Rete ad una sua
sfrenata commercializzazione. 22 La quotazione in borsa (attraverso l’IPO, Offerta Pubblica Iniziale)
di Netscape, la società che produceva l’omonimo browser per la navigazione
in Internet, nell’agosto-settembre del 1995 e la repentina crescita del valore
delle sue azioni da una stima iniziale di 14 $ ai 71 $ definitivi, segna il lento
avvio del boom – a posteriori “bolla” – della New Economy. Da qui in poi è
un susseguirsi di start-up create dal nulla – sulla base di qualche idea
“geniale” e con Internet e le nuove tecnologie al centro del loro business
come denominatore comune – e quotate in borsa per rastrellare fondi da
Società dell’Informazione 61
investire nel raggiungimento di profitti futuri (ed eventuali). Dalla
sopravvalutazione complessiva e dal clima di hype che l’accompagna,
montato da guru, presunti esperti e pescecani della finanza sulle riviste-
manifesto dell’ideologia californiana, scaturisce anche qualche attività più
solida e duratura, ma per la maggior parte le dot.com sono pura illusione (e
speculazione) finanziaria. Tra il 1999 e la primavera del 2000 il Nasdaq
passa da quota 1400 a quota 5200, un aumento del 271 per cento. E’
l’ultimo enorme salto in avanti prima del grande crollo: annunciato già
all’inizio dell’anno dai primi mugugni che provenivano dai venture
capitalists di Wall Street, lo scoppio della bolla avviene con grande clamore
tra la primavera e la fine del 2000, quando il Nasdaq si attesta a quota
2200. Nel giro di pochi mesi centinaia di dotcom falliscono (Carlini 2002;
Formenti 2002; Lovink 2003). 23 E. Rullani, Le capitalism cognitif: du déjà vu?, in «Multitudes», n.
2, maggio 2000, cit. in Gorz, 2003, p. 32. 24 “La dittatura della breve durata fa sì che si attribuisca una patente di
novità, e quindi di cambiamento rivoluzionario, a qualcosa che in realtà è
frutto di evoluzioni strutturali e di processi in corso da lunghissimo tempo”
(Mattelart 2001, p 146) 25 Si tratta dell'oramai classico "enigma" o "paradosso della
produttività" (Castells 1996, pp. 84-105; Formenti 2002, p. 149; Carlini
2002, pp. 29-30). Cfr. anche Tuomi 2004 e Kling 1999. 26 Cfr. J.P. de Gaudemar, La mobilisation générale, 1979.
Capitolo II
L’Ecologia Digitale: una razionalizzazione democratica
Gli elementi forniti nel primo capitolo contribuiscono a
contestualizzare la questione delle disuguaglianze nell’età
dell’informazione legandola alle dinamiche della
razionalizzazione tecnocratica, alle trasformazioni negli ambiti
della produzione e del consumo e ai mutamenti sociali associati
all’evoluzione di nuovi mezzi di comunicazione.
La crescente pervasività delle ICT nella vita delle persone –
andando per altro ad incidere su attività fondamentali come la
produzione, il trattamento e la distribuzione di informazioni e i
processi di comunicazione – solleva questioni che vanno ben al
di là della diseguale distribuzione di dispositivi e infrastrutture,
e che pure con questa sono connesse. Il diritto di decidere
autonomamente della propria esistenza e di quella delle proprie
comunità di appartenenza è inficiato dall’impalbabilità delle reti
strumentali su cui transitano informazioni e “catene di
comando”, dall’imperscrutabilità dei “codici tecnici” che
influenzano gli usi della tecnologia e i relativi modelli di
relazione, dalla paradossale trasparenza delle interfacce che ci
inducono a cedere parte della sovranità sui nostri stessi corpi e
Capitolo II 64
sul nostro stesso “agire comunicativo”. In questo senso
l’espansione acritica e incontrollata della tecnica in ambiti tanto
delicati rischia di aggravare le condizioni di disuguaglianza non
soltanto perché accentua le distanze “fra connessi e disconnessi”,
ma anche perché amplia lo squilibrio fra chi detiene il potere di
controllo diretto e indiretto sulle tecnologie e sulle persone e chi
questo controllo, diventato sempre più impersonale, trasparente,
automatico e “razionale”, lo subisce in quanto semplice
consumatore o utente. Per questo la semplice diffusione non
mediata delle nuove tecnologie, senza un’adeguata
considerazione di rapporti di potere pregressi e percorsi di
esclusione sedimentati e dei processi sociali in cui sono coinvolte
le risorse di informazione, comunicazione e conoscenza, rischia
di esasperare le disuguaglianze invece di ridurle. Questo rischio
impone allora alla ricerca e alla politica una preliminare e critica
riflessione sulle forme di esclusione implicite negli attuali
modelli di sviluppo tecnologico e una valutazione delle diverse
alternative tecniche, organizzative e sociali volta ad individuare
le più adatte a favorire l’appropriazione, e non la semplice
diffusione, dei nuovi media.
Il capitolo traccerà quindi i percorsi di una
razionalizzazione democratica – così come il concetto è stato
sviluppato dallo studioso americano Andrew Feenberg (1999) –,
in relazione, in particolare, ai fenomeni di esclusione sociale
legati all’uso (o al mancato uso) delle nuove tecnologie
dell’informazione e della comunicazione. Il concetto prende
forma da una valutazione delle relazioni d’interdipendenza fra
tecnologia e società e si propone come prospettiva alternativa
rispetto ai principi e alle pratiche della razionalizzazione
tecnocratica e alle sottostanti filosofie della tecnica deterministe,
strumentaliste ed essenzialiste. I caratteri della razionalizzazione
Ecologia Digitale 65
democratica forniranno quindi una chiave di lettura per
interpretare quelle visioni e quelle pratiche, che segnano il
campo delle divergenze digitali (Carlini 2002) reclamando e
agendo una forma sociale, democratica e partecipata
dell’innovazione tecnologica nel settore dei nuovi media digitali:
un insieme di idee, movimenti, pratiche, proposte e riflessioni
raccolte sotto l’espressione ecologia digitale. In questo ambito
affronterò le questioni legate alla forma che assumono la
proprietà e la condivisione delle risorse immateriali nelle società
tecnologicamente avanzate, con riferimento in particolare alle
tematiche della proprietà intellettuale, dei commons digitali e
del software libero.
1. Tecnologia e società: la prospettiva della “razionalizzazione democratica” di Andrew Feenberg
Il primo capitolo ha ripercorso parzialmente le tappe che
hanno guidato l’affermarsi, a partire dalle società e dalle culture
“occidentali”, del dominio della razionalizzazione tecnocratica, e
la sua incarnazione nella retorica universalista e nelle politiche
culturali ed economiche della società globale dell’informazione.
La fase più recente di questo percorso secolare è coincisa con la
ristrutturazione del sistema capitalista avviato a partire dagli
anni Settanta e con i connessi processi di innovazione nel campo
delle tecnologie dell’informazione e della comunicazione. E’
questo l’orizzonte storico, politico, economico e sociale, giova
ricordarlo, da cui emergono e in cui si inscrivono le questioni
relative al rapporto fra ICT e inclusione sociale, di cui le
disuguaglianze nell’accesso a tali tecnologie (il cosiddetto digital
Capitolo II 66
divide) costituiscono, come vedremo più avanti, solo uno degli
elementi da tenere in considerazione.
Questo più ampio scenario solleva l’utilità di una prospettiva
alternativa a quella, sin qui dominante, della razionalizzazione
tecnocratica. A tale scopo si farà qui riferimento al concetto di
“razionalizzazione democratica” proposto dallo studioso
statunitense Andrew Feenberg (1999), e alle sue implicazioni per
il rapporto fra ICT e inclusione sociale (Warschauer 2003). Con
la progressiva accelerazione del mutamento tecnologico inscritta
negli sviluppi del capitalismo e descritta nel primo capitolo, le
nostre società e le nostre vite vengono sempre più ad essere
dipendenti da artefatti e codici tecnici, che per una buona parte
rientrano negli ambiti della comunicazione, dello scambio e del
trattamento di informazioni e conoscenze, ossia di attività umane
fondamentali. La maggior parte delle tradizioni filosofiche e
politiche che si sono confrontate con le questioni della modernità
e della tecnica, condividendo una valutazione della sfera sociale e
della sfera tecnica come domini fra loro separati e autonomi, ha
finito per sottrarre i cambiamenti tecnici e le dimensioni
dell’esistenza da essi influenzati al vaglio del processo
democratico. La disamina svolta nel primo capitolo, nella sua
concreta analisi delle interazioni fra uno specifico insieme di
tecnologie e gli assetti sociali, politici ed economici storicamente
determinati, ha tentato di sfuggire a una tale ipostatizzazione
della tecnica: da essa è emerso, da un lato, come sia impossibile
separare i due ambiti, dall’altro come una tale divaricazione si
sia dimostrata nel tempo funzionale al dominio della stessa
razionalizzazione tecnocratica.
La discussione di tali presupposti teorici si rivela tanto più
importante nel campo, qui in esame, degli usi sociali delle ICT,
in quanto la diffusione di tali tecnologie ha innescato, nelle
Ecologia Digitale 67
scienze sociali in generale e nel settore in gestazione dei
cyberculture studies (Silver 2000), un’accesa quanto fuorviante
controversia relativa al loro “impatto” sui diversi ambiti della
società, che ha riproposto lo sterile confronto fra cyberentusiasti
e “integrati”, da una parte, e tecnofobi e “apocalittici”, dall’altra.
Non da ultimo, ad essere forgiato da questi assunti impliciti sul
rapporto fra tecnica e società è stato proprio il dibattito relativo
alle questioni della disuguaglianza e dell’esclusione sociale nella
società dell’informazione.
1.1 Strumentalismo e determinismo tecnologico
Il lavoro di Feenberg si situa nel campo della riflessione sui
caratteri della modernità e in particolare negli ambiti della
filosofia della tecnica e dell’analisi sociologica del fenomeno
tecnologico. Ambiti in cui ci si confronta con alcune delle
manifestazioni più importanti del pensiero sociale moderno e
contemporaneo, da Weber e Marx ad Heidegger ed Ellul fino a
Foucault, Habermas, Marcuse, De Certau e Latour.
L’interpretazione del fenomeno tecnologico in relazione alla
sua genesi e al suo impatto sociale, si distingue in due approcci
fondamentali e nelle rispettive varianti ed evoluzioni. Lo
strumentalismo (o neutralismo), filosofia implicita delle
democrazie liberali capitaliste e fatta propria anche dalle
economie pianificate, sostiene la neutralità della tecnica rispetto
alle scelte politiche, sociali ed economiche, e
contemporaneamente contempla la possibilità di un controllo
umano sulle sue manifestazioni e applicazioni concrete. Da
questa prospettiva, che ha il “vantaggio” di corrispondere
largamente al senso comune, la tecnologia è priva di qualsiasi
particolare contenuto o valore: è piuttosto uno strumento,
Capitolo II 68
appunto, indifferente agli usi e alle finalità per cui viene
impiegato.
Il determinismo, emanazione diretta dello storicismo e del
positivismo del XIX secolo, interpreta la tecnologia come un
ambito separato dalla sfera sociale che esercita su di essa un
impatto indipendente. “Verso la fine del XIX secolo, influenzata
da Marx e Darwin, la filosofia del progresso si era trasformata in
determinismo tecnico […] si credeva che il progresso tecnico
avrebbe assicurato il cammino dell’umanità verso la libertà e la
felicità” (Feenberg 1999, p. 2). Nelle teorie deterministe, come ad
esempio il marxismo tradizionale, i mezzi tecnici sono comunque
neutri perché soddisfano semplicemente dei bisogni naturali;
ma, a differenza della fiducia liberale nel progresso dello
strumentalismo, tali teorie minimizzano il potere dell’uomo di
controllare lo sviluppo tecnico. “Il determinismo afferma che le
tecnologie possiedono una logica funzionale autonoma che può
essere spiegata senza far riferimento alla società” (ibid. p. 92).
La tecnologia è assunta come la variabile principale – e isolabile
– che causa il cambiamento sociale.
In riferimento al complesso fenomeno dell'interazione fra
società e tecnologia, Manuel Castells parla di "conseguenze
sociali non intenzionali della tecnologia" (1996, p.7), generate
dal fatto che "le persone, le istituzioni, le imprese e la società in
generale trasformano la tecnologia, qualunque tecnologia,
appropriandosene, modificandola, sperimentando con essa"
(2001, p.16). Castells cita, inoltre, in proposito, l’affermazione di
Kranzberg secondo cui le tecnologie possono non essere in se né
buone né cattive, ma esse non sono nemmeno neutrali (1996, p.
7). Questo timido superamento sia del determinismo che dello
strumentalismo, non è però ancora sufficiente a comprendere in
che modo l’ideologia tecnocratica si costituisca come l’orizzonte
Ecologia Digitale 69
culturale dominante della società dell’informazione e soprattutto
quali plausibili alternative si offrano. Alcune delle critiche
rivolte ai recenti lavori di Castells sull’impatto sociale delle
tecnologie dell’informazione sottolineano da un lato come sia
anch’egli vittima di un feticismo dell’efficienza, che risponde più
ad un “ICT imperative” che ad una qualche forma di
determinismo tecnologico (Suoranta 2003); dall’altro come,
malgrado interpreti Internet come una “creazione culturale”
(Castells 2001), sia in realtà più affascinato da una presunta
razionalità strumentale incarnata dalla Rete e tralasci in fin dei
conti di confrontarsi direttamente con gli aspetti conflittuali di
Internet, delle sue culture e della sua costruzione sociale passata
e presente (Lovink 2003). Pur bilanciando una tale impostazione
razionalista con conclusioni ambivalenti e rinunciando
apprezzabilmente al futurismo tanto in voga, Castells concentra
la sua attenzione sulle dinamiche economiche generate
dall’applicazione delle nuove tecnologie e condivide l’idea
secondo cui l’utilizzazione efficiente delle ICT possa condurre un
Paese al successo economico, e l’accesso alle fonti di
informazione, in particolare ad Internet, e alle relative
competenze migliori competitività e spendibilità degli individui
nel mercato del lavoro.
Strumentalismo e determinismo, secondo cui la tecnologia e
le sue concrete applicazioni sono innanzitutto il risultato di un
presunto carattere universale e razionale della tecnica,
costituiscono la base di legittimazione più potente dell’ideologia
razionalista e tecnocratica descritta nel primo capitolo a
proposito dello sviluppo delle tecnologie dell’informazione e
della loro massiccia applicazione nei diversi ambiti della società.
Le implicazioni di tali prospettive (necessità del progresso
tecnologico, separazione fra sfera tecnica e sfera sociale e
Capitolo II 70
imposizione causale della prima sulla seconda) hanno
condizionato profondamente, tra l’altro, il quadro concettuale e
pragmatico relativo al digital divide e alla più ampia questione
del contributo delle ICT allo sviluppo. Da un lato l’idea
dell’inevitabilità dell’adozione delle nuove tecnologie si è inserita
nel contesto più ampio dell’”eredità storica di quella che è stata
chiamata l’ideologia dell’industrializzazione, dalla quale è
emersa una tradizione di pensiero che percepisce la tecnologia
come un aiuto profondo allo sviluppo, estranea alle questioni
sociali del potere e del controllo” (Robins e Webster 1999, p.
108). Dall’altro la mancata valutazione dell’incorporazione
sociale dei processi di progettazione tecnica e degli usi della
tecnologia, ha compromesso gli sforzi volti a comprendere come
e in che misura le ICT interagiscano con le strutture e i diversi
ambiti sociali e possano in essi integrarsi per promuovere
l’inclusione sociale.
1.2 Essenzialismo, teorie critiche e costruttivismo
I successi della tecnica moderna nel XX secolo, percepiti
come una conferma delle prospettive deterministe che avevano
informato gli sviluppi delle democrazie liberali, innescarono un
processo di tecnicizzazione di sempre più ambiti della vita
sociale che si tramutò nella tendenza tecnocratica a sottomettere
la politica alle decisioni e alle competenze tecniche.
In opposizione a questa tendenza tecnocratica, il
sostanzialismo (o essenzialismo) contesta sia la neutralità della
tecnica sia la possibilità di un controllo umano su di essa: la
tecnica incarna valori specifici di per se, in quanto dominio della
razionalità e del principio di efficienza che riduce ogni cosa a
funzioni e gli esseri umani al rango di oggetti sottoposti al
Ecologia Digitale 71
controllo tecnico alla stregua delle materie prime e dell’ambiente
naturale; l’orizzonte delle sue concretizzazioni è quindi precluso,
e in ogni caso indifferente, all’agire umano. L’essenzialismo
rappresenta la reazione romantica e conservatrice al dominio
della tecnica nel passaggio alla modernità, espressa già dalla
concezione distopica di Max Weber della “gabbia d’acciaio” della
razionalizzazione e poi dalla critica di Adorno e Horkeimer alla
strumentalità come forma di dominio e dalle critiche di Martin
Heidegger e Jacques Ellul all’essenza disumanizzante dell’azione
tecnica. Queste reazioni, seppure motivate dalle pratiche di
dominio messe in atto dalle applicazioni concrete della tecnica
nel sistema capitalista e dalla loro legittimazione ad opera
dell’ideologia razionalista, secondo Feenberg da un lato non
colgono la complessità dei processi sociali coinvolti nella
mediazione tecnica, e dall’altro non offrono nessun contributo
per il suo inserimento nel campo d’azione della democrazia.
Il sostanzialismo, seppure a partire da un diverso giudizio di
merito nei confronti della mediazione tecnica, condivide infatti
con lo strumentalismo e con il determinismo una analoga
concezione lineare del progresso e una simile separazione della
sfera sociale e della sfera tecnica, che non riesce a comprendere
al contrario “the ecological intertwining of technology and
society” (Warschauer 2003, p. 204). Accettata entusiasticamente
o categoricamente rifiutata, la tecnica si presenta come un entità
autonoma imposta dall’esterno alla società, “una sorta di seconda
natura che interferisce con la vita sociale provenendo dal regno
della ragione nel quale anche la scienza trova la sua origine”
(Feenberg 1999, p. VIII). Feenberg fa notare inoltre come tali
presupposti condivisi dominino il campo della riflessione
filosofica e sociale sulla tecnica: nel bene e nel male, contestata o
esaltata, l’essenza della tecnica, individuata nel controllo
Capitolo II 72
razionale e nell’efficienza, viene data per scontata e interpretata
come un attributo reale delle sue concrete applicazioni, e non
come una loro visione parziale e mistificata. La rimozione delle
contingenze sociali del processo tecnico e dell’”ambivalenza” a
cui danno luogo, ha generato una separazione artificiosa tra
l’ambito della “tecnica” e quello del “significato”, funzionale in
fin dei conti al dominio oggettivo della prima sul secondo e
all’estromissione della tecnologia dall’ambito democratico.
Le rinnovate ambizioni di razionalizzazione della metà del
secolo scorso suscitarono nuove reazioni distopiche, che
trovarono espressione nei movimenti sociali degli anni Sessanta
e Settanta (nuova sinistra, movimenti studenteschi, femminismo
e ambientalismo) 27 e nella loro contestazione della tecnocrazia
tanto sul versante capitalista quanto su quello del socialismo
reale. Questi movimenti trasformarono la concezione
essenzialista dei critici della modernità e sollevarono il tema del
controllo sociale dello sviluppo tecnologico e di un cambiamento
radicale nella natura della modernità. L’attenzione sollevata da
questi movimenti nei confronti della contingenza sociale e della
matrice ideologica della tecnica venne raccolta da alcuni studiosi
americani e soprattutto, nelle sue implicazioni politiche, dal
pensiero critico europeo, in particolare da Herbert Marcuse e
Michel Foucault.
L’eredità storica del sostanzialismo giunse quindi alla
rottura con il determinismo tecnico e riconobbe il carattere
storicamente determinato della tecnologia moderna. Le teorie
critiche della tecnica – cui Feenberg si riferisce anche con
l’espressione “distopie di sinistra” – “affermano il ruolo
dell’agire umano, rifiutando allo stesso tempo la neutralità della
tecnica. Mezzi e fini sono collegati in sistemi soggetti al nostro
controllo finale” (Feenberg 1999, p. 12). Pur fortemente
Ecologia Digitale 73
influenzati dal sostanzialismo e concordando con esso sulla
natura tecnica delle forme moderne di dominio, Marcuse e
Foucault “rifiutano l’idea che esista un’unica via al progresso
basata sulla razionalità tecnica e aprono lo spazio per una
riflessione filosofica sul controllo sociale dello sviluppo
tecnologico” (p. 8), introducendo “una nozione di dominio più
specificatamente sociale” che stabilisce “un legame tra dominio
tecnico e organizzazione sociale” (p. 9). La rivalutazione delle
“distopie di sinistra” da parte di Feenberg è motivata in primo
luogo dalla loro duplice valutazione dell’incorporazione sociale
della tecnica, da un lato, e dello spazio dell’agire umano nelle
scelte tecnologiche, dall’altro; in secondo luogo dal loro stretto
rapporto con i movimenti sociali che sollevarono la questione di
una politicizzazione della tecnica; infine dal ruolo da esse
ricoperto nella trasformazione dell’”orizzonte di plausibilità delle
riflessioni sulla scienza e sulla tecnica”.
E’ proprio a partire dalle questioni sollevate dai movimenti
sociali e dalle teorie critiche, infatti, che i recenti lavori della
sociologia costruttivista della tecnica sono stati in grado di
affermare la natura prettamente sociale delle tecnologie.
Influenzato inoltre dalla rottura di Thomas Kuhn con il
positivismo e dal “programma forte” della sociologia della
conoscenza e basato su un empirismo rigoroso, “il costruttivismo
sociale focalizza l’attenzione sulle alleanze sociali che sono alla
base delle scelte tecnologiche”, in cui “una grande varietà di
gruppi sociali interpreta il ruolo di attori nello sviluppo tecnico”
(p. 13). Ma, secondo Feenberg, laddove il determinismo ha
sovrastimato l’impatto indipendente degli artefatti sul mondo
sociale, il nuovo approccio, limitandosi allo studio dei problemi
strategici che riguardano la costruzione e l’accettazione di
dispositivi e sistemi particolari, ha disaggregato a tal punto la
Capitolo II 74
questione della tecnica da non riuscire a cogliere ed affrontare le
implicazioni politiche che solleva inevitabilmente la
considerazione della natura socialmente orientata delle
tecnologie.
1.3 La razionalizzazione democratica
Le prospettive del determinismo e dell’essenzialismo, che
hanno dominato finora le riflessioni sui rapporti fra tecnologia e
società, non hanno saputo cogliere la natura sociale della tecnica
e delle sue concrete applicazioni. La dimensione sociale dei
sistemi tecnologici appartiene invece anch’essa all’”essenza”
della tecnica. I processi sociali e la competizione fra i diversi
sistemi di valori danno forma alla progettazione tecnico-
scientifica e ancora prima all’insieme mezzi-fini di cui una
società decide di dotarsi. La storia delle innovazioni
tecnologiche, con particolare riferimento proprio al campo delle
ICT, dimostra inoltre la natura “interattiva” del processo tecnico,
in cui usi e interpretazioni alternative retro-agiscono sulle
tecnologie e contribuiscono a plasmarne caratteristiche e
significati sociali. Tecnologia e società sono quindi il risultato di
un processo di co-generazione reciproca la cui congruenza è il
frutto di adattamenti continui e in divenire. La tecnologia è la
società – e viceversa.
Le mistificazioni del determinismo tecnologico e della
razionalizzazione tecnocratica nascondono la relatività dei
paradigmi tecnologici dominanti e degli interessi che li
supportano e negano non solo l’opportunità ma la stessa
possibilità di stabilire un controllo democratico sullo sviluppo
tecnologico e sulle sue concrete applicazioni; come conseguenza
di ciò, inoltre, finiscono per estendere la presa del controllo
Ecologia Digitale 75
strumentale, “razionale” e tecnologico sulla società. Ciò è il
frutto, come si è visto, non tanto di una presunta essenza a-
sociale della tecnica, quanto invece proprio dell’”inserzione
sociale” di tutte le dimensioni della tecnologia, dalle esigenze da
cui scaturisce, alla progettazione tecnica che le da forma, fino
agli usi e ai significati sociali che stimola e agli effetti in cui si
materializza.
Se i presupposti del determinismo e l’ideologia della
razionalizzazione tecnocratica si rivelano non solo
antidemocratici e intrinsecamente escludenti, ma anche
inadeguati a cogliere le reali dinamiche dello sviluppo
tecnologico, deve porsi una prospettiva alternativa che si
confronti, senza fughe dalla realtà ma all’interno dell’orizzonte
democratico, con la complessità delle nostre società
tecnologicamente avanzate, svelando le dinamiche sociali che
inquadrano e plasmano i fenomeni tecnologici e consentendo di
comprenderne e immaginarne i modelli di un’“appropriazione
creativa”. Tanto più se ad essere coinvolta nei processi
tecnologici è un’attività umana fondamentale come la
comunicazione. Tanto più se lo sviluppo tecnologico è messo in
relazione con la questione della distribuzione diseguale di
ricchezze e opportunità.
Il costruttivismo ha minato alla base le due premesse
fondamentali dell’approccio determinista – in parte comuni
anche all’essenzialismo –, confutando sia l’idea di un “progresso
tecnico unilineare” – ossia che esso “segua una sequenza unica di
tappe necessarie” –, sia quella di una “determinazione dalla
base” – ossia l’idea che “le istituzioni sociali debbano adattarsi
agli imperativi della base tecnologica” (Feenberg 1999, pp. 92-
93). I nuovi sistemi tecnologici emergono in realtà da un
Capitolo II 76
processo di negoziazione e conflitto fra “gruppi sociali rilevanti”
in cui “la scelta fra le alternative non dipende in ultima istanza
né dall’efficienza tecnica né da quella economica”, come pretende
chi si affida ad una presunta razionalità tecnica assoluta, “ma
dall’intersezione di oggetti, interessi e credenze di questi gruppi
sociali” (p. 95). Tutti gli artefatti tecnologici presentano quindi,
secondo l’approccio costruttivista, una “flessibilità
interpretativa”, vale a dire che essi vengono percepiti e utilizzati
in maniera differente dai diversi gruppi sociali coinvolti nel
processo di progettazione. Questo processo sociale non risponde
a nessun criterio di necessità, in quanto “non concerne la
soddisfazione dei bisogni umani “naturali”, ma riguarda la
definizione culturale dei bisogni e quindi dei problemi ai quali la
tecnologia si rivolge” (ibid. p. 100). La cultura e l’ideologia
entrano quindi nella storia come forze effettive non solo nel
campo politico, ma anche nella sfera tecnica, così come osservato
nel primo capitolo. “Lo sviluppo sociale non è determinato dallo
sviluppo tecnologico, ma dipende allo stesso tempo da fattori
tecnici e sociali” (p. 99).
La valutazione delle implicazioni di tale interpretazione della
tecnologia per una politica democratica della tecnica
costituiscono l’originale contributo di Feenberg al modello
costruttivista. “Se la tecnologia è un’insieme di potenzialità
inesplorate, sono gli imperativi non tecnologici a determinare la
gerarchia sociale attuale. La tecnologia è piuttosto una scena
della lotta sociale, […] in cui le alternative politiche si fanno
concorrenza” (p. 99). E laddove il costruttivismo considera fra i
“gruppi sociali rilevanti” soprattutto gli attori più visibili
(scienziati, ingegneri, tecnici, amministratori, manager),
Feenberg considera necessario includervi anche i semplici
utilizzatori, il cui ruolo nel processo di interpretazione sociale
Ecologia Digitale 77
della tecnologia è particolarmente visibile proprio nell’ambito
delle ICT e nello sviluppo della CMC (Computer Mediated
Communication).
La definizione della tecnologia, arricchita dalla
considerazione dei suoi aspetti sociali e politici, può includere
quindi “i suoi significati sociali e i suoi orizzonti culturali” (p.
100) 28. Patrice Flichy distingue in proposito un “quadro di
funzionamento” e un “quadro d’uso” di un dispositivo
tecnologico, per segnalare la differenza tra le caratteristiche
specifiche che determinano la sua messa in atto e l'insieme delle
manipolazioni e delle attribuzioni di significato di cui esso viene
fatto oggetto da parte di una specifica comunità di utenti. Jean
Baudrillard suggerisce un approccio simile adattando la
distinzione linguistica fra denotazione e connotazione per
descrivere la differenza fra la funzione degli oggetti tecnici e le
loro numerose altre associazioni. Feenberg sottolinea, d’altra
parte, come tali distinzioni, per quanto utili, siano il prodotto, e
non il presupposto del mutamento tecnico. L’interazione in
divenire fra lo sviluppo e l’uso dei dispositivi tecnologici e il
contesto sociale e istituzionale determina nel tempo una
cristallizzazione dialettica tanto delle funzioni quanto dei
significati sociali. “[…] la funzione è un termine relazionale che
attribuiamo all’oggetto come se fosse una qualità reale. In realtà,
la funzione di ogni tecnologia è relativa alle organizzazioni che la
creano, la controllano e che le forniscono un obiettivo” (ibid. p.
140). Feenberg avanza quindi una lettura dinamica della
cristallizzazione di funzioni e significati in un dispositivo: la
distinzione statica di Flichy diventa un processo dinamico in cui
l’essenza stessa della tecnica è caratterizzata da due aspetti che
spiegano, uno la “costituzione funzionale degli oggetti tecnici”,
definita “strumentalizzazione primaria”, e l’altro la
Capitolo II 78
“realizzazione di oggetti e soggetti correlati in reti e dispositivi
reali“, definita “strumentalizzazione secondaria” (p. 241). Se al
livello della strumentalizzazione primaria si dispiega la
“relazione tecnica fondamentale”, in cui “il mondo della vita”
viene ridotto a materia prima e ad oggetto di calcolo e
sfruttamento, attraverso la strumentalizzazione secondaria
questa relazione tecnica produce sistemi o dispositivi concreti,
integrati “con gli ambienti naturali, tecnici e sociali” che ne
sostengono il funzionamento, recupera cioè la sua dimensione
contestuale (p. 244). Una tale lettura consente a Feenberg di
integrare in un’unica cornice le risposte alle questioni sollevate
dalle filosofie essenzialiste (reificazione e tecnicizzazione del
mondo della vita) e dalla sociologia costruttivista (costruzione
sociale della tecnologia), correggendone allo stesso tempo i
rispettivi limiti. E gli consente soprattutto, come vedremo, di
individuare, al livello delle strumentalizzazioni secondarie, lo
spazio di una opposizione democratica al dominio della
razionalità tecnica.
Il processo della progettazione tecnica, oltre a definire
significati sociali e funzioni di un dispositivo, “incorpora anche
alcuni presupposti più generali che concernono i valori sociali” e
che costituiscono quello che Feenberg definisce l’”orizzonte
culturale” della tecnologia (p. 103). Le controversie fra le
alternative in campo nella fase di definizione di una tecnologia si
risolvono, in effetti, “privilegiando una configurazione fra le
molte altre possibili” (p. 105), selezionata dagli interessi
dominanti. Questo processo di “chiusura” della tecnologia fissa
un insieme definito di funzioni e significati sociali nella forma di
un “codice tecnico”, il quale definisce la tecnologia in termini
strettamente tecnici “conformemente al significato sociale che
esso ha acquisito” e fornisce un modello per altri sviluppi nello
Ecologia Digitale 79
stesso settore (ibid. p. 105) 29. La chiusura produce una “scatola
nera”, ossia un artefatto le cui origini sociali sono dimenticate e i
cui significati sociali sono dati per scontati come impliciti e
necessari. Questo processo è all’origine dell’illusione
determinista per cui l’artefatto appare come qualcosa di
puramente tecnico e persino inevitabile.
In questo senso il sistema tecnologico si costituisce come
l’incarnazione tecnica di un’”egemonia culturale”, concetto
ripreso dalla tradizione dei cultural studies nella sua accezione
di una modalità di dominio contestabile e adottato da Feenberg
per sottolineare il margine di trasformazione di una tecnologia di
cui dispongono i normali utenti. Nelle società capitaliste la
razionalizzazione tecnocratica egemonizza l’orizzonte culturale e
“la progettazione tecnica è la chiave del suo potere” (p. 103).
Proprio a partire dalla mancata consapevolezza che questa
egemonia possa essere contestata come una, e non l’unica, tra le
forme possibili di razionalizzazione, Feenberg propone il
concetto, e la pratica, di “razionalizzazione democratica” (pp. 87-
175) come forma dell’agire umano capace di fornire
un’alternativa alla pura razionalità tecnologica. La nozione di
razionalizzazione democratica è un ribaltamento della posizione
di Max Weber che considera la burocrazia la sola forma razionale
di modernità. Feenberg afferma al contrario che l’opposizione
agli imperativi tecnologici non rientra necessariamente nella
categoria dell’irrazionalità, ma si configura piuttosto come una
forma alternativa di razionalità. Attraverso una critica al
concetto di “domesticazione” di Silverstone e la discussione di
alcuni spunti forniti da Foucault, de Certau e Latour, Feenberg
giunge a definire la prospettiva della “razionalizzazione
democratica”.
Capitolo II 80
L’approccio di Roger Silverstone e di altri cullturalisti alla
ricezione della tecnologia all’interno della famiglia, e la relativa
metafora della “domesticazione”, “privilegiando l’adattamento e
l’abitudine” e connotando i “confini limitati della casa”, non
sembrano sufficienti a definire lo spazio di un agire umano
significativo nei confronti della tecnica e a valorizzarne inoltre le
implicazioni pubbliche (p. 129-130). Le riflessioni di Foucault
(1977) sul rapporto fra sapere e potere illustrano invece la
contrapposizione fra “regimi di verità” e strutture di potere
incarnate negli artefatti e nei discorsi scientifici, da un lato, e
saperi assoggettati e parziali (“situati”) in grado di attuare una
ricodificazione del sistema a partire da forme di lotta locali,
dall’altro (Feenberg 1999, p. 131-133). Riprendendo alcune idee
generali di Foucault, Michel de Certau (1980) propone la
relazione costituente fra le “strategie” di controllo e
pianificazione dei poteri istituzionalizzati e le “tattiche” di
diversione e destabilizzazione attuate inevitabilmente dagli attori
sociali nel processo di realizzazione delle strategie (Feenberg
1999, p. 134-136) 30. Una relazione simile a quella, rilevata in
ambito linguistico, fra langue e parole, e alla base del “principio
di simmetria”, elaborato da Bruno Latour, fra “programmi” e
“anti-programmi” incorporati negli oggetti tecnici e operanti per
mezzo di “deleghe tecnologiche” (p. 137-143).
La discussione dei meccanismi di legittimazione e dei limiti
della “razionalità tecnica” guida Feenberg verso la
considerazione, mutuata da Marcuse e da Foucault, del limite
posto alla razionalizzazione tecnocratica dalla resistenza dei suoi
stessi “oggetti umani” e verso il conseguente recupero di uno
spazio dell’agire umano significativo confrontato non con la
tecnica in quanto tale, ma con le tecnologie e i dispositivi
concreti che ne costituiscono la materializzazione. Un tale
Ecologia Digitale 81
impianto critico nei confronti della tecnologia porta il filosofo
americano a riaffermarne la contingenza sociale e la centralità
politica per l’ambito democratico. La “razionalizzazione
democratica” è, allora, l’affermazione della “razionalità della
partecipazione pubblica informale al cambiamento tecnologico”
(p. 90) e dell’implicazione pubblica dell’intervento dell’utente
che “sfida le strutture di potere non democratiche radicate nella
tecnologia moderna” (p. 130); essa “procede attraverso progressi
tecnici che si oppongono alla tecnocrazia” (p. 197) e
all’”egemonia tecnologica” ed “è l’effetto dei programmi dominati
che realizzano i potenziali tecnici ignorati o rifiutati” dai sistemi
dominanti (p. 87). Le “razionalizzazioni democratiche”
(controversie tecniche, dialoghi innovativi, progettazione
partecipata, appropriazioni creative) (pp. 143-154) rendono
attuale l’ambivalenza della tecnologia, contrastando le
dinamiche di “conservazione della gerarchia” e le “strategie
tecnocratiche di modernizzazione” messe in atto dagli interessi
dominanti (p. 90-91) 31.
1.4 Razionalizzazione democratica e
disuguaglianze digitali
La storia dei media di comunicazione è emblematica sia
dell’ambivalenza della tecnologia, sia delle dinamiche di
appropriazione creativa da parte degli utenti. Gli sviluppi
dell’informatica applicata e delle reti di comunicazione fra
computer, in particolare di Internet, ne costituiscono per molti
aspetti quasi esempi paradigmatici. E’ evidente, quindi, la
pertinenza della prospettiva della razionalizzazione democratica
per gli sviluppi delle tecnologie dell’informazione e
comunicazione; lo stesso Feenberg, impegnato in alcuni progetti
Capitolo II 82
specifici nel campo della comunicazione mediata dal computer,
dedica ampio spazio all’insorgenza della comunicazione umana
nelle reti telematiche originariamente progettate per la
trasmissione di dati (il Minitel in Francia e la stessa Internet ai
suoi esordi negli Stati Uniti) (Feenberg 1999) e alla “costruzione
sociale delle comunità online” (Feenberg e Bakardjieva 2002).
Le analisi di Feenberg si rivelano allora utili a sgombrare il
dibattito sul digital divide e sul rapporto fra ICT e inclusione
sociale da semplificazioni e mistificazioni, e si traducono in due
elementi di riflessione fra loro complementari. In primo luogo, la
considerazione dei processi di costruzione sociale delle
tecnologie richiama la questione cruciale di come i significati
sociali sedimentati nei sistemi tecnologici e l’orizzonte culturale
in essi incarnato si confrontino con la loro ricezione da parte dei
nuovi utilizzatori.
I gruppi sociali dominanti che contribuiscono alla
definizione dei dispositivi tecnologici nella fase di progettazione
sono anche i primi a fruire delle novità tecnologiche e a fissarne
la definizione in una certa configurazione di funzioni e
significati. Nel caso di Internet, in particolare, il ruolo dei
pionieri è stato particolarmente significativo nel forgiarne gli
aspetti socio-tecnici, data la velocità del processo di feedback e
la flessibilità della tecnologia (Castells 2001). Attraverso un
processo di progressiva “chiusura” – che, come nel caso di tutte
le tecnologie più recenti, non è ancora compiuto – la specifica
cultura di Internet è emersa come sintesi delle diverse culture
incarnate dai “gruppi sociali rilevanti” nelle diverse fasi della sua
progettazione. Con una progressione temporale non priva di
conseguenze, tecnici, ricercatori e scienziati del mondo
accademico e militare, hacker, gruppi alternativi e network
comunitari, e più tardi imprenditori e manager della new
Ecologia Digitale 83
economy, hanno contribuito a plasmare i caratteri tecnici e
sociali del mezzo e a improntarlo ad un’”ideologia della libertà”
(di espressione e d’impresa), coerente con il più complessivo
milieu socio-culturale di provenienza. La massa dei semplici
utenti è arrivata molto dopo, sull’onda della commercializzazione
del Web e dei progressi raggiunti dalle tecnologie di trasmissione
ed elaborazione dei dati e dai software per la gestione, la
programmazione e la presentazione delle informazioni.
La configurazione socio-tecnica attuale di Internet porta i
segni delle sue contraddittorie origini e motivazioni, allo stesso
tempo radicate nel cuore dell’Occidente e protese verso un ideale
universalistico, capitaliste e comunitarie, tecnocratiche e
libertarie, militari e controculturali. Il vantaggio temporale, le
strutture di potere consolidate e l’egemonia culturale dei modelli
della razionalità tecnica, hanno comunque finito per assegnare
un ruolo preponderante alla cultura tecno-meritocratica –
condivisa dalla maggior parte degli attori coinvolti e cruciale
negli ambienti universitari e scientifici in cui la tecnologia ha
mosso i suoi primi passi – e agli imperativi della produttività
economica e del profitto – che ne hanno contraddistinto
l’adozione nel mondo imprenditoriale e amministrativo e la
diffusione “di massa” degli anni Novanta.
L’”orizzonte culturale” di Internet, e in generale delle nuove
ICT, è ancorato nei valori e nei codici culturali dei gruppi sociali
benestanti e acculturati delle società occidentali, con una forte
caratterizzazione maschile e nordamericana (Castells 2001).
Questa “deformazione” iniziale contribuisce a spiegare, tra
l’altro, alcune delle disparità nell’accesso alle ICT tra diversi
gruppi sociali e tra diverse zone del pianeta (Warschauer 2003).
La disponibilità di contenuti e servizi giudicati utili o allettanti e
la presenza di utenti all’interno dei propri gruppi sociali di
Capitolo II 84
riferimento, ad esempio, sono tra i fattori che motivano le
persone ad utilizzare Internet (Di Maggio et al. 2004). La cultura
dei creatori e dei primi utilizzatori di Internet ha determinato in
effetti una prevalenza di contenuti e applicazioni commerciali,
orientate dai valori dell’occidente ricco, un predominio della
lingua inglese e una parallela scarsa reperibilità di contenuti
alternativi 32. Le persone provenienti da altre culture, che parlano
altre lingue – in molti casi con sistemi di scrittura diversi dalle
lingue latine o addirittura non alfabetici – o che hanno
semplicemente interessi diversi, sono dunque scoraggiate
dall’accedere al Web per attività di consultazione. La
conseguente scarsa presenza in Rete di questi gruppi sociali,
oltre ad esasperare la marginalizzazione dei contenuti minoritari,
costituisce a sua volta per chi ne fa parte un fattore di
dissuasione dall’accedere ad Internet per quelle attività di
comunicazione, scambio e condivisione che si attivano sulla base
dell’esistenza di una massa critica di utilizzatori all’interno delle
proprie reti sociali.
In questo caso, dunque, elementi tecnici, sociali, culturali ed
economici, interni all’”orizzonte culturale” della razionalità
tecnica (strumentalizzazione primaria) e incorporati nella
costituzione materiale e simbolica del sistema tecnologico
Internet (strumentalizzazione secondaria), contribuiscono
nell’insieme a dettare le soglie di accesso alle nuove tecnologie e
una conseguente “stratificazione sociale” degli usi e dei benefici
associati alle nuove tecnologie in una determinata cultura.
Per i segmenti di popolazione delle società avanzate e dei
Paesi in via di sviluppo non raggiunti, o toccati solo
marginalmente, dall’ultima ondata di innovazioni tecnologiche
nel campo dell’informazione e della comunicazione, l’innesto di
queste tecnologie nel tessuto di significati, relazioni e pratiche
Ecologia Digitale 85
sociali preesistente presenta quindi alcuni aspetti di criticità. Il
processo di diffusione di queste tecnologie, se adeguatamente
contestualizzato, può innescare processi di appropriazione che
rispondano a bisogni e desideri socialmente riconosciuti e
impattino, così, efficacemente le dinamiche di esclusione sociale
e impoverimento crescenti. Ma se un tale processo di
appropriazione non si verifica – e non viene favorito – le nuove
tecnologie si rivelano del tutto inefficaci nel sostenere percorsi di
sviluppo endogeni, autodiretti e sostenibili e rischiano al
contrario di aggravare le dinamiche di subalternità dei soggetti
svantaggiati nei confronti di poteri economici le cui maglie non
possono in ogni caso essere eluse perché in grado di raggiungere
le risorse loro necessarie in qualunque luogo esse si trovino e di
imporre ovunque gli effetti delle loro politiche.
In secondo luogo, allora, la prospettiva della
“razionalizzazione democratica” consente di cogliere tutta
l’”ambivalenza” delle tecnologie dell’informazione e della
comunicazione e affrontarne la fondamentale contraddizione fra
usi “sociali” e “strumentali”. Le differenze nella disponibilità e
nell’uso significativo dei dispositivi della comunicazione in rete
da parte di individui e comunità costituiscono, nel contesto di
un’economia informazionale, una fonte di nuove disuguaglianze
ed esclusioni sociali che vanno a sommarsi o ad aggravare quelle
precedenti, e mobilitano quindi governi, privati, organismi non
governativi e istituzioni internazionali ad un’azione di contrasto
al digital divide. La diffusione delle tecnologie e delle possibilità
di accesso alle reti, nello scenario dell’attuale modello globale di
sviluppo capitalista, non va però ad intaccare, ed anzi rafforza,
gli squilibri nella distribuzione di potere e ricchezze. I modelli di
divisione internazionale del lavoro nei comparti produttivi delle
ICT, i processi di concentrazione nei settori delle nuove industrie
Capitolo II 86
culturali, e una complessiva gerarchizzazione delle reti
nell’ambito della dialettica globale/locale non fanno che
sottomettere nuovi spazi alle prerogative della valorizzazione
economica e della razionalizzazione tecnocratica. La fruizione dei
media digitali e l’accesso alle “reti” dell’economia globale da
parte dei soggetti esclusi dal benessere economico e dal potere di
influenza culturale delle società capitaliste, assumono allora le
forme della subalternità, dell’impoverimento e dell’omologazione
delle differenze culturali e della perdita del controllo sulle
proprie vite e culture. Come sottolinea Castells (2001, p. 157),
nella società in rete “il potere viene esercitato primariamente
intorno alla produzione e alla diffusione di codici culturali e
contenuti d’informazione. Il controllo dei network di
comunicazione diventa la leva con cui interessi e valori vengono
trasformati in norme che guidano il comportamento umano”.
Questa duplice natura delle dinamiche di esclusione fa sì che
la tematizzazione dominante della questione delle disuguaglianze
nella società dell’informazione vada incontro ad un’insanabile
contraddizione. La nozione di digital divide – la cui presunta
neutralità è apparente e strumentale quanto quella attribuita alle
stesse tecnologie – e le relative politiche, inscrivendosi nello
stesso orizzonte culturale della razionalizzazione tecnocratica,
finiscono in effetti per legittimarne e riprodurne le relative
dinamiche di esclusione che vorrebbero contrastare. Gli
interventi volti a colmare il gap tecnologico e a porre le ICT al
servizio dello sviluppo si concretizzano in programmi di
“trasferimento tecnologico”, che invece di stimolare e favorire
l’appropriazione autonoma degli strumenti in questione, mirano
a far percorrere ai soggetti “ritardatari” le tappe di una
modernizzazione il cui assunto implicito è l’idea determinista di
un progresso unilineare e “necessario”. All’origine di tali
Ecologia Digitale 87
politiche vi è stato, tra l’altro, il ritorno in auge di una
“concezione diffusionista dello sviluppo” (Mattelart 2001) – già
messa alla prova dalle fallimentari strategie degli anni Sessanta e
Settanta “ispirate dall’ideologia quantitativa della
modernizzazione” (ibid.) – secondo cui l’innovazione e il
cambiamento sociale procedono dall’alto verso il basso, per un
processo a cascata dalle emittenti centrali e dalle elites tecniche
verso i riceventi periferici e gli amministrati. Un tale “modello di
sviluppo”, in cui, come sottolinea suggestivamente Mattelart
(2001), “il ricevente è condannato, in qualche modo, allo status
di clone dell’emittente” è, d’altra parte, perfettamente coerente
con i processi di spersonalizzazione e di imposizione attuati dalle
reti strumentali del capitalismo globale.
Ma se si vuole interrompere il circolo vizioso fin qui
evidenziato tra sviluppo tecnologico ed esclusione sociale,
ricerche e politiche riguardanti la diseguale distribuzione delle
ICT e il loro contributo allo sviluppo umano, dovrebbero
concentrarsi meno sull’aspetto quantitativo della diffusione delle
tecnologie o sul loro impatto sugli indici di produttività e
crescita economica, e considerare maggiormente le potenziali
interazioni tra i modelli tecnologici disponibili da un lato e il
sistema di risorse, bisogni e relazioni di potere presente in un
determinato contesto dall’altro, stimolando al contempo
creatività e risorse locali nei processi di diffusione delle nuove
tecnologie. Indagare la relazione costitutiva e dinamica fra
artefatti, funzioni e significati sociali e assumere la prospettiva
della “razionalizzazione democratica” significa, nell’ambito delle
“ICT per lo sviluppo”, valorizzare il ruolo attivo degli attori
sociali nell’adozione e nella trasformazione delle nuove
tecnologie. Significa focalizzare l’attenzione sul mutamento
sociale desiderato e sui benefici e non sulla tecnologia in se,
Capitolo II 88
ossia promuovere un uso strategico e consapevole delle nuove
tecnologie, adattato agli specifici obiettivi che gli stessi soggetti
si danno e integrato nel più ampio contesto delle precedenti
strategie e dei bisogni locali di informazione e di comunicazione.
2. Un’altra razionalità è possibile: l’ecologia digitale
Un interesse non strumentale per il possibile contributo
delle nuove tecnologie dell’informazione e della comunicazione
allo sviluppo umano di individui e comunità non può quindi
prescindere dalla discussione delle concrete forme, applicazioni e
modelli d’uso che tali tecnologie vanno assumendo nel corso
della loro evoluzione. Queste concretizzazioni, come abbiamo
visto, non solo non sono determinate da alcun principio tecnico
od economico a priori, bensì generate dalla negoziazione sociale
fra gli “attori rilevanti” che partecipano all’ampio processo di
progettazione; in particolare nell’ambito delle ICT, le concrete
applicazioni sono anche e significativamente forgiate
dall’intervento attivo degli utenti e dei diversi soggetti che a
vario titolo vi sono coinvolti.
Nella ricognizione di Feenberg (1999) l’affermazione delle
tematiche dell’ambientalismo e l’emersione della comunicazione
umana nelle reti di computer (Minitel in Francia e Internet negli
Stati Uniti) costituiscono due significativi esempi di
“razionalizzazione democratica": le “controversie” relative alle
conseguenze ambientali del sistema industriale e
l’”appropriazione creativa” delle tecnologie di rete hanno fatto
emergere, nei rispettivi ambiti, quei “potenziali tecnici ignorati o
rifiutati dal sistema dominante” (ibid., p. 87) che si oppongono
alla razionalizzazione tecnocratica. Sottomettendo la presunta
Ecologia Digitale 89
imparzialità della razionalità tecnica alla discussione
democratica e le sue concrete applicazioni all’intervento
modellante dal basso degli utenti, le “razionalizzazioni
democratiche” includono nei processi di progettazione tecnica
valori e significati alternativi a quelli, orientati al profitto,
all’efficienza, alla pianificazione e al controllo, della
razionalizzazione tecnocratica. Gli interessi dominanti, del resto,
come già detto non hanno tardato ad appropriarsi a loro volta
delle manifestazioni di una tale “razionalità alternativa”,
riconducendola nei binari dettati dalle loro tradizionali esigenze:
basti pensare al controverso significato dell’uso strumentale
delle tematiche ambientali nell’ambito della cosiddetta
“responsabilità sociale dell’impresa”; o all’altrettanto
ambivalente commercializzazione della Rete e dei processi di
comunicazione in genere nella nuova fase digitale.
L’incessante avanzata e la pervasività delle tecnologie
digitali in un crescente numero di ambiti fondamentali della
nostra esistenza, il ruolo strategico che esse ricoprono nelle
principali dinamiche economiche e politiche a diverse scale e i
diversi processi di esclusione a cui danno luogo, sollevano oggi,
nel contesto dell’informazionalismo e della società in rete,
questioni per alcuni aspetti analoghe a quelle emerse dai
movimenti ambientalisti ed ecologisti negli anni Sessanta e
Settanta in relazione all’impatto delle tecnologie industriali e
dell’industrializzazione in generale sull’ambiente naturale e
umano. Alcuni dei movimenti e dei “gruppi sociali rilevanti”
impegnati attivamente sul terreno della tematizzazione, della
proposta e della contestazione politica intorno alle questioni
sociali e democratiche poste dalla “società dell’informazione”,
adoperano esplicitamente l’espressione ecologia digitale per
Capitolo II 90
significare allo stesso tempo un ambito di intervento e una
prospettiva ideale.
L’approccio ecologico alle tecnologie e alle risorse
dell’informazione e della comunicazione da un lato costituisce
un’interessante prospettiva da cui guardare alle relazioni tra
tecnologie e società con un particolare accento sulla dimensione
locale; dall’altro rappresenta, come si diceva, un caso di
“razionalizzazione democratica”, vale a dire l’inclusione nella
discussione pubblica di temi relativi agli usi delle tecnologie che
la “razionalità tecnica” dominante non considera e l’emersione di
scenari e soluzioni tecniche e politiche alternative.
2.1 Ecologie dell’informazione
In una prospettiva più ampia rispetto a quella dell’ecologia
digitale, alcuni autori utilizzano la metafora biologica per
rendere conto dei complessi fenomeni di evoluzione e
adattamento reciproco delle ICT, dei media e della società.
Warscahuer (2003) suggerisce di guardare al rapporto tra le
tecnologie e i diversi contesti sociali in cui operano, come ad una
“interdipendenza ecologica”, vale a dire una relazione in cui i
diversi elementi e attori che compongono il quadro agiscono
l’uno sull’altro in una dinamica di adattamento e cambiamento
reciproco. Fidler (1997) adopera la metafora biologica per
indicare i caratteri della mediamorfosi, ossia dei processi storici
di selezione ed evoluzione che interessano i media e i domini
della comunicazione.
Nardi e O’Day (1999) propongono l’espressione ecologia
dell’informazione (“information ecology”) 33 per indicare “un
sistema di persone, pratiche, valori e tecnologie in un
determinato contesto” (Nardi e O’Day 1999, traduzione mia). La
Ecologia Digitale 91
prospettiva delle due ricercatrici americane focalizza “l’interesse
principale non sulla tecnologia in se, ma sulle attività umane
servite dalle tecnologie” (ibid.) in uno specifico ambiente
“locale”, come un’istituzione, una comunità, uno spazio virtuale
in rete. Le caratteristiche salienti di un’ecologia
dell’informazione sono analoghe a quelle di un ecosistema
biologico: essa è infatti un sistema di relazioni e dipendenze fra
elementi tecnici, umani, culturali e sociali interessati da
dinamiche di coevoluzione e alcuni dei quali ricoprono dei ruoli
chiave per il funzionamento complessivo del sistema; un’ecologia
esibisce inoltre un certo grado di diversità e varietà interna ed è
situato in uno specifico contesto locale. Questa dimensione
locale delle ecologie dell’informazione le rende inoltre, secondo
Nardi e O’Day, gli ambiti privilegiati della partecipazione
collettiva alla definizione delle applicazioni e degli usi delle
tecnologie.
La metafora ecologica proposta dalle due ricercatrici
americane permette quindi di focalizzare l’attenzione sulle
complesse relazioni che si instaurano fra le tecnologie
dell’informazione e i valori, i saperi e le pratiche situate in un
determinato ambiente; consente inoltre, indicando un’unità di
osservazione intermedia come un ambiente locale, di sfuggire
allo stesso tempo sia alla concezione comune della tecnologia
come strumento con cui le persone si relazionano singolarmente
e in modo neutro, sia all’idea di un sistema tecnico omogeneo e
su larga scala in cui al contrario le persone non sono che
meccanismi di un ingranaggio; permette di cogliere, infine, –
peraltro con un deciso richiamo alla teoria della
“razionalizzazione democratica” di Feenberg – il ruolo attivo
svolto da un’ampia gamma di attori nella definizione delle
Capitolo II 92
concrete applicazioni delle tecnologie dell’informazione e nella
loro integrazione nei diversi contesti sociali d’uso.
2.2 “Proprietà intellettuale” vs. information e
digital commons
Il concetto di ecologia digitale (o ecologia informazionale) è
emerso negli ultimi anni in analogia con le tematiche relative alla
salvaguardia dell’ambiente naturale sollevate a partire dagli anni
Cinquanta dall’ambientalismo e dall’ecologismo. L’espressione si
colloca infatti, in prima istanza, nell’ambito delle questioni
sollevate da quei movimenti che, preso atto della centralità delle
risorse di informazione e conoscenza in moltissimi ambiti
fondamentali delle società contemporanee, ne evidenziano la
natura di “beni comuni” e sottolineano la necessità di preservare
quest’ultima dai processi di privatizzazione e
commercializzazione portati avanti dagli attori economici e
politici dominanti. Questi ultimi fondano le loro pretese sulla
nozione – per nulla neutrale e già in parte discussa nel primo
capitolo – di “proprietà intellettuale” e sull’equiparazione delle
risorse in questione a merci (commodities), alla stregua di un
qualsiasi bene materiale (cfr. Cap. 1, par. 3).
In effetti il primo riferimento ad un “ambientalismo per la
Rete” si trova in un saggio del 1997, in cui il professore di legge
americano James Boyle argomenta l’opportunità di un ampio
dibattito politico intorno al quadro teorico e alle politiche
relative alla “proprietà intellettuale”, in quanto forma legale
fondamentale della società dell’informazione e questione
centrale nello sviluppo di Internet. Boyle individua e paventa già
allora la tendenza verso un’estensione del concetto e dei suoi
ambiti di applicazione, costruita intorno agli interessi di pochi
Ecologia Digitale 93
attori economici e sulla base di una valutazione semplicistica dei
concetti di proprietà e di autore, a discapito del fair use e
soprattutto di un “dominio pubblico” delle conoscenze. Questo
“spazio” è inteso da Boyle in analogia all’”ambiente naturale”:
come questo è stato posto al centro del dibattito pubblico dal
movimento ambientalista come elemento di considerazione
contrapposto agli interessi economici dei privati, anche il
“dominio pubblico” deve essere inventato e protetto dallo
sfruttamento miope delle forze del mercato. Gli anni successivi a
questo saggio da un lato hanno visto confermate le previsioni di
Boyle di una maggiore estensione della portata dei diritti di
“proprietà intellettuale”, dall’altro hanno visto anche diffondersi
dibattiti, movimenti d’opinione e pratiche politiche e “tecniche”
in difesa delle diverse forme di un dominio pubblico delle
conoscenze, contro quello che in un saggio recente lo stesso
Boyle ha definito come un “secondo movimento di enclosure”,
“the enclosure of the intangible commons of the mind” 34 (vedi
Cap. 1 par. 3).
Il riferimento alla condizione dei terreni agricoli di uso
pubblico (commons) precedente allo storico processo di
enclosure a cui si richiama Boyle (avvenuto tra il 1500 e il 1800),
è assai comune tra i movimenti e le organizzazioni che si battono
per un più equo bilanciamento tra i diritti di proprietà e quelli di
libero acceso e uso dell’informazione. In origine riferito ai
terreni agricoli usati liberamente dai contadini per coltivare e
allevare gli animali in Inghilterra fino al 1500, il termine
commons sta ora ad indicare in generale “una risorsa, una
struttura o un servizio condiviso da una comunità di produttori o
consumatori” (Kranich 2004). Molte risorse materiali sono state
gestite nel corso della storia – e sono tuttora gestite –
completamente o in parte in regime di “proprietà comune” o di
Capitolo II 94
“libero accesso”: tra queste, le foreste e il legname, i terreni per
il pascolo, le riserve idriche e ittiche, le vie di comunicazione e
trasporto, le piazze, le strade, i parchi e altri luoghi pubblici di
città e stati. In molti casi anche le risorse informative sono
accessibili e fruibili in una condizione simile: le collezioni di
risorse letterarie e artistiche delle biblioteche comunali, le
trasmissioni televisive pubbliche, alcune porzioni dello spettro
elettromagnetico e i protocolli ed i software di base di Internet
sono tutti esempi di risorse immateriali soggette ad un regime di
proprietà comune o di libero accesso.
Il dibattito in ambito giuridico, economico, sociologico e
antropologico sull’efficacia, l’efficienza e la sostenibilità della
gestione condivisa delle risorse, prende le mosse dal noto saggio
del 1969, The Tragedy of Commons, in cui Garret Hardin,
riferendosi all’esaurimento dei terreni comuni utilizzati per il
pascolo, argomentava l’insostenibilità di un accesso
indiscriminato alle risorse comuni, pena un’eccessiva domanda e
il conseguente deterioramento delle stesse (Carlini 2002;
Rheingold 2002; Kranich 2004). Negli anni seguenti altri studi
hanno dimostrato che le conclusioni di Hardin valgono in realtà
solo per quei commons gestiti in regime di “accesso libero”
(ibid.) e che anche in questi casi la “tragedia” non è né il più
frequente né il più probabile degli esiti: in effetti nella maggior
parte dei casi si osservano modalità di regolazione implicita delle
risorse comuni, improntate a diversi modelli di reciprocità ed
“egoismo altruistico”, che garantiscono uno sfruttamento accorto
e un equo bilanciamento tra costi e benefici (Carlini 2002) 35. In
altri casi, descritti da Carol Rose, addirittura il valore
complessivo di una “risorsa” aumenta proprio in virtù del
numero di persone coinvolte nella sua fruizione. Rose cita il caso
di attività collettive quali i festival o le piste da ballo, in cui i
Ecologia Digitale 95
partecipanti possono ciascuno investire quantità limitate di
risorse personali traendone invece un beneficio che cresce
all’aumentare dei partecipanti, almeno entro certi limiti che Rose
individua nell’ambito dei confini di una “comunità” (Kranich
2004). Tali esiti positivi sono più probabili quando a governare
un commons provvede un regime di “proprietà comune”, in cui i
membri di un gruppo chiaramente delimitato sono titolari di un
insieme di diritti, compreso il diritto di escludere i non-membri
dalla fruizione della risorsa (ibid.).
Nell’ambito delle tecnologie e delle risorse dell’informazione
si osserva un’ampia varietà di casi in cui si registrano effetti di
“esternalità positiva”: basti pensare all’effetto di rete
caratteristico di “vecchie” tecnologie di comunicazione personale
come il telefono ed il fax, il cui valore complessivo e quello per il
singolo utente aumenta all’aumentare del numero totale degli
utenti. Un discorso analogo vale ancor di più per le “nuove”
tecnologie e per le relative applicazioni: il “valore” di una rete di
computer o dei servizi di posta elettronica, ad esempio, aumenta
in modo esponenziale al crescere del numero di computer
connessi o di utenti del servizio. Le reti peer to peer per la
condivisione di files, e ancor di più quelle alla base dei cosiddetti
wireless mesh network costituiscono altri esempi significativi di
commons (in questo caso digitali) in cui l’aumento dei
partecipanti-utenti non deteriora e anzi accresce le risorse
disponibili, contenuti in un caso e quantità di banda nell’altro
(Rheingold 2002) 36.
L’avvento della digitalizzazione e lo sviluppo delle relative
tecnologie e soprattutto del Web hanno incrementato e facilitato
progressivamente e significativamente le opportunità di creare,
produrre, distribuire, copiare, modificare, reperire e utilizzare
informazioni e conoscenze, integrate in qualsiasi tipo di
Capitolo II 96
contenuto, dalle risorse scientifiche ai software passando per le
opere artistiche e per i prodotti culturali, di informazione e di
intrattenimento, originati nell’ambito dei vecchi media o creati
grazie agli stessi nuovi supporti digitali. In questo senso le
tecnologie digitali e Internet non solo consentono
potenzialmente la disseminazione di una gamma di espressioni
ampia quanto la diversità dei punti di vista e del pensiero
umano, ma creano anche le condizioni per dar luogo a
meccanismi di produzione e distribuzione decentralizzata delle
informazioni e delle conoscenze (peer-production), che alterano
l’attuale sistema basato in maniera preponderante su produttori
commerciali e consumatori passivi (Kranich 2004). In effetti,
seppur solo in quella porzione minoritaria del pianeta in grado di
sfruttare a pieno tali opportunità, innovazioni sociali prima
ancora che tecniche, come i sistemi di open publishing e di
scrittura collaborativa, di discussione on-line e di file-sharing,
resi possibili da Internet, hanno avuto un impatto significativo
su ambiti quali l’informazione e la comunicazione indipendente,
il consumo dei media e la fruizione e la promozione artistica e
culturale, prefigurando possibili modelli di produzione
dell’informazione basati sull’idea e la pratica di un digital
commons.
Questi sviluppi hanno finito per minacciare le posizioni
consolidate dei tradizionali produttori di contenuti. Le grandi
corporations dell’industria culturale, piuttosto che rivedere i
propri modelli di business per adattarli alle mutate condizioni
tecnologiche, hanno risposto sviluppando tecniche di protezione
dei contenuti (Diogital Rights Management), portando avanti
intense attività di lobbying a livello nazionale e internazionale
affinché queste tecniche acquisissero valore legale e gli
organismi competenti dettassero legislazioni più restrittive,
Ecologia Digitale 97
rafforzando i controlli sulla fruizione dei propri prodotti e
limitando i tradizionali diritti degli utenti garantiti nell’ambito
delle leggi sul copyright 37. Il risultato di questi sforzi è stata
l’approvazione quasi contemporanea negli Stati Uniti e in
Europa di legislazioni particolarmente restrittive sul diritto
d’autore e la proprietà intellettuale 38. Più in generale si è
registrato, a partire dalla metà degli anni Novanta, un deciso
impegno da parte di alcuni organismi internazionali 39 verso
l’attuazione di politiche relative ad un nuovo termine ombrello,
Intellectual Property Rights, la cui ampiezza, includendo
un’ampia gamma di fattispecie molto diverse tra loro, mira ad
offuscare le differenze anche profonde fra i diversi sistemi
giuridici di incentivazione e protezione della creatività
individuale e collettiva e, per quanto riguarda le opere
dell’ingegno, a spostare così l’accento dalla definizione dei limiti
al “diritto di copia”, e quindi di fruizione, a quella di un inedito
ed esteso “diritto di proprietà”.
Oggi la creazione e la difesa di una sfera della condivisione
delle conoscenze in forma di commons – che vi si accompagni
l’aggettivo creative, digital o information– si trova fra gli
obiettivi espliciti di molte delle organizzazioni e associazioni
mobilitate per la difesa di una sfera pubblica dell’informazione e
nelle elaborazioni di molti studiosi e ricercatori provenienti da
diverse discipline 40. Più in generale lo sforzo di elaborare
modalità di produzione, gestione e fruizione dell’informazione e
della conoscenza improntate ad un qualche regime di proprietà
comune o di libero accesso è comune ad un’ampia gamma di
settori in cui sono coinvolte queste risorse: dal “software libero”,
rilasciato sotto licenze che garantiscono l’apertura e la libera
distribuzione dei suoi algoritmi di base, alle riviste scientifiche
open access, dai databases liberamente consultabili delle
Capitolo II 98
ricerche svolte con fondi pubblici fino ai prodotti culturali e
artistici tutelati da una gamma di licenze alternative alle rigidità
del copyright. Questi movimenti si oppongono in un certo senso,
più o meno consapevolmente, al dominio della razionalizzazione
tecnocratica e alle recenti evoluzioni di un “capitalismo
cognitivo” fondato sulla valorizzazione (e quindi sulla
privatizzazione) di informazioni e conoscenze (vedi cap. 1 par. 3).
L’importanza attribuita da questi movimenti alla tutela e
all’estensione di una dimensione pubblica delle informazioni e
delle conoscenze, sottratta alle prerogative del mercato e dei
grandi interessi commerciali, si fonda su un insieme di assunti e
di valori condivisi, che possiamo raggruppare in tre ordini di
questioni. In primo luogo essi sostengono l’importanza di
tutelare e accrescere la diversità culturale, in quanto spinta al
confronto e alla crescita intellettuale di individui e popolazioni e
garanzia della conservazione di quei significati sociali condivisi
che costituiscono il capitale sociale necessario al pieno
dispiegarsi di tutti gli aspetti della convivenza civile all’interno
di e fra diverse società e culture. In secondo luogo tali movimenti
fanno riferimento al ruolo storicamente attribuito dalle società
liberali all’accesso equo ad un’ampia gamma di informazioni per
un pieno esercizio dei diritti di cittadinanza e della democrazia
e per un bilanciamento dei poteri fra governanti e cittadini.
Infine evidenziano il legame fra un ampio e libero accesso alle
informazioni e lo sviluppo umano, culturale e sociale di
individui, comunità e Paesi. In ognuno di questi ambiti, si
sottolinea inoltre, i nuovi ambienti digitali, interattivi e
reticolari possono estendere le possibilità di accesso, produzione,
manipolazione e fruizione delle informazioni ma allo stesso
tempo restringere queste possibilità tramite l’imposizione di
“codici”, tecnici o legali. L’estensione della portata e dei campi di
Ecologia Digitale 99
applicazione dei diritti di “proprietà intellettuale”, il predominio
degli interessi commerciali, le concentrazioni aziendali nei
settori dei media e delle industrie di telecomunicazione, e il
conseguente restringimento delle opportunità di libero accesso
alle informazioni, alle conoscenze e ai saperi che questi elementi
comportano, costituiscono quindi altrettanti pericoli e ostacoli
per la diversità culturale, per l’esercizio democratico e per lo
sviluppo umano (CIPR 2002). Analisi e politiche relative alle
disuguaglianze digitali, e in particolare all’integrazione delle
nuove tecnologie nelle dinamiche di inclusione sociale, non
possono prescindere, quindi, da una puntuale valutazione
dell’importanza che rivestono per questi ambiti la costruzione e
la difesa di commons digitali e dell’informazione.
2.3 L’ecologia digitale
A partire dalle elaborazioni e dalle pratiche appena descritte,
il concetto di ecologia digitale è venuto assumendo una
connotazione più ampia, relativa alla comprensione delle
dinamiche di produzione, distribuzione, immagazzinamento,
possesso, accesso, selezione e uso dell’informazione e della
conoscenza in ambienti strutturati dalle tecnologie digitali.
Questi ambienti possono essere infatti intesi come “ecosistemi
informazionali”, vale a dire come costituiti da flussi di
informazione digitalizzata e processata da diversi media. In
questo senso la costruzione e la difesa di un digital (o
information) commons e la conservazione e l’aumento del
“valore d’uso” dell’informazione in contrapposizione ad un
artificiale “valore di scambio”, è parte di un più ampio sforzo,
che, riconoscendo il ruolo fondamentale della comunicazione
nella costruzione dell’identità, del senso di comunità e della
Capitolo II 100
partecipazione civile, miri a valorizzare la diversità culturale e la
qualità della vita delle persone nell’ambito di tali “ecosistemi
informazionali” 41. L’ecologia digitale si riferisce quindi ad idee e
pratiche volte a promuovere usi consapevoli della Rete e delle
nuove tecnologie, sostenibili da un punto di vista tecnico,
economico, ambientale e culturale.
Le disuguaglianze digitali e i fenomeni di esclusione e
disuguaglianza legate all’uso (o al mancato uso) delle ICT
rientrano certamente in questo ambito di analisi. Le tematiche
relative al software libero costituiscono un aspetto di
importanza cruciale per l’ecologia digitale da almeno tre punti di
vista correlati tra loro: in primo luogo esse interrogano le
modalità di produzione e distribuzione di risorse di conoscenza
fondamentali come gli algoritmi e i programmi informatici; in
secondo luogo rappresentano un caso particolare ma assai
significativo della più ampia controversia relativa alla “proprietà
intellettuale” nell’era digitale; infine rientrano nella discussione
intorno agli strumenti più adeguati per contrastare ad ampio
raggio le dinamiche di esclusione legate alle tecnologie digitali.
3. Il software libero e open source
I principi del software libero (Berra e Meo 2001; Williams
2001) discendono in parte direttamente da quelli alla base della
libera circolazione di idee ed informazioni e della revisione dei
“pari” nell’ambito della comunità scientifica, un modello per
altro da più parti riconosciuto tra le ragioni fondamentali degli
straordinari progressi raggiunti negli ultimi duecento anni dalla
scienza. A questo modello si uniscono poi i valori e gli
atteggiamenti propri della cultura e dell’etica hacker: la spinta
della curiosità, la creatività, il piacere e il divertimento, la
Ecologia Digitale 101
ricerca dell’eccellenza, i valori della solidarietà e della
cooperazione, il senso della comunità, l’opposizione a monopoli,
gerarchie e burocrazie, e infine l’abitudine e il valore della
programmazione collettiva e della condivisione del codice.
Le concrete applicazioni del software libero, oltre a rientrare
nell’ambito della costruzione e della difesa di un commons
digitale, possono essere letti come esempi di un uso razionale
delle risorse in ambito informatico: la trasparenza e la riusabilità
del codice permettono un risparmio in termini di tempo ed
energie e un guadagno in termini di risorse economiche investite
localmente; la modularità e la scalabilità intrinseche al software
libero consentono di personalizzarne le concrete realizzazioni per
adattarle alle specifiche esigenze dei diversi utenti.
In questo modo non solo gruppi di programmatori sparsi per
il mondo possono impegnarsi nel soddisfare esigenze
“minoritarie” (una localizzazione in una particolare lingua poco
diffusa, un’interfaccia adattata ad un particolare contesto o
livello di alfabetizzatone culturale, un’applicazione utile in un
determinato ambito sociale, ecc.), ma da un certo punto di vista
lo stesso carico cognitivo per l’utente si riduce grazie alla
possibilità di limitare la complessità di una tecnologia ai suoi usi
di volta in volta più necessari e quindi familiari.
3.1 Archeologia del software
Fino alla fine degli anni Settanta il mercato informatico era
appannaggio delle poche compagnie – l’IBM su tutte – che
progettavano, costruivano e vendevano i complessi sistemi
hardware per i grandi computer mainframe. In un mercato così
controllato da pochissimi soggetti il margine di guadagno
sull’hardware era elevato e la dipendenza dai fornitori quasi
Capitolo II 102
assoluta. Inoltre le architetture hardware erano specifiche per i
diversi costruttori e i linguaggi di programmazione dell’epoca,
assai vicini al linguaggio macchina, non consentivano di
sviluppare del software indipendente dalla specifica
configurazione della macchina. In pratica, pur conservandone i
diritti di proprietà, le case produttrici distribuivano il software
insieme al suo “codice sorgente” 42 e in forma gratuita,
incoraggiando i clienti a realizzare e redistruibire modifiche e
miglioramenti; gli utenti di computer erano infatti per lo più essi
stessi programmatori e, soprattutto nei dipartimenti universitari,
il software era uno strumento da condividere e scambiare con la
comunità dei pari allo stesso modo dei risultati della ricerca
(Carlini 2002). Lo “spartiacque tecnologico” degli anni Settanta
(Castells 1996) fu determinante anche nel trasformare la natura
del software. I progressi nel campo della microlettronica
(l’invenzione nel 1971 del microprocessore), l’evoluzione dei
primi network di computer (la nascita di Arpanet nel 1969 e la
creazione dell’architettura di Internet in tutti gli anni Settanta) e
lo sviluppo di un nuovo ambiente software comune costituito dal
sistema operativo Unix, si sostennero a vicenda e contribuirono
nell’insieme alla nascita di un’industria del software, avvenuta
all’inizio degli anni Ottanta.
Unix è un sistema operativo universale e scalabile – ossia in
grado di girare su diverse piattaforme hardware – ideato tra la
fine degli anni Sessanta e l’inizio dei Settanta nei Laboratori Bell
della AT&T sulla base di un altro sistema operativo, il Multics, e
scritto nel linguaggio di programmazione C, un’altra invenzione
proveniente dallo stesso ambiente, che consentiva un maggior
livello di astrazione e quindi di indipendenza dalla specifica
architettura hardware. Obbligata nel 1974 dal governo americano
a diffondere i risultati delle sue ricerche, la ATT cominciò a
Ecologia Digitale 103
distribuire alle università il nuovo sistema operativo, fornito del
suo codice sorgente, ad un prezzo simbolico. Il sistema venne
ampiamente adottato, modificato e migliorato e nel 1977 un
gruppo di studenti dell’Università di Berkeley creò la Berkeley
Software Distribution (BSD), una versione avanzata di Unix, e la
rilasciò con una licenza che ne consentiva la modifica. Ma la
nascita di un sistema “portatile” – cioè in grado di far
comunicare i computer (e dare così ulteriore slancio ai network
di computer) e soprattutto di consentirne una programmazione
omogenea – attirò le brame di profitto di tutte le principali
società d’informatica e della stessa AT&T, e portò negli anni
Ottanta ad una moltiplicazione di sottodialetti Unix proprietari
che finì per frammentare quel linguaggio universale e rallentare
la sua evoluzione cooperativa, impedendo ad esempio che esso si
diffondesse sui personal computer.
Nel frattempo, i primi sviluppi del personal computer negli
anni Settanta, oltre che dar forma al sogno di una
democratizzazione dell’informatica, segnavano anche, in senso
opposto, l’avvio dei primi tentativi di commercializzazione del
software 43; quando, nei primi anni Ottanta, la miniaturizzazione
crescente e il debutto dei PC IBM-compatibili innescarono la
nascita di un mercato di massa del Personal Computer e un
abbassamento dei prezzi, il software era ormai diventato una
fonte di guadagno al pari dell’hardware, e destinato perfino a
sopravanzarlo.
3.2 Le origini e i principi del software libero: il
progetto GNU
Il movimento per il software libero sorse come pratica
consapevole all’inizio degli anni Ottanta dalle lotte in difesa
Capitolo II 104
dell’apertura del codice sorgente di Unix e più in generale in
risposta alla tendenza delle società informatiche a “chiudere”
sempre più il proprio software, imponendo “clausole di non
divulgazione” e licenze restrittive che ne limitavano le libertà
d’uso, modifica e condivisione per gli utenti, in particolare per i
ricercatori impegnati nei laboratori di calcolo delle maggiori
istituzioni accademiche e di ricerca. Una tendenza che portò, tra
l’altro, nel 1984, i Laboratori Bell a reclamare i diritti di
proprietà su Unix, all’atto dello spezzettamento della AT&T e del
suo disimpegno dagli stessi laboratori.
Uno di questi ricercatori, Richard M. Stallman (Williams
2002; Berra e Meo 2001), in netto disaccordo con queste
politiche e resosi conto in prima persona delle loro conseguenze
negative, decise nel 1983 di abbandonare il laboratorio di
Intelligenza Artificiale del MIT di Boston per dedicarsi alla
realizzazione di un sistema operativo compatibile con Unix.
Secondo Stallman, programmatore dalle notevoli doti e figura
eccentrica non rara negli ambienti della cultura hacker (vedi cap.
1 par. 2.4), le licenze del free software devono garantire in
particolare all’utente quattro libertà, il cui insieme definisce cosa
si intende per software libero: la libertà (0, o “libertà
fondamentale”) di eseguire il programma per qualunque scopo,
senza vincoli sul suo utilizzo; la libertà (1) di studiare il
funzionamento del programma e di adattarlo alle proprie
esigenze; la libertà (2) di redistribuire copie del programma; la
libertà (3) di migliorare il programma e di distribuirne i
miglioramenti. Presupposto in particolare delle libertà 1 e 3 è la
trasparenza del software, ossia la disponibilità per l’utente del
“codice sorgente” del programma.
Stallman diede quindi vita nel 1984 al progetto GNU 44 e alla
Free Software Foundation; nell’ambito di quest’ultima, insieme
Ecologia Digitale 105
ad alcuni collaboratori, definì inoltre i termini della GNU
General Public License (GNU GPL), una licenza d’uso che,
applicata ad un programma, da una parte ne garantisce le
quattro libertà, e dall’altro impone a chiunque redistribuisca
quel programma o sue versioni modificate o altri programmi che
comprendono parti di quel codice, di farlo esattamente alle
stesse condizioni e aderendo al medesimo contratto 45. In questo
modo si evitano le conseguenze indesiderate legate al rilascio di
software in un regime di “pubblico dominio” (ossia senza la
tutela di alcun copyright), modalità comunemente adottata dalla
comunità degli sviluppatori ma che non impedisce che un
software così diffuso venga incluso in programmi proprietari,
limitandone così la disponibilità e spezzando “la catena del
lavoro e dell’uso cooperativo” (Berra e Meo 2001) 46.
3.3 Il sistema operativo GNU/Linux e gli sviluppi
del software libero
Nel 1991 Linus Torvalds, uno studente di Helsinki, pose le
basi per l’ultimo tassello necessario a completare l’ambizioso
progetto di Stallman. Nonostante l’enorme mole di programmi
realizzati in prima persona da Stallman e da molti altri
sviluppatori che si erano interessati al suo progetto, il sistema
GNU mancava ancora del kernel, il cuore del sistema operativo in
grado di coordinarne i diversi componenti. Con l’obiettivo di
dotare il suo personal computer delle funzionalità di
programmazione degli elaboratori di fascia alta, Torvalds
cominciò a scrivere il nucleo di un nuovo sistema operativo Unix-
like basato sul sistema GNU e sui suoi strumenti. Ma invece di
iniziare da zero, come avvenuto per la difficile realizzazione di
Hurd, il kernel del progetto GNU che stentava a decollare, prese
Capitolo II 106
come modello e fonte d’ispirazione una versione didattica
minima di Unix realizzata da Andrew Tannenbaum, il Minix, che
veniva rilasciato sì insieme al codice sorgente, ma con una
licenza che limitava la libertà di ridistribuire le modifiche
realizzate. Il suo proposito, ispirato anche dalle elaborazioni di
Stallman e della FSF, era di realizzare un sistema che tutti
potessero utilizzare e modificare liberamente, anche perché
questo gli sembrava il modo migliore per garantire l’effettiva
buona riuscita del progetto.
Nell’agosto del 1991 Torvalds postò un messaggio sul
newsgroup Usenet dedicato al Minix in cui annunciava la sua
intenzione di creare “un sistema operativo libero”, descriveva i
primi progressi fatti e chiedeva consigli, impressioni e
suggerimenti 47. Un mese dopo, tramite un server FTP, mise una
prima versione del suo lavoro a disposizione di chiunque fosse
interessato ad utilizzarla e senza chiedere altra contropartita che
la collaborazione per migliorarla ed espanderla, ponendosi come
coordinatore e guida naturale di questo sforzo. Nel giro di alcuni
mesi i contributi si moltiplicarono e vennero alla luce le prime
versioni beta e circa due anni dopo, nel 1994, nacque la prima
versione stabile (1.0) del kernel Linux 48. Ciò che
un’organizzazione centralizzata e una leadership dispotica, come
in parte erano il progetto GNU e la guida di Stallman, non erano
riusciti a fare, era riuscito invece, quasi per caso, all’”anarchia
organizzata” e alla ridondanza decentralizzata della Rete e alla
“guida morbida” di Torvalds. Il progetto di Torvalds aveva però
un debito non solo ideale nei confronti del progetto GNU: per
motivi pratici infatti lo sviluppo di Linux aveva beneficiato di
molti strumenti, ma anche di porzioni di codice, provenienti da
quel progetto e rilasciati sotto la GNU GPL, di cui si ritrovò
quindi a dover rispettare i termini rilasciando a sua volta il
Ecologia Digitale 107
codice sotto la medesima licenza. Il kernel Linux andò ad
integrarsi con il sistema GNU e diede vita ad un sistema
operativo completo liberamente distribuibile e modificabile, il
sistema operativo GNU/Linux 49.
Da allora, in maniera proporzionale allo sviluppo di Internet,
si è assistito ad un aumento esponenziale del numero di persone
coinvolte a diverso titolo nello sviluppo di GNU/Linux e di
software libero in generale, e ad un incremento della qualità
dello stesso sistema operativo e del volume e della qualità degli
applicativi disponibili. Il software libero e le relative applicazioni
hanno avuto origine nell’ambito delle comunità di sviluppatori e
ingegneri informatici, e in generale all’interno di ambienti
caratterizzati da un elevato livello di competenze informatiche
(hacker, utenti esperti, professionisti dell’informatica) e si è
rivolto quindi in un primo momento a soddisfare le esigenze e a
rispondere ai modelli di fruizione di questi gruppi. L’utilizzo di
interfacce a linea di comando, così come un orientamento
preponderante verso applicazioni e finalità di fascia alta, come
quelle relative alla programmazione, hanno a lungo costituito un
ostacolo alla diffusione del software libero (in particolare di
GNU/Linux) tra gli utenti comuni di computer. Nel frattempo il
numero di questi ultimi aumentava, nelle società ad economia
avanzata, grazie, oltre che alla progressiva discesa dei prezzi
dell’hardware, proprio alla facilità d’uso e all’attrattiva raggiunte
dal software proprietario 50.
Ma lo stesso aumento del numero, e quindi della varietà,
degli utenti di computer in aziende, uffici e abitazioni private, e
poi la diffusione e lo sviluppo di Internet e del Web a partire
dalla metà degli anni Novanta, hanno determinato, da un lato,
una diversificazione degli usi e delle applicazioni e un aumento
della domanda di software facili da usare, dall’altro una crescita
Capitolo II 108
esponenziale delle possibilità di comunicazione e scambio di
informazioni e dati, ciò che ha a sua volta incrementato i volumi
di software libero sviluppato con le finalità più diverse e per
modelli di utenza differenti. Il software libero, beneficia inoltre
degli effetti di rete legati ad un bene immateriale liberamente
distribuibile, la cui diffusione, nel caso particolare, non fa che
moltiplicare le conoscenze disponibili e le possibilità di modifica
e di sviluppo di prodotti derivati. In effetti molti sviluppatori alle
prime armi e hobbysti della programmazione si sono giovati della
possibilità di vedere “come è fatto” un programma per trarne
codice da utilizzare o semplicemente insegnamenti gratuiti, in un
modo analogo a quello con cui i primi utenti del Web hanno
potuto imparare a programmare in HTML, semplicemente
studiando il codice sorgente delle pagine. La partecipazione al
mondo del software libero da parte di soggetti legati più al
consumo di massa dell’informatica e del Web che agli ambienti
professionali dell’informatica e dell’ingegneria, ha così
contribuito ad inscrivervi gradualmente le esigenze degli utenti
meno esperti, in termini di applicazioni, facilità d’uso e
piacevolezza delle interfacce.
Internet costituisce l’ambiente privilegiato per lo sviluppo di
software libero, come dimostrato fin dall’inizio dall’impresa di
Linux, e allo stesso tempo il suo risultato più notevole. L’utilizzo
della Rete come ambiente condiviso per lo sviluppo del software
costituisce un modello fortemente innovativo: decentramento,
organizzazione reticolare, cooperazione, “selezione naturale” tra
le diverse soluzioni, in definitiva quello che Eric Raymond
(1998a) in un noto saggio ha definito il modello Bazar, hanno
dimostrato la loro efficacia nel raggiungimento di qualità e
affidabilità persino superiori rispetto al modello Cattedrale,
adottato per lo più nello sviluppo di software proprietario. E
Ecologia Digitale 109
d’altra parte senza il software libero Internet non esisterebbe o
per lo meno sarebbe molto diversa da come la conosciamo oggi.
La stessa architettura e i protocolli di base di Internet sono il
frutto dello sviluppo cooperativo e della libera condivisione del
codice sorgente: i protocolli TCP/IP, HTTP, FTP, I programmi e
protocolli per la gestione della posta elettronica, il linguaggio
HTML e le sue estensioni, il software per la gestione dei nomi di
dominio e la loro traduzione in un determinato indirizzo IP,
BIND, sono tutti software libero che permette buona parte del
funzionamento di Internet 51.
Al di là del sistema operativo GNU/Linux, certamente
l’esempio più noto nonché primo responsabile della diffusione
delle idee e delle pratiche del software libero, esiste oramai una
mole sconfinata di programmi, piattaforme e linguaggi non-
proprietari, in grado di girare su tutte o quasi le piattaforme
hardware e software e di coprire quasi l’intera gamma delle
applicazioni informatiche, dalle più comuni alle più complesse,
con performance (qualità, sicurezza, affidabilità, stabilità) in
molti casi migliori dei rispettivi omologhi proprietari, laddove
presenti 52. Le applicazioni più complesse (lato server,
automazione industriale, gestione di grandi databases …e
persino l’elaborazione grafica 3D di alcuni film di animazione di
successo), molte delle quali si affidavano fin dalle origini a
sistemi Unix, fanno oramai sempre più affidamento su sistemi
GNU/Linux e utilizzano in misura crescente strumenti basati su
software libero o open source 53. Permane il netto predominio di
Windows nel mercato dei sistemi operativi in ambito desktop
(stimato al 90%), intaccato solo da piccole quote in crescita
appannaggio della Apple – peraltro su un’architettura hardware
diversa e proprietaria, denominata PowerPC – e soprattutto dello
stesso GNU/Linux, la cui maturazione e moltiplicazione
Capitolo II 110
sembrano nel frattempo far presagire una sua decisa erosione del
mercato.
L’attenzione riservata a “Linux” a partire dal 2001 nei mezzi
di comunicazione; le campagne di sensibilizzazione e di
advocacy svolte dai “gruppi di utenti Linux” (i LUG, ma anche gli
hacklabs in Italia e in altre parti del mondo), dalla Free Software
Foundation e da altre associazioni in tutto il mondo; la
moltiplicazione nel numero e nella varietà delle distribuzioni
nonché la crescita continua del numero di sviluppatori; una
crescente attenzione dimostrata dagli stessi sviluppatori e dagli
utenti nei confronti degli aspetti di usabilità 54; la sua progressiva
sostituzione ai sistemi Unix proprietari impiegati sui server
aziendali e Internet, sulle workstation e sui cluster in ambito
accademico e scientifico 55; l’interessamento di grandi compagnie
del mercato dell’informatica 56 e la promozione del software
libero da parte di alcuni governi locali e nazionali e di alcuni
organismi internazionali soprattutto in ambito ONU; infine, ma
non ultimo, la tendenziale gratuità del software libero, ulteriore
valore aggiunto alla sua qualità, soprattutto nei Paesi in via di
sviluppo: l’insieme di queste evoluzioni interrelate, unite alla
diffusione di applicazioni free sui computer equipaggiati con il
sistema operativo Windows, hanno spinto negli ultimi anni la
diffusione di GNU/Linux e del software libero oltre il
tradizionale ambito delle applicazioni server o degli utenti
esperti, verso i computer desktop e portatili dell’utenza comune.
L’attività di sviluppo del software si accompagna inoltre ad una
serie di attività accessorie ma fondamentali, che vanno dal
coordinamento degli sviluppatori, alla gestione e all’integrazione
delle varie porzioni di codice, fino alla localizzazione del
software 57 e alla produzione di un’enorme mole di guide, how-to,
commenti al codice. La produzione di documentazione
Ecologia Digitale 111
rappresenta un enorme valore aggiunto del software libero, da un
lato perché consente di coinvolgere nella comunità anche i non
tecnici, impegnandoli ad esempio nella traduzione dei materiali
di supporto o in attività di primo supporto on line; dall’altro
perché costituisce uno strumento di diffusione e condivisione
delle conoscenze, indispensabile al lavoro cooperativo e
decentrato degli sviluppatori, ma anche al semplice utilizzo del
software. Internet rappresenta naturalmente l’infrastruttura
fondamentale per tutte queste attività accessorie, quella che
consente coordinamento e distribuzione delle informazioni in
tempo reale e a costi contenuti.
3.4 Gli aspetti commerciali del software libero e
open source
Il modello di sviluppo del software libero ha riguardato via
via sempre più applicazioni informatiche, dando luogo ad
un’amplissima gamma di prodotti e sistemi liberi in ambiti anche
molto diversi dalle classiche applicazioni del personal computing
(dall’automazione industriale alla telefonia su IP, fino
all’informatica embedded, incastonata in telefonini, palmari,
smartphone e nella miriade di dispositivi che includono
meccanismi di trattamento delle informazioni e di
comunicazione), la cui realizzazione si basa sulla cooperazione in
rete di sviluppatori sparsi in tutto il mondo e sulla disponibilità e
modificabilità del codice sorgente. Il suo contributo alla
creazione di ricchezza e all’innovazione tecnologica che ne
costituisce un fattore determinante, è indubbio. Secondo Castells
(2001) e Lovink (2003), il business nel campo delle ICT
dipenderà sempre più dalle capacità creative, economiche e
manageriali necessarie per implementare servizi e applicazioni
Capitolo II 112
basate sull’assemblaggio di porzioni di codice e applicativi
disponibili in forma open source nel mare magnum della Rete.
Già a partire dalla metà degli anni Novanta, negli Stati Uniti
si è assistito alla nascita di società specializzate – come la Cignus
– nello sviluppo e nella personalizzazione di applicazioni basate
su software libero per aziende e organizzazioni e nelle relative
funzioni di assistenza e consulenza; attività che mostrano tra
l’altro come l’ambiguo termine inglese free, come sottolineato
più volte da Stallman, non si riferisca alla gratuità (“come in
free beer”) ma alla libertà (“come in free speech”) del software.
Alla fine degli anni Novanta altre società hanno cominciato a
realizzare “distribuzioni” del sistema operativo GNU/Linux, vale
a dire versioni del sistema operativo composte di pacchetti
precompilati e assemblati per uno specifico tipo di utenza,
scaricabili da Internet o distribuite su supporti ottici (CD e ora
DVD), gratuitamente o a pagamento, accompagnate in questo
ultimo caso da sistemi di supporto, assistenza e
customizzazione 58. Queste distribuzioni nel tempo si sono
arricchite di funzionalità, che ne facilitano l’uso da parte degli
utenti meno esperti (a partire dallo sviluppo di sistemi di
installazione semplificati e di ambienti grafici come KDE e
Gnome), e si sono differenziate per rispondere alle esigenze più
diverse (ad esempio con lo sviluppo di distribuzioni “Live”, che
non richiedono installazione su disco fisso ma girano nella
memoria temporanea – RAM – del computer).
Le potenzialità commerciali del software libero hanno
spinto, tra l’altro, nel 1998 alcuni esponenti della comunità a
individuare un termine che ne disinnescasse le ambiguità insite
nel termine free, ma soprattutto che depotenziasse la stessa
carica ideologica presente nel richiamo ai principi di libertà, così
cari al fondatore del movimento Stallman ma indigesti per il
Ecologia Digitale 113
mondo degli affari. Bruce Perens, Eric Raymond, Christine
Peterson e altri coniarono quindi la definizione open-source
software – fissata nella Open Source Definition – e avviarono
una campagna allo scopo di promuovere i vantaggi pratici della
condivisione del codice, in termini di qualità, trasparenza,
adattabilità, sicurezza, conformità agli standard e indipendenza
dai fornitori, e al fine di coinvolgere nel progetto compagnie di
software e altre aziende high-tech mainstream (Williams 2002;
Di Bona et al. 1999) 59. Le divergenze fra il movimento open
source e quello del free software riguardano più gli aspetti
“politici” ed etici che quelli pratici, per quanto la definizione di
software open source sia più ampia di quella di free software e
alcune licenze ammesse dalla Open Source Initiative non siano
invece accettate dalla Free Software Foundation. Le controversie
intorno alle soluzioni migliori da adottare e ai principi cui fare
riferimento, sono proseguite quasi immutate fino ad oggi,
coinvolgendo via via diversi attori e intrecciandosi con le
periodiche campagne attuate dalla Microsoft e da altre
compagnie di software proprietario volte a dissuadere
dall’utilizzo di software libero o open source.
Le questioni sorte intorno al software non-proprietario 60, al
di là delle divergenze rispetto ad una diversa considerazione
degli aspetti etici e di quelli pratici, interrogano le possibilità di
creare ricchezza da un bene immateriale fondamentale negli
attuali processi economici, a partire dalla sua condivisione
piuttosto che dalla sua appropriazione. E in effetti intorno al
FLOSS 61 si è strutturata un’ampia gamma di attività commerciali
che hanno segnato la nascita di società ad hoc di diverse
dimensioni e attirato i tradizionali protagonisti dell’informatica.
In un complesso gioco di cooperazione e competizione, il
software libero ha costituito e costituisce, di volta in volta, un
Capitolo II 114
bene distribuito gratuitamente su cui costruire servizi di
assistenza, manutenzione e personalizzazione, un perno su cui
far leva per contrastare o indebolire la concorrenza, uno
strumento per ridurre i costi e aumentare così produttività e
competitività, una risorsa da integrare con i rispettivi software
proprietari per mantenere un vantaggio competitivo (Berra e
Meo 2001). Per quanto il nuovo comparto industriale sorto
intorno al software libero abbia dato vita a nuovi modelli di
business – alcuni dei quali per altro non totalmente aderenti ai
suoi principi originari –, questi in realtà “coincidono con i
modelli adottati dalla grande maggioranza degli operatori del
settore del software, compresi quelli che non credono nel
software libero e utilizzano esclusivamente il software
proprietario”, i quali “lavorano su commessa, pagati
sostanzialmente dal cliente in funzione del tempo dedicato ad
ogni specifica attività”; solo una piccola minoranza, infatti,
“lavora per produrre software da vendersi su licenza […],
secondo il modello economico delle note multinazionali del
settore” (Berra e Meo 2001, pp. 202-203). E nel modello
economico di gran lunga prevalente, “l’adozione dei principi
dell’open source [è] una scelta obbligata” (ibid.), dettata dalla
natura collettiva della conoscenza incorporata nel software, e alla
lunga vincente. Le innovazioni fondamentali incarnate dal
software libero riguardano allora il suo modello di sviluppo
volontario, cooperativo e decentrato, la sua sfida agli assunti
della chiusura del software e dell’utilità, oltre che della bontà, di
un regime di forte tutela della proprietà intellettuale.
Ecologia Digitale 115
3.5 Le implicazioni sociali ed economiche del
software libero
Il modello aperto di sviluppo e distribuzione del software
rappresenta un’alternativa alla razionalizzazione tecnocratica e
alla dinamiche di esclusione che essa genera. Il software libero
scardina i meccanismi di appropriazione della conoscenza
prodotta collettivamente messi in atto dagli attori economici
dominanti e restituisce i saperi alla loro dimensione pubblica.
Contrasta i meccanismi di restrizione all’accesso alle risorse
dell’informazione e della conoscenza, alla base delle
disuguaglianze sociali e economiche e delle dinamiche del potere,
reclamando la libertà delle informazioni. Indebolisce le pretese
della strumentalità economica mettendo in atto le forme di
un’economia solidale, fondata su relazioni di scambio gratuite e
sul bene pubblico dell’innovazione. Depotenzia il ruolo dei
grandi apparati della razionalizzazione e del comando, favorendo
lo sviluppo di attività economiche radicate sul territorio e nelle
sue relazioni sociali. Riduce l’opacità della tecnologia
consentendo di guardarvi dentro e di controllarne il
funzionamento. Si oppone alla spersonalizzazione costruendo
legami sociali, comunità e progetti a “misura d’uomo” e
ristabilendo una circolarità fra innovazioni tecnologiche, usi e
bisogni sociali. Combatte l’omologazione culturale e l’esclusione
sociale permettendo di adattare la tecnologia ad esigenze
specifiche e circoscritte. Contrasta le ipocrisie e la miopia del
trasferimento tecnologico aprendosi allo scambio reciproco di
esperienze, idee e competenze. Scioglie i lacci delle dipendenze
economiche liberando le risorse della cooperazione decentrata e
dell’interdipendenza. Limita i processi di delega agli esperti
Capitolo II 116
ridistribuendo le competenze in maniera decentrata e
cooperativa.
Per questo ed altro, il software libero e la sua diffusione
rappresentano un fattore di democratizzazione dello sviluppo
tecnologico, in grado di redistribuire risorse e opportunità, non
solo fra gli individui, ma anche e in maniera più significativa fra
Paesi ed aree del globo. In questo senso esso può rappresentare
uno strumento cruciale per riequilibrare le disparità nella
distribuzione del potere e delle risorse di informazione e
conoscenza nel contesto dell’economia globale dell’informazione.
3.5.1 I benefici economici
In primo luogo la disponibilità di un sistema operativo e di
un’enorme quantità di software di qualità a costo zero
rappresenta un’alternativa ovvia al pagamento degli alti prezzi
delle licenze dei sistemi operativi e del software proprietario, in
particolare per le realtà (individui e organizzazioni) con scarse
disponibilità economiche e per i Paesi poveri o in via di sviluppo
– dove il costo totale per una licenza di Windows XP più una di
Office può arrivare fino a settanta volte lo stipendio medio
mensile (Ghosh 2003). La copia illegale di questi software è stato
in realtà il principale tramite della loro diffusione nelle società
avanzate, soprattutto fra gli utenti privati, e in quanto tale
tollerata, quando non direttamente favorita. La “pirateria” incide
in maniera considerevole sul mercato del software ed è un
fenomeno ampiamente diffuso anche e soprattutto nei Paesi in
via di sviluppo 62, fin dentro le aziende e persino nella pubblica
amministrazione (cosa molto più rara nei Paesi ricchi). Le
software houses chiudono un occhio, pronte ad approfittare nel
tempo delle dinamiche di dipendenza e “assuefazione” che si
instaurano per motivi psicologici e per ragioni più sostanziali
Ecologia Digitale 117
legate alla proprietà dei formati utilizzati e alla
retrocompatibilità degli stessi e degli applicativi utilizzati 63.
Negli ultimi anni i controlli si sono periodicamente rafforzati
e allentati nei diversi Paesi, a seconda della congiuntura
economica e delle politiche adottate dai governi e dalle
istituzioni rispetto all’utilizzo del software libero. Gli accordi
stipulati nell’ambito dei TRIPS (Trade-Related Aspects of
Intellectual Property Rights), impongono ai Paesi aderenti di
attuare politiche efficaci di contrasto alla violazione dei “diritti
di proprietà intellettuale”; il WIPO e il WTO, gli organismi
internazionali che più o meno direttamente si occupano di
questioni annesse alla proprietà intellettuale, premono sui
governi affinché implementino tali politiche, in molti casi sotto
la minaccia più o meno esplicita di ritorsioni commerciali ed
economiche. L’adozione di software libero permette quindi ai
governi, in particolare a quelli dei Paesi in via di sviluppo, di
allentare la morsa di queste pressioni congiunte e di destinare
altrove le risorse impegnate nel contrasto alla pirateria.
Soprattutto in America Latina, l’inasprimento dei controlli e
delle sanzioni relative alla violazione del copyright sul software,
ha portato non tanto ad una diminuzione della pirateria, quanto
ad una maggior diffusione del software libero.
Se il risparmio associato al FLOSS è particolarmente
eclatante in paesi dove il costo delle licenze, rapportato al tenore
di vita e al costo del lavoro, risulta esorbitante, vantaggi
immediati si osservano anche in presenza di migliori condizioni
economiche. Tra i parametri utilizzati per valutare esistenza ed
entità di tali vantaggi, il più diffuso è il cosiddetto Total Cost of
Ownerswhip (TCO) 64, ovvero i costi totali associati al possesso,
alla gestione e al mantenimento di una tecnologia, solitamente
all’interno di un’organizzazione come un’azienda o
Capitolo II 118
un’amministrazione pubblica. Sulla base di questo parametro
molte ricerche hanno confrontato i costi associati all’adozione
dei diversi sistemi operativi (in particolare Windows e
GNU/Linux), giungendo per altro a conclusioni discordanti.
Secondo alcuni di questi studi, in particolare, il costo delle
licenze influirebbe, nei Paesi ricchi, per una quota tra il 5 e il 10
% del costo totale, a fronte di una quota tra il 60 e l’85 %
rappresentata da “costi di gestione” (Ghosh 2003; Pucci 2003) 65.
Di conseguenza, soprattutto nella migrazione di un parco
macchine da Windows a Linux, il risparmio sui costi delle licenze
a favore di quest’ultimo sarebbe più che bilanciato dagli alti
costi, non solo monetari, relativi all’aggiornamento del
personale, all’installazione, alla manutenzione, all’assistenza e
all’integrazione delle procedure. E’ opinione diffusa, in effetti,
che il passaggio di un’organizzazione al sistema GNU/Linux
comporti nel breve periodo costi leggermente più alti rispetto
alla permanenza sui sistemi proprietari già adottati.
Ma altri studi presentano dati molto diversi e inducono a
conclusioni opposte. Un’indagine del 2004 di un istituto di
ricerca australiano, su un periodo di tre anni e un modello
aziendale di medie dimensioni, indica, dati alla mano, una
percentuale di incidenza dei costi di gestione (compresa la
formazione) e di quelli delle licenze del software proprietario,
rispettivamente del 39 e del 37 %. Il risparmio netto complessivo
derivante dall’adozione di una piattaforma open source è, a
seconda dei diversi scenari analizzati, compreso tra il 19 e il 36
%, (Cybersource 2004).
Al di là delle cifre elaborate dagli studi sul TCO, altre
valutazioni inducono ad affermare che l’adozione di software
libero in un’organizzazione (del settore privato o del settore
pubblico) comporti per questa una serie di vantaggi economici a
Ecologia Digitale 119
medio-lungo termine. Mentre continua ad accumularsi il
risparmio annuo relativo alle licenze, infatti, la flessibilità e la
modularità del software libero determinano un prolungamento
del ciclo di vita delle macchine e inducono all’acquisizione di
hardware calibrato sulle specifiche esigenze e non
sovradimensionato per soddisfare quelle delle nuove versioni del
software proprietario. La disponibilità del codice sorgente di un
software (sistema operativo e applicativi) svincola inoltre
l’organizzazione dalla dipendenza da un singolo fornitore (di
software e poi dei servizi correlati), consentendo margini di
autonomia e di scelta più ampi in un mercato realmente
competitivo, e di conseguenza un’ulteriore riduzione dei costi
(UNCTAD 2003). La formazione del personale, processo
necessario all’efficace adozione di software libero, può essere poi
l’occasione per investire nello sviluppo di competenze interne
all’organizzazione, in grado di generare altro valore aggiunto e
ulteriori risparmi. A parità di spesa, è senz’altro preferibile che
essa venga indirizzata allo sviluppo di competenze, anche di
base, piuttosto che all’acquisto di licenze software. Anche la
minore esposizione dei sistemi aperti ai problemi della sicurezza
informatica, può tramutarsi in un risparmio sui costi di
manutenzione o di acquisto di complessi sistemi software di
protezione. Altri guadagni indiretti provengono poi dalla
possibilità di adattare in breve tempo un software alle proprie
esigenze, con conseguenti miglioramenti in termini di efficacia e
produttività, e dalla possibilità di stabilire rapporti di
collaborazioni con altre organizzazioni analoghe per condividere
le soluzioni intraprese.
In breve si può affermare che, se nel caso dell’adozione di
software proprietario le spese (soprattutto licenze, hardware e
assistenza) tendono a non generare ritorni per il settore
Capitolo II 120
tecnologico dell’organizzazione e a dirigersi verso pochi attori in
un mercato fortemente concentrato, nel caso del software libero,
invece, le spese (soprattutto formazione e servizi di
personalizzazione e assistenza) da un lato rappresentano veri e
propri investimenti, in grado di generare nel medio-lungo
periodo risparmi considerevoli nei capitoli di bilancio relativi
all’IT e veri e propri ritorni in termini monetari e di conoscenza
diffusa; dall’altro si dirigono verso un mercato competitivo e
diversificato, a sua volta altro fattore di contenimento dei costi.
3.5.2 Il software libero, i governi e lo sviluppo locale
Applicandosi a qualsiasi organizzazione, le considerazioni
appena esposte riguardo ai vantaggi economici del software
libero riguardano naturalmente, seppur con caratteri specifici,
anche le amministrazioni pubbliche e gli organi dello Stato. In
questo contesto tali vantaggi assumono una rilevanza particolare,
si potrebbe dire “politica”, legata al ruolo di indirizzo e
regolazione che il settore pubblico riveste negli ambiti della vita
civile e, in misura diversa, di quella economica. Ad esempio se
una gestione oculata delle risorse è certamente fra i principi che
dovrebbero ispirare l’azione delle pubbliche amministrazioni in
quanto responsabile di fronte a cittadini-utenti, anche solo
considerazioni relative al contenimento dei costi imporrebbero al
loro interno l’adozione di software libero. Queste ed altre
valutazioni, relative soprattutto alla necessaria trasparenza
dell’azione amministrativa e alle opportunità di sviluppo legate
al software libero, hanno in effetti indotto molte istituzioni a
riconsiderare le proprie politiche sul software, che in molti casi,
soprattutto per quanto riguarda sistemi operativi e applicativi di
base, semplicemente non esistevano.
Ecologia Digitale 121
Il ruolo delle tecnologie dell’informazione per la
partecipazione dei Paesi e dei rispettivi settori produttivi
all’economia globale, comporta che le decisioni adottate dai
governi in merito allo sviluppo delle tecnologie, alla definizione e
al rispetto degli standard, alla formazione, agli investimenti e
all’adozione delle ICT assumano un’importanza strategica. In
molti Paesi, del “Nord” e soprattutto del “Sud” del mondo, i
governi hanno cominciato sin dal 2000 a considerare il FLOSS
un fattore chiave del loro impegno strategico nel campo delle ICT
e hanno definito misure di diverso tipo volte a sondare,
incentivare e promuovere l’adozione di software libero da parte
delle pubbliche amministrazioni e di altri organi dello Stato e,
soprattutto nei PVS, anche da parte del settore privato (Wong
2003; UNCTAD 2003; Rajani 2003) 66.
Il ruolo dei governi e del settore pubblico in genere, è
certamente fondamentale per l’adozione e la diffusione dei
modelli della cooperazione e della condivisione nello sviluppo e
nella distribuzione del software. Le politiche pubbliche di
sostegno alla diffusione del software libero si sono rivelate
necessarie, soprattutto nei Paesi in via di sviluppo, da un lato per
contrastare l’inerzia legata al predominio globale di Microsoft
nel settore dei computer desktop e alla sua potenza commerciale
e di lobbying, dall’altra per fornire la spinta iniziale all’avvio di
un’industria dei servizi costruiti intorno al FLOSS. Le lusinghe e
le pressioni della Microsoft e della BSA (Business Software
Association, che raccoglie le major del software), d’altra parte,
sono mirate esattamente a dissuadere governi e parlamenti di
tutto il mondo dal sostenere l’adozione di software a codice
sorgente aperto nel settore pubblico; e in molti casi pressioni
politiche, sconti sulle licenze e donazioni di software o altro
hanno raggiunto il loro obiettivo. 67
Capitolo II 122
Tra i governi all’avanguardia nel sostegno al software libero,
il Brasile ha tra l’altro previsto un graduale passaggio di tutto il
parco macchine delle agenzie governative a software libero e in
alcuni suoi stati la migrazione è già avvenuta in tutto o in parte.
In Cina, un Paese destinato, per ovvie ragioni, a ricoprire nei
prossimi anni un ruolo fondamentale nei mercati delle ICT, il
governo ha coinvolto il settore pubblico in un imponente
processo di migrazione e ha sostenuto alcune iniziative
commerciali legate al SO GNU/Linux. La Commissione Europea
ha avviato diversi programmi di indagine sull’adozione di
software libero e open source e standard aperti nelle pubbliche
amministrazioni, indicando alcune linee guida generiche per i
singoli Stati membri; tra questi i più attivi sono stati finora
Francia, Germania, Spagna, Finlandia, Svezia, Regno Unito.
In Italia (dove la spesa annuale per l’acquisto di licenze da
parte della PA ammontava nel 2003 a 274 milioni di euro), dopo
alcune proposte di legge al Senato e alla Camera e a seguito della
relazione della Commissione di indagine sul “software a codice
sorgente aperto nella Pubblica Amministrazione” del 2003
(“Commissione Meo”), sembra essere prevalso un orientamento
“pragmatico”, incentrato sul principio del “pluralismo
informatico” e della “migliore soluzione al minor costo”, tenuti
fermi gli impegni a garantire formati e standard il più possibile
aperti, favorire l’interoperabilità e promuovere il riuso e la
distribuzione del software realizzato ad hoc. In alcuni governi
locali (Toscana, Emilia Romagna, Lombardia, Pisa e Pescara)
sono stati approvati o sono in discussione provvedimenti che il
più delle volte invitano le pubbliche amministrazioni ad operare
sulla base di una generica preferenza nei confronti delle
soluzioni open source.
Ecologia Digitale 123
Non sono solo le evidenti motivazioni economiche,
certamente più rilevanti per i Paesi in via di sviluppo e su cui
torneremo tra poco, a spingere i governi nazionali, regionali e
locali in direzione del FLOSS. In un ormai famoso scambio di
lettere con i dirigenti della Microsoft Perù, un membro del
congresso peruviano, Edgar Villanueva Nunez, tra i promotori di
un disegno di legge volto ad imporre a tutte le amministrazioni
pubbliche l’esclusivo utilizzo di FLOSS per le applicazioni in cui
ve ne fosse disponibilità, esponeva in modo assai efficace i
principali vantaggi del software a sorgente aperto per quanto
riguarda il rispetto dei principi democratici dell’azione
amministrativa (Weerawarana e Weeratunge 2004, p. 72). Da
questo punto di vista, infatti, l’uso di formati e standard aperti
garantisce il libero accesso alle informazioni pubbliche; anche il
requisito della permanenza dei dati pubblici è rispettato solo se
l’uso e la manutenzione del software non sono legati alla buona
volontà del fornitore o alle condizioni di monopolio da questo
imposte; la segretezza dei dati sensibili, la privacy dei cittadini e
la stessa sicurezza nazionale sono inoltre garantite solo dalla
trasparenza e dall’ispezionabilità del codice sorgente, che
consente di assicurarsi dell’assenza di elementi di codice che
permettono un controllo da remoto, come backdoors, spyware e
trojan horses o il recupero doloso di chiavi di cifratura e altri
dati di protezione 68. Villanueva precisava inoltre, in risposta alle
contestazioni della Microsoft, che imporre per legge determinati
requisiti del software non comporta alcuna discriminazione nei
confronti di nessuno, né alcuna forma di alterazione del mercato;
è del tutto legittimo, infatti, che un governo indichi delle linee
guida in un settore strategico e delicato come il trattamento delle
informazioni pubbliche; sta poi alla concorrenza che si sviluppa
proprio grazie all’adozione di software a codice sorgente aperto
Capitolo II 124
stabilire le posizioni dei diversi soggetti sul mercato; chiunque,
anche la stessa Microsoft naturalmente, è libero di offrire le
proprie soluzioni software, a patto che queste rispettino i canoni
della libera accessibilità, modificabilità e redistribuilità del
codice sorgente (ibid.)
La necessità di standard aperti e pubblici per le applicazioni
e i dati che riguardano informazioni pubbliche è oramai
universalmente accettata, e applicazioni delicate come la
gestione di registri pubblici, sistemi fiscali e medici e, in
prospettiva, il voto elettronico devono o dovranno essere basate
su sistemi aperti 69. Le questioni della sicurezza non riguardano
solo eventuale codice malevolo, ma anche le falle dei sistemi
proprietari, più diffusi e quindi più vulnerabili agli attacchi di
virus, worm e altro cosiddetto malware attraverso la Rete. La
diversità e il sistema di debugging cooperativo che
caratterizzano il FLOSS lo mettono maggiormente al riparo da
tali vulnerabilità. Anche i principi della conservazione di dati
chiave e della responsabilità dell’azione amministrativa,
richiedono che vengano adottati formati e software aperti, per
evitare la dipendenza da un unico fornitore, che potrebbe non
supportare più i prodotti per motivi tecnici o finanziari,
costringendo così la struttura coinvolta a costosi aggiornamenti o
cambi di sistema. In generale l’indipendenza da un unico
fornitore è un principio guida per l’adozione di FLOSS da parte
delle pubbliche amministrazioni, per certi versi in misura più
rilevante di quanto non lo sia per il settore privato.
In un mercato del software dominato da 20 società, di cui
solo tre con sede fuori dagli Stati Uniti e di cui una, la Microsoft
sopravanza di gran lunga tutte le altre in termini di fatturato
derivante solo dalla vendita di licenze (UNCTAD 2003), il
software libero rappresenta per tutti gli altri gli altri Paesi, oltre
Ecologia Digitale 125
che una fonte di risparmio sul costo delle licenze, l’opportunità
di sganciarsi dalla dipendenza economica e tecnica (lock-in) da
pochissimi fornitori – in molti casi con uno solo preponderante –
che drena risorse, spesso attraverso relazioni a lungo termine e
finanziariamente svantaggiose, e mortifica le possibilità di uno
sviluppo endogeno in un settore fondamentale dell’IT come
quello del software, fondato su competenze, risorse, bisogni,
sensibilità e ricchezze scaturite e prodotte in loco.
Invece di fare affidamento sull’importazione di licenze, che
vanno ad incidere negativamente sulla bilancia commerciale e sul
sistema economico in generale, le spese, più orientate ai servizi,
del modello open source rimangono solitamente all’interno dello
stesso Paese, producendo positivi effetti a cascata su
occupazione, investimenti, entrate fiscali, ma anche sulle
competenze disponibili e sul livello complessivo della cultura
tecno-informatica; nell’insieme queste ricadute si rafforzano a
vicenda e pongono le basi per l’ulteriore sviluppo di un’industria
locale del software (Wong 2003; UNCTAD 2003). Per questo
moltissimi Paesi in via di sviluppo – e quelli a rischio di
“sottosviluppo tecnologico”, come l’Italia – guardano – o
dovrebbero guardare – al software libero come ad un possibile
strumento di riscatto da una condizione di minorità economica e
tecnologica rispetto agli Stati Uniti e ai pochi giganti economici
del settore, che a sua volta permetta di contrastare l’esclusione
digitale ad un livello più alto, relativo non solo alla diffusione
delle ICT ma anche ad una partecipazione attiva alla costruzione
– e all’innovazione – di suoi “pezzi” importanti. E in effetti la
sfida tra software proprietario e libero nei Paesi in via di
sviluppo è appena all’inizio. L’adozione del FLOSS nell’ambito
del settore pubblico, accompagnata da adeguate politiche di
formazione e riassestamento organizzativo, può fare da volano,
Capitolo II 126
da un lato ad una sua diffusione tra gli utenti comuni e nel
settore privato, dall’altro, e anche grazie a questa diffusione, allo
sviluppo di una domanda interna di servizi relativi all’assistenza,
alla manutenzione, alla personalizzazione di software in grado a
sua volta di sviluppare un’industria locale del software.
3.5.3 Modelli sociali e motivazioni nello sviluppo di software libero
Oltre ai motivi di opportunità, che consigliano le pubbliche
amministrazioni ad adottare sistemi open source per ragioni di
contenimento dei costi e aderenza ai principi di sicurezza,
trasparenza e affidabilità delle informazioni pubbliche, la
migrazione al software libero è anche in grado, come abbiamo
visto, di generare effetti positivi sullo sviluppo di un industria
locale di servizi software. La diffusione di tecnologie affidabili a
costi contenuti e lo sviluppo di un industria locale nel settore
delle ICT rappresentano già un contributo notevole del software
libero all’inclusione digitale e alla costruzione di “società
dell’informazione” democratiche, plurali ed economicamente
sostenibili.
Gli aspetti “economici” non esauriscono, d’altronde, né le
questioni connesse allo sviluppo di società dell’informazione
realmente inclusive e plurali, né tanto meno il ruolo che il
software libero può giocare in questa costruzione. In questo
senso assumono, infatti, particolare rilevanza i valori della
reciprocità e della cooperazione incorporati nel software libero e
la natura partecipata del suo sviluppo. Da questo punto di vista,
il contributo del software libero all’inclusione sociale nella
società dell’informazione, deriva dall’opportunità che esso offre
di ripensare i modelli dello sviluppo tecnologico ed economico e
opporre un’alternativa alle dinamiche di razionalizzazione ed
Ecologia Digitale 127
esclusione in essi inscritti. L’alternativa incarnata dal software
libero promuove, infatti, la riappropriazione collettiva delle
conoscenze, l’adeguamento delle tecnologie per rispondere a
diversi modelli sociali e di utilizzo, la distribuzione del potere di
controllo su di esse e sulle loro applicazioni, la ricostruzione di
quei legami “deboli” che arricchiscono il capitale sociale delle
comunità, la creazione stessa di comunità, decentrate o
localizzate, fortemente motivate al raggiungimento di uno scopo
e fondate sulla valorizzazione della diversità e dei principi della
cooperazione e della condivisione.
Le molte e diverse esperienze di produzione, diffusione e
utilizzo di software libero, affondano le proprie radici in due
modelli sociali complementari e intrecciati: da un lato una
“moderna” etica hacker che ricerca l’eccellenza tecnologica
attraverso l’apertura, la collaborazione, il gioco ed il conflitto;
dall’altro un’arcaica cultura del dono che radica l’atto dello
scambio in un modello di regolazione sociale improntato alla
reciprocità, esaltando i valori della cooperazione e della
solidarietà (Berra e Meo 2001). Le ambivalenze dei due modelli
– la contraddizione fra “fiducia tecnocratica nel progresso” e
spirito libertario; quella fra libertà e gratuita del dono, da una
parte, e intereresse e obbligazione a donare, dall’altra (ibid.) – e
la loro stessa, per alcuni versi paradossale, relazione, richiamano
l’ambivalenza costitutiva della tecnologia e inscrivono a pieno
titolo il software libero nell’ambito della “razionalizzazione
democratica”.
Le modalità di produzione e diffusione del software libero
presenterebbero, secondo alcuni studiosi, significative analogie
con lo scambio antico di doni studiato dagli antropologi, ossia
con quel modello di regolazione sociale caratteristico delle
società tradizionali arcaiche e precedente alle forme del
Capitolo II 128
contratto e dello scambio mercantile (Berra e Meo 2001). In
questo modello l’atto dello scambio è segnato da finalità non
puramente utilitaristiche e radicato in un sistema di relazioni
sociali che regolano il “ciclo perenne del dono” sulla base
dell’elargizione di gratificazioni e sanzioni collettive. Nell’atto
del dono si riconosce tanto una obbligazione al dono quanto un
interesse a donare; ad esso non si associa quindi un’idea di
gratuità, ma piuttosto quella di un diverso modello di scambio,
fondato su una “reciprocità differita” che, a partire da un
effettivo atto iniziale di liberalità, innesca una spinta alla
cooperazione come modo migliore di perseguire allo stesso
tempo interessi individuali e collettivi. Il ciclo del dono,
coinvolgendo non un singolo rapporto fra individui ma le
relazioni dell’intera comunità, diventa in questo modo
espressione e strumento di coesione del legame sociale.
La prospettiva da cui comprendere al meglio i meccanismi
sociali di regolazione che modellano il processo di produzione e
diffusione del software libero sarebbe proprio quella di una
“cultura del dono”, adattata ad una risorsa potenzialmente
diffusa e abbondante come la conoscenza, la cui circolazione non
ne determina un deterioramento, ma anzi un incremento della
quantità e della qualità delle sue applicazioni (Raymond 1998b;
Berra e Meo 2001; Gorz 2003). Questi meccanismi spingono in
effetti i partecipanti al processo a “restituire”, migliorandolo, ciò
che ricevono dagli altri, sulla base di un obbligo non formale ma
morale, derivante dall’appartenenza ad una medesima
“comunità” e dall’adesione ad un insieme di norme e valori
condivisi, che pone al riparo dalla diffusione di comportamenti
di free riding. I vantaggi collettivi derivanti dalla circolazione
della conoscenza motivano gli sviluppatori a cedere parte del
controllo sul prodotto dei propri sforzi per il conseguimento di
Ecologia Digitale 129
un risultato che arricchisce allo stesso tempo tutti e ciascuno e in
cui il perseguimento dell’interesse individuale viene a dipendere
dalla partecipazione all’interesse generale. Si innescano quindi
modelli di cooperazione fondati su relazioni di reciprocità, che
generano un aumento complessivo della ricchezza sociale
prodotta, in termini di valore d’uso piuttosto che di valore di
scambio.
In questi meccanismi si osservano quindi le stesse
ambivalenze presenti nel ciclo del dono: spontaneità e
obbligazione, gratuità e interesse. Questa ambivalenza è
rispecchiata, d’altronde, nel diverso peso assegnato dalle
differenti interpretazioni del software libero agli aspetti
utilitaristici o a quelli socializzanti che ne guidano i processi di
produzione e distribuzione. Raymond (1999), ad esempio, opta
decisamente per i primi quando, nel tentativo di comprendere
come i meccanismi di un’economia del dono si integrino nei
processi di un’economia di scambio mercantile e si confrontino
ai suoi vincoli, pone l’accento su una maggiore efficienza ed
efficacia del modello di sviluppo del software open source
rispetto al software proprietario e sui diversi modelli di business
a cui esso da luogo. Tra le motivazioni che spingono le persone a
partecipare allo sviluppo collaborativo del software libero,
inoltre, alcuni studi, riportati in Berra e Meo (2001) e in
UNCTAD (2003), sottolineano in particolare l’importanza di
quelle concernenti i cosiddetti “incentivi di segnalazione”, cioè i
benefici futuri che le persone si aspettano di ottenere dal loro
coinvolgimento in una determinata attività; questi consistono
principalmente in “incentivi di carriera”, ossia nella prospettiva
di un miglioramento della propria condizione professionale e
quindi economica, e nella “gratificazione personale” derivante
dal riconoscimento pubblico del valore del proprio lavoro. Questi
Capitolo II 130
“benefici posticipati” aumentano al crescere della visibilità e
della riconoscibilità dei contributi individuali al prodotto finale,
esattamente ciò che il software libero garantisce in misura
decisamente maggiore rispetto al software proprietario. Il fatto
che questi benefici crescano all’aumentare della rilevanza del
progetto, inoltre, costituisce per i programmatori un ulteriore
incentivo a cooperare con gli altri per raggiungere risultati
migliori.
Nei dati presentati da Ghosh e Glott (2002), autori della già
citata ricerca “FLOSS”, tra le motivazioni che spingono i
programmatori a sviluppare software libero, quelle riconducibili
ai cosiddetti “incentivi di segnalazione”, in particolare
guadagnare una reputazione nella comunità del FLOSS e
soprattutto aumentare le proprie opportunità di lavoro, sono
menzionate rispettivamente da circa il 25 % e da circa il 10 % del
campione. I valori più alti si registrano invece per le risposte che
fanno riferimento all’acquisizione (75 %) e alla condivisione (60
%) di conoscenze e capacità; le altre motivazioni più menzionate,
da circa il 30 % del campione, riguardano la possibilità di
migliorare prodotti già realizzati, il desiderio di partecipare a
nuove forme di cooperazione e alla comunità stessa, la
convinzione che il software non debba essere un prodotto
proprietario. Interrogati sullo scopo complessivo da loro
assegnato alla comunità del FLOSS, gli sviluppatori indicano
soprattutto una maggiore libertà nello sviluppo del software (64
%), lo scambio di conoscenze (57 %), una maggiore varietà del
software (40 %), l’innovazione (37 %) e, meno citato, il puro
divertimento (20 %).
Questi dati sembrano mostrare quindi un maggior peso degli
aspetti socializzanti dello sviluppo di software libero. Alcuni
autori, come Gorz (2003) o il fondatore-ideologo del gruppo
Ecologia Digitale 131
tedesco Oekenux Stefan Merten (Lovink 2004), imputano
addirittura al software libero, soprattutto in quanto espressione
della cultura hacker, la valenza di apripista di un’economia post-
capitalista fondata sulla gratuità, in cui lo sviluppo personale, la
produzione di se, la cooperazione volontaria e la condivisione
acquisiscono la natura di valori in se, “ricchezze intrinseche”
sottratte ai criteri produttivistici, di scambio e misurazione
monetaria. Nella ricognizione di Himanem (2001), alla base
dell’etica hacker non vi sono in effetti il denaro o il lavoro, ma la
passione e il desiderio di creare insieme ad altri qualcosa di
socialmente valorizzante, cioè che valga la stima dei pari. La
produzione e la distribuzione di software libero e le motivazioni
che la inspirano affondano realmente le proprie radici in un
modello etico ed economico alternativo alla privatizzazione delle
conoscenza e allo scambio mercantile. In questo modello, persino
l’utilitarismo implicito in un’economia del dono e i meccanismi
della reciprocità risultano inadeguati a cogliere le idee e le
pratiche alla base della messa a disposizione di enormi quantità
di software gratuito, oltre che libero, per cui ognuno contribuisce
al “bene comune” secondo ciò che può e prende ciò di cui ha
bisogno. D’altra parte l’osservazione della realtà economica
costruita intorno al software libero e open source e le prospettive
di un approfondimento del suo sfruttamento commerciale,
autorizzano solo fino ad un certo punto ad interpretare questi
modelli di condivisione come l’avvento su larga scala di un
predominio delle “ricchezze intrinseche”, ossia della ricchezza
“una volta cancellata la limitata forma borghese” – come nella
nota formula di Marx riportata da Gorz (2003).
Capitolo II 132
3.5.4 Tecnologia, software libero, inclusione sociale
Al di là di analogie più o meno appropriate e di scenari più o
meno plausibili, i valori di condivisione, cooperazione,
decentramento, reciprocità, apertura e trasparenza incorporati
nel software libero attraverso i suoi modelli di produzione e
diffusione, ne determinano caratteristiche tecniche e
implicazioni “sociali”. Seguendo Berra e Meo (2001; pp. 168-174)
le caratteristiche del software libero si possono così riassumere:
a) funzionalità e basso costo; b) flessibilità e adattabilità; c)
interattività fra produttore e utente; d) contestualità e
accessibilità. Queste caratteristiche rendono il software libero
più adatto del software proprietario a sostenere l’innovazione,
nella sua accezione insieme tecnologica e sociale, e soprattutto a
supportare un efficace dispiegamento delle nuove tecnologie a
sostegno dell’inclusione sociale. Vediamo con alcuni esempi
come queste caratteristiche si prestino a favorire una diffusione
equilibrata ed economicamente e culturalmente sostenibile dello
sviluppo tecnologico.
Il “consumo critico” della tecnologia e il trashware
Il primo ambito preso qui in esame riguarda la relazione fra
l’hardware e il software e chiama in causa allo stesso tempo gli
aspetti economici, ambientali e sociali della sostenibilità dello
sviluppo tecnologico. I componenti e le periferiche dei computer
(ma in generale tutti i dispositivi elettronici) contengono, infatti,
materiali e sostanze altamente inquinanti, il cui corretto
smaltimento risulta ancora costoso e laborioso; gli stessi processi
produttivi di queste tecnologie richiedono inoltre l’impiego di
ingenti quantità di energia e risorse scarse come l’acqua, e
producono a loro volta ulteriori emissioni inquinanti. L’aumento
dei dispositivi elettronici e dei computer circolanti rischia negli
Ecologia Digitale 133
anni a venire di incidere pesantemente sui già precari equilibri
ambientali, generando costi, non solo economici, che andranno a
ricadere con tutta probabilità sulle fasce più deboli della
popolazione mondiale. Già nel 2004 il numero di computer
dismessi ha superato a livello mondiale quello di computer nuovi
immessi sul mercato, tanto che sono in via di definizione in
diversi organismi internazionali e nazionali normative sulle
modalità di smaltimento dei rifiuti elettronici (RAEE), che
prevedono tra l’altro oneri e obblighi sia per le case produttrici
sia per chi dismette questo tipo di materiali.
Due meccanismi correlati sono all’origine del consumo
smodato di tecnologie informatiche: in primo luogo ciò può
essere ascritto ai più ampi fenomeni legati al “consumismo”, che
negli ultimi venti anni hanno riguardato progressivamente, nei
Paesi più industrializzati, la cosiddetta “elettronica di consumo”,
i computer e più di recente le console da videogiochi e i
dispositivi portatili di comunicazione; in secondo luogo il
monopolio della Microsoft nei mercati dei sistemi operativi e
degli “applicativi da ufficio” e l’elevata concentrazione del
mercato dei microprocessori, hanno innescato una dinamica di
rincorsa reciproca fra l’aumento delle prestazioni dei chip,
fondato sulla famosa legge di Moore, e l’incremento della
potenza dei software: una rincorsa che abbrevia artificialmente il
periodo di obsolescenza delle tecnologie e esaspera i ritmi di
aggiornamento e ricambio dei dispositivi tecnologici da parte di
singoli e organizzazioni.
La natura monolitica e la chiusura del software proprietario
generano inoltre il frequente sovradimensionamento delle risorse
di calcolo rispetto alle reali e diversificate esigenze degli utenti,
dettato spesso proprio dalla necessità di supportare elaborate
piattaforme software le cui funzionalità vengono poi utilizzate in
Capitolo II 134
effetti solo per una piccola percentuale. Un caso emblematico è
rappresentato dalle postazioni dedicate a semplici operazioni di
back o front-office negli uffici pubblici, ma equipaggiate con
periferiche e componenti di ultima generazione e funzionalità
multimediali del tutto superflue per gli scopi a cui sono
destinate. La logica del “tutto o niente” che guida l’adozione di
software proprietario, obbliga quindi le organizzazioni a costosi e
inutili investimenti in hardware, che generano ricadute negative
sui bilanci e uno spreco complessivo di risorse per la società in
generale.
Al contrario le caratteristiche di flessibilità e modularità
proprie del software libero, in particolare del sistema operativo
GNU/Linux, lo rendono invece adattabile alle diverse
configurazioni hardware e soprattutto alle differenti disponibilità
di risorse di calcolo, ristabilendo così dei rapporti equilibrati fra
consumo e uso della tecnologia. Si può parlare in questo senso di
una generica attitudine ad un “consumo critico” delle tecnologie
informatiche: l’adozione di un sistema operativo libero e
modulare come GNU/Linux permette, ai singoli così come alle
organizzazioni, di ottimizzare le risorse hardware tarandole sulle
specifiche esigenze e finalità d’uso e non sulle richieste imposte
dal software, soddisfacendo così elementari criteri di risparmio e
di congruenza fra mezzi e fini ed evitando una rincorsa
all’upgrade imposta dal mercato. A ciò fa da corollario la
possibilità di riutilizzare hardware non più adatto a svolgere
determinate funzioni destinandolo ad altri impieghi che
richiedono una minore quantità di risorse di calcolo o potenza,
all’interno della stessa struttura e da parte dello stesso
individuo, o attraverso un “mercato” dei computer e dei
componenti di seconda mano.
Ecologia Digitale 135
Negli ultimi anni, anche sulla scorta delle già accennate
politiche in materia, che configurano per le diverse
organizzazioni una certa convenienza a donare l’hardware
dimesso, si sono sviluppate a livello mondiale diverse iniziative
indirizzate al recupero e alla redistribuzione di computer
dismessi, portate avanti da strutture apposite o da organismi
impegnati sul fronte della solidarietà, del sostegno alle comunità
e della cooperazione internazionale allo sviluppo. L’attività di
recupero include nella maggior parte dei casi una precedente
verifica dei singoli componenti e il loro riassemblaggio, con una
conseguente perdita dei diritti di licenza sul software
(proprietario) precedentemente installato. Per questo, ma anche
per le minori risorse di calcolo disponibili, in molti casi il
software libero rappresenta l’unica possibilità per far rivivere
queste macchine, a meno di non riacquisire ex novo le licenze; in
tutti gli altri casi è comunque la scelta migliore per ottimizzarne
il riuso. In Italia il Gruppo Operativo Linux Empoli (GOLEM
2004), attivo già da alcuni anni su questo fronte, ha coniato il
termine trashware, che si riferisce appunto sia al prodotto sia
all’attività del recupero funzionale e del riutilizzo di hardware
dismesso per scopi di utilità sociale”, che vanno
dall’informatizzazione di una realtà associativa,
all’equipaggiamento di un media center, fino ai progetti per la
diffusione delle ICT nei Paesi in via di sviluppo (GOLEM 2004).
In molti progetti di diffusione delle tecnologie informatiche in
Paesi in via di sviluppo, soprattutto in quelli portati avanti da
organizzazioni di base, in effetti, l’utilizzo di trashware
equipaggiato con software libero costituisce una scelta
funzionale e a basso costo e in alcuni casi obbligata dalle scarse
disponibilità economiche degli attori coinvolti 70
Capitolo II 136
Le attività di promozione e inclusione sociale, attuate a
livello locale così come a livello internazionale, rappresentano
senza dubbio l’ambito di applicazione più rilevante del
trashware. Esso consente infatti ad amministrazioni pubbliche,
organizzazioni non profit e organismi internazionali, di
sviluppare politiche, programmi e progetti a basso costo volti a
diffondere le nuove tecnologie senza contribuire al consumismo
tecnologico; questa diffusione avviene quindi in una forma che
può indurre i destinatari dei progetti a fruire delle nuove
tecnologie con una consapevolezza maggiore di alcuni aspetti
critici del loro sviluppo. Il coinvolgimento dei soggetti nella
stessa attività del trashware può inoltre costituire un modo per
far loro aprire (letteralmente) la “scatola nera” della tecnologia,
e favorire così la diffusione di una maggiore consapevolezza
rispetto ai suoi limiti e alle sue potenzialità.
In tutti i casi di utilizzo del trashware si pone d’altra parte
la necessità di affrontare le questioni relative alla manutenzione
delle macchine e soprattutto al successivo smaltimento delle
stesse. Una delle critiche più frequenti all’utilizzo di hardware
dismesso nei progetti di cooperazione internazionale, infatti, è il
pericolo che i Paesi in via di sviluppo finiscano per diventare le
“discariche informatiche” dei Paesi ricchi. E’ necessario allora
che le attività di trashware finalizzate alla diffusione delle nuove
tecnologie si integrino in una complessiva “razionalizzazione” del
consumo globale di tecnologia, che, anche grazie all’adozione su
larga scala del software libero, inneschi un circolo virtuoso di
“decrescita” in cui si osservino aumento del ciclo di vita dei
prodotti, diminuzione della domanda e riduzione dell’offerta e
del volume di emissioni e rifiuti prodotti.
Ecologia Digitale 137
La localizzazione del software
Come già detto il software libero consente potenzialmente a
chiunque, di intervenire sul codice sorgente – direttamente o
delegando ad altri la concreta realizzazione delle modifiche e dei
miglioramenti – per adattare i programmi alle proprie specifiche
esigenze. Una delle applicazioni in cui questa possibilità si rivela
fondamentale è la localizzazione (indicata anche con la sigla
L10n) del software: con questa espressione si intende sia la
disponibilità di comandi e interfacce in una determinata lingua
sia la necessaria attività di traduzione. Per le grandi compagnie
commerciali, molti gruppi linguistici non raggiungono
dimensioni o livelli di reddito tali da giustificare i costi di una
localizzazione. Ma uno degli ostacoli principali alla diffusione
degli strumenti informatici, in particolare nei Paesi più poveri, è
proprio la necessità di imparare un’altra lingua, considerando
che ciò si rende necessario non per comunicare con altre
persone, il che sarebbe comprensibile, ma per impartire comandi
ad una macchina. Il software libero, al contrario, consente a
chiunque di intervenire sul codice ed effettuare la localizzazione,
che in questo caso potrà riguardare anche lo stesso codice
sorgente; in questo modo anche un piccolo gruppo di persone
motivate basta a rendere disponibile un certo software in una
determinata lingua. La localizzazione di un intero sistema
operativo, comprensivo di kernel e applicativi vari, o di una suite
di programmi, richiede naturalmente un maggiore impegno di
risorse: progetti simili per un gran numero di lingue più o meno
diffuse, si sono sviluppati all’interno delle comunità di utenti e
sviluppatori di software libero, sfruttando tra l’altro le
opportunità di comunicazione e condivisione offerte dalla Rete.
Un esempio significativo è rappresentato dalla localizzazione in
Swahili del SO GNU/Linux e del pacchetto di programmi
Capitolo II 138
OpenOffice, un progetto che coinvolge, oltre al lavoro di alcune
decine di volontari, l’università della Tanzania e una società
svedese di consulenza 71.
Educazione e formazione
L’apertura e la trasparenza del software libero si prestano
inoltre a favorire i processi di apprendimento e di distribuzione
delle competenze; L’utilizzo del software libero nei settori
dell’educazione e della formazione permette di fruire di
strumenti personalizzabili di supporto alle tradizionali
discipline; consente, inoltre, di formare all’utilizzo degli
strumenti informatici in maniera generalista e non legata ad una
particolare piattaforma software; favorisce infine un graduale
avvicinamento alla programmazione del software, prima di tutto
per comprenderne i meccanismi generali e poi, eventualmente,
per provare a cimentarsi con essa. Le nostre società sono sempre
più intrise di software, necessario a far funzionare non solo i
computer, ma tutti i dispositivi elettronici incastonati in un gran
numero di oggetti della nostra vita quotidiana: comprenderne i
meccanismi generali e, perché no, apprenderne metodi e
tecniche, non solo rappresenta l’acquisizione di un bagaglio di
conoscenze eventualmente spendibili nel mercato del lavoro, ma
anche, come nel caso del trashware un percorso di
avvicinamento alle “macchine” che disperda l’alone di mistero
che le circonda e che ne riponga il controllo nelle nostre mani.
Software libero e comunità
Infine le comunità, allo stesso tempo globali e locali, di
utenti e sviluppatori di software libero costituiscono una
preziosa risorsa di arricchimento del capitale sociale disponibile
in un determinato contesto e di supporto ai progetti volti a
diffondere tecnologie e competenze relative alle risorse di
informazione e alla comunicazione. Queste comunità decentrate,
Ecologia Digitale 139
formate ai valori della cooperazione e della solidarietà nello
sviluppo collaborativo e nello scambio di strumenti software, da
un lato si pongono come fonti delocalizzate per la costruzione e
l’adattamento di applicazioni specifiche e per attività di
supporto, formazione e assistenza tecnica a distanza, laddove sia
disponibile una connessione ad Internet. Dall’altro costituiscono
in loco risorse di supporto per i progetti di sviluppo, in grado di
svolgere un ruolo di relais fra le tecnologie e i bisogni delle
comunità coinvolte, facilitare la sostenibilità e la continuità dei
progetti, fornire assistenza tecnica e favorire processi di
apprendimento e in seguito di sviluppo autonomo delle
competenze.
Arricchendo il learning by using, tipico di una ricezione
periferica della tecnologia, con un modello diffuso di learning by
doing, appannaggio invece finora di pochi centri di produzione e
innovazione (Castells 1996; Berra e Meo 2001), il software libero
favorisce la partecipazione diffusa e dal basso ai processi di
progettazione tecnologica. Esso quindi “offre una reale occasione
per ripensare la tecnologia come organizzazione sociale” (Berra e
Meo 2001; p. 175). Consente, infatti, di ristabilire un rapporto
circolare fra innovazione e usi dell’innovazione e fra tecnologia e
ambiente sociale, fondamentale affinché le nuove tecnologie
possano avvicinarsi alle persone (e non il contrario) ed essere
orientate a soddisfare bisogni individuali e collettivi situati e
differenziati. “In questa interazione la tecnologia attenua le sue
caratteristiche di autonomia e di ingovernabilità e si adatta alle
esigenze della società, e il sistema sociale nella sua eterogeneità
oppone meno resistenze alla penetrazione delle tecnologie, ma
può più facilmente attivare capacità positive di intervento e di
adeguamento delle tecnologie alle sue esigenze” (ibid.).
Capitolo II 140
L’insieme costituito dai modelli produttivi ed economici del
software libero e dai valori sociali in esso incorporati si
costituisce allora con i caratteri di una razionalizzazione
democratica (Feenberg 1999; vedi par. 1.4), e in particolare come
un esempio di “progettazione partecipata” e allo stesso tempo
come la condizione necessaria per innescare processi di
”appropriazione creativa” e situata delle tecnologie
dell’informazione e della comunicazione. Ma i modelli di
comunicazione sociale legati al software libero sembrano aprire
la prospettiva di un’”appropriazione creativa” non solo della
tecnologia ma dell’intero sistema economico. I principi della
cooperazione e dello scambio “sociale” informano in effetti le
applicazioni più innovative negli ambiti della comunicazione
mediata dal computer, comprese le forme dello sviluppo
cooperativo di software in rete. Invertendo l’ordine di priorità fra
monopolio delle conoscenze e loro natura pubblica, il software
libero mette in discussione non solo i presupposti del software
proprietario, ma le pretese di proprietà su molte altre risorse
immateriali, indicando al contrario la direzione di una
appropriazione collettiva delle conoscenze come modello efficace
per garantirne un pieno dispiegamento, che contribuisca alla
ricchezza sociale e non solo a quella economica. L’ecologia del
software libero indica un modello di sviluppo sociale ed
economico locale e sostenibile, immerso nelle relazioni sociali
del territorio e intrecciato alle comunità globali di sviluppatori e
utenti, in grado di contrastare i modelli della dipendenza
economica e tecnologica. Il software libero costituisce quindi un
punto di partenza per affrontare in tutta la loro ampiezza le
dinamiche di esclusione nella società in rete e progettare
interventi che spostino l’accento dal trasferimento tecnologico
Ecologia Digitale 141
all’appropriazione delle tecnologie, dall’accesso alla
partecipazione alla società dell’informazione.
Capitolo II 142
Note
27 Si può leggere, per altro, l'esplosione di socialità che caratterizzò
molti dei movimenti di contestazione degli anni Sessanta in tutto il mondo
attraverso la lente della ribellione al predominio della razionalità e
dell'agire strumentale sulla società. Un'"apparatizzazione" contestata tanto
alla società borghese dominata dai principi fordisti e dalle "leggi" del
mercato, quanto alle burocrazie dei partiti socialdemocratici e comunisti
che in qualche modo avevano finito per riprodurne le logiche (Revelli
2001). Parallelamente, si può riscontrare con altri (Formenti 2002; Castells
1996; Carlini 2002; Berardi 2004) il legame costitutivo che sussiste tra i
movimenti antiautoritari e libertari degli anni Sessanta e Settanta e il
successivo sviluppo dell'ideologia liberista, che ne ha a suo modo raccolto i
frutti in termini di trasformazioni sociali e culturali. E ancora, a segnare
forse un passaggio intermedio, quasi un relais fra i due momenti storici
appena enunciati, si può sottolineare, come fanno in molti, il "rapporto tra
rivolta (culturale) e rivoluzione (tecnologica)" (Revelli 2001): ossia il ruolo
giocato dalle controculture americane nello sviluppo delle moderne
tecnologie dell'informazione e della comunicazione, legato proprio, nelle
parole di Castells (1996), alla "cultura di libertà, innovazione e
imprenditorialità emersa dalla cultura dei campus americani degli anni
Sessanta". Ancora secondo Castells "la rivoluzione della tecnologia
dell'informazione ha diffuso, in modo semi-consapevole, nella cultura
materiale delle nostre società lo spirito libertario che prosperò nei
movimenti degli anni Sessanta". 28 Nel contesto della loro teoria della rimediazione, Bolter e Grusin
(1999) definiscono un medium come ibrido tecnico, culturale ed economico,
ossia come luogo geometrico dell’interazione di diversi attori, forze, azioni
e dinamiche sociali. 29 Il “codice tecnico” è quindi incorporato in un “paradigma
tecnologico”, nel senso in cui lo definisce Castells (1996). 30 Nell’ambito delle elaborazioni e delle pratiche riguardanti i
cosiddetti media “alternativi”, e nel contesto dell’accresciuta rilevanza da
questi assunta con lo sviluppo della Rete e delle tecnologie digitali, i
Ecologia Digitale 143
concetti di de Certau sono stati esplicitamente ripresi da Lovink (2002) e da
diversi gruppi di mediattivismo nell’espressione e nelle pratiche dei “media
tattici” (www.tmcrew.org; www.n5m4.org). Più di recente, accanto a questa
definizione, è emersa quella di “media minori”, che, riferendosi in
particolare alle pratiche dello streaming audio-video su Internet, si rifà al
concetto di “letteratura minore”, coniato da Deleuze e Guattari e a sua volta
derivato dalle elaborazioni dello stesso de Certau (Lovink 2003). Come si
vede, dunque, l’influenza di Foucault rimane in ogni caso fondamentale
nelle “culture critiche” di Internet e in generale nell’ambito della
comunicazione. 31 Tale ambivalenza delle tecnologie è particolarmente significativa nel
caso della valorizzazione delle risorse di informazione e conoscenza,
cruciale per le nuove tecnologie dell’informazione e della comunicazione.
Robins e Webster (1999, p. 137) sottolineano in proposito “la relazione
integrante e necessaria tra le dimensioni repressive e quelle potenzialmente
emancipatorie” di tali risorse. 32 Il sistema di ranking dei principali motori di ricerca si basa – anche
– sul numero di link che raggiungono un certo sito. Questo da un lato
consente agli utenti, che dai dati risultano in maggioranza consultare solo
le primissime pagine di risultati e utilizzare strategie di ricerca elementari,
di affidarsi, nella ricerca di informazioni, su una sorta di punteggio di
reputazione corrispondente al numero di citazioni di un sito presenti sul
Web; dall’altro, però, questo sistema finisce per marginalizzare
ulteriormente i siti dai contenuti già meno diffusi, e quindi meno linkati,
rendendoli meno visibili e raggiungibili. Un altro fattore che impedisce ai
contenuti alternativi di raggiungere gli utenti (e viceversa) è rappresentato
dalla sovraesposizione di siti e contenuti accessibili dai portali commerciali
che attraggono la maggior parte del traffico. Questi ed altri meccanismi di
posizionamento dell’informazione, che comprendono tra l’altro anche
incentivi finanziari, determinano quindi una progressiva stratificazione
degli squilibri nella produzione e nella distribuzione di contenuti on-line
che costituisce una delle dimensioni decisive delle “disuguaglianze digitali”
(Di Maggio e Hargittai 2001; Hargittai 2002, 2003).
Capitolo II 144
33 Il termine ecologia (ecology) è utilizzato in questo frangente in
un’accezione simile a quella di ecosistema, con un maggiore accento, però,
sulle relazioni dinamiche che si instaurano fra i diversi elementi che ne
fanno parte. 34 Cfr. www.law.duke.edu/boylesite 35 All’origine degli studi sui comportamenti altruistici, di
collaborazione e di condivisione dei costi e dei benefici, nella specie umana
così come in altre specie animali, si trovano le ricerche e le scoperte
provenienti dall’ambito della cosiddetta “teoria dei giochi” (“dilemma del
prigioniero”, tit for tat, ecc.); queste, insieme a quelle originate nell’ambito
dell’”antiutilitarismo” di Marcel Mauss rispetto alla cultura e all’economia
del dono, mettono in crisi la teoria di un attore razionale impegnato a
perseguire il proprio esclusivo interesse personale, e permettono di
inscrivere nei modelli di scambio fattori estranei ai principi economici,
come la reciprocità, la fiducia, la reputazione, l’agire non strumentale
(Carlini 2002; Rheingold 2002; Berra e Meo 2001). 36 Gli effetti di rete sono peraltro descritti dalla “legge di Metcalfe” –
dal nome del ricercatore responsabile dello sviluppo dello standard di rete
Ethernet – secondo cui il valore complessivo di un sistema di
comunicazione in rete è pari al quadrato del numero dei suoi utenti-nodi e
cresce quindi esponenzialmente all’aumentare di questi, in contrasto con il
tradizionale modello di domanda-offerta in base al quale l’aumento delle
quantità di una risorsa ne diminuisce il valore. C’è da aggiungere che una
sorta di “effetto di rete” negativo si riscontra con simile dirompente
intensità in relazione a quei soggetti che sono esclusi dalle reti stesse: ogni
nodo che si connette ad una rete, infatti, non solo accresce il valore di
quest’ultima incrementando esponenzialmente il numero delle connessioni
possibili, ma aumenta anche, allo stesso modo, gli svantaggi di non essere
connessi. A livello di economia globale, è il meccanismo alla base
dell’aumento delle disuguaglianze nell’età dell’informazione (Castells 1996). 37 In particolare il fair use, il cosiddetto “diritto di primo acquisto” e il
libero accesso alle informazioni di “dominio pubblico”, un ambito in cui
rientrano non solo le pubblicazioni governative ed altre risorse non soggette
a copyright, ma anche tutte le opere dell’ingegno una volta scaduto il
Ecologia Digitale 145
termine di tempo previsto dalla legge per la durata della protezione (vedi
nota seguente). 38 In particolare si fa qui riferimento al Digital Millenium Copyright
Act del 1998 e alla European Union Copyright Directive del 2000. Ancora
negli Stati Uniti, veri paladini nella difesa dei “diritti di proprietà” sulle
opere dell’ingegno, e sempre nel 1998, si è provveduto poi alla stesura del
CTEA, l’atto che ha esteso la già lunga durata della protezione del copyright
di ulteriori vent’anni, fino a 70 anni dalla morte dell’autore per le opere
detenute da individui e a 95 per quelle controllate da corporations (Kranich
2004). 39 In particolare la World Trade Organization e la nuova World
Intellectual Property Organization, peraltro oggetto, così come altri
organismi analoghi, quali l’FMI e la Banca Mondiale, della contestazione
del cosiddetto “movimento dei movimenti” in quanto responsabili delle
politiche neo-liberiste a livello globale e istituzioni non democratiche.
Nell’ambito dell’Uruguay Round del WTO del 1994, si è giunti alla stipula di
un accordo internazionale sugli “aspetti dei diritti di proprietà intellettuali
relativi al commercio” (TRIPS). 40 Cfr. www.creativecommons.org; www.info-commons.org; Lovink
2003; Kranich 2004. 41 Cfr. World-Information.org, Digital Ecology.
www.world-information.org/wio/readme/992006691/intro 42 Il “codice sorgente” di un programma è l’insieme di istruzioni scritte
in un linguaggio di programmazione comprensibile dall’uomo. Per poter
essere interpretate da un computer queste istruzioni vengono prima
“tradotte” da appositi programmi (compilatori) che generano un “codice
oggetto”, ovvero un file “eseguibile” dalla macchina. Da questo codice,
illeggibile per un uomo, non è possibile risalire in modo univoco alle
istruzioni originarie – ciò che si tenta di fare con incerti risultati tramite un
processo di reverse engineering: in molti casi le leggi in materia di
protezione della proprietà intellettuale vietano esplicitamente questo tipo
di pratiche. E’ quindi solo a partire dal codice sorgente che un programma
può essere efficacemente ispezionato, studiato, modificato, adattato e
migliorato.
Capitolo II 146
43 E’ ormai famosa la “lettera aperta agli hobbysti” dell’Altair con cui,
nel 1976, un giovane Bill Gates, in risposta al “furto” di un nastro
contenente l’interprete del linguaggio Basic sviluppato da lui e dal suo socio
Paul Allen per il primo microcomputer Altair, sosteneva le ragioni della
commercializzazione del software e ribadiva il primato dei diritti di
proprietà (Levy 2001; Carlini 2002; Castells 2001). I prodromi della
commercializzazione del software si possono addirittura far risalire a
qualche anno prima, quando nel 1969 una massiccia causa antitrust contro
il monopolio della IBM, aveva portato quest’ultima a far pagare
separatamente il software e a non distribuirlo più sotto forma di codice
sorgente (UNCTAD 2003). 44 GNU è un acronimo ricorsivo che sta per GNU’s Not Unix;
l’invenzione di acronimi con una forte dose di ironia e di creatività è
un’abitudine tipica degli hacker che è stata spesso ripresa nella
denominazione di free software. 45 Questo meccanismo “virale” sfrutta in effetti il modello legale del
copyright, rovesciandone però scopi ed effetti. Per questo per tale
meccanismo è stato anche coniato l’ironico termine copyleft, che gioca
sull’asse semantico di opposizione fra right (“destra”) e left (“sinistra”) e
sulle sue connotazioni politiche. Più che di un “diritto di copia di sinistra”,
però, nella lingua italiana si può forse parlare di un “permesso di copia”
contrapposto al “diritto d’autore”. Il rispetto o meno del meccanismo del
copyleft è un ulteriore discrimine fra le licenze: in pratica esiste “software
libero non copyleft”, ossia software tutelato da una licenza che garantisce le
“quattro libertà” ma non obbliga a rilasciare le opere derivate sotto la
medesima licenza. Cfr. http://www.fsf.org/licensing/licenses/license-
list.html 46 Ciò che di fatto succede anche con quelle licenze libere e open
source, che non pongono restrizioni in merito all’inserimento del codice che
tutelano in sistemi e software proprietari (cfr. nota 20). 47 “[…]I'm doing a (free) operating system (just a hobby, won't be big
and professional like gnu) for 386(486) AT clone […]”. Linus Benedict
Torvalds, “What would you like to see most in minix?”, 25 Agosto 1991,
Ecologia Digitale 147
postato su comp.os.minix. Cfr. http://groups-
beta.google.com/group/comp.os.minix/msg/b813d52cbc5a044b?hl=en48 Nel 2004 è stata rilasciata la versione più recente, la 2.6. 49 Le versioni di Unix derivanti dalla Berkeley Software Distribution
(fra cui FreeBSD, NetBSD e OpenBSD) sono anch’esse “libere”. Ma la
licenza con cui è rilasciata la maggior parte del software incluso in queste
distribuzioni (Licenza BSD), al contrario della GPL, permette
l’incorporazione del codice e delle relative modifiche in lavori protetti da
qualsiasi tipo di licenza, anche proprietaria: alcune funzionalità di
networking in Windows sono implementate sfruttando codice BSD, mentre
l’ultimo sistema operativo della Apple, il MacOSX, include nel suo core,
Darwin, un gran numero di componenti tratti da FreeBSD. 50 Di particolare rilievo, in questo senso, furono le innovazioni
introdotte nel 1995 dal primo sistema operativo grafico della Microsoft,
Windows 95, rispetto alle versioni precedenti di Windows (dalla 1.0 alla
3.11), che erano in realtà ambienti operativi grafici da installare su DOS.
Oltre a supportare per la prima volta i processori a 32 bit e a integrare in
maniera costitutiva una versione dell’MS-DOS, Windows 95 migliorava
significativamente l’interfaccia grafica a finestre e la metafora desktop –
entrambe già presenti nei sistemi Macintosh e nel sistema OS/2, sviluppato
dalla stessa Microsoft in collaborazione con la IBM, e basate sulle scoperte
realizzate al centro di ricerca della Xerox già più di venti anni prima – e
introduceva funzioni e tool grafici che assecondavano le scarse competenze
informatiche dell’utente medio. La posizione di forza sul mercato che
Microsoft già deteneva grazie al precedente predominio dell’MS-DOS sui PC
IBM-compatibili, agli accordi esclusivi di licenza in base ai quali il suo SO
viene preinstallato sull’hardware dalla maggior parte dei costruttori e, non
da ultimo, alla frammentazione che aveva rallentato lo sviluppo di Unix,
fecero sì che essa conquistasse una posizione di vantaggio anche nel nuovo
mercato dei sistemi operativi desktop, che a loro volta rappresentarono un
forte fattore di diffusione del personal computer, soprattutto in ambiente
domestico.
Capitolo II 148
51 La piattaforma libera Apache, ha conquistato, dal 1995, anno d’avvio
del progetto, al 2004 circa il 70 % del mercato dei sistemi web server nel
mondo. 52 Tra i programmi più diffusi ed importanti citiamo qui il pacchetto di
software per ufficio, OpenOffice; la suite di programmi per Internet,
Mozilla (e i suoi derivati principali, il browser Firefox, il client di posta
Thunderbird, e il recente editor HTML NVU); il sistema di gestione di
databases, MySQL; il sistema di informazione geografica, GRASS; l’editor
di testo scientifico, LaTex; i motori grafici, XOrg e XFree86, e gli ambienti
desktop, GNOME e KDE; i linguaggi di programmazione PERL e Python; la
piattaforma di condivisione Windows-Linux, Samba; i programmi di file
sharing p2p eMule, DC++, Lime Wire, MLDonkey, Sheraza e BitTorrent; le
applicazioni di web server, Apache e Zope; gli editor di grafica, Blender e
The Gimp. L’elenco comprende inoltre programmi per la realizzazione di
wiki e weblogs, programmi di instant messaging e chat, programmi per
l’accesso remoto (VNC), content management systems (PHP e derivati e
Slashcode), groupware, codec e container per contenuti multimediali
(XviD, Ogg Vorbis, Matroska, Musepack), lettori multimediali (Xine e VLC),
programmi di editing audio e video (CDex, Audacity, VirtualDub), software
di masterizzazione (Gnome Toaster, X-CD-Roast), antivirus e firewall,
programmi di crittazione (GnuPG), applicazioni per lo streaming (MuSE e
PeerCast), programmi didattici e scientifici, numerose piattaforme di e-
learning (fra cui l’italiana ADA), un’implementazione open source del
protocollo standard H.323 per le applicazioni di Voice over IP. Per una lista
esaustiva cfr. http://en.wikipedia.org/wiki/List_of_open-
source_software_packages 53 Cfr. paragrafo 2.2.4. 54 Cfr. Nichols e Twidale 2003 per una trattazione delle questioni
dell’usabilità nell’ambito del software libero e open source. 55 Secondo dati recenti GNU/Linux gira sul 30 % dei server Web, a
fronte di una percentuale di circa il 50 % appannaggio di varie versioni di
Windows, e di percentuali intorno al 7 % sia per il sistema Unix
proprietario Solaris sia per i diversi derivati di BSD (UNCTAD 2003).
Ecologia Digitale 149
56 L’IBM, soprattutto, ha sostenuto apertamente Linux, finanziando
progetti di sviluppo e equipaggiando server e mainframe della sua linea di
prodotti con versioni del sistema operativo libero. Ma anche altre aziende
leader nel settore dell’Information Technology, come Oracle, SAP, Hitachi,
Hewlett Packard, Intel, Sun Mycrosistem e persino Microsoft, sono
coinvolte in operazioni commerciali legate al software open source
(UNCTAD 2003). 57 Vedi paragrafo 3.5.3. 58 Tra le prime e più importanti società for profit, e relative
distribuzioni, troviamo Red Hat negli Stati Uniti, SuSe in Germania e
MandrakeSoft (ora Mandrivia) in Francia. La quotazione in borsa di Red
Hat si giovò per altro della bolla della new economy. Altre distribuzioni
fanno affidamento sul lavoro volontario e sui finanziamenti di alcune
fondazioni, come nel caso della Debian o della recente Ubuntu, una
distribuzione basata su Debian ma con cicli di rilascio più brevi e orientata
in modo particolare ad un utilizzo desktop, alla facilità d’uso e al supporto
dell’hardware dei computer portatili, tradizionale punto debole di
GNU/Linux legato agli accordi esclusivi che molte case produttrici
stringono con la Microsoft. 59 I risultati non si fecero attendere: nello stesso 1998 la Netscape,
società produttrice del browser omonimo, anche nel tentativo di
contrastare le pratiche monopolistiche della Microsoft e la conquista di
quote di utenti da parte del suo Internet Explorer, annunciò che avrebbe
rilasciato il codice del suo browser sotto una licenza open source. Da quel
codice sarebbe scaturito tra l’altro il progetto Mozilla. Altre società
seguirono nel supportare il sistema operativo GNU/LInux sulle proprie
architetture hardware e software e poi nell’implementare modelli di
business che facessero perno sul software open source (cfr. note 30 e 32). 60 L’aggettivo non-proprietario si applicherebbe in realtà al solo
software rilasciato in regime di “dominio pubblico”, l’unico a non prevedere
alcuna licenza che ne stabilisca diritti di proprietà. La utilizzo qui per
riferirmi in generale a qualsiasi software che non preveda restrizioni
riguardo all’accesso e alla modifica al suo codice sorgente, a prescindere dai
Capitolo II 150
termini specifici delle diverse licenze, quindi in maniera analoga
all’espressione ombrello indicata dall’acronimo FLOSS. 61 Per evitare equivoci, incomprensioni e questioni di principio e per
evidenziare gli aspetti comuni dei diversi modelli di software a codice
sorgente aperto, in particolare in relazione all’ampiezza delle loro
implicazioni sociali ed economiche, il ricercatore indiano Rishab Ghosh ha
coniato l’espressione Free/Libre Open Source Software, abbreviata
nell’acronimo FLOSS. Il termine è comparso per la prima volta nel 2000,
anno di avvio di un progetto di ricerca dell’Istituto Internazionale di
Infonomics dell’Università di Maastricht e finanziato dall’Unione Europea,
volto ad indagare una serie di aspetti economici del software a sorgente
aperto (Ghosh e Glott 2002). 62 La Business Software Alliance stima che in Vietnam la percentuale di
“perdite” derivante dal mancato pagamento delle licenze ammonti
addirittura al 94%. Una simile valutazione, ripetuta dalla BSA per tutti i
Paesi, non tiene conto del fatto che la maggior parte degli utenti che
adottano copie pirata di un software, soprattutto nei Paesi in via di
sviluppo, non diventerebbero comunque acquirenti regolari, quanto meno
perché non possono permetterselo. 63 In alcuni casi le principali compagnie arrivano a contrattare costi
più bassi per le licenze destinate ad istituzioni e organismi di un Paese in
via di sviluppo, allo scopo di legarli alle proprie forniture. 64 Il TCO si riferisce al costo complessivo di una tecnologia derivante
dalle spese per l’hardware, per le licenze del software e per i servizi di
riparazione, manutenzione, integrazione, networking, supporto, assistenza,
sicurezza e formazione per tutto il ciclo di vita del prodotto. 65 Il discorso cambia naturalmente nei Paesi in via di sviluppo o meno
sviluppati, dove il costo del lavoro più basso e l’alto costo delle licenze,
come detto, ribalta le percentuali e fornisce un ampio margine di vantaggio
economico ai sistemi liberi. 66 Cfr. Rajani (2003), Wong (2003) e UNCTAD (2003) per una
rassegna delle iniziative intraprese da un gran numero di governi in tutto il
mondo riguardo all’utilizzo di Software Libero e Open Source (FLOSS) nel
settore pubblico.
Ecologia Digitale 151
67 Le recenti strategie di marketing della Microsoft hanno previsto,
inoltre, il lancio della criticatissima shared source iniziative, ossia il
rilascio a sviluppatori selezionati, a grandi imprese e, appunto, ad alcuni
governi di parti di codice sorgente del suo software sotto speciali licenze
che in pratica permettono al licenziatario di vedere, ma non toccare, né
divulgare in alcun modo, il codice. Nel 2004, la Microsoft ha rilasciato la
Windows XP Starter Edition, una versione drasticamente ridotta del suo
sistema operativo destinata ai Paesi in via di sviluppo e commercializzata
finora, a circa un terzo del prezzo della versione standard, in Tailandia,
Malaysia, Indonesia, Russia, India e Brasile. 68 Cfr. Berra e Meo 2001, p. 138-145 69 Vedi, al contrario, il “caso Diebold” in occasione delle elezioni del
2004 negli Sati Uniti. 70 In Italia molte realtà associative e non solo si occupano di
trashware. Oltre al già citato GOLEM e ad altri LUG, ad effettuare attività
di recupero e riutilizzo di hardware dismesso per allestire i propri spazi o
quelli di altre realtà affini, sono spesso i gruppi e i laboratori (spesso
definitisi hacklabs), sorti nell’ambito dei Centri Sociali, che si occupano di
“accesso ai saperi” e alle nuove tecnologie, proponendo fra l’altro corsi di
alfabetizzazione e formazione informatica gratuiti. Fra i più attivi si
possono citare il gruppo AvanaNet con base presso il CSOA Forte
Prenestino di Roma e il BugsLab di stanza fra lo Strike e La Torre, sempre
di Roma, il FreakNet di Catania, il Bulk a Milano. Negli ultimi anni, poi,
alcune realtà hanno sviluppato alcune iniziative in partnership con scuole e
istituzioni: tra queste l’evocativo “Progetto Lazzaro” rivolto alle scuole
(www.progettolazzaro.it). Una rassegna di realtà e iniziative relative al
trashware è consultabile sul sito http://trashware.linux.it/, base anche di
una mailing list di discussione e coordinamento attiva dal Giugno 2004. 71 Il progetto è consultabile al sito www.kilnux.org.
Capitolo III
Spazi pubblici digitali:inclusione ed esclusione sociale nell’età dell’informazione
Lungi dal mantenere le sbandierate promesse di una nuova
era di liberazione, uguaglianza e benessere sociale diffuso,
l’esplosione delle tecnologie dell'informazione e della
comunicazione e la razionalizzazione tecnocratica che ne ha
forgiato i modelli di sviluppo e le applicazioni nella società,
hanno finora rafforzato il dominio degli imperativi economici
sulla vita delle persone e incrementato i livelli di disuguaglianza
ed esclusione sociale (Robins e Webster 1999; UNDP 2001). Lo
sviluppo del “capitalismo informazionale” (Castells 1996), per
come si è venuto strutturando attraverso le decisioni e le
politiche di governi, organismi internazionali e poteri economici,
ha avuto come conseguenza un ulteriore peggioramento delle
condizioni di vita per centinaia di milioni di persone in tutto il
mondo, che soffrano la fame o la povertà nei Paesi più poveri, o
sperimentino crescenti livelli di insicurezza per i propri progetti
di vita nei Paesi più industrializzati.
Capitolo III 154
Da un lato, data la natura tecnica delle basi materiali degli
ambiti fondamentali di produzione e consumo, riproduzione e
cultura, le logiche impersonali della razionalizzazione
tecnocratica estendono la loro presa su sempre più sfere della
vita sociale. Dall’altro essa assume le sembianze e i caratteri
delle “reti” che sorreggono i processi della produzione
delocalizzata, gli scambi nei mercati finanziari, l’organizzazione
del commercio internazionale e l’infosfera globale. Il dominio
della razionalità strumentale si accompagna, quindi, alla
preminenza di una "logica di rete" che opera secondo una
dinamica binaria di inclusione/esclusione, in base alla quale "le
reti di capitali, produzione e commercio sono in grado di
individuare le fonti della creazione di valore ovunque nel mondo,
e di realizzare il loro collegamento", bypassando invece quei
"segmenti" di paesi, regioni, settori economici, popolazioni,
territori, società locali, giudicati inutili ai fini della propria
valorizzazione e condannandoli all’emarginazione e alla povertà
(Castells 1996, p. 3). Queste "reti globali di scambi strumentali
attivano e disattivano in modo selettivo individui, gruppi, regioni
e persino paesi, secondo la loro rilevanza nel raggiungere gli
obiettivi elaborati dalla Rete stessa" (ibid.).
I nuovi squilibri su scala globale legati alla diseguale
diffusione di "conoscenza e tecnologia" vanno a sommarsi alle
precedenti disuguaglianze e ridisegnano la geografia
dell’esclusione, accentuandone i profili già sedimentati o
facendone emergere di nuovi. Le dinamiche simultanee di
dispersione, concentrazione e connessione favorite dalle nuove
tecnologie accumulano le funzioni strategiche in poli ad alta
densità tecnologica e d'informazione e conoscenza (tra cui i
cosiddetti milieux d'innovazione), rafforzando così le relazioni
all'interno della "città globale" descritta da Saskia Sassen (1991)
Spazi Pubblici Digitali 155
e fra alcuni centri regionali, e indebolendo al contrario i rapporti
città-regioni, con l'effetto di aumentare le disparità fra le zone
urbane e i rispettivi hinterland. Fenomeni simili si verificano
anche all'interno delle città e delle nuove "megacittà": "collegate
esternamente a reti globali e a segmenti dei propri paesi",
scollegano invece "internamente le popolazioni locali non
funzionalmente necessarie o socialmente dirompenti" (Castells
1996, p. 466). In generale ogni "segmento" è soggetto alle
turbolenze dei flussi globali e dei loro interessi e alle connessioni
e sconnessioni che questi attuano. A tale "globalizzazione a pelle
di leopardo" si aggiungono poi i dirompenti fenomeni di
individualizzazione, precarizzazione e frammentazione del lavoro
che caratterizzano le relazioni produttive del "capitalismo
informazionale".
Il risultato complessivo è l'emarginazione per povertà e
miseria di un numero crescente di persone in tutto il mondo,
l'aumento delle disuguaglianze nella distribuzione del reddito su
scala globale e locale e l’aumento dell’insicurezza economica e
dell’esclusione sociale per larghe fasce di popolazione nei Paesi
ad economia avanzata. Dopo la dissoluzione del Secondo Mondo,
quello del socialismo reale, e la scomparsa del Terzo Mondo
come entità geopolitica e realtà pressoché omogenea in termini
di sviluppo economico e sociale, si assiste alla nascita di un
Quarto Mondo che attraversa indifferentemente paesi ricchi e
poveri e "abita" l'Africa subsahriana e le aree rurali impoverite
dell’America Latina e dell’Asia, così come le inner cities delle
metropoli americane e le banlieus francesi meta d’immigrazione
(UNDP 2001; Castells 1998). In effetti, come sottolinea ancora
Castells (ibid. p. 186), “nell’attuale contesto storico, l’ascesa” – si
fa per dire – “del Quarto Mondo è inseparabile dall’ascesa del
capitalismo globale e informazionale”.
Capitolo III 156
Nei processi appena delineati i territori e le identità culturali
che in essi si esprimono giocano ruoli contradditori e
sovrapposti, dipendenti per altro in buona misura dalla propria
collocazione geografica ed “economica”. Essi si costituiscono
come l’altra faccia della razionalizzazione, allo stesso tempo
oggetto della valorizzazione economica e sottomessi alle sue
logiche strumentali, elementi disconnessi dalle reti e condannati
all’esclusione sociale, origine delle molteplici forme di resistenza
alla logica strumentale sulla base delle più diverse configurazioni
di interessi e valori. E’ su questo terreno che si gioca la
fondamentale contrapposizione fra le logiche delocalizzate e
impersonali dei flussi globali di capitali, merci, immagini e
informazioni e le sensibilità culturali e affettive di individui e
comunità per la maggior parte dei quali l'esistenza trova ancora
il suo fondamento nella fisicità dei luoghi. In questa
contrapposizione prende forma inoltre quella “spaccatura
fondamentale tra lo strumentalismo astratto, universale, e le
identità particolaristiche, storicamente radicate [per cui] le
nostre società sono sempre più strutturate attorno ad
un'opposizione bipolare tra la Rete e l'io" (Castells 1996, p. 3). Il
nuovo spazio dei flussi origina dalle reti telematiche intorno a
cui si organizzano i processi produttivi e i mercati finanziari e si
riflette nella progettazione urbanistica e nelle architetture delle
metropoli globali, è il regno del “tempo acrono” (ibid.) e del
calcolo economico e strumentale. Lo spazio dei luoghi e i valori
culturali dell’esperienza umana che in esso prendono forma
diventano anch’essi semplici strumenti in funzione degli
imperativi del “potere dei flussi”. Ciò comporta, da un lato,
un’erosione delle risorse culturali locali determinata dai processi
di privatizzazione e valorizzazione economica di saperi e
conoscenze; dall’altro un’esasperazione delle chiusure identitarie
Spazi Pubblici Digitali 157
come difesa dell’autonomia individuale e collettiva dai processi
di omologazione e razionalizzazione globali.
Le dinamiche di differenziazione sociale nella “società
globale dell’informazione” sono dunque legate a due processi
distinti e fra loro contraddittori ma correlati. Da una parte esse
sono allo stesso tempo causa ed effetto del diverso grado di
partecipazione di paesi, individui e comunità ai circuiti della
“produzione culturale” (Rifkin 2000) e alle opportunità offerte in
questo senso dai nuovi media e in particolare da Internet. Sono
quindi legate alla diseguale distribuzione a livello locale e globale
delle nuove tecnologie che incrementano le possibilità di
manipolare e comunicare informazioni, conoscenza e simboli, di
partecipare alle reti globali o strutturarne di autonome.
Dall’altra parte queste dinamiche sono legate alla più ampia
questione relativa alla divaricazione crescente fra economia e
cultura, fra “Rete e io”, tra funzione e significato, fra spazio dei
flussi e spazio dei luoghi. Un’opposizione che trova origine, al
contrario, proprio nella partecipazione subalterna alle reti di
accumulazione del capitale e agli ambienti digitali in cui esse
operano e a cui danno forma e che segna per individui e
comunità una graduale perdita di controllo sulle proprie vite e i
propri ambienti. Senza la promozione di processi di
appropriazione delle nuove tecnologie da parte degli utenti nei
diversi contesti, e senza una reale partecipazione decentrata alla
progettazione di caratteristiche, funzionalità e contenuti delle
stesse, il semplice trasferimento e la diffusione di “scatole nere”
in funzione delle esigenze e dei valori del produttivismo, della
competitività e della razionalizzazione, esasperano la spaccatura
fra strumentalismo e identità e generano un indebolimento dei
legami sociali e l’inasprimento dei processi di esclusione sociale.
I due processi alla base dell’”esclusione in rete” risultano,
Capitolo III 158
quindi, strettamente correlati: così, se da un lato, l’esclusione
fisica e simbolica di individui e intere comunità dalle reti
telematiche e produttive va a peggiorare non solo le loro già
difficili condizioni economiche e sociali, ma anche la loro
posizione di subalternità alle logiche strumentali del “potere dei
flussi”, dall’altro gli imperativi della razionalizzazione veicolati
dall’applicazione delle nuove tecnologie al dominio globale della
produzione e del commercio, esasperando la divaricazione fra la
logica strumentale e universalista e le culture localmente
radicate, impongono a loro volta per altre vie esclusione e
marginalizzazione sociale.
In questo capitolo, quindi, presentati alcuni dati e concetti
utili a inquadrare le condizioni della stratificazione sociale e i
processi di esclusione sociale nella società in rete, mi soffermerò
su una delle dinamiche spaziali dell’esclusione, riferita al diverso
grado di partecipazione di aree geografiche e Paesi ai processi di
produzione e fruizione di Internet. Procederò, quindi, sulla base
della letteratura e delle analisi più recenti, ad una rivisitazione
critica degli assunti, delle implicazioni e delle pratiche relative al
concetto di digital divide, in quanto inadeguato a cogliere
molteplicità e complessità dei fenomeni osservati di
stratificazione ed esclusione sociale, e quindi inadatto ad
informare iniziative di contrasto. In questo senso presenterò due
modelli che ne correggono limiti e distorsioni: il primo, che
riferisce di una disuguaglianza digitale (Di Maggio e Hargittai
2001; Di Maggio et al. 2004), ne corregge innanzitutto la
prospettiva dicotomica orientata da una concezione riduttiva
dell’accesso, con attenzione particolare alle differenze all’interno
dei Paesi; il secondo, che si sofferma sulla relazione fra le ICT e
l’inclusione sociale (Warschauer 2003), ne allarga l’orizzonte per
includervi l’interazione dinamica fra tecnologia e società e una
Spazi Pubblici Digitali 159
più ampia valutazione delle questioni dello sviluppo sociale e
umano.
La ricognizione di alcune politiche e di alcune azioni che in
molti Paesi sostengono gli usi comunitari delle nuove tecnologie
(a partire dal movimento della community technology negli Stati
Uniti) guiderà infine verso la definizione di un possibile modello
d’intervento in grado di coniugare l’esigenza di un’equa
partecipazione alle opportunità offerte dai nuovi ambienti e
strumenti digitali con la prospettiva di un loro impiego a
sostegno dei processi e delle politiche di inclusione sociale,
attraverso la loro integrazione in un’ampia gamma di risorse,
esperienze e significati sociali che originano dai territori e dalle
comunità. Un tale modello fa perno sulla progettazione e la
realizzazione partecipata di spazi pubblici digitali, sia fisici che
virtuali, che si costituiscano come ponti culturali e sociali fra lo
spazio dei flussi immateriali e lo spazio dei luoghi fisici: spazi,
dunque, in cui promuovere la produzione, la condivisione e la
libera circolazione di saperi, conoscenze, informazioni e cultura,
offrire accesso e formazione ad un ampia gamma di ambienti,
tecnologie e formati digitali, favorire la loro appropriazione sulla
base dei bisogni e dei significati locali, integrare cultura e
consapevolezza tecnologica nelle dinamiche e nei legami sociali,
valorizzare le risorse locali della creatività e della diversità
culturale e la “messa in rete” di soggetti e realtà istituzionali,
privati e della società civile. Spazi attraverso i quali sostenere la
costruzione dal basso di una “società dell’informazione” plurale,
partecipata e inclusiva, in cui a prevalere non siano gli imperativi
liberisti della competizione e della privatizzazione dei saperi, ma
quelli della cooperazione sociale, della solidarietà e della
condivisione.
Capitolo III 160
1. Stratificazione ed esclusione sociale nella società in rete
“L’avvento dell’informazionalismo al volgere del millennio si
associa a disuguaglianze ed esclusione sociale crescenti in tutto il
mondo” (Castells 1998, p. 75). Nonostante l’estensione dei
processi di industrializzazione e sviluppo ad una consistente
quota della popolazione mondiale, e nonostante i buoni propositi
delle istituzioni internazionali e dei governi, nel mondo un
numero crescente di persone sperimenta in effetti livelli
inaccettabili di privazione, legati alla mancanza di un reddito
adeguato e in generale di condizioni di vita accettabili. Dei 4,6
miliardi di persone che vivono nei paesi in via di sviluppo, ad
esempio, 850 milioni sono analfabete, più di un miliardo non
può accedere a fonti d’acqua potabile e 2,4 miliardi non possono
usufruire delle strutture sanitarie di base. Quasi 325 milioni di
ragazzi e ragazze non frequentano la scuola. E ogni anno 11
milioni di bambini al di sotto dei cinque anni muoiono per cause
che si potrebbero prevenire o malattie che si potrebbero curare.
Circa 1,3 miliardi di persone vivono con meno di 1 $ al giorno e
2,8 miliardi vivono con meno di 2 $ al giorno. Questo genere di
privazioni non si limita ai paesi in via di sviluppo. Nei paesi
OCSE più di 130 milioni di persone sono povere, 34 milioni sono
disoccupate e il tasso di analfabetismo funzionale tra gli adulti è
mediamente del 15%.
1.1 L’aumento dell’ingiustizia sociale e della
povertà
La prospettiva temporale mostra, inoltre, un incremento sia
del numero di persone in condizioni di povertà e miseria, sia
delle disuguaglianze fra Paesi e individui a livello mondiale:
Spazi Pubblici Digitali 161
negli ultimi trenta anni si è assistito ad una progressiva
polarizzazione nella distribuzione della ricchezza, secondo una
dinamica che ha dominato tutta la storia moderna a partire dalla
fine del XIX secolo. Secondo i rapporti dell’UNDP (2001) nel
1993 solo 5000 dei 23000 miliardi di dollari del prodotto
mondiale provenivano dai paesi in via di sviluppo, nonostante
questi ospitassero più dell’80% della popolazione. Il 20 % più
povero ha visto scendere la propria quota del reddito globale dal
2,3 % all’1,4% negli ultimi tre decenni. Nel frattempo la quota del
20 % più ricco è salita dal 70 % all’85 %. La proporzione del
reddito del 20 % più ricco rispetto al 20 % più povero è salita
vertiginosamente, da un rapporto di 30:1 nel 1960 si è passati ad
uno di 74:1 nel 1997. La concentrazione della ricchezza al vertice
è cresciuta anche negli anni Novanta: il patrimonio in dollari
delle 200 persone più ricche al mondo è passato da 440 miliardi
a più di 1000 miliardi tra il 1994 e il 1998. Sempre nel 1998 le
tre persone più ricche del mondo possedevano, insieme, un
patrimonio più consistente del PIL dei quarantotto paesi più
poveri del pianeta, che allora ospitavano circa 600 milioni di
persone 72.
In generale diversi studi alla fine del secolo scorso
riportavano un incremento della disuguaglianza nella
distribuzione globale del reddito a favore delle classi medie e alte
dei Paesi ricchi e delle elite dei Paesi poveri o in via di sviluppo,
vale a dire dei settori della popolazione mondiale che hanno
profittato maggiormente o esclusivamente della “rivoluzione
delle ICT” (Warschauer 2003). Secondo alcune di tali ricerche, la
crescita delle disuguaglianze all’interno dei Paesi ha contribuito
per un quarto a tale aumento delle disuguaglianze. In effetti si
registra una “tendenza dominante all’aumento delle disparità”
Capitolo III 162
nella maggior parte dei Paesi, sia industrializzati, sia in via di
sviluppo sia più poveri (Castells 1998).
L’aumento delle disuguaglianze fra e all’interno dei Paesi e il
peggioramento delle condizioni di vita di ampie fasce della
popolazione mondiale, seppure determinati naturalmente da un
più ampio intreccio di fattori economici, sociali, tecnologici e
politici 73, è legato in diversi modi con il salto tecnologico del
capitalismo globale (Castells 2001): in primo luogo gli
incrementi della produttività legati all’adozione delle ICT,
appannaggio esclusivamente o primariamente delle realtà e degli
attori economici dominanti, aumentano il vantaggio di questi
ultimi sugli attori e sui Paesi già più indietro; in secondo luogo le
caratteristiche delle nuove tecnologie rendono più agevole
connettere i nodi della produzione di ricchezza, della finanza e
del management presenti nei Paesi più poveri direttamente alle
reti globali, bypassando le economie e le società locali e
incrementando così il divario economico e sociale interno fra
elites globalizzate e masse di diseredati; infine l’accresciuta
volatilità dei mercati finanziari indotta dalla massiccia adozione
delle ICT e dalle politiche di deregolamentazione, sommata alla
diffusione di fenomeni speculativi e all’interdipendenza
tecnologicamente determinata delle diverse “piazze”, produce
crisi economiche improvvise e devastanti che, come nel caso
dell’Asia e dell’America Latina sul finire degli anni Novanta o
dell’Argentina nei primi anni del nuovo secolo, finiscono per
trascinare nell’indigenza anche la popolazione appartenente alle
classi medie.
Spazi Pubblici Digitali 163
1.2 I processi di esclusione sociale nella società in
rete
Le dinamiche globali della ristrutturazione capitalista non
hanno effetto solo sulla polarizzazione nella distribuzione della
ricchezza, ma anche su un più ampio approfondimento dei
processi di esclusione sociale di individui e interi territori;
processi che allo stesso tempo originano da e conducono verso
situazioni di povertà. Anche in questo caso, sono gli stessi
caratteri tecnocratici che guidano la trasformazione in corso a
determinare largamente le forme dell’esclusione e il suo
aggravamento.
I concetti di inclusione e esclusione sociale sono
particolarmente rilevanti nell’analisi di matrice europea,
sviluppati nell’ambito delle politiche sociali della Commissione
Europea e adottati anche dall’International Labour Organization
(ILO) dell’ONU: riferiti alle persone, essi riguardano in
particolare la possibilità o meno per individui, famiglie e
comunità di partecipare pienamente alla opportunità sociali ed
economiche e determinare autonomamente i propri destini
(Warscahuer 2003). Tali condizioni, pur fondamentalmente
associate nelle economie capitaliste alla “possibilità di accedere a
un lavoro salariato relativamente stabile per un membro almeno
di un nucleo familiare” (Castells 1998, p. 78), chiamano in causa
un ampio ventaglio di fattori e bisogni concernenti la qualità
della vita e l’integrazione nel tessuto sociale. L’inclusione e
l’esclusione sociale non sono tanto condizioni stabili quanto
processi che coinvolgono individui e territori in base a situazioni
e dinamiche sociali ed economiche continuamente variabili
(istruzione, politiche sociali e imprenditoriali, culture, pregiudizi
e valori, ecc.) (ibid.). Una tale concettualizzazione consente,
Capitolo III 164
inoltre di superare i ristretti confini che connotano il concetto di
“sviluppo economico” e il suo legame con i controversi effetti
prodotti dalla crescita economica per orientarsi verso gli
obiettivi dello “sviluppo umano” promossi, tra gli altri, dall’ONU
(UNDP 2001).
Dal punto di vista di un individuo o di un nucleo familiare la
condizione occupazionale è certamente il meccanismo chiave
delle dinamiche di inclusione/esclusione sociale. In questo senso
la diffusione e la crescente prevalenza di rapporti di lavoro
precari e discontinui, nell’ambito del “lavoro
autoprogrammabile” e a maggior ragione in quello del “lavoro
generico”, non sostenute per altro da un adeguato
rimodellamento delle reti e dei meccanismi di tutela e di
protezione sociale post-welfare, rappresenta la principale fonte
di esclusione sociale per un numero crescente di individui e
famiglie nelle “economie avanzate” (Castells 1996, 1998; Gallino
2001): ansia, inattività, frustrazione, mancanza di sicurezze
economiche e conseguente impossibilità di investire e progettare
sul proprio futuro, fosse anche solo con l’obiettivo di trovare un
alloggio stabile, già di per se elementi in grado di pregiudicare
un sano tenore di vita, possono sfociare a loro volta in ulteriori
disagi fisici e mentali, forme di dipendenza, difficoltà relazionali,
stigma sociali, fino all’ingresso settore dell’economia informale o
illegale. L’impossibilità di provvedere all’aggiornamento delle
proprie conoscenze e competenze fra un lavoro e l’altro può
ridurre ulteriormente le opportunità occupazionali di una
persona, costringendola nel limbo di lavori sottopagati e
dequalificati. I soggetti coinvolti si trovano così intrappolati in
una spirale di esclusione e marginalità da cui è difficile
riemergere; una condizione che colpisce ormai non solo i soggetti
tradizionalmente svantaggiati ma la maggior parte delle
Spazi Pubblici Digitali 165
categorie sociali e chiunque non regga il passo dei ritmi vorticosi
del ricambio lavorativo e della lotta per la sopravvivenza in un
mercato del lavoro sempre più flessibile e privato dei tradizionali
meccanismi di tutela e di rivendicazione collettiva.
In quanto fondamentalmente legata ai rapporti di lavoro,
l’esclusione sociale è ancora fortemente associata alle dinamiche
che interessano i rapporti di produzione e la divisione in classi
sociali, tanto più che alle nuove condizioni di un precariato di
massa nelle economie avanzate si affiancano le tradizionali
condizioni di sfruttamento e disoccupazione estesa nei paesi
poveri e soprattutto in quelli in via di sviluppo.
D’altra parte l’attuale transizione sociale ed economica, con
lo sviluppo dei caratteri di un capitalismo globalizzato,
informazionale e flessibile, il ritiro dello “Stato sociale” e
l’emergere del “valore” delle risorse culturali e di informazione e
conoscenza, comporta non solo una progressiva integrazione e
sostituzione dei modelli di relazione e conflitto tra capitale e
lavoro, ma una accentuata diversificazione degli stessi fattori che
influiscono sui processi di esclusione e inclusione sociale
(Castells e Himanem 2002). Emergono quindi una serie di
parametri che eccedono opportunità e condizioni lavorative e,
pur essendone in molti casi dipendenti, assumono nondimeno
una rilevanza autonoma nel determinare il livello di integrazione
nella società e di autonomia dei soggetti: oltre alla disponibilità
di risorse economiche e beni ritenuti essenziali in un
determinato contesto, i processi di esclusione/inclusione sociale
sono legati alle condizioni di salute e alla possibilità di accedere
a servizi sociali adeguati, al livello di istruzione e formazione,
alle condizioni abitative, alla possibilità di accedere alla cultura e
allo svago e di dedicare tempo all’impegno civico e in generale
alla coltivazione dei legami sociali.
Capitolo III 166
In questo senso, quindi, acquista centralità l’accesso a un
ampio ventaglio di risorse in grado di soddisfare nel suo insieme
i diversi ordini di bisogni individuati da Abraham Maslow nella
sua nota scala gerarchica dei bisogni. La valutazione complessiva
dei diversi bisogni e delle relative risorse, consentendo di
acquisire una necessaria visione d’insieme dei rischi e dei
processi di esclusione sociale, permette di sviluppare politiche e
programmi a livello nazionale e internazionale che non
affrontino solo l’emergenza fornendo assistenza immediata e
risorse di base ai gruppi sociali e ai Paesi più svantaggiati ma
siano in grado, da un lato, di prevenire i fattori di esclusione e,
dall’altro, di evitare processi di dipendenza e favorire piuttosto
lo sviluppo di processi di sviluppo autonomo e a lungo termine di
individui e Paesi 74.
Come afferma Lisa Servon (2002) riferendosi ai programmi
di assistenza ai soggetti svantaggiati dell’amministrazione
americana, per evitare il rischio di trattare solo i sintomi e non le
cause del problema, è necessario che le politiche di contrasto alla
povertà includano, accanto alla garanzia delle “risorse di primo
livello” (cibo, acqua, vestiti, alloggio, istruzione primaria e
secondaria, cure sanitarie, cura dei bambini, ecc) la fornitura e la
promozione di “risorse di secondo livello” che comprendono
formazione avanzata, conoscenza di base dei meccanismi
economici, capacità relazionali e di gestione, indispensabili per
una piena partecipazione alle opportunità economiche e sociali.
Fra queste risorse di secondo livello rientrano inoltre a pieno
titolo l’accesso alle nuove tecnologie e la possibilità di acquisire
le competenze tecniche e cognitive indispensabili per un loro
efficace utilizzo.
Molti sottolineano in proposito il proverbiale vantaggio che
scaturisce dal ricevere una “canna da pesca” e i rudimenti
Spazi Pubblici Digitali 167
necessari a pescare, piuttosto che del pesce, e certamente la
metafora centra alcune delle ragioni principali che giustificano la
promozione delle nuove tecnologie anche in contesti afflitti da
alti livelli di privazione o che si trovano ad un diverso stadio di
sviluppo da quello delle società industrializzate. L’impiego delle
nuove tecnologie dell’informazione e della comunicazione, se
adeguatamente integrato nei diversi sistemi di bisogni, esigenze
e condizioni organizzative, può rivelarsi in effetti un mezzo
efficace per facilitare l’accesso ad informazioni critiche, utili a
migliorare il rendimento delle attività produttive tradizionali che
ancora impegnano la maggior parte della popolazione nei Paesi
poveri o in via di sviluppo 75. Le ICT possono inoltre incrementare
produttività e competitività di comparti economici, reti
produttive e singole imprese e aumentare le opportunità
occupazionali per individui e gruppi svantaggiati. Più in
generale, nel contesto di un sistema produttivo ed economico
sempre più informatizzato, connesso e globale, il collegamento
alle reti elettroniche e di produzione del valore e lo sviluppo
delle competenze relative al trattamento della conoscenza e alla
padronanza delle nuove tecnologie rappresentano per Paesi e
individui i necessari requisiti per accedere a condizioni di vita
più sostenibili. In conclusione, dal punto di vista della
razionalizzazione e delle performances economiche, non vi è
dubbio che “lo sviluppo senza Internet sarebbe come
l’industrializzazione senza l’elettricità nell’era industriale”
(Castells 2001, p. 251) 76.
D’altra parte, come già sottolineato, il modello di sviluppo
del capitalismo informazionale, fondato sulle ICT, le reti di
comunicazione e la valorizzazione delle risorse di conoscenza e
informazione, implica per sua stessa natura una dinamica di
integrazione selettiva e sviluppo irregolare, che contempla allo
Capitolo III 168
stesso tempo una vertiginosa crescita della ricchezza a beneficio
di pochi e l’aumento del numero di persone che versano in
condizioni di povertà, inclusione ed esclusione sociale. Non solo
gli sforzi dei Paesi più poveri per entrare a far parte delle reti
dell’accumulazione capitalista si traducono spesso in un
incremento delle disuguaglianze interne e in un inasprimento dei
processi di esclusione sociale, ma anche le realtà “incluse”,
collegate ai flussi di capitale e informazioni, lo sono per lo più in
condizioni di subalternità rispetto agli attori dominanti e
finiscono quindi per patirne gli effetti più che raccoglierne i
benefici (ibid.).
La connessione di individui, comunità, regioni e paesi alle
reti globali della produzione di valore, ricchezza e informazioni,
non assicura ovviamente di per se il dispiegarsi di processi di
inclusione sociale di queste realtà; al contrario, date certe
condizioni, può paradossalmente finire per incrementarne
esclusione, isolamento e marginalizzazione – processi che, giova
ricordarlo, non sono necessariamente associati a situazione di
povertà o difficoltà economica, ma possono derivare
dall’indebolimento dei legami sociali e delle reti di protezione,
dalla mancanza di un’adeguata vita relazionale, dalla difficoltà
ad accedere alle risorse della cultura e dello svago, dal
disgregamento, cioè, delle basi materiali su cui si fonda la
costruzione delle identità. In questo senso, dunque, a innescare
processi di esclusione e isolamento sociale possono intervenire
anche i fenomeni di “schizofrenia sociale” legati
all’inconciliabilità, più volte ricordata, fra l’universalismo
astratto delle logiche strumentali che orientano i processi
dominanti della società in rete nello spazio dei flussi e i valori
culturali radicati nelle relazioni e nei significati condivisi che
invece segnano l’esperienza delle persone nello spazio dei luoghi.
Spazi Pubblici Digitali 169
La prospettiva imperniata sui concetti di inclusione ed
esclusione sociale si rileva allora particolarmente adeguata a
cogliere le due relazioni dinamiche fondamentali e parallele che
segnano il dispiegarsi della società in rete e delle sue linee di
contraddizione: vale a dire il rapporto dialettico fra la Rete e le
identità, da un lato, e fra i flussi e i luoghi, dall’altro (Castells
1996, 1997). “Il concetto di inclusione sociale riflette in modo
particolarmente adeguato gli imperativi dell’attuale età
dell’informazione, in cui sono venute alla ribalta le tematiche
dell’identità, del linguaggio, della partecipazione sociale, della
comunità e della società civile” (Warschauer (2003, p. 9,
traduzione mia). Le questioni dell’identità e della dimensione
locale, nel loro rapporto con le reti e i flussi globali, sono dunque
cruciali nell’articolazione delle politiche intese a conciliare
sviluppo tecnologico ed economico con giustizia e inclusione
sociale nell’età dell’informazione (Castells e Himanem 2002).
La maggior parte degli individui che esperiscono la realtà
sociale nello spazio dei luoghi, sconnessi dalle reti o connessi in
condizioni di subalternità come attori della produzione e del
consumo, si ritrova sottomessa ai flussi lontani e disincarnati che
ne indirizzano le esperienze mediate e le prospettive di esistenza.
I processi di privatizzazione e mercificazione spinta
dell’informazione, della cultura e dell’intrattenimento messi in
atto dalle corporations globali che controllano media e sistemi
simbolici, impattano sulle reali possibilità degli individui di
godere di tali risorse e quindi sul loro livello di partecipazione
alla vita sociale integrata dai media. Il sistema dei media
contemporaneo, e l’immensa concentrazione di potere simbolico
che esso costituisce, genera di per se una dimensione di
disuguaglianza sociale (Couldry 2002). La personalizzazione del
consumo mediale resa possibile dalle tecnologie e dai formati
Capitolo III 170
digitali genera inoltre un ulteriore livello di stratificazione
sociale degli usi, legata non solo alla provenienza sociale ma
anche alle differenze culturali e di istruzione (Castells 1996).
Secondo Wellman (2001) Internet ha contribuito al
passaggio da una società basata sui gruppi ad una società fondata
sulle reti che ridefinisce i confini della comunità e della
vicinanza geografica e costituisce il terreno fertile per
l’individualismo in rete (networked individualism) (Castells
1996, 2001; Wellman 2001).
Chi è in grado e ha la possibilità di padroneggiare i nuovi
ambienti e i nuovi strumenti digitali li piega alle proprie esigenze
per dar vita a nuove forme di socialità improntate ad una
relazione simbiotica fra i luoghi fisici in cui vive e le reti
attraverso cui estende il proprio raggio di azione e
comunicazione. Queste forme di socialità sfruttano efficacemente
le potenzialità connettive e interattive delle nuove tecnologie per
ricostruire dal basso legame e cooperazione sociale e in alcuni
casi addirittura per “mobilitare lo spazio dei flussi”, ossia
utilizzare Internet e la logica di rete per fini sociali. Ma chi non è
in grado o non ha la possibilità di sostenere il ritmo vorticoso
dell’innovazione e del cambiamento, appropriandosi delle
tecnologie per soddisfare i propri bisogni autoderminati di
comunicazione e informazione, finisce invece per essere
interagito da – più che interagire con (Castells 1996) – la massa
di contenuti multimediali omologati e preconfezionati, mentre
viene privato dai meccanismi astratti della razionalizzazione
tecnocratica della possibilità di determinare e controllare la
propria vita, i propri ambienti e i propri codici culturali. In
queste condizioni il ritiro in una socialità e in un intrattenimento
privatizzati e addomesticati, raggiunti senza sforzo grazie alla
pervasività delle nuove tecnologie, può condurre in effetti
Spazi Pubblici Digitali 171
all’erosione, più che ad un rafforzamento delle “reti sociali”, e ad
un progressivo processo di isolamento e conseguente
marginalizzazione.
2. Le geografie della società in rete
2.1 Geografie della comunicazione
Le nuove tecnologie e le forme sociali ed economiche da
queste plasmate sono spesso state superficialmente descritte ed
esaltate come realtà in grado di prescindere da qualsiasi
dimensione spaziale e di trascendere – o uccidere … – le distanze
(Bonora 2001; Ortoleva 2001). Eppure le reti che ne
costituiscono la manifestazione più eclatante e dirompente sono,
in quanto tali, l’espressione di una certa organizzazione e
modellazione dello spazio. Osservata nel suo insieme Internet è il
risultato del collegamento progressivo di una quantità
impressionante di reti e sottoreti di computer, auto-organizzate
in modo semigerarchico sulla base di una molteplicità di snodi
principali (hubs) e di zone periferiche punteggiate di nodi
connessi tra loro in diversa misura, che concorrono a disegnare
nello spazio un complesso reticolare (Buchanan 2003). La
società e l’economia informazionale, in quanto fondate sul
funzionamento di tali reti, possiedono di fatto alcune peculiari
dinamiche spaziali, modellate dall’interazione fra i circuiti
comunicativi incarnati nelle infrastrutture di telecomunicazione
e nei dispositivi di collegamento, e i luoghi che questi
attraversano.
Come accennato in precedenza, l’esclusione sociale colpisce,
oltre che individui, gruppi sociali e famiglie, anche i territori
(quartieri, città, regioni, interi Paesi), secondo dinamiche che si
Capitolo III 172
differenziano dai tradizionali processi di segregazione spaziale e
riguardano piuttosto la capacità dell’economia e del sistema
informazionale di mettere in collegamento transterritoriale le
aree e i segmenti di società in grado di offrire valore sulle reti
globali, scaricando al contempo quelle realtà locali di scarso
interesse dal punto di vista dell’accumulazione capitalista. Le
dinamiche di esclusione e inclusione che interessano aree e
territori, danno luogo dunque ad una geografia peculiare della
società in rete che va a integrare le tradizionali distribuzioni
spaziali del potere e della ricchezza e articola i rapporti fra le reti
di comunicazione e i territori (Bonora 2001).
Sono gli stessi processi di moltiplicazione, frammentazione e
specializzazione delle reti, d’altra parte, a negare la presunta
isotopia del paradigma reticolare e a svelarne piuttosto i
caratteri di stratificazione, organizzazione gerarchica e
complessità di relazioni con i territori: le reti si differenziano,
così, nettamente in reti orizzontali, a carattere operativo, e reti
verticali, a carattere gestionale-decisionale; o ancora, più
drasticamente, in una minoranza di reti attive, nella diffusione di
significati, di senso, di innovazioni, e nella marea di reti passive,
i cui utenti si limitano a consumare o a eseguire compiti. Come
sottolinea Bonora (2001, p. 17-18) “bisogna saper distinguere
allora tra reti di significati, valori, codici condivisi, in cui la
comunicazione è frutto di reciprocità, di scambio paritario,
generatrici di coesione, dai circuiti funzionali, il cui scopo è la
mera trasmissione, il trasferimento, la velocizzazione del
comando, l’organizzazione e il coordinamento” – la
pianificazione e il controllo della razionalizzazione tecnocratica
– e nei quali “dobbiamo riconoscere flussi gerarchici, polarizzati,
unilaterali e squilibrati, in cui l’emittente trasmette le proprie
Spazi Pubblici Digitali 173
informazioni-decisioni e il ricevente ha ruolo subordinato di
(intelligente) esecutore”.
In un’indagine orientata a svelare quali nuovi schemi di
inclusione/esclusione stia progressivamente sviluppando la
diffusione delle ICT nelle città di tutto il mondo, Stephen
Graham e Simon Marvin (2001) hanno mostrato come le reti
infrastrutturali stiano frammentando le aree urbane sia nei paesi
sviluppati sia in quelli in via di sviluppo. La competizione sul
mercato e le politiche di deregulation hanno creato differenze
straordinarie nella capacità di connettersi in rete in maniera
efficiente tra le città e all’interno delle città in tutto il mondo. Di
conseguenza, nel mondo, le aree chiave delle imprese vengono
equipaggiate con motori per le telecomunicazioni
all’avanguardia, formando dei “nodi glocali” (ibid.), vale a dire,
aree specifiche che si collegano attraverso il pianeta con aree
equivalenti in altre parti del mondo, rimanendo invece
disconnesse dal proprio hinterland. L’arretratezza degli spazi
svalutati nelle loro infrastrutture di telecomunicazioni rafforza il
loro isolamento e scava le trincee della loro esistenza basata sul
luogo. “Un nuovo dualismo urbano sta emergendo tra spazio dei
flussi e spazio dei luoghi: lo spazio dei flussi collega i luoghi
distanti sulla base del loro valore di mercato, della loro selezione
sociale e della loro superiorità infrastrutturale; lo spazio dei
luoghi che isola le persone nei loro quartieri come conseguenza
delle loro diminuite possibilità di accedere ad una località
migliore (a causa delle barriere dei prezzi), e anche alla globalità
(a causa della mancanza di un’adeguata connettività)” (Castells
2001).
Capitolo III 174
2.2 La relazione fra lo spazio dei flussi e lo spazio
dei luoghi
Le geografie della comunicazione (e dell’esclusione in rete)
sono attraversate dalla dialettica fondamentale, evidenziata da
Castells, fra lo spazio dei flussi, in cui operano le reti del
capitale, della finanza, dei media transnazionali, e lo spazio dei
luoghi, in cui si concentrano il lavoro, il consumo e la vita
quotidiana delle persone e in cui si accumulano le conseguenze
materiali della sconnessione dalle reti globali (Castells 1996).
Una dialettica in grado di sussumere l’opposizione fondamentale
fra globalità e localismo, articolandola in una relazione
contraddittoria oscillante fra complementarietà e conflitto.
Le metropoli e le “megacittà” (Castells 1996), in cui vive una
quota maggioritaria e in crescita della popolazione mondiale,
sono gli snodi fondamentali di questa dialettica. Esse
partecipano infatti, a diverso livello, di entrambe le articolazioni
spaziali, costituite allo stesso tempo di luoghi fisici e di flussi
elettronici, in continua interazione fra loro. La “città globale”
descritta da Sassen (1991) si presta a rappresentare il paradigma
di questa ambivalente sovrapposizione funzionale fra i flussi e i
luoghi: il concetto si riferisce infatti all’articolazione globale fra
specifici segmenti di diverse metropoli (in particolare i nodi
strategici di Londra, New York e Tokyo), tra loro collegati
elettronicamente per costituire una rete di controllo delle attività
dell’intero pianeta. Da un altro punto di vista si può notare come
la vita quotidiana nei luoghi delle metropoli sia segnata
dall’incessante interazione con sistemi di informazioni che
operano nello spazio dei flussi: quest’ultimo è radicato nello
spazio dei luoghi, ma nondimeno le due logiche sono
profondamente diverse.
Spazi Pubblici Digitali 175
Lo spazio dei flussi origina dalla contemporanea dispersione
e concentrazione dei servizi avanzati che costituiscono il nucleo
di tutti i processi economici dell’economia informazionale e
consistono nella generazione e nel trattamento di conoscenza e,
appunto, flussi di informazione (Castells 1996). Se i processi
dominanti della nostra vita economica, politica e simbolica sono
espressi da flussi (di capitale, informazione, tecnologia,
immagini, suoni, simboli), allora il loro supporto materiale sarà
l’insieme degli elementi che supportano tali flussi. Lo spazio dei
flussi è descritto da tre strati di supporti materiali: “un circuito
di scambi elettronici”, ossia l’infrastruttura tecnologica della
rete; “nodi e snodi”, organizzati secondo una gerarchia variabile,
che coordinano i diversi elementi delle reti e svolgono funzioni
chiave al loro interno; “l’organizzazione spaziale delle elite
manageriali dominanti” che, al fine di conservare il dominio
tramite il possesso dei “codici culturali”, opera secondo la
duplice dinamica di una autosegregazione simbolica (e in alcuni
casi fisica, nelle “comunità recintate”) e di un’omologazione
globale degli stili di vita e dell’ambiente simbolico e
architettonico dell’elite.
Secondo Castells (1996, p. 542) nelle condizioni della società
in rete, in cui il capitale si differenzia e si coordina globalmente e
il lavoro si frammenta e si individualizza, "la lotta di classe fra
capitalisti diversificati e classi operaie miscellanee è sussunta
nella più fondamentale contrapposizione tra la nuda logica dei
flussi di capitale e i valori culturali dell'esperienza umana" che si
svolge nello spazio dei luoghi.
Nel processo di espansione della filiera produttiva e della
catena del valore “oltre le mura della fabbrica”, luoghi e territori
fisici sono integrati nelle dinamiche della valorizzazione e della
competizione economica basate sul potere connettivo delle reti e
Capitolo III 176
delle tecnologie dell’informazione. Saperi incarnati nel tessuto
sociale, caratteri storici e culturali, infrastrutture fisiche e
logiche, istituzioni locali, livelli di qualità della vita, immagini e
riflessi; le risorse che emanano dal territorio svolgono dunque il
ruolo di assets da giocare nella competizione globale per attrarre
attività economiche redditizie (Bonomi 1999; Castells 1996). “I
sistemi locali rappresentano sotto questo profilo perfetti
comparti produttivi, dove tutta la società, il tessuto delle intese e
delle relazioni, i legami fiduciari, la comunanza di obiettivi e di
valori, sono coniugati in un'unica direzione” (Bonora 2001, p. 9).
D’altra parte questa integrazione nei flussi globali, se evita
marginalità ed esclusione dalle reti, comporta anche il più delle
volte relazioni di dipendenza e l’erosione delle risorse culturali
per via della loro “mercificazione” (p. 22-23, 31).
Parallelamente i processi di innovazione tecnologica e
sociale relativi ai nuovi media sono fortemente influenzati e
indirizzati dai caratteri della località. Vediamone tre esempi. In
primo luogo la stessa produzione dell’innovazione tecnologica
che ha dato il via e che alimenta l’economia inormazionale è
legata alle condizioni di prossimità spaziale e alla specifica
localizzazione dei milieux d’innovazione. Poi, lo sviluppo
commerciale di Internet presenta forti connotazioni spaziali
riscontrabili nella dislocazione fisica di routers e dorsali e nella
geografia delle coperture satellitari e della produzione di
software e contenuti (Castells 2001; vedi paragrafo seguente).
Infine, Le tecnologie wireless a banda larga, indicate da molti
osservatori e analisti come la promessa di una connettività
universale e ubiqua, si prestano dal canto loro a dar forma ad
una realtà, “aumentata” dalle reti mobili di comunicazione ma
vissuta (e condivisa) nello spazio fisico, in cui network sociali,
Spazi Pubblici Digitali 177
fisici e virtuali si mescolano per dar vita a nuove configurazioni
sociali ibride mediate dalle tecnologie (Rheingold 2002).
Le forze che più spingono verso la deterritorializzazione
delle relazioni sociali (lo sviluppo dell’economia informazionale
globale e quello delle reti di comunicazione) sono allora
paradossalmente le stesse che ridanno centralità ai luoghi. In
tale cortocircuito le risorse della “località” acquistano però un
valore che è tale non più per le comunità che le producono e le
incarnano, ma per gli attori globali che detengono il potere di
connettere e sconnettere i nodi delle reti e sottomettono tali
risorse alle logiche strumentali dell’economia informazionale.
Ruolo degli attori istituzionali pubblici e privati, allora, dovrebbe
e potrebbe essere quello di ristabilire una centralità dei luoghi
connessi in rete che ridia autonomia alle comunità che li abitano,
incrementando allo stesso tempo le opportunità di accesso e uso
efficace delle nuove tecnologie, e concentrandosi più che sul
“valore di scambio dei luoghi (e delle loro immagini)”, sul loro
“valore d’uso da parte delle collettività” (Bonora 2001).
2.3 La geografia di Internet
Costituendo Internet il principale ambiente di
comunicazione della "rete globale", gli squilibri e le dinamiche
spaziali fin qui evidenziate si intrecciano e in parte si
sovrappongono alla complessiva geografia di Internet (Castells
2001, cap. 8). Quest’ultima, riaffermando peraltro la centralità
delle coordinate spaziali pur nel contesto della complessiva
ridefinizione delle distanze operata dalle ICT, si riferisce alla
dislocazione fisica nel pianeta delle infrastrutture di
telecomunicazione, dei centri di produzione, elaborazione,
trasmissione e fruizione dei formati digitali che danno forma e
Capitolo III 178
sostanza ad Internet, e dei luoghi connessi e attraversati dai
flussi informazionali. La geografia di Internet è a sua volta
coerente con il più ampio paesaggio delle telecomunicazioni e
dell’industria culturale e con le loro “cartografie”, ed è integrata
nelle discontinuità della geografia fisico-politico-economica del
pianeta 77.
Concentrando in particolare la nostra attenzione sulle
dinamiche di esclusione e disuguaglianza nella società in rete
legate alla relazione costitutiva fra flussi e luoghi, possiamo
distinguere, con Castells (2001, p. 195-210) tre prospettive da cui
osservare la dimensione geografica di Internet – vale a dire del
medium su cui si basa in larga parte questa inedita
configurazione sociale – e le relative disuguaglianze che vanno a
comporre parte dello scenario del digital divide: la geografia
tecnologica, la geografia degli utenti e la geografia della
produzione di Internet.
2.3.1 La geografia tecnologica
La geografia tecnologica si riferisce al paesaggio disegnato
dalle linee e dalle tecnologie di telecomunicazione dedicate al
traffico di pacchetti di dati su Internet 78. Essa concerne, quindi,
la dislocazione geografica dei grandi cavi sottomarini e terrestri
e dei satelliti geostazionari che forniscono connettività alle
diverse aree del pianeta, insieme a quella dei principali router
che instradano il traffico Internet fra gli ISP (Internet Service
Provider) di primo livello; da queste infrastrutture di base, che
costituiscono la “dorsale” di Internet, e dalle reti fisiche che
raggiungono i singoli Paesi, dipende inoltre l’ampiezza di banda
di cui questi ultimi dispongono.
Da tale prospettiva geografica emerge dunque una
distribuzione territorialmente irregolare delle infrastrutture di
Spazi Pubblici Digitali 179
rete e, di conseguenza, dell’ampiezza di banda disponibile, con
un deciso squilibrio a favore del Nord America, che in effetti
concentra la maggior parte dei flussi di traffico IP – in molti casi
anche solo come tappa di passaggio intermedia 79. A seguire, nella
graduatoria dell’ampiezza di banda disponibile, si posizionano,
nell’ordine, Europa e Asia, più indietro Oceania e America Latina
e, staccatissima, l’Africa (figura 1). Questo quadro complessivo si
riflette nelle marcate discontinuità presenti anche all’interno dei
continenti fra aree geografiche e singoli Paesi e, aumentando
ulteriormente la risoluzione, nella distribuzione irregolare della
qualità della connessione fra le regioni di un Paese o le zone di
un’area metropolitana 80. In un ottica complessiva, “[…] la
dipendenza dagli Stati Uniti viene progressivamente rimpiazzata
dalla dipendenza tecnologica da un network di reti a banda larga
che collega la maggior parte dei principali centri metropolitani
del mondo con i nodi principali in larga misura ancora localizzati
negli USA” (Castells 2001. p. 197).
Capitolo III 180
Figura 1. Ampiezza di banda disponibile per diverse aree geografiche. 2004.
Fonte: www.telegeography.com
Le tecnologie wireless della “famiglia” 802.xx 81, impongono
poi una nuova dimensione locale alla geografia tecnologica di
Internet: le caratteristiche tecniche delle reti senza fili, basate
sulla codifica e la trasmissione di dati per mezzo di segnali radio
dalla portata più o meno estesa, ne rende l’accesso fortemente
dipendente dalla localizzazione dei dispositivi di trasmissione.
Da un lato, quindi, questo insieme di tecnologie, esente dai costi
e dalla “pesantezza” delle infrastrutture su cavo (rame e fibra),
promette di fornire una soluzione ai problemi infrastrutturali che
minano quantità e qualità dell’accesso ad Internet nelle zone
remote e nei Paesi in via di sviluppo (Press 2003) 82; dall’altra
rischia di riproporre le dinamiche di disuguaglianza ad un
diverso livello, con zone servite dalla connettività ubiqua, mobile
Spazi Pubblici Digitali 181
e a banda larga fornita dalle reti senza fili di ultima generazione
e altre tagliate fuori dall’innovazione tecnologica e dai relativi
benefici 83.
Negli ultimi anni negli Stati Uniti, ma anche in Gran
Bretagna, Finlandia e Spagna, si sono moltiplicati progetti,
sostenuti dalle amministrazioni locali e dalla mobilitazione dal
basso di attivisti e piccoli operatori, volti a creare “reti wireless
municipali” o “comunitarie” complementari o alternative ai
sistemi tradizionali e agli operatori dominanti delle
telecomunicazioni; questi progetti si sono però dovuti
confrontare in molti casi con le resistenze opposte dalle
principali compagnie di telecomunicazione e con le
regolamentazioni delle agenzie governative del settore tese a
favorire le posizioni di mercato consolidate 84.
2.3.2 La geografia dell’accesso
La seconda prospettiva geografica relativa ad Internet, è la
geografia dell’accesso (o degli utenti; Castells 2001, p. 197), vale
a dire la distribuzione territoriale, estremamente disomogenea,
della popolazione in condizioni di accedere ad Internet, sia in
termini assoluti che in proporzione al numero di abitanti. Tale
disparità geografica nell’accesso costituisce una delle dimensioni
indagate nell’ambito degli studi e delle analisi sul cosiddetto
digital divide.
In questa sede, i dati relativi all’accesso vengono presentati
esclusivamente per operare un confronto macroscopico fra i
diversi livelli di diffusione di Internet per aree geografiche e
sottolineare in questo modo uno degli aspetti della dimensione
spaziale fra globale e locale delle ICT e di Internet in particolare.
I limiti della concezione ristretta di accesso cui si riferiscono
questi dati – limiti che verranno indagati nel terzo paragrafo –
Capitolo III 182
non incidono più di tanto sulla definizione di questa dimensione
spaziale.
In effetti la dimensione territoriale si rivela una componente
fondamentale delle disparità nell’intensità e nella qualità
(stabilità e ampiezza di banda) dell’accesso ad Internet, legata
d’altronde alla geografia tecnologica appena discussa. All’interno
dei singoli Paesi si riscontrano linee di demarcazione fra regioni,
fra aree urbane e rurali, fra città e fra zone di una stessa città; i
livelli di disuguaglianza diventano macroscopici se si prendono
in considerazione le differenze fra grandi aree geografiche o fra
Paesi; in questi ultimi una minore diffusione delle nuove
tecnologie si accompagna di solito a sua volta a maggiori
squilibri interni, su base geografica ma non solo.
Le elaborazioni statistiche effettuate da diverse
organizzazioni sulla base dei dati pubblicati da organismi
internazionali come l’ITU 85 e da istituti di consulenza privati
come Nielsen-NetRatings, oltre che da agenzie governative o
private locali, ci aiutano a fornire un quadro d’insieme
approssimativo della diseguale distribuzione dell’accesso ad
Internet a livello globale. I dati più recenti (febbraio-marzo
2005), raccolti ed elaborati sul sito Internet World Stats,
indicano un numero complessivo di circa 890 milioni di “utenti”
Internet 86 nel mondo, con un incremento di quasi due volte
rispetto al dicembre 2000 e corrispondente al 13,9 % della
popolazione mondiale. Lo squilibrio nella distribuzione globale
di Internet è evidente se si prende in considerazione la
percentuale di utenti rispetto alla popolazione complessiva delle
diverse aree geografiche (figura 2).
Il Nord America (con il 24,9 % degli utenti mondiali) guida
nettamente la classifica con un tasso di penetrazione del 67,4 % e
percentuali molto simili per Stati Uniti e Canada; a seguire
Spazi Pubblici Digitali 183
troviamo l’Oceania, che conta per un 1,8 % dell’utenza mondiale,
ma presenta un tasso del 48,6 %, a cui contribuiscono però
soprattutto i valori di Australia e Nuova Zelanda. In Europa
(29,2 % sul totale) la media di 35,5 utenti su 100 è viziata da
forti squilibri interni che vedono tassi di penetrazione stimati fra
il 35 e il 70 % per la maggior parte dell’”Europa dei 15”, per
alcuni dei Paesi di recente integrazione e per pochi altri come
Norvegia, Svizzera e Islanda, e valori decisamente più bassi per
la maggior parte dei Paesi dell’Est e per la Grecia. L’America
Latina, con una quota del 6,3 % e una media di penetrazione del
10,3 %, è anch’essa caratterizzata da forti disuguaglianze al suo
interno, con percentuali più alte della media, in ordine crescente,
per Perù, Brasile, Argentina, Costa Rica e soprattutto Cile e
Uruguay. Situazione simile per l’Asia – in cui, nonostante una
quota sul totale del 34 %, determinata dall’elevato numero di
abitanti, e percentuali per alcuni Paesi tra le più alte al mondo
(Hong Kong, Giappone, Corea del Sud, Singapore, Taiwan) la
penetrazione media non supera l’8,4%; e per il Medio Oriente
(appena il 2,2 % del totale), in cui il valore medio di 7,5 % è il
frutto di una penetrazione sostenuta solo in Israele e media in
alcuni emirati e in Libano. In fondo alla classifica, nettamente
distanziata, l’Africa, nonostante ospiti il 14 % della popolazione
mondiale, conta solo per un misero 1,5 % degli utenti totali di
Internet e presenta un uguale valore del tasso di penetrazione, a
cui contribuiscono però ben pochi Paesi: Sud Africa ed Egitto,
che insieme concentrano quasi la metà di tutti gli utenti Internet
dell’Africa, poi Marocco, Tunisia e Nigeria e i piccoli Stati-isola
mete del turismo esotico internazionale, tutti comunque con
valori inferiori al 10 %.
Nonostante l’impetuosa crescita del numero degli utenti
(addirittura 55 volte quello stimato nel 1995, anno di debutto del
Capitolo III 184
Web e avvio dell’Internet “di massa”), la globalità di Internet e le
idee di un “universalismo senza totalità” (Levy 1994), di una
“morte delle distanze” e della fine della geografia si sono rivelate
nel migliore dei casi “pie illusioni”, e nel peggiore vere e proprie
mistificazioni (Bonora 2001; Ortoleva 2001): anche solo la
semplice e generica possibilità di accedere ad Internet è
riservata, secondo queste stime, a meno di un ottavo della
popolazione mondiale, concentrato per lo più sulle due sponde
dell’Atlantico, in alcune aree dell’Asia e dell’Oceania e in pochi
Spazi Pubblici Digitali 185
Figura 2. Penetrazione di Internet e percentuale degli utenti sul totale per ciascun Paese. Settembre 2004.
Fonte: www.zooknic.com
Capitolo III 186
Paesi dell’America Latina e del Medio Oriente; senza considerare
che a livello di singolo Paese si registrano comunque, in misura
variabile, ulteriori disparità nell’accesso, legate, oltre che alla
dimensione spaziale, anche e soprattutto alle condizioni socio-
economiche. Da un punto di vista complessivo, lo squilibrio
globale nell’accesso ad Internet è ben riassunto dal dato secondo
cui i primi 20 Paesi per numero assoluto di “utenti” Internet
raggruppano l’81,9 % degli utenti mondiali 87.
Il continente africano rimane quasi completamente tagliato
fuori da questa opportunità, se si esclude un numero ridotto di
Paesi, in cui i tassi di penetrazione rimangono comunque molto
bassi. Le dinamiche di crescita recenti – ovviamente più intense
nei Paesi in cui livelli di diffusione iniziali erano più bassi – non
hanno intaccato in maniera sostanziale gli squilibri globali e nei
Paesi in via di sviluppo hanno finito per aggravare quelli interni,
incrementando dotazione tecnologica e possibilità di accesso alla
Rete delle elites, residenti nei centri urbani e appartenenti alle
classi sociali più elevate.
Gli squilibri geografici nella diffusione di Internet all’interno
dei singoli Paesi sono molto significativi un po’ dappertutto e si
rivelano, per altro, tra i più persistenti: nonostante, infatti,
l’incremento della penetrazione di Internet si traduca in quasi
tutti i Paesi più sviluppati in una riduzione delle disuguaglianze
nell’accesso lungo le principali linee di demarcazione socio-
economica (Di Maggio e Hargittai 2001), rilevanti divari
geografici nell’intensità e nella qualità dell’accesso – fra aree
urbane e rurali, fra città di diverse dimensioni e addirittura fra
diverse aree di una stessa città – permangono negli Stati Uniti
(NTIA 2000) e in molti Paesi europei integrati o meno nel
processo di unificazione, peraltro con un’anomala e curiosa
eccezione rappresentata dall’Italia (Commissione Europea 2005).
Spazi Pubblici Digitali 187
Se queste disuguaglianze sono certamente legate ai fattori
socioeconomici che continuano a determinare il grado di accesso
alle ICT (reddito, istruzione ed età su tutti) e che si
sovrappongono alla distribuzione geografica, nondimeno la
geografia tecnologica di Internet gioca in esse un ruolo
importante. Il fenomeno è poi ancora più accentuato nella
maggior parte dei Paesi in via di Sviluppo con tassi di
penetrazione significativi (Warschauer 2003; Servon 2002).
Oltre alla stima del numero di utenti, l’altro metodo di solito
utilizzato per misurare l’estensione di Internet e gli squilibri
nella sua diffusione geografica è il calcolo, rispettivamente, del
numero totale e della densità in ogni Paese degli Internet hosts,
cioè dei dispositivi connessi alla Rete e dotati di un “indirizzo IP”
attivo. Il primo valore fornisce un’indicazione della dimensione
minima raggiunta dalla Rete nel suo complesso, in quanto non
esiste una correlazione diretta fra numero di hosts e utenti e un
host può corrispondere ad un singolo computer come ad un
server che “nasconde” un’intera rete locale. Questo valore,
rimasto su valori bassi fino a tutti gli anni Ottanta (313.000
hosts nel 1990) è cresciuto in maniera esponenziale
dall’esplosione del Web a metà degli anni Novanta fino ad oggi,
passando dai 5 milioni del 1995 agli attuali 318.
Il secondo valore, relativo alla distribuzione geografica degli
hosts in termini assoluti e relativi (figure 3 e 4), è a sua volta
soggetto ad un margine di errore, legato all’impossibilità di
assegnare in modo univoco un host ad una determinata
collocazione geografica. In realtà questo metodo non stabilisce la
collocazione geografica di un determinato dispositivo connesso
alla Rete ma quella corrispondente al “dominio di primo livello”
del suo indirizzo IP 88. I valori effettivamente riscontrati per i
singoli Paesi e parzialmente corretti per tener conto di queste
Capitolo III 188
imprecisioni, ricalcano a grandi linee gli squilibri osservati nella
distribuzione degli utenti, seppure con alcune eccezioni. Da un
lato, infatti, si evidenzia il maggior “peso” di alcuni tra i Paesi
più “connessi” nella concentrazione di host rispetto alla
percentuale di utenti, bilanciato comunque da un netto
predominio del Nord
America, ed in particolare degli Stati Uniti, i quali
concentrano il 62 % degli hosts mondiali 89; dall’altro si osserva,
però, un vantaggio ancora maggiore, nella concentrazione degli
hosts, a favore di quei Paesi e quelle aree già con tassi di
penetrazione più alti.
Figura 3. Numero di host Internet ogni 1000 abitanti per ciascun Paese del Mondo. Dicembre 2004.
Fonte: www.gandalf.it
Spazi Pubblici Digitali 189
Figura 4. Numero di host Internet ogni 1000 abitanti per ciascun Paese Europeo. Dicembre 2004.
Fonte: www.gandalf.it
2.3.3 La geografia della produzione
Nell’indagare le discontinuità spaziali che segnano la
diseguale diffusione di Internet, la natura del mezzo fa sì che alla
valutazione della distribuzione geografica dei semplici fruitori si
debba necessariamente aggiungere quella relativa ai fornitori,
vale a dire ai “nodi” della Rete che generano, processano e
distribuiscono informazioni. In questo modo si evidenza una
nuova fondamentale prospettiva geografica da cui osservare le
disuguaglianze digitali, quella relativa alla produzione non solo
dei contenuti, ma anche dei servizi, del software e delle
tecnologie, che costituiscono la Rete delle reti e il Web; mentre è
possibile ipotizzare che negli anni a venire l’uso di Internet si
Capitolo III 190
diffonda anche al di là delle attuali barriere geografiche e sociali,
questa geografia economica della produzione di Internet si
rivela invece più selettiva e ancorata ai tradizionali modelli di
dipendenza culturale ed economica verso un esiguo numero di
Paesi e addirittura di aree circoscritte al loro interno.
La produzione dei dispositivi e delle tecnologie alla base di
Internet si intreccia alla più complessiva produzione di ICT e si
concentra in effetti in pochi nodi tecnologici globali, in cui
grandi imprese, start-up e piccoli fornitori intessono reti
produttive a partire da pochi milieux d’innovazione gravitanti
intorno a grandi aree metropolitane, vecchie o nuove,
riconvertite dalle vecchie funzioni industriali o di nuova
informazionalizzazione (Castells 1996). Un modello
d’insediamento simile si registra anche per le società di software,
per i service providers e per le società che gestiscono i principali
portali che costituiscono la soglia d’ingresso per la maggior parte
degli utenti della Rete (Castells 2001). Le politiche di
esternalizzazione e delocalizzazione di molte aziende hi-tech
hanno in parte sostenuto lo sviluppo di alcuni altri nodi
tecnologici sussidiari sparsi per il mondo (come Bangalore in
India per il software, o l’area di Pudong, di fronte a Shangai, in
Cina per le componenti elettroniche, o il cosiddetto
“supercorridoio multimediale” in Malesia), ma il più delle volte
questi nodi si sono costituiti come vere e proprie enclaves di
ricchezza e innovazione, imprigionati comunque in ruoli
subalterni rispetto alle grandi corporations statunitensi, europee
e giapponesi e in stridente contrasto con contesti nazionali
caratterizzati non solo dal forte ritardo tecnologico, ma anche dai
fenomeni della povertà e dell’esclusione sociale.
La produzione di Internet non si limita alle società che
fabbricano le tecnologie o sviluppano software e servizi. La
Spazi Pubblici Digitali 191
geografia di Internet è anche e soprattutto segnata dalla
distribuzione dei soggetti che forniscono i contenuti, registrando
un dominio e immettendo, processando e distribuendo
informazioni. La distribuzione territoriale dei provider di
contenuto di Internet, sulla base dell’indirizzo postale di un
campione casuale di società proprietarie di un dominio, è stata
indagata tra il 1996 e il 2001 dal ricercatore americano Matthew
Zook per l’intero mondo, l’Europa, gli Stati Uniti e per 2500 città
(Castells 2001) 90. I dati confermano sostanzialmente quanto già
rilevato rispetto alla produzione di tecnologie e servizi,
mostrando una concentrazione dei domini nei Paesi più
sviluppati, con un netto predominio degli Stati Uniti, e nelle aree
metropolitane, in particolare quelle più grandi. La
concentrazione dei domini a livello globale è però maggiore di
quella degli utenti, “a suggerire una crescente asimmetria fra
produzione e consumo dei contenuti di Internet, con gli Stati
Uniti che producono per tutti gli altri e il mondo sviluppato che
produce per il resto del mondo” (Castells 2001, p. 204). Anche
rispetto all’effettivo impatto dei contenuti, gli Stati Uniti
dominano nettamente sia la classifica del numero di pagine viste,
sia quella dei siti più visitati. In contrasto con la diffusione
dell’uso di Internet dalle sue zone originarie di sviluppo, la
fornitura di contenuti è sempre di più, ed in maniera
predominante, un fenomeno metropolitano: nel 2000 le 500 città
al mondo con il maggior numero di domini contavano per il 12,4
% della popolazione e per il 70 % di tutti i domini. Lo stesso
predominio degli Stati Uniti riflette in realtà l’altissima
concentrazione dei domini Internet nelle principali aree
metropolitane del Paese – e addirittura in alcune aree specifiche
di queste città –, che corrispondono più o meno alle stesse che
hanno dato il via allo sviluppo dell’Internet commerciale. Anche
Capitolo III 192
in un settore di attività, come la fornitura dei contenuti di
Internet, che sembrerebbe sganciato da grandi investimenti e
quindi più libero di svilupparsi in maniera decentrata e
delocalizzata, la concentrazione territoriale, in particolare
metropolitana, è invece la norma, risultando addirittura più alta
che in altre industrie.
La forza culturale ed economica delle metropoli le ha rese
l’ambiente privilegiato dello sviluppo delle tecnologie
dell’informazione e della comunicazione: la disponibilità di
infrastrutture, un ambiente culturale sensibile all’innovazione e
al cambiamento, la presenza di istituzioni accademiche e di
ricerca in cui conoscenze e informazioni possano entrare in
sinergia e, non meno importante, la presenza di capitale di
rischio pronto ad essere investito nello sviluppo e nella
commercializzazione dei nuovi prodotti, tutti questi elementi,
rafforzandosi a vicenda, hanno avvantaggiato i grandi nodi
globali costituiti dalle aree metropolitane delle economie
avanzate. Nel caso della fornitura dei contenuti, i fattori appena
elencati e l’ambiente d’innovazione e imprenditoriale a cui danno
luogo favoriscono a loro volta la concentrazione metropolitana
dei domini Internet; ad essa contribuisce inoltre la forte
presenza delle organizzazioni che producono e trattano
informazione (finanza, media, intrattenimento, formazione,
sanità, tecnologia). Anche nello scenario di un’”economia
immateriale” e globale, in cui le materie prime sono costituite da
creatività, informazione, conoscenza e capacità organizzative e
sinergiche, e l’attività produttiva è in grado di espandersi ben al
di là dei confini nazionali grazie alle reti e ai trasporti aerei, il
valore aggiunto di certi luoghi rispetto ad altri rimane
fondamentale, e anzi si rafforza, proprio in virtù del vantaggio in
Spazi Pubblici Digitali 193
termini di risorse culturali ed economiche accumulato in
precedenza.
Quasi a dare concretezza a questa rafforzata centralità dei
luoghi, in contrapposizione alla volatilità dei flussi
informazionali, il settore immobiliare continua a rappresentare
una cospicua fonte di guadagno, una delle principali leve del
potere economico e politico e uno dei più rilevanti indicatori
delle dinamiche economiche, anche, e in alcuni casi soprattutto,
nelle aree maggiormente coinvolte nella produzione di tecnologie
e servizi legati all’informazione e alla conoscenza. La rilevanza
del mercato immobiliare si può osservare, nel cuore stesso della
rivoluzione informatica, nell’andamento parallelo registrato nel
mercato dei titoli tecnologici e in quello dei prezzi degli immobili
della Silicon Valley, o nell’allarme suscitato dalla crisi che sta
attraversando da qualche mese il “mercato della casa” in tutta la
California. In Europa, gli sforzi compiuti dall’amministrazione di
Barcellona per dare alla città un nuovo volto informazionale, in
termini di immagine, ma anche di servizi e settori economici
trainanti, si sono concretizzati, tra l’altro, in progetti da milioni
di euro, finalizzati alla riqualificazione di alcune aree urbane
industriali, in vista di una loro trasformazione in “poli
tecnologici”, pronti ad ospitare importanti società multinazionali
nei settori dell’hi-tech e in quelli dei servizi informatici e
telematici. Ma finora, più che convogliare capitali e attività
economiche dei settori più innovativi, questi progetti hanno
innescato una dinamica di massicci investimenti e speculazioni
nel vecchio e conservatore mercato immobiliare, che da un lato
ha arricchito i pochi attori di un mercato fortemente
concentrato, e dall’altra ha fatto sentire i suoi effetti sulle già
precarie condizioni abitative delle classi sociali svantaggiate.
Capitolo III 194
3. Dal digital divide all’inclusione sociale nella società in rete
3.1 Il digital divide: origini e dimensioni principali
L’espressione digital divide è venuta alla ribalta negli Stati
Uniti a metà degli anni Novanta. Un intreccio di orientamenti
politici e interessi economici guidava allora l’enfasi posta
dall’amministrazione Clinton sulle “autostrade
dell’informazione”, sull’“infrastruttura globale
dell’informazione” e sulle opportunità messe a disposizione dalle
ICT per il progresso materiale e spirituale del popolo americano
e dell’umanità in generale (Morawski 2001). Orientamenti e
interessi, dunque, che miravano ad estendere e ad accelerare il
processo di ristrutturazione capitalista e la sua dimensione
tecnocratica, legittimandosi al contempo attraverso la promessa
di una società dell’informazione inclusiva che avrebbe eliminato
disuguaglianze ed esclusione sociale (Selwyn 2002).
Nel giro di pochi anni dalle sue prime apparizioni, il termine
digital divide ha rimpiazzato nell’agenda politica e mediatica le
definizioni coniate e diffusesi dall’inizio del decennio per
riferirsi alle disuguaglianze nell’accesso a e nell’uso delle risorse
di informazione (information inequality, information and
communication poverty, information haves and have-nots)
(Selwyn 2002) e indagare la relazione fra tali squilibri e le
disuguaglianze sociali ed economiche. Questi antecedenti del
digital divide, forse in alcuni casi (information inequality;
information poverty) più adatti a cogliere la gradualità dei
fenomeni osservati e l’aspetto cruciale delle disuguaglianze nella
società dell’informazione, avevano inoltre sollevato la questione
di come le “disuguaglianze di informazione” e quelle sociali
Spazi Pubblici Digitali 195
potessero essere entrambe inasprite o ridotte dall’avvento delle
nuove tecnologie (Wresh 1996; Selwyn 2002; Norris 2001).
In questo scenario il “digital divide” è emerso come
espressione politica della volontà di rimuovere gli ostacoli che
impedivano di realizzare davvero ciò che era stato promesso, cioè
maggiori opportunità economiche e sociali per tutti, nessuno
escluso. In una simile prospettiva, l’ostacolo maggiore sarebbe
rappresentato dall’impossibilità per le categorie sociali già
svantaggiate di accedere al computer e ad Internet e, in misura
minore e soprattutto nelle aree rurali, al telefono; impossibilità
che avrebbe l’effetto, al contrario, di inasprire le disuguaglianze.
La differenza fra chi ha accesso a queste tecnologie e chi no è
appunto un digital divide, una frattura, un “linea di
demarcazione” che separa la società mondiale in connessi e
disconnessi: nell’età dell’informazione la disuguaglianza
fondamentale è fra chi ha accesso all’informazione e alle relative
tecnologie e chi no (Wresh 1996). Per quanto nel corso del tempo
questa concezione si sia articolata e diversificata, se non altro
per rispondere alla progressiva penetrazione di questi strumenti
nelle società, essa rimane ancora oggi alla base della maggior
parte delle riflessioni, degli studi e, cosa più importante, delle
politiche e delle iniziative, che riguardano il digital divide.
Il presupposto più o meno implicito di tutti i discorsi, gli
studi e le ricerche sul digital divide è che nelle attuali società
dominate dall’informazione, dalla conoscenza e dalla
comunicazione, il mancato accesso a queste risorse e alle più
avanzate tecnologie che ne permettono la manipolazione e il
trattamento, tra cui i computer e Internet, costituisca di per se
un fattore di riduzione delle opportunità sociali ed economiche e
una fonte di esclusione sociale per individui, comunità e interi
Paesi. Parallelamente si istituisce un analogo legame fra l’accesso
Capitolo III 196
a queste tecnologie e la creazione di ricchezza, lo sviluppo
economico, l’inclusione sociale e un’ampia gamma di benefici per
gli individui connessi e la società nel suo complesso. Di
conseguenza obiettivo prioritario di governi e istituzioni
internazionali sarebbe bridging the digital divide, costruire un
ponte sulla frattura, attraversarla, superarla, colmarla, per
garantire ai cittadini e alle popolazioni un’eguale opportunità di
godere di questi benefici.
Il tema ha suscitato quindi l’interesse di diversi soggetti del
mondo politico, economico, accademico e della “società civile”:
governi e istituzioni un po’ in tutte le economie avanzate,
organismi e istituzioni internazionali (Banca Mondiale, OECD,
ONU, G8) e relative agenzie specializzate, fondazioni e società
for-profit e non, “organizzazioni non governative” e dipartimenti
di ricerca hanno cominciato ad indagare le dimensioni del
fenomeno, a proporre soluzioni e ad attuare interventi. L’accento
è stato posto fondamentalmente su due tipi di divario
nell’accesso alle nuove tecnologie (soprattutto computer e
Internet): da un lato il divario all’interno dei Paesi, alle volte
indagato in un’ottica comparativa; dall’altro le disuguaglianze
fra Paesi e aree geografiche. Nel primo caso si è parlato di un
social divide (Norris 2001). Nel secondo caso si è parlato invece
di global (ibid.; Servon 2002) o international divide(ad es.
Castells 2001). Un terzo “fossato digitale”, il democratic divide, è
stato indicato da Norris (2001) in riferimento alle differenze fra
chi fa e chi non fa uso delle nuove tecnologie per partecipare
attivamente alla vita pubblica e politica.
Le disparità nell’accesso alle tecnologie informatiche
sembrano innanzitutto riprodurre le condizioni di disuguaglianza
economica e sociale riscontrate in altri ambiti, finendo in molti
casi per aggravarle. Le prime indagini sul divario sociale, svolte
Spazi Pubblici Digitali 197
negli Stati Uniti dalla National Telecommunications and
Information Agency (NTIA) del Dipartimento del Commercio
americano, hanno rilevato, sulla base di analisi statistiche
bivariate, consistenti disparità nell’accesso a computer e Internet
legate all’appartenenza etnica, al reddito, all’istruzione,
all’occupazione, all’età, al genere, alla struttura familiare, alle
aree di residenza (zone urbane, rurali e inner cities) e alle
condizioni di disabilità (NTIA 1996, 1998; Carvin 2000; Cisler
2000). Nel corso degli anni, le analisi si sono fatte più articolate,
indagando un numero maggiore di variabili, individuandone le
interdipendenze e il peso relativo nel condizionare le probabilità
di accesso (analisi multivariata) e adottando una prospettiva
temporale, fondamentale per analizzare il processo di diffusione
delle tecnologie. Alcuni gap, quindi, si sono ridotti nel tempo,
fino a scomparire nel caso della disparità di genere, mentre altri
sono rimasti stabili, emersi ex novo o aumentati, via via che la
tecnologia e le sue applicazioni si diffondevano, progredivano e
si diversificavano (NTIA 1999, 2000; Servon 2002; Di Maggio et
al. 2001).
I dati sulla distribuzione irregolare dell’accesso alle nuove
tecnologie nei Paesi Europei (Commissione Europea 2005) e in
altri contesti ad economia avanzata hanno più o meno
confermato le tendenze osservate negli Stati Uniti, con alcune
differenze legate alle caratteristiche demografiche, agli specifici
modelli di stratificazione sociale, intervento pubblico e
regolamentazione dei mercati, e ad un complessivo, per quanto
in diminuzione, ritardo nella diffusione delle tecnologie
informatiche rispetto agli Stati Uniti. Ad esempio in quasi tutti i
Paesi Europei il gap di genere non si è ancora chiuso.
Nei Paesi in via di sviluppo mediamente le disparità
nell’accesso più accentuate rispetto a tutte le dimensioni
Capitolo III 198
fondamentali sopra osservate per gli Stati Uniti e con un gap
particolarmente significativo fra principali centri urbani e zone
rurali; nella maggior parte dei casi la causa di questa maggiore
stratificazione è da riconducibile a livelli di disuguaglianza
sociale più alti che nelle economie avanzate, come nel caso
dell’India, della Cina o del Brasile, o di processi di crescita
economica incontrollata (Warschauer 2003). Nei Paesi più
poveri, infine, i divari sono pressoché irrilevanti, dati i
bassissimi livelli di penetrazione delle nuove tecnologie, che
beneficiano solo ristrettissime elites.
Per quanto riguarda il divario globale, si è riscontrata,
abbastanza prevedibilmente, una forte correlazione positiva fra il
livello dello sviluppo economico e sociale e la quantità
dell’accesso ad Internet e alle nuove tecnologie (Norris 2001). Il
grado di penetrazione delle nuove tecnologie in un Paese (sempre
misurato in termini di accesso a computer e Internet) è
“previsto” con buona approssimazione dal prodotto interno lordo
pro capite, con poche eccezioni relative in particolare ad alcuni
Paesi in via di sviluppo in cui le iniziative congiunte di governo,
società civile e imprese hanno incrementato l’accesso a livelli più
alti di quanto non farebbe pensare il grado di sviluppo
economico (Norris 2001). Secondo ricerche riportate da
Warschauer (2003) i fattori più fortemente correlati con il
livello di accesso ad Internet, sono la densità delle linee
telefoniche e il grado di competizione nel settore delle
telecomunicazioni; entrambi sono peraltro decisivi nel
determinare i costi di connessione, anch’essi strettamente
correlati con il tasso di penetrazione. Altri fattori, in ordine di
importanza, riguardano l’istruzione, il sistema mediatico e i
relativi livelli di fruizione, il grado di libertà politiche e
democrazia, la diffusione dell’inglese. Una visione d’insieme del
Spazi Pubblici Digitali 199
global digital divide si può trarre dalla geografia dell’accesso
presentata nel paragrafo 2.1.2.
3.1.1 Le “ICT per lo sviluppo”
In riferimento al global divide merita un accenno il tema
delle ICT per lo sviluppo (UNDP 2001). Molte organizzazioni e
agenzie di sviluppo internazionali condividono infatti l’idea che
le ICT possano costituire per i Paesi poveri o in via di sviluppo
uno strumento imprescindibile per favorire crescita economica e
sviluppo umano e sociale, e consentire dunque loro di agganciare
il treno della globalizzazione. Secondo questa prospettiva, infatti,
le nuove tecnologie permetterebbero sia ai sistemi tecnologici,
sia a quelli economici e sociali di questi Paesi, di saltare alcune
tappe (leapfrogging) nel cammino verso lo sviluppo, la cui
direzione è naturalmente già inscritta nel loro destino di eterna
rincorsa all’Occidente ricco 91.
L’entusiasmo che circondava le nuove tecnologie a cavallo
del secolo ha certamente contribuito a forgiare questa fiducia
nelle nuove tecnologie, come altra faccia del digital divide e
ulteriore spinta a colmarlo. In questo senso si sono orientate
soprattutto le decine di rapporti e piani d’azione per “colmare il
divario” e sfruttare l’“opportunità digitale”, redatti a ritmo
incessante da una serie di istituzioni e organismi internazionali
dal 2000 in poi, spesso nell’ambito di apposite Task Force, come
quelle dell’ONU e del G8, o di iniziative dedicate, come la Global
Development Gateway della Banca Mondiale. In realtà negli
ultimi anni l’enfasi posta sul contributo delle ICT allo sviluppo
dei paesi più poveri è scemata di pari passo con la stagnazione
dell’economia mondiale registrata dopo le performances
americane degli anni Novanta, il boom della new economy e lo
scoppio della bolla borsistica nel 2001, e il conseguente ristagno
Capitolo III 200
di tutto il settore tecnologico durato almeno fino ai primi mesi
del 2005.
L’idea, comunque, non ha cessato di ispirare conferenze,
reports e ricerche ed è stata d’altronde rilanciata nell’ambito
della prima fase del Summit Mondiale sulla Società
dell’Informazione, tenutasi a Ginevra nel Dicembre del 2003.
Essa ricalca in parte le speranze e le aspettative riposte negli
anni Settanta e Ottanta nel contributo che i media avrebbero
dato nei Paesi più poveri e in via di sviluppo all’alfabetizzazione
e all’istruzione di massa e ad una migliore distribuzione delle
informazioni, processi in grado a loro volta di promuovere lo
sviluppo economico e sociale (comunicazione per lo sviluppo).
Aspettative del resto .
Ora le ICT sembrano Le ICT non solo consentirebbero di
estendere la portata di tali opportunità attraverso una maggiore
forza comunicativa e un più efficiente sistema di trattamento e
distribuzione dell’informazione a costi molto più ridotti, ma
favorirebbero anche la produzione autonoma di informazioni e
contenuti e la costruzione e il supporto di reti. Le applicazioni
della telemedicina e dell’e-learning rappresentano solo due
esempi di come le nuove tecnologie possono in effetti contribuire
ad affrontare alcuni problemi cronici dei Paesi più poveri, come
la carenza di informazioni e cure mediche, o l’alto tasso di
analfabetismo, fattori che incidono negativamente sui parametri
complessivi dello sviluppo umano.
E in realtà alcuni progetti e utilizzi delle ICT nei Paesi in via
di sviluppo hanno dimostrato come ciò possa realmente accadere
solo se si tiene conto di un ampio insieme di fattori sociali,
politici, culturali ed economici (cfr. Warschauer 2003). In questo
senso molti sforzi sono stati rivolti, ad esempio, allo sviluppo di
progetti nell’ambito del cosiddetto e-government per lo
Spazi Pubblici Digitali 201
sviluppo. Il governo italiano è impegnato in prima linea nella
cooperazione con alcuni Paesi africani e dell’est Europa per
favorire processi di razionalizzazione e informatizzazione delle
loro Pubbliche Amministrazioni, da un lato finalizzati
certamente ad un miglior controllo dei flussi migratori, dall’altro
rivolti a promuovere efficacia e trasparenza dell’azione pubblica
e un contesto legislativo e amministrativo più sicuro e stabile per
favorire un ambiente adeguato allo sviluppo di attività
economiche.
I benefici sociali possono ovviamente comportare un
aumento delle opportunità economiche e per questa via generare
ulteriore sviluppo. In alcuni casi le tecnologie sono state adottate
su piccola scala per migliorare il rendimento di alcune attività
economiche tradizionali, come la pesca o l’agricoltura, attraverso
l’utilizzo di Internet e dei telefoni mobili per ottenere
informazioni sui prezzi del pesce o delle derrate alimentari sui
diversi mercati, o informazioni sulle tecniche agricole o le
malattie di piante e animali. Dal punto di vista delle ricadute
sulla crescita economica complessiva, il contributo delle ICT nei
Paesi poveri o in via di sviluppo sarebbe analogo a quello
riscontrato nelle economie avanzate: in breve, riduzione dei
costi, migliore e più economico accesso alle informazioni,
possibilità di creare reti di impresa, aumento della produttività
del lavoro, creazione di un nuovo settore economico ad alta
produttività.
D’altra parte, se finora solo pochi Paesi in via di sviluppo
sono riusciti a sfruttare le ICT per partecipare alle reti globali o
semplicemente per promuovere lo sviluppo, ciò dipende
soprattutto da radicate e sedimentate carenze nelle infrastrutture
e nei livelli di istruzione. Per di più Paesi come l’India, in cui il
settore ICT è trainante, o la Cina, in cui le tecnologie sono
Capitolo III 202
massicciamente adoperate per favorire la produttività, non
hanno beneficiato di processi di sviluppo complessivi, ma
piuttosto hanno assistito ad un aumento delle disuguaglianze
interne.
Sorv0liamo qui sulle ragioni che consiglierebbero di rivedere
le politiche di sviluppo, sganciandole da indici di crescita
economica e misurazioni del PIL (Harribey 2004) 92. Accenniamo
appena al fatto che dietro alla retorica delle “opportunità
digitali” fanno capolino gli interessi delle grandi corporations e
delle imprese multinazionali che operano nei settori
dell’Information Technology e delle Telecomunicazioni,
interessate esclusivamente ad ampliare mercati, in cui vendere i
propri prodotti e investire per poi sfruttare manodopera a basso
costo come quella che già oggi svolge funzioni di back-office in
diversi Paesi in via di sviluppo. Rimandiamo al terzo paragrafo
del secondo capitolo per mostrare come il software libero possa
davvero costituire un’opportunità di sviluppo autocentrato,
all’avanguardia e in grado di produrre effetti cumulativi e di rete.
Facciamo solo notare che le ultime considerazioni indicano come
l’impiego delle ICT per lo sviluppo debba prevedere come
minimo un’attenta valutazione delle opportunità precedenti e
delle disuguaglianze esistenti. Nel paragrafo 3.4 proporremo un
paradigma alternativo che focalizza l’attenzione sull’effettiva
integrazione delle ICT nelle società, nelle comunità e nelle
organizzazioni per promuovere più ampi processi di inclusione
sociale (Warschauer 2003).
3.2 Oltre il digital divide
Come abbiamo visto nella prima parte del capitolo, la
“società in rete” è attraversata da marcate disuguaglianze
Spazi Pubblici Digitali 203
economiche e da estesi processi di esclusione sociale. Le
disuguaglianze nell’accesso alle nuove tecnologie rappresentano
senz’altro uno degli aspetti fondamentali dei fenomeni di
stratificazione sociale; in effetti, i due fenomeni sembrano
andare di pari passo, con le disuguaglianze nell’accesso che,
come rilevato dagli studi sul digital divide, riflettono le
disuguaglianze socioeconomiche e allo stesso tempo sembrano in
grado di inasprirne alcune dimensioni.
Insomma, non si può certo dire che l’avvento delle nuove
tecnologie abbia contribuito a livellare il campo delle
opportunità economiche e delle condizioni sociali, come era stato
invece previsto e promesso da molti profeti, ideologi o semplici
entusiasti della prima ora della società e dell’economia
dell’informazione. D’altra parte molte altre azzardate previsioni
riguardo i presunti benefici delle ICT sono state presto smentite
dai fatti, i quali hanno mostrato ancora una volta, se ce ne fosse
stato bisogno, come le tecnologie non esercitino un impatto
indipendente sulla società e come i due ambiti siano piuttosto
sovrapposti e inscindibilmente legati. Tanto più quando queste
tecnologie, come nel caso delle ICT concernono direttamente la
ridefinizione della comunicazione e delle relazioni umane.
Eppure il concetto di digital divide, per come e in quali
contesti è emerso e per come è stato utilizzato e trasformato in
azioni volte a colmarlo, e il parallelo paradigma delle ICT per lo
sviluppo sembrano largamente pervase dall’idea che le
tecnologie, indipendentemente da contesti e modelli d’uso,
possano da sole fare la differenza.
E’ necessario, allora, chiedersi se, in che misura e come la
nozione di digital divide sia adeguata ad indagare le complesse
relazioni fra le nuove tecnologie, ed in particolare Internet, e i
processi di stratificazione ed esclusione sociale a livello globale e
Capitolo III 204
locale, e quindi a progettare e attuare politiche e iniziative volte
a contrastare questi fenomeni, che comprendano anche le
tecnologie, promuovendone impieghi mirati. Questa sembra
essere infatti la vera posta in gioco, più che la semplice
diffusione delle tecnologie. La nozione ed alcune sue premesse e
implicazioni appaiono del resto sempre più problematiche ad un
crescente numero di studiosi e ricercatori, che hanno tentato
negli ultimi anni di correggerne e ampliarne il raggio d’azione e
il significato, non solo per adattarli alle mutate dimensioni
dell’accesso e ai continui sviluppi di queste tecnologie, ma anche
per dare seguito ad una accresciuta consapevolezza delle
dinamiche di differenziazione e soprattutto dei processi e delle
risorse sociali coinvolte.
In molti, dunque, hanno cominciato a “ripensare”
(Warschauer 2003), “riconsiderare” (Selwyn 2002), “ridefinire”
(Servon 2002), “rimappare” (Strover 2003), “riconcettualizzare”
(Warschauer 2002) o andare “oltre il digital divide” (Di Maggio e
Hargittai 2001), soprattutto indicandone la natura di “fenomeno
complesso e dinamico” (Van Dijk e Hacker 2003) ed estendendo
l’analisi ben oltre la considerazione di chi ha o non ha accesso
alle tecnologie. Comune a questi tentativi di riformulare il
“digital divide” è, infatti, la convinzione che sia necessario
indagare più a fondo le circostanze che incidono non solo sulla
possibilità di accedere alle nuove tecnologie ma anche sulla
possibilità e la capacità di utilizzarle per determinati scopi
autonomamente definiti. Ciò che è fondamentale per partecipare
pienamente alla società dell’informazione non è tanto la
disponibilità degli strumenti quanto la possibilità di accedere,
adattare, creare, manipolare e trasmettere efficacemente
informazioni e conoscenza.
Spazi Pubblici Digitali 205
Anche se emersi soprattutto nell’ambito di ricerche dedicate
agli Stati Uniti, e in generale riferiti principalmente alla
diffusione delle nuove tecnologie nei Paesi “sviluppati” – per i
quali è disponibile una maggiore quantità di dati – i limiti e le
semplificazioni imputate da questi studi al “digital divide” si
applicano in generale alla relazione fra disuguaglianze ed
esclusione/inclusione sociale e utilizzi delle nuove tecnologie, e,
in una certa misura, andrebbero presi in considerazione anche
nell’analisi della distribuzione irregolare delle ICT tra diversi
Paesi e macroaree geografiche, promuovendo un maggior
dettaglio nella comparazione dei dati. D’altronde, uno dei
tentativi più ambiziosi e riusciti di “riconsiderare” il digital
divide (Warschauer 2002, 2003), è anche tra i pochi (insieme a
Gurstein 2003) ad essere giunti ad un complessivo modello
alternativo, che per molti aspetti travalica la distinzione divario
interno/internazionale. Lo analizzeremo più nel dettaglio nel
paragrafo 3.3.
3.2.1 I limiti del “digital divide”
Vediamo ora quali sono le critiche sollevate nei confronti del
“digital divide” e quali i limiti del concetto che emergono da tali
critiche.
Digital what?
Il primo aspetto critico è rappresentato dal primo dei due
termini utilizzati: l’aggettivo digital (digitale) si riferisce alla
proprietà di apparecchi o dispositivi elettronici o informatici in
grado di rappresentare grandezze in un sistema di numerazione
(binario) e utilizzando segnali discreti. Esso si applica dunque ad
un ampia gamma in espansione di tecnologie che comprende, al
momento, un consistente numero di dispositivi 93 e diverse
tipologie di rete 94. Inoltre l’aggettivo si riferisce per estensione
Capitolo III 206
anche alla molteplicità di contenuti 95 prodotti, trasmessi,
manipolati, fruiti da e su questi apparati e in grado in alcuni casi
(e sempre di più) di lavorare su diverse piattaforme 96. Il termine
ombrello utilizzato per definire questo insieme di risorse è
“tecnologie dell’informazione e della comunicazione” (ICT)
(Selwyn 2002).
Il digital divide, dunque, per far fede a se stesso, dovrebbe
occuparsi in teoria di ciascuna di queste risorse: nella maggior
parte dei casi ad essere indagata è solo la distribuzione di
Internet, dando per scontata in questo caso la presenza di un
computer; computer e telefoni cellulari vengono subito dopo nel
grado di interesse suscitato; le infrastrutture di
telecomunicazione vengono considerate soprattutto per i
confronti fra Paesi e, più raramente, fra regioni. Concentrandosi,
come vedremo ora, quasi esclusivamente sulle disuguaglianze
nell’accesso, l’approccio del digital divide assegna
arbitrariamente un’importanza maggiore alle disuguaglianze
rispetto a certe risorse piuttosto che ad altre, semplicemente,
forse, perché più facili da misurare.
I contenuti sono ad esempio quasi sistematicamente lasciati
fuori dall’indagine, tranne rare eccezioni, nonostante siano uno
degli aspetti fondamentali nell’utilizzo delle ICT, nonché uno di
quelli più segnati da disuguaglianze, radicate principalmente nel
dominio pressoché incontrastato dell’inglese (Servon 2002;
Warschauer 2003); d’altra parte la mera valutazione delle
disuguaglianze nella distribuzione delle pagine web in base alla
lingua, non è comunque sufficiente a supportare la produzione
autonoma dei contenuti in rete nell’ambito di comunità
linguistiche più o meno estese (Warschauer 2003).
Altri aspetti rilevanti nell’analisi delle disuguaglianze in rete
non sono colti o indagati perché non riguardano l’accesso ad
Spazi Pubblici Digitali 207
alcunché, perlomeno non nei termini ristretti implicati da questo
approccio, e che ora andremo ad analizzare. La distribuzione
geografica della produzione dei contenuti di Internet, che pure
rappresenta un aspetto importante nei processi di stratificazione
sociale legati alle nuove tecnologie (Castells 2001; Castells e
Himanen 2002; vedi anche par. 2.1.3), costituisce un esempio
significativo di tali omissioni.
Ma il problema di fondo è in realtà un altro: la
stratificazione che esiste nell’accesso ad una qualsiasi di queste
risorse, non ha niente a che vedere con loro in quanto tali;
riguarda piuttosto i contesti politici, economici, istituzionali,
culturali e linguistici che danno forma al significato delle
tecnologie nella vita delle persone; dunque la disuguaglianza è
sociale, non digitale. La nozione di un digital divide suggerisce,
invece, che il divide, qualunque distanza esso indichi, possa
essere colmato grazie alle tecnologie. Nella pratica molti degli
interventi di contrasto al digital divide, per motivi che
naturalmente esulano dalla semplice aderenza alle connotazioni
del termine, si sono concentrati in effetti sulla fornitura di
hardware e software e hanno finito per fallire il bersaglio di
favorire maggiore eguaglianza e sviluppo sociale. In effetti l’idea
più o meno implicita alla base del digital divide è che i problemi
sociali possano essere affrontati dotando individui e comunità
dell’accesso all’hardware necessario. Un’idea che ricorda troppo
da vicino il determinismo tecnologico per essere davvero di
qualche utilità nel favorire dinamiche di integrazione delle nuove
tecnologie nel tessuto sociale, che promuovano a loro volta
sviluppo e inclusione sociale.
“Accesso” e “frattura”
Il secondo aspetto critico, data l’importanza che assume
nelle stesse definizioni del digital divide, è rappresentato dal
Capitolo III 208
concetto stesso di accesso e dalle sue implicazioni che inducono
la visione dicotomica di una “frattura digitale”. Come riportano
da Di Maggio e collaboratori (2004), nei primi lavori sul digital
divide il termine “accesso” era usato in senso letterale per
indicare se una persona aveva o meno i mezzi per potersi
connettere ad Internet se lo avesse voluto; ma, d’altra parte,
mancavano quasi completamente indagini sull’uso effettivo. Più
di recente “accesso” è stato utilizzato qualche volta come
sinonimo di “uso”, nonostante ci sia una certa discrepanza a
favore del primo (negli USA un 20 % di “connessi” non va mai on
line) (ibid.). In generale, comunque, il digital divide “è stato
definito come un problema di accesso nel suo significato ristretto
di possesso o di possibilità di fruire di un computer e di
Internet”, legittimando così una concezione distorta del
problema “che equipara l’inclusione nella società
dell’informazione all’accesso ai computer e ad Internet” (Servon
2002, p. 4, traduzione mia).
Inteso in questi termini, il problema assume
necessariamente una connotazione dicotomica, quella di una
frattura fra connessi e disconnessi, fra info haves e have-nots. Di
Maggio e Hargittai (2001) fanno notare come questa visione
binaria dell’accesso (e in generale delle disuguaglianze relative
ad Internet), sia da far risalire al “paradigma telefonico” che
informa le politiche americane, e non solo, riguardo alle
telecomunicazioni e che ritroviamo nella prima ricerca della
NTIA del 1995: un paradigma focalizzato sull’obiettivo del
“servizio universale” e quindi su un accesso concepito, in quanto
riferito appunto al telefono, in termini binari.
Se ovviamente l’analogia fra Internet e telefono è del tutto
fuorviante, soprattutto nell’ottica di indagarne le dinamiche di
differenziazione sociale, e se evidentemente a quel tempo
Spazi Pubblici Digitali 209
ricercatori e politici dell’amministrazione Clinton non avevano
ben capito cosa realmente volesse dire collegare un telefono ad
un computer attraverso un modem, oggi dovremmo essere in
grado di superare questa visione dicotomica sia dell’accesso che
delle “disuguaglianze digitali”.
Selwyn (2002) considera ancora l’accesso alle ICT in termini
di disponibilità dei dispositivi e delle reti, ma invita a
considerare alcuni elementi che mediano la forma e il contesto
con cui questa disponibilità si manifesta. Innanzitutto vi è una
sottile ma importante differenza fra l’accesso e il possesso. Le
questioni relative al tempo, ai costi, alla qualità della tecnologia
e allo specifico ambiente in cui questa è usata, in particolare se
nella propria abitazione, nel posto di lavoro, a scuola, in un
punto pubblico di accesso, in un internet cafè o simili, in una
biblioteca, ecc.; così come aspetti più “qualitativi” della
tecnologia, come la privacy, la sicurezza, la convivialità e la
facilità d’uso, sono tutti fattori cruciali nel determinare il tipo di
accesso alle ICT di cui dispongono le persone. Questo incide sul
grado in cui l’accesso è “percepito” come “effettivo” e non solo
“teorico” o “formale” e quindi sul grado in cui gli individui si
sentono nelle condizioni di sfruttare tale opportunità
trasformandola prima di tutto in uso. In questo senso, dunque,
l’accesso alle ICT e lo stesso digital divide sono essenzialmente
concetti gerarchici piuttosto che dicotomici, anche se, secondo
Selwyn, permane una all’origine una distinzione binaria fra chi
ha e chi non ha accesso.
L’apparente a-problematicità del concetto di accesso è
smentita anche dal fatto che, al di là se esso venga o meno
equiparato all’uso, le sue differenti definizioni (ad esempio in
termini di luogo di accesso, o di qualità della connessione)
comportano differenze nei gap rilevati fra le medesime categorie
Capitolo III 210
sociali (Di Maggio et al. 2004). Esiste, inoltre, una certa
correlazione fra le caratteristiche demografiche e lo status
socioeconomico di un individuo e il tipo di accesso di cui
dispone.
Nel frattempo, oltre alle differenze già esistenti in termini di
qualità dell’hardware o luogo della connessione, l’accesso si
diversifica ulteriormente almeno su due fronti: da un lato si
assiste all’avvento e alla diffusione della banda larga, in grado di
modificare significativamente l’esperienza on line, accrescendo
tra l’altro le possibilità e le probabilità di fruizione di contenuti
di intrattenimento in rete; dall’altro prendono piede dispositivi
di connessione mobile senza fili che sfruttano le reti GSM e
UMTS per accedere al Web ed altri contenuti on line mentre i
sistemi wireless (wi-fi e in un prossimo futuro wi-max)
permettono di estendere l’ampiezza di banda senza fili per una
connessione ubiqua. Per quanto riguarda la banda larga negli
Stati Uniti, ad esempio, il divario ricalca, leggermente mitigato,
quello osservato nei primi anni di diffusione di Internet (ibid.;
Davison e Cotton 2003). Le reti senza fili, in particolare quelle
fisse, riflettono invece più che altro differenze spaziali, come
osservato nel paragrafo 2.1.1.
L’accesso alle tecnologie dell’informazione, dunque, non si
snoda lungo una divisione dicotomica fra chi ha accesso e chi no,
quanto piuttosto lungo una differenziazione fra diversi gradi di
accesso alle ICT (Cisler 2000). Gradi che possono arrivare a
comprendere, come sottolinea Warschauer (2003, p. 6-7,
traduzione mia), anche “un’attivista in Indonesia che non ha né
computer ne’ linea telefonica, ma i cui colleghi della ONG con cui
sta lavorando scaricano e stampano documenti per lei dalla
Rete”, consentendole così di trarre dalla Rete benefici persino
maggiori di un utente teoricamente posto su un gradino più alto
Spazi Pubblici Digitali 211
nella scala dell’accesso (ad esempio un utente mediamente
assiduo di un cybercafe che legge solo i titoli di qualche giornale
on-line). Si spiega anche, così, la rilevanza, precedentemente
discussa, del significato da attribuire all’aggettivo “digitale”
nell’espressione digital divide. In questo caso infatti l’accesso
alle informazioni on line è garantito persino in assenza di un
accesso ai dispositivi. In definitiva, uno dei principali assunti del
digital divide, vale a dire quello di una netta divisione fra chi ha
e chi non ha accesso, si rivela del tutto inadeguato a cogliere la
molteplicità e la gradualità delle dimensioni significative
dell’accesso effettivo alle ICT.
Oltre l’accesso. Verso la disuguaglianza digitale
Di fronte alle ambiguità e alle difficoltà sollevate dal
concetto di accesso e alla sua controversa sovrapposizione con
l’uso, alcuni lavori hanno provato, più che a distinguere una
scala nell’entità e nella qualità dell’accesso ai dispositivi, a
ridefinirne ed estenderne i termini complessivi per includervi
altre dimensioni rilevanti. La più esaustiva ridefinizione del
concetto di accesso alle ICT è senz’altro stata operata da Mark
Warschauer (2003); essa sarà oggetto d’analisi nel paragrafo 3.4,
insieme al paradigma, alternativo al digital divide, cui da luogo.
Wilson (Hargittai 2003) ha proposto di identificare quattro
componenti di un “pieno accesso sociale”, riprendendo così la
distinzione di Kling (1998) fra “accesso tecnologico” e “sociale”:
i) accesso finanziario, che indica se gli utenti (individui o
comunità) possono permettersi di pagare per la connettività; ii)
accesso cognitivo, che considera la misura in cui le persone sono
formate ad usare il medium e a trovare e valutare le informazioni
che vi cercano; iii) accesso alla produzione di contenuti, che
guarda alla possibilità di accedere a contenuti adeguati; iv)
Capitolo III 212
accesso politico, che indica se gli utenti hanno accesso alle
istituzioni che regolano le tecnologie in uso.
Van Dijk (Van Dijk e Hacker 2003) distingue invece quattro
barriere all’accesso e le rispettive opportunità che esse
restringono: i) mancanza di esperienza digitale di base, legata
alla mancanza di interesse o ansia nei confronti delle nuove
tecnologie (“accesso mentale”); ii) non possesso di computer e
connessione (“accesso materiale”); iii) mancanza di competenze
digitali, causate da scarsa “amichevolezza” e facilità d’uso o
scarso supporto sociale (“accesso alle competenze”); mancanza
di opportunità di utilizzo significativo (“accesso all’uso”). Dallo
studio dei due ricercatori, basato su dati provenienti dall’Olanda
e dagli Stati Uniti, emergono dinamiche di stratificazione
differenziate per ciascuno dei parametri analizzati. E assumono
crescente importanza le disuguaglianze relative alle competenze
e all’uso, legate soprattutto, in Olanda, al genere e all’età, prima
che al livello di istruzione. Di una certa rilevanza è, inoltre, la
classificazione, effettuata dai due ricercatori, delle competenze
digitali, cioè delle abilità necessarie a usare le nuove tecnologie
in modo efficiente ed efficace. In particolare si possono
distinguere abilità strumentali, per adoperare hardware e
software, e abilità informazionali, per reperire le informazioni
utilizzando le tecnologie digitali; un terzo insieme di facoltà si
riferisce poi alle abilità strategiche, ossia alle abilità di usare le
tecnologie digitali per migliorare la proprio posizione nella
società, nel lavoro, nella formazione, nelle pratiche culturali.
Un’altra ridefinizione dell’accesso proviene dalla Global
Knowledge Patnership (in Servon 2002). L’accesso, ampiamente
inteso, dovrebbe comprendere, oltre all’accesso fisico alle
tecnologie, l’accesso alla formazione, l’accesso a contenuti locali
Spazi Pubblici Digitali 213
salienti nella lingua dell’utente; e l’accesso ai processi decisionali
riguardanti le telecomunicazioni.
Ancora nell’ottica di andare “oltre l’accesso”, Lisa Servon
(2002, p. 7) include nell’analisi del digital divide altre due
dimensioni. La seconda dimensione, dopo l’accesso, riguarda la
formazione, o la “IT literacy, cioè la capacità di usare le IT per
una gamma di scopi, e la conoscenza di come e perché le IT
possono essere usata come risorsa chiave”. La terza dimensione
riguarda i contenuti, sia “contenuti che rispondano alla domanda
degli individui e dei gruppi più svantaggiati, sia contributi creati
dai gruppi stessi”.
Quello che è importante sottolineare è che, seppure nessuno
degli autori impegnati meritoriamente ad approfondire la
tematica del digital divide ne metta da parte il concetto e le
relative strettoie, essi però, illustrandone complessità e
molteplicità delle dimensioni, e soprattutto sottolineando la
rilevanza di un ampio spettro di risorse sociali ben oltre l’ambito
delle tecnologie, ne mettono in evidenza i profondi limiti nel
momento stesso in cui cercano affannosamente di rimediarvi. Ciò
che gli studi e le analisi sul digital divide giungono
invariabilmente a dimostrare e a sottolineare, infatti, è che il
problema non sta tanto, e probabilmente non è mai stato, in una
presunta frattura nell’accesso alle nuove tecnologie, quanto nella
complessiva distribuzione diseguale nella società di risorse
materiali, culturali, simboliche, le quali hanno un ruolo
fondamentale nel determinare se e in che misura un individuo o
una comunità possano davvero o meno beneficiare delle
opportunità messe a disposizione dalle nuove tecnologie.
Capitolo III 214
3.3 “Digital Inequality”
Di Maggio e collaboratori (2004) hanno proposto un quadro
d’insieme delle relazioni fra disuguaglianze sociali e nuove
tecnologie, in grado di andare almeno in parte oltre i limiti del
“digital divide”. Il punto di partenza di questo gruppo di
ricercatori, condiviso per altro da quasi tutti gli studiosi finora
qui citati, è che, una volta cresciuta notevolmente la
penetrazione di Internet nella società, per lo meno nelle società
avanzate, la domanda che si ponevano le ricerche sul digital
divide su chi ha accesso a cosa, debba lasciare il posto alla
domanda “cosa stanno facendo le persone, e che cosa sono in
grado di fare quando vanno in rete” (Di Maggio et al. 2004).
Premessa e conclusione poggiano ciascuna su un fondamento
teorico e un’osservazione empirica differenti. Da un lato la
“teoria della diffusione” di Rogers (1986; Mason e Hacker 2003)
fa da sfondo ad un esteso dibattito (cfr. Van Dijk e Hacker 2003),
riguardante realtà, caratteristiche e problematicità del processo
di normalizzazione nella curva di diffusione delle nuove
tecnologie, dibattito a cui il lavoro di Di Maggio e collaboratori
non si sottrae. Dall’altro il riferimento alla teoria degli “scarti di
conoscenza” (knowledge gap) (Tichenor et al., 1970), anch’esso
molto diffuso nella letteratura, induce a considerare in che modo
i diversi ritmi di accesso al Web fra le diverse categorie sociali
incidono sulle differenze nel suo utilizzo e quanto ciò
contribuisca ad accrescere i knowledge gaps a vantaggio delle
categorie sociali privilegiate, anche una volta che l’accesso sia
avvenuto per la maggior parte della popolazione.
Il modello proposto è composto da cinque dimensioni, lungo
le quali si snodano i processi di differenziazione fra gli utenti di
Internet. La prima dimensione, riflettendo in un certo modo
Spazi Pubblici Digitali 215
l’accento posto sull’accesso dalle ricerche sul digital divide,
riguarda le disuguaglianze negli apparati tecnici, cioè
nell’adeguatezza dell’hardware, del software e della connessione.
In generale una migliore dotazione tecnica sembra favorire una
maggiore possibilità di fruire e beneficiare dei contenuti e dei
servizi on line; ciò è tanto più vero se si considera come
l’ampliamento progressivo della banda e il conseguente sviluppo
di siti Web e applicazioni sempre più sofisticate può inficiare la
possibilità per i meno provvisti di accedere a determinati
contenuti e servizi. Questi ultimi, inoltre, con esperienze on line
meno gratificanti sono con maggior frequenza utenti meno
assidui e quindi meno in grado di acquisire esperienza. La
disponibilità della banda larga è associata agli stessi fattori
(reddito, titolo di studio, etnia, residenza nelle metropoli) che
determinano una maggiore probabilità di accedere ad Internet
per primi (cfr. NTIA 2000, 2002). Tenute ferme le variabili
relative all’esperienza e quelle demografiche gli utenti della
banda larga sono maggiormente coinvolti nella ricerca di
informazione e in un’ampia gamma di attività on line, compresa
la produzione di contenuti per il Web. Allo stesso modo, secondo
Davison e Cotton (2003), gli utenti broadband passano più
tempo in rete e usano con maggior probabilità e frequenza servizi
dedicati alle imprese e ai consumatori e siti di intrattenimento.
La seconda dimensione delle disuguaglianze on line concerne
il grado di autonomia nell’uso, associato alla localizzazione
dell’accesso, se a casa, a lavoro, a scuola, in una biblioteca o un
centro comunitario. Un maggior grado di autonomia sembra
favorire migliori benefici per l’utente. Al di fuori del proprio
appartamento, nei diversi centri di acceso, la localizzazione, la
flessibilità degli orari, i regolamenti, i limiti di tempo, i filtri e il
monitoraggio possono limitare in diversi modi l’autonomia d’uso.
Capitolo III 216
Nel luogo di lavoro, questa varia con la condizione, la posizione e
la mansione occupazionale, con il grado di controllo, la quantità
di filtri e monitoraggi, e il sistema di regole.
La terza dimensione riguarda le disuguaglianze nelle
competenze. Gli utenti Internet variano nel possesso di almeno
quattro tipi di abilità: la conoscenza prescrittivi, rispetto a come
connettersi, condurre ricerche, scaricare informazioni;
conoscenze non specifiche di contesto; conoscenza integrativa
sul modo in cui funziona il Web per consentire una migliore
navigazione; conoscenza tecnica su software, hardware e reti,
necessaria per risolvere problemi di malfunzionamento e restare
aggiornato, ad esempio scaricando e installando patches e plug
ins. Insieme questi quattro tipi di conoscenza costituiscono la
“competenza digitale” o Internet competence, vale a dire la
capacità di rispondere pragmaticamente e intuitivamente alle
sfide e alle opportunità in modo tale da sfruttare il potenziale di
Internet ed evitare frustrazioni (Hargittai 2002). La capacità di
reperire informazioni on line è certamente uno degli aspetti
cruciali nel determinare un uso efficace del mezzo. Tale capacità,
rilevata in una ricerca di Hargittai (2003) sembra essere
associata all’età in modo negativo, ma debole e diversificato a
seconda degli specifici obiettivi, per niente ad altri fattori
demografici, in modo più deciso all’autonomia d’uso e
all’esperienza. La “competenza digitale” sembra essere associata
alla soddisfazione che l’utente trae dall’esperienza e dalla misura
in cui ciò lo porta a continuare ad usare Internet aumentando
così le proprie abilità.
La quarta dimensione è legata alle disuguaglianze nella
disponibilità di supporto sociale. Mentre i primi utenti del Web
erano inseriti in fitte reti sociali di esperti, gli utenti più recenti
sono spesso meno competenti e più isolati. Tre tipi di supporto
Spazi Pubblici Digitali 217
sembrano aumentare le motivazioni degli utenti ad andare on
line e quindi ad accrescere le loro “competenze digitali”:
assistenza tecnica formale fornita da persone impiegate per
farlo; assistenza tecnica informale fornita da amici, parenti,
colleghi, vicini; supporto emotivo dagli amici e dalla famiglia.
La quinta ed ultima dimensione riguarda le differenze negli
usi, ossia il modo in cui il reddito, la formazione ed altri fattori
influiscono sugli scopi per i quali si usa Internet. Adottando la
prospettiva del contributo degli usi delle tecnologie alle
opportunità di sviluppo socioeconomico, Di Maggio e
collaboratori (2004) esaminano i fattori che determinano
differenti tipi di uso, distinguendo in particolare fra gli usi che
incrementano il benessere economico (aggiornamento
professionale, conoscenza di opportunità di impiego,
informazioni al consumatore, istruzione e formazione) o il
capitale sociale o politico (leggere news, raccogliere informazioni
su questioni di pubblica rilevanza, reperire informazioni in vista
di una scadenza elettorale partecipare a discussioni civili,
prendere parte ad attività politiche e a movimenti sociali), da
quelli che sono in primo luogo ricreativi.
La varietà degli usi di Internet da parte di un individuo
sembra riflettere il tempo trascorso da questi on line. Livello
d’istruzione, reddito e padronanza della lingua sembrano
positivamente associati agli usi di Internet che incrementano il
capitale sociale, con l’istruzione che sembra spingere verso la
ricerca di informazioni e servizi, piuttosto che di
intrattenimento. D’altronde utenti a basso reddito e meno istruiti
sembrano usare più degli altri Internet per cercare lavoro, in
parte come rimedio all’esclusione dalle reti sociali informali e dai
“legami deboli” che veicolano le informazioni circa i lavori più
appetibili.
Capitolo III 218
Dall’analisi di queste dimensioni, Di Maggio e collaboratori
(2004, p. 38) derivano “un modello dell’influenza della
disuguaglianza tecnologica sulle opportunità individuali, che si
applica ad Internet ma è generalizzabile oltre questo”, “i fattori
demografici e contestuali influiscono sulla qualità degli apparati,
sull’autonomia d’uso, sulle competenze e sul supporto sociale, a
livello individuale. Questi a loro volta influenzano l’efficacia con
la quale gli utenti impiegano il medium sia direttamente,
(facilitando il raggiungimento degli obiettivi), sia indirettamente
(aumentando apprendimento e soddisfazione, che a loro volta
incrementano continuità, efficacia e volume e ampiezza dell’uso).
Infine, in questo modello, gli incrementi nel capitale umano
(inclusi i titoli di studio), nel capitale sociale (incluso l’attivismo
politico) e nei salari sono in funzione direttamente dell’efficacia,
dell’intensità e degli scopi, e indirette conseguenze (attraverso
queste variabili intermedie) della qualità dei dispositivi,
dell’autonomia d’uso, delle competenze, del supporto”.
3.4 Le nuove tecnologie per l’inclusione sociale
Le critiche portate da Mark Warschauer (2002, 2003) al
quadro interpretativo rappresentato dal concetto di “digital
divide”, si soffermano su alcuni degli aspetti già osservati nel
paragrafo 3.2. In particolare, secondo il ricercatore americano,
esso ha fatto propria una ristretta concezione dell’accesso alle
ICT, che ha portato ad attribuire un peso eccessivo alla fornitura
di hardware e software e a sottovalutare la complessa gamma di
fattori in cui è incorporato l’accesso alle ICT. Questi fattori, che
includono risorse fisiche, digitali, umane e sociali e riguardano
un complesso sistema di relazioni sociali, sono in grado, invece,
di condizionare non solo l’effettiva adozione delle tecnologie da
Spazi Pubblici Digitali 219
parte dei singoli, ma anche le effettive ricadute sociali di questa
adozione. Queste ultime non sono, dunque, necessariamente
positive, come implicato da alcuni assunti del “digital divide”; il
loro esito dipende piuttosto da un’adeguata integrazione e
mobilitazione delle diverse risorse coinvolte, tra cui le
tecnologie, nella direzione della promozione dell’inclusione
sociale.
Il punto fondamentale sottolineato da Warschauer, le cui
valutazioni sono ispirate tra l’altro da una ricca esperienza sul
campo fatta di ricerche e progetti legati alle ICT, è che l’eccessiva
enfasi posta sulle tecnologie finisce per “prestare insufficiente
attenzione ai sistemi umani e sociali, che devono anch’essi
cambiare per far si che la tecnologia possa davvero fare la
differenza” (2003, p. 6, traduzione mia). In effetti il concetto di
“digital divide”, volto ad indagare la diseguale distribuzione
degli strumenti informatici e telematici, poggia sulla convinzione
implicita che l’accesso, inteso semplicemente come la
disponibilità fisica di questi strumenti, rappresenti di per se una
porta per entrare nel mondo delle opportunità offerte dalla
società dell’informazione. Anche se questo fosse davvero un
mondo così aperto e pieno di opportunità come sostengono i suoi
cantori – e c’è davvero di che dubitarne – ci sarebbe altrettanto
di che dubitare del fatto che il semplice accesso ai suoi strumenti
tecnici garantisca di per se un’equa ed effettiva partecipazione ai
suoi vantaggi.
Warschauer condivide in una certa misura l’idea che le
nuove tecnologie offrano significative possibilità per promuovere
sviluppo e inclusione sociale. Ma non si tratta tanto dell’accesso
in se, quanto piuttosto della “capacità di accedere a, adattare e
creare nuova conoscenza utilizzando le nuove tecnologie
dell’informazione e della comunicazione”; questa capacità, che
Capitolo III 220
presuppone e implica molto più che la semplice disponibilità
degli strumenti tecnologici, “è cruciale per l’inclusione sociale”
nella società in rete (ibid., p. 9). Questo implica che le politiche
pubbliche orientate a contrastare l’esclusione sociale e
promuovere l’inclusione sociale debbano concentrarsi, più che
sulla diffusione degli strumenti informatici e telematici nella
società, sullo sviluppo di queste capacità fra la popolazione.
3.4.1 Ridefinire l’accesso
Il ruolo che l’accesso alle tecnologie può giocare nel
promuovere l’inclusione sociale dipende, quindi, in buona misura
dal modo con cui definiamo questo accesso. Warschauer parte
dunque da una ricognizione dei due più diffusi modelli utilizzati
per indicare l’accesso alle nuove tecnologie. Nel primo modello
l’accesso alle ICT è equiparato al possesso di un dispositivo; in
questo senso, dunque, l’accesso è definito semplicemente nei
termini dell’accesso fisico ad un computer o a qualsiasi altro
dispositivo ICT. I dispositivi fisici possono diffondersi in
maniera relativamente veloce e, in molti casi, equa, come è stato
per la televisione e la radio. Tuttavia, da un lato il prezzo di
acquisto iniziale di un computer, diversamente da quello di un
televisore o di una radio, va integrato, in un più complessivo
costo totale di possesso (total cost of ownership), più consistente
nel caso di contesti istituzionali e organizzativi, ma significativo
per il singolo individuo; dall’altro il possesso di o l’accesso ad un
computer non è sufficiente a configurare un pieno accesso alle
ICT, se non altro perché quest ultimo oggi include almeno la
disponibilità di una connessione ad Internet, così come di alcune
competenze e conoscenze necessarie ad utilizzare computer e
Internet in modi socialmente rilevanti.
Spazi Pubblici Digitali 221
Il secondo modello di paragone per l’accesso alle ICT è
quello dell’accesso alle reti (conduits), come quella elettrica o
quella telefonica. Mentre un dispositivo può essere ottenuto con
un singolo acquisto, l’accesso alle reti richiede una connessione
ad una linea di fornitura che fornisce qualcosa su base regolare,
come l’elettricità o il servizio telefonico. La diffusione di queste
tecnologie è più lenta, in parte perché necessitano dell’impianto
di infrastrutture, in parte perché il costo mensile delle tariffe può
essere un disincentivo all’accesso anche sul medio-lungo periodo.
Secondo Warschauer, dunque, nonostante le condutture
forniscano un miglior modello comparativo per l’accesso alle ICT
rispetto ai dispositivi, nessuno dei due modelli, né la loro
integrazione, riesce a cogliere “l’essenza di un significativo
accesso alle nuove tecnologie. Ciò che è più importante riguardo
alle ICT non è tanto la disponibilità di dispositivi di calcolo o di
connessioni ad Internet, quanto piuttosto la capacità delle
persone di fare uso di questi dispositivi e di queste connessioni
per prendere parte a pratiche sociali significative” (ibid., p. 38).
Il modello proposto da Warschauer per rendere conto di
questo accesso significativo alle ICT, è quello riconducibile al
significato del termine inglese literacy, in italiano impossibile da
tradurre semplicemente con alfabetismo o alfabetizzazione, e
tanto meno con la locuzione “capacità di leggere e di scrivere”,
che in effetti non coglie, nemmeno tradotta in inglese, la
complessità del concetto, la sua trasformazione nel tempo e nello
spazio e le negoziazioni di cui è stata fatta oggetto. Ben oltre la
capacità di leggere e scrivere, infatti, la literacy ha riguardato il
complessivo sistema di modelli di comprensione e
comportamento considerati di volta in volta più adeguati per la
società, a seconda del contesto sociale e degli orientamenti
politici e culturali delle istituzioni sociali. Per questo alcuni
Capitolo III 222
studiosi spesso utilizzano la forma plurale literacies. Allo stesso
modo altri studiosi hanno preferito usare il termine literacy
practices invece di literacy skills per enfatizzare l’applicazione
delle competenze nel contesto sociale piuttosto che le abilità
cognitive decontestualizzate.
Riscontrate una serie di analogie fra gli aspetti coinvolti
nella literacy e quelli coinvolti nell’accesso alle ICT, Warschauer
ripercorre, inoltre, il dibattito sorto intorno ad un literacy
divide; gli assertori di questo divide si basano sulla convinzione,
analoga a quella alla base del concetto di digital divide, che la
literacy sia direttamente responsabile dello sviluppo cognitivo e
sociale degli individui. Piuttosto, i due termini sembrano legati
da una relazione dialettica analoga a quella che caratterizza il
rapporto fra tecnologia e società, e la literacy, in questo senso, è
compresa più nei termini di un insieme di pratiche sociali che in
quelli di una ristretta abilità cognitiva. La sua acquisizione
richiede dunque una varietà di risorse, che includono artefatti
fisici (libri, giornali, riviste, computer); contenuti rilevanti
veicolati da questi artefatti; abilità, conoscenze e attitudini; i
giusti modelli di supporto sociale e comunitario. Dall’analisi
emerge, inoltre, come l’acquisizione di competenze racchiuse nel
termine literacy non sia solo una questione di cognizione, o
piuttosto di cultura, ma anche di rapporti politici e di potere.
Ancora in analogia con i caratteri della literacy, emersi nel
corso degli anni dagli studi del settore, Warschauer giunge
dunque ad una serie di conclusioni relative alla definizione dell’
“accesso alle ICT” (ibid., p.46):
- non esiste un solo tipo di accesso all’ICT, ma diversi;
- il significato e il valore attribuito all’accesso varia a
seconda dello specifico contesto sociale;
Spazi Pubblici Digitali 223
- l’accesso si sviluppa lungo una dimensione di gradualità
e non in una opposizione bipolare;
- gli usi del computer e di Internet non comportano
benefici automatici al di fuori delle loro particolari funzioni;
- gli usi dell’ICT è una pratica sociale, che implica accesso
agli artefatti materiali, contenuti, capacità e supporto
sociale;
- l’acquisizione dell’accesso all’ICT non è solo una
questione di istruzione, ma anche di potere.
Da queste definizioni relative all’accesso deriva, dunque, un
modello complessivo dell’accesso all’ICT per la promozione
dell’inclusione sociale. L’accesso non può limitarsi alla fornitura
di dispositivi e reti. Piuttosto, esso deve coinvolgere una gamma
di risorse, sviluppate e promosse nell’ottica di accrescere il
potere sociale, economico e politico degli individui e delle
comunità destinatari degli interventi. Queste risorse possono
essere distinte in quattro gruppi di risorse:
- le risorse materiali comprendono computer e linee di
telecomunicazione;
- le risorse digitali si riferiscono ai contenuti digitali
presenti on line e alle diverse lingue;
- le risorse umane riguardano lo sviluppo delle
competenze e l’istruzione;
- le risorse sociali si riferiscono alle strutture
comunitarie, istituzionali e sociali che supportano l’accesso
alle ICT.
In questo modello, dunque, ognuna di queste risorse
contribuisce ad un “uso efficace” (Gurstei 2003) delle ICT, vale a
dire che la loro presenza contribuisce a far sì che le ICT vengano
usate e sfruttate adeguatamente per gli scopi individualmente e
collettivamente definiti; allo stesso tempo, ogni risorsa è un
Capitolo III 224
risultato dell’uso efficace delle ICT, vale a dire che utilizzando
efficacemente le ICT si può contribuire ad estendere e
promuovere queste risorse (figura 5).
Figura 5: Il modello dell’accesso alle ICT di Warschauer
Fonte: Warschauer 2002
3.4.2 L’Unione Europea e le tecnologie per l’inclusione sociale
A partire dal primo “e-Europe Action Plan” redatto nel 1999
dal Consiglio Europeo di Lisbona, l’Unione Europea ha rivolto
una crescente attenzione alle opportunità della Società
dell’informazione e delle nuove tecnologie per contrastare
l’esclusione e promuovere l’inclusione sociale (Commissione
Europea 2001, 2005). Accanto ad una puntuale e approfondita
indagine delle differenze nell’entità, nell’intensità e nella qualità
dell’uso delle nuove tecnologie lungo i tradizionali assi
Spazi Pubblici Digitali 225
socioeconomici e geografici, è emersa, col passare degli anni, una
più attenta valutazione dei fattori che differenziano scopi e
utilizzi in particolare su Internet, al fine di promuovere e
indirizzare capacità di “appropriazione” di queste tecnologie da
parte dei cittadini europei per sfruttarne al meglio le opportunità
in termini di inclusione sociale. Un attenzione particolare, ad
esempio, è richiamata sulla necessità di identificare e creare
contenuti e servizi on line rispondenti alle specifiche esigenze di
diverse categorie di cittadini, inclusi quelli a basso reddito o più
svantaggiati: un uso socialmente rilevante delle ICT, in grado di
incidere sull’esclusione e promuovere l’inclusione, dipende
infatti, oltre che dalle competenze, anche dalla disponibilità di
contenuti tagliati sui bisogni specifici dei diversi gruppi di
utenti.
L’espressione e-Inclusion è venuta a connotare le politiche
per promuovere un’equa partecipazione dei cittadini alle
opportunità offerte dalle nuove tecnologie, come parte integrante
e integrata dei più ampi gli sforzi per promuovere l’inclusione e
la coesione sociale. Il prossimo sforzo, come richiamato nei
documenti più recenti, dovrà essere quello di indagare in modo
approfondito, da un lato, l’efficacia delle politiche di promozione
dell’e-Inclusion, dall’altra il loro impatto sulle dinamiche di
inclusione sociale. Sembra emergere, dunque, una realistica e
salutare prudenza sugli effetti complessivi dell’uso delle nuove
tecnologie nelle politiche di sviluppo, non nella prospettiva di
rinunciare a sfruttarne i benefici sociali, ma in quella di calibrare
gli interventi sulla base di una maggiore comprensione sia di
tecnologie in via di continua evoluzione, sia di dinamiche sociali
accelerate dai processi di trasformazione in corso.
Anche se nei documenti EU il termine digital divide
continua ad essere utilizzato per una certa innegabile capacità di
Capitolo III 226
sintesi soprattutto riferito ad alcuni gap nell’accesso,
l’elaborazione, la ricchezza e la complessità delle indagine svolte
e la considerazione dell’ampio ventaglio di fattori che
condizionano l’efficacia delle nuove tecnologie come opzioni per
favorire processi di inclusione sociale, rendono merito
all’impegno profuso anche nell’aggiornare i presupposti e i
modelli delle politiche pubbliche di contrasto all’esclusione
digitale. Uno spazio considerevole è dedicato all’analisi
qualitativa delle dinamiche di differenziazione riscontrate, ad
esempio in termini di percezione dell’esperienza on line; o
all’osservazione di fenomeni tecno-sociali emergenti, come ad
esempio lo sviluppo del cosiddetto “social software”,
potenzialmente in grado di incidere sull’accumulazione di
“capitale sociale” e per questa via sulle dinamiche di coesione e
inclusione sociale. Altrettanto interessante e meritorio è lo
spazio dedicato nell’ultimo report alle dinamiche di e-Inclusion a
livello locale e di comunità, con un particolare accento sul loro
potenziale “for enhancing social integration, political
participation, cultural identity, as well as interactions between
local and global levels” (Commissione Europea 2005).
Per concludere, alcuni stralci dall’ultimo rapporto
dell’Unione Europea sulla e-Inclusion (Commissione Europea
2005)
The focus on access and skills is in fact not enough to
promote socio-economic inclusion; adequate policy measures
should take into account how ICT is experienced in the context
of people's everyday life. Along this line, focusing on the impact
of ICT on social capital, individual well-being and quality of life
can help making the connection between technology adoption
Spazi Pubblici Digitali 227
and general social participation and cohesion, approaching
society at its "center" in addition to focusing on its "margins".
More equal access can foster both economic growth and the
improvement of living and working conditions in rural and
peripheral areas, but will require concerted public policy
efforts, at national and regional levels, to promote a network of
public access points, linked to initiatives to promote the training
of users and to ensure that services and content are provided on
the Internet which meet people's real needs.
Access to digital contents and services conceived on a high
usability level – as well as the skills needed for profitably using
them – should be made available to everybody, intensifying
efforts to establish a dense network of public access points
adequately equipped and staffed for guidance and support.
The success of strategies for digital and social inclusion is
largely dependent on a context-based approach, whereby
targeted groups are considered within their geographical,
social and cultural environment; this is consistent with the
exponential growth of local level initiatives, connecting
communities and offering online information, services, support
and interaction opportunities to its members.
Capitolo III 228
Note
72 A questi dati allarmanti – e allo stesso tempo indicativi del
fallimento delle ricette proposte dagli organismi economici mondiali per il
miglioramento delle condizioni socio-economiche dei Paesi più poveri – si
aggiunge un sempre minore impegno da parte dei paesi OCSE nel cosiddetto
“aiuto allo sviluppo”. Come hanno dimostrato nel 2002 la Conferenza sui
finanziamenti per lo sviluppo di Monterey e il Vertice Mondiale sullo
Sviluppo Sostenibile tenutosi a Johannesburg, la volontà degli Stati di
contribuire finanziariamente ai programmi avviati nel Sud del mondo è
minima. Dal 1992 al 2002 i finanziamenti per i programmi di aiuto nelle
nazioni più povere sono scesi del 24 %, raggiungendo una media dello 0,22
% del PIL dei Paesi più ricchi. 73 In particolare Castells (1998, p. 412-413) individua, alla base dei
fenomeni di disuguaglianza e polarizzazione crescenti, tre processi associati
all’avvento del capitalismo informazionale e della società in rete: a) la
radicale differenziazione fra lavoro autoprogrammabile ad alta produttività
e lavoro generico ad alta sostituibilità; b) l’individualizzazione del lavoro,
che indebolisce i settori minori della forza lavoro; c) il graduale declino
dello stato sociale. 74 Le annotazioni di Servon (2002) e Castells (1998) indicano, ad
esempio, come negli Stati Uniti le politiche sociali, incentrate soprattutto
sul sostegno materiale ai soggetti più svantaggiati, si preoccupino
raramente di cercare soluzioni per far uscire uomini e donne dalla povertà e
per promuovere l’inclusione sociale e finiscano al contrario per ghettizzare
ulteriormente quei soggetti dipendenti dall’assistenza sociale in “condizioni
istituzionalmente punitive”. 75 Un caso esemplare, casualmente assai vicino alla metafora della
canna da pesca, è rappresentato dall’impiego di telefoni cellulari dotati di
una connessione ad Internet da parte dei pescatori delle coste occidentali
dell’India per conoscere in anticipo i prezzi sui diversi mercati locali e
individuare così la piazza più conveniente. 76 E, d’altronde, la disponibilità di adeguate fonti di energia e
infrastrutture per la sua distribuzione rimane ancora oggi uno dei principali
Spazi Pubblici Digitali 229
ostacoli allo sviluppo in molti Paesi, soprattutto dell’Africa (Castells 1998),
e una pesante limitazione alle stesse possibilità di diffusione e utilizzo delle
ICT. In molti progetti di contrasto al digital divide l’impiego delle
tecnologie si accompagna ad esempio all’installazione di pannelli
fotovoltaici dedicati; sono inoltre in fase di sperimentazione sistemi di
alimentazione che sfruttano gli stessi cavi della tecnologia di connessione
ethernet.
Cfr. news.bbc.co.uk/go/em/-/2/hi/technology/4494899.stm77 Per una rassegna di rappresentazioni visuali relative alla geografia
delle telecomunicazioni, di Internet, del World Wide Web e degli ambienti
del cyberspazio, cfr. www.cybergeography.org; www.mappedellarete.net;
www.telegeography.com; www.zooknic.com; www.mappingcyberspace.com. 78 Le possibilità offerte dalla “digitalizzazione” (codifica e
compressione) fanno si che il traffico di dati su Internet si riferisca ormai
ad un’ampia gamma di formati codificati in linguaggio binario, che vanno
dalla comunicazione-voce del tradizionale traffico telefonico (VoiceOverIP)
ai contenuti multimediali della televisione digitale (IPTv). 79 D’altra parte 10 dei 13 root nameservers che si occupano di tradurre
il formato alfabetico di un indirizzo Web digitato in un browser in una
qualsiasi parte del mondo nel suo corrispettivo numerico, si trovano negli
Stati Uniti. Gli altri tre sono, non a caso, a Londra, Stoccolma e Tokyo.
http://en.wikipedia.org/wiki/Root_nameserver80 Quest’ultimo è, ad esempio, il caso di Roma e di altre grandi città
italiane, nelle quali alcune zone meno appetibili per gli operatori di mercato
non sono ancora raggiunte dalle tecnologie per la “banda larga” (fibra ottica
e xDSL): un circolo vizioso in cui la bassa concentrazione di clienti business
e le scarse possibilità di spesa dei residenti, inducono le grandi società di
telecomunicazione a non investire nello sviluppo di quelle infrastrutture
che, oltre a migliorare le opportunità di un uso significativo di Internet da
parte degli utenti, costituiscono una delle condizioni per attrarre attività e
capitali d’investimento, in grado a loro volta, se adeguatamente indirizzate,
di attivare dinamiche di sviluppo economico sul territorio (UNARETE
2003).
Capitolo III 230
81 La cifra si riferisce ad una famiglia di standards definiti
dall’Institute of Electrical and Electronics Engineers (IEEE) e relativi ai
protocolli di comunicazione per le reti locali (LAN) e metropolitane (MAN),
fra i quali il più noto è lo standard su cavo Ethernet (802.3). Per quanto
riguarda le reti senza fili i protocolli ad ora più importanti sono due: il
primo e attualmente più diffuso è l’802.11 (Wireless LAN, comunemente
denominato WI-Fi), in particolare nelle versioni b e g, che operano nello
spettro di frequenze libero da licenze nella banda dei 2.4 Ghz e sono in
grado di trasmettere in modalità “punto-punto” (o ad hoc) o
“infrastruttura”, a velocità teoriche rispettivamente di 11 Mbps e 54 Mbps e
a distanze che vanno da meno di 100 metri fino a decine di kilometri, a
seconda della potenza dei dispositivi di trasmissione, delle caratteristiche
fisiche del “mezzo” e della morfologia del paesaggio. Il secondo, ancora in
via di sperimentazione ma più promettente, è l’802.16 (Wireless MAN,
anche detto WiMAX, acronimo per Worldwide Interoperability for
Microwave Access), che opera nello spettro di frequenze fra 2 e 11 Ghz, con
un’ampiezza di banda di 70 Mbps e con un raggio di copertura fino a 50 Km;
tali caratteristiche rendono questa tecnologia adatta a fornire connettività
senza fili ad Internet per aree estese (una città, ad esempio, o una zona
rurale) e a molti utenti contemporaneamente, integrando così le
tradizionali linee a terra per il cosiddetto “ultimo miglio” o per distanze più
lunghe, e offrendo l’opportunità di una reale mobilità senza fili, non
soggetta alle discontinuità degli hotspot tipici del Wi-Fi. Le aspettative
riposte nel wireless come opportunità per affrontare gli aspetti
infrastrutturali del digital divide si basano sull’integrazione di queste e
altre tecnologie (Press 2003). www.wikipedia.org 82 Vedi anche, in questo senso, la posizione della ICT Task Force
dell’ONU, espressa dal segretario generale Kofi Annan nel giugno del 2003,
in occasione di una conferenza dedicata alle opportunità dell’Internet
wireless per i Paesi in via di sviluppo:
www.w2i.org/pages/wificonf0603/wiofdc_welcoming.html; il comunicato
stampa ripreso dall’agenzia Reuters è consultabile all’indirizzo
lists.pluto.it/pipermail/pluto-ddivide/2003-June/000142.html.
Spazi Pubblici Digitali 231
83 Soprattutto se, come avvenuto in Italia, la regolamentazione delle
nuove tecnologie arriva a limitare fortemente il libero utilizzo di un bene
comune come lo spettro elettromagnetico, impedendo, ad esempio, la
creazione di reti wi-fi in spazi che non siano “locali aperti al pubblico e aree
confinate a frequentazione pubblica”, come stabilito dal “Decreto
Ministeriale di regolamentazione dei servizi wi-fi ad uso pubblico” emesso
dal Ministero delle Comunicazioni il 28 Maggio 2003.
http://www.comunicazioni.it/it/index.php?IdPag=699. 84 Una raccolta di notizie e documentazione, riguardanti soprattutto gli
Stati Uniti, è reperibile sul sito www.muniwireless.com. Le controversie fra
amministrazioni e operatori privati e le implicazione del municipal wireless
per il digital divide sono trattate da Jon Lebkowsky in un articolo
consultabile all’indirizzo www.worldchanging.com/archives/002146.html.
Cfr. anche www.bcn.es/sensefils per il progetto di una rete di punti di
accesso wi-fi sviluppato dalla municipalità di Barcellona e
www.cmt.es/cmt/document/decisiones/2004/RE-04-05-27-04.pdf per la
delibera con cui la Commissione per il Mercato delle Telecomunicazioni
spagnola ne ha imposto lo “spegnimento”. 85 L’ International Telecommunications Union (www.itu.int) è l’agenzia
delle Nazioni Unite nel cui ambito governi e privati si adoperano per il
coordinamento globale delle reti e dei servizi di telecomunicazione. I dati
provengono dalle indagini a campione effettuate a livello locale; il “numero
degli utenti” non è quindi un dato oggettivo, bensì una stima soggetta non
solo alle imprecisioni delle rilevazioni statistiche ma in alcuni casi anche
alle esigenze di pubblicità dei governi. Il confronto fra Paesi è reso
impreciso anche dai differenti criteri utilizzati per definire un “utente”, in
relazione all’età e alla frequenza di utilizzo minime prese in considerazione
(vedi anche nota 18). 86 Da www.internetworldstats.com, da cui provengono i dati qui
presentati, definisce un “utente di Internet” come “chiunque abbia
attualmente la possibilità di utilizzare Internet” ossia chiunque “1) abbia
accesso ad un punto di connessione ad Internet e 2) possegga le conoscenze
di base per utilizzare questa tecnologia”. Una tale definizione, se da un lato
probabilmente esclude alcune modalità di accesso alla Rete, innovative ma
Capitolo III 232
pur sempre ancora marginali (dispositivi mobili), e dall’altro tiene conto
dell’”accesso condiviso”, assai diffuso nei Paesi più poveri, certamente
sovrastima nel complesso le reali dimensioni della penetrazione di Internet
per quanto riguarda sia l’accesso sia, e a maggior ragione, il suo uso
effettivo. D’altra parte, come già sottolineato nel testo, i limiti di precisione
ed effettiva rilevanza dei dati, palesati da queste stime, non costituiscono
una distorsione troppo influente per gli scopi di confronto fra Paesi e aree
geografiche che qui ci si prefigge. 87 Ibid. 88 Ogni host è contraddistinto da un indirizzo IP. Ad ogni indirizzo IP,
composto da quattro cifre ognuna compresa fra 1 e 256, corrisponde un
“nome di dominio” in formato alfabetico, composto da più sezioni, di cui
l’ultima a destra rappresenta il cosiddetto top level domain (TLD). Esistono
fondamentalmente due tipi di TLD, i generic TLDs (.com, .edu, .gov, .int,
.mil, .net, .org, .biz, .info, .name, .pro, .aero, .coop, .museum) e i country
code TLDs (i 240 codici ciascuno di due lettere che identificano ognuno un
Paese, come .it, .uk, .fr, ecc.), soggetti a diverse policies e alla gestione da
parte di diversi organismi pubblici e privati, nazionali o internazionali, fra i
quali l’ente statunitense non profit ICANN (www.icann.org), addetto al loro
coordinamento globale. L’assegnazione di un host ad un determinato Paese
è basato sul luogo di registrazione della proprietà del dominio
corrispondente e non sulla reale collocazione geografica del “nodo” a cui è
assegnato un certo “indirizzo” nella Rete: poiché tutti i domini generici, a
prescindere da dove si trovino realmente le macchine che corrispondono a
quell’indirizzo, vengono “assegnati” agli Stati Uniti e poiché un dominio di
un Paese può corrispondere a server situati in qualsiasi parte del mondo, il
dato della concentrazione per Paese degli host presenta incertezze tanto
quanto le stime sul numero degli utenti. Cfr. www.itu.int/ITU-
D/ict/statistics/ e www.isc.org. 89 www.gandalf.it “Dati sull’Internet nel mondo 2004”. 90 Cfr. www.zooknic.com91 Letteralmente leap-frog significa “salto della rana”; nella lingua
inglese indica il “gioco della cavallina” e, metaforicamente, significa
avanzare per balzi o saltando degli stadi intermedi. L’esempio più
Spazi Pubblici Digitali 233
ricorrente portato a sostegno dell’idea del leapfrogging nell’ambito delle
“ICT per lo sviluppo”, è quello dell’implementazione delle reti della
telefonia mobile. In molti Paesi “poveri” o “in via di sviluppo” carenti in
infrastrutture e con popolazioni disperse in vasti territori rurali, la
tecnologia cellulare ha permesso una copertura del territorio a costi più
bassi rispetto a quelli delle tradizionali “linee a terra”, favorendo in tal
modo migliori comunicazioni e di conseguenza una crescita della redditività
delle attività economiche. In molti di questi Paesi, tra cui le economie
emergenti di Cina e India il numero delle utenze mobili ha raggiunto e
superato quello delle utenze fisse, così come già successo, partendo da tassi
di penetrazione assai diversi, nei Paesi ricchi. In Africa, ad esempio, il
sorpasso è avvenuto nel 2001. Le tecnologie wireless per l’accesso ad
Internet rappresentano un altro potenziale caso di leapfrogging (cfr. nota
10). 92 Per il dibattito sui rapporti fra sviluppo, "sostenibilità" e crescita, e
per la provocatoria idea della “decrescita”, si vedano anche Latouche
(2001, 2003, 2004) e ancora Harribey (2002). Per un quadro generale delle
questioni dello sviluppo cfr. Sen (2002). 93 Computer desktop e portatili, workstation, server, periferiche varie
come stampanti, scanner, masterizzatori CD e DVD, modem PSTN, ISDN e
xDSL, dispositivi di rete quali switch, HUB, HAG, router, access point;
consoles per videogiochi, dispositivi per la televisione digitale terrestre, via
cavo o satellitare, personal video recorder, antenna satellitare, telefoni
cellulari, smartphone, palmari, lettori DVD-DviX-MP3 e foto, lettori CD
audio, proiettori digitali, ecc. 94 Infrastrutture di telecomunicazione con e senza fili, intranet e
internet, reti peer to peer, reti GSM e UMTS per la telefonia mobile,
satelliti geostazionari per Internet e la TV, ecc. 95 Software, e-mail, pagine Web, siti, documenti di testo, immagini,
audio, video, arte digitale; risorse, informazioni e servizi fruibili sul World
Wide Web, VoIP, messaging e chat, streaming audio e video, file-sharing;
contenuti di CD-ROM o DVD-ROM, videogiochi, ecc. 96 Pagine e servizi Web ed e-mail su telefonini, smartphone e palmari,
TV digitale su telefonini e smartphone UMTS (!), SMS e fax via e-mail, ecc.
Capitolo IV
Prodigi in Tunisia: laboratori comunitari
1. La Tunisia in rete
In questo capitolo si cercherà di osservare nella pratica
alcune delle considerazioni fatte finora, concentrando
l’attenzione prima su un singolo Paese, e poi, restringendo
ulteriormente il campo, su un progetto realizzato al suo interno
dall’Associazione Prodigi in collaborazione con la ONG italiana
Alisei e con l’agenzai tunisina UTSS. Obiettivo di questa analisi
è, da una parte, osservare come entro i confini di un piccolo stato
diversi soggetti attivi nell’ambito dell’informatica e delle
telecomunicazioni abbiano collaborato o si siano scontrati per la
definizione di politiche finalizzate a diffondere le ICTs sul
territorio; dall’altra, prendere in esame come alcuni degli
strumenti definiti in questo lavoro possano essere impiegati
concretamente all’interno di un progetto orientato ad una
comunità.
Il paese in esame, la Tunisia, è un paese contraddittorio
sotto il profilo delle politiche elaborate per combattere la piaga
dell’esclusione digitale. È qui che, nel Novembre 2005, si terrà il
Capitolo IV 236
secondo appuntamento del Summit Mondiale sulla Società
dell’Informazione, durante il quale si riuniranno i potenti della
terra con l’obiettivo di definire strategie comuni per la lotta
contro il digital divide; per l’occasione il governo ha già messo in
cantiere ambiziose iniziative per dimostrarsi un esempio da
seguire per il continente africano. Tuttavia, questa è al tempo
stesso la nazione in cui Zouhair Yahyaoui, per tutti Ettounsi, il
fondatore del più popolare portale tunisino, TUNeZine.com, è
stato arrestato nel 2002 con l’accusa di diffamazione e utilizzo
non autorizzato di spazio su Internet e condannato a due anni di
carcere, per la sola ragione di aver creato uno degli spazi digitali
più frequentati dall’opposizione al governo e di aver pubblicato
articoli che esprimevano forti perplessità sulla legittimità del
referendum che ha esteso l’immunità al presedente Ben Ali fino
al 2004. Rilasciato dopo 18 mesi, Ettounsi è morto nel marzo del
2005, sfiancato dalle dure condizioni della detenzione a cui è
stato sottoposto e per le quali il Paese africano è tristemente
noto.
La Tunisia è il paese che ha avviato uno dei programmi
educativi più ambiziosi del Nord-Africa, rendendo obbligatorio
l’insegnamento dell’informatica in tutti gli istituti secondari e
programmando di connettere tutte le scuole superiori del paese
entro la fine del 2003, ma è anche il paese in cui da anni viene
esercitata una forte censura nei confronti dei siti stranieri i cui
contenuti non siano approvati dal governo. Vicino Tunisi è stato
creato il centro di calcolo e di ricerca di El Khawarizemi, il più
importante della regione del Maghreb, ma nel sud del paese i
tempi di attesa per ottenere un allacciamento alla rete telefonica
possono ancora superare i due anni.
Prodigi in Tunisia 237
1.1 Il mercato delle telecomunicazioni
Fin dall’indipendenza, ottenuta dalla Tunisia nel 1956, il
mercato delle telecomunicazioni è stato controllato e regolato
dallo stato attraverso il Ministero delle Comunicazioni e dei
Trasporti. Nel 1995 il Parlamento ha approvato una legge che ha
istituito un ufficio specializzato per le telecomunicazioni e ha
trasformato la precedente struttura amministrativa in
un’impresa pubblica con un orientamento industriale e
commerciale. Come conseguenza di tale decisione, nel 1996
l’operatore monopolista tunisino, prima conosciuto come
Direttorato Generale delle Telecomunicazioni, ha preso il nome
di Tunisie Telecom, mentre il Ministero delle Comunicazioni ha
continuato a mantenere il suo ruolo di regolamentazione ed è
tuttora responsabile per lo sviluppo dell’infrastruttura nazionale.
Il mercato delle telecomunicazioni tunisino è stato quindi
caratterizzato da un forte controllo statale, che non ha permesso
la nascita di network alternativi, ma recentemente
l’avvicinamento all’Unione Europea, con l’obiettivo di creare con
essa un’area di libero scambio, ha costretto il paese ad avviare
un’ampia serie di riforme strutturali. Il passo più importante in
questa direzione è stata la firma nel febbraio 1997 del WTO
Agreement on basic telecommunication service, che ha costretto
il paese ad una progressiva liberalizzazione del settore delle
telecomunicazioni e all’apertura agli operatori stranieri.
Gli accordi con l’UE e il WTO hanno consentito l’ingresso nel
gennaio 2003 di un secondo operatore, l’egiziana Orascom, che
ha interrotto il regime monopolistico di Tunisie Telecom nel
campo della telefonia fissa e mobile. Questo potrebbe nel lungo
periodo consentire un abbassamento delle tariffe1
, anche se
alcune dichiarazioni riportate dalla stampa tunisina lasciano non
Capitolo IV 238
pochi dubbi: “anche se ci si può aspettare che Tunisie Telecom e
Orascom si diano aspra battaglia sul piano economico, la
differenza tra i due operatori si stabilirà soprattutto a livello dei
servizi proposti agli abbonati e non sul piano delle tariffe” (Sassi
Sam 2002). Un’altra domanda che finora non ha ricevuto
risposte riguarda la possibilità che questo duopolio possa portare
o meno vantaggi sul piano della copertura infrastrutturale: in
Tunisia, infatti, sono più di 100000 le domande di allacciamento
alla rete rimaste tuttora inevase e nessuno dei due operatori ha
finora definito una politica chiara in relazione a questo
problema.
Per quanto riguarda la comunicazione a commutazione di
pacchetto, cioè Internet, il mercato è coperto da un operatore
pubblico e da due privati. La compagni pubblica, l’Agenzia
Tunisina per Internet (ATI) è stata creata nel 1996 come costola
di Tunisie Telecom, che ne controlla attualmente il 51%,
amministra la dorsale tunisina, gestisce il dominio “.tn” e offre
servizi alle agenzie pubbliche, alle ONG e ai centri di ricerca. I
due altri operatori, Global Net e Planet Tunisie, offrono invece
accesso ai privati. Tutti e tre i provider sono sottoposti al
controllo del Ministero delle Comunicazioni, il quale esercita una
forte pressione sulla selezione dei contenuti che gli utenti
possono o meno consultare. Questa forma di censura è esercitata
in maniera sottile e non è dichiarata apertamente: non esistono
divieti precisi nei confronti di determinati siti, ma se ci si trova a
digitare un indirizzo non gradito agli enti governativi, in risposta
si avrà una pagina bianca con l’indicazione “operazione
annullata”.
Prodigi in Tunisia 239
1.2 Le mappe della connettività
A partire dal 1996, l’anno in cui hanno avuto inizio le prime
riforme strutturali, il settore delle telecomunicazioni ha
conosciuto una rapida crescita. Per quanto riguarda la telefonia
fissa, si è passati dalle 585.200 linee del 1996 al milione circa del
2002, anche se il tasso di penetrazione rimane ancora basso (in
media solo un abitante su 10 è allacciato alla rete telefonica). Ma
è soprattutto nel settore della telefonia mobile che si sono
registrati i maggiori progressi, passando in poco più di sei anni
dalle 5.500 unità del 1996 alle 200.000 del 20022
.
Anche nel caso delle tecnologie informatiche la Tunisia ha
conosciuto una rapida crescita, passando dalle poche migliaia di
utenti Internet nel 1995, ai circa 400.000 nel 2002 (un numero
comunque esiguo in rapporto alla popolazione tunisina, solo il
4,4% sul totale). Tuttavia controllando gli schemi di consumo e
di utilizzo delle nuove tecnologie, i risultati mostrano abitudini
ben diverse rispetto a quelle riscontrate in Europa. Buona parte
delle tecnologie informatiche diffuse sul territorio sono state
impiegate soprattutto per l’informatizzazione di aziende, scuole e
uffici pubblici3
e, per quanto riguarda la connessione ad
Internet, nella maggior parte dei casi l’accesso viene effettuato
attraverso postazioni pubbliche o dal posto di lavoro, mentre il
consumo domestico rimane limitato ad una ristretta cerchia di
persone. Infatti dei circa 220.000 computer in circolazione alla
fine del 2000, soltanto 9000 appartenevano ad utenti domestici,
e dei 400.000 utilizzatori della rete rilevati nel 2002, solo
25.0004
possedevano una connessione a casa propria. Inoltre i
numeri variano sensibilmente se ci si sposta dalle aree urbane
verso quelle rurali e dal nord industrializzato verso il sud del
paese. Se l’infrastruttura informatica è estremamente capillare
Capitolo IV 240
intorno all’area di Tunisi, dove è concentrato quasi il 50%
dell’utenza complessiva di Internet e circa l’80% delle linee
veloci5
, le zone interne sono poco servite e tanto la rete elettrica
quanto quella telefonica consentono una fornitura estremamente
discontinua.
1.3 Le politiche pubbliche
Le strategie attuate dal governo per sostenere il mercato
delle ICTs e assicurare una loro più ampia diffusione sul
territorio si sono andate delineando intorno a tre assi principali:
- l’ammodernamento delle infrastrutture, sia sul fronte
internazionale attraverso migliori connessioni alla rete mondiale,
sia sul fronte interno, creando poli regionali in grado di
migliorare la qualità delle trasmissioni tra diverse aree del paese.
Su questo fronte il governo tunisino ha ricevuto l’appoggio di
grandi partner privati, come Alcatel, Ericsson e Novertel, che
hanno svolto un ruolo importante nella digitalizzazione delle
infrastrutture;
- il sostegno dell’economia attraverso la promozione di
programmi di e-commerce. Per raggiungere questo obiettivo nel
1997 è stata creata un’apposita Commissione Nazionale per il
Commercio Elettronico, che ha riunito tra loro diversi ministeri e
segreterie (comunicazioni, trasporto, turismo, informatica,
ricerca scientifica e tecnologica). Il governo tunisino ha deciso di
investire molto in questo settore, velocizzando le procedure
legate al commercio con l’estero per sostenere le esportazioni via
Internet, rendendo più semplici e sicure le transazioni
elettroniche per facilitare l’opera degli operatori nazionali dell’e-
commerce e aprendo una serie di portali e negozi virtuali per la
vendita di prodotti tipici, come vestiti, piccoli oggetti
Prodigi in Tunisia 241
d’artigianato, spezie, oppure l’acquisto on-line di pacchetti
turistici o la prenotazione di alberghi e visite guidate. E’ stata
stimolata anche la creazione di gruppi di studio sul commercio
elettronico, tenuti a presentare periodicamente rapporti
sull’andamento del mercato e nuove strategie da adottare;
- l’avvio di campagne per la sensibilizzazione della
popolazione all’utilizzo della tecnologia, soprattutto a partire
dalle scuole medie e superiori. Solo nel 2000 sono stati spesi
circa 4 miliardi di dinari per equipaggiare le scuole con
apparecchiature informatiche connesse alla rete, mentre
l’insegnamento dell’informatica è diventato obbligatorio in tutte
le scuole superiori del paese.
1.4 Il progetto Publinet
Tra le diverse misure adottate dal governo tunisino per
rispondere alle sfide della Società dell’informazione e cercare di
stimolare la penetrazione delle ICTs sul territorio, il progetto
Publinet è quello che ha attirato maggiormente l’attenzione sul
piano sia nazionale sia internazionale. Questo progetto è stato
lanciato nell’ottobre 1998 con due obiettivi principali: consentire
l’accesso a Internet e ai suoi servizi in tutta la nazione e creare
nuove opportunità di lavoro per i giovani diplomati o laureati.
Esso consiste sostanzialmente nella messa in opera di centri
pubblici d’accesso in diverse aree del paese, che debbano fungere
da postazioni privilegiate per l’utilizzo della rete, in una realtà in
cui solo in pochi possono permettersi l’acquisto di un PC o
l’abbonamento ad un provider. Per l’apertura di un Publinet lo
stato interviene fornendo il 50% della cifra necessaria e
facilitando la concessione di crediti agevolati per la parte
restante. In cambio, ogni Publinet, la cui gestione è affidata a
Capitolo IV 242
giovani diplomati o laureati, è tenuto a rispettare alcuni
parametri, tra cui l’impegno a non superare una tariffa massima
per l’accesso alla rete (2 dinari l’ora, poco meno di 1,5 _),
inferiore rispetto a quella che sarebbe tenuto a pagare un utente
per connettersi dalla propria abitazione.
Tutt’ora in Tunisia esistono 306 Publinet, di cui 152 (cioè
quasi il 50%) concentrati nella regione di Tunisi. Secondo un
recente studio (Sassi Sam, 2002), il progetto ha finora riscosso
un buon successo presso determinate categorie di utenti. La
frequenza media con cui un utilizzatore abituale si reca presso
una delle postazioni informatiche è di circa 4 volte la settimana,
per un consumo medio che si aggira intorno all’ora e mezza. Per
quanto riguarda invece il tipo di uso che viene fatto della rete, il
20% degli individui spendono il loro tempo prevalentemente in
attività di ricerca, il 44% in comunicazioni dirette via chat6
, il
28% per usare la propria posta elettronica, mentre il 4% non è in
grado di definire con precisione quale sia la propria attività
prevalente.
La popolazione dei frequentatori dei Publinet può essere
suddivisa in due gruppi:
- un gruppo composto da studenti universitari e medi che
dispongono di poche risorse economiche, ma sono
sufficientemente motivati per recarsi presso le postazioni
pubbliche;
- un gruppo composto da giovani quadri in possesso per la
maggior parte di un diploma di studi superiore.
Entrambi i gruppi utilizzano la rete prevalentemente per
intrattenersi o per svolgere attività collegate con il proprio
lavoro. La realizzazione dei Publinet ha incontrato quindi
soprattutto la domanda di persone già disposte a utilizzare le
nuove tecnologie o perché motivati (può essere ad esempio il
Prodigi in Tunisia 243
caso di quadri o studenti universitari che possono utilizzare
informazioni raccolte in rete per le proprie attività di studio e
lavoro o di comunicazione) o perché in possesso di risorse
sufficienti per spendere tempo in rete alla ricerca di notizie
interessanti o siti di intrattenimento. “Nonostante
potenzialmente tutti gli individui possano avere accesso a
Internet attraverso i Publinet, solo studenti e quadri utilizzano
queste infrastrutture”(Ben Sassi, 2002). Solo quegli individui già
dotati di un interesse preciso verso l’utilizzo della rete si recano
presso le postazioni pubbliche. E qui ritorna ancora una volta “il
problema dei contenuti della rete, contenuti che non rispondono
ai problemi quotidiani dei paesi in via di sviluppo” (ibid.).
Nonostante il progetto abbia costituito un grosso aiuto per la
popolazione, mettendo a disposizione strumentazioni altrimenti
irraggiungibili per la maggior parte degli individui, sembra
necessario che vengano sviluppate altre strategie se si vuole fare
delle tecnologie uno strumento per l’inclusione sociale. La loro
capacità di mettere a disposizione di chiunque, a costi
relativamente bassi, strumenti sufficienti per poter partecipare
attivamente alla nascente Società dell’Informazione, di livellare
il campo di lotta, facendo della conoscenza, ovunque distribuita,
la principale fonte di valore aggiunto, rischia di rimanere solo
potenziale in assenza di politiche in grado di riconoscere le
complesse interazioni tra scopi, strumenti, culture, motivazioni,
risorse.
Capitolo IV 244
2. Il Progetto Prodigi in Tunisia
2.1 Le attività sul campo: mediazione e formazione
Il primo intervento sul campo dell’equipe di Prodigi si è
svolto nell’agosto 2003, in collaborazione con la ONG italiana
Alisei e l’Union Tunisienne de Solidarieté Sociale (UTSS) e ha
permesso di installare due laboratori informatici nella città di
Gabès e nell’oasi di Kerchaou, nel Sud- Est della Tunisia (figura
1), e di formare 30 persone all’utilizzo delle tecnologie
informatiche. II progetto ha visto l'impegno di 11 volontari di
diversa formazione coadiuvati in loco da due esperti tunisini di
software libero, anch’essi volontari.
I fondi necessari alla sua realizzazione sono stati raccolti con
diverse modalità:
- buona parte è frutto di autofinanziamento da parte di
Prodigi (autotassazione, spese di viaggio a carico dei volontari,
iniziative di finanziamento)
- il resto deriva dal sostegno offerto dalle due ONG partner
del progetto, Alisei per la spedizione del materiale e l’UTSS per il
supporto logistico in loco.
Durante le tre settimane di permanenza sono stati realizzati
parallelamente tre differenti corsi di formazione, studiati per
rispondere alle esigenze espresse dalle comunità locali e per
garantire la sostenibilità dei laboratori al termine del progetto.
Prodigi in Tunisia 245
Fig 1. Le comunità interessate dal Progetto Prodigi in Tunisia
Capitolo IV 246
Il primo dei corsi, quello per mediatori, è stato pensato per
formare figure capaci di svolgere il ruolo di “interfacce umane”
tra la tecnologia e gli individui, di tradurre in operazioni
effettuate attraverso la macchina richieste avanzate da persone
che non intendono imparare ad usare un computer, ma che
possono averne bisogno solo occasionalmente (per verificare la
disponibilità di fondi per determinate attività agricole, per
mettersi in contatto con parenti lontani, ecc.). L’idea che sta alla
base di questa scelta è che l’utilizzo delle ICTs non debba essere
imposto alle popolazioni dei paesi in via di sviluppo come una
necessità, un dovere, se queste vogliono rimanere al passo con i
tempi. Al contrario, le nuove tecnologie devono rappresentare
soprattutto una risorsa in più al servizio delle esigenze di
comunità e individui, tanto di quelle più radicate, quanto di
quelle più recenti.
Il corso per formatori, invece, si è rivolto a figure già attive
nel campo della cooperazione o della formazione (insegnanti,
animatori, ecc). L’obiettivo è stato quello di affidare la
trasmissione delle nuove competenze informatiche a individui
già investiti dalla comunità del compito di trasmettere la
conoscenza e già in possesso di strumenti adeguati per formare
nuove persone al temine del progetto.
Infine, una formazione più intensa e più tecnica è stata
riservata ad un
gruppo ristretto, di sole 4 persone, allo scopo di offrire loro
le competenze necessarie per essere i futuri manutentori dei
laboratori informatici e di rendere i centri il più possibile
autosufficienti, almeno rispetto ai problemi più frequenti e meno
complessi.
Per quanto riguarda la scelta dei beneficiari, questa è stata
effettuata, non senza difficoltà, in collaborazione con l’UTSS
Prodigi in Tunisia 247
prima della realizzazione dei corsi e dei laboratori, cosa che ha
consentito di adeguare il più possibile la formazione alle esigenze
e alle competenze locali e di ottenere una forte partecipazione
femminile alle attività.
Nell’orientare la formazione, tuttavia, è stata riservata
maggiore importanza al ruolo che i diversi beneficiari avrebbero
dovuto svolgere al termine del progetto piuttosto che alle loro
competenze pregresse. Infatti, rispetto ad un approccio più
tradizionale, che avrebbe portato a dividere gli allievi tra un
corso “base” e uno “avanzato”, a seconda del loro curriculum, è
stato preferito un atteggiamento che attribuisse maggior peso ai
compiti che ognuno avrebbe dovuto svolgere all’interno della
propria comunità, una volta formato. Inoltre, l’aver preferito
corsi per mediatori e formatori a corsi base e avanzati, ha evitato
di creare nuove gerarchie tra la popolazione interessata dal
progetto, un effetto indesiderato comune anche ai progetti di
sviluppo ispirati alle migliori intenzioni.
2.2 Il contatto con il territorio
Un aspetto che si è rivelato essenziale non solo per lo
svolgimento delle attività, ma anche per il futuro dei laboratori, è
stato il contatto preso con le organizzazioni e comunità locali
prima della realizzazione del progetto.
La scelta dell’oasi di Kerchaou come sede di uno dei due
laboratori è sta effettuata infatti dietro ad una richiesta esplicita
della popolazione locale, interessata ad ampliare le proprie
attività attraverso l’utilizzo delle tecnologie informatiche. Il
laboratorio di Kerchaou è stato installato in un centro
precedentemente realizzato da Alisei, gestito da un comitato
locale, il quale ha visto nelle nuove tecnologie un’opportunità per
Capitolo IV 248
sostenere alcune delle iniziative già avviate dalla comunità (corsi
di educazione alla salute e di microcredito). La forte motivazione
della componente locale è stata di grande aiuto durante la
formazione e ha consentito di fare del laboratorio un centro di
socializzazione anche dopo la fine del progetto.
L’installazione del laboratorio, poi, è stata accompagnata da
tutta una serie di attività collaterali (pitture murali, proiezione
di film, partecipazione a matrimoni locali) che hanno ricoperto
un ruolo estremamente importante nell’avvicinare l’equipe alla
popolazione e nel presentare il laboratorio stesso non come
qualcosa di alieno e imposto dall’alto, ma come un servizio di cui
potersi appropriare con facilità.
Un ulteriore legame con la realtà tunisina è stato
rappresentato dalla presenza di due esperti di software libero
tunisini, contattati fin dall’Italia, che hanno affiancato le attività
di formazione (normalmente svolte in francese) con seminari in
arabo sul software libero e la realizzazione di pagine web. Il loro
coinvolgimento nel progetto ha consentito di mettere in contatto
realtà che probabilmente non si sarebbero mai incontrate e
rappresenta tutt’ora una garanzia di sostenibilità del progetto,
qualora dovessero sorgere problemi che i beneficiari del progetto
non siano in grado di risolvere autonomamente.
2.3 Laboratori e corsi di formazione
I due laboratori, allestiti a Gabés e Kerchaou con computer
dimessi da enti pubblici e privati ma ancora funzionanti, sono
stati concepiti non solo come luoghi di accesso alle nuove
tecnologie, ma come spazi di pubblica utilità aperti alle comunità
locali, luoghi di aggregazione e formazione.
Prodigi in Tunisia 249
Ciascun laboratorio è composto da 5 computer e da una
stampante collegati fra loro in modo da formare una piccola rete
locale. La connessione a Internet è garantita da un provider
locale. Per quel che riguarda la dotazione software dei laboratori
sono stati utilizzarti esclusivamente prodotti “open source”. La
scelta è quindi ricaduta sul sistema operativo GNU/Linux e su
alcuni degli applicativi più comuni presenti in diverse
distribuzioni:
OpenOffice per i programmi d'ufficio, Mozilla per la
navigazione e la creazione di pagine web, e Gimp come
applicativo di grafica.
Particolare attenzione è stata prestata inoltre alla
localizzazione delle macchine (tastiere, sistema operativo e
software installato) in lingua francese (la seconda lingua parlata
in Tunisia) e in arabo su alcuni computer, grazie all'aiuto degli
esperti tunisini.
I corsi di formazione per mediatori e formatori, tenuti in
lingua francese da docenti coadiuvati da più assistenti d’aula,
sono stati strutturati in modo da fornire ai beneficiari un
bagaglio di nozioni informatiche adeguato al ruolo di
intermediari con le tecnologie che questi avrebbero svolto
all’interno delle rispettive comunità di origine una volta ultimata
la formazione. Gli argomenti trattati hanno spaziato dall’uso
dell’elaboratore elettronico e della sua interfaccia grafica,
all’utilizzo di programmi di videoscrittura e di fogl elettronici,
dalla navigazione e ricerca di informazioni su Internet, all’uso
della posta elettronica. Alla programmazione di pagine web sono
stati invece dedicati dei seminari pomeridiani durante i quali i
beneficiari, divisi gruppi di lavoro, hanno realizzato dei siti web
comunitari e personali attualmente ospitati sul sito di Prodigi 7.
Capitolo IV 250
Nel corso indirizzato alle 4 persone cui è stato affidata la
gestione quotidiana dei laboratori sono state invece affrontate
tutta una serie di problematiche relative alla manutenzione e al
buon funzionamento degli stessi: cablaggio, installazione del
sistema operativo, configurazione della rete locale,
amministrazione della connessione ad Internet anche in termini
di costi, gestione della stampa per citarne alcune.
2.4 La scelta del software libero
La scelta di utilizzare software libero in un progetto di
cooperazione è mossa innanzitutto da una serie di valutazioni di
ordine teorico. L’attuale scenario mondiale vede le nuove
tecnologie trasformarsi da occasione di sviluppo delle nazioni ed
opportunità di miglioramento delle condizioni di vita degli
individui in uno nuovo strumento di esclusione sociale ed
economica. Le divisioni tra la minoranza di individui che vi ha
accesso e che può quindi avvantaggiarsene e la maggioranza a cui
questo è precluso invece che assottigliarsi si vanno acuendo. I
grandi centri di innovazione tecnologica, impegnati a tutelare i
loro interessi tramite l'imposizione di brevetti e la strenua difesa
della proprietà intellettuale, stanno limitando la diffusione delle
conoscenze tecniche, relegando la maggior parte delle persone
nella condizione di semplici consumatori e non di utilizzatori
consapevoli delle tecnologie. In questo contesto il software
libero, una tecnologia aperta per natura, sembra più adatta a
favorire la condivisione delle conoscenze e il formarsi di una
maggiore consapevolezza tecnologica.
In realtà, come i paesi in via di sviluppo, inoltre l’impiego
del software libero presenta dei vantaggi rispetto alle soluzioni
proprietarie. In primo luogo l’accessibilità al codice sorgente e la
Prodigi in Tunisia 251
libertà di modificarlo ne fanno una tecnologia capace di
rispondere ad esigenze circoscritte, trascurate dalle grandi
multinazionali dell’ICT, orientate verso i grandi mercati e i
grandi profitti. Il basso (a volte nullo) costo delle licenze e la
concreta possibilità di utilizzarlo anche su hardware datato
rendono poi quella open source una tecnologia sicuramente più
sostenibile. Non bisogna infine dimenticare ’esistenza di una
comunità mondiale di sviluppatori e utilizzatori già strutturata e
motivata che ben si presta alla realizzazione di progetti di
sviluppo che prevedano l’impiego di queste tecnologie, come è
stato dimostrato dalla stessa esperienza di Prodigi.
Capitolo IV 252
Note
1 Le tariffe applicate da Tunisie Telecom, per quanto possano essere
elevate se comparate con la media europea, sono comunque tra le più basse
rilevate sulla sponda meridionale del Mediterraneo: 0,008 _ al minuto per
chiamate locali, 0,09 _ per chiamate interurbane e circa 10 _ per 20 ore di
connessione ad Internet2 Per ottenere un abbonamento alla rete mobile (in Tunisia non sono
ancora state commercializzate le schede prepagate) può essere necessario
attendere dai 3 ai 6 mesi, tempo cui gli operatori effettuano controlli sulla
situazione patrimoniale e lavorativa del ichiedente. 3 Il numero di “business PC” nel 2000 era pari a 210.000, il 95% sul
totale. 4 Fonte: Agenzia Tunisina per Internet (ATI) 5 In Tunisia finora lo standard più evoluto è l’ISDN che consente una
trasmissione dati a 64kps, mentre lo standard DSL dovrebbe cominciare ad
essere implementato a partire da quest’anno. Solo pochi istituti possono
accedere a connessioni a banda larga, ottenute principalmente tramite
connessioni radio o via satellite 6 Le chat hanno riscosso un grande successo presso gli internauti
tunisini e tra i siti più frequentati dai giovani utenti dei Publinet si colloca
Amour.fr, che, come si può capire dal titolo, offre l’opportunità di fare
incontri virtuali alla ricerca dell’anima gemella. 7 www.pro-digi.org/siti.html
Bibliografia
ANDERSON B. 1991. Imagined Communities. London: Verso (trad.
it. Comunità immaginate. Origini e fortuna dei nazionalismi.
Roma: Manifestolibri. 1996 [2000] ).
BECK U. 1986. Risikogesellschaft. Auf dem Weg in eine andere
Moderne. Frankfurt a.M.: Suhrkamp (trad. it. La società del
rischio. Roma: Carocci. 2000).
BEN SASSI Sami. 2002. La diffusion de nouvelles technologies de
l’information et de la comunication dans le pays en voie de
développment.
—— . 2003. Les publinets de Tunis. Une analyse microéconomique.
BELL D. 1973. The Coming of Post-Industrial Society. A Venture in
Social Forecasting. New York: Basic Books.
BENINGER J. R. 1986. The Control Revolution: Technological and
Economic Origins of the Information Society. Cambridge, MA:
Harvard University Press (trad. It. Le origini della Società
dell’Informazione: la rivoluzione del controllo. Torino: UTET.
1995).
BENTIVEGNA S. 1999. La politica in rete. Roma: Meltemi
—— . 2003. Politica e nuove tecnologie della comunicazione. Bari:
Laterza
BERARDI F. 2001. “Classe virtuale e cognitariato” in Bonora P. (a
cura di). Comcities. Bologna: Baskerville.
—— . 2003. Che significa oggi autonomia. Republicart.net.
republicart.net/disc/realpublicspaces/berardi01_it.htm Ultimo
accesso 3 Marzo 2005.
Bibliografia 254
BERRA M. e MEO A. R. 2001. Informatica solidale. Torino: Bollati
Boringhieri.
BLACK E. 2001. IBM and the Holocaust. New York: Crown. (trad. it.
L’IBM e l’Olocausto. Milano: Rizzoli. 2001).
BOLTER J. D. e GRUSIN R. 1999. Remediation. Understanding New
Media. Cambridge, MA – London, UK: MIT Press. (trad. it.
Remediation. Competizione e integrazione tra media vecchi e
nuovi. Milano: Guerini e Associati. 2002).
BONORA P. 2001. “Domini della comunicazione tra confini
dell’appartenenza e recinti elettronici”. in Id. (a cura di).
Comcities. Bologna: Baskerville.
BROWN J. S. e DUGUID P. 2000. The Social Life of Information.
Boston: Harvard Business School Press. (trad. it. La vita sociale
dell’informazione. Miti e realtà nell’era di Internet. Milano:
ETAS. 2001).
BUCHANAN M. 2003. Nexus. Milano: Mondadori
CARLINI F. 2002. Divergenze Digitali. Conflitti, soggetti e
tecnologie della terza Internet. Roma: Manifestolibri.
CARVIN A. 2000. “Mind the Gap: The digital divide as the civil
rights issue of the new millennium”. Multimedia Schools vol.7
n°1. www.infotoday.com/MMSchools/Jan00/carvin.htm
Ultimo accesso 3 Marzo 2005.
CASTELLS M. 1996 [2000]. The Rise of the Network Society. Vol. I
di The information age: Economy, Society and Culture. Oxford:
Blackwell. (trad. it. La nascità della società in rete. Vol I de
L’Età dell’Informazione: Economia, Società e Cultura. Milano:
EGEA. 2002).
—— . 1997. The Power of Identity. Vol. II di The information age.
Oxford: Blackwell. (trad. it. Il potere delle identità. Vol. II de
L’Età dell’Informazione. Milano: EGEA. 2003).
Bibliografia 255
——. 1998 [2000]. End of Millennium. Vol. III di The information
age. Oxford: Blackwell. (trad. it. Volgere di Millennio. Vol III
de L’Età dell’Informazione. Milano: EGEA. 2003).
—— . 2001. Internet Galaxy. New York: Oxford University Press.
(trad. it. Galassia Internet. Roma: Feltrinelli. 2002).
CASTELLS M. e HIMANEM P. 2002. The Information Society and
the Welfare State. The Finnish Model. New York: Oxford
University Press
CENSIS. 2004. E-democracy. Un’opportunità per tutti? Roma:
Fondazione CENSIS.
CERI P. e BORGNA P. (a cura di). 1998. La tecnologia per il XX!
Secolo. Prospettive di sviluppo e rischi di esclusione. Torino:
Einaudi.
CIPR (Commission on Intellectual Property Rights). 2002. “Chapter
5: Copyright, Software and the Internet”. in Id. Integrating
Intellectual Property Rights and Development Policy. London:
CIPR.
CISLER S. 2000. Subtract the digital divide.
www.athenaalliance.org/rpapers/cisler.html Ultimo accesso 3
Marzo 2005.
COMMISSIONE EUROPEA. 2001. e-Inclusion: The Information
Society's potential for social inclusion in Europe. Commission
Staff Working Document SEC (2001)1428
http://europa.eu.int/comm/employment_social/knowledge_so
ciety/eincl_en.pdf COMMISSIONE EUROPEA. 2005. e-Inclusion revisited: The Local
Dimension of the Information Society. Commission Staff
Working Document SEC (2005)206.
http://europa.eu.int/comm/employment_social/knowledge_so
ciety/eincl_local_en.pdf
COULDRY N. 2002 The forgotten Digital Divide: researching social
exclusion/inclusion in the age of personalised media. Paper
Bibliografia 256
COULDRY N. 2003. “The Digital Divide” in Gauntlett D. (a cura di)
Web.studies. London: Arnold
DAVISON E. E COTTON S.R. 2003. “Connection Discrepancies:
Unmasking Further Layers of the Digital Divide”. First Monday
vol. 8 n°3.
http://www.firstmonday.org/issues/issue8_3/davison/index.ht
ml
DE CERTAU M. 1980. L’invention du quotidian. Paris. UGE (trad.
It. L’invenzione del quotidiano. Roma: Edizioni Lavoro. 2001)
DE GAUDEMAR J. P. 1979. La mobilisation générale. Paris:
Editions du Champ Urbain.
Di BONA C., OCKMAN S. e STONE M. (a cura di) 1999. Open
Sources: Voices from the Open Source Revolution. San
Francisco: O’Reilly Eds. (trad. it. Open Sources. Voci dalla
rivoluzione Open Source. 1999. Milano: OpenPress
Apogeo) http://www.apogeonline.com/ebook/90016/scheda
DI CORINTO A. e TOZZI T. 2002. Hacktivism. La libertà nelle
maglie della Rete. Roma: Manifestolibri.
DI MAGGIO P. e HARGITTAI E. 2001. From the “digital divide” to
“digital inequality”: Studying Internet use as penetration
increases. Working Paper - Center for Arts, Cultural and
Political Studies, Princeton University.
DI MAGGIO P., HARGITTAI E., NEUMAN W. R. e ROBINSON J. P.
2001. “Social Implications of the Internet”. Annuals Review of
Sociology 27: 307-336.
DI MAGGIO P., HARGITTAI E., CELESTE C. E SHAFER S. 2004.
From Unequal Access to Differentiated Use: A Literature
Review and Agenda for Research on Digital Inequality. Russel
Sage Foundation.
DRAVIS P. 2003. Open Source Software. Perspectives for
Development. Washington: World Bank - Information for
Development Program InfoDev. www.infodev.org
Bibliografia 257
FEENBERG A. 1999. Questioning technology. London: Routledge.
(trad. it. Tecnologia in discussione. Milano: ETAS. 2002).
FEENBERG A. e BAKARDIIEVA M. 2002. “Community Technology
and Democratic Razionalization”. The Information Society 18:
181-192.
FIDLER R. 1997. Mediamorphosis. Understanding New Media.
London: Pine Forge Press. (trad. it. Mediamorfosi.
Comprendere i nuovi media. Milano: Guerini e Associati. 2000)
FORMENTI C. 2002. Mercanti di futuro. Utopia e crisi della Net
Economy. Torino: Einaudi.
.FONSECA R. e PAL J. 2004. Bringing Devices to the masses: a
comparative study of the Brazilian Computador Popular and
the Indian Simputer. Berkeley : University of California.
FOUCAULT M. 1975. Surveiller et punir: naissance de la prison.
Paris : Gallimard. (trad. it. Sorvegliare e punire : nascita della
prigione. Torino: Einaudi. 1993).
GALLINO L. 1998 “Critica della ragione tecnologica. Valutazione,
governo, responsabilità dei sistemi sociotecnici” in Ceri P. e
Borgna P. (op. cit.)
– — . 2000. Globalizzazione e disuguaglianze. Roma-Bari: Laterza.
GHOSH R. A. 2003. “Licence fees and GDP per capita: The case for
open source in developing countries”. First Monday vol. 8 n°
12. www.firstmonday.org/issues/issue8_12/ghosh/index.html.
GHOSH R. A. e GLOTT R. 2002. Free/Libre Open Source Software
(FLOSS): Survey and Study. International Institute of
Infonomics, University of Maastricht and Berlecon Research
GmbH. www.infonomics.nl/FLOSS/report/
GLOBAL VILLAGE SEMINAR 1998. The Bangalore Declaration on
Information Technology for Developing Countries in the Global
Village.
www.csa.iisc.ernet.in/bangit/bangdec/bangdec.html
Ultimo accesso 3 marzo 2005.
Bibliografia 258
GOLEM (Gruppo Operativo Linux Empoli). 2004. Trashware how-
to (rel. 0.9.8).
http://golem.linux.it/pagineattive/trashware.pdf
GORZ A. 2003. L’immatériel. Connaissance, valeur et capital.
Paris: Galilée (trad. it. L’immateriale. Conoscenza, valore e
capitale.Torino: Bollati Boringhieri. 2003).
GRAHAM A. E MARVIN S. 2001 Splintering urbanism: Networked
infrastructures, technological mobilities, and the urban
condition. London: Routledge
GUBITOSA C. 1999. Italian crackdown. MIlano: Apogeo.
GURSTEIN M. 2003. “Effective Use: A community informatics
strategy beyond the Digital Divide”. First Monday. vol. 8 n°12.
www.firstmonday.org/issues/issue8_12/gurstein/index.html
HABERMAS J. 1962. Strukturwandel der Öffentlichkeit. Neuwied:
Hermann Luchterhand Verlag (trad. It. Storia e critica
dell’opinione pubblica. Roma-Bari: Laterza. 1995).
HARDT M. e NEGRI A. 2000. Empire. Harvard University Press.
(trad. It. Impero. Milano: Rizzoli. 2002).
—— . 2004. Multitude. War and Democracy in the Age of Empire.
NY: Penguin Putnam.
HARGITTAI E. 2002. “Second Level Digital Divide: Differences in
People’s Online Skills.” First Monday. vol. 7 n° 4.
www.firstmonday.dk/issues/issue7_4/hargittai/index.html
—— . 2003. “The Digital Divide and What To Do About It” in Jones
D. C. (a cura di) New Economy Handbook. San Diego, CA:
Academic Press. www.eszter.com/research/c04-
digitaldivide.html
HIMANEM P. 2001. The Hacker Ethic and the spirit of the
Information Age. New York: Random House (trad. It. L’etica
hacker e lo spirito dell’età dell’informazione. Milano:
Feltrinelli. 2001).
Bibliografia 259
HORKEIMER M. e ADORNO T. W. 1944. Dialektik der Aufkläurung.
Amsterdam: Qurido Verlag (trad. It. Dialettica dell’Illuminismo
Torino: Einaudi. 1966)
KEEBLE L. E LOADER B. D. 2001. “Community informatics. Themes
and issues” in Id. (a cura di). Community Informatics: shaping
computer-mediated social relations. London: Routledge).
KLING R. 1999. “What is Social Informatics and Why Does It
Matter?”. D-Lib Magazine. Vol. 5 n° 1
KRANICH N. 2004. The Information Common. A Public Policy
Report. New York: Brennan Center For Justice at Nyu Scholl of
Law
www.fepproject.org/policyreports/InformationCommons.pdf
LEVY P. 1994. L'intelligence collective. Pour une anthropologie du
cyberspace. Paris: La Découverte. (trad. It. L’intelligenza
collettiva. Per un’antropologia del cyberspazio. Milano:
Feltrinelli. 2002).
—— . 1997. Cyberculture. Rapport au Conseil de l’Europe. Paris:
Odile Jacob. (trad. it. Cybercultura. Gli usi sociali delle nuove
tecnologie. Milano: Feltrinelli. 1999).
LEVY S. 1984. Hackers. Heroes of the computer revolution. New
York: Delta. (trad. It. Hackers. Gli eroi della rivoluzione
informatica. Milano: ShaKe Edizioni Underground. 1996).
LOVINK G. 2002. Dark Fiber. Cambridge, MA: MIT Press. (trad. It.
Dark Fiber Roma: Luca Sossella Editore. 2002).
—— . 2004. My first recession. Critical Internet Culture in
Transition. Rotterdam: NAi Publisher/V2_Organization. (trad.
It. Internet non è il paradiso, Milano : Apogeo. 2004).
MALDONADO T. 1997. Critica della ragione informatica. Milano:
Feltrinelli.
Bibliografia 260
MARX K. 1857. Grundrisse der Kritik der politischen Ökonomie.
Berlin: Dietz Verlag. (trad. it. Lineamenti fondamentali della
critica dell'economia politica [2 voll.]. Firenze. La Nuova
Italia. 1970 [1997]).
MASON S. K. e HACKER K. L. 2003. “Applying communication
theory to digital divide research”. It & Society vol 1 n° 5:40-55.
Stanford University. www.itandsociety.org
MATTELART A. 2001. Histoire de la société de l’information. Paris:
Editions La Découverte. (trad. it. Storia della società
dell’informazione. Torino: Einaudi. 2002).
MORAWSKI P. 2001. "Il divario digitale ridisegna il pianeta". I
Signori della Rete. Limes. Quaderno speciale n°1/2001:25-45.
Roma: L'Espresso
MOULIER BOUTANG Y. 1998 De l’esclavage au salariat. Économie
historique du salariat bridé. Paris: Puf. (trad. It. Dalla
schiavitù al lavoro salariato. Roma : Manifestolibri. 2002).
NARDI B. e O'DAY V. 1999. "Information ecologies: Using
Technologies with Heart". First Monday vol. 4 n° 5
NEGROPONTE N. 1995. Being Digital. London: Hodder and
Stoughton. (trad.it. Essere digitali. Sperling & Kupfer. 1999).
NICHOLS D. M. e TWIDALE M. B. 2003. “The Usability of Open
Source Software”. First Monday vol. 8 n° 1
NORRIS P. 2001. Digital Divide? Civic Engagement, Information
poverty & the Internet Worldwide. New York: Cambridge
University Press.
NTIA (National Telecommunications and Information
Administration). 1995. Falling Through the Net: A Survey
of the "Have Nots" in Rural and Urban America. Washington,
D.C.: U.S. Department of Commerce.
—— . 1998. Falling Through the Net II: New Data on the Digital
Divide. Washington, D.C.: U.S. Department of Commerce.
Bibliografia 261
—— . 1999. Falling Through the Net: Defining the Digital Divide.
Washington, D.C.: U.S. Department of Commerce.
—— . 2000. Falling Through the Net: Toward Digital Inclusion.
Washington, D.C.: U.S. Department of Commerce.
—— . 2002. A Nation Online: How Americans Are Expanding their
Use of the Internet. Washington, D.C.: U.S. Department of
Commerce.
—— . 2004. A Nation Online: Entering the Broadband Age.
Washington, D.C.: U.S. Department of Commerce.
OECD. 2001. Understanding the digital divide. Paris: OECD.
ORTOLEVA P. 1998. “La rete, la tecnica, il potere” in Ceri P. e
Borgna P. (op. cit.)
—— . 2001. “Telecomunicazioni, distanze, identità. Fattori di
cambiamento e fattori di conservazione nella nuova geografia
della comunicazione” in Bonora P. (a cura di) Comcities.
Bologna: Baskerville
POLANYI K. 1944. The great transformation. New York: Farrar &
Rinebart (trad. It. La grande trasformazione. Torino: Einaudi.
1974).
PRESS L. 2003. “Wireless Internet Connectivity for Developing
Nations”. First Monday. vol. 8 n°9.
www.firstmonday.org/issues/issue8_9/press
PUCCI T. 2003. “Colonizzazione digitale: analisi delle politiche
Microsoft nei paesi in via di sviluppo”. Atti del Linux Day 2003.
Gnu/Linux e il Software Libero nei Paesi in Via di Sviluppo.
Firenze: Linux user Group.
RAJANI N. 2003. Free as in Education. Significance of the
Free/Libre and Open Source Software for Developing
Countries. Helsinki: OneWorldFinland
www.maailma.kaapeli.fi/FLOSSReport1.0.html Ultimo accesso
3 Marzo 2005.
Bibliografia 262
RAMONET I. 1995. “Il pensiero unico”. Le Monde Diplomatique - il
manifesto. gennaio 1995.
RAYMOND E. 1998a [2000]. The Cathedral and the Bazaar.
www.catb.org/~esr/writings/cathedral-bazaar/cathedral-bazaar
(trad. it. La cattedrale e il bazaar.
www.apogeonline.com/Openpress. 1999)
—— . 1998b [2000]. Homestading the Noosphere.
www.catb.org/~esr/writings/cathedral-bazaar/homesteading
(trad. it. Colonizzare la noosfera.
www.apogeonline.com/Openpress. 1999)
—— .1999 [2000]. The Magic Cauldron.
www.catb.org/~esr/writings/cathedral-bazaar/magic-cauldron
(trad .it. Il calderone magico
www.apogeonline.com/Openpress. 1999)
REICH R. 1991. The Work of Nations. Preparing Ourselves for 21st
Century Capitalism. New York: Alfred A. Knopf.
REVELLI M. 2000. Oltre il Novecento. Torino: Einaudi.
RHEINGOLD H. 1993 (2000). The Virtual Community.
Homesteading on the Electronic Frontier. Cambridge, MA: MIT
Press. (trad. it. Comunità virtuali. Milano: Sperling & Kupfer.
1994).
—— . 2002. Smart Mobs. The Next Social Revolution. New York:
Basic Books. (trad. It. Smart Mobs. Tecnologie senza fili, la
rivoluzione prossima ventura. Milano: Raffaello Cortina.
2003).
RICCIARDI M. 1998. “Le comunità virtuali e la fine della società
testuale” in Ceri P. e Borgna P. (op. cit.)
RIFKIN J. 2000. The Age of Access. The New Culture of
Hypercapitalism, Where all of Life is a Paid-For Experience.
New York: Tarcher/Putnam (trad. It. L’era dell’accesso. La
rivoluzione della New Economy. Milano: Mondadori. 2000).
Bibliografia 263
ROBINS K. e WEBSTER F. 1999. Times of the Technoculture: From
the Information Society to the Virtual Life. London: Routledge.
(trad. it. Tecnocultura. Dalla società dell’informazione alla
vita virtuale. Milano: Angelo Guerini e Associati SpA. 2003).
RODOTA’ S. 1997. Tecnopolitica. La democrazia e le nuove
tecnologie della comunicazione. Roma-Bari: Laterza.
—— . 2004. Discorso del Presidente dell’Autorità Garante per la
protezione dei dati personali in occasione della presentazione
della Relazione Annuale. www.garanteprivacy.it
ROGERS E. 1983. Diffusion of innovations. New York: The Free
Press.
SASSEN S. 1991. The Global City. New York, London, Tokyo.
Princeton: Princeton University Press (trad. It. Città globali.
New York, Londra, Tokio. Torino: Utet. 1997).
SCHILLER D. 1999. Digital Capitalism. Networking the Global
Market System. Cambridge, MA - London, UK: MIT Press.
(trad. it. Capitalismo digitale. Il mercato globale in rete.
Milano: EGEA. 2000).
SELWYN N. 2002. Defining the digital divide: developing a
theoretical understanding of inequalities in the information
age. Cardiff University School of Social Sciences Occasional
Paper 49.
—— . 2003. Widening access to ICT via public sites. A research
report. BECTA Digital Divide Discussion Paper.
www.becta.org.uk/page_documents/research/digidiv_selwyn.pdf
SEN A. 1999. Development as Freedom. New York: Oxford
University Press (trad. It. Lo sviluppo è libertà. MIlano:
Mondadori. 2000).
SILVER D. 2000. “Looking Backwards, Looking Forward:
Cyberculture Studies 1990-2000” in Gauntlett D. (a cura di).
Web.studies: Rewiring Media Studies for the Digital Age. New
York: Oxford University Press
Bibliografia 264
SERVON L. J. 2002. Bridging the Digital Divide. Technology,
Community, and Public Policy. Oxford: Blackwell.
STERLING B. 1992. The Hacker Crackdown. Law and Disorder
on the electronic frontier. New York: Bantam. (trad. It. Giro di
vite contro gli hacker. Milano: ShaKe Edizioni Underground.
1993).
STROVER S. 2003. “Remapping the Digital Divide”. The
Information Society 19: 315-326
SUORANTA J. 2003. “The World Divided in Two: Digital Divide,
Information and Communication Technologies and the ‘Youth
Question’“. Journal for Critical Educational Policy Studies
vol.1 n°2
www.jceps.com/index.php?pageID=article&articleID=16
Ultimo accesso 3 marzo 2005.
TICHENOR P., DONOHUE G. e OLIEN C. 1970. “Mass Media Flow
and Differential Growth of Knowledge”. Public Opinion
Quarterly 34: 159-70.
TOURAINE A. 1969. La société postindustrielle. Paris: Denoël (trad.
it. La società postindustriale. Bologna: Il Mulino. 1970).
—— . 1992. Critique de la Modernité. Paris: Fayard. (trad. it. Critica
della modernità. Milano: il Saggiatore. 1993 [1997] ).
—— . 1998. “Dall’economia di mercato agli attori della produzione”
in Ceri P. e Borgna P. (op. cit.)
TUOMI I. 2004. “Economic productivity in the Knowledge Society:
A critical review of productivity theory and the impacts of ICT”.
First Monday, vol. 9 n° 7.
www.firstmonday.org/issues/issue9_7/tuomi
UNARETE. 2003. Il Digital Divide. Evoluzione e prospettive in
Italia e nel Comune di Roma. Comune di Roma – UNARETE.
UNCTAD. 2003. “Chapter 4: Free and open-source software:
Implications for ICT policy and development”. E-Commerce and
Development Report 2003. New York e Geneva: United Nations.
Bibliografia 265
UNDP. 2001. Human Development Report 2001. Making New
Technologies Work for Human Development. New York: Oxford
University Press.
VAN DICK J. e HACKER K. 2003. “The Digital Divide as a Complex
and Dynamic Phenomenon”. The Information Society 19: 315-
326
VEGH S. 2005. “The media’s portrayal of hacking, hackers, and
hacktivism before and after September 11”. First Monday vol.
10 n°2. www.firstmonday.org/issues/issue10_2/vegh
VIRNO P. 2001. “General intellect” pp. 146-152 in Zanini A. e
Fadini U. Lessico Postfordista. Dizionario di idee della
mutazione. Milano: Feltrinelli
WARSCHAUER M. 2002. “Reconceptualizing the Digital Divide”.
First Monday vol. 7 n°7.
www.firstmonday.org/issues/issue7_7/warschauer
—— . 2003. Technology and Social Inclusion. Rethinking the Digital
Divide. Cambridge, MA – London, UK: MIT Press.
WEBER M. 1904 Die protestantische Ethik und der Geist des
Kapitalismus. Tübingen: Mohr (trad. It. L’etica protestante e lo
spirito del capitalismo. Firenze: Sansoni. 1945; [ MIlano:
Rizzoli. 1991 ] ).
WEERAWARANA S. e WEERATUNGE J. 2004. Open Source in
Developing Countries. SIDA
WELLMAN B. 2001. “Physical Place and Cyberplace: The Rise of
Networked Individualism”. International Journal of Urban and
Regional Research 25.
WILLIAMS S. 2002. Free as in Freedom. Richard Stallman's
Crusade for Free Software. Sebastopol, CA: O'Reilly &
Associates (trad. It. Codice LIbero. Richard Stallman e la
crociata per il software libero Milano: Apogeo. 2003).
WRESH W. 1996. Disconnected. Haves and have-nots in the
Information Age. New Brunswick: Rutgers University Press.
Bibliografia 266
WONG K. 2003. Free/open Source Software and Governments: a
survey of FOSS Initiatives in Governments. Kuala Lampur:
UNDP/IOSN
Licenza
Commons Deed
Licenza 268
Licenza completa
Attribution-ShareAlike 2.0
CREATIVE COMMONS CORPORATION IS NOT A LAW FIRM AND DOES NOT PROVIDE LEGAL SERVICES. DISTRIBUTION OF THIS LICENSE DOES NOT CREATE AN ATTORNEY-CLIENT RELATIONSHIP. CREATIVE COMMONS PROVIDES THIS INFORMATION ON AN "AS-IS" BASIS. CREATIVE COMMONS MAKES NO WARRANTIES REGARDING THE INFORMATION PROVIDED, AND DISCLAIMS LIABILITY FOR DAMAGES RESULTING FROM ITS USE.
THE WORK (AS DEFINED BELOW) IS PROVIDED UNDER THE TERMS OF THIS CREATIVE COMMONS PUBLIC LICENSE ("CCPL" OR "LICENSE"). THE WORK IS PROTECTED BY COPYRIGHT AND/OR OTHER APPLICABLE LAW. ANY USE OF THE WORK OTHER THAN AS AUTHORIZED UNDER THIS LICENSE OR COPYRIGHT LAW IS PROHIBITED.
BY EXERCISING ANY RIGHTS TO THE WORK PROVIDED HERE, YOU ACCEPT AND AGREE TO BE BOUND BY THE TERMS OF THIS LICENSE. THE LICENSOR GRANTS YOU THE RIGHTS CONTAINED HERE IN CONSIDERATION OF YOUR ACCEPTANCE OF SUCH TERMS AND CONDITIONS.
1. Definitions
a. "Collective Work" means a work, such as a periodical issue, anthology or encyclopedia, in which the Work in its entirety in unmodified form, along with a number of other contributions, constituting separate and independent works in themselves, are assembled into a collective whole. A work that constitutes a Collective Work will not be considered a Derivative Work (as defined below) for the purposes of this License.
b. "Derivative Work" means a work based upon the Work or upon the Work and other pre-existing works, such as a translation, musical arrangement, dramatization, fictionalization, motion picture version, sound recording, art reproduction, abridgment, condensation, or any other form in which the Work may be recast, transformed, or adapted, except that a work that constitutes a Collective Work will not be considered a Derivative Work for the purpose of this License. For the avoidance of doubt, where the Work is a musical composition or sound recording, the synchronization of the Work in timed-relation with a moving image ("synching") will be considered a Derivative Work for the purpose of this License.
Licenza 269
c. "Licensor" means the individual or entity that offers the Work under the terms of this License.
d. "Original Author" means the individual or entity who created the Work. e. "Work" means the copyrightable work of authorship offered under the
terms of this License. f. "You" means an individual or entity exercising rights under this License
who has not previously violated the terms of this License with respect to the Work, or who has received express permission from the Licensor to exercise rights under this License despite a previous violation.
g. "License Elements" means the following high-level license attributes as selected by Licensor and indicated in the title of this License: Attribution, ShareAlike.
2. Fair Use Rights. Nothing in this license is intended to reduce, limit, or restrict any rights arising from fair use, first sale or other limitations on the exclusive rights of the copyright owner under copyright law or other applicable laws.
3. License Grant. Subject to the terms and conditions of this License, Licensor hereby grants You a worldwide, royalty-free, non-exclusive, perpetual (for the duration of the applicable copyright) license to exercise the rights in the Work as stated below:
a. to reproduce the Work, to incorporate the Work into one or more Collective Works, and to reproduce the Work as incorporated in the Collective Works;
b. to create and reproduce Derivative Works; c. to distribute copies or phonorecords of, display publicly, perform publicly,
and perform publicly by means of a digital audio transmission the Work including as incorporated in Collective Works;
d. to distribute copies or phonorecords of, display publicly, perform publicly, and perform publicly by means of a digital audio transmission Derivative Works.
e. For the avoidance of doubt, where the work is a musical composition: i. Performance Royalties Under Blanket Licenses. Licensor
waives the exclusive right to collect, whether individually or via a performance rights society (e.g. ASCAP, BMI, SESAC), royalties for the public performance or public digital performance (e.g. webcast) of the Work.
ii. Mechanical Rights and Statutory Royalties. Licensor waives the exclusive right to collect, whether individually or via a music rights society or designated agent (e.g. Harry Fox Agency), royalties for any phonorecord You create from the Work ("cover version") and distribute, subject to the compulsory license
Licenza 270
created by 17 USC Section 115 of the US Copyright Act (or the equivalent in other jurisdictions).
f. Webcasting Rights and Statutory Royalties. For the avoidance of doubt, where the Work is a sound recording, Licensor waives the exclusive right to collect, whether individually or via a performance-rights society (e.g. SoundExchange), royalties for the public digital performance (e.g. webcast) of the Work, subject to the compulsory license created by 17 USC Section 114 of the US Copyright Act (or the equivalent in other jurisdictions).
The above rights may be exercised in all media and formats whether now known or hereafter devised. The above rights include the right to make such modifications as are technically necessary to exercise the rights in other media and formats. All rights not expressly granted by Licensor are hereby reserved.
4. Restrictions.The license granted in Section 3 above is expressly made subject to and limited by the following restrictions:
a. You may distribute, publicly display, publicly perform, or publicly digitally perform the Work only under the terms of this License, and You must include a copy of, or the Uniform Resource Identifier for, this License with every copy or phonorecord of the Work You distribute, publicly display, publicly perform, or publicly digitally perform. You may not offer or impose any terms on the Work that alter or restrict the terms of this License or the recipients' exercise of the rights granted hereunder. You may not sublicense the Work. You must keep intact all notices that refer to this License and to the disclaimer of warranties. You may not distribute, publicly display, publicly perform, or publicly digitally perform the Work with any technological measures that control access or use of the Work in a manner inconsistent with the terms of this License Agreement. The above applies to the Work as incorporated in a Collective Work, but this does not require the Collective Work apart from the Work itself to be made subject to the terms of this License. If You create a Collective Work, upon notice from any Licensor You must, to the extent practicable, remove from the Collective Work any reference to such Licensor or the Original Author, as requested. If You create a Derivative Work, upon notice from any Licensor You must, to the extent practicable, remove from the Derivative Work any reference to such Licensor or the Original Author, as requested.
b. You may distribute, publicly display, publicly perform, or publicly digitally perform a Derivative Work only under the terms of this License, a later version of this License with the same License Elements as this License, or a Creative Commons iCommons license that contains the same License Elements as this License (e.g. Attribution-ShareAlike 2.0 Japan). You must include a copy of, or the Uniform Resource Identifier for, this
Licenza 271
License or other license specified in the previous sentence with every copy or phonorecord of each Derivative Work You distribute, publicly display, publicly perform, or publicly digitally perform. You may not offer or impose any terms on the Derivative Works that alter or restrict the terms of this License or the recipients' exercise of the rights granted hereunder, and You must keep intact all notices that refer to this License and to the disclaimer of warranties. You may not distribute, publicly display, publicly perform, or publicly digitally perform the Derivative Work with any technological measures that control access or use of the Work in a manner inconsistent with the terms of this License Agreement. The above applies to the Derivative Work as incorporated in a Collective Work, but this does not require the Collective Work apart from the Derivative Work itself to be made subject to the terms of this License.
c. If you distribute, publicly display, publicly perform, or publicly digitally perform the Work or any Derivative Works or Collective Works, You must keep intact all copyright notices for the Work and give the Original Author credit reasonable to the medium or means You are utilizing by conveying the name (or pseu donym if applicable) of the Original Author if supplied; the title of the Work if supplied; to the extent reasonably practicable, the Uniform Resource Identifier, if any, that Licensor specifies to be associated with the Work, unless such URI does not refer to the copyright notice or licensing information for the Work; and in the case of a Derivative Work, a credit identifying the use of the Work in the Derivative Work (e.g., "French translation of the Work by Original Author," or "Screenplay based on original Work by Original Author"). Such credit may be implemented in any reasonable manner; provided, however, that in the case of a Derivative Work or Collective Work, at a minimum such credit will appear where any other comparable authorship credit appears and in a manner at least as prominent as such other comparable authorship credit.
5. Representations, Warranties and Disclaimer
UNLESS OTHERWISE AGREED TO BY THE PARTIES IN WRITING, LICENSOR OFFERS THE WORK AS-IS AND MAKES NO REPRESENTATIONS OR WARRANTIES OF ANY KIND CONCERNING THE MATERIALS, EXPRESS, IMPLIED, STATUTORY OR OTHERWISE, INCLUDING, WITHOUT LIMITATION, WARRANTIES OF TITLE, MERCHANTIBILITY, FITNESS FOR A PARTICULAR PURPOSE, NONINFRINGEMENT, OR THE ABSENCE OF LATENT OR OTHER DEFECTS, ACCURACY, OR THE PRESENCE OF ABSENCE OF ERRORS, WHETHER OR NOT DISCOVERABLE. SOME JURISDICTIONS DO NOT ALLOW THE EXCLUSION OF IMPLIED WARRANTIES, SO SUCH EXCLUSION MAY NOT APPLY TO YOU.
Licenza 272
6. Limitation on Liability. EXCEPT TO THE EXTENT REQUIRED BY APPLICABLE LAW, IN NO EVENT WILL LICENSOR BE LIABLE TO YOU ON ANY LEGAL THEORY FOR ANY SPECIAL, INCIDENTAL, CONSEQUENTIAL, PUNITIVE OR EXEMPLARY DAMAGES ARISING OUT OF THIS LICENSE OR THE USE OF THE WORK, EVEN IF LICENSOR HAS BEEN ADVISED OF THE POSSIBILITY OF SUCH DAMAGES.
7. Termination
a. This License and the rights granted hereunder will terminate automatically upon any breach by You of the terms of this License. Individuals or entities who have received Derivative Works or Collective Works from You under this License, however, will not have their licenses terminated provided such individuals or entities remain in full compliance with those licenses. Sections 1, 2, 5, 6, 7, and 8 will survive any termination of this License.
b. Subject to the above terms and conditions, the license granted here is perpetual (for the duration of the applicable copyright in the Work). Notwithstanding the above, Licensor reserves the right to release the Work under different license terms or to stop distributing the Work at any time; provided, however that any such election will not serve to withdraw this License (or any other license that has been, or is required to be, granted under the terms of this License), and this License will continue in full force and effect unless terminated as stated above.
8. Miscellaneous
a. Each time You distribute or publicly digitally perform the Work or a Collective Work, the Licensor offers to the recipient a license to the Work on the same terms and conditions as the license granted to You under this License.
b. Each time You distribute or publicly digitally perform a Derivative Work, Licensor offers to the recipient a license to the original Work on the same terms and conditions as the license granted to You under this License.
c. If any provision of this License is invalid or unenforceable under applicable law, it shall not affect the validity or enforceability of the remainder of the terms of this License, and without further action by the parties to this agreement, such provision shall be reformed to the minimum extent necessary to make such provision valid and enforceable.
d. No term or provision of this License shall be deemed waived and no breach consented to unless such waiver or consent shall be in writing and signed by the party to be charged with such waiver or consent.
e. This License constitutes the entire agreement between the parties with respect to the Work licensed here. There are no understandings, agreements or representations with respect to the Work not specified here. Licensor shall not be bound by any additional provisions that may appear
Licenza 273
in any communication from You. This License may not be modified without the mutual written agreement of the Licensor and You.
Creative Commons is not a party to this License, and makes no warranty whatsoever in connection with the Work. Creative Commons will not be liable to You or any party on any legal theory for any damages whatsoever, including without limitation any general, special, incidental or consequential damages arising in connection to this license. Notwithstanding the foregoing two (2) sentences, if Creative Commons has expressly identified itself as the Licensor hereunder, it shall have all rights and obligations of Licensor.
Except for the limited purpose of indicating to the public that the Work is licensed under the CCPL, neither party will use the trademark "Creative Commons" or any related trademark or logo of Creative Commons without the prior written consent of Creative Commons. Any permitted use will be in compliance with Creative Commons' then-current trademark usage guidelines, as may be published on its website or otherwise made available upon request from time to time.
Creative Commons may be contacted at http://creativecommons.org/.