Internet e Web
In senso tecnico Internet è un network di computer-network: è infatti costituita da una serie di reti (private, pubbliche, aziendali, universitarie, commerciali) connesse tra loro fino a raggiungere una dimensione di accesso globale. Le reti sono interconnesse in senso fisico (wired e wireless) e in senso logico (distributed network); trasportano i dati e li indirizzano su una pluralità di dispositivi terminali (host, end system; dunque non solo computer in senso stretto) facendo ricorso a un medesimo gruppo di protocolli, l’Internet protocol suite. L’Internet protocol (IP) identifica i nodi della rete, mentre il trasporto viene generalmente gestito mediante uno standard di commutazione a pacchetto (packet switching).
I dati, tutti in formato digitale, comprendono le più svariate tipologie di informazioni, contenuti e servizi, come la posta elettronica (e-mail), le comunicazioni interpersonali in testo (chat) e in video, lo streaming audiovideo, lo scambio di file tra terminali (peer-to-peer) e, infine, le pagine e tutte le altre forme di documenti o repertori connesse tra di loro mediante rimandi ipertestuali (hyperlink) e forme di indirizzamento univoco (URL, Uniform resource locator) che compongono il servizio più conosciuto, il World Wide Web (noto anche come Web o W3).
Appare evidente che Internet e il Web non possono essere considerati sinonimi. Il Web è solo uno dei servizi supportati da Internet e dal punto di vista della configurazione del network complessivo rinvia al sottoinsieme di server che gestiscono documenti in formato HTML (Hypertext markup language), destinati a essere letti su terminali utente dai browser (Explorer, Netscape, Opera ecc.) attraverso un protocollo dedicato al trasferimento dati in formato ipertestuale HTTP (Hypertext transfer protocol).
Solo nel 1995, a distanza di oltre trent’anni dalle prime sperimentazioni, il Federal Networking Council (FNC) ha formulato una definizione di Internet che costituisce un riferimento comune. «Internet si riferisce al sistema di informazione globale che: (a) è logicamente interconnesso attraverso un address space (spazio degli indirizzi) unico e globale, basato sull’IP o le sue successive estensioni e sviluppi; (b) è in grado di supportare comunicazioni mediante la suite Transmission control protocol/Internet protocol (TCP/IP) o le sue successive estensioni/sviluppi, e/o altri protocolli compatibili con l’IP; (c) fornisce, utilizza e rende accessibili, sia pubblicamente che privatamente, servizi di alto livello che poggiano sui differenti strati di comunicazioni e di infrastrutture a esse correlate».
Rispetto alla molteplicità di reti digitali, Internet si differenzia storicamente e si caratterizza soprattutto in quanto standard, ovvero per il comune riferimento a protocolli di comunicazione pubblici. Il network dei dispositivi connessi a Internet presenta una molteplicità di strati: i livelli inferiori usano sempre i medesimi protocolli di rete, per garantire lo scambio di informazione tra i terminali collegati, mentre i livelli superiori si differenziano per meglio soddisfare specifici obiettivi di comunicazione. Si avrà così un unico protocollo a livello di rete (IP), pochi protocolli a livello di trasporto (soprattutto TCP ma anche UDP, User datagram protocol, impiegato per lo streaming audiovideo e VoIP, Voice over IP), molti protocolli a livello applicativo (per es., SMTP e POP3, impiegati per la posta elettronica e HTTP che caratterizza l’ambiente Web).
Il groviglio di termini tecnici, la complessità delle architetture, la pluralità di sistemi tecnologici e l’estrema differenziazione dei servizi descrive un universo in continua e accelerata trasformazione che sembra in grado di inglobare al suo interno tecnologie, sistemi mediali, forme culturali, stili di relazione sociale una volta rigorosamente segmentati e distinti. Ma questo universo complesso, storicamente prodotto per successive integrazioni e senza un’autorità centrale che ne orientasse in maniera univoca lo sviluppo, fonda le sue enormi potenzialità di ulteriore espansione su principî assolutamente semplici: l’univocità dei protocolli, la modularità della trasmissione dei dati per pacchetti, la struttura distribuita e ridondante del network. Questi principî non rappresentano solo componenti dell’ingegneria di sistema ma hanno ispirato e sono stati a loro volta piegati in forme del tutto impreviste dagli usi sociali, dando vita a un ecosistema composto da reti di macchine e reti di persone.
Internet dunque non è solo un’infrastruttura comunicativa veloce e affidabile ma anche un ambiente comunicativo e mediale aperto e tendenzialmente paritario che non pone istituzionalmente vincoli di accesso. In virtù della sua architettura decentralizzata può assicurare connettività ubiqua in un contesto tecnologico flessibile e adattivo, senza fare riferimento ad alcun criterio gerarchico e ad alcuna necessità strutturale di controllo centralizzato. La metafora della rete, applicata sia a Internet sia al Web, il suo principale servizio, sottolinea: (a) la possibilità per ogni nodo (inteso sia come computer o altro device terminale sia come utente) di essere sia emittente sia destinatario di comunicazioni; (b) l’assenza di un unico centro, vale a dire di un unico autore, di un unico progetto, di una gerarchia prestabilita tra aree più o meno importanti del network.
In una rete, infatti, tutti gli elementi mantengono un alto grado di autonomia pur essendo efficacemente interconnessi. Nel modello originario del mainframe computing, invece, diverse macchine lavorano congiuntamente ai medesimi task, come un unico organismo. Ma questo non significa che nell’ecosistema di Internet non si siano determinate forme di gerarchizzazione funzionali alla gestione delle applicazioni e dei servizi. Anche se l’IP rende tutti i nodi della rete potenzialmente uguali, i mercati, i contenuti, le tecnologie e i loro usi sociali hanno strutturato nel corso del tempo nette differenze dal punto di vista gerarchico e funzionale tra i vari nodi. L’architettura di molti servizi (a partire dai più noti, come il Web e la posta elettronica) prevede infatti una distinzione dei nodi della rete tra server e client, tra sistemi (hardware e software) che mettono a disposizione contenuti e servizi e altri che li utilizzano attraverso i loro terminali connessi alla rete. Il caso in cui diversi terminali dialoghino effettivamente tra pari (peer to peer), al di fuori della logica client-server, riguarda un numero ristretto di applicazioni, anche se genera volumi di traffico tra i nodi della rete sempre più rilevanti in conseguenza delle pratiche di file sharing: la condivisione e lo scambio di contenuti (musica, filmati, giochi ecc.) tra i terminali di singoli utenti, spesso aggirando le norme del diritto d’autore. La dimensione pubblica della rete Internet, in ogni caso, deriva non solo dalla condivisione di regole (protocolli) di comunicazione, ma anche dalla struttura di macchine server che rendono disponibili risorse e servizi per una molteplicità di terminali e per le esigenze differenziate degli utenti.
La configurazione che abbiamo descritto è originata da una serie di ipotesi scientifiche convergenti ma anche da istanze ideali spesso in forte contrapposizione, come le motivazioni di tipo altruistico di un piccolo gruppo di ricercatori rispetto agli interessi strategici del Dipartimento della Difesa degli Stati Uniti. Queste matrici differenti hanno trovato storicamente una composizione e hanno contribuito a forgiare una struttura tecnologica, economica, culturale e sociale assolutamente unica che si fonda in estrema sintesi su un diagramma (distributed network), una tecnologia (digital computer) e una logica di gestione (protocol), che consente di organizzare il problema del dialogo e del reciproco controllo tra i nodi di una rete distribuita.
All’origine di tutto, probabilmente, può essere posta la riflessione sulla diversa topologia delle reti di comunicazione e sulla loro specifica vulnerabilità rispetto a un attacco esterno, anche di tipo nucleare. Siamo alla fine degli anni Cinquanta del secolo scorso e Paul Baran, appena insediatosi alla Rand Corporation, lavora per un quinquennio (pubblica i suoi risultati nel 1964) su incarico del governo per risolvere il problema. Dopo aver scartato la topologia a stella, allora in vigore, perché in una rete centralizzata è sufficiente distruggere l’unico nodo centrale per interrompere qualsiasi forma di dialogo tra i nodi periferici, egli si orienta verso lo studio delle reti a maglie con un’architettura distribuita in cui ciascun nodo è insieme centro e periferia. In questo specifico caso la sopravvivenza – il funzionamento del network – è assicurata dalla ridondanza: come in un sistema stradale, la momentanea indisponibilità di alcuni nodi consente comunque di formulare percorsi alternativi anche se più lunghi e originariamente imprevisti. La leggenda giornalisticamente tramandata narra dunque di un’Internet inventata per sopravvivere a un attacco nucleare sovietico. In realtà, le ipotesi di Baran furono ignorate dagli apparati militari anche perché il corollario implicito nel modello di rete distribuita prevedeva la commutazione a pacchetto: l’idea cioè che i messaggi (l’informazione) potessero essere scomposti in piccoli pacchetti di dimensioni uniformi in grado di viaggiare indipendentemente l’uno dall’altro tra i nodi del network e di ricomporsi solo al termine del percorso, sul computer cui sono destinati. Lo sviluppo di questa tecnologia avrebbe comportato la transizione dal sistema analogico, allora usato nelle reti di telecomunicazione, al sistema digitale e né l’industria civile né quella militare erano preparati a una simile trasformazione.
Per il sistema militare le idee di Baran tornano utili a distanza di un decennio, nel 1969, quando l’Advanced Research Projects Agency (ARPA, in seguito DARPA) del Dipartimento della Difesa avvia il progetto del primo network (ARPANET), che utilizza la commutazione a pacchetto per condividere risorse e trasferire file tra computer di istituzioni scientifiche e di enti dell’amministrazione. Molti altri ricercatori nel corso degli anni Sessanta hanno nel frattempo lavorato in parallelo a comporre il quadro tecnologico e progettuale che consente ad ARPA di fungere da capofila nella sperimentazione del primo network di computer. In un certo senso, lo sviluppo della ricerca nella direzione delle computer sciences fu segnata dalla necessità per la stessa ARPA – agenzia creata da Dwight D. Eisenhower come risposta al lancio sovietico dello Sputnik – di trovare nuovi scopi dopo che la NASA le succede nella gestione dei programmi spaziali e acquista crescente notorietà e accesso ai cospicui fondi di dotazione. La nascente disciplina informatica si rivela fondamentale per le ricerche a lungo termine finalizzate a scopi bellici e Robert Taylor, direttore della divisione informatica dell’ARPA nel 1965, si trova di fronte al problema di riuscire a far parlare tra di loro costosissime apparecchiature, che a volte risiedono nello stesso edificio, per aumentare l’efficienza e ridurre i costi. L’ambiente di lavoro in cui opera è assolutamente effervescente e le relazioni con gli altri centri di ricerca universitari si svolgono in un clima di aperta collaborazione. A capo dell’Information Processing Techniques Office dell’ARPA siede John C.R. Licklider, uno straordinario pensatore che, sulla scia di Vannevar Bush e del suo Memex, ha redatto nel 1960 un articolo dal titolo Man-Computer Symbiosis. Qui egli riflette sulla necessità di individuare le interfacce tecnologiche per favorire un’interazione più semplice e immediata tra il computer e i suoi utenti. Si deve a Licklider anche la prima descrizione delle interazioni sociali possibili attraverso la pratica del networking, in una serie di appunti scritti nell’agosto del 1962 sul concetto di Galactic network: un insieme di computer interconnessi attraverso i quali chiunque può facilmente accedere a dati e programmi da qualsiasi luogo fisico della terra. Un’idea che, perlomeno nel suo spirito, appare molto simile all’Internet che conosciamo oggi.
Anche la sperimentazione delle modalità per permettere ai computer di parlare tra loro compie in quel periodo molti passi in avanti: sempre nel 1965 Lawrence G. Roberts riesce a connettere il computer TX-2 dal Massachussets al computer Q-32 in California attraverso una linea telefonica dial-up a bassa velocità. L’esperimento conferma che i computer sono in grado di lavorare insieme, ma non attraverso il tradizionale sistema di switch telefonici rivelatosi inadeguato a questo scopo. L’attenzione dei ricercatori torna dunque sull’idea del packet switching, formulata non solo da Paul Baran ma da altri ricercatori come Donald W. Davies del National Physical Laboratory di Londra e Leonard Kleinrock. Quest’ultimo, a partire dal 1961 nei laboratori del MIT (Massachusetts Institute of Technology), aveva cominciato a riflettere sulla fattibilità teorica della costruzione di un network di computer che si scambiano pacchetti di dati. Roberts inizia a collaborare nel 1966 con il gruppo di Taylor e l’ARPA assicura i finanziamenti necessari per sviluppare il prototipo di network tra computer che si avvale della commutazione a pacchetto e assicura una velocità di trasmissione di 50 Kb/s. Il Network Measurement Center dell’UCLA (University of California, Los Angeles), il laboratorio allora diretto da Kleinrock, venne individuato come primo nodo della nascente ARPANET; il secondo nodo è collocato presso lo Stanford Research Institute, dove Doug Engelbart lavora al suo progetto Augmentation of human intellect (che include NLS, il primo prototipo di sistema ipertestuale): tra questi computer avviene nel 1969 la sperimentazione del primo messaggio host-to-host. Negli anni seguenti vengono aggiunti rapidamente molti altri computer appartenenti a centri di ricerca e nel dicembre 1970 il Network working group (NWG) termina lo sviluppo del primo protocollo host-to-host di ARPANET, che prende il nome di Network control protocol (NCP). La prima dimostrazione pubblica di ARPANET viene organizzata da Robert Kahn nel 1972 all’International computer communication conference; nello stesso anno Ray Tomlinson scrive e sperimenta la versione originaria del software che diventerà la principale applicazione della rete: la posta elettronica (e-mail).
Si può a ragione sostenere che ARPANET si è evoluta fino a diventare l’Internet che conosciamo sulla base di una configurazione che ha consentito la formazione di un network di network: l’open architecture networking. Secondo questo approccio, gli snodi (e i network) individuali possono essere sviluppati indipendentemente l’uno dall’altro (tutta la prima sperimentazione di Kahn è compiuta su un packet radio network) con interfacce personalizzate in relazione agli usi e vengono connessi agli altri network tramite una funzione di metalivello: l’Internetworking architecture. Quest’idea di un network ad architettura libera, introdotta nel 1972 da Kahn e sperimentata attraverso il protocollo NCP, si sostiene sul principio che ciascun nodo della rete non agisce in quanto componente subordinata di un altro ma su base paritaria (in quanto peer) nella funzione di offrire agli altri nodi servizi end-to-end. Kahn si rende rapidamente conto della necessità di sviluppare una nuova versione del NCP, il quale non ha la possibilità di definire gli indirizzi delle macchine cui sono destinate le comunicazioni né di recuperare gli eventuali pacchetti andati perduti nella trasmissione. Il nuovo protocollo, che sarà più tardi chiamato TCP/IP, agirà come un protocollo di comunicazione, alla cui base ci sono quattro principî fondamentali: (a) i singoli network, pubblici o privati, che si connettono a Internet mantengono la loro autonomia e a nessuno è permesso di richiedere cambiamenti al loro interno; (b) le comunicazioni tra i nodi del network seguono il criterio del best effort, ovvero se un pacchetto non raggiunge la sua destinazione finale sarà immediatamente ritrasmesso dal nodo sorgente; (c) in funzione di connessione tra i network verranno utilizzate delle scatole nere (black boxes) che non manterranno alcuna traccia dei singoli pacchetti di dati che i nodi si scambiano (i dispositivi di rete ora conosciuti con termini quali gateway e router); (d) non ci sarà alcuna forma di controllo globale rispetto al livello delle singole operazioni. A questi principî si aggiungono una serie di corollari di estrema rilevanza: (e) il network può funzionare solo sulla base di un sistema unitario e univoco di indirizzamento dei pacchetti di dati; (f) gli algoritmi debbono gestire sulla macchina emittente e sulla macchina destinataria il controllo dei pacchetti di dati mancanti o deteriorati in modo da consentirne la ritrasmissione in modo efficace; (g) il network si deve interfacciare con terminali che utilizzano sistemi operativi diversi.
Per sviluppare il protocollo di trasmissione Kahn chiede aiuto a Vinton Cerf dell’Università di Stanford, che aveva maturato una lunga esperienza con NCP. Alla loro collaborazione si deve la decisione di dividere il protocollo in due parti: (a) il protocollo Internet (IP) che si occupa dell’indirizzamento, cioè di inviare il pacchetto e di instradarlo attraverso gateway e router fino a farlo giungere a destinazione; (b) il TCP (Transmission control protocol) che si occupa, invece, di segmentare le informazioni in pacchetti con un’ampiezza massima di 1500 byte, di indicare l’applicazione che ha prodotto i dati e di verificare che i pacchetti siano arrivati correttamente all’end-system, dove possono essere ricomposti e ordinati secondo l’esatta sequenza di origine. Nello stesso contesto di ricerca viene definito anche il protocollo alternativo UDP (User datagram protocol) per la gestione di traffico a pacchetti in ambiente IP, che rappresenta il primo embrione del processo di differenziazione nelle tecnologie di trasporto dati.
La suite TCP/IP costituisce la grammatica di base che consente al network e a dispositivi terminali eterogenei di parlare la stessa lingua nel momento in cui si scambiano informazioni. La commutazione a pacchetto rappresenta anche l’estensione del principio della modularità, proprio dei formati digitali, all’ambito delle connessioni di rete. I singoli pacchetti, per arrivare alla piattaforma hardware e software cui sono destinati, possono seguire percorsi che toccano nodi differenti della rete e viaggiare sulla stessa connessione insieme ad altri pacchetti assolutamente eterogenei per origine, destinazione finale e contenuto informativo (per es., immagine in movimento insieme a testo). Il principale vantaggio tecnologico della commutazione a pacchetto rispetto a una commutazione punto-punto (in cui la linea è vincolata per lo scambio di informazioni tra i due end-system, indipendentemente dal traffico generato) è che si riesce a saturare la larghezza di banda della linea di connessione disponibile e a flessibilizzare il traffico tra i nodi della rete.
Il lavoro sui protocolli svolto da Kahn e Cerf nei primi anni Settanta determina le componenti tecnologiche di base che consentiranno la sperimentazione di Internet nei centri di ricerca militari e civili e, successivamente, la sua trasformazione in una rete pubblica utilizzabile anche per scopi commerciali. La natura aperta dei protocolli e la configurazione non centralizzata e paritaria dei nodi, ispirata dai loro principî, ha contrassegnato in maniera indelebile il successivo sviluppo di Internet: l’assenza di vincoli e barriere ha favorito lo sviluppo internazionale della rete; il coinvolgimento delle istituzioni accademiche e dei centri di ricerca ha stimolato la crescita di comunità autonome sul piano della capacità di innovazione e orientate al lavoro cooperativo sugli standard e gli applicativi. La configurazione aperta ha consentito dunque, che questo nuovo ambiente comunicativo evolvesse, a differenza di quasi tutti gli altri sistemi mediali, senza un progetto centralizzato ma sulla base delle scelte, delle professionalità e della sensibilità di chi vi operava e contribuiva a costruirlo. Ne è scaturito un sistema di rete semplice – forse addirittura ‘stupido’ e ridondante se paragonato a una rete telefonica progettata nello stesso periodo – perché finalizzato a una sola operazione: lo smistamento fino al destinatario (end-to-end) di un pacchetto di dati, senza la necessità di alcun intervento o controllo. Un sistema a intelligenza distribuita tra i nodi, che può sopportare molto più agevolmente incidenti o guasti e crescere in maniera modulare: basta aggiungere un nodo e non occorre riconfigurare ogni volta l’architettura complessiva del sistema.
La necessità di costruire un sistema di metaregole pubbliche, che potesse essere utilizzato da qualsiasi organizzazione o società commerciale interessata a rendere interoperabili i sistemi e interscambiabili le informazioni, era già molto chiara al gruppo di lavoro che sperimenta negli anni Settanta la suite TCP/IP e che accompagna la migrazione, avvenuta il primo gennaio 1983, di ARPANET verso il TCP/IP. Contemporaneamente, pur nell’ambito di una strategia di ininterrotta cooperazione tra i centri di ricerca civili e militari, viene creata una seconda rete, MILNET, a uso esclusivo delle strutture del Dipartimento della Difesa degli Stati Uniti. L’ambiente iniziale di ARPANET, formato da tre nodi, si accresce rapidamente e punta a incorporare differenti forme di network e di comunità di ricerca e sviluppo. L’ampio sviluppo di LAN (Local area network) e la veloce diffusione del personal computer nel corso degli anni Ottanta fanno da volano alla sperimentazione di Internet, ma il passaggio dalla piccola ARPANET a un sistema composto da network fortemente differenziati impone una serie di sfide assolutamente inedite. I network sono divisi in classi di ampiezza e agli indirizzi numerici degli host sono assegnati univocamente dei nomi attraverso il DNS (Domain name system; ora www.acm.org), sistema creato da Paul V. Mockapetris, che trasforma gli host name gerarchici in indirizzi Internet tramite un meccanismo scalabile ripartito.
Procede in parallelo il lavoro per rendere effettivamente interoperabile e aperto il network, cercando di ricondurre a una tecnologia di interconnessione universale e pubblica le reti che impiegano sistemi di protocollo differenti. La gran parte di questi network è promosso da agenzie pubbliche o da università; esistono però anche iniziative commerciali come USENET, il network creato dalla compagnia telefonica AT&T e basato sul protocollo di trasmissione UUCP (Unix to unix copy protocol) per i sistemi operativi Unix. Lo stesso utilizzo del termine Internet (con la I maiuscola) si accredita per operare una differenziazione tra le reti che impiegano il TCP/IP rispetto alle altre non ancora convertite a quello che si avvia a essere lo standard pubblico e universale. Nel 1985 la National Science Foundation decide di utilizzare lo standard TCP/IP per il suo network (NSFNET), con l’obiettivo di estendere l’infrastruttura di rete a un’area molto più ampia e supportare la comunità accademica e di ricerca: nasce così la prima dorsale (backbone) Internet degli Stati Uniti. Lo sviluppo decisivo della connettività di rete è assicurato per tutti gli anni Ottanta dall’intervento delle agenzie governative statunitensi ed europee che si preoccupano di finanziare la messa in opera dei collegamenti transoceanici, di creare e mantenere la rete dei Network access point nei campus universitari e nei centri di ricerca, di promuovere la riflessione e la formulazione dei primi documenti che stabiliscono le regole del nuovo ambiente comunicativo in formazione. La National Science Foundation, sotto la direzione di Kahn e Kleinrock, nel 1994), pone con grande chiarezza il problema di favorire lo sviluppo della società dell’informazione promuovendo la realizzazione di reti a banda larga, iniziativa comunemente identificata attraverso l’etichetta di autostrade dell’informazione.
La costruzione di un sistema di protocolli aperti assicura le basi per la rapida diffusione delle dorsali di rete Internet a livello planetario e per il progressivo assorbimento di servizi concorrenti come il Minitel in Francia o il network commerciale AOL (American on line) negli Stati Uniti, strutturati come sistemi di rete chiusi, proprietari. In modo assolutamente coerente le organizzazioni che si sono assunte la responsabilità di espandere e regolamentare Internet come rete ad accesso pubblico e universale progettano le regole della coabitazione con iniziative di natura commerciale, sia nella gestione delle dorsali di rete, progressivamente affidate per la manutenzione e lo sviluppo a società di telecomunicazioni private (il backbone NSFNET viene privatizzato nel 1995), sia nella valorizzazione di nuove opportunità di remunerazione di contenuti e servizi. Il sistema di regolamentazione viene affidato nei primi anni Novanta a organismi di natura pubblica come l’IAB (Internet Architecture Board), che opera d’intesa con l’Internet Society nella definizione e nella revisione degli standard. Sono poste in questo modo le basi per lo sviluppo di quel grande servizio, il Web, in cui confluiscono attività commerciali e attività senza fini di lucro, che si diffonde a livello planetario e che nella considerazione dei non esperti di fatto coincide con la stessa Internet.
Il Web è un sistema di documenti in formato ipertestuale, posti in relazione per mezzo di link e accessibili mediante Internet. Per mezzo di un applicativo che prende il nome di web browser, istallato su una macchina client (non solo un personal computer ma anche uno schermo televisivo, un palmare, un telefono cellulare ecc.), l’utente può scaricare (download) dai web server e navigare (sfogliare) interattivamente attraverso link i repertori ipertestuali organizzati in pagine web, che contengono testo, immagini, video e altri formati multimediali (suoni, animazioni, immagini ecc.). Il Web è stato concepito in Europa, al CERN di Ginevra, sulla base degli studi portati avanti nel corso degli anni Ottanta da Tim Berners-Lee sul progetto Enquire e formulati in una prima stesura in un documento del 1989 sulla gestione ipertestuale in rete dei documenti dello stesso centro di ricerca. La proposta viene formalizzata nel novembre 1990 con il contributo di un altro ricercatore del CERN, Robert Cailliau. Entro la fine dello stesso anno lo sviluppo in laboratorio dell’ipotesi progettuale è concluso: il primo web server è in grado di rilasciare la prima pagina web con la descrizione del progetto al primo web browser, che è sua volta in grado sia di visualizzare sia di editare documenti ipertestuali. Il 6 agosto del 1991 Berners-Lee ‘posta’ (la nuova forma verbale fa riferimento all’atto di rendere disponibile un testo in uno spazio di pubblicazione condiviso in rete) una sintesi del progetto Web gruppo di discussione (newsgroup, uno specifico spazio di discussione in rete creato per discutere di un argomento ben determinato) alt.hypertext e segna ufficialmente il suo debutto come servizio pubblicamente accessibile.
L’idea di un sistema di documenti in formato ipertestuale non nasce con il lavoro di ricerca di Berners-Lee ma nasce negli anni Sessanta, con il progetto Xanadu proposto da Theodor H. Nelson (il primo a utilizzare l’espressione ipertesto) e nel citato NLS (oN-Line system) di Engelbart. Alcune delle idee portanti possono però essere fatte risalire alle straordinarie riflessioni proposte nel 1945 da Vannevar Bush nel saggio As we may think, in cui viene proposta una «meccanizzazione della conoscenza scritta» in modo da rendere la memoria planetaria completamente accessibile e utilizzabile da ciascun individuo. Bush pensa la sua macchina, il Memex, come «un’estensione personale della memoria»: un dispositivo tecnologico (allora basato su leve, tastiera e proiettore di microfilm) in grado di memorizzare tutte le documentazioni e le comunicazioni personali per richiamarle e manipolarle con efficienza e facilità d’uso, seguendo i principî dell’indicizzazione associativa propria di ciascun utilizzatore della macchina. Berners-Lee sviluppa in modo coerente le intuizioni sulla matrice ipertestuale e sulla logica associativa sottostante alla funzione del link e le innesta all’interno del nascente ambiente di rete. Il nuovo modello differisce dai precedenti sistemi ipertestuali perché i link sono esclusivamente unidirezionali e puntano verso una risorsa di rete, univocamente indirizzata attraverso la sintassi del sistema URI (Uniform resource identifier). Se da un lato questa scelta progettuale semplifica la gestione delle pagine web e valorizza l’autonomia dei singoli nodi, dall’altro pone strutturalmente il problema dei link interrotti, nel caso in cui la risorsa non è più disponibile o ha cambiato indirizzo sulla rete.
Il 30 aprile 1993 il CERN dichiara che il Web è un ambiente assolutamente libero e gratuito, mentre in parallelo sui server Internet che utilizzano Gopher, un protocollo sviluppato dall’Università del Minnesota per cercare e rintracciare risorse di rete, fino ad allora comunemente impiegato, vengono poste alcune limitazioni. Si determina così una migrazione dei server Internet verso l’ambiente web, mentre contemporaneamente si diffonde il primo web browser dotato di interfaccia grafica utente. Si tratta di Mosaic, progettato da Marc Andreessen dell’Università dell’Illinois Urbana-Champaign con un finanziamento dell’High performance computing and communication act, una legge promossa nel 1991 dall’allora vice Presidente Al Gore. Questo insieme di eventi fa da detonatore per la rapidissima diffusione del Web e traccia la sua successiva evoluzione da sistema di supporto alla ricerca frequentato da alcune migliaia di tecnici in spazio pubblico aperto anche a informazioni e servizi commerciali, accessibile da utenti non necessariamente esperti nell’uso del computer. La responsabilità dell’evoluzione e della dichiarazione di conformità dei protocolli e degli standard associati al Web è attribuita nel settembre del 1994 al WWW Consortium (W3C), un’organizzazione costituita presso il MIT e diretta dallo stesso Berners-Lee.
Nel corso degli anni Novanta in tutti i paesi del mondo si diffondono gli ISP (Internet service provider), organizzazioni commerciali che offrono a singoli utenti residenziali o a imprese l’accesso a Internet e alcuni servizi collaterali, come la gestione delle caselle personali di posta elettronica, la disponibilità di spazio (hosting) per la pubblicazione on line di pagine web, la registrazione e la manutenzione di un dominio, cioè di un indirizzo univoco nel sistema URI (per es., http://www.comune.roma.it) che appartiene a un proprietario e costituisce un nodo di rete dove sono disponibili a vario titolo risorse e servizi di cui il titolare è (anche) legalmente responsabile. Le società di telecomunicazione, che esercitano il controllo sulle reti fisiche, svolgono normalmente la funzione di ISP di primo livello, anche perché assicurano la messa in opera e l’aggiornamento delle dorsali Internet. Gli utenti privati vengono allacciati direttamente da esse o da rivenditori del servizio di accesso al Web attraverso il modem, un dispositivo che rende possibile il traffico di dati tra sistemi informatici (web client/web server) per mezzo della normale rete telefonica, di altre tipologie di cavo o di radiofrequenza. Il caratteristico rumore del modem, che compone il numero di telefono dell’ISP e proietta il computer in rete, accompagna le esperienze dei pionieri che si affacciavano nel cyberspazio. Un termine, questo, coniato dall’autore canadese di fantascienza William F. Gibson, con cui si indica il nuovo ambiente virtuale.
Nell’arco di pochissimi anni (dal 1996 al 2000) emerge con estrema rapidità l’ecosistema composto da tecnologie, processi comunicativi, attività economiche che ora possiamo contrassegnare con l’espressione Web 1.0. Composto prevalentemente da documenti di tipo testuale con qualche immagine e pochissimi suoni o video organizzati in pagine HTML statiche, si tratta di un Web accessibile mediante connessioni dial-up che supportano non oltre 56 kbit/s di larghezza di banda, del tutto insufficienti quindi per i formati multimediali. Molti sono gli elementi sfavorevoli: l’instabilità della tecnologia, le imprecisioni delle pagine costruite con il linguaggio di formattazione (HTML), i costi orari del servizio di accesso e l’impossibilità di telefonare usando il modem. Non sono però sufficienti a ostacolare un immediato successo che dal mondo dell’accademia e della ricerca – interessato soprattutto alle possibilità di pubblicazione libera e di diffusione universale della conoscenza – travalica in quello commerciale e dell’informazione, facendo crescere in ogni ambito sociale l’esigenza di essere presenti e attivi nell’emergente mondo della rete. Cresce a dismisura il numero degli host (i server che ospitano i domini registrati) e il numero della pagine pubblicate on line; le società commerciali scoprono che la loro presenza in rete non è un optional e che le possibilità assicurate da un sistema di comunicazione interattiva vanno oltre la semplice duplicazione on line delle brochures aziendali: attraverso il Web si possono gestire facilmente relazioni con gli utenti/clienti e promuovere vere e proprie attività transattive (e-commerce), non solo per beni e servizi immateriali (come per es., la prenotazione e l’emissione di biglietti) ma anche per delocalizzare completamente la propria sede di vendita (si pensi ai libri comprati su Amazon.com, il più grande bookstore del mondo).
Il grande successo commerciale scatena la prima guerra dei browser in cui Microsoft, dominante nei sistemi operativi dei personal computer e nei pacchetti di software per il lavoro d’ufficio, riesce ad affermare la sua supremazia anche nell’emergente ambiente web. Il browser Explorer viene incluso in Windows e nonostante la battaglia legale che si trascina per anni negli Stati Uniti e in Europa conquista la grande maggioranza del mercato, trovando un punto di forza nella crescente integrazione delle risorse disponibili sul Web nella normale routine di lavoro nelle imprese, nella pubblica amministrazione, nella scuola e nell’università. Il crescente interesse dei mercati finanziari dei paesi avanzati per la nascente dà anche origine a una crescita repentina e quasi incontrollata del valore di borsa delle società che operano nelle tecnologie informatiche e, in particolare, dei nuovi settori che controllano l’accesso alla rete (ISP), l’offerta e il recupero di informazioni (portali, motori di ricerca), i servizi commerciali (vendite, aste on line). Le nuove imprese prendono il nome di dot-com (dal suffisso che le identifica nel sistema URI in quanto servizi commerciali) e mettono in pratica una strategia opposta rispetto a quelle attive nei mercati tradizionali: puntare sull’espansione rapidissima della base dei propri clienti e dunque della quota di mercato controllata, indipendentemente dalla redditività immediata. La scommessa degli investitori si alimenta sulla fiducia nelle potenzialità economiche derivanti dall’esuberante sviluppo del nuovo ambiente di rete, sulla disponibilità di capitale di rischio, sull’attività speculativa che porta le dot-com a incrementare il loro valore di borsa a ritmi così veloci da sfuggire a qualsiasi controllo razionale dei mercati. La risultante bolla finanziaria tocca il suo apice agli inizi del 2000, a ridosso di un evento emblematico: America Online, il più grande fornitore di accessi alla rete negli Stati Uniti, si fonde alla pari e acquisisce il controllo operativo di Time Warner, la più grande azienda di comunicazioni, proprietaria di giornali, reti televisive, case di produzione cinematografica e musicale. La rottura della bolla speculativa nei mesi successivi comporterà un clamoroso ridimensionamento dei valori di borsa, spazzerà via entità meramente speculative ma lascerà sopravvivere imprese come Yahoo e Google (recupero dell’informazione, servizi di community), Amazon ed E-bay (aste on line), che manterranno un ruolo da protagonisti nella nuova fase di sviluppo del Web.
La fase di passaggio dal Web 1.0 al Web 2.0 è contrassegnata da tendenze di grande rilievo: dalle macerie della bolla speculativa emergono nuovi assetti tecnologici ma soprattutto nuovi comportamenti sociali che trasformano ancora una volta radicalmente l’ecosistema di rete. Avviata dalle società di telecomunicazione, la diffusione di sistemi di connettività a maggiore ampiezza di banda (su cavo a fibra ottica o su rete telefonica tradizionale mediante ADSL, Asymmetric digital subscriber loop) evita la sovrapposizione nelle utenze domestiche e commerciali tra traffico voce e traffico dati; consente di visualizzare formati multimediali con accettabile qualità, anche se non ancora a pieno schermo; soprattutto fa da volano alla pratica della condivisione di file () tra utenti in modalità peer-to-peer: all’interno della rete Internet non esistono posizioni fisse di client e server (come nel classico modello Web 1.0), ma singoli nodi equivalenti (peer) che svolgono entrambe le funzioni. La pratica del file sharing emerge tra il 1999 e il 2000 con il caso Napster. Facendo ricorso a un indirizzario costantemente aggiornato su un server centrale, questo servizio consente con grande facilità agli utenti il reperimento, la condivisione e lo scambio di file musicali in formato MP3 (uno standard di compressione che riduce notevolmente le dimensioni del file, mantenendo pressoché inalterata la qualità percepita dall’orecchio umano). Napster provoca il primo fenomeno di aggiramento di massa delle leggi sul diritto d’autore ed è costretto a interrompere la propria attività a settembre del 2001, a seguito di un’azione legale intentata dalle majors discografiche. Si diffondono però con estrema rapidità negli anni seguenti sistemi peer-to-peer alternativi (Gnutella, Bittorrent, e Donkey), che rinunciano a qualsiasi forma di registro centralizzato e sono più difficili da perseguire sul piano legale. Il traffico generato su Internet da questi sistemi è cresciuto vertiginosamente ed è stimato da alcune fonti ormai pari (novembre 2007) se non superiore al tradizionale traffico Web. Certamente la pratica del file sharing ha rivoluzionato le modalità di accesso e di consumo dei contenuti digitalizzati e coinvolge un gruppo sempre più vasto di utenti Internet e la quasi totalità dei giovani: si è infatti progressivamente estesa dalla musica a tutti i prodotti dell’industria culturale (film, televisione, giochi, registrazione di eventi dal vivo ecc.); ha generato nuovi bisogni tra le persone e alimentato la crescita e la diffusione di competenze; ha indicato un nuovo modello potenziale di mercato e di distribuzione dei beni digitali.
L’evoluzione tecnologica ha favorito anche in altri ambiti, comportamenti sociali di tipo collaborativo tra gli utenti di tecnologie di rete. L’originaria staticità delle pagine web è stata superata attraverso l’introduzione di linguaggi di scripting (come JavaScript) dal lato dei sistemi client e lo sviluppo di linguaggi integrati di nuova generazione dal lato dei Web server (JSP, PHP, ASP). La diffusione di queste soluzioni sposta l’asse di sviluppo in direzione dei Web service, alla cui realizzazione e diffusione lavorano non solo le imprese commerciali che rilasciano software proprietario ma anche la comunità degli sviluppatori .
Questo movimento si è inizialmente diffuso nel processo di sviluppo cooperativo di Linux (un kernel, divenuto ora sistema operativo, originariamente impostato e distribuito via Internet dallo studente finlandese Linus B. Torvalds), sulla base del principio che il codice sorgente del software debba essere reso disponibile e che tutti gli utenti debbano godere dei vantaggi dell’attività collettiva di stesura e continuo miglioramento dei programmi. Sotto la guida di Bruce Perens ed Eric S. Raymond, il movimento open source si differenzia dalle posizioni radicali del software libero (), con cui Richard Stallman aveva, fin dagli anni Ottanta, impostato la battaglia contro la posizione di monopolio dei produttori di software commerciali, e si apre alla collaborazione con grandi imprese quali IBM, Sun Microsystems, HP. La tensione collaborativa non coinvolge solo il ristretto universo degli sviluppatori ma si riverbera su una molteplicità di attività e servizi che vengono attivati nell’ambiente di rete. I sistemi di gestione dei contenuti (CMS, Content management system), molti dei quali sviluppati in ambito open source, rendono più dinamico e aperto il mondo Web facilitando la creazione collaborativa dei contenuti e l’organizzazione del lavoro redazionale. Nel gennaio del 2001 viene lanciata Wikipedia, un’enciclopedia on line strutturata come un ipertesto e basata su un software collaborativo (wiki) che permette agli utilizzatori di trasformarsi in redattori ampliando e/o integrando le voci presenti secondo procedure di revisione e controllo basate a loro volta sulla condivisione delle funzioni.
Sempre negli stessi anni comincia a diffondersi la pratica di costruire e aggiornare i blog, pagine web dinamiche gestite mediante un CMS offerto gratuitamente da molti fornitori di servizi e personalizzate attraverso una serie di template (una funzione di programmazione che descrive lo schema di visualizzazione prescindendo dai contenuti, richiamati solo al momento dell’esecuzione) che ne delineano il layout grafico. Il blog diviene l’espressione dell’autonomia individuale nell’ambiente di rete e uno dei contesti comunicativi che contribuisce a ridefinire il confine tra spazio privato e spazio pubblico: è il luogo dove si raccontano storie ed esperienze, generalmente in forma di diario, si forniscono informazioni e si esprimono opinioni. Ma non è uno spazio vissuto in isolamento: ogni contributo lasciato on line è generalmente riferito a uno o più tag (elementi sintattici con cui si marcano i documenti al fine di organizzarli e renderne più agevole il reperimento e la fruizione) e può essere letto e commentato in tempo reale da tutti gli interessati e dallo stesso autore, che può intervenire quando desidera sui commenti altrui. La dimensione relazionale si esprime non solo nella partecipazione alle discussioni ma anche nello scambio di link: si segnalano nel blogroll i blog degli amici e di chi si ritiene in sintonia con il proprio pensiero o comunque utile da consultare; si aggiungono contenuti o risorse disponibili nell’ambiente di rete; si consente a determinate condizioni di importare liberamente i contenuti del blog e di valorizzarli autonomamente in altri contesti comunicativi della rete.
In maniera più o meno graduale la diffusione delle connessioni veloci e di standard per l’interoperabilità ha permesso di creare un ambiente on line dove, a differenza di quanto accadeva nella configurazione del primo Web, sfumano i confini tra i ruoli di server e client, di autore e lettore. L’interattività su cui da sempre si fondano Internet e Web diventa sempre più semplice da sperimentare, accessibile a un’utenza sempre più ampia; sistemi orizzontali in cui i contenuti vengono prodotti dal basso, direttamente dagli utenti, si rivelano sempre più diffusi e coinvolgenti. La distribuzione dei beni digitali via Internet offre inoltre nuove opportunità di mercato, incontra sensibilità e interessi fortemente differenziati degli utenti, determina in modo radicalmente diverso il ciclo di vita e le possibilità di remunerazione dei contenuti. Nel 2004 Tim O’Really promuove la prima Conferenza sul Web 2.0 con l’obiettivo di riflettere sulle trasformazioni che stanno contrassegnando l’ambiente delle tecnologie di rete e di renderne evidente la differenziazione evolutiva. In realtà il cambiamento non è segnato tanto dall’introduzione di tecnologie di rete assolutamente innovative (per questo Berners-Lee contesta la possibilità stessa di usare l’espressione Web 2.0), quanto dall’affermazione di standard e idee progettuali in cui gli utenti sembrano riconoscersi al punto da decretarne uno straordinario successo.
Dal punto di vista dell’evoluzione tecnologica, il Web 2.0 si inscrive all’interno di una più generale tendenza verso la multicanalità: i medesimi contenuti vengono erogati in forme molteplici, su diversi canali, con diverse interfacce, variamente ricombinati e ibridati. Secondo questo principio i contenuti di un blog possono essere automaticamente importati da un qualsiasi altro blog; i principali portali di informazione e servizi sviluppano interfacce dedicate a dispositivi trasportabili (palmari, smart phone); i proprietari di raffinati servizi on line (come Google o Yahoo) li mettono gratuitamente a disposizione di chiunque (mediante tecnologie che gestiscono Open Api, Application programming interface). La sostenibilità tecnologica dei Web service che puntano sull’interscambio tra piattaforme è affidata allo sviluppo e la diffusione di XML (eXtensible markup language), un metalinguaggio estremamente flessibile e particolarmente efficace per la condivisione di dati tra sistemi diversi. Linguaggi derivati dall’XML o come Soap, Xml-Rpc, Wsdl permettono di scambiare informazioni strutturate tra terminali connessi a Internet, basandosi generalmente sul protocollo HTTP e consentendo a una molteplicità di operatori di distribuire con facilità servizi per i quali non detengono il software, che invece risiede altrove secondo il principio del network as a platform. L’XHTML, linguaggio per descrivere pagine HTML in conformità agli standard XML, permette una più efficace separazione di contenuti e layout e quindi di personalizzare facilmente l’aspetto con cui una medesima risorsa viene presentata a differenti terminali utente. Ricorre a XML anche il formato RSS (Resource description framework site summary), con cui vengono esposti i contenuti di un sito frequentemente aggiornato in modo che l’utente possa scegliere come e quando leggerli o aggregarli sul proprio terminale, senza dover digitare l’URL del sito in questione e visualizzare l’originale pagina web. Oltre alla diffusione di standard che facilitano la collaborazione tra piattaforme, il Web 2.0 comporta decise innovazioni delle interfacce di na-vigazione, che si allontanano sempre più dal modellodella pagina di testo e si avvicinano all’esperienza di immediatezza propria del lavoro sul desktop del proprio computer, estendendo in particolare il ricorso alla multimedialità e alla possibilità di manipolare degli oggetti con un feedback in tempo reale. Tale tendenza viene favorita da una particolare combinazione di Javascript e XML detta Ajax (Asynchronous javascript and XML), grazie alla quale il flusso di dati tra server e client scorre senza necessariamente determinare ciò che compare sullo schermo ed è possibile per l’utente svolgere una serie di piccole operazioni sulla pagina ottenendo una risposta immediata, senza attendere che la pagina venga ricaricata per intero dal browser.
L’evoluzione dei Web service consente l’elaborazione di piattaforme per il web marketing che puntano a remunerare non solo servizi e contenuti di interesse per la maggior parte degli utenti ma anche quelli che inseguono i bisogni di nicchie di mercato sufficientemente ristrette e specifiche. La flessibilità delle piattaforme on line rende in questo modo sostenibili modelli di business riferiti a utenti/clienti in numero molto limitato ma precisamente identificati. Da un lato, infatti, la distribuzione on line e l’abbattimento degli oneri di intermediazione riducono drasticamente i costi di entrata e di permanenza sul mercato; dall’altro, la comunicazione pubblicitaria può essere selettivamente orientata e puntare sull’interesse e il coinvolgimento di destinatari non indifferenziati, come avviene sui media di massa. Su questo nuovo modello distributivo è costruito il concetto di Long tail (coda lunga) descritto nel 2004 da Chris Anderson: nel mondo dell’abbondanza in cui tutti i contenuti possono essere esposti sugli ‘scaffali’ on line, i proventi non derivano tanto dagli incassi dei best sellers destinati al consumo di massa quanto dalla vendita di tanti diversi articoli di nicchia, dei quali vengono distribuite poche copie a costi comprensibilmente contenuti. Puntando sull’autonoma selettività dei pubblici e sulla loro capacità di aggregarsi in communities, si riesce ad allungare a dismisura il tempo di vita dei prodotti, a suddividere i profili di remunerazione, ad assicurare attenzione e rilancio a contenuti originariamente sottovalutati dal pubblico di massa, a valorizzare contenuti realizzati ma non sfruttati dalla distribuzione tradizionale, provenienti da produttori indipendenti o dalla creatività degli stessi utenti.
La crescente diffusione delle connessioni veloci e degli strumenti per produrre foto, video e audio in formato digitale ha moltiplicato il numero dei Web service basati sulla distribuzione di contenuti multimediali. Questi hanno a disposizione un pubblico sempre più vasto, che si prende spesso carico anche della produzione, classificazione e ridistribuzione degli stessi. Si fa ricorso in questo caso all’espressione economie di rete perché il coinvolgimento di un numero sempre maggiore di utenti nel ciclo di produzione e pubblicazione non solo non incide sull’andamento dei costi (economie di scala) ma comporta anche un allargamento dell’offerta, della quale ogni utente si fa vettore e promotore. Le nuove dot-com, che sono state in grado di intercettare le esigenze degli utenti della rete e hanno lanciato Web service innovativi, hanno avuto un successo straordinario e hanno dato vita a un nuovo ciclo economico positivo legato alle tecnologie di rete.
Per esempio, il motore di ricerca Google, punto di riferimento di tutti gli utenti del web per rintracciare l’informazione, è perfettamente compatibile con i dispositivi mobili e ha lanciato servizi come Google Earth. Si tratta di un sistema di mappatura della superficie terrestre per mezzo di fotografie satellitari che gli utenti possono attraversare in volo, analizzare attraverso le informazioni aggiuntive e i repertori riferiti ai singoli luoghi, aggiungere il proprio contributo (una foto, una scheda su una risorsa naturale ecc.). Google ha anche acquisito YouTube, il portale di video sharing che cumula oltre 100 milioni di download al giorno (novembre 2007) e ha reso evidente sia le potenzialità del video on demand (l’accesso individuale ai repertori audiovisivi), sia la strategicità del coinvolgimento degli utenti, che concorrono ad arricchire con i loro contributi il patrimonio condiviso e reagiscono commentando e votando quanto reso disponibile da altri. La dimensione di è amplificata in piattaforme che puntano esplicitamente a configurarsi come luogo per l’espressione della propria personalità e per la gestione di relazioni sociali mediate dalle tecnologie. In ambienti come Myspace e Facebook milioni di giovani utenti fanno upload (cioè pubblicano on line) delle proprie gallerie fotografiche e dei propri video, rendendoli disponibili per i propri amici o per un pubblico più ampio se puntano a far conoscere e valorizzare la propria creatività; allo stesso tempo si tengono in costante contatto con gli amici presenti in rete mediante sistemi di instant messaging (messaggi in formato testuale rivolti a singoli o gruppi).
In parallelo all’espansione dei Web services, gli utenti stanno sperimentando la possibilità di accedere alle risorse Internet in condizione di mobilità (mobile networking) facendo ricorso a tecnologie di trasmissione senza fili (wireless). Il volano per questo processo è dato dalla crescente diffusione di dispositivi mobili che non sono più semplici telefonini ma terminali Internet in grado di accedere a tutte le risorse e ai servizi on line. Le funzionalità multimediali dei dispositivi mobili sono perfettamente integrate in questo contesto: la foto scattata con la fotocamera del telefonino per esempio, può essere facilmente inviata per e-mail oppure indirizzata direttamente alla stampante, a un computer o a un altro telefonino via Bluetooth (sistema a radiofrequenza attivo nel raggio di alcuni metri). La disponibilità di connettività wireless per il traffico dati (Internet) non poggia solo sulle opportunità offerte dalle società telefoniche attraverso le tecnologie di trasmissione a pacchetto (GPRS e HSDPA) ma si espande alla famiglia 802.11 Wi-Fi e WiMax, resi disponibili da una pluralità di operatori pubblici e privati. Lo scenario sta evolvendo verso una nuova modalità di contatto con le tecnologie di rete descritta dall’espressione always on: l’accesso a Internet è indipendente dalle dimensioni spaziali (si accede indifferentemente da posizione fissa, nomadica o in mobilità) o temporali (di fatto una sola modalità: sempre connesso alla rete), dal tipo di terminale (computer, palmare, telefono mobile) o dalla tipologia di connessione (ADSL, fibra ottica, Wi-Fi, WiMax, HSDPA ecc.).
L’evoluzione verso il Web 3.0, già oggetto di discussione tra gli esperti di tecnologie, lascia aperti diversi orizzonti. Per alcuni il punto di svolta è legato semplicemente all’ampliamento della capacità di trasmissione fino a 10, 20 o 40 Mb, in modo da consentire una totale integrazione delle reti sotto protocollo IP con il mondo televisivo e la diffusione di sistemi video ad alta definizione. Per altri, il tratto distintivo del processo evolutivo segnerà il passaggio a quello che viene chiamato Internet of things: l’integrazione progressiva nella rete di tutti gli oggetti dispersi nell’ambiente fisico (elettrodomestici, porte, codici a barre dei prodotti ecc.) che vengono dotati della capacità di scambiare informazione e pertanto diventano, per così dire, intelligenti. Gli utilizzi potenziali sono infiniti: la domotica, che elabora strategie per le funzioni degli ambienti in cui abitiamo (luci e energia, porte, elettrodomestici); la logistica, che renderà più semplice (e privo di errori) rintracciare le nostre valigie negli aeroporti, i libri di cui abbiamo bisogno nelle biblioteche, le medicine a noi destinate negli ospedali; il sostegno alle disabilità, attraverso percorsi virtuali destinati agli ipovedenti negli ambienti urbani, in cui la funzione di guida è affidata a una rete di sensori che dialoga con i dispositivi trasportabili; la semplificazione di atti quotidiani come pagare il biglietto dell’autobus o del parcheggio mediante il telefonino, attraversare le porte della metropolitana e delle autostrade con un bip and go, avere un sms che funge da biglietto e prenotazione del posto per il viaggio in treno.
L’integrazione del mobile networking e del pervasive computing in un ambiente in cui la banda larga è sempre più diffusa e accessibile apre questioni che, dietro l’apparente carattere tecnico, nascondono un dibattito sull’opportunità di mantenere sostanzialmente intatta la configurazione aperta e pubblica della rete. La scommessa tecnologica non è di poco conto: si tratta di includere progressivamente in Internet miliardi di dispositivi mobili e un numero assolutamente inimmaginabile di oggetti quotidiani, indipendentemente dal tipo di connessione per il trasporto dati (fisica, wireless) e dai sistemi operativi di ogni singolo apparato. Il supporto di rete servirà per fruire contenuti e servizi multimediali interattivi (non solo dal computer ma dal televisore, dal telefono ecc.) e per le comunicazioni: (a) tra persone e persone (indirizzari e archivio dei messaggi integrati, sistemi in sincrono per testo, voce, immagine ecc.); (b) tra persone e oggetti (istruzioni rivolte a apparati tecnologici, richieste di informazioni, ticketing ecc.); (c) tra oggetti e persone (schermi e cartelloni pubblicitari che riconoscono gli interlocutori ecc.); (d) tra oggetti e oggetti (codici a barre che dialogano con il carrello della spesa e la cassa ecc.). Come risulta chiaro, si tratta di modalità di utilizzo della risorse di rete che sono lontane anni luce dall’interpretazione per qualche tempo alimentata dal dibattito giornalistico e dalla pubblicità delle società telefoniche: non si tratta, infatti, di sfogliare pagine web lontani dall’ufficio ma di fare, con le tecnologie di rete che trasportiamo in tasca o che ci circondano, cose radicalmente diverse. La logica evolutiva implicita nell’Internet of things punta a esportare nel nostro ambiente quotidiano, nei contatti con gli oggetti e con le persone, i principî della modularità e dell’intelligenza distribuita che appartengono storicamente allo sviluppo della rete.
Il principale problema tecnico da risolvere è relativo al sistema di protocolli che gestisce gli indirizzi Internet: per rendere operativa la nuova fase delle tecnologie di rete si dovrà, infatti, attribuire un indirizzo fisico (stabile) a ciascun dispositivo. Secondo la stima della IETF (Internet engineering task force) il sistema in funzione, in sigla IPv4, gestisce circa 4 miliardi e 300 milioni di indirizzi ed è prossimo all’esaurimento. Si sta provvedendo, pertanto, a mettere in esercizio il nuovo sistema IPv6, che dovrebbe risolvere alla radice il problema assicurando un numero di indirizzi vicino ai limiti dell’immaginabile, almeno per i comuni mortali: il sistema sfrutta 128 bit, rispetto ai precedenti 32, e consente fino a circa 3,4×1038 indirizzi fisici Internet.
Secondo altre prospettive di ricerca (in particolare per Berners-Lee e il gruppo di lavoro del W3C) la sfida dei prossimi anni riguarda il tentativo di rendere le informazioni tracciate nel Web non solo comprensibili agli umani – come avviene, seppur con molte limitazioni, attraverso i motori di ricerca – ma anche alle macchine (machine-understandable). Nell’etichetta Semantic Web è racchiusa l’idea di raggiungere la piena interoperabilità attraverso un sistema di metadati che poggia su RDF (Resource description framework), un data model per la descrizione univoca delle risorse identificate attraverso il sistema URI (Universal resource identifier). In realtà le tendenze che abbiamo delineato – disponibilità illimitata e ubiqua di connettività, estrema pervasività delle tecnologie informatiche, procedure di information retrieval interoperabili – non si escludono vicendevolmente ma evolvono in parallelo e descrivono i tratti caratterizzanti della prossima generazione delle tecnologie di rete.
Internet degli oggetti esprime la tendenza verso un ambiente tecnologico in cui la capacità di calcolo e di gestione della potenzialità connettiva si autonomizza rispetto alla macchina personal computer e si innesta negli spazi fisici. Le basi di questo approccio sono state tracciate da Mark Weiser, nei laboratori dello Xerox Park, seguendo l’idea che si dovesse rimettere il computer e il suo schermo interattivo al posto giusto nella vita degli esseri umani: in una collocazione dove non si producessero interferenze o sottrazioni di attenzione rispetto agli obiettivi dell’azione, a causa di continue e sempre più complesse richieste di dialogo avanzate dalla macchina. La logica dell’ punta a una forma espansa di embodied virtuality, in cui l’intero mondo fisico acquisisce le capacità di calcolo e di dialogo normalmente assegnate all’artefatto cognitivo personal computer. Agli oggetti inanimati è assegnata una vita artificiale in funzione della loro capacità di venire incontro ai nostri bisogni: noi rimaniamo fermi, in senso letterale e figurato, mentre i computer nascosti e dispersi nel mondo (cioè la potenzialità di trattare informazione) si agitano freneticamente per venirci in aiuto, facendo affidamento sulla memoria, la precisione e l’accesso alle risorse di network per anticipare le nostre esigenze e suggerire le alternative più opportune. Ma i processi di recupero e gestione delle informazioni rilevanti in ogni singolo contesto devono presentarsi in modo semplice e naturale e avere effetti ‘calmanti’ sugli utenti umani. Se questa scommessa avrà buon esito si riuscirà a dare concretezza al progetto che Weiser enunciava nel 1991, in un mondo in cui le tecnologie di rete erano ancora in stato embrionale: «Durante una passeggiata nel bosco si rende disponibile di fronte alla punta delle nostre dita molta più informazione di quanta ne presenti un qualsiasi sistema computerizzato. Ciononostante le persone considerano rilassante la passeggiata tra gli alberi e frustrante interagire con un computer. Se avremo macchine che si adattano all’ambiente umano, invece di costringere gli umani a entrare nel loro, questo renderà usare un computer tanto rilassante quanto fare una passeggiata nel bosco».
Barabási 2002: Barabási, Albert-László, Linked. The new science of networks, Cambridge (Mass.), Perseus, 2002 (trad. it. Link. La nuova scienza delle reti, Torino, Einaudi, 2004).
Berners-Lee 1999: Berners-Lee, Tim, Weaving the Web. The original design and ultimate destiny of the World Wide Web by its inventor, San Francisco, Harper, 1999 (trad. it. L’architettura del nuovo Web, Milano, Feltrinelli, 2001).
Galloway 2004: Galloway, Alexander R., Protocol. How control exists after decentralization, Cambridge (Mass.)-London, MIT Press, 2004.
Hafner, Lyon 1998: Hafner, Katie - Lyon, Matthew, Where wizards stay up late. The origins of the Internet, New York, Simon & Schuster, 1998 (trad. it. La storia del futuro. Le origini di Internet, Milano, Feltrinelli, 1998).
Weiser 1991: Weiser, Mark D., The computer for the twenty-first-century, “Scientific American”, 265, 1991, pp. 94-104.
Wellman, Haythornthwaite 2002: The Internet and everyday life, edited by Barry Wellman, Caroline Haythornthwaite, Oxford, Blackwell, 2002.
Internet Society, Histories of the Internet, http://www.isoc.org/internet/history/
Leiner, Barry M. e altri, A brief history of the Internet, The
Internet Society,
http://www.isoc.org/internet/history/brief.shtml
W3C Technical report and publications, http://www.w3.org/TR/
Wikipedia, voce Internet e risorse linkate, http://it.wikipedia.org/wiki/Internet http://en.wikipedia.org/wiki/Internet.