Académique Documents
Professionnel Documents
Culture Documents
Wide Web
Tesina per l’esame di Storia dell’Informatica
2
Sommario
1 – La storia di Internet ..................................................................................................................................... 4
1.1 - ARPANet e i padri della commutazione di pacchetto................................................................... 4
1.2 - Ethernet, TCP e l’interconnessione delle reti ............................................................................... 6
1.3 - La proliferazione delle reti ............................................................................................................ 7
2 – La storia dell’Ipertesto ................................................................................................................................ 8
2.1 - Vannevar Bush e Memex .............................................................................................................. 8
2.2 - Engelbart e NLS............................................................................................................................. 9
2.3 - Theodor Holm Nelson e Xanadu ................................................................................................. 10
2.4 - Andy van Dam e FRESS ............................................................................................................... 11
2.5 - Viewdata, Prestel e Minitel ........................................................................................................ 12
2.6 - Intermedia, Hypercard e altri sistemi ipertestuali...................................................................... 14
2.7 - Prima del World Wide Web: Archie, WAIS e Gopher ................................................................. 16
3 – Nascita del World Wide Web.................................................................................................................... 19
3.1 – Entrate pure per avere informazioni su qualsiasi argomento ! ................................................. 19
3.2 – Il ritorno di Tim Berners Lee al CERN ......................................................................................... 20
3.3 – Lo sviluppo del primo WWW ..................................................................................................... 21
3.4 – I primi browser........................................................................................................................... 23
3.5 – Il viaggio in USA di Tim Berners Lee ........................................................................................... 24
3.6 – Un consorzio per il World Wide Web ........................................................................................ 24
4 – La “guerra” dei browser ............................................................................................................................ 27
4-1 – Mosaic e l’alba di Netscape ....................................................................................................... 27
4-2 – Internet Explorer contro Netscape Navigator 2.0 ..................................................................... 28
4-3 – Il dominio di Internet Explorer .................................................................................................. 29
4-4 – La seconda “guerra” dei browser .............................................................................................. 30
5 – L’evoluzione del Web ...................................................................................................................... 33
5-1 – La bolla delle dot-com ............................................................................................................... 33
5-2 – Cos’è il Web 2.0 ? ...................................................................................................................... 33
5.3 – Differenze tra “Web 1.0” e Web 2.0 .......................................................................................... 35
5.4 – Un fenomeno recente: i Social Network.................................................................................... 38
5.5 – Il futuro della rete: il Web Semantico ........................................................................................ 39
5.6 – Conclusioni ................................................................................................................................. 41
Bibliografia ...................................................................................................................................................... 42
3
Il World Wide Web ha cambiato il modo di comunicare delle persone e anche il mondo degli affari. Siamo
testimoni di una rivoluzione che sta trasformando il mondo e viviamo in una società che possiamo definire
“della conoscenza”. Il web è come un’enciclopedia, un elenco telefonico, un supermercato, un luogo di
discussione… e tutta questa serie di informazioni e strumenti sono alla portata di un click da chiunque
disponga di una connessione Internet e un qualsiasi elaboratore.
Il World Wide Web ha acquisito così tanta importanza che molti – erroneamente – lo confondono con
Internet. In realtà stiamo parlando di due concetti piuttosto differenti: Internet è infatti come una rete di
strade elettroniche che attraversano il pianeta, un’autostrada dell’informazione; il web è solo uno dei molti
servizi che utilizzano questa rete, così come tante sono le tipologie di veicoli che utilizzano le strade.
1 – La storia di Internet
1.1 - ARPANet e i padri della commutazione di pacchetto
Internet ha rivoluzionato il mondo delle comunicazioni: esso rappresenta contemporaneamente un mezzo
di comunicazione globale, un meccanismo di disseminazione dell’informazione e uno strumento per la
collaborazione e l’interazione tra individui ed elaboratori, tra i quali favorisce il contatto senza curarsi della
loro posizione geografica.
La sua storia fa perno attorno a quattro aspetti distinti. Il primo di essi è l’evoluzione tecnologica che iniziò
con le prime ricerche sulla commutazione a pacchetto e ARPANet, e che ancora oggi continua con il fine di
espandere gli orizzonti infrastrutturali sotto diversi punti di vista, tra i quali la scalabilità, il miglioramento
delle performance e l’aggiunta di funzionalità ad alto livello. Va considerato poi un aspetto “operativo” e di
management legato a come questa evoluzione ha preso forma. C’è quindi l’aspetto sociale, che ha avuto
come risultante la nascita della comunità degli Internauti. E soprattutto c’è l’aspetto commerciale, quello
più importante ai fini della creazione di un’infrastruttura informativa a livello globale.
Il settore del computer networking e di Internet trae le sue origini dai primi anni ’60, un tempo in cui la rete
telefonica era quella dominante nelle comunicazioni mondiali. Questa utilizza la commutazione di circuito
per trasmettere informazioni dal mittente al destinatario.
Con la crescente importanza e gli alti costi dei calcolatori nei primi anni 60, era naturale considerare il
problema di come collegare tra loro gli elaboratori in modo che potessero essere condivisi da utenti
geograficamente distribuiti.
La prima descrizione delle interazioni sociali che sarebbero state abilitate attraverso il
networking è racchiusa in una serie di appunti scritti da J.C.R. Licklider (vedi figura 1) del
MIT nell’agosto del 1962, nei quali discute del concetto di una “Galactic Network”
(letteralmente “Rete Galattica”). Licklider sognava un insieme di elaboratori interconnessi
globalmente, attraverso i quali ognuno potesse velocemente accedere a dati e
programmi ovunque si trovasse: essenzialmente veniva descritto ciò che oggi è
rappresentato da Internet. Licklider fu messo a capo dell’Information Processing
(1) J.C.R. Licklider
Techniques Office (IPTO) della Advanced Reseach Project Agency - ARPA - nel 1962.
La sua visione influenzò gli studi di Leonard Kleinrock (vedi figura 3), diplomato e studente del MIT, che
pubblicò il suo primo documento sulla teoria della commutazione a pacchetto nel luglio del 1961 e il primo
libro sull’argomento nel 1964. Kleinrock convinse Lawrence Roberts, suo collega al MIT, della fattibilità
teorica di una comunicazione effettuata utilizzando pacchetti piuttosto che circuiti: questo rappresentò uno
4
dei più grandi passi verso l’attuale computer networking. L’altro punto chiave fu quello di mettere in
comunicazione due elaboratori: nel 1965 Roberts, lavorando con Thomas Merril, connesse un elaboratore
TX-2 in Massachussets con un Q-32 in California tramite una lenta connessione telefonica, creando di fatto
la prima (per quanto piccola) rete geografica. Il risultato di questo esperimento fu la comprensione del fatto
che gli elaboratori potevano eseguire programmi e recuperare dati da macchine remote quando
necessario, ma anche che il sistema di commutazione a circuito era totalmente inadeguato a questo scopo.
Nel 1964 Paul Baran (vedi figura 2) del Rand Institute cominciò ad indagare l’uso della commutazione di
pacchetto per la sicurezza della comunicazione vocale nelle reti militari; contemporaneamente, al National
Physical Laboratory (NPL) inglese, anche Donald Davies e Roger Scantlebury stavano sviluppando la loro
idea di commutazione a pacchetto.
In questo modo tre gruppi di ricerca sparsi per il mondo, ignorando ognuno il lavoro
degli altri, concepirono la nozione di commutazione di pacchetto, un’efficiente e valida
alternativa alla commutazione di circuito. La commutazione di pacchetto, a differenza
di quella di circuito, non comporta l'attivazione di una linea di comunicazione dedicata
fra un elaboratore ed un altro, ma consente lo svolgimento simultaneo di più
(2) Paul Baran comunicazioni fra computer, massimizzando così l'utilizzazione dei mezzi trasmissivi
impiegati. Il lavoro al MIT, al Rand e all’NPL portò di fatto alla fondazione dell’Internet attuale.
Intorno al 1972 ARPANet era cresciuta fino a circa quindici nodi, e la prima dimostrazione pubblica fu
presentata da Robert Kahn nel 1972 all’International Conference on Computer Communications. Il primo
protocollo host-to-host fra terminali di ARPAnet, conosciuto come Network Control Protocol (NCP), era
completato. Con la disponibilità di un protocollo di questo tipo fu possibile sviluppare le prime applicazioni
e così Ray Tomlinson, nel 1972, realizzò il primo software di posta elettronica spinto dalle necessità degli
sviluppatori di ARPANet, i quali necessitavano un semplice meccanismo di coordinamento.
5
1.2 - Ethernet, TCP e l’interconnessione delle reti
La prima versione di ARPANet altro non era che una singola rete chiusa: per comunicare con un elaboratore
in ARPAnet, occorreva collegarsi a un IMP ARPAnet. All’inizio e a metà degli anni ‘70 furono create altre reti
a commutazione di pacchetto oltre ad Arpanet; per citarne alcune:
• ALOHAnet, una rete a microonde che collegava tra loro le università delle isole Hawaii;
• Telenet, una rete commerciale della BBN basata sulla tecnologia ARPANet
• Cyclades, una rete francese a commutazione di pacchetto progettata da Louis Pourzin
Il numero delle reti cominciava a crescere. Nel 1973 la tesi di dottorarto di Robert Metcalfe anticipava il
principio di Ethernet, che avrebbe in seguito portato a una crescita impressionante delle cosiddette reti in
area locale (LAN).
NCP non aveva l’abilità di indirizzare le reti (e le macchine) se non ad un IMP di destinazione su ARPANet;
NCP basava inoltre la propria affidabilità su quella di ARPANet: se un pacchetto fosse stato perso, il
protocollo (e presumibilmente ogni applicazione basata sullo stesso) non avrebbe avuto modo di gestire
l’errore. Fu così che Kahn decise di sviluppare una nuova versione del protocollo che avrebbe potuto
incontrare I bisogni e le necessità di un’ambiente con architettura aperta. Questo protocollo sarebbe stato
poi chiamato Transmission Control Protocol (TCP).
• Ogni rete distinta avrebbe potuto continuare a mantenere le proprie caratteristiche, senza la
necessità di modifiche interne per connettersi ad Internet;
• La comunicazione avrebbe seguito una filosofia “best effort”: se un pacchetto non fosse giunto alla
destinazione finale, sarebbe stato velocemente ritrasmesso dalla sorgente;
• Le reti sarebbero state connesse tramite delle periferiche apposite, che più tardi sarebbero state
identificate come gateway e router. Tali strumenti non avrebbero mantenuto informazioni, ma
semplicemente le avrebbero smistate;
• Non doveva esistere un punto di controllo globale e centralizzato.
Questi principi architettonici furono incorporati nel protocollo TCP, la cui prima versione, comunque, era
molto differente da quella attuale. Il primo TCP univa la consegna affidabile dei dati in sequenza attraverso
la ritrasmissione da parte del terminale (che è presente anche da parte dei TCP attuali) con una funzione di
ritrasmissione (che oggi è a carico del protocollo Internet, IP). Le prime sperimentazioni, combinate con il
riconoscimento dell’importanza di un servizio di trasporto non affidabile e privo di controllo di flusso
(utilizzabile per applicazioni quali ad esempio la voce “pacchettizzata”), portarono alla separazione di IP da
TCP e allo sviluppo del protocollo UDP. I tre protocolli chiave dell’Internet attuale (TCP, IP e UDP) furono
concettualmente definiti alla fine degli anni ’70.
6
Oltre alle ricerche correlate a Internet sponsorizzate dalla DARPA, erano partiti molti altri lavori importanti
sull’interconnessione delle reti. Nelle Hawaii, Norman Abramson stava sviluppando la già citata ALOHAnet,
una rete di trasmissione basata su pacchetti che permetteva di comunicare tra loro a molte località sparse
nelle isole. Il protocollo a ALOHA è stato il primo protocollo che permise a utenti geograficamente
distribuiti di condividere un singolo mezzo di trasmissione, in questo caso una frequenza radio. Il lavoro di
Abramson sui protocolli di questo tipo (definiti “ad accesso multiplo”) fu rielaborato da Metcalfe e Boggs
per lo sviluppo del protocollo Ethernet (1976). E’ interessante notare come le motivazioni che portarono
allo sviluppo del protocollo Ethernet furono la necessità di collegare insieme molti PC, stampanti e dischi
condivisi. Venticinque anni fa, molto prima della rivoluzione dei personal computer e dell’esplosione delle
reti, Metcalfe e Boggs stavano gettando le basi per le attuali LAN.
Gli anni ’80 furono teatro di una crescita impressionante, derivante dagli sforzi per creare una rete di
calcolatori che connettesse le università. BITNET forniva la posta elettronica e il trasferimento di file tra
parecchie università del nordest degli USA. CSNET (Computer Science Network) fu creata per collegare
ricercatori universitari privi dell’accesso ad ARPAnet. Nel 1986 fu creata NSFNET per fornire accesso a
grandi centri di calcolo sponsorizzati dalla NSF. Partendo da una rete dorsale a velocità di 56 kbit/s, NSFNET
arrivò a 1,5 Mbit/s alla fine del decennio, ed è servita come giunzione primaria tra le reti regionali.
Nella comunità ARPAnet, trovarono collocazione molti dei pezzi definitivi dell’architettura moderna di
Internet. Il primo gennaio 1983 TCP/IP sostituì NCP come nuovo protocollo host standard per ARPAnet,
tramite una transizione pianificata attentamente da diversi anni. Negli anni successivi fu apportata
un’importante estensione al TCP per implementare il controllo della congestione basato sull’host; fu inoltre
sviluppato il DNS (Domain Name System), usato per tradurre i nomi simbolici dei calcolatori (ad esempio
www.disi.unige.it) in equivalenti indirizzi IP a 32 bit. La diffusione delle reti rese necessaria la definizione di
tre classi (A, B e C) per differenziarne le diverse tipologie: la classe A rappresentava grandi rete a scala
nazionale; la classe B reti a scala regionale ed infine la classe C le LAN.
Queste innovazioni, assieme ad uno sviluppo delle tecnologie e degli algoritmi di routing, portarono di fatto
ad avere nei tardi anni ‘80 una rete Internet molto simile a quella che conosciamo, aperta non solo a
sviluppatori e ricercatori ma anche ad altre comunità.
Gli anni ’90 videro diversi eventi che favorirono l’evoluzione e la commercializzazione di Internet in breve
tempo. ARPAnet, il progenitore di Internet, cessò di esistere. La Military Network (MILNET), componente di
ARPAnet dedicata al traffico “non classificato” del Dipartimento di Difesa degli USA, in seguito alla propria
espansione negli anni ’80, divenne parte integrante del Defense Data Network, un sistema a livello globale
di reti a differente livello di sicurezza. Infine NSFnet cominciò ad essere utilizzata come rete portante per il
collegamento di reti regionali negli USA e di reti nazionali estere.
Nel 1991, la National Science Foundation (NSF) tolse le sue restrizioni sull’uso di NSFnet per scopi
commerciali. NSFnet stessa fu soppressa nel 1995 , e il traffico sulla rete di Internet venne a essere gestito
da service provider commerciali. L’evento principale degli anni ’90, comunque, fu l’introduzione del World
Wide Web, che portò Internet nelle case e negli uffici di milioni e milioni di persone. Questo tema verrà
approfondito nelle prossime pagine.
7
2 – La storia dell’Ipertesto
Internet non è l’unico ingrediente che ha concorso alla genesi del World Wide Web. La diffusione dei
personal computer si è dimostrata essere una componente vitale in questo processo, in quanto nulla di
simile alla grande Rete avrebbe preso forma se Internet avesse connesso solo super elaboratori. Il concetto
di ipertesto è altrettanto fondamentale. In questo capitolo verranno approfonditi aspetti storici relativi a
questa tematica.
All’inizio del 1945 Vannevar Bush (vedi figura 5), direttore dell'Office of Scientific Research and
Development, pubblicò sull’Atlantic Monthly un articolo intitolato “As We May Think” nel quale prospettava
un’apparecchiatura futuribile, il Memex (abbreviazione di Memory Extender) utile per la consultazione, la
modifica e il salvataggio di informazioni.
Questo apparecchio non venne mai costruito, ma gettò le basi concettuali per lo sviluppo
dell’ipertestualità: si trattava di un sistema in grado di interconnettere informazioni archiviate su microfilm.
Il Memex aveva in sé i caratteri propri dell’interattività come la intendiamo oggi: nonostante fosse un
sistema analogico precorreva i tempi introducendo la possibilità di aggiungere note e commenti a margine
del testo e quindi permetteva un semplice livello di partecipazione del potenziale utente.
“La mente umana non funziona in questo modo. Essa funziona per associazione. Con
una sola informazione in suo possesso, essa scatta immediatamente alla prossima
che viene suggerita per associazione di idee, conformemente a un’intricata rete di
percorsi sostenuta dalle cellule del cervello …”. [3]
L’approccio di ricerca basato su un paradigma neurale che venne suggerito dal ricercatore del MIT era
motivato anche dalla prospettiva di sostituire con un modello meccanico il lavoro della mente umana in
determinate situazioni di approccio all’informazione:
“la mente umana [..] ha un’altra caratteristica, ovviamente: i percorsi che non sono
seguiti frequentemente tendono ad affievolirsi, le informazioni non sono del tutto
permanenti, la memoria è transitoria.” [3]
8
2.2 - Engelbart e NLS
Vannevar Bush morì nel 1974, troppo in anticipo rispetto all’avvento del World Wide Web, ma non troppo
tardi per assistere alla materializzazione della sua visione, quella di un personal computer capace di
collegamenti associativi piuttosto che gerarchici.
L’uomo dietro a questa realizzazione si chiamava Doug Engelbart (vedi figura 6);
questi lesse “As may We Think” nell’autunno del 1945 mentre prestava servizio
nella marina americana come tecnico radar, e ne rimase profondamente colpito.
Nel 1950, terminati gli studi come ingegnere elettronico, iniziò a sviluppare un suo
progetto, non spinto dal desiderio di denaro ma dall’ambizione di realizzare
qualcosa di utile per l’intera umanità.
Engelbart aveva letto qualcosa sui computer (un fenomeno relativamente recente
(6) Doug Engelbart all’epoca) e dalla sua esperienza all’esercito aveva appreso che le informazioni
potevano essere analizzate e visualizzate su un monitor a tubi catodici; con l’intento
di espandere le proprie conoscenze nell’ambito degli elaboratori elettronici, scelse di lasciare il lavoro e di
dedicarsi all’attività di dottorato presso l’Università di Berkeley.
Dopo aver ottenuto il PhD, ottenne un incarico di insegnamento; tuttavia la sua permanenza all’università
non fu lunga, e nel 1957 si trasferì allo Stanford Research Institute (SRI) , che era allora diventato il secondo
nodo di ARPANET: il suo sogno avrebbe preso forma di lì a tre anni quando, dopo essersi guadagnato una
reputazione di tutto rispetto, ricevette dei fondi prima dalla Air Force Office of Scientific Research (AFOSR)
e, successivamente, dalla stessa SRI. Tali fondi furono impiegati nella realizzazione di un progetto sul quale
Engelbart pubblicò un rapporto nel 1962, intitolato “Augmenting Human Intellect: A Conceptual
framework”.
Nel suo rapporto il ricercatore si chiedeva a quali abilità le persone si affidavano, oltre a quelle con cui
erano nati, per incrementare la propria capacità nel raggiungere obiettivi. I processi co-evolutivi tra gli
uomini e gli strumenti da loro realizzati avvengono molto lentamente e, in un contesto di progresso nel
quale le nuove tecnologie si sviluppano più velocemente delle abilità umane nell’utilizzarle, è necessario
trovare un modo per accelerare lo sviluppo intellettivo in maniera tale che l’umanità possa mantenersi al
passo con la tecnologia che essa stessa produce. Engelbart vedeva i computer come la chiave di questa
accelerazione e le sue idee ponevano gli elaboratori come strumenti atti ad esaltare l’abilità delle persone
nel loro lavoro, nonché a migliorare le attività di squadra e la suddivisione delle risorse nell’ambito delle
stesse.
La presentazione di questo rapporto gli permise di ottenere un finanziamento dall’ARPA, grazie al quale
ebbe modo di reclutare un’intera squadra di ricerca nel suo nuovo Augmentation Research Center (ARC) e
con la quale portò avanti progettazione e sviluppo dell’On-Line System – detto anche NLS.
NLS permetteva la manipolazione di documenti strutturati visualizzati su un monitor: gli utenti del sistema
potevano condividere documenti e modificarli in maniera collaborativa; era addirittura possibile
configurare una forma di teleconferenza tale che due operatori in postazioni differenti potessero vedere
l’uno il documento dell’altro. Inoltre, all’interno dei testi stessi, erano presenti dei collegamenti che
permettevano di saltare da un’informazione ad un’altra: si trattava di una prima implementazione
funzionante di ipertesto. Venne introdotto il concetto di finestre affiancate, ovvero finestre contenenti il
testo affiancate una all’altra (e non sovrapposte come ad esempio oggi in Windows o MacOs) e delle quali
era possibile modificare il contenuto selezionandole tramite un cursore sullo schermo.
9
La velocità e la comodità nell’interazione tra l’uomo e la macchina erano tematiche a cuore dei componenti
della squadra di NLS: proprio al fine di migliorarle questi progettarono delle periferiche che, seppur non
così intuitive da utilizzare, erano molto più pratiche di quelle esistenti all’epoca. La prima aveva l’aspetto di
una piccola tastiera e consisteva di cinque tasti che si potevano tenere comodamente sotto la mano
sinistra; combinando la pressione dei tasti era possibile ottenere tutte le lettere dell’alfabeto. Il secondo
era uno strumento per il puntamento a video che poteva essere manipolato tramite la mano destra:
qualcuno lo chiamò mouse.
Il 9 dicembre 1968, a San Francisco in occasione della Fall Joint Computer Conference, Engelbart presentò il
sistema realizzato tramite una dimostrazione oggi denominata “The Mother of all Demos” - La Madre di
tutte le Demo; la sessione, presentata con il titolo “A research center for augmenting human intellect”
ottenne consensi nell’ambito della conferenza, tuttavia non si tradusse in finanziamenti e aiuto per
sviluppare ulteriormente il sistema.
Nel 1965 fece la sua comparsa il “successore” del progetto di Vannevar Bush: dalle ceneri del teorizzato
Memex prendeva vita Xanadu, un software per l’archiviazione, la gestione e la distribuzione delle
informazioni, in grado di articolare il contenuto dei dati in moduli interconnessi. A differenza del Memex
esso estendeva gli obiettivi connaturati all’idea di Vannevar Bush, volendo proporsi anche come sistema di
editoria istantanea e collettiva. Ciò significava non accontentarsi più di una ricerca veloce e intelligente del
singolo dato, ma spingersi fino alla possibilità di articolare una rete di utenti in grado di interagire con le
informazioni e produrne di nuove. Anche se il primo prototipo di tale software vide la luce solo nel 1987, le
teorie che gravitavano interno alla sua ideazione influenzarono radicalmente il panorama degli anni
successivi.
Ideatore di questo nuovo ambizioso progetto era Theodor Holm Nelson (vedi
figura 7), eclettico portavoce di un liberalismo tecnologico che dalla metà degli
anni sessanta stava diffondendosi all’interno della ricerca scientifica. E proprio
Nelson solitamente si attribuisce la paternità del termine “Ipertesto”. Infatti, anche
se sono moltissimi i contributi che intellettuali, storici e accademici hanno dato a
tale concetto, sia ricercando e approfondendo le sue radici etimologiche, sia
muovendo dalle modalità di utilizzo e fruizione dello stesso, la definizione più (7) Ted Nelson
famosa e popolare è proprio quella che Nelson coniava nel 1965 durante la conferenza annuale
dell’Association for Computing Machinery:
“Con ipertesto intendo scrittura non sequenziale, testo che si dirama e consente al
lettore di scegliere e si fruisce al meglio davanti a uno schermo interattivo [..] un
ipertesto è una serie di brani di testo tra cui sono definiti legami che consentono al
lettore differenti cammini.” [3]
10
Alla domanda “Cos’è un computer?” Nelson avrebbe risposto “Non è un apparecchio meccanico, non è un
apparecchio numerico e per calcoli matematici, non è un apparecchio per ingegneri: è una macchina utile a
qualsiasi scopo!”
Nelson desiderava uno strumento che non solo catalogasse i suoi scritti, ma che tenesse traccia dei
cambiamenti effettuati, e gli permettesse di comparare le differenti versioni di un documento, magari
visualizzandole in parallelo, come poteva fare con il supporto cartaceo. E come se non bastasse, dato che la
memoria dei computer non doveva essere lineare, anche i documenti avrebbero dovuto avere una
struttura analoga: si trattava di un progetto ambizioso, e non c’è da stupirsi che non sia stato portato a
termine.
In 30 anni Xanadu non è mai stato completato, ma non ha fallito il suo scopo. Dal punto di vista di Nelson,
esso rappresenta la risposta ai problemi del World Wide Web: con Xanadu - ad esempio - non
esisterebbero i dead link (ovvero i misteriosi 404 – Pagina non trovata) perché nulla viene cancellato; in
Xanadu ognuno viene accreditato per il proprio lavoro perché quando si include un testo nel documento, il
sistema tiene traccia di chi ne è l’autore. Copyright, royalties e micro pagamenti fanno ancora parte del
futuro del web, ma Nelson sostiene che erano problemi teoricamente già risolti da Xanadu.
FRESS era un passo avanti rispetto al suo predecessore: il sistema funzionava su un mainframe IBM e
permetteva link tra i soli documenti in quel sistema (il primo nodo ARPANET sarebbe arrivato solo l’anno
dopo); inoltre non era prevista alcuna funzionalità multimediale. Il mouse di
Engelbart non aveva catturato le attenzioni della IBM, di conseguenza per il
puntamento degli hyperlink si utilizzava una penna luminosa (vedi figura 9):
piuttosto che “punta e clicca” si sarebbe potuto dire “punta e calcia” in quanto,
per visualizzare un contenuto linkato, bisognava puntare il collegamento con la
penna e schiacciare un pedale. I link all’interno di un documento potevano (9) FRESS
puntare a note a piè e di pagina, definizioni, annotazioni o anche singoli caratteri; tutti i link raggiunti
tramite la penna aprivano nuove finestre, sia che il link puntasse allo stesso documento che ad altri nel
sistema.
Come alcuni precursori del web, FRESS era sotto certi aspetti più sofisticato: i link ad esempio erano
bidirezionali, nonchè potevano essere inoltre etichettati con parole chiave e utilizzati per definire cammini
personalizzati tra le varie pagine.
Se FRESS fosse stato utilizzato come strumento didattico, ad esempio, una classe di studenti avrebbe
potuto annotare i documenti aggiungendo collegamenti e appunti - oppure vedere quelli del professore. La
sperimentazione di FRESS avvenne effettivamente in ambito accademico, in due corsi universitari.
L’esperimento riscosse molto successo, tuttavia gli studenti, pur avendo scritto copiosamente, non avevano
11
utilizzato molto le funzionalità di linking degli ipertesti. Le ragioni sono molteplici, di cui una molto
semplice: seppur fossero disponibili molti terminali, solo su uno era presente l’interfaccia grafica che
permetteva di manipolare i collegamenti con semplicità. Inoltre, per persone abituate a media lineari, era
facile perdersi nella fitta rete di informazioni : sarebbe stata necessaria una guida alla navigazione.
“ Crediamo che Viewdata sia un nuovo grande media, comparabile a stampa, radio e
televisione e che - come questi ultimi - potrà avere effetti significativi sulla società e
sule nostre vite. Potrà portare a notevoli cambiamenti nelle abitudini sociali e negli
stili di vita, nonché avere alcuni effetti a lungo termine, ad esempio economici.
Viedata è il primo dei sistemi che rende fruibile l’offerta del mercato di massa
attraverso servizi che sono un misto di computing e telecomunicazioni. “ [1]
Per un certo periodo questo proclama non venne disatteso: fu organizzata una serie di conferenze
riguardanti Viewdata, e l’interesse per questa tecnologia si espresse in sperimentazioni in paesi Europei,
Nord Americani e addirittura dell’estremo oriente. Tuttavia tutti gli studi a riguardo, con la notevole
eccezione del Minitel francese, fallirono. Il problema sembrò proprio essere il rifiuto del mercato.
Il primo lavoro di Fedida fu l’analisi della tecnologia Viewphone, il cui obiettivo era quello di estendere le
capacità degli apparecchi telefonici e trasmettere un’immagine televisiva assieme alla voce in modo che le
persone ai due capi del telefono potessero vedersi. Viewphone sfruttava molta banda per trasmettere i dati
e Fedida comprese che trasmettere dati era molto più facile utilizzando le normale linea telefonica,
ammesso che ci fosse “qualcosa” atto al salvataggio dei dati in ricezione. La periferica per il salvataggio che
Fedida aveva in mente era sostanzialmente un televisore modificato: era stato concepito Viewdata, che fu
ufficialmente rilasciato dal Post Office Britannico nel 1973, ma che è conosciuto anche sotto il nome
generico Videotex.
Circa allo stesso tempo, la British Broadcasting Corporation (BBC) e la Indipendent Broadcast Authority (IBA)
stavano lavorando, contemporaneamente, a due progetti analoghi tra loro e al precedente: la loro idea era
quella di trasmettere testo sullo schermo della tv, sfruttando la banda che avanzava dalla trasmissione di
video e audio. Entrambi effettuarono dei test nel 1973 rilasciando rispettivamente Ceefax (il cui nome era
una semplici versione fonetica di “see facts”) e ORACLE (Optical Reception of Announcements by Coded
Line Electronics); per uniformità e comodità, vennero entrambi rinominati Teletext.
Viewdata aveva aperto le porte ad una possibile rivoluzione dell’informazione: dato che molti inglesi
possedevano sia televisione che telefono, Fedida e altri prefiguravano la possibilità per le persone di
accedere alle informazioni comodamente da casa. Lo scopo di questi sistemi era la creazione di un mondo
dove gli Information Providers (IP) avrebbero mantenuto i dati in elaboratori centralizzati e gli utenti li
avrebbero scaricati tramite piccoli decoder che ne permettevano la visione sullo schermo di una TV.
Viewdata, oltre alle informazioni, avrebbe reso possibile l’accesso a posta elettronica, banche, giochi e
bacheche virtuali; sarebbero stati inoltre predisposti servizi per i disabili, come ad esempio lettura del video
per i ciechi.
12
Il Post Office inglese pensava si trattasse di un ottimo affare, e per questo impiegò tempo e risorse nel
convincere i produttori di TV e i potenziali IP a sostenere il progetto: una prova di mercato, alla quale
presero parte 1000 utenti (per il 70% si trattava di utenza domestica) ebbe un particolare successo, per via
dei costi non elevati.
Fu così che l’ufficio postale decise di lanciare Prestel (il cui logo è visibile in figura 10), la
versione commerciale di Viewdata, che però risultò un flop: alla fine del marzo 1982
c’erano solo 14.400 utenti di cui la maggioranza (85%) erano legati al mondo delle
aziende. Seppur l’utilizzo giornaliero fosse quello atteso (circa sei minuti al giorno per
cliente), non c’erano abbastanza utenti: la stima effettuata ne prevedeva 700.000 con
(10) Prestel percentuali tra home e business invertite. In questo contesto, i 900 information provider,
che ospitavano oltre 200 mila pagine di informazioni, iniziavano ad essere troppi e alcuni iniziarono a
chiudere.
Una delle ragioni per cui Prestel non prese campo erano i costi: nello stesso periodo (e soprattutto allo
stesso prezzo) stavano iniziando a presentarsi al mercato i videoregistratori, senza contare che i personal
computer rappresentavano un’interessante alternativa per i consumatori ! Il decoder Prestel rappresentava
dunque un gadget di elite, senza contare che il servizio era a pagamento ed esistevano ancora Ceefax e
Oracle, che erano gratis.
Dall’altra parte del canale, in Francia, Gérard Théry (presso la Direction Générale des Télécomunications -
DGT), con lo scopo di rendere la rete telefonica digitale, voleva creare la versione francese di Prestel,
preliminarmente nominata Télétel. Il progetto ricevette approvazione ufficiale nel 1978 e la sua prima
sperimentazione, conosciuta come T3V (per Télétel e le iniziali delle tre città in cui ebbe luogo: Veldzy,
Varasvaia e Val de Bièvre) cominciò nel 1981: venivano offerti servizi dalle ferrovie francese nonché da
venditori e banche. La prova ebbe luogo da luglio a dicembre e, come nel caso del Post Office, ottenne un
grande successo.
C’erano però delle sostanziali differenze tra l’approccio Francese e quello britannico:
mentre questi ultimi aspettavano che l’utenza pagasse per i decoder Prestel o per le
televisioni abilitate, i francesi resero disponibili i loro gratis, e non si trattava di televisioni
modificate, ma terminali dedicati conosciuti come Minitel (che diedero al Videtex francese
il suo nome – vedi figura 11). (11) Minitel
Cosa veramente assicurò il successo di Minitel fu il continuare a distribuire gratuitamente i terminali anche
dopo le sperimentazioni. Le poste francesi non volevano far pagare Minitel sin dall’inizio: l’idea era quella di
sviluppare la domanda di servizi Minitel, che avrebbero reso possibile il recupero degli investimenti; la
produzione di massa avrebbe permesso la riduzione dei costi dei terminali (500 franchi, molto meno dei più
dispendiosi convertitori Prestel).
Nei primi anni ‘80, centinaia di migliaia di utenti scelsero Minitel; e nel 1989, quando Berners-Lee stava
iniziando a pensare a come tenere traccia di informazioni al CERN, c’erano cinque milioni di apparecchi
Minitel in uso, rendendo di fatto la Francia il paese più collegato nel mondo. Oltre all’intervento dello
stato, un elemento chiave fu la libertà di contenuti resi disponibili (ad esempio contenuti erotici, che gli
inglesi avevano invece reso vietati, e che nel 1994 rappresentavano una parte sostanziale di Minitel e
generavano un indotto di circa 500 bilioni di franchi). Minitel, di fatto, rappresentò un impedimento iniziale
all’introduzione di Internet in Francia, in quanto permetteva un accesso alla rete senza disporre di un
13
personal computer; successivamente costituì anche un incentivo, perché i francesi erano già abituati ad
effettuare transazioni online e ad utilizzare uno strumento di questo tipo.
Nel 1983 van Dam fondò IRIS (Institute for Research in Information and Scolarship) assieme a William S.
Shipp e Norman Meyrowitz. Nel 1985, IRIS contava su uno staff di 30 persone e il suo primo progetto
consistette nella realizzazione di un sistema ipertestuale per computer Macintosh. Il risultato, rilasciato nel
1987, fu Intermedia, un sistema ipertestuale particolarmente sofisticato.
Intermedia, sviluppato da un team di una ventina di giovani programmatori, era un sistema che raccoglieva
alcune delle peculiarità di FRESS, aggiungendo diverse funzionalità. Un aspetto interessante è che il
programma per la visualizzazione dei contenuti era anche lo strumento di editing, e poggiava sul semplice
concetto di taglia e incolla, rendendo di conseguenza il linking un’operazione semplice. Tramite Intermedia
era possibile selezionare un oggetto e collegarlo a qualunque altro, senza preoccuparsi del tipo di software
utilizzato per crearlo.
Intermedia gestiva il collegamento delle risorse tramite un database separato di link; la presenza di un
database, tra le altre cose, permetteva di spostare fisicamente i file senza perderne i collegamenti, che
venivano automaticamente aggiornati. Il vantaggio di avere una base dati di collegamenti separata dal
sistema dava non solo la possibilità di utilizzare tutta la potenza del DBMS per gestirla, ma anche la
possibilità di costruire reti multiple con gli stessi contenuti senza modificare gli stessi, caratteristica non
implementabile nel World Wide Web in quanto i link sono parte integrante delle pagine.
L’idea di mantenere l’archivio di link in un database divenne una pietra d’angolo del dogma ipertestuale,
ma d’altro canto fece sì che l’implementazione di sistemi ipertestuali rimanesse confinata a piccoli sistemi: i
realizzatori di Intermedia, come quelli di altri software che analizzeremo in questo paragrafo, non avevano
considerato il problema della scalabilità. Intermedia, infatti, lavorava bene in piccole reti di personal
computer con lo stesso sistema operativo, ma non poteva funzionare in reti estese in quanto il database
sarebbe presto cresciuto a dismisura; è anche da sottolineare che questo aspetto non rappresentava un
problema per il team di Intermedia: la popolazione di utenti era rappresentata da studenti universitari.
Electronic Book Technologies, un’azienda privata spin off della Brown University, produsse un ipertesto
commerciale di successo chiamato Dynatext, che però non fu il primo a giungere sul mercato. Dal 1987
infatti ogni utente di Macintosh disponeva di un sistema ipertestuale, rudimentale ma gratis: Hypercard fu
concepito da Bill Atkinson (autore tra l’altro del programma di disegno per Mac – Macpaint) e fu
probabilmente il primo sistema a rendere possibile la manipolazione di Ipertesti al mercato di massa.
Hypercard (vedi figura 12) si presentava come una pila di documenti indicizzati; la
comodità di questo strumento derivava dalla possibilità di accumulare una grande
quantità di informazioni nella pila e di ricercarle in maniera veloce. Non solo, con
Hypercard era possibile creare collegamenti tra le “Cards”. Atkinson aveva grandi
speranze per Hypercard e sosteneva che si trattasse del primo sistema tramite il quale
(12) Hypercard
ogni individuo avrebbe potuto costruire il proprio ambiente informativo senza aver alcuna
conoscenza di linguaggi di programmazione.
14
Hypercard è stato il primo sistema ipertestuale a larga diffusione, tuttavia non è stato il primo prodotto
commerciale: questo onore appartiene a Guide, un programma di editing di ipertesti sviluppato dalla
compagnia Office Workstations limited (OWL) di Edimburgo. Guide funzionava su Mac e PC, e rappresentò
l’introduzione dell’ipertesto nel mondo dei personal computers.
Fu attraverso Guide che Wendy Hall (vedi figura 13) incontrò il suo primo ipertesto. La
Hall stava cercando di immaginare come organizzare gli archivi storici dell’università di
Southampton, e aveva preso come una sfida questo incarico, ottenuto proprio
dall’archivista del dipartimento. Sin dall’inizio, dato che aveva a che fare con una gran
mole e varietà di materiale, la Hall desiderava che i link fossero capaci di collegare diverse
applicazioni, ad esempio un foglio di calcolo con un documento di testo. Arrivò dunque a
concepire i link come entità separate ed applicabili ad oggetti esterni, con il fine di (13) Wendy Hall
collegare lettere, figure e diari dell’archivio.
Per risolvere il proprio problema realizzò Microcosm che, in un certo senso era più potente e versatile di
quello che è diventato il WWW: oltre a permettere la navigazione di un collegamento ben definito tra un
documento A ed un documento B, i link di Microcosm permettevano di scegliere un’intera gamma di
pagine riguardanti l’argomento al quale si era interessati. Come Intermedia in precedenza, Microcosm
salvava i link in un database esterno; la novità rispetto a Intermedia fu l’introduzione di link dinamici: il
sistema sapeva come recuperare i documenti al volo. Tuttavia, la forza di Microcosm rappresentò anche la
sua debolezza: il sistema infatti non era scalabile.
Nello stesso periodo in cui la Hall seguiva lo sviluppo di Microcosm, Hermann Maurer sviluppò con il suo
team a Graz Hyper-G, una via di mezzo tra Microcosm e il Web. Hyper-G non gestiva i link in maniera
completa come Microcosm, tuttavia ottenne risultati migliori. Sviluppato per sopperire alle debolezze dei
sistemi di videotex realizzati a Graz, e introduceva molte funzionalità che sarebbero state poi adottate dal
World Wide Web. Hyper-G aveva capacità di ricerca sofisticate: i documenti erano arricchiti tramite meta
informazioni, e la gestione dei collegamenti scomparsi era gestita tramite procedure di sincronizzazione tra
i siti. Nel 1995 Hyper-G era capace di gestire suoni, immagini video e anche immagini 3D, e tutti questi
oggetti potevano contenere link! Tuttavia in quel periodo il WWW era già stato lanciato, e il team di Graz –
pragmaticamente – volse i propri sforzi e le proprie attività di sviluppo verso HyperWave, un porting di
Hyper-G basato sul Web.
Nel novembre del 1987 i diversi sforzi nel mondo della ricerca sull’ipertesto si espressero nella prima
conferenza mondiale sugli ipertesti a Chapel Hill, in North Carolina. Van Dam tenne un discorso nel quale
evidenziò l’importanza e l’ispirazione tratta dai pioneri Bush, Engerlbart e Nelson e terminò il suo
intervento con una lista di nove punti chiave che voleva fossero di ispirazione per i partecipanti alla
conferenza. Uno di essi fu profetico:
“Ted (Nelson) parlava molto di Docu-verse (universo di documenti), una mitica entità
che dovrebbe contenere ogni cosa. Invece, proprio adesso, stiamo costruendo Docu-
island (isole di documenti).” [1]
“Siamo ancora nella fase dei prototipi giocattolo. Non è stato ancora costruito un
ipertesto di dimensioni decenti”. [1]
15
Nel giro di 3 anni il World Wide Web di Berners-Lee avrebbe dato una risposta ad entrambi i problemi.
Il primo ad arrivare fu Archie, un software scritto da Alan Emtage (vedi figura 14) quando era uno studente
alla McGill University di Montreal, in Canada. Si trattava di un sistema client-server: il server era installato
su un elaboratore che forniva il servizio e i documenti in risposta alle richieste del client.
Emtage, nato nelle Barbados, si spostò a Montreal nel 1983 per studiare informatica.
Due anni dopo, durante il suo terzo anno di università, iniziò ad essere coinvolto
nell’amministrazione dei sistemi del dipartimento di informatica. Il primo nodo
Internet fu installato in Canada nello stesso periodo ed egli fece parte del gruppo di
persone che si occuparono della sua gestione. Una della responsabilità di Emtage era
(14) Alan Emtage
la ricerca del software per gli studenti e per la facoltà; di conseguenza navigava su
Internet alla ricerca di software libero (per assurdo, la facoltà spendeva cifre elevatissime per l’hardware
ma non voleva spenderne per il software).
Le sue ricerche avvenivano attraverso il protocollo FTP e, dopo un anno di attività “manuale”, Emtage si
decise a scrivere un software per automatizzare il suo lavoro; creò così una serie di script per la shell che
visitavano i server FTP scoperti e scaricavano la lista dei nomi dei software in essi contenuti. Tuttavia, dato
che i nomi dei file sui server non sempre erano rievocativi del software in essi contenuto, non risultava
comodo utilizzarlo !
Il programma di Emtage sarebbe rimasto limitato al suo utilizzo personale, se non fosse stato per Peter
Deutsch, che era manager del gruppo sistemi della facoltà, e che decise di aiutarlo nello sviluppo; ai due si
unì un altro informatico, Bill Heelan. Insieme riscrissero il software di Emtage rendendolo utilizzabile da
qualunque tipo di utente. Durante lo sviluppo, divenne chiaro che il programma necessitava di un nome:
perché non chiamarlo archive senza la v ? Di qui Archie (anche il nome di un famoso personaggio dei
fumetti). In tre settimane erano pronti ad installare il primo server. Si trattò di un successo immediato,
basti pensare che solo durante il primo giorno ebbe ben 100 utenti (che rappresentarono solo la punta
dell’icerberg, dato che nei tempi a seguire Archie sarebbe stato uno dei servizi più utilizzati in Canada).
La prima versione di Archie forniva una lista di documenti o programmi disponibili gratuitamente su
Internet. Era possibile indicare al servizio una parola chiave utile per trovare il software, che sarebbe stato
poi scaricato via FTP. Tuttavia lo strumento era stato progettato per amministratori di sistema e non
risultava essere user friendly: ecco perché Clifford Neuman, studente dottorando dell’università di
Washington, progettò un’interfaccia grafica chiamata Prospero, il cui scopo era proprio quello di renderlo di
utilizzo semplice ed immediato.
16
Mentre Archie cresceva come sistema di amministrazione, Wide Area Information
Servers (WAIS) era un’impresa all’inizio della sua avventura commerciale. Brewster
Kahle (vedi figura 15), che lavorava per la compagnia di supercomputer Thinking
Machines, era a capo del progetto e, tra le altre cose, era un grande fan di Minitel, di
cui ammirava il modello di business: il suo piano era infatti emulare quell’esperienza su
(15) Brewster Kahle
Internet.
WAIS assomigliava vagamente ad un moderno motore di ricerca: non era necessario conoscere particolari
sintassi e comandi per utilizzarlo, bastava sottomettere la propria ricerca in lingua inglese. Tutti gli archivi
erano descritti da parole chiave, quindi era possibile cercare non solo testi, ma anche immagini e suoni !
Dopo aver sperimentato con successo il prodotto, nell’aprile del 1991 fu rilasciata gratuitamente la prima
versione del client WAIS. Come con Archie, la novità si diffuse velocemente e, nell’estate successiva, il
prodotto fu pronto per il lancio commerciale: il successo fu elevatissimo, e portò la triplicazione della
diffusione di WAIS ogni anno. Nel 1995 WAIS fu acquistata da AOL per 15 milioni di dollari.
WAIS era sicuramente più semplice da utilizzare di Archie, ma entrambi richiedevano più che una
conoscenza superficiale dei computer. Nel 1991 venne lanciata un’applicazione capace di aprire Internet a
tutti: fu sviluppata alla University of Minnesota in risposta ad un bando del Campus Wide Information
System (CWIS) e fu chiamata Gopher. In molti volevano partecipare a questo progetto, e per questo fu
formato un gruppo con il fine di realizzare il progetto del sistema. Per Mark McCahill, che lavorava nella
sezione di microcomputing dell’università del Minnesota e che fu uno dei protagonisti nello sviluppo di
questo software, questo aspetto risultò problematico: 25 persone non possono realizzare il progetto di un
software o, in ogni caso, non possono farlo bene.
Il comitato rilasciò un progetto che piaceva alla maggior parte dei membri ma che
risultava essere veramente caotico e disordinato, tanto che il miglior programmatore
alle dipendenze di McCahill, Farhad Anklesiara, affermò che si trattava di un sistema
irrealizzabile. Seppur le specifiche non avessero senso, Anklesiara sapeva che al
successivo incontro del gruppo avrebbe dovuto presentare qualcosa; partì pensando a
qualcosa di semplice da implementare, tuttavia la sue idee erano troppo in disaccordo
con le specifiche e non gli fu permesso di presentarle. Fu altresì costretto a lavorare
(16) Il Golden Gopher
sulle linee guida imposte dalle specifiche fino a quando, nel febbraio del 1991, non si
accorse di aver accumulato un ritardo spaventoso; tornò così alla sua idea iniziale e scrisse assieme a
McCahill un client sulle basi di un altro progetto già realizzato con quest’ultimo (popmail, client di posta per
Mac) e fece in modo che fosse compatibile con Mac, Unix e Pc. Anklesiara decise di chiamare il programma
Gopher, questo perchè l’università del Minnesota aveva come mascotte il Golden Gopher (il citello dorato,
vedi figura 16) e la parola Gopher suonava come “go for”.
Lo schema di Gopher era semplice: un menu di voci selezionabili che, al click, portava su un altro menu o in
alternativa direttamente ad un contenuto. Ogni oggetto era accompagnato da informazioni sufficienti per
identificare il server sul quale era ospitato e questo aspetto rappresentava una funzionalità chiave: le
informazioni non dovevano risiedere necessariamente sul computer utilizzato, ma potevano essere
ovunque. Mancava ancora qualcosa: il comitato voleva che fosse possibile una ricerca per parola chiave,
ma dato che Gopher non aveva alcuna funzionalità di questo tipo venne interfacciato ad un motore di
ricerca full-text.
17
L’incontro con il comitato non fu affatto soddisfacente in quanto per molti dei presenti il software si
discostava dalle specifiche; addirittura alcuni desideravano che non venisse reso pubblico! Gopher,
fortunatamente, fu rilasciato – seppur in silenzio – il giugno del 1991, ottenendo un gran successo in
termini di download per via della facilità di installazione e anche per la varietà dei contenuti che via via
venivano pubblicati. Nel 1992 Anklesiara e McCahill presentarono Gopher ufficialmente ad un meeting
IETF; l’anno successivo fu pubblicato un documento RFC 1436 intitolato “The Internet Gopher Protocol” .
Nel 1993 la crescita degli utilizzatori di Gopher fu esponenziale: se ad aprile erano stati già installati oltre
460 server, a dicembre erano 4800. Uno dei fattori che rese Gopher così utilizzato fu il motore di ricerca
sviluppato dall’università del Nevada nel 1992 e denominato Veronica (anche questo con il nome di un
personaggio di fumetti della serie “Archie”). Nello stesso anno Gopher passò da un modello di distribuzione
completamente gratuito ad un sistema di licenze, e questo segnò l’inizio della sua decadenza.
18
3 – Nascita del World Wide Web
3.1 – Entrate pure per avere informazioni su qualsiasi argomento !
Nel 1980, il CERN stava sostituendo il sistema di controllo di due acceleratori di particelle. I lavori erano in
ritardo, e quindi c’era bisogno di qualcuno che desse una mano. Tim Berners Lee (vedi figura 17),
informatico britannico che si trovava in Svizzera per una consulenza, approfittò della possibilità offertaglisi
per inoltrare domanda di assunzione: venne ingaggiato con un contratto a tempo determinato di sei mesi.
Il più grosso problema per un programmatore a contratto era cercare di capire i sistemi, sia umani che
informatici, che caratterizzavano la realtà del CERN: buona parte delle informazioni cruciali, infatti,
risiedevano nella testa delle persone. Berners Lee imparò quasi tutto ciò di cui aveva bisogno durante le
conversazioni al bar con i colleghi, incontrando però la difficoltà di ricordare chi aveva progettato cosa,
difficoltà acuita dall’estrema complessità della struttura del CERN.
Fu per questo motivo che, approfittando dei tempi morti dello sviluppo del Proton Synchrotron Booster,
Berners Lee iniziò a sviluppare un software che battezzò Enquire. Il nome “Enquire” derivava da “Enquire
Within Upon Everything”, che possiamo tradurre come “Entrate pure per avere informazioni su qualsiasi
argomento”, il titolo di un libro, scritto in epoca vittoriana, che Tim aveva sfogliato in tenera età e che
conteneva consigli pratici di tutti i tipi, da come smacchiare i vestiti a come investire i propri risparmi.
Enquire immagazzinava i dati senza usare strutture come matrici o alberi gerarchici: la mente umana
utilizza di continuo queste strutture organizzative, ma può anche evitarle per spiccare balzi intuitivi, le
cosiddette associazioni casuali. Enquire disponeva di due tipologie di “link”: interno - da una pagina ad una
altra nell’ambito di uno stesso file – ed esterno, che permetteva di saltare tra i diversi file. Un collegamento
interno aveva la caratteristica di essere bidirezionale, in quanto compariva su entrambi i nodi, mentre
quello esterno era unidirezionale: questo ultimo dettaglio risultava essere decisamente importante in
quanto, qualora molte persone che creavano un link con una pagina avessero potuto imporre un link
inverso, quella pagina avrebbe contenuto migliaia di link che il possessore della pagina forse non si sarebbe
preoccupato di conservare. Inoltre, se un link esterno fosse andato nei due versi, allora il cambiamento di
entrambi i file avrebbe comportato il salvataggio della medesima informazione in due posti differenti,
aspetto che nell’ambito informatico non risulta mai essere positivo.
19
Conclusa la consulenza al CERN, Tim Berners Lee non portò con sé il sorgente dell’applicazione realizzata:
scritta in Pascal, funzionava purtroppo solo sul sistema operativo proprietario Norsk Data SYNTRAN-III,
decisamente astruso. Il floppy disk contenente Enquire fu affidato ad un gestore del sistema, al quale venne
spiegato che si trattava di un programma che teneva conto delle informazioni. Il floppy passò ad uno
studente, interessato al modo in cui era stato scritto il programma, ma poi venne perduto.
Entusiasta del nuovo elaboratore a sua disposizione, Berners Lee scrisse un nuovo software, Tangle
(letteralmente “intrico”), tramite il quale si proponeva di studiare le informazioni come sequenze di
caratteri, di cui avrebbe analizzato i collegamenti. Tuttavia l’esperimento non ottenne risultati apprezzabili
e Berners Lee ne abbandonò lo sviluppo.
Assunto al CERN per occuparsi di “controllo e acquisizione dati” sotto la direzione di Peggie Rimmer,
partecipò allo sviluppo di uno strumento di "chiamata di procedura remota" (RPC), atto a rendere possibile
l'interazione tra due software installati su sistemi operativi differenti e scritti con differenti linguaggi di
programmazione. Nel frattempo Berners Lee cominciò a riscrivere Enquire sul Compaq, in modo che
potesse girare sia sul suo pc che sul minicomputer VAX della DEC che utilizzava al CERN; purtroppo
l’esperimento fallì in quanto il programmatore non replicò la gestione dei collegamenti esterni, rendendo lo
strumento molto meno duttile e utile. In ogni caso la natura invalidante della scelta di escludere i link
esterni risultò per Tim una lezione molto utile.
Spinto dal desiderio di realizzare qualcosa che funzionasse come Enquire e che potesse essere accettato
dalla vasta e variegata comunità di scienziati del CERN, Berners Lee decise di avvicinarsi all’infido terreno
dei sistemi di documentazione. Per riuscire ad ottenere questo risultato pensò di introdurre il concetto di
ipertesto nel suo Enquire, con l'obiettivo di ottenere una struttura decentralizzata.
Alla fine del 1988 Berners Lee stava studiando come far funzionare un sistema
ipertestuale, e quindi si consultò con il suo capo, Mike Sendall (vedi figura 18), il
quale trovò l’idea interessante ma che comunque gli indicò di redigere una proposta
formale. Tim non aveva affatto idea di come realizzare un documento di questo tipo,
e soprattutto di come presentare Enquire: avrebbe infatti dovuto spacciarlo come un
sistema di documentazione, una reale necessità del CERN, e non come un sistema
(18) Mike Sendall
ipertestuale, che poteva essere ritenuto troppo sofisticato; avrebbe dovuto inoltre
sottolineare che il suo software avrebbe permesso a ciascuno di mantenere il proprio metodo organizzativo
e i propri programmi sul computer, caratteristica la cui mancanza, in precedenza, aveva inciso sulla
dismissione di diversi sistemi di documentazione.
In quel periodo Ben Segal, che aveva lavorato negli USA ed era stato mentore di Berners Lee nel progetto
RPC, stava cercando di introdurre Internet e i suoi protocolli all'interno del CERN: in Europa Internet non
era ancora arrivato perché non era uno standard ISO, inoltre il CERN disponeva di una rete proprietaria,
CERN-net. Appreso che Unix e VAX potevano usare TCP/IP (i VAX tramite l’installazione di un software
20
esterno non sviluppato dai produttori) Tim ne risultò affascinato e modificò il suo modulo RCP per sfruttare
TCP/IP, facendo di fatto entrare Internet nella sua vita.
Nel marzo 1989 Berners Lee consegnò la proposta a Mike Sendall e al suo capo David Williams. La
proposta, basata sui concetti di Internet e soprattutto di Ipertesto Globale, spazio nel quale ognuno poteva
decidere come gestire le proprie informazioni, venne purtroppo ignorata. Una seconda proposta,
nient’altro che la prima presentata in maniera leggermente diversa, fu consegnata a Williams nel maggio
1990, ottenendo però lo stesso risultato.
In quel periodo Berners Lee stava discutendo con Sendall se fosse il caso di comprare un nuovo tipo di
personal, in particolare un NeXT, prodotto della nuova azienda di Steve Jobs. Sendall acconsentì,
aggiungendo:
“Appena arriva la macchina, perché non provi a programmarci sopra quella roba
dell’ipertesto?” [2]
Lo sviluppo della prima versione del World Wide Web avvenne proprio su quell’elaboratore !
“Poi saltò fuori un altro nome, un modo semplice per rappresentare un ipertesto
globale. […] Gli amici al CERN mi sconsigliarono dall’usarlo, sostenendo che non
avrebbe mai fatto presa, soprattutto con un acronimo lungo nove sillabe se
pronunciato per esteso. Ciononostante, decisi di insistere. Avrei chiamato il mio
sistema WWW, World Wide Web” [2]
L’applicazione da costruire doveva ricordare un word processor e gli strumenti di sviluppo del NeXT,
chiamati NextStep, si dimostrarono quelli adatti per l’obiettivo: tramite questi ultimi era possibile creare
senza problemi un programma con interfaccia grafica, questo grazie all’utilizzo del mouse con cui si
potevano disporre a video menu e finestre.
21
Scavando nei file che definivano il funzionamento interno dell’editor di testo, ebbi la
fortuna di trovare un segmento di trentadue bit di memoria extra che i
programmatori del NeXT avevano gentilmente lasciato a diposizione di futuri
maneggioni come me, e me ne servii come puntatore da qualsiasi tratto di testo
verso l’indirizzo per i link ipertestuali. In questo modo l’ipertesto era facile.
Ottenuto questo risultato, il passo per giungere al codice dell’ Hypertext Transfer Protocol (HTTP) e di
Universal Resource Identifier (URI) fu breve. A metà novembre di quell’anno lo sviluppatore inglese aveva
già approntato un browser con funzioni di editing dal nome appunto di World Wide Web; a dicembre stava
già lavorando su Hypertext Markup Language (HTML), strumento per definire la formattazione delle pagine
contenenti i link ipertestuali. Il programma di navigazione avrebbe decodificato le URI e permesso di
visualizzare, creare e modificare le pagine HTML.
Berners Lee scrisse anche il primo server web che, come il primo client, girava sul NeXT nel suo ufficio. Il
server, formalmente noto nella rete interna come nxoc01.cern.ch, fu registrato con lo pseudonimo
info.cern.ch, indirizzo tramite il quale era possibile accedere ai primi contenuti web, in particolare gli
appunti del programmatore inglese, nonché le specifiche di HTML, URI, HTML e altre informazioni relative
al progetto.
Nonostante tutto WWW funzionava solo su NeXT e il server HTTP era abbastanza “grezzo”. Ben Segal, che
era molto abile nella gestione del personale, individuò Nicola Pellow, una giovane stagista che Berners Lee
impiegò per sviluppare un browser. Questo nuovo navigatore doveva essere realizzato tenendo basse le
esigenze, in modo tale che l'interfaccia potesse funzionare su qualsiasi computer dotato di una tastiera e
con la possibilità di produrre e visualizzare caratteri ASCII: il prodotto del suo lavoro venne definito browser
line-mode.
L’obiettivo era affermare che se un contenuto fosse stato pubblicato su WWW, allora tutti avrebbero
potuto accedervi. A scopo esplicativo, durante ogni sua conferenza e incontro, Berners Lee mostrava uno
schema di come tutti i tipi di macchine avrebbero potuto collegarsi al World Wide Web. E con lo scopo di
dimostrare come il web fosse uno spazio universale, fece in modo che il navigatore potesse seguire non
solo i link http, ma anche i server di newsgroup e quelli FTP.
Al CERN nessuno del settore elaboratori intuì le potenzialità del nuovo strumento; tuttavia Bernd
Pollerman, che al CERN si occupava di fornire l’elenco telefonico tramite diversi sistemi esistenti ai vari
utenti, acconsentì alla proposta di fornirlo tramite browser con i dati su un singolo server. Il server fu scritto
parzialmente in C da Tim Berners Lee e in REXX da Pollerman, e successivamente furono installati i client
realizzati dalla Pellow.
Nel frattempo stavano nascendo altri sistemi analoghi al WWW, in particolare Gopher, Wais e Prospero, i
quali stavano ottenendo consensi elevati, togliendo visibilità all’operato di Tim Berners Lee. Un’ottima
mossa strategica dello sviluppatore inglese fu quella di pubblicare e condividere le proprie idee sulla
newsletter relativa agli ipertesti (alt.hypertext.newsletter), grazie alla quale la comunità iniziò ad
interessarsi alla sua applicazione scaricandola, installandola e indicando possibili migliorie.
Nel 1991 era previsto a San Antonio un convegno sul mondo dell’ipertesto, HYPERTEXT 91. Volendo
promuovere il web durante quest’occasione, Berners Lee inviò una pubblicazione, che però non venne
accettata. Nonostante il rifiuto dell’articolo, questi riuscì a convincere gli organizzatori del convegno a
22
lasciargli lo spazio per una dimostrazione che lui stesso tenne con Robert Cailliau, un “veterano” del CERN
che lo aveva assistito nell’aspetto organizzativo/gestionale del progetto.
“Andammo così a San Antonio con il mio NeXT e un modem. Purtroppo, non potevamo
avere accesso diretto a Internet nell’albergo che ospitava la manifestazione. […] Come
facevamo a dimostrare il web se non potevamo comporre il numero di info.cern.ch?
Robert trovò una soluzione, convincendo il direttore dell’albergo a far passare la linea
telefonica nel corridoio accanto alla sala convegni principale.[…] Il problema successivo
era far funzionare il nostro modem svizzero con la rete americana […] Così ci tocco
smontare il modem, farci prestare un saldatore dall’albergo e connetterlo
direttamente. Robert riuscì a collegare tutto, e funzionò. ” [2]
Berners Lee e Cailliau furono gli unici ad effettuare un collegamento durante l’intero convegno . Due anni
dopo, durante la stessa manifestazione, tutti i progetti in mostra avrebbero avuto qualcosa a che fare con il
Web !
Nell’ambito del primo degli incontri dell’IETF, nel marzo 1992, Tim ebbe modo di conoscere Larry Massinter
dello Xerox PARC e Karen Sollins del MIT. Entrambi invitarono Berners Lee negli USA, rispettivamente allo
Xerox PARC e al MIT, ed ambedue gli inviti risultarono estremamente interessanti, data l’importanza delle
due istituzioni e la possibilità di capire qual’era la situazione negli Stati Uniti rispetto a quella europea.
Al CERN, nel frattempo, il Web era ancora poco utilizzato, forse anche
per via della mancanza di browser “punta e clicca” per sistemi diversi
dal NeXT: seppur l’informatico britannico spingesse per la realizzazione
di un client web per il sistema X-Windows (sistema utilizzato da tutte le
postazioni Unix), le risorse per svilupparlo non erano sufficienti.
Quando Robert Cailliau visitò il Politecnico di Helsinki, si presentò però
una ghiotta occasione: un gruppo di studenti si sarebbe prestato alla
realizzazione di un navigatore con le caratteristiche desiderate come
tesi di laurea ! Il prodotto risultante, nominato Erwise (la sigla del
dipartimento era OTH, e le due parole unite formavano “Otherwise”,
letteralmente “altrimenti”), non raggiunse purtroppo un livello di
maturità tale per essere diffuso, e gli studenti che lo svilupparono né
(20) Una schermata di Viola WWW
avevano interesse per il web, né credettero abbastanza nelle
potenzialità che questo media avrebbe dimostrato di avere di lì a poco.
Fortunatamente nel maggio del 1992 venne rilasciato un altro browser, Viola WWW di Pei Wei (vedi figura
20). Si trattava di un ottimo progetto, il cui difetto principale era la difficoltà di installazione (prima
23
bisognava installare il software Viola, poi Viola WWW come applicazione del precedente). ViolaWWW
poteva mostrare l’HTML con grafica, gestiva le animazioni e permetteva di scaricare piccole applicazioni
interne (quelle che poi in futuro sarebbero state le “applet” java); sostanzialmente questo navigatore era in
anticipo sui tempi e proponeva numerose funzionalità, alcune delle quali sarebbero state “ripescate” e
commercializzate solo negli anni successivi. Dato che non esistevano ancora browser per Mac, il team di
Berners Lee si occupò di svilupparlo e lo chiamò Samba.
L’arrivo e la diffusione dei navigatori “punta e clicca” portò ad una forte crescita delle installazioni dei
server web e, a poco a poco, gli scienziati e le organizzazioni statali che volevano rendere disponibili i loro
dati capirono che era molto più semplice inserire le informazioni nella rete piuttosto che sviluppare un
programma ad hoc.
Alla riunione dell’IETF Tim presentò l’idea di Identificatore Universale dei documenti, incontrando però
l’avversione degli altri ricercatori presenti, i quali ritenevano arrogante il definire qualcosa come
“universale”; il programmatore britannico si dimostrò disposto a compromessi pur di passare alla
definizione degli aspetti tecnici, di conseguenza “universale” divenne “uniforme” e “documenti” divenne
“risorse”. Fu così aperto un settore di lavoro sull’Uniform Resource Identifier (URI), seppur “Identificatore”
non risultasse essere l’etichetta adatta per indicare un indirizzo transitorio: per questo motivo “Identifier”
fu sostituito da “Locator”, di qui l’acronimo oggi noto come URL. Il lavoro all’IETF procedette molto
lentamente, anche per via delle numerose problematiche filosofiche nelle quali venivano letteralmente
inghiottite le discussioni tecniche. Alla fine, quando il gruppo si trovò nella situazione di essere sull’orlo
dello scioglimento, Berners Lee scrisse una specifica, “Request For Comment 1630”, che – anche se redatta
in maniera affrettata – risultò essere la base per futuri progressi.
Il periodo successivo passato allo Xerox PARC risultò essere molto più prolifico. Lo sviluppatore inglese ebbe
infatti modo di conoscere Pei Wei, il realizzatore di Viola WWW, nonché Tony Johnson dello SLAC, un fisico
che – per fini e utilizzo personali – aveva realizzato un altro browser per il sistema X-Windows, chiamato
Midas. Tuttavia l’incontro più importante di Tim Berners Lee in quell’estate del 1993 fu quello con Ted
Nelson (vedi capitolo precedente): proprio nel giorno in cui era fissato il loro appuntamento la Autodesk -
società per la quale lavorava Nelson - aveva deciso di accantonare il progetto Xanadu, ritenuto poco
interessante. Si trattò, in un qual modo, del passaggio del testimone tra chi aveva concepito il concetto di
ipertesto e chi avrebbe reso di lì a poco quell’idea una realtà concreta e alla portata di tutti.
Berners Lee iniziò ad avvertire anche la necessità di un organismo di supervisione del web, volendo evitare
con forza una scissione in fazioni della comunità della rete: proprio a questo fine ricevette l’aiuto di Michael
Dertouzos, un greco con affermata esperienza nella costituzione di strutture ad alto livello comprendenti
figure accademiche, governative e del mondo industriale. La prima occasione nella quale il programmatore
britannico ebbe modo di condividere le proprie idee relative al consorzio si presentò nel marzo del 1994,
quando la O’Reilly, nota casa editrice, organizzò a Cambridge il primo WWW Wizard Workshop
(letteralmente “Seminario dei maghi del World Wide Web”): 25 dei primi sviluppatori del Web si
incontrano, tra i quali i già noti Lou Montulli, Eric Bina, Marc Andreessen, Tom Bruce, Pei Wei. In
quell’occasione Berners Lee coinvolse tutti i presenti ad una discussione su come poteva essere organizzato
un consorzio e su quale forma questo avrebbe potuto assumere, terminando con il coordinare una riunione
speciale atta ad elencare i problemi da affrontare nei mesi successivi.
Ad ottobre di quell’anno esistevano già più di 200 server HTTP noti, e nel contempo venne avviato il primo
progetto web dell’unione europea, Webcore, con il fine di diffondere informazioni tecnologiche nei paesi
dell’ex blocco sovietico; a dicembre il Web iniziò ad attirare i media, che dedicarono ampio spazio ed intere
testate al tema. Anche la comunità degli sviluppatori era in forte crescita; di conseguenza Berners Lee e
Cailliau organizzarono il primo Convegno internazionale WWW che si sarebbe tenuto al CERN nel mese di
maggio. In tale occasione si ebbe l’ultimo atto della competizione con NCSA: Joseph Hardin, uno dei
responsabili di tale organizzazione, fu tra i primi a rispondere all’invito di Cailliau, specificando che anche
NCSA era intenzionata ad organizzare un convegno a Chicago nello stesso mese e richiedendo quindi la
cancellazione di quello al CERN. Al rifiuto netto di Robert e Tim, la contromossa di NCSA fu lo spostamento
del convegno di Chicago al novembre successivo!
Michael Dertouzos presentò a Berners Lee il suo vice direttore, Al Vezza: questi aveva partecipato alla
nascita e alla gestione di un consorzio già esistente, lo X Consortium, istituzione che aveva contribuito a far
diventare la piattaforma X-Windows quella utilizzata da quasi tutte le postazioni di lavoro Unix. Vezza fu
entusiasta di partecipare all’organizzazione di un consorzio per il WWW, e il suo apporto in termini di
esperienza fu notevole nel corso della fondazione di questa struttura.
25
Nel frattempo Marc Andreessen aveva abbandonato NCSA per passare alla Enterprise Integration
Technology; lì conobbe un uomo d’affari, Jim Clark, e con quest’ultimo fondò la Mosaic Communications
Corp. I due soci, assunto il già citato Lou Montulli, “strapparono” a NCSA il gruppo di sviluppatori di Mosaic
ed iniziarono a commercializzare il loro browser: di lì a pochi mesi, nell’aprile del 1994, si sarebbero
trasferiti a Mountain View e si avrebbero ribattezzato l’azienda come Netscape. Ma questa è un’altra storia
(vedi capitolo successivo).
Così, mentre gli occhi di tutti erano puntati sull’astro nascente della Mosaic Communications, ebbe luogo il
primo convegno del World Wide Web. Iniziato al CERN il 25 maggio, sarebbe durato tre giorni: i
partecipanti, inizialmente limitati a 300, raggiunsero il numero di 350, a sottolineare il crescente interesse
nei confronti del WWW anche da parte della stampa. Durante il convegno, tra le altre cose, fu fissato un
piano di sviluppo di HTML per gli anni successivi, con il fine di incorporare tabelle, grafici e gestire
l’inserimento di immagini, e furono anche presentate diverse proposte, tra le quali alcune molto innovative
(ad esempio quella di VRML, Virtual Reality Markup Language, un linguaggio per gestire grafica 3D
nell’ambito di pagine web).
“Per la prima vola quelli che stavano programmando il Web erano a contatto di
gomito con persone di tutti i tipi che lo usavano nelle maniere più disparate.
L’atmosfera era satura di elettricità. […] Tanto entusiasmo e fervore per lo sviluppo
del Web indussero i giornalisti presenti a battezzarlo il “Woodstock della Rete” […]
Quel convegno è stata la prima volta in cui coloro che stavano cambiando il mondo
con il Web si sono riuniti per dare la linea sui doveri e sulle responsabilità, e su come
avremmo realmente utilizzato questo nuovo mezzo. [2]
26
4 – La “guerra” dei browser
4-1 – Mosaic e l’alba di Netscape
Il primo browser per mercato di massa, Mosaic, fu sviluppato nella primavera del 1993 al NCSA
dell’Università dell’Illinois. A metà del ‘94 erano già state scaricate due milioni di copie del navigatore, il cui
successo fu guidato dalla semplicità dell’interfaccia, basata su bottoni, e dalla caratteristica di integrare
immagini con il testo. Alcune compagnie licenziarono Mosaic per creare il proprio browser commerciale,
come Spry Mosaic e Spyglass Mosaic; la concorrenza, seppur esistente, non rappresentava un vero
problema per NCSA (tra i vari navigatori dell’epoca vale la pena citare IBM Web Explorer, Navipress,
MacWeb). L’avanzamento e la profilerazione dei browser portarono alla crescita del Web, con il numero di
siti in crescita di venti volte tra il giugno ‘93 e il giugno ‘94.
Come già accennato nel capitolo precedente, nell’aprile del 1994 Marc Andreessen - membro leader del
team che aveva sviluppato Mosaic - partecipò alla fondazione di una startup tecnologica che avrebbe
creato il “Mosaic-killer”, un nuovo navigatore web che sarebbe stato più veloce, più stabile e più ricco di
funzionalità. Il suo partner era Jim Clark, il noto chairman della Silicon Graphics (SGI), un’altra startup dal
valore di milioni di dollari e con sede in Silcon Valley. Originalmente Mosaic Communications Corporations,
la società fu rinominata dai due soci in Netscape Communications Corporation (vedi logo in figura 23).
La Netscape svelò la prima versione beta del suo navigatore denominata Navigator
1.0 nell’ottobre del 1994 e rilasciò il prodotto a dicembre. Navigator non
rappresentava il primo caso di browser commerciale ad arrivare sul mercato (questo
merito va invece alla Spry di Seattle, il cui browser era sul mercato dall’agosto 1994),
ma risultò essere superiore a Mosaic e a tutta la concorrenza. Scaricava le pagine web
con maggiore velocità e offriva nuove estensioni al linguaggio HTML, molte delle quali
aggiungevano elementi di multimedialità alle pagine. Inoltre il navigatore era
(23) Netscape
arricchito da una funzionalità di sicurezza in più: Security Socket Layer (SSL), una
tecnologia atta a criptare le comunicazioni su Internet. Le estensioni di HTML non erano proprietarie: esse
erano pubblicamente documentate, e l’azienda si adoperò con forza affinchè fossero adottate dai
competitori.
Andresseen spinse per un’offerta di prezzi “gratis ma non gratis”, con la speranza che il browser acquisisse
velocemente mercato. Navigator 1.0 costava 39 dollari, ma era gratis se utilizzato per fini accademici e
nell’ambito di associazioni no profit. I singoli potevano scaricare copie del software dal sito web nella
versione commerciale - a pagamento - oppure nella versione di “valutazione” - che permetteva una prova
gratuita per 90 giorni. Oltre a rilasciare i suoi browser, Netscape rilasciò anche 2 server Web alla fine del 94,
una versione base per pubblicare documenti sul web (al prezzo di 1495 dollari) e una versione più
sofisticata che supportava commercio elettronico (prezzo 5000 dollari). Netscape successivamente
introdusse server specializzati, il cui prezzo era 50.000 dollari, che potevano gestire database di utenti.
Due mesi dopo il suo rilascio Navigator 1.0 aveva conquistato oltre il 60% del mercato. Sette mesi dopo due
terzi dei nove milioni di navigatori utilizzati nel web erano Navigator. Nell’estate del 95 più di 10 milioni di
persone lo utilizzavano! Nel 1994 Netscape incontrò nuovi concorrenti, tra i quali OmniWeb, Web Rouser e
soprattutto Internet Explorer 1.0 della Microsoft: proprio con quest’ultima si sarebbe scatenata la prima
“Guerra dei Browser”.
27
4-2 – Internet Explorer contro Netscape Navigator 2.0
Nella primavera del 1995, Bill Gates della Microsoft proclamò tramite un memo interno:
“A Internet sarà assegnato il più alto grado di importanza. Internet è il più grande
sviluppo tecnologico a cui assistiamo dall’introduzione dei PC IBM nel 1981 […] Il
Web è “un’onda di marea”. Esso cambia le regole. È una opportunità incredibile, e
anche un’incredibile sfida”. [5]
Prima del memo, la Microsoft aveva ottenuto la licenza di Mosaic dall’Università dell’Illinois nel dicembre
del 1994, dopo il rifiuto della Netscape.
In ogni caso, nonostante tutte queste problematiche tecnologiche, IE della Microsoft aveva un enorme
vantaggio rispetto al concorrente: era incluso in tutte le installazioni del nuovo sistema operativo
Microsoft, Windows 95, e – in quanto parte del sistema operativo - era sostanzialmente gratis; al contrario
Netscape faceva ancora pagare il navigator ai suoi clienti corporate.
Stiamo fornendo un browser abbastanza buono come parte del sistema operativo.
Quanto a lungo potranno sopravvivere vendendolo ?
Steve Ballmer, CEO di Microsoft [5]
Il 7 Dicembre 1995 Bill Gates annunciò che Microsoft avrebbe “abbracciato ed esteso” gli standard Internet:
il successivo browser della Microsoft sarebbe stato disponibile per Mac, Windows 3.1 e Windows Nt;
avrebbe inoltre incluso il supporto per il linguaggio Java. Oltre a questo, le future versioni del navigatore
sarebbero state più veloci e migliori della concorrenza, senza contare che sarebbero state gratis. Dopo
l’annuncio, le azioni di Netscape subirono un immediato crollo in borsa.
Netscape rispose alla strategia di Microsoft migliorando il proprio browser, attraverso l’incorporazione nel
software di tecnologie prodotte da società come Apple Computer, Adobe System e Autodesk. Nel marzo
1996 Netscape controllava l’85% del mercato dei browser, contro il 4 % di Internet Explorer. Nel giugno
28
1996, Netscape annunciò che la base utenti del suo navigatore aveva raggiunto 38 milioni di utenti,
rendendola “l’applicazione più popolare del mondo per PC”.
Microsoft rilasciò Internet Explorer 3.0 il 12 agosto del 1996, mentre Netscape rilasciò Navigator 3.0 solo
una settimana dopo. Confrontando il suo navigatore con IE 3.0, la Netscape annunciò che il suo prodotto
era più veloce (circa del 42%) e più piccolo (ben 2 megabyte), nonché in grado di provvedere maggior
sicurezza e il supporto per ben 16 piattaforme. Nonostante queste caratteristiche, lo share di mercato di
Netscape passò da 87% a 70% alla fine del ‘96, mentre Explorer passò dal 4% al 24% ! Il fatto che IE venisse
incluso nel sistema operativo Windows 95 fu sicuramente il fattore più importante ed incisivo tra quelli che
portarono a questo cambiamento.
Il successo del sistema operativo Microsoft contribuì in maniera indotta alla crescita di IE. Altro fattore che
contribuì alla crescita dell’utilizzo di IE furono gli accordi della casa di Redmond con gli Internet Service
Providers (ISP), tra i quali America Online (AOL). AOL accettò di rendere IE il browser di default per i suoi 5
milioni di iscritti in cambio dell’accesso diretto ad AOL tramite Windows 95 e un icona sui desktop dei
personal con il nuovo sistema operativo. Nell’estate del 1996, la Microsoft aveva fatto accordi con ben 200
ISP per distribuire IE.
Nell’ottobre 1996, la Netscape introdusse il suo Communicator 4.0, che avrebbe incluso il Navigator e altre
componenti, tra le quali alcune fornivano la possibilità per gli utenti di sincronizzare calendari e collaborare
su documenti di testo e fogli di calcolo. Communicator 4.0 fu rilasciato nel giugno 1997 , mentre Internet
Explorer 4.0 nel settembre del 1997. Alla fine del ‘97, le quote di mercato della Netscape erano scese al
50%, con perdite dichiarate di 88 milioni di dollari nell’ultimo quarto dell’anno !
Nel gennaio 1998 Netscape cominciò ad offrire i suoi Navigator e Communicator gratuitamente,
annunciando anche che avrebbe lasciato libero il download del codice sorgente; alla fine di quel mese la
Netscape subì perdite per 54 milioni di dollari e le entrate nei tre mesi successivi furono solo di 8 milioni.
Nel giugno 1998 Andreessen annunciò la fine formale di Netscape e pianificò di lavorare su un browser
interamente scritto in Java.
Nell’ottobre 1998, IE soverchiò Netscape nelle quote di mercato dei browser; in Novembre AOL annunciò
una trattativa per comprare Netscape a 4,2 bilioni di dollari, trattativa che si chiuse a 10 bilioni di dollari.
Seppur Netscape continuasse a rilasciare nuove versioni del suo browser, il mercato del 2002 mostrò che IE
controllava il 90% del mercato.
29
3. La creazione involontaria di enormi problematiche di sicurezza: con il fine di aggiungere funzionalità
avanzate, si lasciò spazio a tecniche per iniettare codice malevolo nella visualizzazione di pagine
web.
Il supporto per gli standard fu gravemente minato e indebolito: per anni le innovazioni
nello sviluppo di pagine Web stagnarono per via del fatto che gli sviluppatori si trovavano
costretti ad utilizzare tecniche obsolete e inutili al fine di rendere le proprie pagine
compatibili con i browser più diffusi: Navigator 4 e Internet Explorer 6 (vedi logo in figura
25)erano
erano pesantemente carenti per quanto riguarda il supporto degli standard, inclusi
quelli relativi all’uso dei fogli di stile e al formato di immagini PNG. (25) Internet Explorer 6
Il 2 Febbraio 2008 fu rilasciato l’ultimo aggiornamento del Netscape Navigator 9,, basato su Mozilla Firefox
2. Non ottenendo più mercato, il software della Netscape fu dismesso il primo marzo 2008.
La battaglia tra Netscape e Microsoft non avvenne solo in termini tecnologici: l’Antitrust americano intentò
diverse azioni legali contro il colosso di Redmond,
Redmond le quali si protrassero a partire dal 1993 sino al 2002.
Nel frattempo, nel 2003, la Microsoft aveva annunciato che Internet Explorer 6 Service
Pack 1 sarebbe stata l’ultima versione stand-alone
alone del suo browser: i cambiamenti futuri
sarebbero dipesi dall’introduzione del nuovo sistema operativo Windows Vista, Vista che
avrebbe incluso nuovi strumenti per gli sviluppatori web, ad esempio Windows
Presentation Foundation (WPF, una libreria per lo sviluppo di interfacce grafiche).
grafiche) Come
risposta, nell’aprile 2004,
2004 Mozilla Foundation e Opera Software (produttore del browser
(26) Mozilla Firefox
Opera)) congiunsero i propri sforzi per sviluppare dei nuovi standard a tecnologia
“aperta”, con lo scopo di aprire nuovi orizzonti
or pur mantenendo la retro compatibilità con le tecnologie
esistenti. Il risultato di questa collaborazione fu il Web Hypertext Application Technology Working Group
(WHATWG), un gruppo di lavoro orientato alla creazione di nuovi standard da sottoporre per approvazione
al W3C.
Opera era stato a lungo un partecipante in secondo piano della ella guerra dei browser,
conosciuto soprattutto per l’introduzione di funzionalità innovative come la
navigazione multi tab e le mouse gestures.
gestures. Il software in questione, inizialmente
commerciale, diventò freeware nel 2005; la versione del 2006, Opera 9 (vedi edi figura 27),
27)
fu la prima a passare l’Acid2 Test (trattasi di una pagina web che fa un utilizzo intensivo
di HTML combinato alla tecnologia Cascade Style Sheet, CSS,, onde testare la
compatibilità del browser con gli standard),
standard) mentre Opera Mini detiene ancora ncora oggi (27) Logo di Opera
quote significative nel mercato dei browser per dispositivi mobili.
Il 15 febbraio 2005 la Microsoft annunciò la disponibilità di Internet Explorer 7 per il sistema Windows XP
SP2 e le successive versioni di Windows. Questa versione introdusse la navigazione multi tab, un filtro anti-
phishing (per contrastare una particolare di tipologia di truffa online) e un supporto migliore per gli
30
standard web: si trattava in ogni caso di funzionalità già disponibili per gli utenti di Firefox e Opera!
Microsoft, inizialmente, distribuì il nuovo browser ai soli Genuine Windows User (WGA, utenti con una
copia di Windows licenziata correttamente), indicandolo come aggiornamento di alta priorità tramite la
tecnologia Windows Update. Considerando le quote di mercato sfavorevoli a questa impostazione (il 35,4%
degli utenti della rete utilizzavano Firefox, il 34,9% Internet Explorer 6 e solo il 20,8% Explorer 7), Microsoft
decise di togliere la limitazione imposta tramite WGA e nell’ottobre del 2007 rese disponibile il nuovo
browser a tutti gli utenti Windows.
Un'altra novità del 2007 fu l’ingresso in campo di Apple sul mercato dei browser per Windows: dopo aver
avviato il progetto WebKit (un framework per lo sviluppo di browser) il 6 giugno di quell’anno rilasciò Safari
- inizialmente concepito nel 2003 come antagonista di Internet Explorer per Mac - nella versione 3 per
piattaforma Microsoft. Il 19 dicembre 2007 la Microsoft annunciò l’imminente rilascio di Internet Explorer
8, una delle quali caratteristiche era quella di aver passato l’Acid2 Test. Quasi un anno dopo, il 17 giugno
2008, Mozilla Foundation rilasciò Firefox 3.0, che rendeva disponibile, oltre al nuovo layout, delle ricche
API per la sua programmazione.
La guerra dei browser continua ancora oggi: il 4 settembre 2008, Google - il noto
motore di ricerca - ha pubblicato la prima versione beta di Google Chrome (vedi
figura 28), un nuovo navigatore basato su WebKit, e le cui caratteristiche principali
risultano essere la velocità di rendering delle pagine, la gestione sofisticata della
memoria e - chiaramente - il fatto che si tratti di un progetto open source. Larry
Page, uno dei fondatori di Google, afferma che il rilascio di Chrome non sia stato (28) Google Chrome
affatto condizionato da quello di Internet Explorer 8, tuttavia Sergey Brin, il suo socio, afferma che se il
rilascio di Internet Explorer 9 fosse conseguenza diretta di quello di Chrome, si potrebbe parlare
tranquillamente di successo !
Il tuo motore di ricerca è Google, la tua mail è Google Mail, i tuoi documenti sono su
Google Docs, le tue mappe sono su Google, gli Ads che vedi sono di Google, il tuo
sistema è Android, il tuo browser è Google Chrome. Qualcuno ha per caso sentito la
parola “monopolio” ?
Daniel Glazman, giornalista per Disruptive Innovation [15]
Forse parlare di monopolio in questo particolare contesto - considerando anche gli episodi eclatanti degli
anni precedenti - potrebbe risultare eccessivo. Tuttavia - notizia ufficiale del primo settembre 2009 -
Google ha ottenuto un accordo per preinstallare il suo browser sui computer Sony. E se il buongiorno si
vede dal mattino …
31
(29) In alto, le quote
uote di mercato dei browser dal 2000 a oggi;
oggi sotto le quote di mercato dei browser nel 2009
32
5 – L’evoluzione del Web
5-1 – La bolla delle dot-com
com
Nel 1994, con la quotazione in borsa di Netscape, ebbe inizio un ciclo economico, definito New Economy o
era delle dot.com,, che sarebbe terminato a cavallo tra il 2001 e il 2002 con lo scoppio della bolla
speculativa, la recessione economica e le conseguenze degli eventi dell'11 settembre 2001. Durante gli anni
della New Economy
conomy aumentarono in maniera esponenziale le quotazioni di nuove start-up start della Silicon
Valley, dell'high-tech e di Internet; nel contempo gli investimenti nel settore della information technology
diventarono una delle caratteristiche chiave dei piani strategici delle grandi e medie imprese.
Lo scoppio della bolla segnò di fatto un punto di svolta per il Web. In molti giunsero alla conclusione che il
Web fosse stato assolutamente sopravvalutato seppure
seppur - di fatto - le bolle e le conseguenti crisi sembrano
essere una caratteristica comune a tutte le rivoluzioni
rivol tecnologiche.
Il concetto di Web 2.0 fu coniato durante una sessione di brainstorming, tenutasi nell’ambito di una
conferenza, tra “esperti” di O’Reilly Media - casa editrice internazionale specializzata nella divulgazione di
testi di carattere tecnico/informatico - e di MediaLive International – azienda organizzatrice di convention a
sfondo tecnologico. Dale Dougherty,
Dougherty uno dei pionieri del Web (fu moderatore al primo WWW Wizard
Workshop citato nel capitolo precedente) e vice presidente di O’Reilly, fece notare che - tutt’altro che
33
crollata - la rete era più importante che mai, con nuovi siti ed interessanti applicazioni che nascevano con
sorprendente regolarità; inoltre le società sopravvissute al collasso sembravano avere alcune
caratteristiche, che verranno approfondite in seguito nel testo.
Il significato del termine “Web 2.0” è stato causa di ampi dibattiti: alcuni lo indicano come una “buzzword”
- una parola di moda, di solito inventata ed utilizzata soprattutto in ambiti aziendali e di marketing - nata
dall’esigenza di etichettare un “hype” (ovvero un’operazione pubblicitaria), mentre altri lo accettano come
uno standard di fatto per definire un certo insieme di cambiamenti e applicazioni che oggi popolano la
Rete.
Per definire il Web 2.0 possono essere utilizzate alcune sintetiche affermazioni di Tim O’Reilly, fondatore
della O’Reilly Media e illustre sostenitore del software gratuito e open source. A lui soprattutto va
riconosciuto il primo tentativo di definire questo termine.
“Il Web 2.0 è la rete come piattaforma, attraverso tutti i dispositivi ad essa collegati;
le applicazioni Web 2.0 sono quelle che permettono di ottenere la maggior parte dei
vantaggi intrinseci della piattaforma, fornendo il software come un servizio in
continuo aggiornamento che migliora grazie alle persone che lo utilizzano,
sfruttando e mescolando i dati ottenuti da sorgenti multiple - tra cui gli utenti stessi -
i quali forniscono i propri contenuti e servizi in un modo che permette il riutilizzo da
parte di altri utenti creando così una sorta di “architettura di partecipazione” e
andando oltre la metafora delle pagine del Web 1.0 per produrre così user
experience più significative” [6]
• La rete diventa una “piattaforma”, ove con piattaforma si intende un’infrastruttura hardware e
software che permetta l’esecuzione di applicazioni: questo chiaramente introduce diverse
problematiche, a partire dalla gestione della “digital identity” (ovvero il concetto di autenticazione),
la privacy e la sicurezza delle informazioni ;
• Il software è visto come “servizio”: non sono più necessarie applicazioni stand-alone, il software
viene erogato ed usufruito dai singoli e dalle aziende attraverso la rete, senza la necessità di adibire
particolari infrastrutture e/o installazioni locali;
• Si utilizzano dati ottenuti da sorgenti multiple, che le applicazioni aggregano ed interpolano:
un’esemplificazione di questo aspetto è rappresentata dalle Mash-up (letteralmente "poltiglia"),
delle applicazioni web che sfruttano il contenuto generato da terzi (solitamente altri siti web che
offrono delle API di interazione) per creare un servizio completamente nuovo;
• Gli utenti partecipano al miglioramento del software e producono contenuti, i cosiddetti User
Generated Content (UGC).
“Il Web 2.0 è un insieme di tendenze economiche, sociali e tecnologiche che formano
insieme la base per la prossima generazione di Internet – un più maturo e distinto
mezzo caratterizzato dalla partecipazione degli utenti, dal’apertura e dagli effetti
della rete” [6]
34
La terza ed ultima, prodotto di una discussione online tra O’Reilly e la comunità della rete, enuncia:
“Il Web 2.0 è la rivoluzione del business nell’industria informatica, causata dallo
spostamento verso Internet come piattaforma e da un tentativo di capire le regole
per il successo su questa nuova piattaforma. Il punto cardine di tutto questo è
costruire applicazioni che, sfruttando gli effetti della rete, migliorano man mano che
cresce il numero di persone che le utilizzano” [10]
Queste ultime due definizioni ci aiutano a capire come il Web 2.0 - oltre ad essere caratterizzato da aspetti
strettamente legati alla tecnologia - rappresenti una serie di tendenze sociali ed economiche, tra le quali
l’acquisita centralità dell’utente nel processo di partecipazione alla crescita della rete. Proprio perché il
software risulta essere realizzato in maniera partecipativa, un altro concetto chiave che si può estrapolare
dal contesto è quello di Permanent Beta (traducibile in “Beta perpetuo”, dove con Beta ci si riferisce alla
versione di un software), ovvero la costante evoluzione apportata dai produttori alle applicazioni e ai servizi
in base al feedback degli utilizzatori.
35
Google, a differenza di Netscape, nacque come applicazione web nativa, mai concepita come un pacchetto
in vendita, bensì fornita come servizio. Nessuna licenza o vendita, solo utilizzo; nessuna release
programmata, ma solo miglioramenti continui; nessuna necessità di distribuzione e di porting su
piattaforme differenti, in quanto il software può essere acceduto direttamente tramite un navigatore web.
Google non è un server, sebbene sia erogato tramite un’immensa rete di server web, né un browser,
seppur sia fruito dai suoi utenti tramite questo strumento; inoltre il suo eccellente servizio di ricerca non
ospita i contenuti che consente ai suoi utenti di trovare.
Come Google, DoubleClick tratta il software come servizio, ha una competenza fondamentale nella
gestione dei dati e, soprattutto, è stato un pioniere nell’ambito dei servizi web molto prima che questi
avessero un nome. Doubleclick, tuttavia, è un tipico modello di web 1.0 per via del suo modello di business:
condivise la convinzione degli anni ’90 secondo la quale fare web significava pubblicare e non partecipare e
che quello degli inserzionisti, e non dei consumatori, fosse il mercato a cui rivolgersi.
Per dovere di cronaca, Google ha acquistato Double Click l’11 marzo 2008.
L’Enciclopedia Britannica è stata pubblicata la prima volta nel 1768 ad Edimburgo, in Scozia, e tutt’ora
continua ad essere aggiornata: trattasi di un’opera colossale che conta, in una delle sue ultima edizioni, ben
32 volumi ed una partecipazione di 400 collaboratori. Oltre alla versione cartacea è disponibile una
versione in DVD contenente oltre 55 milioni di vocaboli e più di 100.000 articoli. Nel 1994 è stata resa
disponibile una versione online accessibile previo abbonamento annuale, con circa 120.000 articoli
consultabili ed aggiornata quotidianamente da scienziati, professori o esperti di qualunque argomento.
Wikipedia, al contrario dell’Enciclopedia Britannica, un progetto molto giovane nel panorama web, risulta
decisamente innovativo in questo settore. Nata il 5 gennaio 2001, Wikipedia è un’enciclopedia libera che
accetta il contributo degli utenti volontari per poter crescere: chiunque può scrivere, modificare o
aggiornare un articolo disponibile in archivio; nello stesso tempo, ogni articolo può essere tradotto in oltre
250 lingue, aumentando così il bacino del servizio.
Le differenze sono facilmente intuibili: mentre in Wikipedia si avvale di una soluzione interattiva che
permette ai suoi utenti (esperti, studiosi o semplici appassionati) non solo di consultare liberamente i
36
documenti, ma di partecipare attivamente alla crescita dei contenuti, l’Enciclopedia Britannica si affida
esclusivamente ai propri collaboratori e non fornisce il proprio materiale in forma gratuita.
Page View (Web 1.0) in confronto con Cost Per Click (2.0)
Page View, letteralmente “pagina vista”, è uno dei sistemi più utilizzati nel panorama dell’advertising online
per vendere campagne banner attraverso inserzioni in siti web. L’utilizzo del Page View permette agli
inserzionisti di quantificare il volume della propria campagna a seconda di quanta visibilità questi
desiderano ottenere. In questo modo è possibile acquistare pacchetti di esposizioni, sempre nell’ordine di
alcune migliaia, per ottenere la visualizzazione del proprio banner o elemento pubblicitario.
Lo svantaggio di questa soluzione è che non vi può essere garanzia del ritorno dell’investimento (ROI) dato
che gli utenti potrebbero semplicemente visualizzare la pagina con il banner, ma proseguire nella
navigazione senza cliccarvi sopra e senza entrare così nel sito che commercializza un prodotto o offre il
servizio promozionato. L’investimento sarebbe comunque effettuato senza ottenere in cambio alcun
guadagno o solamente una minima parte di interesse da parte del pubblico che ha generato una bassa
percentuale di click rispetto al numero di esposizioni (tale percentuale è detta Click-Through Rate).
Il Cost per Click (o pay per click) non è una nuova forma di advertising online, ma semplicemente un
metodo più sicuro per massimizzare il proprio ROI decidendo solamente quanto siamo disposti ad investire
su di un singolo click alla nostra inserzione pubblicitaria. Il nostro spot verrà visualizzato all’interno di un
circuito di banner un numero indefinito di volte, per un tempo predeterminato, fino a quando non avrà
ottenuto l’ammontare di click da noi fissato con il nostro investimento.
Per sito web personale si intende quel sito che un individuo ha registrato a proprio nome per parlare di sé
stesso, della propria vita e dei propri interessi. Per realizzarlo è necessario che l’individuo in questione
disponga di software di sviluppo visuale o conosca abbastanza bene le tecnologie del web. La struttura del
sito è fortemente personalizzata e non segue alcuno “standard”.
In ogni caso non è solo la tecnologia RSS ad aver reso un blog differente da una semplice pagina personale: i
permalink (contrazione dell’inglese "permanent link") sono delle URL che si riferiscono ad una specifica
informazione e che sono implementate in modo da non cambiare o almeno per rimanere lo stesse per
lunghi periodi di tempo. Tom Coates, uno dei primi weblogger, ne spiega l’importanza [14]:
37
“Può sembrare una funzionalità insignificante ora, ma si tratta del dispositivo che ha
efficacemente trasformato i weblog da un fenomeno di “pubblicazione facile” in una
confusione conversazionale di comunità che si sovrappongono. Per la prima volta è
diventato relativamente semplice puntare direttamente a una sezione specifica del
sito di qualcun altro e parlarne. Sono nate discussioni. Sono nate conversazioni. E, di
conseguenza, sono nate amicizie. Il permalink è stato il primo, e più vincente,
tentativo di costruire punti tra i weblog.”
Ultimo aspetto da sottolineare è che, per pubblicare un blog, non è necessaria alcuna conoscenza tecnica: è
possibile infatti registrarsi in uno dei tanti portali che offrono questo servizio gratuitamente o, in
alternativa, installare con estrema semplicità un pacchetto software sul proprio spazio web.
Un social network è uno strumento condiviso che abilita e facilita relazioni, distinguendosi però dalle
community (letteralmente “comunità”), le quali tendono ad aggregare le persone attorno ad un singolo
interesse. Sotto questo aspetto le community (anche riferendoci a quanto riportato nel capitolo
precedente) sono “1.0”, mentre i social network risultano essere “2.0”; in particolare, mentre il valore delle
community è prevalentemente determinato dalla quantità di partecipanti, il focus dei social network è nella
coesione delle relazioni, nonché dalla molteplicità e versatilità degli strumenti offerti per interagire e
relazionarsi.
38
di utilizzatori di applicazioni come Friendster, nato per gestire reti di amici, e LinkedIn, concepito invece
con lo scopo di gestire contatti di lavoro.
Un’evoluzione di questi strumenti è costituita dai semantic social network – che connettono sia persone
che blog – e dai social network “verticali” – che si focalizzano su tematiche specifiche. Il social networking,
inoltre, si sta affermando anche come importante habitat per operazioni di marketing: un esempio su tutti
è rappresentato da Coca-Cola con il suo social network Sprite Yard, realizzato per supportare in Cina il suo
prodotto. Il centro di Ricerche di Marketing dell’Università del Massachusetts ha verificato le dimensioni
del fenomeno da parte delle aziende presenti nell’indice Inc.500 (tale indice include le 500 imprese
americane che hanno registrato il più alto tasso di crescita e sviluppo annuale), riscontrando alti livelli di
familiarità (vedi figura 34), utilizzo e rilevanza.
Parlando di social network è impossibile non citare il fenomeno Facebook (il cui logo è
visibile in figura 35), una popolare applicazione di social networking ad accesso gratuito.
Il nome del sito si riferisce agli annuari pubblicati all'inizio di ogni anno accademico da
alcuni college e scuole statunitensi e contenenti le foto di ogni singolo studente (e
proprio per questo chiamati facebook, letteralmente “libri di facce”). Secondo i dati
forniti dal sito stesso, nel settembre 2009 il numero degli utenti attivi ha raggiunto i 300
milioni in tutto il mondo. In base all'acquisto di una quota del 1,6% da parte di
(35) Facebook Microsoft nel 2007 per 240 milioni di dollari e all'acquisto del 2% per 200 milioni di
dollari da parte di un gruppo di investitori russi, il valore del sito è stato stimato in 10 miliardi di dollari.
Il primo passo consiste nell’inserire i dati sul Web in una forma che le macchine
possano capire, o almeno convertire in tale forma, creando un “Web Semantico”,
una ragnatela di dati che possano essere elaborati dalle macchine direttamente o
indirettamente. Pensate alla quantità limitata di aiuto che abbiamo ricevuto finora
dalle macchine sul Web. I motori di ricerca si sono dimostrati utilissimi nel setacciare,
con grande rapidità, elenchi sterminati per rintracciare documenti negletti, ma
anche inutili, dal momento che non possono valutare la qualità del documento. Di
solito ci scaricano addosso un mucchio di spazzatura.
Con il termine Web Semantico (il cui logo è visibile in figura 36) si intende dunque la trasformazione del
World Wide Web in un ambiente dove i documenti pubblicati (pagine HTML, file, immagini, e così via) siano
associati ad informazioni e dati (i cosiddetti metadati) che ne specifichino il contesto semantico in un
formato adatto all'interrogazione, all'interpretazione e, più in generale, all'elaborazione automatica. Con
l'interpretazione del contenuto dei documenti che il Web Semantico propugna, saranno possibili ricerche
molto più evolute delle attuali, basate sulla presenza nel documento di parole chiave, ed altre operazioni
39
specialistiche come la costruzione di reti di relazioni e connessioni tra documenti secondo logiche più
elaborate del semplice link ipertestuale.
Per quanto riguarda la gestione delle informazioni, esistono due livelli distinti
di metadati: da un lato questi ultimi possono descrivere un documento (ad
esempio una pagina web) o parte di un documento (ad esempio un
paragrafo); d'altro canto, essi possono descrivere entità nel documento,
come una persona o un'azienda. In ogni caso, la cosa importante è che i
metadati sono "semantici", ovvero ci dicono qualcosa circa il contenuto del
documento o comunque circa entità descritte nel documento. Questo
chiaramente è in contrasto con i metadati oggi presenti sul Web, codificati in
HTML, linguaggio tramite il quale si descrive puramente il formato in cui le
informazioni dovrebbero essere rappresentate: utilizzandolo si può
(36) Logo del Semantic Web
specificare se una determinata stringa deve essere visualizzata in grassetto o
colorata di rosso, ma non si può specificare ad esempio che la stessa stringa denoti il prezzo di un prodotto,
il nome di un autore e così via. Tramite l'utilizzo della semantica, un elaboratore potrebbe capire quando
parole o frasi sono equivalenti: cercando "Barack Obama", si potrebbe ad esempio ottenere un documento
altrettanto valido riferendoci al "Presidente degli Stati Uniti". Oltre a questo si potrebbero ottenere risultati
di una ricerca collegati al contesto: ad esempio, nel cercare riferimenti a "Jaguar" nell'ambito della
produzione automobilistica, non ci sarebbe il rischio di trovare documenti riguardanti un felino.
Affinché questi strumenti siano fruibili nel modo più immediato possibile dagli utilizzatori, si rende
indispensabile la definizione di linguaggi atti alla ricerca, i cosiddetti linguaggi di querying. Simple Protocol
40
And RDF Query Language – SPARQL - è uno dei linguaggi definiti per interrogare sistemi che gestiscono
asserzioni RDF. Ad oggi sono disponibili altri linguaggi funzionalmente equivalenti, ma SPARQL è candidato
a divenire una raccomandazione W3C. Per interrogare OWL, invece, manca ancora uno standard, e
attualmente vengono implementati linguaggi di query proprietari.
È da segnalare che attualmente si sta lavorando molto per estendere le possibilità del Web Semantico
tramite l'applicazione di agenti semantici intelligenti, ovvero programmi in grado di esplorare ed interagire
autonomamente con i sistemi informatici. Ruolo di questi agenti nel Web Semantico sarebbe quello di
fornire più vaste capacità di inferenza realizzando quanto espresso in un articolo di Tim Berners-Lee su
"Scientific American" ed intitolato "The Semantic Web" [12]: in esso si prospetta un futuro in cui una
qualsiasi persona potrà, ad esempio, fissare una visita medica alla madre utilizzando alcuni agenti capaci di
"capire" la patologia, contattare i centri in grado di curarla e perfino di richiedere un appuntamento ai
relativi agenti, salvo poi lasciarle la decisione di confermare.
5.6 – Conclusioni
Il panorama del Web è al centro di un processo in continua evoluzione del quale ci troviamo ad essere
spettatori e, talvolta, anche protagonisti. Il Web Semantico è una tecnologia ad un passo dal grande salto,
mentre il Web 2.0 rappresenta l’attore principale dello scenario odierno.
Se il Web 2.0 non riserva grandi attenzioni alle tecnologie impiegata, favorendo aspetti di user experience e
quindi di immediato benificio dell’utenza, il Web Semantico rappresenta l’esatto opposto, in quanto pone
al centro gli standard finalizzati alla modellazione del dominio che si vuole descrivere. Web 2.0 nasce per
essere fruito dalle persone, e quindi si pone ad un livello di stratificazione più alto del Web Semantico, che
invece nasce per rendere i dati manipolabili in maniera migliore dagli elaboratori. Ambedue le tecnologie
appaiono simili al mondo esterno – servono per condividere ed aggregare dati – ma il Web 2.0 ha una
migliore interfaccia e soprattutto esiste ora !
I detrattori del Web Semantico seguono almeno tre correnti. Ad esempio alcuni si aspettano una debacle
simile a quella delle previsioni dei ricercatori sull’intelligenza artificiale dei primi anni ‘60. Altri imputano al
Web Semantico la difficoltà di implementazione e quindi dei costi decisamente troppo elevati rispetto ai
benefici ottenibili. Altri ancora, semplicemente, non vedono futuro per questo tipo di tecnologia - ma
questo accadde anche per il World Wide Web !
Tuttavia i tempi iniziano ad essere maturi perchè le tecnologie si muovano sempre di più verso un modello
come quello del Web Semantico: oggi abbiamo la potenza di calcolo necessaria per organizzare la
conoscenza e fare in modo che sia fruibile tramite strumenti sempre più avanzati.
Chiudo con un esortazione di Vannevar Bush contenuta nel suo “As May We Think” [11]:
“Presumably man’s spirit should be elevated if he can better review his shady past
and analyze more completely and objectively his present problems. He has built a
civilization so complex that he needs to mechanize his records more fully if he is to
push his experiment to its logical conclusion and not merely become bogged down
part way there by overtaxing his limited memory. His excursions may be more
enjoyable if he can reacquire the privilege of forgetting the manifold things he does
not need to have immediately at hand, with some assurance that he can find them
again if they prove important.”
41
Bibliografia
[1] James Gillies, Robert Cailliau (2000), How the Web was Born , Oxford University Press, New York.
[2] Tim Berners Lee (1999), Weaving The Web (versione tradotta in italiano: L'architettura del nuovo Web,
Feltrinelli Editore, Milano).
[3] Paolo D'Alessandro, Igino Domanin (2005) Filosofia dell'ipertesto, Apogeo Editore, Trento
[4] James Kurose, Keith Ross (2005), Reti di calcolatori e internet. Un approccio top-down 3ed, Pearson
Education, Milano.
[5] Kennet Corts, Debora Freier (2003), "A Brief History of the Browser Wars", Harward Buisness School,
Boston.
[6] Tim O' Reilly (2005), "What is web 2.0", disponibile all'indirizzo:
http://www.oreillynet.com/pub/a/oreilly/tim/news/2005/09/30/what-is-web-20.html.
[8] Giuliano Prati (2007), Web 2.0 - Internet è cambiato, UNI Service, Trento.
[9] Dan Zambonini (2005), "Is Web 2.0 killing the Semantic Web ?", disponibile all'indirizzo:
http://www.oreillynet.com/xml/blog/2005/10/is_web_20_killing_the_semantic.html
[10] Tim O' Reilly (2006), “Web 2.0 Compact Definition: Trying Again”, disponibile all’indirizzo:
http://radar.oreilly.com/2006/12/web-20-compact-definition-tryi.html
[11] Michael Daconta, Leo Obrst, Kevin Smith (2003), The Semantic Web, Wiley Publishing, Indianapolis
[12] John Davies, Rudi Studer, Paul Warren (2006), Semantic Web Technologies, John Wiley & Sons, Sussex
[13] Tim Berners Lee, James Hendler, Ora Lassila (2001)- "The Semantic Web", pubblicato su “Scientific
American” e disponibile all'indirizzo: http://kill.devc.at/system/files/scientific-american_0.pdf
[14] Tom Coates (2003), “On Permalinks and Paradigms...”, disponibile all’indirizzo:
http://www.plasticbag.org/archives/2003/06/on_permalinks_and_paradigms
42