Vous êtes sur la page 1sur 47

LINFORMATICA GIURIDICA E LE TECNOLOGIE DELLINFORMAZIONE

INTRODUZIONE
Linformatica giuridica la disciplina che studia gli aspetti giuridici della rivoluzione tecnologica , economica e sociale prodotta dallinformatica (linformazione automatica), cio studia quella che si dice informatizzazione. Possiamo notare che tale rivoluzione ha un doppio impatto sul diritto: - determina nuove opportunit ma anche nuovi rischi per leconomia, la politica e la vita individuale-sociale, aspetti che richiedono un intervento giuridico. - modifica il lavoro del giurista, che sempre di pi si avvale di strumenti informatici. Linformatica giuridica presenta due facce: - linformatica del diritto, cio luso dellinformatica nelle attivit giuridiche. - il diritto dellinformatica, cio la disciplina giuridica dellinformatizzazione.

CAPITOLO 1: Il diritto e la societ dellinformazione


1) La societ dellinformazione
Nel corso degli ultimi decenni abbiamo assistito ad una intensa rivoluzione tecnologica, economica e sociale, caratterizzata dal passaggio dalla societ industriale alla societ dellinformazione. Cos come lindustrializzazione (limpiego delle macchine nellelaborazione della materia) determin il passaggio dalla societ agricola alla societ industriale, co s linformatizzazione (limpiego delle macchine nellelaborazione di informazioni) sta determinando la formazione di un nu ovo modello sociale, la societ dellinformazione. possibile cogliere analogie e differenze tra la rivoluzione industriale e quella informatica: - entrambe le rivoluzioni hanno posto nuovi problemi e richiesto un nuovo diritto. Diritto del lavoro, della previdenza sociale, dellimpresa, dellambiente, ecc, la rivoluzione industriale. Diritto dei dati, dei documenti elettronici, ecc, la rivoluzione informatica. - le due rivoluzioni, invece, sono assai diverse per quanto attiene al loro impatto sui modi in cui si svolge il lavoro del giurista: a questo riguardo fu molto limitato limpatto della rivoluzione industriale, profondo e pervasivo quello della rivoluzione informatica. La rivoluzione industriale lasci immutati gli strumenti di lavoro del giurista, infatti lautomazione dei processi di manipolazione della materia non pu avere impatti sul lavoro giuridico, poich esso non consiste nel costruire oggetti materiali ma nellelaborare informazioni. La rivoluzione informatica, invece, attenendo allelaborazione delle informazioni, incide direttamente sullattivit del giurista. - i nuovi aspetti della rivoluzione industriale poterono essere disciplinati con relativa autonomia da parte dei diversi ordinamenti statali; invece la risposta giuridica allinformatizzazione, un fenomeno di portata mondiale, non pu essere confinata ad un solo ordinamento statale, ma le soluzioni giuridiche adottate devono coordinarsi per adattarsi alla dimensione globale dellinformatizzazione. Diversi sono gli aspetti della societ dellinformazione e delle nuove tecnologie: - operano su informazioni di input producendo informazioni di output, cio producono informazioni per mezzo di informazioni (linformazione la loro materia prima). - favoriscono linterconnessione. - sono flessibili, nel senso che sono riprogrammabili e permettono di riorganizzare continuamente i sistemi tecnologico-organizzativi ed i loro collegamenti. - tendono alla convergenza, cio tendono a formare un unico insieme di dispositivi che comunicano. - gli effetti delle nuove tecnologie sono pervasivi, perch incidono su ogni aspetto della vita individuale e sociale. Si parla anche di societ della rete (network society) per indicare il nuovo tipo di organizzazione sociale ed economica reso possibile dalle tecnologie dellinformazione, un modello in cui le attivit produttive e culturali prescindono ampiamente dalle distanze geografiche ed in cui le interazioni personali possono essere distribuite su tutte la terra. Linclusione delle persone nei rapporti sociali ed economici determinata dalla loro possibilit di inserirsi nei diversi flussi dinformazione: c oloro che concorrono a determinare i contenuti e le direzioni dei flussi dinformazione sono detti networker, mentre colore che

accedono passivamente allinfrastruttura tecnologico -informativa sono detti networked. Si usa il termine digital divide (divario digitale) per indicare la contrapposizione tra chi in grado di utilizzare le tecnologie dellinformazione e chi invece non in grado di farlo. La capacit di incidere sui flussi di informazione, peraltro, dipende anche da altri fattori: i ruoli sociali, le competenze professionali, i livelli culturali, le risorse economiche (secondo alcuni le nuove tecnologie riducono le disuguaglianze, mentre secondo altri tendono ad accentuarle). La societ dellinformazione tende a realizzare il famose detto del filosofo George Berkeley, esistere essere percepito. Nel nostro caso potremmo dire che esistere essere percepiti dai sistemi informatizzati . Ovviamente gli eventi della realt umana e sociale mantengono anche nella societ dellinformazione la propria c oncretezza, tuttavia tali eventi producono le conseguenze sociali loro proprie (hanno cio effettivit sociale) solo attraverso la loro rappresentazione informatica: gli eventi sociali vengono rappresentati in sistemi informatizzati e tale rappresentazione determina processi economici, amministrativi, politici, processi che possono modificare la realt stessa. In particolare, gran parte della attivit dotate di implicazioni giuridiche (nelleconomia i pagamenti, nella pubblica amministrazione lirrogazione di sanzioni , ecc) vengono oggi rappresentate nei sistemi informatici, e sulla base di tali rappresentazioni vengono attivate le attivit consequenziali (linvio della merce, linvito a pagare una contravvenzione, ecc). Non stata certo linformatica ad avere inventato dati, registri ed archivi; tuttavia, nella societ dellinformazione il rapporto tra gli eventi e le loro rappresentazioni simboliche si pone in modo profondamente diverso, per due ragioni: - lenorme crescita della quantit di informazioni disponibili, consentita dalleconomicit del tr attamento informatico dei dati rispetto al trattamento manuale. Nellepoca preinformatica la gestione dellinformazione richiedeva la scri ttura su supporto cartaceo, la conservazione in ampi spazi e la ricerca; oggi i dati sono registrati su supporti informatici, sono conservati in spazi ridottissimi e possono essere estratti automaticamente. - i sistemi informatici facilitano limpiego delle informazioni raccolte e quindi ne accrescono lincidenza sulla vita; nellepoca preinformatica era invece necessario lintervento delluomo per registrare mediante la scrittura i fatti s ociali, per elaborare quei dati estraendone conoscenze utili e per adottare qualsiasi azione sulla base di tali dati. Dalla crescente importanza della rappresentazione informatizzata dei fatti individuali e sociali discendono alcune esigenze fondamentali: - assicurare allindividuo il controllo sulla propria rappresentazione informatizzata (la privacy). - garantire la sicurezza dei sistemi e dei dati che essi contengono (se si fermano i sistemi informatici, le dinamiche sociali sono oggi paralizzate, giacch la societ odierna fortemente dipendente dal funzionamento dei calcolatori). - prevenire le frodi informatiche. - consentire laccesso ai dati pubblici. - assicurare lautenticit e lintegrit dei documenti informatici. Per raggiungere tali scopi lintervento del diritto sicuramente necessario. Nella societ dellinformazione lindividuo acquista nuove capacit , grazie a svariati strumenti informatici che potenziano ed integrano le sue capacit naturali. Le tecnologie dellinformazione non si limitano a fornire al singolo le informazioni e le elaborazioni di cui ha bisogno nella vita privata e professionale, ma mediano e talvolta sostituiscono le interazioni personali. Grazie a tali tecnologie lindividuo acquista nuove opportunit di relazioni sociali, e di conseguenza egli tende a staccarsi dalle comunit geografiche di appartenenza. La societ dellinformazione si caratterizza per la presenza di tendenze apparentemente contrastanti: da un lato le nuove possibilit aperte dalla tecnologia dellinformazione esaltano il ruolo dellindividuo e la sua autonomia nel creare e comunicare nuovi contenuti, mentre dallaltro lindividuo sperimenta la pr opria solitaria impotenza di fronte allenorme quantit dei contenuti accessibili. Linformatizzazione ha investito tanto il settore economico quanto quello politico ed amministrativo. Come linformatizzazione di unorganizzazione economica investe tanto le attivit produttive e gestionali interne (il ba ck office), quanto le interazioni con i clienti e fornitori (il front office), cos linformatizzazione delle organizzazioni pubbliche in veste tanto i processi politici ed amministrativi interni, quanto le interazioni con i cittadini, le imprese, gli enti pubblici e privati. Ricordiamo in particolare: - e-commerce (commercio elettronico): effettuazione di scambi commerciali utilizzando reti telematiche. - e-governance (direzione elettronica): uso delle tecnologie dellinformazione nella direzione, pianificazione e controllo delle organizzazioni pubbliche e private. - e-government (governo elettronico): uso delle tecnologie dellinformazione nella gestione degli enti pubblici e nello svolgimento delle loro funzioni. - e-democracy (democrazia elettronica): uso dellinformatica nella comunicazione politica e nel dibattito pubblico. - e-partecipation (partecipazione elettronica): uso delle tecnologie dellinformazione allesterno delle strutture pubbliche per partecipare alla vita politica. Nella societ dellinformazione si manifesta il cosiddetto effetto di rete (network effect): quanto pi una rete ampia ed intensamente sfruttata, tanto pi quella rete acquista valore, cio, tanto maggiore diventa lutilit che ciascuno pu trarre da essa. Ci vale in particolare per le reti usate nella comunicazione: quante pi persone usano una certa rete, come la rete telefonica o Internet, tante pi persone sono raggiungibili mediante la stessa rete, e quindi tanto pi utile per ciascuno partecipare ad essa. Possiamo notare come leffetto di rete caratterizza anche la rete che si instaura tra gli utenti e gli sv i-

luppatori che adottano certi software o certi prodotti: ad esempio, il software elaboratore di testi Microsoft Word usato dalla grandissima maggioranza degli utenti, poich questi debbono frequentemente scambiarsi documenti elettronici, e tali scambi sono facilitati dallimpiego del medesimo elaboratore di testi (i documenti che il mittente invia possono essere utili zzati dal ricevente senza la necessit di conversioni). Crescendo lutilit della rete per i singoli, tanti pi singoli si collegano alla rete stessa, il che accresce ancora di pi lutilit della rete per il singolo partecipante, e quindi aumenta lincentiv o a fare parte della rete per chi non si sia ancora collegato. Di conseguenza, le reti solitamente si avviano lentamente, ma quando una rete ha successo, e cio supera la soglia critica al di l della quale lutilit per lutilizzatore supera nettamente i costi della partecipazione, la crescita diventa sempre pi accelerata. Secondo la legge di Metcalfe, lutilit che ciascun utente pu trarre da una rete proporzionale al quadrato del numero degli utenti . Anche se leffetto di rete non si verifica solo nel campo dellinformatica, tale effetto potenziato d a alcune caratteristiche dellinformatica stessa: - le tecnologie dellinformazione sono caratterizzate da costi fissi molti alti e costi marginali molto bassi. Per realizzare la prima copia di un nuovo prodotto bisogna sostenere costi molto elevati (i costi di progettazione e sviluppo), ma la produzione di ulteriori copie dello stesso prodotto ha in generale costi bassissimi (nel caso del software il costo della produzione di una ulteriore copia si avvicina allo zero). Di conseguenza, chi controlla una parte pi ampia del mercato avvantaggiato, poich pu suddividere i propri costi fissi tra una base pi ampia di utenti, e quindi pu offrire il proprio prodotto ad un prezzo pi basso. - passare dalluna allaltra soluzione informatica comporta costi elevati, e di conseguenza lutente tende a diventare prigioniero della tecnologia che ha adottato (lock-in). Leffetto di rete pu dare luogo a fenomeni importanti sul mercato dellinformatica: - la tendenza monopolistica, intesa come monopolio orizzontale (gli utenti tendono a convergere sulluso di poche soluzioni tecnologiche, che rappresentano le reti pi estese, come ad esempio Windows, iPhone, Google, ecc) e monopolio verticale (che domina un certo settore tende ad estendere il proprio controllo anche sui settori connessi). A questo riguardo, negli anni scorsi, si discusso del comportamento commerciale di Microsoft che, sulla base del proprio assoluto dominio nel campo dei sistemi operativi per PC, aveva acquisto una posizione dominante anche nel campo dei software per lelaborazione di tes ti e la navigazione su Internet; Microsoft, rifiutandosi di fornire le informazioni necessarie per linteroperabilit tra i propri prodotti e quelli sviluppati da altre aziende, era stata accusata di abuso della propria posizione dominante. - il fatto che ogni produttore ha interesse ad anticipare il pi possibile il rilascio di nuovi prodotti , perch se un prodotto riesce ad acquistare unampia diffusione sul mercato prima dellarrivo dei prodotti concorrenti, leffetto di rete giocher a suo favore (ci spiega perch vengano spesso diffusi prodotti ancora prematuri, ricchi di errori ed imperfezioni). - lasimmetria nellinformazione, cio la differenza tra le conoscenze possedute da chi fornisce un prodotto e da chi lo utilizza (chi fornisce un prodotto informatico normalmente ha maggiori conoscenze di chi lo utilizza). Tale situazione pu pregiudicare i consumatori, ma pu altres incidere sul corretto funzionamento dei mercati: - si avr un mercato dei limoni: se lutilizzatore non in grado di distinguere i prodotti che hanno buone prestazioni di quelli che hanno prestazioni peggiori, i prodotti scadenti tenderanno a prevalere, in quanto preferiti dai consumatori in ragione del loro prezzo pi basso. - si avr una situazione di selezione avversa: quando lutente non in grado di distinguere servizi buoni e servizi scadenti, i fornitori possono dotarsi di un indice di qualit non veritiero, in particolare i peggiori fornitori saranno maggiormente interessati ad avere una falsa reputazione per nascondere la bassa qualit dei loro servizi. Leconomia della societ dellinformazione anche caratterizzata da tendenze di diversificazione dei prodotti e dallapertura dei mercati: - grazie ai bassi costi di distribuzione possibile commercializzare anche prodotti di nicchia, cui interessata solo una frazione molto ristretta del mercato (questo il fenomeno della coda lunga, long tail). Realizzare e commercializzare prodotti destinati ad una scarsissima diffusione diventa conveniente solo quando i costi della distribuzione di quei prodotti si mantengano molto bassi, come avviene nella distribuzione mediante Internet. Per esempio, unampia quota delle vendite dei siti che forniscono film o musica on-line rappresentata da prodotti di nicchia, normalmente non disponibili nei negozi, che solo mediante Internet possono essere commercializzati con profitto. - il diminuito rilievo del capitale fisico, cio delle macchine, rispetto al contributo umano. Gli elevati costi dei macchinari delleconomia industriale limitavano lattivit produttiva alle organizzazioni che disponevano del capitale necessario ad acquistare i dovuti macchinari, ed inoltre richiedevano che i prodotti fossero commercializzati a prezzi di mercato idonei a coprire tali costi. Nelleconomia dellinformazione, invece, gli strumenti di produzione sono g eneralmente accessibili a basso costo; diventano cos possibili nuovi modi di produzione commerciale, nei quali progetti di ampie dimensioni possono attuarsi mediante la partecipazione decentrata di individui o piccole unit produttive (allargamento del mercato).

2) Il diritto nella societ dellinformazione


Luso delle nuove tecnologie determina mutamente sociali, i quali richiedono una nuova disciplina giuridica. Il diritto non si limita a reagire alle trasformazioni indotte dalle tecnologie , ma contribuisce a determinare i modi dellutilizzo delle

tecnologie informatiche (ad esempio, la disciplina della protezione dei dati incide sulle soluzioni tecnologiche adottate nelle attivit amministrative). Linformatica del diritto ricopre i seguenti settori: - fonti di cognizione del diritto (documentazione giuridica informatica). Si realizzano fonti elettroniche di cognizione del diritto: la legislazione, la giurisprudenza e la dottrina sono trasferite in banche dati, i cui contenuti possono essere selezionati ed estratti automaticamente. Si sviluppano nuovi metodi per la ricerca delle informazioni giuridiche, e sulla base dei testi originali si producono automaticamente nuove forme testuali rispondenti alle esigenze del giurista. - sistemi informativi giuridici. Diversi modi nei quali le organizzazioni giuridiche (gli organi legislativi, i tribunali, le pubbliche amministrazioni, ecc) possono avvalersi dellinformatica per conservare, est rarre, elaborare, condividere e fare circolare le informazioni. - redazione di documenti. Si predispongono software che agevolano la creazione di documenti giuridici in genere. - prove informatiche. Si individuano tecniche per gli accertamenti che riguardano oggetti informatici (come le memorie elettroniche), o sono effettuati mediante strumenti informatici (come le intercettazioni telefoniche). - apprendimento elettronico del diritto. Si studia luso delle tecnologie informatiche nellinsegnamento del diritto. - modelli informatici del diritto. Si traducono in modelli precisi le strutture della conoscenza giuridica (regole, casi, fattori, principi, concetti, ecc). - determinazioni giuridiche. Si realizzano sistemi informatici che agevolano la qualificazione giuridica dei casi concreti, applicando in modo interattivo o automatico le conoscenze giuridiche. - deontologia ed epistemologia. Si studia limpatto delle tecnologie sulla pratica del diritto: come dobbiamo usare il diritto nellinformatica? come cambia la comprensione del diritto in seguito alluso dellinformatica? Le realizzazioni informatiche sono destinate ad essere applicate in diversi ambiti del diritto: - informatica legislativa. - informatica giudiziaria. - informatica amministrativa. - informatica delle professioni giuridiche. Linformatica del diritto pu svolgere diverse funzioni nelle attivit e nella cultura del giurista: - accrescere lefficienza del lavoro giuridico , in quanto offre al giurista alcuni strumenti per svolgere prima e meglio alcuni aspetti del proprio lavoro. - la razionalizzazione e riorganizzazione delle attivit giuridiche, ricordiamo infatti che lutilit dellinformatica resta limitata se le attivit giuridiche continuano a svolgersi secondo forme preinformatiche. - lefficacia assiologia (dal greco axios, che ha valore), giacch le tecnologie informatiche possono efficacemente contribuire a fondamentali valori giuridici come la certezza del diritto, la partecipazione informata alle scelte pubbliche, la comunicazione tra i professionisti del diritto, ecc. - formare lautocoscienza del giurista , il quale, quando chiamato ad applicare le tecnologie informatiche al servizio dei valori giuridici, o quando simula il modo in cui si accosterebbe a casi ipotetici, altres portato ad interrogarsi sulla natura del diritto e sul modo in cui avviene la trattazione dei problemi giuridici. Il diritto dellinformatica dovrebbero svolgere le seguenti funzioni: - prevenire luso delle tecnologie informatiche contro i valori giuridici (per esempio, per restringere la libert dei singoli o per causare danni ai loro beni). - risolvere i conflitti di interessi inerenti allimpiego di tecnologie informatiche (per esempio, il conflitto di interessi tra creatori e utilizzatori di software). - promuovere luso dellinformatica per realizzare i diritti individuali e le esigenze sociali. Nel diritto dellinformatica si possono distinguere i seguenti profili: - propriet intellettuale informatica . La fruizione dei beni informatici immateriali (quali o programmi per calcolatore e l opere dingegno digitalizzate) viene disciplinata nel tentativo di conciliare gli interessi dei produttori e degli utilizzatori di tali beni, di favorire lo sviluppo delleconomia della conoscenza ma anche la diffusione del sapere. - tutela dei dati. Il trattamento dei dati personali, cio lelaborazione delle informazioni che riguardano gli individui, divenuto oggetto di regolazione giuridica. Il diritto cerca di bilanciare la tutela della libert e della dignit dei singoli con il diritto di informazione e di comunicazione. - documenti digitali. Il diritto ha stabilito le condizioni per la validit giuridica dei documenti digitali e delle firme elettroniche; il diritto disciplina inoltre luso di documenti e supporti informatici quali elementi di prova. - presenza virtuale. Il diritto cerca di disciplinare la presenza di individui e organizzazioni nel mondo virtuale della rete (in particolare, ha affrontato luso dei nuovi segni distintivi impiegati nelle reti informatiche, quali i nomi di dominio, e ha disciplinato il loro rapporto con i tradizionali segni distintivi della persona e dellimpresa). - commercio elettronico. Il diritto disciplina la formazione e lesecuzione dei contratti telematici, nonch lo svolg imento delle attivit economico-giuridiche attraverso Internet. - governo elettronico. Il diritto disciplina limpiego dellinformatica nelle strutture pubbliche e nei rapporti di queste con i cittadini, al fine di accrescere lefficienza degli apparati pubblici.

reati informatici. Il diritto penale sanziona i reati che riguardano beni informatici o sono commessi mediante strumenti informatici (le frodi informatiche, il danneggiamento informatico, la diffusione di virus, ecc). informatica e Costituzione. Linformatizzazione incide sullesercizio delle libert fondamentali, sulla relazione tra cittadino e poteri pubblici, sullequilibrio tra i poteri dello Stato e sul rapporto tra Stato, regioni ed enti territoriali. Di qui lesigenza che la regolamentazione giuridica delle libert costituzionali e delle isti tuzioni tenga conto dei rischi derivanti dallinformatica, ma anche delle opportunit che essa offre per lo sviluppo delle libert individuali e della democraticit ed efficienza delle istituzioni.

Possiamo vedere come lo studio di questi temi presuppone la conoscenza dei metodi e delle tecnologie dellinformatica, una conoscenza che precondizione necessaria per poter correttamente interpretare le norme giuridiche. Inoltre, in taluni settori, le questioni del diritto dellinformatica sono strettamente connesse con quelle dellinformatica del diritto: ci avviene qua ndo il diritto regoli luso dellinformatica in certe attivit giuridiche.

3) Breve storia dellinformatica del diritto


La ricerca dei precursori dellinformatica giuridica potrebbe spingersi assai indietro nel tempo, in particolare Gottfried Leibniz gi nel 17 secolo avanzava lidea del ragionamento quale tecnica calcolabile (cio eseguibile mediante calcoli n umerici). Se ci limitiamo invece agli studiosi che espressamente si richiamano all e moderne tecnologie dellinformazione, possiamo trovare lidea dellinformatica giuridica in alcuni contributi pubblicati nella seconda met degli anni 40. Si usa indicare Lee Loevinger come il fondatore dellinformatica giuridica, il quale nel 1 .949 propose luso del termine giurimetria per indicare un nuovo modo di accostarsi al diritto, ispirato al metodo scientifico. Aspetto essenziale della giurimetria, accanto alluso di tecniche logiche e matematiche nella trattazione dei problemi giuridici, lim piego di strumenti informatici per elaborare dati giuridici (soprattutto al fine di prevedere decisioni future alla luce dei precedenti e dei comportamenti dei giudici). Negli anni 50 alle intuizioni fanno seguito le prime proposte operative e le prime realizzazioni. Nel 1.956 ha luogo la prima digitalizzazione delle fonti del diritto , presso il Centro di Diritto Sanitario (Health Law Center) dellUniversit di Pi ttsburgh. Il problema che il legislatore della Pennsylvania deve risolvere attiene alla correttezza politica ed in particolare allesigenza di evitare luso di espressioni avvertite come offensive o umilianti da parte degli interessati: bisogna sostitu ire in tutta la legislazione dello Stato della Pennsylvania il termine bambino ritardato con il termine bambino particolare. In considerazione del fatto che la lettura dei testi da parte delluomo non garantisce lesatto compimento di tutte le sostituzi oni, si decide di ricorrere allinformatica: si registra tutta la normativa in materia di sanit su un supporto leggibile dal calcolatore (schede perforate) e si affida al calcolatore il compito di individuare i punti nei quali compariva il termine da sostituire. La prima applicazione dellinformatica giuridica attiene quindi alla redazione di un nuo vo testo legislativo. Tuttavia, una volta che i dati sono disponibili su un supporto magnetico, si ha lidea di utilizzarli quale fonte elett ronica di cognizione del diritto nella ricerca giuridica: anzich limitarsi a chiedere al sistema di estrarre i tes ti che contengono il termine bambino ritardato, possibile chiedere ad esso di estrarre i testi che contengano una qualsiasi parola. Nasce cos il primo strumen to per la ricerca giuridica in testo integrale, mentre gli indici tradizionali consentivano di individuare nel testo le sole pagine che contengono i termini scelti dallautore dellindice, il calcolatore consente di ricercare i contesti dove co mpare qualsiasi parola il ricercatore ritenga significativa. Nel corso degli anni 60 e 70 si moltiplicano le iniziative nel campo dellinformatica giuridica (si ha anche la nascita delle prime riviste e volumi in materia). Negli USA entrano in funzione i primi sistemi commerciali gestiti da privati per la ricerca informatizzata dei testi giuridici. In Europa, invece, sono i pubblici poteri a prendere le prime iniziative nel campo della informatizzazione delle fonti di cognizione del diritto. In particolare in Italia: - nella seconda met degli anni 60 ha inizio lesperienza del sistema Italgiure, presso lUfficio Massimario della Corte di Cassazione (un progetto tuttora attivo). - vengono create banche dati del Senato e della Camera dei deputati. - negli anni 70 vengono create le prime banche dati della pubblica amministrazione, in particolare nellambito dellamministrazione finanziaria. Iniziano anche le prime esperienze sullautomazione degli uffici giuridici. Durante gli anni70 linformatica giuridica si arricchisce di unulteriore dimensione, rappresentata dagli studi di intelligenza artificiale e diritto. Negli anni 80 e 90 linformatica giuridica passa dai primi prototipi sperimentali alle realizzazioni operative utilizzate da una larga parte degli operatori del diritto. Tale passaggio stato facilitato da due grandi innovazioni: il PC (il calcolatore a basso costo destinato alluso individuale) e la telematica (la congiunzione tra informatica e telecomunicazioni). Il PC si diffonde in ogni ambito della vita sociale (allinizio il suo utilizzo si limitava a funzionalit non specificatamente giuridich e). Esso facilita la distribuzione delle banche dati informatiche, perch pu essere usato per accedere ad esse senza la necessit di terminali a ci dedicati; a questo riguardo ha grande importanza la disponibilit di nuovi strumenti telematici per la comunicazione a distanza: grazie al modem, che trasforma i segnali informatici in onde che viaggiano su linee telefoniche, o-

gni cavo telefonico pu essere usato per collegarsi a calcolatori remoti. La crescita della cerchia degli utenti d grande impulso allo sviluppo delle banche di dati giuridici. Negli anni 80 linformatizzazione della pratica del diritto si estende al di l della ricerca delle fonti: sono sviluppati numerosi software per la gestione degli studi legali e notarili e negli uffici giudiziari si hanno alcune esperienze nella gestione informatizzata dei registri di cancelleria. Accanto alle realizzazioni pratiche crescono anche gli studi teorici sullinformatica giuridica e, sempre negli anni 80, ha inizio lattivit didattica di tale materia. Allinizio degli anni 90 si diffondono i CD (compact disk, disco compatto), supporti ottici dotati di capacit di memorizzazione molto elevata a fronte di un costo molto basso: essi possono essere usati sui normali PC senza la necessit di collegamenti telematici. Le opere gi disponibili su supporto cartaceo possono essere ora trasferite su disco compatto, e di conseguenza possono essere riprodotte e distribuite a costi molto inferiori. Le fonti di cognizione elettroniche del diritto si estendono quindi al di l della giurisprudenza (in massime) e della legislazione, diventano accessibili in formato elettronico anche articoli di dottrina e sentenze in testo integrale. Nella seconda met degli anni 90 si verifica unulteriore importante rivoluzione nellinformatica giuridica, rappresentata dallavvento di Internet. Le fonti elettroniche del diritto possono trasferirsi sulla rete e diventare accessibili a tutti, Internet diventa progressivamente la principale fonte di cognizione del diritto. La rete, in particolare grazie alla posta elettronica, viene utilizzata dagli operatori del diritto quale mezzo di comunicazione. Gli studi notarili si dotano di una loro rete telematica, con elevate prestazioni di sicurezza, ed utilizzano la rete per trasmettere informazioni ai registri immobiliari e delle imprese. Gli enti pubblici utilizzano sempre pi la rete per presentare s stessi e per dare informazioni ai cittadini, comunicare con i soggetti interessati, fornire talune prestazioni, ecc. Con linizio del nuovo millennio linformatica del diritto si ulteriormente arricchita. Ormai essa si estende al di l della documentazione e della gestione, abbracciando gli ambiti dellorganizzazione e della comunicazione (esempio tipico di qu esto fenomeno rappresentato dal processo civile telematico, termine con cui si indica lo scambio bidirezionale di documenti elettronici tra gli operatori del processo). Negli ultimi anni si assistito anche ad importanti realizzazioni operative basate sullintelligenza artificiale: sistemi che assistono luomo nellapplicazione di regole, nella preparazione di nuove norm ative, nella ricerca e nellutilizzo dei precedenti, nelleffettuazione di scelte giuridiche ed amministrative, ecc.

4) Breve storia del diritto dellinformatica


Il diritto dellinformatica diventa uno specifico tema di indagine giuridica allinizio degli anni 60, quando il software diventa oggetto di specifici contratti di fornitura e di pretese di autonoma tutela giuridica, separandosi dallhardware. Inizi a allora negli USA il dibattito sulla protezione giuridica del software, sia in base allinterpretazione del diritto vigente sia in vista di riforme legislative. Fin da allora si contrappongono le opzioni della tutela brevettuale e di quella mediante diritto dautore del software; questultima la soluzione che sembra prevalere ed infatti i giudici statunitensi affermano che il software da considerarsi opera letteraria, protetta deal diritto dautore (copyright). Si tratta tuttavia di un dibattito che continuer fino ai giorni nostri. Nel corso degli anni 70, emerge un nuovo importante tema, quello della tutela dei dati personali, ossia della tutela della persona rispetto ai rischi derivanti dalla raccolta ed elaborazione delle informazioni che la riguardano. Negli anni 80 la tendenza a proteggere il software mediante il diritto dautore si consolida in numerosi Paesi, anche attr averso esplicite previsioni legislative. In Italia passeranno alcuni anni prima che il legislatore si decida ad entrare nel campo del diri tto dellinformatica con interventi di una certa ampiezza ed organicit. I temi del diritto dellinformatica, peraltro , cominciano ad emergere nella giurisprudenza, che deve confrontarsi con un numero sempre maggiore di controversie ad oggetto informatico; in particolare in ambito civilistico si segnalano le numerose sentenze che assimilano il software alle opere letterarie, applicando ad esso la tutela del diritto dautore. Il primo testo normativo specificamente dedicato al diritto dellinformatica, impro ntato su temi di hardware, risale alla fine degli anni 80. Allinizio degli anni 90, invece, lattenzione del legislatore passa dallhardware al software: in attuazione di una direttiva dellUnione Europea relativa alla tutela giuridica dei programmi per elaboratore, il d.lgs. 518/1.991 prevede espressamente che il software sia protetto mediante diritto dautore, rafforzando tale tutela con previsioni specifiche. Dopo questo decreto, gli interventi legislativi nel campo del diritto dellinformatica si mol tiplicano, tutti per lo pi posti in essere in adempimento di direttive europee. Nel 1.993 si ha la creazione di una sorta di diritto penale dellinformatica: la legge introduce nel Codice Penale alcune fattispecie specificatamente connesse con il mondo dellinformatica. Nel 1.996 lItalia, uniformandosi alle pi esigenti legislazioni europee, si dota di una penetrante disciplina sulla tutela dei dati (ricordiamo che il Codice della privacy del 2.003). Nel 1.997, infine, il nostro legislatore, anticipando la normativa europea, disciplina limpiego della firma digitale. Negli ultimi anni, a partire dal nuovo millennio, si assistito ad unulteriore accelerazione degli interventi legislativi nel campo del diritto dellinformatica, sia attraverso leggi e decreti del governo, sia attraverso numerose disposizioni regolamentari e provvedimenti di autorit indipendenti (il Garante della tutela dei dati, lAutorit delle telecomunicazioni, ecc). Il diritto dellinformatica si segnala, forse pi di ogni altro sett ore del diritto, per la sua dimensione globale: sembra che il diritto possa bilanciare con efficacia i diversi interessi in conflitto nella societ dellinformazione solo se esso preveda soluzioni comuni (si pensi, ad esempio, alla possibilit che dati personali o contenuti illeciti siano trasferiti in Paesi dove manca

una efficace disciplina giuridica). Quasi tutti gli interventi legislativi nel diritto dellinformatica nascono dalliniziati va del legislatore europeo, e si tratta di interventi unificati da un obbiettivo politico-legislativo unitario, quello dello sviluppo della societ dellinformazione. Temi di diritto dellinformatica sono oggi trattati anche ai livelli pi alti delle relazioni internazionali: per esempio, la tutela del software e dei contenuti digitali ha costituito il tema principale delle pi recenti trattative presso lOrganizzazione Mondiale del Commercio (World Trade Organisation, WTO).

CAPITOLO 2: Il calcolatore
Il protagonista della scena dellinformatica, lartefice dellinformatizzazione, il calcolatore digitale o calcolatore tout court (detto computer o elaboratore), la macchina dedicata allelaborazione automatica delle informazioni digitali . Le principali caratteristiche del calcolatore sono: - compiere operazioni matematiche ad altissima velocit. - registrare enormi quantit di informazioni in spazi ridottissimi e ritrovare i dati richiesti con unincredibile rapidit. - trasmettere informazioni a grandi distanze e con enorme velocit. - governare dispositivi meccanici che compiono operazioni di precisione (i robot). - eseguire programmi che svolgono funzioni molteplici (elaborazione di testi, gestione di archivi, calcolo, gestione della contabilit, ecc).

1) Macchine e algoritmi per elaborare informazione


Il funzionamento del calcolatore dovuto alla combinazione di due componenti: - lhardware: insieme dei dispositivi materiali (elettronici, meccanici, ottici) che elaborano linformazione. - il software: insieme dei programmi informatici che governano il funzionamento del calcolatore, indicando in modo preciso ed univoco le elaborazioni da eseguire. Possiamo quindi trovare le radici dellinformatica e del calcolatore in due linee di ricerca convergenti: - il tentativo di realizzare macchine capaci di elaborare informazioni. - il tentativo di definire procedimenti precisi ed univoci, cio algoritmi, per elaborare informazioni. Lidea di utilizzare dispositivi materiali per elaborare informazioni non nuova: labaco (il pallottoliere) risale a circa 7.000 anni fa. Anche lidea di definire metodi precisi per elaborare informazioni ha una storia antica: il nome algoritmo deriva dal matematico persiano Mohammed al-Khwarizmi, vissuto nel 9 secolo, i cui scritti contribuirono ad introdurre in Europa i numeri decimali e lalgebra. In particolare egli indic le regole precise, da seguire passo dopo passo, che usiamo fin dalle scuole elementari per aggiungere, sottrarre, moltiplicare e dividere i numeri decimali. Si tratta di procedure, algoritmi, che ci sembrano ovvie e banali ma che rappresentano unenorme progresso rispetto alle precedenti tecniche per eseguire calcoli numerici. Blaise Pascal costru, nel 17 secolo, la Pascalina, una macchina per compiere addizioni e sottrazioni. Gottfried Leibniz perfezion la Pascalina, costruendo un apparecchio in grado di eseguire anche le moltiplicazioni. Tanto la Pascalina quanto lapparecchio di Leibniz erano calcolatrici automatiche ma non elettroniche: esse funzionavano grazie ad ingranaggi e ruote dentate, non mediante il passaggio di elettroni. Queste macchine potevano eseguire di volta in volta solo una delle operazioni di cui erano capaci (per esempio una sola addizione); quindi esse non erano programmabili, perch non potevano eseguire automaticamente unintera combinazione di operazioni sulla base di indicazioni fornite in anticipo. Per trovare lelemento della programmabilit si deve uscire dallambito della matematica e della filosofia, e ci si deve sp ostare in ambito tecnologico ed industriale. Allinizio dell800 lartigiano francese Joseph Marie Jacquard invent un nuovo tipo di telaio, che era in grado di tessere da solo, cio automaticamente, diversi tipi di trame. A questo tipo di telaio si sarebbe ispirato il matematico inglese Charles Bobbage: egli concep il Motore Analitico, una macchina dotata di competenza generale, capace di eseguire qualsiasi calcolo. La peculiarit del Motore Analitico era la programmabilit: oltre ad essere in grado di compiere operazioni aritmetiche di base, esso era in grado di eseguire qualsiasi combinazione di tali operazioni. La combinazione delle operazioni da eseguire (il programma) si specificava mediante istruzioni riportate su schede perforate. Le istruzioni indicate nelle schede venivano registrate nella memoria interna al Motore Analitico, che avrebbe preceduto poi alla loro esecuzione, restituendone il risultato. Nel Motore Analitico l organo di calcolo (che effettuava le operazioni aritmetiche) e lorgano di memoria (che registrava istruzioni e dati) erano affiancati da un organo di controllo (che stabiliva quale dovesse essere la prossima istruzione da eseguire, sulla base delle istruzioni gi eseguite e dei risultati ottenuti). Tuttavia, Bobbage non riusc a superare alcuni problemi tecnici ed il suo Motore Analitico rimase solo un progetto. Tra gli antenati del moderno calcolatore si suole menzionare anche la macchina calcolatrice, anchessa meccanica e basata su schede perforate, costruita dallingegnere americano Herman Hollerith ed utilizzata per i calcoli attinenti al censimento americano del 1.890. Lo stesso Hollerith sar poi il fondatore di IBM (International Business Machines). Negli anni 30 si ottennero alcuni risultati fondamentali nel campo della teoria degli algoritmi. Inoltre si realizz la possibilit di costruire macchine universali, cio capaci di elaborare qualsiasi algoritmo espresso in un programma per quella macchina: tali macchine eseguono una procedura esattamente definita ed astratta, cio non finalizzata ad un risultato partico-

lare, che consiste nelleseguire qualsiasi programma (descrizione di algoritmo) che sia fornito alla macchina, applicandolo ai dati di input. I moderni calcolatori devono la loro universalit alla loro capacit di accogliere i dati ed anche i programmi. Per ritrovare i primi calcolatori moderni, digitali ed elettronici, dobbiamo spostarci al tempo della seconda guerra mondiale, quando i primi calcolatori furono inventati nei Paesi belligeranti. In Inghilterra un gruppo di matematici ed ingegneri, guidato da Alan Turing, realizz nel 1.941 il Colossus, un calcolatore elettronico ma non programmabile, che fu impiegato con successo nel decifrare i codici utilizzati per la comunicazione dellesercito tedesco. In Germania, Konrad Zuse, tra la fine degli anni 30 e linizio degli anni 40, realizz il primo calcolatore programmabile basato sul sistema binario (ma la sua invenzione fu sottovaluta ed il governo non ne seppe cogliere limportanza). Allinizio degli anni 50 avvenne il salto tecnologico che consent di passare ai primi veri calcolatori moderni: si tratta della registrazione del programma stesso nella memoria del calcolatore . Ci consentiva di accedere con rapidit alle singole istruzioni da eseguire, e soprattutto di compiere salti condizionati (cio eseguire o saltare certe istruzioni del programma sulla base dei risultati precedentemente ottenuti). I calcolatori di oggi sono costruiti sulla base del modello della macchina di von Neumann (matematico statunitense), con il programma memorizzato internamente al calcolatore. Secondo questo modello lunit di controllo e lunit di calcolo costituiscono lunit centrale di elaborazione (central processing unit, CPU), detta anche processore. Esse operano in modo collegato: lunit di controllo identifica listruzione da eseguire ed i relativi dati, mentre lunit di calcolo esegue loperazione. Dati ed istruzioni vengono prelevati dalla memoria centrale, nella quale vengono trasferiti anche i risultati delle elaborazioni. La memoria centrale un dispositivo di memorizzazione ed alta velocit di lettura e scrittura, tipicamente volatile (si cancella quando il calcolatore si spegne). Essa deve essere distinta dalle memorie di massa (dette anche secondarie o esterne o periferiche), consistenti in dispositivi, solitamente dischi magnetici od ottici, capaci di contenere permanentemente grandi quantit di informazioni. Affinch le informazioni contenute nelle memorie di massa (sia i dati che i programmi) possano essere elaborate dallunit centrale di elaborazione, esse devono essere tras ferite, cio riprodotte, nella memoria centrale, che la sola direttamente accessibile allunit centrale di elaborazione. Ci significa che lesecuzione di un software residente sul disco di un computer ne comporta la duplicazione, poich il software deve essere copiato nella memoria centrale. Lunit centrale di elaborazione di un calcolatore pu considerarsi costituita da una complessa combinazione di interruttori, azionati dal calcolatore stesso, che cambiano posizione nel corso dellelaborazione, la sciando passare la corrente elettrica o interrompendone il flusso. Per realizzare e connettere tali interruttori sono state utilizzate, nel corso degli anni, tecnologie sempre pi avanzate, che hanno consentito di ridurre le dimensioni dei calcolatori e di aumentarne la potenza: - i relay (usati negli esperimenti degli anni 30): apparecchiature elettromagnetiche che, sotto leffetto della corrente elettrica, muovono una linguetta metallica attivando un contatto. - le valvole termoioniche (usate nei primi calcolatori elettronici). - i transistor: dispositivi formati da materiali semiconduttori che lasciano passare la corrente elettrica se magnetizzati in certi modi. - i circuiti integrati inseriti in un chip (frammento) di silicio: consistono in migliaia di transistor di piccolissime dimensioni combinati in circuiti elettrici miniaturizzati. In un circuito integrato possono essere riunite, a costi molto minori, funzioni in precedenza svolte da molte componenti elettroniche distinte. La grande invenzione degli anni 70 fu il microprocessore: un circuito integrato che comprende lunit centrale di elaborazione rea lizzata su un unico chip. Gli anni seguenti hanno visto una rapidissima crescita sia nel numero di transistor inclusi in un microprocessore, sia nella velocit dei microprocessori stessi. Questo ha consentito la realizzazione di microcalcolatori (calcolatori la cui unit centrale di elaborazione costituita da un microprocessore) sempre pi potenti e sempre meno costosi. I microcalcolatori si sono presto diffusi negli ambienti di lavoro e nelle case, divenendo calcolatori personali (personal computer, PC), destinati alluso individuale. Essi hanno consentito lingresso dellinformatica in tutti gli ambiti della vita individuale e sociale e, in particolare, nelle attivit giuridiche (uffici pubblici, tribunali, studi legali e notarili). Il microprocessore, grazie alla sua estrema miniaturizzazione, ha potuto introdursi nei pi svariati macchinari e dispositivi tecnologici (automobile, lavatrice, telefonino, carta di credito, ecc). I microprocessori hanno avuto una straordinaria rapidit di sviluppo. Lenunciazione pi famosa al riguardo la legge di Moore, formulata nel 1.964 da Gordon E. Moore, co-fondatore dellIntel, limpresa che oggi domina il mercato dei microprocessori: la potenza dei calcolatori raddoppia circa ogni 2 anni . Anche se questa affermazione pi di una vera e propria legge rappresenta unindicazione sulla tendenza,fino ad oggi stata confermata. Si discute sulla continuazione di tale crescita, che dovr scontrarsi, prima o poi, con i limiti fisici della miniaturizzazione (ad un certo punto si raggiungeranno dimensioni tanto piccole da rendere impossibile la realizzazione o il funzionamento dei circuiti). Resta aperta peraltro la possibilit che una crescita ulteriore sia consentita dal passaggio a tecnologie completamente diverse da quelle attuali. Laltra faccia dello sviluppo tecnologico nel settore dei microproce ssori la seconda legge di Moore: il costo dello sviluppo di un circuito integrato raddoppia ad ogni nuova generazione di microprocessori. Questa legge spiega perch pochissime imprese siano in grado di progettare nuovi microprocessori per microcalcolatore: non pi di 3 o 4 imprese dominano il mercato dei microprocessori ed una di esse, lIntel, ne copre circa il 90%. Lo sviluppo delle prestazioni dei microcalcolatori ha determinato una profonda trasformazione nellhardware e nellindustria informatica: i microcalcolatori hanno sostituito i calcolatori di ma g-

giori dimensioni, e di conseguenza i tradizionali produttori di hardware, che un tempo dominavano il mercato dellinformatica grazie alla produzione di grandi elaboratori, sono stati affiancati e spesso sostituiti da nuove impr ese, capaci di produrre microcalcolatori. Il rapporto tra i calcolatori: Modello dellinformatica individuale. Linvenzione del microprocessore ha consentito la nascita del personal computer (PC), il microcalcolatore destinato alluso da parte del singolo individuo, nella sua attivit professionale o domest ica. I primi PC non erano collegati in rete, chi ne comprava uno lo faceva per un uso proprio. Modello della rete di calcolatori. Il PC dava avvio allera dellinformatica individuale, caratterizzata dallinterazione esclusiva tra il singolo ed il suo calcolatore personale. Prima dellavvento del PC si poteva accedere a risorse informatiche solo collegandosi attraverso terminali a grandi calcolatori, i cosiddetti mainframe, condivisi da pi utenti e gestiti da un centro di calcolo: vi era la possibilit di accedere a risorse condivise e comunicare con gli altri utenti del centro di calcolo. Grazie al PC, invece, ogni individuo poteva disporre in piena autonomia delle proprie risorse informatiche, senza la possibilit di condividere risorse e comunicare con altri. Negli anni successivi lisolamento dei PC sarebbe stato superato, il micr ocalcolatore si sarebbe dotato di dispositivi di comunicazione in modo di potersi collegare ad altri calcolatori. Ciascun calcolatore ha conservato la propria capacit di elaborazione autonoma e ciascun utente ne ha mantenuto il controllo, ma inoltre divenuto possibile connettere i singoli calcolatori per comunicare e condividere risorse. In questo modo si sono realizzate, in una nuova sintesi, sia le esigenze di integrazione e collegamento, sia le esigenze di autonomia. Modello client-server. Lo sviluppo delle reti informatiche stato favorito dalla crescita accelerata delle prestazioni dei microcalcolatori e dallesigenza di fare comunicare i computer. Accanto ai microcalcolatori destinati allutilizzo individuale, i PC, si sono quindi diffusi microcalcolatori destinati a fornire servizi di rete, i server: il PC diventa quindi un cliente (client) che si rivolge ad un servitore (server) quando necessita di tali servizi (servizi di rete, dati, programmi, posta elettronica, pagine web, ecc). I calcolatori dedicati al ruolo di server non si distinguono essenzialmente dai PC per quanto attiene allarchitettura informatica, ma offrono pi elevate prestazioni per quanto attiene alla potenza di calcolo, alla capacit di memoria ed alla sicurezza. Grazie al collegamento dei diversi calcolatori in reti il singolo utente, dal proprio calcolatore, pu accedere a risorse disponibili presso altri calcolatori. Ci non significa tuttavia che il singolo utente debba essere consapevole di entrare in contatto con certi calcolatori. Ovviamente ogni processo che lutente attiva dovr essere svolto da uno o pi calcolatori determinati, ma di ci lutente non si occupa: la rete informatica gli si presenta come un ambiente virtuale, dove sono presenti entit software che mettono a disposizione diverse funzioni e servizi. Chi richiede tali servizi (ad esempio, lestrazione di informazioni mediante un motore di ricerca o lacquisto di un bene da un sito) n on ha in genere alcuna consapevolezza di quali sono la natura, la configurazione e la collocazione dei calcolatori che svolgono le elaborazioni necessarie a rispondere alle sue richieste. Chi usa il computer interessato solo alla possibilit di attivare le funzioni di cui ha bisogno: larchitettura nella quale egli opera non larchitettura fisica della rete di calcolatori che compiono le elaborazioni, ma larchitettura dello spazio virtuale. Modello peer-to-peer. Il modello client-server ha trovato la propria antitesi nel modello peer-to-peer (da pari a pari), frequentemente abbreviato in p2p. Nelle reti peer-to-peer viene meno la distinzione tra server (fornitore di servizi) e client (utilizzatore di servizi). Ogni calcolatore che partecipa alla rete, detto nodo, svolte entrambe le funzioni: mette a disposizione degli altri calcolatori una porzione delle proprie risorse (software, dati, spazio disco, potenza di calcolo, trasmissione di dati, ecc) ed utilizza le risorse messe a disposizione dagli altri calcolatori, cio offre ed acquista servizi, quindi ogni computer sia client che server (ad esempio skype). Il modello peer-to-peer ha trovato diverse applicazioni, tuttavia le pi importanti realizzazioni si trovano nellambito della condivisione di file (file-sharing: i calcolatori di una rete peer-to-peer condividono i file residenti sulle proprie memorie). I sistemi peer-to-peer (ed in particolare il loro utilizzo per il file-sharing) sono stati al centro di intense discussioni. Tra le ragioni a soste gno di tali sistemi c il fatto che essi consentono a tutti, anche con r isorse limitate, di partecipare attivamente ad Internet, ed alcuni hanno abbracciato tali sistemi anche per ragioni politiche, i peer-to-peer sono infatti basati su unorganizzazione egualitaria e sono ispirati allidea della reciprocit indiretta. Altri invece si sono opposti al modello peer-to-peer, sulla base di ragioni sia tecniche che giuridico-politiche: dal punto di vista tecnico si osservato che il file-sharing comporta lo spostamenti di grandi quantit di dati e quindi pu condurre al sovraccarico delle reti informatiche, mentre dal punto di vista politico-giuridico c da considerare che molti documenti delle reti peer -topeer sono protetti dal diritto dautore e la loro circolazione avviene in violazione dei diritti di propriet intellettuale. Diverse tesi al riguardo di come risolvere gli inconvenienti del peer-to-peer si oppongono. Accanto a chi richiede lapplicazione di sanzioni rigorose tali da scoraggiare ogni uso non autorizzato di opere protette dal diritto dautore, vi sono quanti ritengono che anzich adottare soluzioni repressive (perch impediscono nuove efficientissime forme di condivisone della conoscenza) bisognerebbe abbandonare o rivedere profondamente il dir itto dautore, privo ormai di una valida funzione economico sociale, almeno nella sua attuale conformazione giuridica. Altri ancora ritengono possibili soluzioni di compromesso, quali abbonamenti a modico prezzo, che rendano lecita la condivisione di opere protette in reti peer-to-peer, facendo salvi tuttavia gli interessi economici degli autori e dellindustria culturale. Oggi continuano ad esistere sia modelli di client-server che modelli di peer-to-peer. Modello cloud computing. La possibilit di realizzare architetture virtuali ha determinato, negli ultimissimi anni, una rinnovata tendenza verso la centralizzazione. Mentre negli anni 90 si era assistito allo snellimento delle apparecchiature hardware, cio la sostituzione dei macrocalcolatori con microcalcolatori, i primi anni del 2.000 sono stati caratterizzati dal ritorno dei macrocalcolatori nei centri di calcolo pi avanzati. I nuovi macrocalcolatori sono macchine di enorme potenza, in grado di sostituire decine di server di piccola o media taglia, i quali vengono virtualizzati: significa che i piccoli o medi

server non esistono pi come entit reali distinte (macchinari elettronici fisici), ma hanno invece unesistenza meramente virtuale che risulta dai processi eseguiti dal macrocalcolatore. Questu ltimo in grado di simulare contemporaneamente il funzionamento di molteplici microcalcolatori, eseguendo tutti i programmi che sarebbero stati eseguiti da questi. Lo sviluppo delle tecnologie per la virtualizzazione e la migliorata velocit della rete hanno determinato unevoluzione dei sistemi informatici che va sotto il nome di cloud computing, cio, letteralmente, di elaborazione della nuvola (cloud). Con il termine nuvola si fa riferimento alle risorse informatiche disponibili su Internet, risorse che nel loro insieme appaiono allutente quali aspetti di una realt unitaria, priva di dimensione fisica, a cui egli pu accedere ovunque si trovi. Nel modello del cloud computing lutente rinuncia al possesso di proprie risorse hardware e software (al di l della strumentazione minima necessaria per accedere alla rete), ed accede alle infrastrutture hardware (potenza di calcolo, spazio di memoria) ed alle applicazioni software acquisendole attraverso Internet, secondo i propri bisogni. Gli utenti evitano quindi di acquistare e mantenere apparecchiature costose. Nel modello del cloud computing trova piena applicazione lidea del passaggio dalla propriet ai diritti di accesso, quale modello organizzativo e giuridico volto a governare lutilizzo delle risorse . La fornitura di servizi di cloud computing concentrata in poche imprese, le quali offrono unampia gamma di funzioni ai propri clienti, grazie a grandi infrastrutture di calcolo distribuite. Gli utenti non sanno dove siano collocati i sistemi che essi utilizzano: la nuova di un grosso fornitore di cloud computing (Amazon, Google, ecc) il risultato dellattivit di numerosi data center (centri di elaborazione dati), ciascuno dei quali pu consistere in centinaia o migliaia di calcolatori ( server farm, fattorie di server). Oltre a poter fruire di specifiche applicazioni informatiche gli utenti possono acquistare dal fornitore di servizi di cloud computing spazi di memoria o computer virtuali: nel primo caso lutente acquista la disponibilit di una certa quantit di spazio disco (che risieder su uno o pi dei computer della nuvola) nel quale registrare i propri dati, mentre nel secondo caso lutente acquista un computer virtuale (risultante dallattivit di uno o pi server della nuvola) da utilizzare pe r le proprie elaborazioni. Lutente potr accedere ai propri dati o al proprio computer virtuale semplicemente collegandosi ad Internet, ovunque egli si trovi. Accanto ai notevoli vantaggi, non mancano le preoccupazioni collegate alla diffusione del modello cloud computing: - rischio delloligopolio di poche imprese che offrono questo tipo di servizi (in gran parte statunitensi) . - rischio per la privacy di ciascuno, di fronte allenorme quantit di dati presenti nellinfrastruttura del fornitore. - perdita del pieno controllo sul proprio sistema di elaborazione da parte degli utenti, in quanto il fornitore del servizio viene a disporre di un potere di fatto (il controllo tecnico sulle macchine e sui programmi) che potrebbe usare anche per limitare lattivit degli utenti o indirizzarla verso i propri interessi, compromettendo la libert dei singoli e la creativit di Internet. I profili giuridici del cloud computing sono oggi ancora largamente inesplorati, ma sembra certo che unadeguata disciplina sia necessaria affinch si possa godere dei vantaggi offerti da questa nuova tecnologia, evitando i rischi con essa connessi. Ricordiamo che oggi i computer operano interagendo sempre di pi con l ambiente in modo automatico, cio facendolo in modo diretto e senza che vi sia la necessit di un intervento umano come mediazione.

2) I calcolatori quali macchine elettroniche digitali


La storia del moderno calcolatore stata caratterizzata da uno sviluppo rapidissimo, ma nonostante ci le sue caratteristiche principali sono rimaste fondamentalmente immutate. I moderni calcolatori sono: - digitali: elaborano informazioni espresse in numeri, in particolare in numeri binari. - elettronici: sfruttano il comportamento degli elettroni (le particelle atomiche che ruotano attorno al nucleo dellatomo), i quali si spostano sui circuiti elettrici e determinano la creazione di campi magnetici. - programmabili: operano seguendo le indicazioni di programmi informatici, i quali esprimono, in linguaggi comprensibili da parte del calcolatore, degli algoritmi, cio precise istruzioni delle elaborazioni da eseguire. - universali: ogni calcolatore in grado di eseguire, in linea di principio (cio prescindendo dalle limitazioni del tempo e della memoria di cui dispone), ogni algoritmo. Uno dei fenomeni pi importanti del nostro tempo il passaggio dalla tecnologia analogica alla tecnologia digitale. Si confrontino, per esempio, un vecchio registratore a nastro di cassette ed un moderno masterizzatore di CD. Il registratore dotato di una testina che percorre il nastro realizzando su di esso una struttura fisica, cio una traccia, le cui caratteristiche corrispondono alle caratteristiche delle onde sonore riprodotte, quelle rilevate dal microfono o da una testina di lettura, per cui si pu dire che la traccia analoga alle onde sonore. Il passaggio opposto si compie quando a partire dalla traccia si riproduce il suono corrispondente, e le onde magnetizzate sono trasformate in onde sonore analogiche. La traccia analogica continua, cio essa non procede per gradini. Il masterizzatore di CD, invece, registra il suono in una struttura che non assomiglia al fenomeno sonoro, il suono invece espresso mediante una sequenza di numeri interi. A partire da questi numeri, il lettore (con laiuto delle casse) riproduce il suono corrispondente. Pertanto, la registrazione su CD comporta la digitalizzazione, ossia la trasformazione di grandezze continue (le caratteristiche fisiche del suono) in quantit digitali (numeri interi distinti). In sintesi: - la tecnologia analogica riproduce un certo fenomeno sotto forma di una traccia che riproduce il funzionamento del fenomeno originario, cio riproduce il fenomeno originario in modo analogo ad esso. - la tecnologia digitale rappresenta il fenomeno originario attraverso una sequenza di numeri e poi lo riproduce provvedendo alla lettura di tale sequenza.

La rappresentazione digitale sembra pi imprecisa e rozza di quella analogica, tuttavia possibile offrire una rappresentazione sufficientemente precisa per i fini che si perseguono (quando unimmagine raffigurata sullo schermo di un calcolat ore ci avviene mediante la composizione di puntini distinti, ciascuno dei quali ha un preciso colore, e tali puntini sono talmente piccoli che il nostro occhio non riesce a percepirli singolarmente, cogliamo solamente il risultato complessivo della loro combinazione). La rappresentazione digitale offre tre vantaggi importanti rispetto a quella analogica: - riproducibile con assoluta precisione (la riproduzione in tutto e per tutto identica alloriginale). Ogni nuova riproduzione di una rappresentazione analogica comporta una perdita parziale dellinformazione originaria: anche i pi leggeri difetti del meccanismo di riproduzione, le pi leggere variazioni nelle condizioni in cui la riproduzione ha luogo, comportano differenze della copia rispetto alloriginale, differenze che si sommano di riproduzione in r iproduzione. Tale perdita non avviene invece nella riproduzione di rappresentazioni digitali, poich qui basta riprodurre gli stessi numeri per avere una copia perfetta. - non si danneggia con il passare del tempo (per via del motivo visto sopra). - direttamente elaborabile dal calcolatore. In particolare, il sistema di rappresentazione digitale adottato nellelaborazione automatica dellinformazione il sistema binario. Si tratta di un sistema che trova la sua giustificazione nella facilit del suo uso per memorizzare ed elaborare le informazioni mediante sistemi informatici. Il sistema di rappresentazione dei numeri da noi comunemente adottato il sistema decimale, che utilizza le dieci cifre (0,1,2,3,4,5,6,7,8,9). Il sistema decimale un sistema posizionale: ogni cifra di un numero rappresenta un valore che dipende dalla posizione della cifra stessa, posizione calcolata a partire dalla fine del numero ed iniziando a contare da zero (ogni posizione india una potenza del 10). Grazie alla sua natura posizionale il sistema decimale consente di rappresentare qualsiasi numero utilizzando sempre gli stessi dieci simboli numerici. Anche il sistema binario un sistema posizionale, il quale, a differenza del sistema decimale, usa solamente due cifre (0 e 1) ed ogni posizione esprime una potenza del 2 (la cifra nella posizione 0, lultima, indica sempre le unit). Perch il sistema binario usato dai computer? Non vi sono ragioni di principio che vietino di adottare nei calcolatori il sistema decimale, e quindi di rappresentare anche allinterno dei calcolatori linformazione mediante strutture fisiche dotate di dieci posizioni possibili. Tuttavia, nei calcolatori, molto pi facile utilizzare componenti fisiche (elettroniche) dotate della capacit di assumere due sole posizioni: un interruttore pu essere acceso (lascia passare la corrente) o spento (interrompe il flusso di corrente). Per queste ragioni nei moderni calcolatori le informazioni non sono rappresentate mediante cifre decimali, ma mediante cifre binarie. La singola cifra binaria detta bit, ed lunit minima dellinformazione registrata od elaborata da un calcolatore: il bit pu assumere uno dei due possibili valori del sistema binario, la cifra 0 o la cifra 1. Una sequenza di 8 bit prende il nome di byte. Il byte, a sua volta, ha i seguenti multipli: il kilobyte o KB (circa 1.000 bytes), il megabyte o MB (circa 1.000 KB), il gigabyte o GB (circa 1.000 MB), il terabyte o TB (circa 1.000 GB). Nel sistema binario la rappresentazione di un valore numerico richiede un numero di posizioni superiore a quello richiesto nel sistema decimale, per questo motivo la numerazione binaria non adatta alluomo, che non in grado di memorizzare agevolmente lunghe s equenze di cifre. Il calcolatore invece non ha tali problemi, essendo dotato di una grande capacit di memoria. Il calcolatore stesso si occupa di tradurre i numeri dalla rappresentazione decimale a quella binaria quando riceve un input numerico dalluomo, e dalla rappresentazione binaria a quella decimale quando trasmette un output numerico alluomo. Attraverso le cifre binarie possibile rappresentare qualsiasi oggetto (numeri interi, numeri decimali, simboli di ogni tipo come lettere dellalfabeto, simboli matematici e logici, ecc): basta stabilire precise corrispondenze tra i numeri binar i e gli oggetti da rappresentare. I numeri binari consentono di rappresentare non solo caratteri, ma anche altri tipi dinformazione: per esempio unimmagine in bianco e nero pu essere rappresentata mediante una mappa di bit (bitmap), ciascuno dei quali corrisponde ad un punto di quellimmagine, cos se il punto nero il bit 1 e se il punto bianco il bit 0 (rappresentazioni pi complesse consentono di riprodurre immagini a colori). Anche i suoni possono essere rappresentati in forma binaria. Un ulteriore vantaggio del sistema binario costituito dal suo parallelismo con la logica: come nel sistema binario una cifra pu assumere due soli possibili valori tra loro alternativi (0 o 1), cos nella logica una proposizione pu assumere due soli valori tra loro alternativi (essere vera o essere falsa). possibile stabilire una perfetta corrispondenza tra le cifre binarie e le proposizioni, se si conviene di fare corrispondere la verit con la cifra 1 (anzich dire che una proposizione vera, diciamo che essa vale 1) e la falsit con la cifra 0 (anzich dire che una proposizione falsa, diciamo che essa vale 0). A questo proposito importante considerare gli studi di George Boole (1.815 - 1.864). Egli not che le combinazioni tra le proposizioni obbediscono a regole ben definite, di cui si pu dare una formulazione precisa, regole simili a quelle che governano le operazioni dellaritmetica. Tali regole determinano il funzionamento d ei connettori logici, le congiunzioni che servono a collegare le singole proposizioni in strutture pi complesse (i connettivi principali corrispondono alle congiunzioni italiane e, o, non, cio and, or, not). Come fatto linterno di un computer? Abbiamo detto che certe espressioni che usiamo nel linguaggio (e, o, non) hanno un certo significato e rispondono a regole logiche ben precise (le regole risultanti dagli studi di Boole). Claude Shannon ebbe lidea di realizzare dei dispositivi elettronici operanti proprio come i connettori logici, detti porte logiche (esse sono in grado di realizzare operazioni logiche tra diverse variabili che possono assumere solamente due valori, vero o falso cio 1 o 0). Le porte logiche possono essere combinate in reti logiche capaci di svolgere tutte le operazioni logicomatematiche (anche complesse) di cui abbia bisogno un calcolatore universale. Una rete logica complessa pu costituire, in

particolare, il microprocessore di un calcolatore (un microprocessore contiene milioni di porte logiche, cio di transistor, tra loro collegate): milioni di porte logiche vengono combinate su una piastrina di silicio. Reti logiche specifiche possono rappresentare unalternativa rispetto allo sviluppo di programmi software: una medesima elaborazione (i medesimi output ottenuti dai medesimi input) si pu ottenere sia attraverso lesecuzione di un programma da parte di un calcolatore universale, quindi attraverso un software, sia attraverso una rete logica, quindi attraverso una componente hardware. Lelaborazione effettuata mediante una rete logica sar pi veloce di quella effettuata mediante un calcol atore universale guidato da un software, ma lo sviluppo della rete logica comporter costi maggiori rispetto allo sviluppo del software e la rete non sar modificabile. Da ultimo, ricordiamo che lunit centrale di elaborazione (il processore) del calcolatore pu essere utilmente utilizz ata solo se integrata da numerosi dispositivi ausiliari: - dispositivi di input e output: consentono al calcolatore di interagire con lutente, ricevendo informazioni o com unicandole allesterno (schermo, tastiera, mouse, stampante, scanner, microfono, alt oparlanti, scheda video o audio, videocamera, ecc). - dispositivi di memorizzazione: sono le memorie di massa che consentono di registrare e conservare permanentemente dati e programmi. - dispositivi di connessione: consentono al calcolatore di interagire con altri sistemi informatici (modem, scheda di rete, ecc).

CAPITOLO 3: Algoritmi e programmi


Linformazione non solo la materia prima (input) ed il risultato (output) dellelaborazione automatica: linformazione specifica anche lo svolgimento del processo della propria elaborazione , essa governa la macchina che la produce. Le indicazioni impartite ad un calcolatore prendono il nome di algoritmo, il modo in cui queste indicazioni sono formulate il programma.

1) Lo spirito oggettivo della societ dellinformazione


Negli anni precedenti i concetti, una volta espressi in forma linguistica, potevano rivivere solamente grazie alla mediazione della mente umana, che coglieva e ricreava i significati espressi in forma linguistica. Da soli, senza la mediazione delluomo, i testi erano inerti e privi di ogni operativit. Nella societ dellinformazione questo non succede pi. Nella societ dellinformazione i testi possono vivere e diventare operanti senza la mediazione delluomo, guidando il calcolatore. Non tutti i contenuti possono acquisire questa forma di vita, ma solo quelli che possano costituire dati o programmi per calcolatore. I programmi per calcolatore sono creazione delluomo, sono testi simili a quelli ch e usiamo per comunicare tra di noi, formulati in una lingua le cui espressioni hanno significato e possono essere comprese dalluomo. Questi testi, tuttavia , non sono destinati solo alla comunicazione umana, ma hanno unulteriore modalit di utilizzazione: sono destinati a governare il funzionamento del calcolatore. La possibilit di creare testi suscettibili di esecuzione automatica rappresenta un vero salto nellevoluzione culturale: il contenuto concettuale si separa dalluomo e diventa capace di autonom a operativit. Lesecuzione del software da parte del calcolatore realizza processi computazionali, che possono dare vita ad attivit co ntrollate dal calcolatore stesso (ad esempio, il funzionamento di una lavatrice) e a fenomeni immateriali della realt virtuale (ad esempio, immagini che appaiono sullo schermo). Ci comporta un aspetto duplice: - un grande potenziamento delle capacit di creazione delluomo. Le idee delluomo, una volta tradotte in un lingua ggio comprensibile ed eseguibile da parte del calcolatore, possono trovare realizzazione operativa ed impiego in realt virtuali, senza unulteriore intervento umano e senza la necessit di input materiali. - lalienazione e lestraneazione delluomo , determinata dalla possibilit di creare realt virtuali mediante testi eseguibili. Infatti ciascuno di noi sperimenta la realt virtuale, risultante dal funzionamento dei software, come un ambito non modificabile con il proprio intervento individuale.

2) Programmi e algoritmi
Lhardware del calcolatore un esecutore generale di algoritmi: esso in grado di compiere qualsiasi operazione che conduca da certi input a certi output, una volta fornito di un algoritmo che specifichi come compiere tale trasformazione. Un algoritmo una sequenza finita di istruzioni ripetibili non ambigue, una sequenza che, se eseguita con determinati dati di ingresso (input) produce in uscita dei risultati (output), risolvendo una classe di problemi in un tempo finito (lalgoritmo una procedura chiara ed univoca, tanto precisa da poter essere attuata da un esecutore automatico senza che ad esso debbano essere fornite ulteriori indicazioni). Gli algoritmi per computer non riguardano attivit materiali ma servono per lelaborazione dellinformazione, ed essi indicano come ottenere certi output da certi input. Lalgoritmo dotato delle seguenti propriet: - finitezza: lalgoritmo deve portare alla soluzione in un numero finito di passi. - generalit: lalgoritmo non risolve un solo problema, ma una classe di problemi.

non ambiguit: le istruzioni indicate sono specificate univocamente, cosicch la loro esecuzione avviene sempre nello stesso modo indipendentemente dallesecutore. - ripetibilit: dagli stessi dadi di input lalgoritmo deve fornire gli stessi dati di output. Gli algoritmi per calcolatore devono essere espressi in linguaggi comprensibili per il calcolatore ( linguaggi di programmazione), diversi da quelli usati nella comunicazione tra persone. Il programmatore, tuttavia, pu trovare conveniente esprimere un algoritmo nel linguaggio naturale, prima di tradurlo in un linguaggio di programmazione. La pseudocodifica consiste nel formulare gli algoritmi usando il linguaggio naturale (la pseudocodifica non ancora un programma per calcolatore). Gli algoritmi presuppongono alcune competenze nel calcolatore esecutore: - le competenze atomiche, sono quelle che il calcolatore direttamente in grado di svolgere con un unico atto, senza la necessit di scinderne lattuazione in atti pi semplici. - le competenze molecolari, sono quelle che il calcolatore pu svolgere in seguito allacquisizione di un nuovo algoritmo, risultando dalla combinazione di pi atti secondo le istruzioni contenute in un determinato algoritmo (lacquisizione di algoritmi comporta quindi un aumento delle competenze dellese cutore). importante distinguere tra: - lalgoritmo, cio la specificazione delle elaborazioni da compiere. - il processo di esecuzione dellalgoritmo, cio lattivit mediante la quale lesecutore svolge lalgoritmo . In generale non c rapporto tra la lunghezza dellalgoritmo e la lunghezza del processo della sua esecuzione, nel senso che anche un algoritmo molto corto pu dare luogo ad elaborazioni molto lunghe. Bisogna inoltre distinguere tra: - lalgoritmo. - lidea o invenzione algoritmica. La medesima idea o invenzione algoritmica pu trovare applicazione in algoritmi significativamente diversi e per risolvere un medesimo problema possiamo usare diversi algoritmi, ispirati a diverse idee o invenzioni algoritmiche. Gli algoritmi non sono tutti uguali: - alcuni conducono a soluzioni corrette, altri invece producono risultati errati (per alcuni dei loro possibili input). Quello della correttezza un requisito preliminare ed inderogabile degli algoritmi. - non esiste, n possibile realizzare, un algoritmo di validit universale (applicabili ad ogni possibile algoritmo) capace di dirci se lalgoritmo si arrester, applicato a un qualsiasi input. Inoltre non esiste alcun algoritmo di validit universale capace di dirci se un altro algoritmo contenga errori. - non possibile verificare la correttezza di un algoritmo applicandolo preventivamente ad ogni input possibile, perch questi potrebbero essere infiniti o comunque troppo numerosi. - un algoritmo pu operare correttamente nella maggior parte dei casi, ma cadere in errore rispetto ad input particolari. Non mancano gli esempi di errori algoritmici con conseguenze molto gravi. In ambito sanitario errori negli algoritmi destinati a guidare il funzionamento di apparecchiature delicate possono causare (ed hanno causato in qualche caso) la morte del paziente. Per non parlare dei possibili effetti di un errore negli algoritmi secondo i quali operano i sistemi informatici di un aeroplano, di una nave o di una centrale nucleare. Lerrore algoritmico pone difficili pr oblemi al giurista che debba affrontare gli aspetti inerenti alla conseguente responsabilit penale, civile o contrattuale: lerrore non del tutto evitabile ed i suoi effetti sono difficilmente prevedibili e quantificabili, bisogna bilanciare lesigenza di tutelare lutente e quella di non onerare eccessivamente lo sviluppatore del software. - alcuni algoritmi sono pi efficaci di altri, nel senso che producono il proprio risultato con uno sforzo minore e quindi in un tempo minore. Anche lefficienza un aspetto molto importante degli algoritmi. Per misurare lefficienza di un algoritmo non basta considerare il suo comportamento in relazione a un input particolare; di regola, tutti gli algoritmi corretti danno risposte sufficientemente rapide se applicati ad input di piccola dimensione, e quindi il problema nasce quando linput diventi di dimensioni notevoli. Per questa ragione, nel valutare lefficienza degli algoritmi se ne considera la complessit computazionale, che consiste nel rapporto tra due elementi: - laumento dellampiezza dellinput di un algoritmo. - laumento della lunghezza del processo di esecuzione dellalgoritmo stesso. Negli algoritmi con bassa complessit computazionale, laumento dellampiezza dellinput determina un piccolo aumento della lunghezza del processo di esecuzione. Negli algoritmi con media complessit computazionale, la lunghezza del processo di esecuzione cresce in modo proporzionale allampiezza dellinput. Negli algoritmi con alta complessit computazionale, laumento dellampiezza dellinput determina un aumento pi che proporzionale (accelerato) della lunghezza del processo di esecuzione, tanto che ad un certo punto diventa impossibile eseguire lalgoritmo in un tempo ragionevole. In questi ultimi casi si dice che lalgoritmo ha una complessit esponenziale, perch al crescere della dimensione dellinput non solo il processo di esecuzione si allunga, ma lo fa con unaccelerazione sempre maggiore. Pertanto, al crescere dellinput gli algoritmi con complessit esponenziale dan no luogo a processi di esecuzione talmente lunghi da diventare intrattabili, nel senso che nemmeno gli esecutori pi veloci (cio i pi potenti calcolatori oggi disponibili) riescono ad eseguirli in tempi ragionevoli.

3) Dagli algoritmi ai programmi per calcolatore


In campo informatico gli algoritmi non vanno trattati isolatamente, ma dobbiamo sempre tener presente che essi hanno un rapporto con lesecutore automatico destinato ad eseguirli: gli esecutori automatici elaborano e trattano informazioni guida ti dagli algoritmi. Nel considerare il rapporto tra il calcolatore e gli algoritmi necessario porsi due quesiti: - quali algoritmi possono essere eseguiti da un calcolatore? - in che modo ed in quale linguaggio bisogna esprimere gli algoritmi affinch essi siano comprensibili ed eseguibili da parte di un calcolatore? Per dare una risposta alla prima domanda necessario presentare due tesi: - secondo la prima tesi, ogni algoritmo riguarda un particolare tipo di calcolatore. - secondo la seconda tesi, ogni calcolatore una macchina algoritmica universale ed in grado di eseguire qualsiasi algoritmo, espresso in un programma da esso leggibile, gli venga sottoposto. La conciliazione delle due tesi deriva dalla seguente considerazione. Unazione complessa pu essere vista come unazione molecolare, ch risulta dalla combinazione appropriata di azioni atomiche pi semplici, combinazione specificata mediante un algoritmo. Di conseguenza, se il calcolatore capace di eseguire le azioni atomiche ed apprende lalgoritmo p er combinare queste nellazione molecolare, esso sar in grado di eseguire anche lazione molecolare. Apprendendo un algoritmo il calcolatore amplia la propria competenza, ed acquisendo lalgoritmo in modo permanente (cio registrandolo nella propria memoria) esso acquista la capacit di eseguire da solo, senza lintervento di terzi, lazione molecolare. Un calcolatore pu acquistare la capacit di eseguire nuove azioni, che non rientrano nella lista delle azioni (atomiche) ad esso innate, qualora gli si forniscano algoritmi opportuni, che realizzano le nuove azioni mediante la combinazione delle azioni atomiche del calcolatore. Lhardware di un calcolatore in grado di compiere poche operazioni atomiche con numeri binari. Dato che i ca lcolatori non sono tutti uguali, linsieme delle operazioni atomiche che il calcolatore in grado di svolgere varia a seconda del modello (i calcolatori sono dotati di diverse unit centrali di elaborazione). In base a questa considerazione possiamo vedere come i calcolatori moderni siano macchine universali, cio essi sono in grado di eseguire qualsiasi algoritmo, purch esso sia espresso in un linguaggio a loro comprensibile La risposta alla seconda domanda data dalla programmazione. Un programma informatico (o software) consiste in un testo eseguibile da parte di un calcolatore, cio nellinsieme di formulazioni algoritmiche espresse in un linguaggio comprensibile e eseguibile dal calcolatore . Il testo del programma consiste in una sequenza di caratteri alfabetici e numerici (sotto questo aspetto un programma non diverso dai testi comunemente usati dagli esseri umani per registrare i propri pensieri e comunicarli ad altri). La specificit dei programmi sta nel fatto che essi sono suscettibili di essere eseguiti automaticamente da parte di un calcolatore; a questo proposito non tutti i testi rappresentano dei programmi: non sono programmi i testi formulati nel linguaggio naturale che usiamo comunemente per comunicare con altri, bens i programmi sono solo quei testi espressi in linguaggi comprensibili da parte del calcolatore. Il fatto che i programmi per calcolatore siano destinati allesecuzione automatica non deve farci dime nticare che essi sono destinati anche alla comunicazione umana. Le due facce del programma per cal colatore (verso luomo e verso la macchina) sono necessariamente connesse: quale intermediario tra uomo e macchina, il software non pu essere ridotto ad una sola dimensione. Esso non opera solo nella comunicazione tra persone e macchine, ma anche nella comunicazione tra le persone che si occupano del medesimo problema informatico: il software governato dalla macchina, ma anche una forma di manifestazione del pensiero dellesperto di informatica, espressione del mondo della scienza e della cu ltura. La funzione comunicativa del software non priva di profili giuridici. Al software appartengono: - il codice sorgente, cio il testo redatto dal programmatore e leggibile da parte dello stesso. - il codice oggetto o eseguibile, cio il risultato dalla traduzione automatica del codice sorgente in un testo eseguibile da parte della macchina, ma non pi, o molto pi difficilmente, comprensibile alluomo . - la documentazione, cio linsieme delle indicazioni accessorie intese ad agevolare la comprensione e valutazione del software da parte delluomo (esse illustrano larchitettura complessiva del software, la funzione svolta da ogni componente, ecc). Detto questo, si capisce come il contratto per lo sviluppo di un software non potr considerarsi esattamente e completamente adempiuto fino a quando non siano state sviluppate tutte queste componenti. La dimensione rappresentativa e comunicativa del software alla base dello sviluppo dei linguaggi e delle metodologie della programmazione, la cui evoluzione risponde soprattutto allesigenza di facilitare la comprensione dei programmi informat ici. A questo fine i linguaggi di programmazione si sono progressivamente avvicinati al linguaggio proprio delluomo, pur garantendo al tempo stesso unefficiente esecuzione automatica. Esistono oggi numerosi linguaggi di programmazione. Agli albori dellinformatica, per, la scelta dei programmi era limit ata se non addirittura esclusa: chi voleva governare un calcolatore doveva utilizzare direttamente il linguaggio macchina, di conseguenza, i programmi dovevano consistere nelle sole istruzioni atomiche proprie al calcolatore impiegato (quelli a disposizione dellhardware di quel calcolatore), istruzioni che prescrivono semplici operazioni riguardanti i numeri binari. Ovviamente scrivere algoritmi in questa forma molto difficile e richiede molto tempo. Non solo la redazione, ma anche la comprensione successiva di un programma scritto in linguaggio macchina richiede un notevole sforzo. Di conseguenza, il

livello di complessit affrontabile mediante il linguaggio macchina molto basso, solo algoritmi semplici e brevi si possono esprimere in questa forma. A ci si aggiunge la dipendenza dalla macchina: diversi calcolatori sono in grado di eseguire diverse istruzioni atomiche, specificate usando diversi codici binari. Un programma scritto nel linguaggio macchina di un calcolatore deve infatti indicare solamente azioni atomiche di quel calcolatore, usando la corrispondente codifica; pertanto un programma in linguaggio macchina pu funzionare solamente su un particolare tipo di calcolatore. Per eseguire la medesima elaborazione su un diverso calcolatore sarebbe necessario riformulare il programma, trasformandolo in una combinazione di azioni atomiche di tale diverso calcolatore, espresse con i relativi codici binari. Il superamento dei limiti del linguaggio macchina si ottiene formulando le istruzioni destinate al calcolatore in un linguaggio pi facilmente comprensibile alluomo, ed affidando al calcolatore stesso il compito di tradurre tale fo rmulazione nel proprio linguaggio macchina. Ovviamente il calcolatore pu essere capace di compiere tale traduzione solo se governato da un apposito programma traduttore (scritto nel linguaggio macchina). Cos il programmatore predispone una formulazione algoritmica usando un linguaggio a s comprensibile, poi tale elaborato diventa linput di un processo computazionale es eguito dal calcolatore seguendo le istruzioni di un programma traduttore, infine la traduzione ottenuta direttamente eseguita dal calcolatore (si tratta infatti di una formulazione algoritmica nel proprio linguaggio macchina). Allinizio la differenza tra il programma in linguaggio macchina e la sua riformulazione in un testo pi comprensibile alluomo era minima: i numeri che indicavano unoperazione erano sostituiti da parole che evocano lo perazione corrispondente, ed i numeri binari erano sostituiti da numeri decimali. Il linguaggio ottenuto in questo modo chiamato assembler o assemblatore. Il passo successivo consistette nella creazione dei linguaggi di alto livello, i quali si pongono in una posizione intermedia tra il linguaggio umano ed il linguaggio macchina. I linguaggi di alto livello sono indipendenti da particolari calcolatori: il medesimo programma informatico espresso in un linguaggio di alto livello pu essere tradotto nei diversi linguaggi macchina di diversi calcolatori, e quindi pu essere eseguito da ciascuno di quei calcolatori (dopo unopportuna traduzione). Un programma scritto in un linguaggio di alto livello non pu essere eseguito direttamente dallhardware, poich non indica azioni atomiche dellhardware stesso, cio non consiste di istruzioni nel linguaggio macchina ; possibile per tradurlo in istruzioni del linguaggio macchina, che possono essere eseguite d irettamente dallhardware. Esistono due tecniche per effettuare tale trad uzione: - la compilazione. Con questa tecnica, lintero programma formulato in un linguaggio di alto livello, il codice sorge nte, trasformato in un programma equivalente in linguaggio macchina, il codice oggetto. Il risultato della compilazione, cio il codice oggetto, pu essere registrato sul disco del calcolatore e pu essere utilizzato successivamente senza la necessit di risalire al sorgente. Il procedimento di creazione del software segue queste fasi: sviluppo del sorgente, compilazione di questultimo, vendita del codice oggetto, esecuzione di questultimo da parte dellacquirente. Con questo metodo necessario risalire al sorgente ogni volta che si debba intervenire sul software dopo la sua compilazione per modificarlo. In questo caso, una volta modificato il sorgente, lo si ricompiler, producendo una corrispondente modifica del codice oggetto. necessario inoltre accedere al sorgente quando si voglia comprendere in modo approfondito il funzionamento del software, senza limitarsi ad osservarne il comportamento osservabile; chi ha accesso al solo codice oggetto non in grado di esaminare il contenuto logico del programma e quindi incapace di conoscerne con precisione il funzionamento interno. - linterpretazione. Con questa tecnica, il programma sorgente tradotto in linguaggio macchina istruzione per istruzione, con limmediata e contemporanea esecuzione di ogni istruzione. A differenza della compilazione, linterpretazione non da luogo ad una versione permanente del software in linguaggio macchina, sicch per eseguire nuovamente il software bisogna interpretarlo unaltra volta. In linea di massima, qualunque linguaggio di programmazione potrebbe essere tanto compilato quanto interpretato, ma le due tecnica di traduzione comportano diversi vantaggi e svantaggi. Il principale vantaggio della compilazione la maggiore velocit desecuzione del programma compilato rispetto a quello interpretato. Il principale vantaggio dellinter pretazione la maggiore agilit con cui si pu provvedere alla correzione ed alla modifica del programma; possibile modificare il programma interpretato ed eseguirlo immediatamente, cos da verificare leffetto delle modifiche apportate, mentre la modif ica del programma compilato richiede la correzione del programma sorgente ed una nuova compilazione. Inoltre, i programmi interpretabili hanno il vantaggio di poter essere eseguiti su diversi tipi di calcolatore, grazie allindipendenza dei lingua ggi di alto livello rispetto alla macchina; ciascuno di quei calcolatori avr a disposizione il proprio interprete, che tradurr il programma nel linguaggio macchina di quel calcolatore. Un programma compilato (codice oggetto), invece, essendo espresso nel linguaggio macchina di un particolare tipo di calcolatore, potr funzionare solo su quel tipo di calcolatore. La compilazione offre invece un importante vantaggio nella distribuzione commerciale, consentendo di separare il codice oggetto dal codice sorgente. Il produttore pu scegliere di distribuire solo il codice oggetto (il compilato) mantenendo segreto il codice sorgente, o di distribuire entrambi i codici a condizioni diverse. Mantenendo segreto il codice sorgente il produttore impedisce a concorrenti ed utenti di riutilizzarlo, in tutto o in parte, in nuovi software. Inoltre egli mantiene lesclusiva di fatto sulla modifica del codice oggetto (che richiede modifica del sorgente e nuova compilazione), la quale si aggiunge allesclusiva giuridica garantita dal diritto dautore. La distribuzione del solo codice oggetto consente inoltre di circondare di maggiore sicurezza il software. Per conciliare i vantaggi commerciali della compilazione con lesigenza di distribuire ununica versi one del software funzionante su ogni tipo di macchina, si recentemente resa disponibile la possibilit di realizzare una precompilazione indipendente dalla macchina: viene creata una versione intermedia tra codice sorgente e codice oggetto, che come loggetto non comprensibile e modificabile da parte delluomo, e come il sorgente pu essere utilizzata su ogni tipo

di macchina (dovendosi ulteriormente compilare nel linguaggio macchina dello specifico calcolatore, prima di essere eseguita). Lo sviluppo del software unattivit articolata, che si volge in fasi successive: - analisi e specificazione dei requisiti. la fase pi importante di realizzazione del software, consiste nellindicare gli obbiettivi da realizzare ed i modi in cui raggiungerli. Il momento dellanalisi dei requisiti consiste nellindividuazione delle funzioni che il software dovr realizzare interagendo con i futuri utenti, ed il momento della specificazione dei requisiti consiste nellindividuazione precisa delle caratteristiche del software e delle modalit del suo inserimento nellorganizzazione a cui destinato. - progettazione di architettura ed algoritmi. Consiste nel definire larticolazione del software in moduli, il rapporto tra i vari moduli e le forme della loro comunicazione, nonch gli algoritmi inerenti agli stessi moduli. Esistono numerosi metodi e linguaggi per lanalisi e la progettazione del software, tra i pi diffusi si ricorda l UML (Unified Modelling Language). - programmazione o codifica. Consiste nella scrittura dei programmi che realizzano i singoli moduli. La programmazione pu apparire come lattivit principale, ma in realt le competenze pi elevate sono destinate allanalisi ed alla progettazione, mentre la programmazione unattivit prevalentemente esecutiva. - verifica. Consiste nellaccertare che il software sia privo di errori e risponda adeguatamente alle esigenze, bisogner testare il funzionamento del programma con i pi diversi input e casi duso. - documentazione. Consiste nella stesura dei documenti volti ad illustrare la struttura ed il funzionamento del software; si tratta di documenti importanti per chi utilizza il sistema, ma anche per agevolare il compito di chi debba intervenire successivamente su di esso per correggere gli errori, aggiornarlo od estenderlo. - manutenzione. una fase che si ha solamente dopo che il software sia entrato in funzione (dopo la consegna) e consiste in tutti quegli interventi intesi a migliorare il funzionamento del software. Al riguardo si pu distinguere tra manutenzione correttiva (volta a rimediare agli errori realizzati durante lo sviluppo del software e sfuggiti alla fase di verifica) e manutenzione integrativa (volta ad arricchire il software di nuove funzioni). Questo tipo di modello di sviluppo del software, seguito in molti grossi progetti, detto sviluppo a cascata: ci sta ad indicare che bisogner risalire la cascata delle diverse fasi se emergono problemi, fino al livello al quale i problemi possono essere risolti. Il modello a cascata presuppone che lo sviluppo del software proceda ordinatamente sulla base di un piano globale. Tuttavia, esso espone al rischio che eventuali errori nelle fasi iniziali si manifestino solo molto tardi, quando il software ormai completo. Questo modello, inoltre, sembra implicare unorganizzazione centralizzata e gerarchica ed in qualche modo autoritaria del lavoro, nella misura in cui le diverse fasi dello sviluppo sino affidate a soggetti diversi, dotate di competenze decrescenti. Nel software possiamo distinguere diverse componenti: - componente concettuale. costituita dagli algoritmi e dallarchitettura del software (i moduli che lo compongono e la loro articolazione). Nellambito di questa componente possibile distinguere le idee innovative, cio le invenzioni algoritmiche o invenzioni di software capaci di dare luogo ad algoritmi che migliorano rispetto allo stato dellarte. - componente testuale. costituita dal programma che esprime la componente concettuale in una forma elaborabile automaticamente. Il programma originale il frutto dellopera del programmatore, mentre il programma derivato quello che risulta dalla traduzione o dalla modifica del programma originale. Anche la documentazione fa parte di questa componente. - componente materiale. costituita dalla registrazione della componente testuale (programma e documentazione) su un determinato supporto fisico. - componente virtuale. costituita dalle elaborazioni che risultano dal processo di esecuzione della componente materiale. Dal punto di vista della funzione, si possono distinguere diverse tipologie di software: - software di sistema. un software che offre le funzioni di base per il funzionamento del sistema informatico. Ad esso appartiene il sistema operativo, che sovraintende al funzionamento del calcolatore, provvedendo ad attivare lesecuzione dei programmi, a gestire il funzionamento della memoria, ad offrire uninterfaccia verso lutente, ecc. Esso comprende inoltre i moduli che realizzano varie funzioni utili (utility) per controllare il funzionamento del calcolatore (diagnostica) e gestire le apparecchiature periferiche. - software per la programmazione. un software destinato alla realizzazione di applicazioni informatiche, allo sviluppo dei programmi e dei sistemi. Esso comprende linterprete o il compilatore, necessari per rendere eseguib ile il programma sorgente. - software applicativo. Comprende i programmi che svolgono le diverse funzioni di cui lutente ha bisogno. Dal punto di vista del loro utente, i software possono distinguersi in: - pacchetti standardizzati. Sono destinati a rispondere alle esigenze di una vasta cerchia di utenti, ed offerti ad essi in ununica forma. - software su misura. Sono sviluppati per soddisfare le esigenze specifiche di uno o pi clienti.

4) Il software: modelli giuridico-economici


Il software come bene economico, sia nella sua componente concettuale sia in quella testuale, una realt astratta (una configurazione di simboli ed idee) e per questo lo si assimila agli altri oggetti della propriet intellettuale. Luso del software non rivale: pi individui possono utilizzare lo stesso software, senza che diminuisca lutilit che ciascuno trae da tale uso. Luso del software anche, in linea di principio, non escludibile: non si pu impedire ad altri di utilizzare un software una volta che essi abbiamo accesso ad esso, se non adottando misure giuridiche o tecnologiche che limitino laccesso al bene (il soggetto che viene in possesso di un software privo di protezioni giuridiche o tecnologich e, lo potr usare su suo computer indipendentemente dalla volont altrui). Le misure giuridiche e tecnologiche fanno del software un bene escludibile: - la disciplina giuridica della propriet intellettuale subordina il lecito utilizzo di un software al consenso del titolare dei diritti di sfruttamento economico sullo stesso. Se non vi fosse la propriet intellettuale sarebbe possibile utilizzare qualsiasi software senza violare la legge. Attraverso la disciplina della propriet intellettuale viene creato un monopolio temporaneo a favore del titolare dei diritti di sfruttamento economico: il software pu essere usato solo con il consenso del titolare (secondo la disciplina attuale tale monopolio estremamente ampio, estendendosi fino a 70 anni dalla morte dellautore). - le misure tecnologiche possono impedire ai terzi gli usi non autorizzati; in particolare, la distribuzione del solo software compilato impedisce allutente di modificare il programma per svilupparlo o adattarlo alle proprie esigenze. La protezione del software con misure giuridiche o tecnologiche si giustifica principalmente con considerazioni economiche attinenti alle esigenze della produzione: in mancanza di una protezione volta ad impedire usi non autorizzati, lautore di un software non potrebbe ottenere guadagni sufficienti a coprire i costi dello sviluppo, infatti i potenziali clienti preferirebbero ottenere copie non autorizzate (piratate) a prezzi inferiori. Chi diffonde copie non autorizzate potrebbe infatti offrire ai consumatori un prezzo inferiore, non avendo lesigenza di recuperare i costi sostenuti pe r lo sviluppo del software. Di conseguenza, in mancanza di una tutela efficace la produzione di software sarebbe inferiore a quanto necessario per soddisfare il bisogno. Il principale modello giuridico per la protezione del software quello del diritto dautore, impostatosi su scala mondiale a partire dagli anni 60. Il diritto dautore rende il software un bene escludibile, conferendo a titolo originario allautore del software una posizione giuridica che include due gruppi di diritti, i diritti morali ed i diritti patrimoniali. I diritti morali (che spettano sempre allautore e sono inalienabili ed irrinunciabili) non determinano lescludibilit, infatti lopera pu ess ere tranquillamente usata pur riconoscendo la paternit altrui. Il diritto morale pi importante il diritto alla paternit dellopera, cio il diritto ad esserne riconosciuto lautore. Lescludibilit deriva invece dalla componente economica del d iritto dautore, che costituita da uninsieme di diritti esclusivi: - il titolare dei diritti economici ha il permesso di effettuare le utilizzazioni rientranti nei diritti esclusivi. - le utilizzazioni dellopera sono precluse ad ogni altro soggetto, se non autorizzato dal titolare dei diritti. - il titolare dei diritti economici ha il potere di autorizzare altri ad effettuare le utilizzazioni rientranti nei propri diritti esclusivi, nei limiti e nei modi da egli stabiliti. Nel caso del software i diritti esclusivi attengono alla duplicazione ed alla esecuzione del programma (che presuppone la duplicazione del software nella memoria centrale del computer), nonch la sua modifica e distribuzione al pubblico: tali attivit possono essere compiute lecitamente solo dal titolare del diritto o da chi sia stato autorizzato dallo stesso. Lautorizzazione alluso del software viene solitamente conferita ai consumatori mediante un contratto chiamato licenza duso: il titolare dei diritti di sfruttamento economico (il licenziante) conferisce allaltra parte lautorizzazione ad usare il software entro certi limiti ed in certe forme, mentre lutente (il licenziatario) si impegna a pagare un corrispettivo ed a rispe ttare i limiti stabiliti nella licenza. Il titolare dei diritti pu fornire egli stesso una copia del software, in particolare nel caso in cui questo venga scaricato dal sito del produttore, ed in questo caso egli ricever il corrispettivo direttamente dallacquirente-licenziatario; in altri casi, il titolare dei diritti sar compensato dal venditore del software, il quale cede copie del software agli acquirenti, per esempio un CD o un DVD nel quel il programma registrato, verso un corrispettivo. Normalmente al licenziatario trasferita una copia del solo software compilato, cio del codice oggetto (il sorgente rimane presso il titolare dei diritti), e l autorizzazione comprende solo la facolt di installare tale codice oggetto sul proprio calcolatore e di eseguirlo. Il codice compilato chiuso, nel senso che allutente preclusa la possibilit di accedere al codice so rgente: di conseguenza egli non i n grado di capire il funzionamento del software dallinterno, n di modificarlo per adatta rlo alle proprie esigenze o perfezionarlo in vista di altre utilizzazioni. Tali attivit sono duplicemente impedite: sono impedite giuridicamente (sono vietate dalla legge perch rientrano nei diritti esclusivi del licenziante, il quale non ha prestato la sua autorizzazione a tali attivit) e sono impedite di fatto (lutente ha a disposizione il solo programma compilato). Oltre alla compilazione, il titolare dei diritti pu adottare ulteriori misure tecnologiche volte ad impedire che i possessori di copie del software ne facciano uso in modi non autorizzati, ed in particolare per impedire che il software venga illecitamente duplicato (per esempio, oggi si usa frequentemente la tecnologia consistente nel richiedere che il software si colleghi ad Internet per poter funzionare, il che attiva un controllo volto a verificare se il software sia dotato di valida licenza). Le misure tecnologiche godono a loro volta di una tutela giuridica: non solo vietato compiere attivit non autorizzate dopo avere superato tali misure, ma anche vietato e sanzionato realizzare o diffondere strumenti idonei a superare tali misure. Tale disciplina trova alcune deroghe: - lutilizzatore ha il diritto di fare una copia di riserva (backup) del software quando necessaria.

lutilizzatore pu tentare di decompilare il software solamente al fine di realizzare nuovi prodotti con esso interop erabili. - lutilizzatore ha il diritto di correggere un softwar e malfunzionante, qualora il produttore non risponda alle sollecitazioni in tal senso. Questa disciplina configura il modello del cosiddetto software proprietario: il titolare dei diritti usa una combinazione di clausole contrattuali e misure tecnologiche per restringere luso del software nei limiti dellautorizzazione conferita allutente. Tale autorizzazione di solito non comprende la possibilit di duplicare il software, poich il titolare intende conservare a s il monopolio sulla creazione e distribuz ione di nuove copie, unattivit che gli consente di continuare a ricevere un compenso a fronte della concessione di ulteriori licenze per luso del proprio software. Inoltre il titolare conserva il m onopolio sulla modifica e sullo sviluppo del proprio software, il quale gli consente di poter trarre ulteriori guadagni dalla vendita delle versioni successive (il monopolio sulle modifiche ed i miglioramenti protetto, pi che dal diritto dautore che pure vieta ai terzi tali attivit, dal fatto che il titolare distribuisce il solo codice oggetto, che non pu essere modificato nemmeno da esperti programmatori). Tale modello presenta alcuni aspetti problematici: - limita luso del software a coloro che abbiano potuto pagare il prezzo richiesto dal titolare dei di ritti. - la diffusione del software nella sola versione compilata (solo il codice oggetto) comporta una perdita nella diffusione della conoscenza. Questa situazione comporta limpossibilit di sviluppare il software, di perfezionarlo o di usa rne le componenti nello sviluppo di altri software. Chi fosse interessato a questi usi di un software altrui potrebbe contattare il titolare dei diritti e chiedergli lautorizzazione a creare software derivati a fronte di un corrispettivo o di una compartecipazione agli eventuali guadagni futuri. Tuttavia, a tal fine linteressato dovrebbe essere certo che il software pu essere sviluppato adeguatamente, pur non potendo conoscerne in anticipo il contenuto, e che il mercato darebbe il risultato atteso, mentre il titolare dei diritti dovrebbe essere certo che linteressato ha le capacit e laffidabilit necessaria, dal momento che lattuazione del contratto richiede la consegna del codice sorgente. In mancanza di tali certezze, laffare non si concluder e le opportunit di sviluppo andranno perdute. - pu comportare una perdita di libert e democraticit. Si tratta anzitutto della libert dello sviluppatore e dello studioso: lo specialista di informatica cui sia precluso laccesso a questi software viene privato della libert di conoscere laspetto della realt sociale cui interessato (libert di informazione), ed inoltre della libert di dare il proprio specifico contributo allo sviluppo culturale (libert di partecipare alla cultura) ed alle discussione delle strutture sociali e politiche (libert politica). Queste perdite di libert non riguardano solo gli informatici: anche chi non abbia le competenze per studiare il software, o non sia interessato a farlo, potrebbe individuare difetti e prospettive di sviluppo, avanzare critiche e proporre soluzioni. I problemi inerenti al software proprietario, pur nellapparente invincibilit dellargomento economico a suo favore (quello della mancanza di un incentivo a sviluppare software in assenza di una tutela proprietaria), hanno determinato la nascita di un modello alternativo, basato su una diversa impostazione giuridica ed economica, il software open source. Alle origini del movimento open source vi lattivit di Richard M. Stallman. Egli era uno sviluppatore di software degli anni 70, periodo in cui si diffuse il modello proprietario: i software, che prima erano forniti dai produttori dellhardware in versione sorgente ed erano liberamente modificabili, divennero chiusi (forniti solo nel codice oggetto) e protetti dalle esclusive del diritto dautore. Stallman decise di ribellarsi a tale assetto economico -giuridico, che lo privava della libert di conoscere e modificare i programmi informatici, e di condividere le proprie conoscenze, scoperte ed innovazioni; egli divenne promotore di un diverso modello, che garantisse allutente le quattro libert (negate dal modello proprietario): - libert 0: libert di eseguire il programma per qualsiasi scopo. - libert 1: libert di studiare come funziona il programma per adattarlo alle proprie necessit (per questo laccesso al codice sorgente necessario). - libert 2: libert di distribuire copie del software in modo da aiutare il prossimo. - libert 3: libert di modificare il programma, per migliorarlo e diffondere tali miglioramenti, arrecando un beneficio a tutto la comunit (per questo laccesso al codice sorgente necessario). Stallman coni il termine di software libero per indicare i programmi informatici in cui fossero garantite queste quattro libert, ed elabor un meccanismo giuridico volto a garantirle, la licenza GPL (General Public Licence). Anche la disciplina del software libero trae origine dal diritto dautore, ed in particolare dal potere del titolare di autorizzare altri allese rcizio delle facolt inerenti ai propri diritti esclusivi e di regolare i modi di tale esercizio; la licenza GPL, per, prevede unautorizzazione tanto ampia da fare venire meno lesclusivit di quei diritti, conferendo irrevocabilmente la pienezza dell e quattro libert al licenziatario del software ed ai successivi soggetti a cui sia trasferita una copia dello stesso. importante precisare che software libero non vuol dire non -commerciale o gratuito. Bench molti software liberi siano gratuitamente accessibili ( possibile a chiunque scaricarne una copia attraverso Internet), la copia di un software libero pu essere fornita dallautore o da altri a fronte di un pagamento, sempre che chi riceve la copia conservi le quattro lib ert. Tuttavia, sicuramente vero che il modello del software libero lim ita le possibilit di guadagno dellautore (del titolare dei diritti patrimoniali): per la prima copia lautore pu chiedere un prezzo elevato, ma per le copie successive egli non pi in grado di farlo, perch i potenziali acquirenti potranno rivolgersi ai successivi cessionari, i quali possono fornire copie dello stesso software ad un prezzo inferiore a quello proposto dallautore od anche gratuitamente. Di conseguenza, o lautore riesce a recuperare tutti i propri costi ed il profitto con la prima cessione o rischia di lavorare in perdita. Questo rischio, tuttavia, pu essere superato in due modi: o lautore mosso da motivazioni diverse dal vantaggi economico (desiderio di pa rtecipare ad un certo progetto, di inserirsi nella comunit degli sviluppatori, ecc) o lautore si aspetta unappropriazione ind i-

retta (vantaggi economici derivanti da attivit successive, come contratti retribuiti per consulenze sulluso del software li bero sviluppato o per adattamenti allo stesso, futuri impieghi grazie alla reputazione conseguita, ecc). Alle clausole che garantiscono le libert degli utenti si unisce, nella disciplina della GPL, la clausola del copyleft (permesso dautore): i programmi che risultano dalla modifica di un software soggetto a GPL possono essere trasferiti ad altri solamente se assoggettati anchessi alla disciplina del GPL (che garantisce le quattro libert). Chi ha operato delle modifiche s u un software soggetto a GPL non potr quindi fare valere il proprio diritto dautore sulle modifiche per impedire lesercizio delle quattro libert a chi riceva una copia della versione modificata, n potr distribuire il software solo in versione compilata. Lo scopo della clausola copyleft fare si che il patrimonio del software libero si espanda progressivamente. I software disciplinati dalla GPL non sono completamente sottratti al diritto dautore: essi sono soggetti alla componente morale del diritto dautore (il riconoscimento della paternit dei suoi autori, che deve essere obbligatoriamente indicata a nche quando si distribuiscono versioni modificate) ed al vincolo del copyleft. La possibilit di modificare liberamente il software (anche se soggetta alla disciplina del copyleft) una garanzia antimonopolistica della libert dimpresa: se i partecipanti di un progetto di software libero sono insoddisfatti della direzione presa dal progetto, possono dotarsi di una copia del software e sviluppare un nuovo progetto, anche in concorrenza con quello da cui ci sono distaccati. Nel 1.984, Stallman fond la Free Software Foundation, allo scopo di promuovere la crescita del software libero ed inizi a sviluppare il progetto di un sistema operative non-proprietario che chiam GNU. Nel 1.991 il progetto aveva fatto molti passi avanti, ma mancava ancora il nucleo del sistema operativo, indispensabile per il suo funzionamento . In quellanno Linus Torvald, un giovane informatico finlandese, pubblic su Internet il nucleo di un sistema operativo, assoggettando il relativo software alla licenza GPL, ed invitando tutti gli interessati a sperimentarlo ed a contribuire al suo sviluppo. Al nucleo fornito da Torvald furono unite alcune componenti di GNU e, grazie alla collaborazione di un crescente numero di sviluppatori, il sistema operativo GNU/Linux fu completato. Fin dalla seconda met degli anni 90, Linux divenne un concorrente dei sistemi operativi proprietari pi diffusi, diffondendosi presso una cerchia sempre pi ampia di utenti sulle diverse piattaforme hardware. Nello sviluppo tradizionale (quello a cascata) del software proprietario si adotta il metodo della cattedrale, basato sulla gerarchia, la centralizzazione e la distinzione dei ruoli; nello sviluppo del software libero si adotta invece il metodo del bazar, nel quale coesistono diverse aspettative ed iniziative, manca una netta distinzione dei ruoli, il progetto suddiviso in moduli distinti e sviluppati in relativa indipendenza e diverse versioni parallele, le decisioni sono decentrare e dinamiche, il coordinamento fornito dal fatto che tutti rendono disponibili su Internet i risultati del loro lavoro ed i commenti sui lavori altrui. Nello sviluppo del software open source, quindi, si procede prevalentemente dal basso verso lalto, anzich dallalto verso i l basso: ne risulta uno sviluppo incerementale-evolutivo, anzich pianificato, dove la comunit degli sviluppatori e degli utenti stabilisce, con le proprie autonome scelte, quali proposte avranno successo e quali incideranno sullo sviluppo e sullarticolazione del progetto complessivo. Si tratta di una funzione di guida e controllo che non si basa su gerarchie giuridicamente definite, ma piuttosto sul prestigio dei coordinatori del progetto. Lidea che il software debba essere distribuito anche in forma sorgente e che maggiori diritti debbano essere consentiti agli utenti ha trovato unaccettazione ampia, che va al di l di quanti si identificano con le tesi rigorose e lintransigente imp ostazione politico-ideologica di Stallman (tesi che corrispondono al modello del software libero). Pertanto, alcuni progetti di sviluppo di software, che pure tendono a realizzare software distribuiti in codice sorgente che garantiscano agli gli utenti le quattro libert, preferiscono autoqualificarsi usando lespressione software open source (a sorgente aperta), anzich software libero. Si suole affermare che per il movimento del software libero la garanzia delle libert degli utenti una scelta etica e determinata anche da motivazioni politico-ideologiche, mentre per il movimento del software open source, cui partecipano anche grandi imprese, la garanzia di tali libert prevalentemente motivata da ragioni tecniche, economiche o commerciali. Il software open source ha conosciuto un grandissimo sviluppo nel corso degli ultimi anni. Tra gli esempi pi significativi possiamo ricordare: il sistema operativo Linux, il browser Firefox, il software per lufficio e la redazione di testi Op enOffice. Anche imprese di grandi dimensioni, che operano a fini di profitto, partecipano a progetti di software open source, ma per quale motivo unazienda che opera a fini di profitto dovrebbe investire per realizzare dei prodotti sui quali non pu vantare diritti di sfruttamento economico, prodotti anzi a tutti accessibili e spesso distribuiti gratuitamente? Perch anche le imprese (e non solo i singoli) possono trarre vantaggi dalla partecipazione a progetti di software open source: mantenere il contatto con gli utenti e gli sviluppatori, stimolare la domanda di offerte complementari, facilitare la collaborazione con altre imprese, ridurre i costi di sviluppo, ecc. Infine, c da dire che i modelli del software proprietario e del software open source non sono necessariamente in conflitto, ma possono svolgere ruoli complementari: per esempio, numerose imprese sviluppano software con doppia licenza, una versione libera e limitata alle funzioni di base, ed una versione proprietaria ed arricchita di funzionalit ulteriori, disponibile a pagamento. Dal punto di vista della loro disciplina giuridica, i software si distinguono in: - software proprietario. Luso di questi software ristretto dalle esclusive del diritto dautore, e viene conferito s econdo una licenza che limita le libert dellutente. Tale licenza conferisce al licenziatario, di regola, la sola facolt di usare il software, senza poterlo modificare o distribuire. Di regola il software proprietario chiuso, cio di esso viene fornito solo il codice oggetto (il compilato), mentre il licenziante trattiene presso di s il sorgente. - software open source. Luso di questi software concesso con una licenz a che conferisce al licenziatario la piena libert di eseguire, studiare, modificare e distribuire il software stesso. La libert di distribuire un software open

source pu essere soggetta alla sola condizione del copyleft, cio allobbligo di assoggettare a licenza open source anche le modifiche di tale software. La licenza GPL include la clausola copyleft, che invece non compresa in altre licenze open source. Esistono inoltre dei particolari modelli di software: - software di pubblico-dominio. Si ha quando il titolare dei diritti rinunci irrevocabilmente ai propri diritti economici, come avviene per il software open source, e non limiti la distribuzione del software con la clausola del copyleft; in questa situazione chiunque potr usare, modificare e distribuire il software, e potr inoltre avanzare il proprio diritto dautore sulle versioni che includano le proprie modifiche, nonch distribuire tali versioni con licenze propri etarie ed esclusivamente nel codice oggetto. In questo caso possiamo dire che il software di pubblico-dominio perch del tutto sottratto alla disciplina del diritto dautore per quanto riguarda gli aspetti economici (essendo i diritti morali irrinunciabili nel nostro ordinamento). - software freeware (software gratuito). Si indicano i programmi ottenibili gratuitamente, che possono essere usati e distribuiti dagli utenti, ma non possono essere modificati (il loro codice sorgente non reso accessibile). - software shareware (software condiviso). Si indicano i programmi distribuiti gratuitamente, ma solo per un tempo determinate o con funzioni limitate, al fine di indurre l utente ad acquistare la versione definitiva o completa. - sofware-come-servizio (software-as-a-service). Si ha quando il software viene usato dallutente senza che ques ti ne abbia ottenuto una copia, per questo il software non installato nel computer dellutente ma su in server remoto a cui lutente pu accedere attraverso Internet.

5) Sviluppo della programmazione


Secondo il modello tradizionale il calcolatore un utile idiota, un fedele esecutore di un algoritmo concepito dalluomo ed espresso in un programma informatico: esso riceve in input il programma che esprime lalgoritmo ed i dati, esegue lelaborazione attraverso calcoli binari, consegna i risultati di output, e resta quindi in attesa di un nuovo input. Ormai il mondo dellinformatica un ambiente densamente popolato, dove coesistono numerosi prodotti software in grado di rispondere a gran parte delle esigenze, e dove molti problemi si possono risolvere solo grazie alla cooperazione e coordinazione dei diversi software esistenti. Ciascuno di questi software, di tanto in tanto, prende il controllo dellunit centrale di elaborazione, facendo eseguire ad essa porzioni di programma; lalternarsi dei diversi software sar regolato da algoritmi che si occupano di coordinare i diversi pro cessi contemporaneamente attivi allinterno del calcolatore. Lesigenza di coord inamento, peraltro, si pone anche nellambito di singole applicazioni informatiche: un grande si stema di software comprensibile alluomo solamente se modulizzato, cio suddiviso in unit indipendenti di dimensione ridotta, padroneggiabili dalla mente umana. Gli attuali sistemi informatici devono rispondere a tante esigenze, perci diventa difficile progettare un software di ampie dimensioni come un oggetto unitario (si tratterebbe di ununica, lunghissima, combinazione di istruzioni). Il singolo programmatore sviluppa singoli moduli di un progetto complessivo a cui partecipano molti altri programmatori; i singoli moduli spesso risultano dalla combinazione di software preesistenti ed il programmatore si limita ad integrare tali software ed a sviluppare le porzioni eventualmente mancanti. Un software di ampie dimensioni diventa pi facilmente comprensibile se concepito ed organizzato secondo unarchitettura composta da un insieme di oggetti indipendenti, che interag iscono scambiandosi messaggi; ciascuno di tali oggetti dispone di piccoli programmi, chiamati metodi, e contiene propri dati, che rappresentano degli attributi delloggetto. Lo sviluppo di un sistema di software consiste pertanto nella creazione di un ambiente nel quale i diversi oggetti possano interagire e poi nella definizione di ciascuno di essi, specificandone linterfaccia verso lesterno (i messaggi che esso emette d accetta) ed i programmi ed i dati che contiene. Negli ultimi anni, si parla del passaggio da unarchitettura basata sugli oggetti, ad un architettura basata sui servizi: loggetto del software esplica la sua funzione allint erno del programma complessivo, mentre il servizio presta le proprie funzioni a chiunque lo richieda (a certe condizioni). Ci implica che loggetto del software, anzich essere racchiuso nellambito di un particolare sistema, dovr essere capace di intera gire con qualsiasi persona o programma ne richieda il servizio, secondo convenzioni condivise; loggetto del software diventa quindi il fornitore di un servizio. Lo sviluppo di a rchitetture software basate su servizi presenta un particolare interesse per il giurista: nel momento in cui un servizio pu essere offerto a pi utenti, anche esterni allorganizzazione che possiede il sistema fornitore, diventano giuridicamente rilevan ti i rapporti in base ai quali tale servizio prestato.

CAPITOLO 4: I dati informatici


1) Dati e modelli concettuali
I dati informatici sono valori che possono essere elaborati da un calcolatore elettronico . Linput di ogni processo computazionale costituito da dati strutturati secondo una particolare concettual izzazione, secondo la quale debbono essere conformati anche gli algoritmi destinati ad operare su quei dati. Quando diverse applicazioni informatiche debbano interagire, operando sugli stessi dati o scambiandosi dati, necessario che esse posseggano una concezione comune di quei dati, cio che qui dati esprimano una categorizzazione operata secondo concetti condivisi, o almeno comunicabili.

In ambito informatico il modo attualmente diffuso per rappresentare i dati (per rappresentare le basi di dati) il modello relazionale: il principio che sta alla base di tale modello che tutte le informazioni sui dati siano rappresentate da valori inseriti in tabelle, che dal punto di vista tecnico prendono il nome di relazioni (le relazioni rappresentano determinate classi di oggetti ed i loro rapporti, cio le associazioni). Le varie componenti del modello relazionale sono le seguenti: - le classi o entit, indicano un concetto generale usato per denotare oggetti particolari. - le caratteristiche o attributi della classe, le informazioni che sintendono fornire sugli elementi appartenenti ad e ssa. Nel determinare gli attributi di una classe di dati si determina il filtro attraverso il quale il software vedr la realt, si prestabilisce cosa esso considerer rilevante e cosa irrilevante, che cosa potr influire o meno nelle operazioni del sistema. Tali scelte hanno considerevoli implicazioni giuridiche e pratiche (ad esempio la qualit dei dati informatici pu dipendere in modo decisivo dalla scelta degli attributi). Quando si rappresenta un certa classe di oggetti in un sistema informatico, opportuno che vi sia un attributo o una combinazione di attributi che corrisponda in modo univoco ad uno e uno solo degli oggetti rientranti nella classe di riferimento; tale attributo pu fungere da chiave per quella classe, infatti specificando un determinato valore di quellattributo si individua un unico membro della classe. - unistanza della classe, la rappresentazione di uno degli oggetti a cui fa riferimento il concetto generale, e si ottiene specificando valori determinati per gli attributi. - le associazioni, rappresentano i rapporti tra le varie classi (i dati contenuti in un sistema informatico descrivono le caratteristiche delle classi ed anche i loro rapporti). Esistono linguaggi avanzati per linterrogazione delle basi di dati relazionali, che consentono di specificare i dati che si d esidera recuperare traendoli da una o pi tabelle, e consentono di estrarre tabelle virtuali sulla base delle tabelle, le relazioni, registrate nel database.

2) Lorganizzazione dei dati


La memoria centrale del computer volatile, nel senso che essa contiene i dati necessari per lelaborazione in corso e viene liberata quando tale elaborazione ha termine. Di conseguenza, per mantenere i dati nel tempo necessario registrarli su dispositivi di memoria (di solito dischi magnetici) che consentano la registrazione permanente di grandi quantit di dati, detti memorie di massa. La registrazione dei file su tali memorie ha un aspetto logico (modo nel quale le informazioni sono organizzate dal programmatore) ed un aspetto fisico (modo in cui i dati sono materialmente disposti nei supporti fisici). Il file il livello pi basso dellorganizzazione logica dei dati , una raccolta di dati identificata da un unico nome (il nome del file). Dal punto di vista materiale, invece, un unico file potrebbe benissimo essere scritto su pi zone diverse del supporto fisico che lo ospita. Si distinguono due principali tipi di file: - gli archivi (file strutturati: un archivio contiene uninsieme di schede dotate della medesima struttura ). Gli archivi sono file composti da uno o pi file insieme a metadati (dati su altri dati, cio informazioni che descrivono un insieme di dati per fini diversi). In un archivio le istanze di una classe sono registrate in modo uniforme, a ciascuna istanza dedicato un record (scheda). Ogni record suddiviso in settori, detti campi, ciascuno dei quali contiene il valore di un particolare attributo della classe (si parla di formato di record per indicare la suddivisione di un record in determinati campi). La registrazione dei record nei supporti fisici dipende dal particolare software utilizzato per creare od aggiornare larchivio, e di regola sfugge al contro llo dellutilizzatore, il quale accede allarchivio solo utilizzando il relativo software. Si possono adottare diverse tecniche per esprimere la strutturazione della scheda in modo che essa sia riconoscibile da parte della macchina (tali tecniche normalmente sono applicate automaticamente dal software usato per la gestione dellarchivio, senza che lutente se ne debba occ upare). - i file di testo liberi o testi (file non strutturati: un testo contiene una sequenza non strutturata di caratteri alfabetici e numerici). I file di testo consistono in componenti testuali, ossia sequenze di parole, accompagnate da indicazioni sulla loro presentazione a video o a stampa , cio da indicazioni per la formattazione, la visualizzazione, la strutturazione delle componenti testuali (ad esempio lindicazione che una certa sequenza di parole in corsivo). In particolare, appartengono alla categoria dei file di testo libero i documenti che realizziamo utilizzando software per la redazione di testi, i cosiddetti elaboratori di testi. Negli elaboratori di testi oggi maggiormente usati le indicazioni attinenti alla presentazione dei contenuti testuali non sono espressamente inserite dallutente, n vengono visualizzate allo stesso: il software che si occupa di registrare tali indicazioni quando lutente fornisce il comando corrispondente (ad esempio, cliccando il bottone per il corsivo dopo avere selezionato una parola) e di visualizzare immediatamente sullo schermo il risultato dellapplicazione delle stesse indicazioni (nellesempio, la parola in corsivo). La forma nella quale sono registrate le indicazioni attinenti alla presentazione non di regola facilmente leggibile dallutente, essendo destinata alla elaborazione auto matica. In alcuni casi lilleggibilit completa, nel senso che il tentativo di legg ere il documento registrato nella memoria del computer (nel disco rigido), cogliendovi le indicazioni per la presentazione, richiederebbe uno sforzo enorme, paragonabile allo sforzo necessario per comprendere il funzionamento di un programma in linguaggio macchina (ci si verifica, ad esempio, nel formato DOC di Microsoft Word). Ci sono anche formati in cui si ottiene una migliore leggibilit. Esistono anche sistemi per la redazione di testi nei quali lutilizzatore inserisce allinterno del testo le indica zioni per la presentazione, spe-

cificando direttamente le modalit di presentazione delle componenti testuali (in questo caso i comandi per la formattazione sono pi comprensibili). In questo caso per visualizzare il risultato ottenibile a stampa bisogner procedere ad una sorta di compilazione, detta composizione: sulla base del file sorgente prodotto dallautore, comprensivo del testo e delle indicazion i di formattazione, viene automaticamente prodotto il file visualizzabile e stampabile, nel quale le indicazioni per la presentazione non sono pi leggibili da parte delluomo ma sono comunque utilizzabili dal computer (le successive revisioni del t esto si dovranno compiere sempre sul file sorgente). La registrazione dei dati informatici avviene in base a cere regole, che definiscono il formato degli stessi. Innanzitutto bisogna stabilire come passare dal formato binario a quello alfabetico o decimale necessario alla lettura dei dati da parte delluomo. A ci provvedono particolari tabelle di conversione, che stabiliscono un rapporto biunivoco tra caratteri alfabetici-numerici e certe sequenze di cifre binarie. Occorrono inoltre convenzioni secondo le quali esprimere ulteriori informazioni: rispetto agli archivi bisogna specificare la funzione di ogni dato, rispetto ai file di testo bisogna specificare la forma tipografica in cui presentare le parole che compongono il testo (grassetto, corsivo, spaziature, ecc). I dati elaborati in un certo formato possono essere elaborati solo da software specificatamente predisposti in modo da trattare quel formato. Di conseguenza, chi ha registrato i dati in un certo formato li pu condividere con altre persone o altri sistemi informatici solo se anche queste utilizzano un software adeguato a quel formato. In molti casi vi un unico software che corrisponde pienamente ad un certo formato di dati, per cui utilizzare i dati con un altro software richiede una conversione (i cui risultati raramente sono perfetti). Ci pone in una posizione di debolezza gli utilizzatori: chi abbia accumulato una notevole quantit di dati in un certo formato vincolato allutilizzo dellunico software predisposto per leggere quel formato s e non vuole affrontare i costi ed i disagi relativi alla trasformazione in un altro formato, e chi intenda condividere dati con altri soggetti vincolato a predisporre quei dati in un formato accettato dai software impiegati da quei soggetti. Questi vincoli contribuiscono a determinare leffetto di rete (network effect) visto precedentemente: la tendenza allulteriore diffusione dei formati maggiormente diffusi e dei software compatibili con tali formati ( cos per i file di testo, nei quali domina il formato DOC di Microsoft Word). Il problema particolarmente grave quando si tratti di un formato proprietario, sulla cui evoluzione decide un soggetto privato, cio il soggetto che detiene il diritto dautore sui software che producono i dati in quel formato. Questo soggetto, anche quando non possa vantare diritti di propriet intellettuale sul formato stesso, ne controlla levoluzione e lutilizzo: egli, quando possegga una posizione dominante nel mercato dei software che utilizzano quel formato, pu spiazzare eventuali concorrenti che abbiano iniziato ad usare lo stesso formato, semplicemente modificando il formato prodotto dal proprio software, in modo che i software dei concorrenti non riescano pi a trattare la versione modificata. Per di pi, non sempre disponibile una specifica del formato dei dati, cio la precisa indicazione di come i dati debbano essere codificati per essere utilizzabili dai programmi che adottano il formato stesso (lo sviluppatore del programma pu mantenere occulta la specifica o pu fornirla solo a pagamento o comunque a determinate condizioni). Ricostruire la specifica di un formato difficile: dallesame dei file dotati di quel formato bisogna ricostruire il linguaggio usato per ind icare le modalit di presentazione e la struttura del file (tale ricostruzione, inoltre, va ripetuta per ogni nuova versione del software che produce il formato, il quale di regola in grado di leggere i file prodotti nei formati precedenti ma produce i nuovi file in un formato leggermente diverso). Per rimediare ai problemi determinati dalluso di formati proprietari (chiusi) sono nati formati aperti, la cui definizione ed evoluzione affidata ad organismi imparziali e le cui specifiche sono rese pubblicamente disponibili, e che possono essere utilizzati da chiunque via abbia interesse.

3) Basi di dati e information retrieval


Lelaborazione informatica dei dati offre nuove e straordinarie possibilit rispetto al trattamento dei dati su supporti cartacei: - la possibilit di aggregare, disaggregare, combinare, ecc informazioni registrate su diversi archivi, attraverso i sistemi per la gestione di basi di dati. - la possibilit di ricercare elementi testuali compresi allinterno di raccolte documentali, attraverso i sistemi per linformation retrieval (recupero di informazioni). Nel linguaggio legislativo, il termine banca di dati (sinonimo di base di dati) indica una qualsiasi raccolta di opere, dati od altri elementi indipendenti sistematicamente o metodicamente disposti ed individualmente accessibili mediante mezzi elettronici o in altro modo . Il termine base di dati usato soprattutto per denotare raccolte di dati evolute, costituite da pi archivi tra loro integrati, i cui dati sono elaborabili in modo da offrire ai diversi utenti le informazioni di cui hanno bisogno; a tal fine occorre uno specifico tipo di sistema informatico, detto sistema per la gestione di basi di dati (DataBase Management System, DBMS), il quale funge da intermediario tra gli archivi di dati e gli utilizzatori (umani o automatici). Il DBMS consente di rappresentare i dati in modo indipendente dai programmi destinati ad usare quei dati; a tale fine esso mantiene dei dizionari di dati, ossia delle raccolte di metadati (dati intesi a descrivere altri dati) che specificano il significato e la struttura dei diversi tipi di dati registrati nella base di dati, e le convenzioni usate nella loro registrazione. Grazie alle indicazioni fornite dai dizionari possibile realizzare diversi software che usano coerentemente i contenuti della base di dati, richiedendoli al DBMS; vengono cos risolti i difficili problemi di coordinamento e compatibilit che esistevano quando ogni programmatore definiva individualmente gli archivi per i propri programmi, secondo regole che restavano implicite nella struttura di tali archivi. Oltre a facilitare laccesso ai dati, un DBMS pu contribuire ad assicurar e la qualit dei dati stessi, sotto i seguenti profili: - coerenza dei dati: il DBMS permette a diverse applicazioni di usare gli stessi dati, riducendo le duplicazioni.

integrit: il DBMS contribuisce a fare s che la base di dati sia integra, cio contenga solo dati corretti (il DBMS non pu garantire la corrispondenza dei dati alla realt rappresentata, ma pu imporre il rispetto di certi vincoli). - ripristino: il DBMS comprende procedure automatiche per il ripristino della base dei dati in caso di errori e malfunzionamenti imputabili allhardware o al software, permette in particolare la ricostruzione di uno stato anteriore allevento della base di dati. - sicurezza: il DBMS controlla lintera base di dati, per questo pu garantire che ad essa si acceda solo secon do certe modalit e procedure o dopo avere ottenuto idonee autorizzazioni. - riservatezza: luso di un DBMS pu facilitare il rispetto della riservatezza dei soggetti a cui i dati si riferiscono (s oprattutto quando si debbano trattare grandi quantit di dati ), infatti il DBMS pu limitare laccesso ai dati, conse ntendolo solo a chi abbia diritto di accedere ad essi e fornendo ad ogni utente la vista sui dati che corrispondono ai suoi diritti di accesso. Vi sono diversi modelli di basi di dati, gestiti da diversi tipi di DBMS, il modello relazionare (visto precedentemente ) quello pi diffuso. I software per linformation retrieval (recupero di informazioni) servono a recuperare le informazioni testuali estraendole da grandi masse di documenti. La loro funzione fondamentale consiste nel fornire allutente tutti i documenti che rientrano nel suo interesse, cio tutti i documenti che rispondono alle sue esigenze informative. Normalmente lutente interessato a tutti i documenti che vertono su un certo tema o concetto, egli dovr pertanto formulare un quesito che specifici il tema di interesse, ed il sistema risponder al quesito fornendo i documenti attinenti a quellargomento. Nella ricerca di informazioni hanno importanza fondamentale gli aspetti linguistici, ancora oggi nellipotesi pi diffusa la ricerca avviene in modo sintattico, cio ricercando tutti i testi che contengano i termini specificati nel quesito; si ha invece una ricerca in modo semantico quando il sistema non si limita a ricercare i documenti che contengono le parole specificate nel quesito, ma cerca tutti i testi che esprimono il concetto specificato nel quesito, in qualsiasi forma esso sia espresso (anche con altre parole). La ricerca automatica di informazioni testuali si avvale solitamente di indici; un sistema per la ricerca mediante indici consta di due componenti fondamentali: - lindicizzatore, per la creazione degli indici. - il motore di ricerca, il quale sulla base degli indici individua ed estrae le informazioni richieste. Esistono tecniche estremamente raffinate per la creazione e lutilizzo di indici. Il caso pi semplice e pi comune lindice detto file invertito: esso elenca tutte le parole contenute nei documenti e riporta per ogni parola la collocazione dei documenti che la contengono (in questo caso lindicizzatore dovr estrarre le parole dai testi ed inserirle nellindice, provvedendo inoltre ad indicare per ogni parola la collocazione dei testi che la contengono). Se si sono specificati pi termini di ricerca, il sistema combiner i risultati relativi a ciascuno di essi nel modo opportuno. I sistemi che trattano basi documentarie particolarmente ampie provvedono inoltre ad ordinare i risultati ottenuti sulla base della loro rilevanza (misurata da appositi indizi), cos da indirizzare lutente verso i documenti pi promettenti. Nella valutazione delle prestazioni dei sistemi per linformation retrieval vi sono due parametri fondamentali, dalla cui combinazione risulta laccuratezza delle ricerche compiute dal sistema: - il richiamo, cio la quantit di documenti pertinenti ritrovati, in rapporto a tutti i documenti pertinenti contenuti nella base documentale. - la precisione, cio la quantit di documenti pertinenti ritrovati, in rapporto a tutti i documenti recuperati. Per valutare le prestazioni di un sistema di information retrieval non si dovr considerare un singolo quesito, ma si dovr valutare il comportamento medio in relazione ad un campione di quesiti abbastanza ampio: - il silenzio il difetto nel richiamo, e risulta dal rapporto tra i documenti pertinenti non recuperati e tutti i documenti pertinenti contenuti nel database. - il rumore il difetto nella precisione, e risulta dal rapporto tra la quantit di documenti recuperati non pertinenti e tutti i documenti recuperati. possibile utilizzare la logica anche per compiere interrogazioni complesse mediante un motore di ricerca. In questo caso, al posto di specificare una sola condizione di ricerca, si formulano interrogazioni booleane, consistenti nella combinazione logica di pi condizioni. Gli operatori booleani (and, or, not), tuttavia, non esauriscono quelli comunemente disponibili. Di regola i motori di ricerca offrono anche la possibilit di intervenire su tali connessioni logiche: - consentono di specificare che i termini compresenti, cio richiesti in and, debbano essere adiacenti. - consentono di ricercare termini incompleti. A questo proposito si ricordano due tipi di operatori:: - loperatore di troncamento consente di indicare solo linizio dei vocaboli cercati, cio si richiedono tutti i vocaboli che iniziano con lespressione troncata. - loperatore di mascheramento consente di sostituire uno o pi caratteri della chiave di ricerca con un jolly che indica un qualsiasi attributo del carattere; cos la ricerca verte su tutti i termini che coincidono con la chiave nei restanti caratteri (non ha rilievo il carattere collocato nella posizione jolly) ed ogni documento che contenga uno di questi termini soddisfer la condizione specificata mediante il carattere jolly.

4) I linguaggi di marcatura
Negli ultimi anni le distinzioni che opponevano gli archivi di file di testo e le basi di dati da un lato, ai sistemi per linformation retrieval dallaltro hanno perso importanza. Ci dovuto al fatto che si sono sviluppate nuove tecniche per la

gestione dei dati, che consentono di organizzare e rendere riconoscibili al computer anche i dati contenuti allinterno di file di testo. Questo risultato si ottiene mediante lutilizzazione di linguaggi per la marcatura (markup language), che consentono di individuare le componenti di un documento testuale racchiudendole allinterno di etichette (tag) riconoscibili automaticamente e di inserire ulteriori informazioni allinterno del documento, distinguendole rispetto al suo contenuto testuale (in questo modo i testi possono essere arricchiti con indicazioni per la loro stampa, visualizzazione e per lestrazione e d elaborazione delle informazioni in essi contenute). Un linguaggio di markup un linguaggio che consente di descrivere dati tramite dei marcatori, i tag. Possiamo distinguere i linguaggi di marcatura a seconda dei diversi tipi di markup cui danno luogo. - markup proprietari. Sono definiti e controllati da uno o pi produttori di software (anche nel caso in cui essi non possano vantare diritti di propriet intellettuale sullo standard). - markup non proprietari (pubblici). Sono definiti e controllati da enti imparziali, di solito organizzazioni internazionali che si occupano di standardizzazione. e - markup leggibile. Si ha quando una persona pu, senza notevole sforzo, cogliere le indicazioni di marcatura ed individuare le porzioni di testo a cui si riferiscono. - markup non leggibile. Si ha quando la lettura di un linguaggio di marcatura impossibile o richiede uno sforzo notevole. e - markup procedurale. Consiste nellinserire nel documento istruzioni per la presentazione del testo (per esempio, ingrandire i caratteri, usare il corsivo, ecc). - markup dichiarativo. Consiste nel caratterizzare le porzioni del testo a seconda della loro funzione nel testo stesso, a seconda della loro funzione semantica (ad esempio, indicare che una porzione di un testo normativo un comma, ecc). e - linguaggi di marcatura. Specificano le etichette (o tag) ed i comandi da utilizzare nella marcatura di un testo. - metalinguaggi di marcatura. Consentono al loro utilizzatore di definire ed usare il proprio linguaggio di marcatura, cio di definire etichette o pi in generale modelli documentali che corrispondono ai propri bisogni. Prendiamo in considerazione due esempi: - il linguaggio HTML (HyperText Markup Language, linguaggio per la marcatura dellipertesto), normalmente utilizzato nella predisposizione di pagine web e quindi nella preparazione di testi destinati ad essere visualizzati in rete. - il metalinguaggio XML (eXtensible Markup Language, linguaggio estensibile per la marcatura), utilizzato soprattutto per caratterizzare le componenti strutturali dei documenti. I due linguaggi hanno un comune antenato, SGML (Standard for Generalised Markup Languages), definito agli inizi degli anni 80. Tale comune origine si rivela in alcuni aspetti condivisi: entrambi i linguaggi si basano sullidea di qualif icare gli elementi del testo raccogliendoli entro etichette, racchiuse tra parentesi angolari (un elemento di un documento marcato pertanto rappresentato da unetichetta di apertura, un contenuto ed unetichetta di chiusura; letichetta di chiusura co nsiste del simbolo / seguito dalla ripetizione delletichetta di apertura). I due linguaggi si distinguono invece sotto due profili: - HTML uno strumento di markup procedurale, in cui si specifica direttamente la presentazione grafica del testo. XML invece uno strumento di markup dichiarativo, in cui si specifica la funzione semantica degli elementi testuali. - HTML un linguaggio di marcatura, perch specifica un determinato insieme di etichette da introdurre nel testo da marcare. XML un metalinguaggio di marcatura, perch specifica come lutilizzatore possa creare le proprie etichette che poi inserir nei testi da marcare (consente di creare diversi linguaggi di marcatura). HTML deve il suo nome (linguaggio di marcatura ipertestuale) alla possibilit di inserire allinterno dei documenti link (co llegamenti) ipertestuali, cio collegamenti con altri documenti e pi in generale con pagine web. XML offre la possibilit di predefinire in modo preciso e rigoroso tutti gli elementi da usare nella marcatura di un testo; tale definizione si chiama DTD (Document Type Definition, definizione del tipo di documento). La definizione della DTD importante perch determina la scelta delle etichette da impiegare nel testo e di impostarle in modo coerente, ed inoltre consente di verificare automaticamente se il testo presenti la struttura stabilita nella DTD (di conseguenza possibile costringere il redattore a rispettare la DTD, giacch il documento che non la rispetti pu essere automaticamente respinto dal s istema). Allinterno di un documento XML sono chiaramente identificate, cos da essere riconoscibili anche da parte della macc hina, non solo le componenti strutturali del testo riportato nel documento ma anche molti dati significativi associati a quel testo (ci significa che quei dati potranno essere rilevati ed elaborati automaticamente, potranno essere utilizzati nella ricerca). La marcatura XML non specifica le modalit della presentazione del testo (essa non indica, cio, quali parti del testo saranno presentate in corsivo, quali in grassetto, ecc): se si desidera ottenere un risultato grafico di un certo tipo bisogna indicare espressamente come debbono essere visualizzati i diversi elementi individuati dalla marcatura XML. Il fatto che lXML co nsenta lelaborazione automatica dei dati documentali, ne fa il primo e finora il principale strumento per la realizzazione de l cosiddetto web semantico, cio per far s che il significato dei dati disponibili su Internet sia indicato con precisione, in mo-

do che quei dati ed i documenti a cui si riferiscono possano essere elaborati automaticamente in coerenza con il loro significato.

5) Indicizzazione semantica
Per superare i limiti della ricerca sintattica, cio basata sullestrazione dei testi che contengono le parole specificate ne l quesito, sono state sviluppate numerose tecnologie, tra cui le pi importanti sono: - i soggettari. I soggettari sono liste di termini che individuano i temi o gli argomenti rilevanti, sul modello delle voci che possiamo trovare negli indici analitici e sommari dei manuali giuridici; questi termini possono essere utilizzati come descrittori dei documenti, cio associando un termine ad un documento se ne descrive il contenuto. Tale associazione pu essere compiuta da un documentalista umano oppure in modo automatico, ricorrendo ad un software in grado di analizzare il contenuto dei testi e di associarlo ai descrittori opportuni. Luso del soggettario nella ricerca automatica presuppone che tutti i documenti siano stati indicizzati usando i termini nel soggettario e che il soggettario stesso sia noto a chi compie la ricerca. Il collegamento tra descrittori e documenti pu essere posto in vario modo. Possiamo trasformare la lista dei descrittori in un indice, in cui accanto ad ogni descrittore compaiono i riferimenti dei documenti a cui il descrittore applicato. Unaltra po ssibilit consiste nellinserire i descrittori allinterno dei documenti a cui essi si riferiscono (racchiusi tra opportune etichette che indicano che si tratta di descrittori del testo, anzich di parole appartenenti al testo). Nel mondo di Internet preferibile inserire i descrittori documento, ed una volta che essi sono stati inseriti possibile costruire automaticamente gli indici necessari. Il soggettario diventa maggiormente utile, poich pu consentire una maggiore precisione nella ricerca documentale, quando esso sia strutturato in modo gerarchico, cio quando indichi che certi termini di portata pi ampia sono sovraordinati a certi termini di portata pi ristretta, in quanto la materia indicata dal termine pi ampio comprende al suo interno la materia indicata dal termine pi specifico. - i thesauri. I thesauri si hanno quando il soggettario, cio lelenco di termini che individua temi o argomenti contenuti in un determinat o documento, comprende anche una specificazione dei sinonimi di questi ultimi. Il motore di ricerca che utilizzi un thesaurus pu estendere la propria ricerca al di l dei documenti che contengono i termini indicati dallautore, infatti pu ricercare automaticamente i documenti descritti da sinonimi del termine indicato, o quelli descritti con termini pi specifici, o quelli descritti con termini associati, ecc. Collegando insiemi vocaboli strutturati in lingue diverse si ottengono thesauri multilinguistici: gli strumenti informatici per il multilinguismo giuridico sono particolarmente utili per lo studio del diritto d ellUnione Europea, che deve tener conto della diversit dei sistemi giuridici degli Stati membri, espressi nelle diverse lingue nazionali. - le ontologie. Si ha unontologia quando il sistema terminologico, cio la specificazione del significato dei termini e dei loro rapporti, fornisca un vero e proprio modello concettuale, che indica quali sono le classi rilevanti, quali classi sono incluse in quelle pi ampie, quali sono le condizioni per lappartenenza ad una classe, e le relazioni tra le diverse classi. Nelle ontologie formali i contenuti sono definiti con precisione logica , e per questo sono elaborabili automaticamente. Se disponiamo di unontologia formale, possiamo individuare con precisione il concetto che ci in teressa e richiedere tutti i documenti attinenti a quel concetto o ai concetti che si trovano in una particolare connessione con esso. Unontologia formale pu essere utilizzata per fare ragionare i sistemi informatici. Esempio: se lontologia indica al sistem a informatico che la documentazione parte del software, e che il software unopera dingegno, e che le parti delle opere dingegno non possono essere riprodotte senza lautorizzazione del titolare del diritto dautore, il sistema potr concludere che la documentazione di un software non pu essere riprodotta senza lautorizzazione del titolare del diritto dautore sul software. Unontologia pu essere utilizzata anche per far comunicare sistemi informatici che utilizzano diverse terminol ogie. Esempio: se il sistema dellimpresa acquirente usa il termine ordine dacquisto per indicare latto che il sistema dellimpresa fornitrice indica come proposta dacquisto, ma nei due sistemi i due termini sono collegati al medesimo co ncetto di unontologia condivisa, quando il sistema della seconda impresa riceve un atto qualificato come ordine dacquisto, lo potr elaborare secondo le procedure previste per le proposte dacquisto. Esistono ontologie fondazionali: si occupano dei concetti pi astratti dellessere (identit, differenza, somiglianza, partecipazione, ecc). Esistono anche ontologie di dominio: si occupano di particolari ambiti della conoscenza e possono mirare a coprire un intero ambito disciplinare (la biologia, la chimica, la medicina, lingegneria, ecc) o possono limitarsi ad un particolare aspetto della realt (cibo, computer, aeroplani, ecc); si parla di ontologie del nocciolo di un dominio per indicare le ontologie che si limitano a rappresentare i concetti pi importanti allinterno di un particolare ambito. Lo sviluppo di ontologie formali in ambito giuridico si collega allopera di tanti giuristi e filosofi del diritto che hanno cercato di caratterizzare con precisione le categorie giuridiche e di specificare larchitettura delle loro relazioni. Le nuo ve teorie e tecniche sviluppate nelle ricerche sulle ontologie formali offrono notevoli opportunit per lo studioso del diritto, modelli tratti dalla ricerche ontologiche possono infatti consentire allo studioso del diritto di perfezionare le analisi dei concetti giuridici, di rappresentare con precisione le diverse strutture concettuali in uso, nonch di precisare i contenuti di queste e di coglierne i difetti formulando poi proposte di revisione. Le moderne tecniche per la costruzione di ontologie formali, consentendo di unire espressivit e precisione nella rappresentazione dei concetti, possono collegare analisi giuridiche e realizzazioni informatiche.

6) La crittografia e linformatica
Le tecnologie informatiche liberano le informazioni dalla loro dimensione fisica, e cos ne favoriscono la conoscibilit e la modificabilit: le informazioni digitali possono essere riprodotte istantaneamente e trasmesse a distanza a velocit immediata, inoltre possono essere modificate a piacimento di chi interviene su di esse. Vi sono per dei casi in cui i soggetti sono interessati a limitare la conoscibilit di certe informazioni, a mantenere riservati certi messaggi; in altri casi i soggetti sono interessati allautenticit ed allintegrit dei documenti informatici che invano o che gli pr ovengono (quando inviamo un testo vogliamo essere certi che il destinatario lo ricever nella sua integrit, e quando riceviamo un testo vogliamo essere sicuri che si tratta del testo che ci stato inviato da chi ne appare essere il mittente e senza interventi da parte di terzi). Ci vale in particolare, ma non solo, per i testi che documentano fatti giuridicamente rilevanti (ad esempio unofferta contrattuale). Es istono tecnologie informatiche per soddisfare tali esigenze, la pi importante delle quali la crittografia (essa ha trovato numerose applicazioni informatiche, alcune delle quali, come la firma digitale, hanno grande rilevanza per il diritto). La crittografia, dal greco kryptos (nascosto) e graphia (scrittura), la disciplina che si occupa della cifrazione (o codifica) e della decifrazione (o decodifica) dei testi. Le tecniche crittografiche consentono di trasformare un testo leggibile (testo in chiaro) in un testo non pi comprensibile al lettore (testo cifrato), e di risalire dal testo cifrato al testo in chiaro. La crittografia esiste da pi di 2.000 anni, gi Giulio Cesare us un semplice metodo crittografico per trasmettere i messaggi segreti. Allinizio del 900 si cominci a ricorrere a dispositivi meccanici per la crittografia: u n esempio particolarmente significativo rappresentato da Enigma, la macchina usata per le comunicazione nellesercito tedesco durante la seconda guerra mondiale, i cui messaggi furono decifrati con i contributi dei matematici polacchi ed inglesi, e grazie al calcolatore Colossus. I calcolatori consentono di eseguire algoritmi per la cifrazione/decifrazione dei testi molto complessi, tali algoritmi compiono la cifrazione/decifrazione sulla base di parametri detti chiavi. Una volta tradotti tali algoritmi in un programma informatico, potremo affidare direttamente al computer la cifrazione o la decifrazione di un messaggio. Esistono due tipi di sistemi crittografici: - sistemi a chiave simmetrica, che usano la stessa chiave sia per la cifrazione sia per la decifrazione del messaggio. In questi sistemi chi un grado di compiere una delle due operazioni, cifrazione o decifrazione, necessariamente in grado di compiere anche laltra operazione, poich la chiave che usa la stessa. - sistemi a chiave asimmetrica, che usano due chiavi diverse e tra loro complementari, una per la cifrazione ed una per la decifrazione del messaggio. In questi sistemi le operazioni di cifrazione e di decifrazione sono indipendenti, infatti chi conosce solo una delle due chiavi non pu svolgere entrambe le funzioni. La crittografia asimmetrica consente di realizzare i sistemi a chiave pubblica, nei quali ciascuno dei soggetti che si scambiano informazioni ha la titolarit di una diversa coppia di chiavi: una chiave della coppia, la chiave privata rimane segreta e conosciuta solo al titolare, mentre laltra chiave della coppia, la chiave pubblica resa pubblicamente accessibile e conoscibile a tutti coloro che intendono comunicare con il titolare. Questi sistemi consentono i garantire tanto la riservatezza delle comunicazioni, quanto lautenticit e lintegrit dei messaggi. Alcuni anni fa le tecniche crittografiche pi avanzate erano riservate agli usi militari e ne era vietata la comunicazione al pubblico. Si temeva infatti che la disponibilit di queste tecniche avrebbe messo a rischio la sicurezza nazionale, poich essere avrebbero consentito alle reti criminali o spionistiche di comunicare liberamente, sottraendosi alle indagini di polizia. Le esigenze delle comunicazioni elettroniche e la facile disponibilit di software per la crittografia hanno per reso, negli anni successivi, impraticabile tale divieto ed oggi i potenti sistemi crittografici sono accessibili a tutti. Le tecniche crittografiche possono essere usate per linvio di messaggi segreti, in quanto anche se il messaggio viene intercettato esso non potr essere letto se non se ne conosce la chiave di decifrazione. I sistemi a chiave asimmetrica offrono maggiori garanzie di sicurezza rispetto ai sistemi a chiave simmetrica. Nei sistemi a chiave simmetrica necessario che entrambe le parti posseggano la stessa chiave, pertanto prima che le parti possano comunicare usando la chiave condivisa necessario che esse si scambino tale chiave, e chi in grado di intercettare le comunicazioni tra le parti potr ottenere la conoscenza della chiave intercettando il messaggio in cui essa trasmessa, e grazie ad essa potr decifrare le comunicazioni successive. Nei sistemi a chiave asimmetrica, invece, il destinatario del messaggio rende nota una delle sue chiavi (che svolge quindi la funzione di chiave pubblica) ed invita il mittente ad usarla nellinvio dei m assaggi a lui rivolti; anche se il terzo riesce ad intercettare un messaggio diretto al destinatario e conosce la chiave pubblica dello stesso, non potr decifrare il messaggio, perch a tale fine necessaria la chiave privata del destinatario, che questi ha mantenuto segreta non comunicandola ad alcuno. La crittografia asimmetrica pu essere usata anche per garantire l autenticit e lintegrit del messaggio. Il mittente pu cifrare il testo usando la propria chiave privata ed inviare al destinatario sia il testo cifrato sia il testo in chiaro da cui il testo cifrato stato tratto. Il destinatario del messaggio pu quindi decifrare il testo cifrato usando la chiave pubblica del mittente: se la decifrazione del testo cifrato d un risultato identico al testo in chiaro ricevuto il destinatario pu avere sia la certezza che il messaggio stato inviato dal titolare della chiave privata corrispondente alla chiave pubblica usata per la decifrazione, sia la certezza che quel messaggio non stato modificato da terzi. Poich le due chiavi del mittente operano in coppia, se il testo cifrato fosse stato ottenuto usando una chiave diversa dalla chiave privata del mittente, dal testo cifrato non si sarebbe

potuti risalire al testo originario usando la chiave pubblica del mittente, e se il testo in chiaro fosse stato modificato da terzi esso non coinciderebbe con il risultato della decifrazione del testo cifrato. La firma digitale, basata sulla crittografia asimmetrica, la tecnologia che meglio garantisce lautenticit e lintegrit dei documenti elettronici. La tecnologia della firma digitale usa la doppia chiave nel modo sopra descritto, con una particolarit: la cifrazione asimmetrica non viene applicata a tutto il testo in chiaro, ma solamente ad unabbreviazione di questo, la sua impronta (digest), estratta automaticamente a partire dal testo in chiaro. La formazione della firma digitale segue quindi una sua procedura: - il mittente crea limpronta del testo in chiaro, utilizzando una procedura informatica denominata funzione di hash, la quale garantisce lunivocit dellimpronta (ci significa che da testi diversi la funzione di hash estrae sempre impronte diverse). - il mittente cifra limpronta usando la propria chiave privata, ottenendo cos la firma digitale del testo in chiaro, la quale viene inviata al destinatario assieme al testo in chiaro. Ogni testo su cui una persona apponga una firma digitale ha una diversa firma digitale, che risulta dalla codifica dellunivoca impronta di quel testo con la chiave privata del mittente. - il destinatario applica al testo in chiaro ricevuto la funzione di hash, estraendone una nuova impronta. A questo punto egli decifra limpronta cifrata ricevuta con il messaggio, mediante la chiave pubblica del mittente. - il destinatario pu verificare lautenticit e lintegrit del messaggio accompagnato dalla firma digitale in questo modo: egli confronta limpronta estratta dal testo in chiaro con quella ottenuta attraverso la decifrazione. Se le due impronte sono identiche significa che il messaggio stato codificato con la chiave privata del mittente e non stato modificato da alcuno. Lobbiettivo della firma digitale di fornire al destinatario la garanzia che il messaggio proviene effettivamente da chi appare esserne il mittente. Non esistono soluzioni tecnologiche capaci di prevenire tutti i possibili abusi delle firme digitali. La garanzia che una firma digitale appartenga realmente a chi appare esserne il titolare fornita da un certificatore (cio unautorit di certificazione). Il certificatore fornisce al titolare della firma digitale un certificato, cio un documento elettronico che attesta la sua identit, la chiave pubblica attribuitagli ed il periodo di validit del certificato stesso. Il titolare della firma allega il certificato ai messaggi firmati, e sulla base di questo il destinatario del messaggio pu rivolgersi al certificatore, attraverso il software per il riconoscimento della firma digitale, per verificare lidentit del mitte nte.

CAPITOLO 5: Internet
Le tecnologie informatiche hanno fornito la base per la pi grande invenzione degli ultimi decenni: Internet, la rete globale.

1) Internet, la rete globale


Internet una rete di computer che si estende su tutto il pianeta ad accesso pubblico , attualmente rappresentate il principale mezzo di comunicazione di massa. Con la parola Internet facciamo riferimento a diversi elementi di una realt complessa: - i collegamenti tra i calcolatori, ossia lintreccio delle linee di collegamento fisiche (cavi ottici, linee telefoniche, ponti radio, ecc) sulle quali viaggiano i segnali elettronici (bit). - le macchine che governano il viaggio dellinformazione su tali linee di collegamento (si tratta di calcolatori spesso destinati esclusivamente a questo compito, i quali indirizzano i messaggi verso la loro destinazione e controllano il funzionamento delle apparecchiature elettroniche della rete). - le regole (protocolli e standard) che stabiliscono come debbano essere formati i dati destinati a viaggiare sulla rete, e come i sistemi della rete debbano interagire (sono le regole condivise che consentono linteroperabilit tra diverse apparecchiature e diversi programmi, tra diversi hardware e di versi software). - i software di rete, cio i programmi informatici che, nel rispetto dei protocolli e degli standard, gestiscono i messaggi, indirizzandoli verso la loro destinazione ed elaborandoli in modo appropriato. - i calcolatori connessi in rete (tutti i calcolatori che entrano a fare parte di Internet grazie ad un collegamento di rete). - le entit virtuali esistenti nella rete, come siti, servizi, giochi, ambienti virtuali, applicazioni, ecc che risultano dai processi di elaborazione realizzati dai calcolatori connessi in rete. - le persone e le organizzazioni che usano i calcolatori della rete. - le istituzioni che si occupano delle gestione e dello sviluppo di Internet . A differenza di altre conquiste tecnologiche e scientifiche, rimaste a lungo limitate ad una parte dellumanit, Internet si rapidamente estesa fino ad abbracciare una porzione significativa della popolazione mondiale. Internet quindi: - favorisce linterazione, e ci deve essere inteso in senso ampio, infatti la dimensione globale di Internet non si limita allassorbimento passivo delle informazioni, ma ogni nodo della rete pu essere sia fruitore sia fornitore di i nformazioni. - globale e favorisce la globalizzazione, poich grazie ad essa le distanze diventano irrilevanti nella comunicazione, cosicch interazioni personali e strutture organizzative possono essere distribuite su tutta le Terra. - pervasiva, nel senso che riguarda ogni settore dellattivit umana.

2) Levoluzione di Internet
La formazione di Internet si compiuta nellarco di pochissimi anni. Gli inizi degli studi che diedero origine ad Internet risalgono ad alcune ricerche avviate negli anni 60, dalle quali emerse lidea di un collegamento di calcolatori in rete. Fino a quei t empi i calcolatori, pochi ed estremamente costosi, erano collegati mediante cavi a terminali privi di capacit autonoma di elaborazione, e dai terminali collegati ad un calcolatore gli utenti potevano accedere solamente a quel calcolatore. Mediante la creazione di reti di calcolatori ci si proponeva di far s che il singolo utente potesse accedere a pi calcolatori, non pi solo a quello collegato al suo terminale, e che si potessero compiere elaborazioni consistenti nella condivisione di risorse (macchine, memorie, dati, ecc) residenti sui diversi calcolatori. Nellambito di ARPA (Agenzia per i progetti di ricerca avanzati, un ente collegato al Dipartimento della Difesa degli Stati Uniti con la funzione di curare lo sviluppo delle tecnologie di interesse militare) fu dato avvio, anche grazie alla collaborazione delle universit americane pi avanzate nella ricerca informatica, allo sviluppo di ARPAnet, la rete progenitrice di Internet. Tale rete colleg dapprima quattro universit americane, per poi estendersi ad altre universit e centri di ricerca. Le motivazione di ARPAnet erano diverse ed ancora oggi si discute su quale fosse lispirazione fondamentale. Si afferma spesso che alla sua origine vi sia stato un obbiettivo militare, cio quello di consentire l accesso a risorse informatiche anche nellipotesi in cui uno o pi calcolatori o collegamenti fossero divenuti inutilizzabili. ARPAnet adottava la tecnica della commutazione a pacchetti, un nuovo modo di utilizzare le linee di comunicazione, che rappresentava un fondamentale progresso rispetto alle tecnologie adottate in precedenza (ad esempio, i collegamenti telefonici o i collegamenti via radio). Lordinaria rete telefonica utilizza la tecnica della commutazione di linea: una linea telefonica rimane a disposizione della sola comunicazione tra i due telefoni collegati per tutta la durata della chiamata (in questo modo le capacit della linea sono sfruttate poco, per i soli dati inviati nel corso della chiamata, cio le parole pronunciate dalle due persone). La tecnica della commutazione a pacchetti consente invece di utilizzare una linea per pi comunicazioni contemporaneamente. Questo risultato si ottiene suddividendo ogni messaggio in pacchetti, i quali contengono una porzione del messaggio e le indicazioni necessarie per indirizzare il pacchetto a destinazione, e quando tutti i pacchetti sono giunti a destinazione il messaggio ricomposto, riunendo tutti i pacchetti nellordine appropriato. Perch un messaggio suddiviso in pacchetti possa viaggiare dal punto di invio al punto di destinazione e poi essere ricostruito nella sua integrit, bisogna che ogni pacchetto contenga le informazioni necessarie: lindicazione del punto di partenza e del punto di arrivo desiderato, la posizione di uno specifico pacchetto rispetto agli altri pacchetti componenti il messaggio, e le informazioni di controllo mediante le quali verificare lintegrit del messaggio. Queste indicazioni debbono essere specificate in modo tale da essere decifrabili automaticamente. Esse sono di regola incluse in intestazioni che formano la prima parte del pacchetto, producendo i dati, cio la porzione del messaggio collocata nel pacchetto stesso. I pacchetti che viaggiano su Internet vengono chiamati datagrammi. Affinch le informazioni di cui abbiamo detto possano essere decifrate automaticamente nel punto di arrivo, necessario che esse siano specificate secondo regole comuni, applicate sia da parte del software mittente sia da parte del software ricevente: queste regole devono costituire un protocollo condiviso. Un protocollo di rete consiste nella definizione delle regole che diverse apparecchiature elettroniche devono rispettare per poter dare luogo alle funzionalit preposte alla loro comunicazione. I protocolli di rete costituiscono la lingua comune con cui i computer connessi ad Internet si interconnettono e comunicano tra loro, indipendentemente dalla loro architettura hardware o software: grazie alla convergenza su un protocollo comune possibile realizzare la connessione e la comunicazione di macchine e sistemi eterogenei, basta che tutti si conformino alle regole di comunicazione condivise. ARPAnet adottava la tecnologia della commutazione a pacchetti, ma era ancora una singola rete; lo sviluppo di Internet richiedeva una architettura che consentisse il collegamento tra reti diverse, ciascuna delle quali potesse rimanere autonoma nelle proprie scelte organizzative e tecnologiche. Negli anni 70 furono definiti i protocolli fondamentali di Internet, chiamati TCP ed IP: - il protocollo TCP (Transmission Control Protocol), che regola il trasporto dei pacchetti nella rete (invio, scambio, ricezione). - il protocollo IP (Internet Protocol), che regola lindirizzamento dei pacchetti nella rete. Lidea fondamentale nello scambio di informazioni su Internet che le operazioni che deve compiere la rete debbano essere ridotte al minimo, affidando tutte le attivit importanti ai punti terminali della rete stessa, cio al calcolatore del mittente ed a quello del destinatario. Le apparecchiature che governano il traffico della rete, i router, si limitano a far avanzare i pacchetti verso la loro destinazione (in questo modo la funzione delle apparecchiature della rete viene semplificata, e la rete acquista una maggiore efficienza). I protocolli TCP ed IP definiscono uninfrastruttura dove ogni messaggio pu viaggiare da ogni nodo ad ogni altro nodo, senza controlli intermedi. Ogni messaggio suddiviso in pacchetti di bit, del cui contenuto la rete non si occupa; ognuno di questi pacchetti racchiuso in una busta digitale (costruita secondo le regole del protocollo IP) che riporta tutte le informazioni necessarie per trasmettere il pacchetto alla sua destinazione. I pacchetti viaggiano spostandosi di nodo in nodo, seguendo cammini non prestabiliti: il percorso di un pacchetto determinato dalle condizioni del traffico della rete, essendo i pacchetti diretti secondo algoritmi che ottimizzano lutilizzazione della rete, evitandone la congestione. La trasmissione di un pacchetto da un nodo a quello successivo compiuta da quegli appositi calcolatori che sono i router, i quali si limitano a ricevere il pacchetto inviato dal nodo precedente ed a inviarlo in avanti verso un nodo pi vicino alla destinazione, racchiuso nella propria busta digitale. Solamente quando i pacchetti giungono al calcolatore di destinazione, le buste digitali sono aperte ed i pacchetti sono riuniti e controllati.

Questa indifferenza rispetto ai contenuti trasportati costituisce la neutralit della rete: questa caratteristica rappresenta anzitutto unimportante garanzia di innovazione decentrata, nel senso che la rete pu essere usata per qualsiasi nuova soluzione tecnologica o nuovo modello economico in quanto la sua organizzazione non impone vincoli agli utenti. La neutralit della rete ha inoltre implicazioni sociali e politiche: comporta lassenza di discriminazioni rispetto al contenuto del messaggio tr asportato e rispetto alla natura del mittente (tale neutralit verrebbe meno qualora la rete fosse predisposta in modo da dare precedenza ai messaggi forniti da certe categorie di mittenti, ad esempio certe imprese commerciali, o rifiutasse di trasmettere i messaggi che contengono certi contenuti). Recentemente, autorevoli voci hanno affermato la necessit di superare la neutralit della rete. Offrendo a pagamento condizioni preferenziali (ad esempio una maggiore velocit sulla rete) ai pacchetti che presentino certe caratteristiche si otterrebbero risorse che potrebbero essere utilizzate per potenziare le infrastrutture di Internet. Grazie allabbandono della neutralit della rete, si passerebbe dalla situazione attuale, nella quale tutti si debbono accontentare di un servizio modesto, ad una nuova situazione, nella quale alcuni (chi disposto a pagare) potrebbero ottenere un servizio migliore, senza che peggiori il servizio offerto agli altri. Altre autorevoli voci sono contrarie allabbandono della neutralit della rete. Si teme che ci co mporterebbe gravi pericoli per lo sviluppo di Internet e per leconomia della rete: potrebbe comporta re un peggioramento del servizio per chi non pu pagare il prezzo richiesto per prestazioni superiori a pagamento, potrebbe condurre a violazioni della concorrenza (chi domina il mercato potrebbe ottenere condizioni migliori nella connessione e quindi una posizione privilegiata), ecc. Inoltre si teme che labbandono della neutralit della rete metterebbe a rischio la libert di espressione e l a democrazia su Internet: potendo trattare in modo diverso le comunicazioni on-line a seconda dellemittente o del contenuto del messaggio, i fornitori di connettivit, e le autorit politiche attraverso di essi, avrebbero la possibilit di controllare l uso di Internet da parte dei cittadini e di scegliere quali comunicazioni favorire e quali ostacolare. I protocolli TCP ed IP si propongono di governare non solo la comunicazione allinterno di una rete, ma anche la comunic azione tra reti eterogenee: i messaggi che viaggiano allinterno di una rete, una volta uniformati ai due protocolli, possono essere trasmessi ad altre reti, e quindi emerge la possibilit della formazione di una rete di reti. Gli anni 80 videro la formazione, negli USA, di numerose reti conformi ai protocolli TCP ed IP. Alle reti statunitensi si aggiunsero poi reti TPC-IP realizzate in altri Paesi. Una tappa importante nello sviluppo di Internet fu la creazione di una connessione ad altissima velocit: Internet venne cos ad assumere progressivamente lattuale configurazione a pi livelli, nella quale le reti locali sono connesse a reti di ampia dimensione, le quali sono connesse alle grandi infrastrutture per i collegamenti intercontinentali. Allinterno delle reti locali i calcolatori possono continuare ad utilizzare protocolli diversi da TCP ed IP, sar il router che collega la rete locale ad Internet ad occuparsi delle necessarie conversioni (nonostante questa possibilit, TCP ed IP sono frequentemente adottati anche nelle reti locali). I messaggi che viaggiano attraverso Internet sono destinati a svolgere funzioni determinate, connesse con particolari applicazioni attive sui calcolatori connessi: si tratta dei servizi di rete, come la posta elettronica, laccesso a pagine web, la chat, la telefonia su Internet, ecc. I messaggi, pertanto, dovranno contenere le informazioni necessarie per la particolare applicazione a cui sono riferiti, ed i calcolatori devono trattarli nel modo richiesto da tale applicazione (anche se essi utilizzano per quellapplicazione un software diverso da quello del mittente). I messaggi, al fine di raggiungere Internet o pervenire ai calcolatori a cui sono destinati, devono compiere un tratto sulle linee telefoniche o su una rete locale (prima di affrontare questi tratti debbono essere ampliati con le indicazioni necessarie a tale fine). Si possono distinguere cinque strati nellarchitettura di Internet: - strato dellapplicazione. Questa busta contiene le indicazioni riguardanti lapplicazione a cui il messaggio dest inato (ad esempio, nel caso della posta elettronica lindicazione dellindirizzo e -mail). - strato del trasporto (definito tal protocollo TCP). Questa busta contiene le indicazioni necessarie per il trasporto del pacchetto in rete. - strato della rete (definito dal protocollo IP). Questa busta contiene le indicazioni necessarie per lindirizzamento del pacchetto in rete. - strato del collegamento dati. Questa busta contiene le indicazioni necessarie affinch il pacchetto giunga da Internet al nostro calcolatore (specificate ad esempio dal protocollo Ethernet, attinente al collegamento mediante una rete locale, o dai protocolli PPP o SLIP, attinenti al collegamento tramite reti telefoniche). - strato fisico. Gli starti pi importanti nel funzionamento di Internet sono lo strato del trasporto e lo strato della rete. In conformit ai diversi protocolli che caratterizzano ciascuno strato, specifiche informazioni sono aggiunte ai pacchetti in cui il messaggio viene suddiviso. Il pacchetto giunto tramite Internet al nostro calcolatore pu essere quindi paragonato ad una lettera imbustata pi volte: le informazioni richieste dal protocollo attinente ad uno strato inferiore (pi esterno) sono apposte all esterno del contenuto predisposto secondo il protocollo dello strato superiore (pi interno). Secondo questo modello architetturale, definito incapsulamento, ogni busta racchiude proprio come una capsula la busta dello strato superiore, e pu essere trattata, in conformit al proprio protocollo, prescindendo dal proprio contenuto. Ladozione dei protocolli TCP ed IP favorisce la libera circolazione delle informazioni, allinsegna della neutralit della rete rispetto ai contenuti veicolati. La mancanza di controlli intermedi significa che la rete, fin dal suo inizio, ha avuto la propensione a diventare un mezzo di comunicazione globale.

Internet potuta diventare il luogo in cui coesistono e comunicano diverse culture. Quattro principali ispirazioni ideali hanno contribuito a formare la rete: - la cultura tecnico-meritocratica, caratterizzata dai valori della scoperta tecnologica e dalla condivisione della conoscenza. - la cultura hacker, caratterizzata dai valori dalla creativit e dalla cooperazione. - la cultura virtual-comunitaria, caratterizzata dai valori della libert di comunicazione ed associazione. - la cultura imprenditoriale, caratterizzata dai valori del denaro, del lavoro e del consumo. Agli inizi, quando Internet era usata solo da un numero limitato di persone, spesso inserite nella sua stessa costruzione, le componenti tecnico-meritocratiche ed hacker erano le principali ispiratrici della rete. Negli anni successivi, crebbero altre comunit virtuali, come quella virtual-comunitaria ed imprenditoriale. Grazie ad Internet persone che hanno certi interessi possono coltivarli assieme, la rete comporta una drastica riduzione dei costi relativi alla produzione e distribuzione dellinformazione. Sono le attivit commerciali a caratterizzare maggiormente lo spirito di Internet negli ultimi anni.

3) Gli standard e il governo della rete


Al fine della comunicazione informatica sono stati creati, fin dalla nascita di Internet, degli appositi standard condivisi (di cui i protocolli TCP ed IP sono solo un esempio). Uno standard uninsieme di regole e di convenzioni che hanno lo scopo di rappresentare una base di riferimento od un modello codificato per la realizzazione di tecnologie tra loro compatibili; uno standard di Internet una specificazione stabile, ben compresa, tecnicamente competente, che gode di un sostegno pubblico significativo e che utile in alcune o in tutte le parti di Internet. Al fine di regolare gli scambi su Internet, esistono standard per i pi diversi aspetti. Alcuni esempi: la formazione dei pacchetti ed il dialogo tra i sistemi (funzione svolta dai protocolli TCP ed IP) o particolari tipi di applicazioni (come la posta elettronica) od il formato dei documenti, ecc. Il processo di formazione di uno standard si articola in diversi momenti: - la fase preparatoria. Questa procede secondo diversi stadi, nei quali le successive versioni dello standard, via via pi mature e verificate, sono sottoposte allesame critico della comunit di Internet ed al giudizio degli organi tecnici a cui compete valutare se lo standard abbia raggiunto la maturit necessaria per passare allo stadio successivo (i documenti che riportano le versioni dello standard sono resi pubblici e prendono il nome di richieste di commenti). - ladozione dello standard dallente competente. - la pubblicazione dello standard. Con la pubblicazione, lo standard proposto agli sviluppatori di software per Internet, che lo potranno adottare per la creazione di nuovi software. Ladozione dello standard volontaria, non vi sono sanzioni contro chi si dissoci; essa si basa sul valore tecnico de llo standard e sullaspettativa che esso, in forza della sua adozione quale standard di Internet, sar seguito genera lmente o almeno da un numero ampio di sviluppatori ed utenti. La vincolativit degli standard risulta infatti dalla circostanza che ciascuno ha bisogno di adottare comportamenti coerenti con i comportamenti altrui, al fine di poter partecipare alla comunicazione ed allinterazione: se il mio software non corrisponde allo standard (cio non invia messaggi codificandoli secondo lo standard e non interpreta i messaggi in arrivo) sar io stesso a soffrirne, essendo incapace di comunicare in rete; allopposto, la mia adozione dello standard sar tanto pi fruttuosa quante pi persone utilizzano ed utilizzeranno quello stesso standard. La diffusione dello standard si basa quindi sull effetto di rete: la scelta individuale di seguire un certo standard giustificata dal vantaggio che il singolo utente trae dal fatto che lo standard sia generalmente adottato o dallaspettativa che lo sar (linteresse personale sufficiente a condurre gli individui a convergere sugli standard pi importanti). Tuttavia, questo meccanismo rende possibile la contraddizione tra razionalit collettiva e razionalit individuale: la prima richiederebbe che gli utilizzatori adottassero congiuntamente lo standard ottimale (cio quello che conduce ai vantaggi maggiori), mentre la seconda esige che ciascuno segua qualsiasi standard egli preveda sar adottato dagli altri a prescindere dal suo valore comparativo. Ladozione di uno standard deriva dalla sua approvazione da parte di comitati di esperti imparziali, in seguito ad estesi dibattiti nella comunit di Internet, sulla base della validit tecnica dello standard stesso. La decisione del comitato competente rende lo standard adottato rilevante per tutta la comunit di Internet: ogni sviluppatore indotto ad adottarlo, nellaspettativa che gli altri sviluppatori faranno lo stesso. Accanto alla normativit convenzionale degli standard (gli standard non sono norme in senso proprio, poich la loro eff icacia si basa sullinteresse individuale ad adottare comportamenti coerenti con i comportamenti al trui), la comunit di Internet ha prodotto anche norme in senso stretto, regole sociali: si tratta di credenze condivise che certi modelli di comportamento debbano essere seguiti da ogni singolo membro della comunit (nellinteresse della comunit o per ra ggiungere scopi comuni ai suoi membri), anche quando il comportamento prescritto sia contrario allinteresse particolare del si ngolo. Tali credenze normative sono solitamente combinate a sanzioni informali, consistenti nel giudizio negativo delle comunit interessata, un giudizio che pu condurre nei casi pi seri allespulsione di chi contravvenga la norma. La combinazione di protocolli-standard convenzionali e di regole sociali stata sufficiente per governare Internet ai suoi inizi. Il diritto aveva allora una funzione marginale: stabiliva i diritti di propriet sullhardware (il software era spesso di l ibe-

ra disponibilit) della rete ed i diritti fondamentali (libert di parola, di comunicazione, di iniziativa privata, ecc) consentivano di sfruttare in modo decentrato e creativo le possibilit offerte dallinfrastruttura della rete. Negli ultimi anni, in seguito alla crescita dellimportanza sociale ed economica di Internet, la normativit spontanea della rete stata affiancata da norme giuridiche. Lincontro del diritto con Internet, per, ha dato luogo ad opinioni divergenti. Da un lato vi sono le posizioni libertarie o separatiste, secondo le quali Internet crea uno spazio nuovo virtuale e globale, separato rispetto allo spazio oggetto del potere dei governi, fisico e nazionale. Alle attivit compiute allinterno di Internet non andrebbero quindi applicate le discipline giuridiche. Da un altro punto di vista, vi sono invece numerose richieste di una disciplina giuridica di Internet. Si tratta di voci provenienti dai governi, interessati a controllare la rete a fini di polizia (prevenzione del crimine e del terrorismo, censura di alcuni tipi di informazioni illegali, ecc). Altre voci in tal senso provengono dalla comunit degli affari, che hanno richiesto ed ottenuto facilitazioni per il commercio elettronico, la protezione dei marchi e dei segni distintivi, unenergica tutela della propriet intellettuale. Infine, altre voci hanno richiesto la protezion e della privacy on-line, e pi un generale la garanzia che Internet rimanga un ambiente nel quale esercitare in sicurezza i diritti civili, sociali e culturali. Secondo i protocolli TCP e IP, ogni calcolatore identificato da un numero della lunghezza di 4 byte (32 bit), definito indirizzo IP . Solitamente tale numero espresso in una forma pi facilmente leggibile e memorizzabile, convertendo ogni byte in un numero decimale. Le prime cifre dellindirizzo IP identificano la rete a cui il calcolatore appartiene, mentre le ultim e cifre identificano un particolare calcolatore allinterno di quella rete. Un calcolatore pu avere un proprio indirizzo IP permanente ( cos per i calcolatori permanentemente collegati alla rete stessa), oppure pu ricevere ogni volta che si collega in rete un diverso indirizzo IP temporaneo, che torna disponibile dopo il collegamento e potr essere assegnato a un nuovo utente ( cos per i calcolatori che utilizzano Internet mediante collegamento telefonico o via radio). Lassegnazione di un particolare indirizzo IP una operazione solitamente incontroversa: un numero vale laltro ed al richiedente assegnato il primo numero libero tra quelli disponibili nella rete a cui egli appartiene. A partire dagli anni 80 si sent lesigenza di usare un diverso sistema di riferimento, che usasse identificatori pi facilm ente memorizzabili e tali da richiamare la funzione svolta mediante un certo sito o lidentit del suo titolare: nacquero cos i nomi di dominio (domain name). Un nome di dominio si costituisce combinando pi parole separate da punti: esso corrisponde allindirizzo IP del calcolatore. Nellanalisi del nome si parte dalla fine: - lultima parola un suffisso che indica la nazionalit dellente a cui il nome appartiene o il tipo di attivit svolto dallente stesso (nel caso di un nome privo di suffisso nazionale). - la parola che precede il suffisso indica lente a cui fa capo il dominio, la quale pu essere ancora preceduta da u lteriori specificazioni qualora il dominio afferisca ad una ripartizione allinterno di quellente. Un nome di dominio identifica un dominio, cio un gruppo di indirizzi IP. Per identificare un particolare calcolatore appartenente a quel dominio, bisogna anteporre al nome di dominio unulteriore specificazione, cio il nome dell host (il calcolatore collegato ad Internet) che desideriamo contattare. Aggiungendo al nome di dominio il particolare nome di host (hostname) che contraddistingue, allinterno del dominio stesso, il calcolatore a cui vogliamo far riferimento otteniamo un nome di dominio completamente qualificato , che indica in modo univoco quel particolare calcolatore. Aggiungendo ad un nome di dominio completamente qualificato il prefisso www (world wide web) richiamiamo il servizio web svolto da quel calcolatore. Premettendo il nome di un servizio direttamente al dominio ci colleghiamo al calcolatore deputato a svolgere quel servizio allinterno del dominio. Esiste uninfrastruttura chiamata Sistema dei nomi di dominio (DNS, Domain Name System) che si occupa di tradurre i nomi di dominio completamente qualificati in indirizzi IP. Tale infrastruttura consta di una rete di calcolatori, i server DNS, che svolgono la funzione di una sorta di elenco telefonico: quando il nostro browser (il programma per navigare in rete) deve accedere ad un calcolatore di cui abbiamo indicato il nome di dominio, esso invia il nome di dominio ad un server del DNS, che risponde inviando il corrispondente indirizzo IP. Linnovazione consistente nellaffiancare i nomi di dominio agli indirizzi IP numerici ha un rilievo tecnologico limitato (si tratta solo della creazione e gestione di un elenco utilizzato automaticamente), ma ha un grande impatto giuridico. Infatti i nomi di dominio sono diventati ben presto oggetto di controversie: la prepotenza di chi, utilizzando un nome quale segno distintivo commerciale, ne pretendeva luso esclusivo anche nel mondo virtuale, oppure il comportamento approfittatore di chi registrava nomi di dominio corrispondenti a segni distintivi altrui allo scopo di richiedere un compenso al titolare del segno distintivo in cambio del trasferimento del nome di dominio, ecc. Oltre a TCP ed IP, esistono numerosi protocolli di Internet, destinati a fornire funzioni ulteriori: - il protocollo TELENET (TELecommunication NETwork, rete di telecomunicazione), che consente di interagire con un calcolatore remoto nello stesso modo in cui si opererebbe da un terminale dotato di video e tastiera collegato al calcolatore remoto mediante cavo. - il protocollo FTP (File Transport Protocol, protocollo per il trasferimento dei file), che consente di scambiare e manipolare file. Chi utilizza questo protocollo accede al sistema di file (le cartelle ed i file che queste contengono) del calcolatore remoto, e pu prelevare o depositare file, cancellarli, creare nuove cartelle, ecc (a seconda dei permessi di cui dispone). - il protocollo SMTP (Simple Mail Transfert Protocol, protocollo semplice per il trasferimento di posta), che riguarda la posta elettronica.

Ogni comunicazione inviata in rete da un particolare calcolatore etichettata con lindirizzo IP del calcolatore mi ttente. Di conseguenza, sempre possibile individuare lindirizzo utilizzando il quale stata compiuta una certa op erazione di rete (lo scaricamento di un file, linvio di un messaggio di posta, ecc); questo pu consentire a sua volta lindividuazione della pe rsona che ha compiuto quella particolare operazione. Spesso pensiamo che le attivit svolte in rete siano anonime e che possiamo accedere alla maggior parte dei siti senza dichiarare la nostra identit. Questo anonimato, normalmente, solo un illusione: quando operiamo su Internet, infatti, tutti gli accessi da noi compiuti presso un certo server sono registrati nel web-log (diario di bordo del web) del server, ossia nel file, aggiornato dinamicamente, che riporta la sequenza delle operazioni compiute su quel server. Nel web-log vengono registrati: lindirizzo IP associato al calcolatore che ha effettuato laccesso, il tempo dellaccesso, la pagina web visitata ed il browser utilizzato. Si discusso se linformazione registrata in un web -log possa considerarsi un dato personale: anche se lindicazione che una certa persona abbia compiuto in rete certe attivit uninformazione personale, il web -log non consente di collegare immediatamente la descrizione dellattivit al suo fruitore, in quanto esso si limita ad associare quellattivit ad un indirizzo IP. Lindirizzo IP consente di risalire al calcolatore mediante il quale lattivit in questione stata compiuta : nel caso di un calcolatore con IP statico baster individuare il calcolatore dotato di quellIP, mentre nel caso di un calcolatore con IP dinamic o bisogner rivolgersi al fornitore di accesso (per esempio, Telecom o Wind) che potr indicare il numero di telefono a cui stato associato quellIP nel lasso di tempo in cui stato effettuato laccesso registrato nel web -log e si individuer cos il calcolatore, o almeno lutenza telefonica utilizzata, e da questo si potr risalire ad una determinata persona, cio colui ch e si pensa abbia usato il calcolatore stesso. Le informazioni registrate nel web-log di un sito sono insufficienti ad identificare un determinato calcolatore: il meccanismo dellallocazione dinamica fa s che uno stesso IP possa essere assegnato a diversi calcolat ori in momenti successivi, e che uno stesso calcolatore possa ricevere IP diversi; ci impedisce, in particolare, di ricostruire la storia dellinterazione di un determinato utente con il sito, in quanto i diversi accessi di una stessa persona vengono effettuati con IP diversi. La soluzione comunemente adottata per raggiungere un risultato di sicura identificazione del calcolatore che interagisce con un determinato sito consiste nellutilizzare i cookie (dolcetti o biscotti, in inglese). Un cookie per il web, detto HTTP cookie (ossia cookie per il protocollo HTTP), un insieme di dati inviati dal sito e memorizzati dal browser in un file che risiede sul calcolatore dellutente. Quando un calcolatore si collega per il prima volta ad un certo sito, il sito gli invia un cookie, caratterizzato da un proprio identificatore univoco, poi ogniqualvolta il calcolatore si ricollega a quel sito, il cookie precedentemente inviato viene rispedito al sito, il quale quindi sa che il nuovo accesso stato compiuto proprio dal calcolatore al quale aveva precedentemente inviato il cookie. I cookie sono semplici dati, ma sono tuttavia problematici per quanto riguarda la protezione della privacy: il cookie consente al sito che labbia inviato di unire tutti gli accessi compiuti con un certo calcolatore, e quindi di ricostruire la storia delle attivit compiute da possessore di quel calcolatore. Si capisce come in questo modo si possa ricostruire il profilo di una persona. Sono particolarmente pericolosi per la privacy i cosiddetti cookie provenienti da terzi, cio quelli inviati non dal server corrispondente alla pagina a cui siamo collegati ma dai server in cui si trovano elementi (immagini, banner pubblicitari, ecc) visualizzati in tale pagina. Collocando pi banner in siti diversi, linserzionista potrebbe controllare linterazione di una pe rsona sui diversi siti, unificando tutte le informazioni. I browser normalmente consentono allutilizzatore di scegliere come rapportarsi ai cookie: possibile respingere tutti i co okie o solo quelli di terzi, e cancellare tutti i cookie che abbiamo gi ricevuto o solo alcuni di essi. Tale facolt garantita anche dalla nostra disciplina della protezione dei dati, cio dal Codice della Privacy, che ammette luso dei cookie per determinati scopi legittimi relativi alla memorizzazione tecnica per il tempo strettamente necessario alla trasmissione della comunicazione o a fornire uno specifico servizio richiesto dallabbonato o dallutente solo con il consenso dellinteressato. Ai tradizionali cookie (HTTP cookie) si sono recentemente affiancati nuovi tipi di dati inseriti nel calcolatore di chi accede a siti web, al fine di tracciarne il comportamento on-line: in particolare ricordiamo i flash cookie, inseriti nel calcolatore dellutente dal software Adobe Flash Player, presente su quasi tutti i calcolatori. Il contenuto e la funzione dei flash cookie pu essere analogo a quello dei cookie tradizionali, ma linterfaccia del browser non ci consente di scegliere se accettare i flash cookie o di eliminarli dal nostro computer. Siti malevoli possono utilizzare i flash cookie per continuare a tracciare il comportamento dellutente anche dopo che questi abbia eliminato un cookie mediante il proprio browser: il sito invia due coppie, un normale HTTP cookie ed un flash cookie, e qualora lutente cancelli lHTTP cookie questultimo viene ricreato sulla base del corrispondente flash cookie. Le prime applicazioni importanti di Internet furono: collegamento a calcolatori remoti ed accesso a file remoti (calcolatori e file situati su calcolatori materialmente collocati in porzioni dello spazio lontane dal luogo di accesso dellutente ), e servizio di posta elettronica. Un salto di qualit fu realizzato con la creazione del World-Wide Web (WWW, la ragnatela globale). Il Web non un software, ma un enorme insieme di documenti, unificati dagli standard usati per la loro identificazione, creazione e consultazione. I tre standard che hanno consentito lavvio del Web sono i seguenti: - URL (Uniform Resource Locator, localizzatore uniforme di risorse), un tipo di identificatore per gli oggetti del Web presenti in rete, che designa in modo univoco tali oggetti, specificando come essi possano essere automaticamente individuati e richiamati. Gli URL hanno la caratteristica di indicare la localizzazione della risorsa da essi identificata, cio il relativo indirizzo di rete, ed il protocollo da usare per richiamarla: pertanto gli URL possono essere risolti automaticamente, cio sulla base dellURL il nostro browser in grado di richiamare automaticamente loggetto individuato dallURL stesso.

HTML (HyperText Markup Language, linguaggio per la marcatura dellipertesto), il linguaggio per predisporre documenti ipertestuali. - HTTP (HyperText Transfer Protocol, protocollo per il trasferimento dellipertesto), il protocollo che disciplina linterazione tra il calcolatore client, che richiede pagine Web, ed il calcolatore server, che le fornisce. Grazie a questi standard sono stati costruiti gli strumenti software per la consultazione e lo sviluppo del Web: - i software per la navigazione in rete (i browser), quali consentono di spostarsi dalluna allaltra pagina del Web, visitando lipertesto globale (una pagina Web pu infatti contenere un link, cio un collegamento ipertestuale, ad altre pagine Web, il quale solitamente indicato a video dal fatto che una o pi parole sono sottolineate oppure scritte di un colore diverso, solitamente il blu). Il Web si ispira al modello dellipertesto, un sistema informatico che consente allutente di visualizzare i documenti e di spostarsi automaticamente dal documento visualizzato ad altri documenti ad esso collegati. Chi crea una pagina Web libero di inserire in essa qualsiasi contenuto e di inserire dei link a qualsiasi pagina Web di qualsiasi sito (senza la necessit di accordarsi con chi ha creato tale pagina o gestisce il relativo sito), e gli standard Web sono indipendenti da ogni particolare hardware o software. - i software per la realizzazione di siti Web. Fino agli anni 80 Internet si configurava come uniniziativa statunitense, prevalentemente sotto il controllo pubblico. Tuttavia, gi nella seconda met di questi anni, aveva avuto inizio la creazione di reti in altri Paesi. A partire dagli anni 90, Internet fu aperta agli operatori commerciali, che svilupparono proprie reti. Di conseguenza, oggi non esiste alcun soggetto particolare che possa qualificarsi come proprietario unico o principale di Internet, n alcun potere politico la cui autorit si estenda allintera rete: la propriet delle infrastrutture della rete ripartita tra numerosi enti pubblici e privati, e la rete si estende ormai a tutte le Nazioni del mondo. Conseguentemente, il governo di Internet si separato sia dalla propriet delle infrastrutture della rete, sia dal controllo delle autorit politiche nazionali, ed stato affidato a diversi organismi, formatisi nel corso degli anni per rispondere alle esigenze attinenti allo sviluppo ed al funzionamento di Internet. La nascita degli organismi di Internet talvolta connessa con iniziative di soggetti pubblici statunitensi; tuttavia, tali organismi sono riusciti ad acquistare una progressiva autonomia basata sulla loro funzione tecnica, che ha trovato un successivo riconoscimento giuridico. Grazie a tale autonomia essi hanno potuto mantenere le proprie funzioni anche quando la rete divenuta globale: si tratta di enti privati (associazioni o societ commerciali senza scopo di lucro) che perseguono, con autonomia rispetto alle autorit politiche nazionali, interessi collettivi attinenti al funzionamento ed allo sviluppo della rete. Le strutture per il governo di Internet possono suddividersi in due gruppi: - le istituzioni finalizzate allo sviluppo tecnologico ed alla definizione/perfezionamento degli standard . Lo sviluppo delle tecnologie di Internet fa capo ad ISOC (Internet Society, societ di Internet), con sedi in Virginia ed in Svizzera, unorganizzazione la cui partecipazione aperta a tutte le persone interessate a contribuire allo sv iluppo di Internet. Le scelte sono affidate ad organi collegiali prevalentemente tecnocratici (ci formati utilizzando la competenza tecnica come criterio per la selezione del personale), strutturati in modo da garantire la presenza di competenze tecniche e di specialisti imparziali, accanto alla rappresentanza dei diversi interessi implicati nello sviluppo di Internet. Quello di ISOC un modello organizzativo adottato anche dalle altre principali istituzioni di Internet. Ad ISOC fa capo IETF (Internet Engineering Task Force, task force destinata allingegneria di Internet), lorganizzazione pi importante per quanto riguarda la definizione degli standard. Essa unorganizzazione virtuale, nel senso che non ha personalit giuridica n sede fisica. IETF comprende numerosi gruppi di lavoro che si occupano dei diversi standard di Internet, la partecipazione ai gruppi di lavoro aperta, cio chiunque pu associarsi a tali gruppi, ed avviene mediante Internet. IESG (Internet Engineering Steering Group , gruppo per la direzione dellingegneria d i Internet) lorganizzazione che si occupa di sovraintendere lattivit dei gruppi di lavoro di IETF. Essa valuta, in particolare, i progressi nella maturazione degli standard e la validit dei risultati raggiunti. Anche IAB (Internet Architecture Board, comitato per larchitettura di Internet) partecipa alla definizione degli standard, essa si occupa delle questioni di carattere pi generale. A queste strutture si aggiunto negli ultimi anni un nuovo importante organismo attivo nel campo della standardizzazione, si tratta di W3C (Wold-Wide-Web Consortium, consorzio per la ragnatela globale). W3C ha personalit giuridica ed una struttura associativa, nel senso che ha sedi fisiche (negli USA, in Europa ed in Giappone) e personale stabile. W3C effettua studi che mirano a realizzare un unico Web, esteso al mondo intero ( one-Web), cio una piattaforma aperta nella quale informazioni e servizi siano a tutti accessibili, sia facilitata lelaborazione automatica delle informazioni e sia garantita laffidabilit d egli scambi. W3C si occupa anche degli studi sul web semantico. - le istituzioni finalizzate alla gestione ed allassegnazione di indirizzi e nomi . Il funzionamento di Internet richiede la disponibilit di identificatori univoci, sia indirizzi numerici sia nomi di dominio. ICANN (Internet Corporation for Assigned Names and Numbers, societ di Internet per lassegnazione di nomi e numeri) una societ commerciale, con sede in California, a cui spetta il compito di coordinamento delle funzioni riguardanti lassegnazione di quegli identificatori univoci che sono gli indirizzi numerici ed i nomi di dominio. Le attivit di ICANN sono decentrate, poich in ogni continente si trova una struttura, detta RIR (Regional Internet Registry, registro regionale di Internet), competente per lassegnazione di indirizzi numer ici; ICANN affida a ciascun RIR grandi quantit di indirizzi, che questultimo provveder a collocare in blocchi presso ciascun fo r-

nitore di servizi Internet (ISP, cio Internet Service Provider), il quale a sua volta si occuper di assegnare gli indirizzi ai propri utenti. Per quanto riguarda i nomi di dominio, lassegnazione dei nomi generici (suffissi gov, com, org, ecc) stata delegata da ICANN ad una societ denominata Network Solutions Inc. (NSI), mentre lassegnazione di nomi con suffisso nazionale (it, eu, uk, ecc) svolta da enti situati nelle diverse nazioni interessate, chiamati naming authority e registration authority. ICANN ha definito criteri uniformi per la risoluzione delle controversie attinenti allassegnazione dei nomi di dom inio. Ad esempio, per ottenere un nome di dominio generico (privo del suffisso della nazione) bisogna accettare la clausola arbitrale che affida la soluzione di eventuali dispute ad un collegio arbitrale, e le decisioni di questultimo sono applicate direttamente da ICANN. Nella disciplina dei nomi di dominio si manifesta apertamente lautonomia della regolazione di Internet rispetto al diritto statale, autonomia che riguarda non solo la formazione di regole ma anche la loro applicazione nella decisione di controversie e lesecuzione delle decisioni prese sulla base di tali regole. Anche per i nomi assegnati dalla Registration Authority italiana (suffisso it) possibile attivare una procedura arbitrale, ma la soggezione allarbitrato in Italia facoltativa, nel senso che la sottoscrizione della clausola arbitrale non condizione necessaria per ottenere il nome (il ricorso alla procedura arbitrale italiana richiede quindi il consenso di entrambe le parti, pertanto essa raramente utilizzata).

4) Il Web semantico
Il termine Web semantico fa riferimento allinserimento nel Web di informazioni comprensibili da parte del calcol atore. Il Web attuale corrisponde solo in piccola misura allidea del Web semantico. Gli oggetti presenti sul Web contengono per lo pi informazioni comprensibili solo alluomo (siano esse testi, file multimediali, canzoni, film, ecc), che il calcolatore si limita a visualizzare nel formato richiesto. Nel modello del Web semantico, invece, le pagine del Web debbono contenere anche informazioni comprensibili da parte del calcolatore, cio informazioni che possono essere elaborate automaticamente. Il Web semantico si ripromette di superare i limiti del Web presente, facilitando laccesso allinformazione e leffettuazion e di varie attivit mediante Internet; i documenti potranno includere le informazioni richieste per varie attivit che li riguardano, in particolare quelle attinenti al commercio elettronico o al governo elettronico. Lo sviluppo del Web semantico rientra nellambito di W3C, che ha promosso la definizione e lapplicazione di standard intesi a consentire lo sviluppo di tecnologie per il Web semantico. Gli standard del Web semantico che attengono agli strati inferiori sono: - lo standard Unicode, che indica come rappresentare, mediante un unico numero binario e perci in modo univoco e riconoscibile dal calcolatore, ogni carattere di qualsiasi alfabeto oggi in uso. - lo standard degli URI (Uniform Resource Identifiers, identificatori uniformi delle risorse), che indica come denominare in modo non ambiguo tutte le risorse accessibili sul Web. Gli standard del Web semantico che attengono agli strati superiori sono: - XML (eXtensible Markup Language, linguaggio estensibile per la marcatura), un metalinguaggio che consente di definire etichette per esprimere la struttura dei propri documenti e per includere ulteriori informazioni in tali documenti. - RDF, un linguaggio che consente di includere nei documenti enunciati sugli oggetti rilevanti e le loro propriet. - le ontologie, che consentono di specificare concetti e relazioni concettuali e di compiere le inferenze corrispondenti. - la logica (le regole), che permette di esprimere informazioni complesse, utilizzabili nei ragionamenti. - la fiducia, che comprende i modi per assicurare la riservatezza, lautenticit, lintegrit e laffidabilit. Oggi il Web offre unimmensa quantit di informazione giuridica, possiamo dire che diventato la principale fonte di cognizione del diritto. Tuttavia, luso del Web per conoscere il diritto complicato da alcuni fatto ri: - i documenti giuridici sono disponibili in formati diversi e non sempre leggibili con il software presente nel nostro calcolatore. - i documenti giuridici sono reperibili utilizzando i motori di ricerca, le cui prestazioni sono solitamente buone per quanto riguarda la capacit di richiamo (poco silenzio) ma abbastanza scadenti per quanto attiene alla selettivit (molto rumore) ed allaffidabilit. Tradurre il progetto Web semantico in ambito giuridico significa fare in modo che ciascuno, usando un qualsiasi tipo di dispositivo, possa ottenere dal Web informazioni giuridiche affidabili. La realizzazione del Web semantico pu consentire di accrescere lusabilit dellinformazione giuridica, facilitandone il reperimento automatico e consentendo lela borazione automatica dei dati inclusi nei documenti giuridici. In particolare sarebbe opportuno avere a disposizione: - standard condivisi per lidentificazione delle risorse giuridiche, grazie ai quali ogni atto giuridico, prodotto da qualsiasi autorit, possa essere univocamente identificato e ritrovato. - standard per la strutturazione dei documenti giuridici. - standard, basati su RTF, per associare ai documenti giuridici dichiarazioni di vario tipo (sui contenuti, lautorit emanante, i tempi, ecc). - ontologie giuridiche. - linguaggi per la rappresentazione delle norme giuridiche in forma logica .

metodi per assicurare laffidabilit dellinformazione giuridica e la sua conservazione .

5) Il Web 2.0 o Web riscrivibile


Il termine Web 2.0 fa riferimento al crescente coinvolgimento degli utenti del Web nella creazione del Web stesso e nelle infrastrutture informatiche che consentono tale partecipazione . Potremmo dire che il Web divenuto riscrivibile, nel senso che tutti possono partecipare alla sua dinamica evolutiva: i contenuti prodotti dagli utenti occupano una parte crescente del Web ed attraggono linteresse degli utenti stessi, almeno quanto se non di pi dei contenuti forniti dallindustri a culturale. Nellera del Web riscrivibile, Internet non pi solo linfrastruttura mediante la quale si pu accedere alla conoscenza, c omunicare o svolgere attivit economiche ed amministrative, essa anche il luogo nel quale le persone possono esprimersi, impegnarsi nella produzione di conoscenza, partecipare alla cultura e contribuire al dibattito sociale e politico. Ci si realizza mediante diverse infrastrutture e strumenti software, che rendono possibili le diverse dimensioni del Web: condividere documenti di ogni tipo (testi, fotografie, filmati, musica, ecc), realizzare siti individuali dove sviluppare il proprio diario pubblico (blog), commentare i contributi altrui, produrre contenuti intellettuali in modo cooperativo, partecipare a reti sociali, ecc. Nel Web 2.0 gli utenti della rete hanno cominciato a riscrivere la rete stessa, arricchendola con i propri contenuti. vero che era possibile caricare contenuti in rete e renderli pubblicamente accessibili gi prima dellavvento della rete 2.0, tuttavia la predisposizione di pagine Web ed in generale la creazione di contenuti digitali ed il loro trasferimento on-line presupponevano competenze che la maggior parte degli utenti del Web non possedeva e richiedevano un impegno al di l della disponibilit degli stessi. Il Web 2.0 trova la propria premessa in nuovi strumenti informatici che consentono a tutti gli utenti del Web di contribuire alla rete: - migliori strumenti (software open source, funzionalit disponibili on-line, ecc), accessibili a prezzi ridotti o gratuitamente, per realizzare creazioni intellettuali. - strumenti per trasferire in rete, con estrema facilit e senza costo, i contenuti prodotti. - strumenti per inserire direttamente in rete nuovi contenuti, collegandoli ai contenuti gi disponibili (rispondendo ad un messaggio su un blog, commentando un filmato, ecc). Grazie a queste nuove possibilit si verificata una rapidissima crescita della quantit dei contributi generati dagli utenti. Limpresa informatica nel Web 2.0, il modello Google: Linnovazione del Web 2.0 consiste nello sfruttare lintelligenza collettiva, cio nel comprendere, gestire e rispondere ad enormi quantit di dati prodotti dagli utenti. In seguito a tali nuove possibilit cambia la natura economica dellimpresa i nformatica. Limpresa tipica degli anni 60 e 70 era IBM, la grande produttrice di hardware che vende o noleggia ai propri clienti le macchine per il calcolo ed i relativi dispositivi periferici. Limpresa tipica degli anni 80 e 90 era invece Microsoft, la produttrice di programmi informatici, di cui distribuisce il codice ogg etto con licenza duso. Limpresa tipica del Web 2.0 Google, che non offre n apparecchiature n prodotti software, ma offre servizi. Google, fondata da Larry Page e Sergey Brin (al tempo due studenti), ha ottenuto un enorme successo grazie alla realizzazione dellomonimo motore di ricerca. Tale motore di ricerca stato affiancato da numerosi altri servizi, come la piattaforma per la condivisione di filmati YouTube, la posta elettronica G-Mail, le indicazioni geografiche e gli indirizzi di GoogleMaps, le immagini geografiche di Google-Earth (visualizzabili mediante un client installato sul dispositivo dellutente), il notiziario Google-News, i testi di Google-Books. I servizi sono forniti gratuitamente allutilizzatore, poich i proventi di Google derivano in gran parte dalla pubblicit. Non fornendo software, Google non ha bisogno di adottare misure tecnologiche o giuridiche volte a prevenire duplicazioni indesiderate: il software risiede nei server di Google, dove risiedono anche i dati di cui quel software si avvale. Gli utenti sono coinvolti in diverso modo nelle attivit di Google: fruiscono dei suoi servizi e forniscono i dati per svolgere quei servizi. Google estrae dalla rete Web le informazioni che gli sono necessarie per far funzionare il proprio motore di ricerca: esso indicizza le pagine Web associando i termini contenuti in ogni pagina allindirizzo della rete di tale pagina, e determina la rilevanza dei risultati delle ricerche, quindi lordine o ranking secondo il quale i risultati sono pres entati agli utenti, sulla base della struttura del Web e delle precedenti attivit degli utenti. Un celebre algoritmo chiamato PageRank, originariamente sviluppato da Larry Page, attribuisce rilevanza ad ogni pagina a seconda del numero di link di cui destinataria e della rilevanza delle pagine da cui provengono i link; un ulteriore criterio di rilevanza di una pagina la frequenza con la quale gli utenti hanno acceduto ad essa nel passato. Ritornando alle funzionalit di Google possiamo dire che, pi in generale, Google estrae dal Web le informazioni che gli consentono di offrire i suoi servizi (per esempio, preleva dalle pagine Web dei giornali le informazioni per compilare il proprio notiziario quotidiano, oppure ricorre alliniziativa degli utenti per riempire di contenuti le proprie raccolte di filmati). I proventi di Google derivano essenzialmente dalla pubblicit, mediante il meccanismo degli AdWords (parole per la pubblicit). Agli utenti che compiano una ricerca su Internet utilizzando il motore di ricerca Google o che effettuino una ricerca allinterno di una piattaforma fornita da Google (ad esempio, YouTube), sono fornite due liste di risultati. Sul lato sinistr o dello schermo compaiono i risultati naturali della ricerca, mentre sul lato desto vengono mostrati i link di natura pubblicitaria che rinviano a messaggi commerciali o ai siti di venditori on-line. Questo secondo ordine di risultati si spigano considerando che gli inserzionisti interessati ad una pubblicit mirata possono acquistare parole per la pubblicit, le AdWords appunto, da Google: un inserzionista pu cio indicare le parole il cui utilizzo nella ricerca attiver la visualizzazione (nella parte destra dello schermo) del proprio link pubblicitario e lammontare di quanto egli dis posto a pagare quando un utente

clicchi su quel link. In questo modo gli inserzionisti partecipano ad una vera e propria asta, che determina se il loro link sar visualizzato ed eventualmente in quale posizione (chi offre di pi otterr una posizione pi elevata nella lista dei link pubblicitari). La posizione del link pubblicitario non per determinata solamente dallesito dellasta, ma anche dalla qualit del messaggio pubblicitario ad esso collegato, misurata da Google sulla base di un insieme di fattori (ad esempio, quante volte il link stato cliccato, la rilevanza dei contenuti collegati al link rispetto allAdWord acquistata, la qualit delle pagine collegate, ecc). Le raccolte di contenuti on-line: La formazione del Web 2.0 stata resa possibile dalla disponibilit di piattaforme per la condivisione di contenuti, nelle quali lutente pu liberamente trasferire i propri contenuti rendendoli accessibili al pubblico. La pubblicazione dei contenu ti unoperazione facile, rapida e gratuita, alla portata anche degli utenti pi inesperti. Esistono numerose piattaforme per la condivisione di diversi tipi di contenuti, per fare alcuni esempi: le pubblicazioni accademiche di SSRN, i filmati di YouTube, le fotografie di Flickr, ecc. Analizziamo i primi due esempi: - SSRN (Social Sciences Research Network) contiene contributi nel campo delle scienze giuridiche e sociali, liberamente e gratuitamente scaricabili. Una volta registratosi presso il sito, lautore pu pubblicare on -line i propri contributi, rendendoli accessibili a tutti. Lautore pu limitarsi ad inserire nel sito il sommario del proprio contributo prima di pubblicare la versione definitiva su una rivista scientifica, anche se di solito gli autori mettono on-line il testo completo (nel primo caso lautore pu ottenere da altri utenti di SSRN indicazioni e commenti utili per completare il proprio articolo e correggerlo da eventuali difetti). - YouTube il pi popolare tra i siti per la condivisione di filmati e tracce musicali on-line. Fu creato nel 2.005, conobbe una rapidissima popolarit, e fu acquistato da Google nel 2.006. Tutti possono accedere ai filmati su YouTube, in pi chi si registri presso il sito pu anche caricare un numero illimitato di filmati. Di regola i filmati non possono essere scaricati, cio non se ne pu trasferire una copia sul proprio calcolatore, e possono essere visualizzati solo allinterno della piattaforma. Gli utenti che accedono ad un filmato possono inserire commenti su di esso, gli stessi possono inoltre segnalare video sconvenienti o illegali, sollecitandone la rimozione. Le raccolte di materiali on-line hanno condotto a problemi giuridici, attinenti in particolare al diritto dautore ed alla prot ezione dei dati: - problemi di diritto dautore nascono dalla pubblicazione on-line di contenuti protetti senza il consenso del titolare dei diritti (ad esempio si tratta di stabilire se accanto a chi abbia caricato il video possa considerarsi responsabile anche il gestore della piattaforma, la cui infrastruttura ha reso possibile la distribuzione abusiva). - problemi di protezione dei dati nascono in un duplice direzione (considerando sempre lesempio di prima): da un l ato si tratta del trattamento non autorizzato o comunque illegale dei dati riguardanti le persone che hanno caricato i filmati on-line o li hanno visualizzati, dallaltro lato si tratta del trattamento dei dati riguardanti le persone raffigur ate nel filmato (le immagini di persone contenute nel filmato sono dati personali quando consentano lidentificazione di tali persone). - ulteriori problemi giuridici attengono alleventuale distribuzione di contenuti illeciti (ad esempio, incitazioni nellodio etnico e razziale, incitamento a commettere reati, ecc). Le reti sociali: un sito di rete sociale (social network site) pu essere definito come un servizio basato sul Web che consente agli individui di avvalersi principalmente di tre funzioni: - la costruzione di un proprio profilo pubblico o semipubblico allinterno di un sistema circoscritto. Questa funzione contraddistingue laspetto dellidentit: gli utenti della rete creano profili che li rappresentano, grazie alla combinazione di informazioni personali di vario genere. - la condivisione delle connessioni, cio specificare una lista di altri utenti con i quali condividere una connessione. Questa funzione contraddistingue laspetto relazionale: attraverso il sito si mantengono e si sviluppano contatti con altre persone, e le connessioni contribuiscono anche alla formazione dellidentit sociale dellindividuo (il fatto di essere amico di certe persone e di partecipare a certe iniziative indica aspetti della sua personalit). - lattraversamento della rete delle connessioni, cio esaminare ed attraversare la propria lista di connessioni e le liste fatte da altri allinterno del sistema. Questa funzione contraddistingue laspetto della comunit: gli utenti della rete sociale possono identificare la forma della loro comunit ed in particolare il ruolo che essi stessi hanno al loro interno. Esistono numerose reti sociali, dotate di funzionalit diverse ed utilizzate in diverso grado in diverse aree geografiche. Oggi la rete maggiormente diffusa su scala globale Facebook. Facebook ebbe origine nel 2.005 presso lUniversit di Harvard, nella quale esisteva la consuetudine di distribuire ai nuovi studenti, al fine di facilitare la conoscenza reciproca, un volume che riportava le foto di tutti i nuovi iscritti. Mark Zuckerberg, uno studente di informatica, ebbe lidea di informatizzare il volume ed inoltre di promuovere la sua produzione ad o pera degli utenti (non pi ad opera dellamministrazione universit aria), cos essi stessi avrebbero fornito la propria foto e le informazioni con le quali presentarsi ai colleghi. Con la collaborazione di alcuni compagni Mark realizz un sito atto a svolgere questa funzione e lo mise a disposizione degli studenti di Harvard. Il successo fu rapidissimo: nel giro di pochi mesi la maggior parte degli studenti di tale universit si registr presso il sito, che fu quindi messo a disposizione di altre universit e poi aperto alla generalit degli utenti (oggi Facebook usato da circa 500 milioni di persone). Facebook stato caratterizzato da una rapida evoluzione, arricchendosi di funzioni aggiun-

tive: gli utenti possono inviarsi messaggi utilizzando unapplicazione per la messaggistica interna alla piattaforma, ogni profilo dotato di una bacheca sulla quale gli amici possono inserire i loro messaggi, gli utenti possono informare i propri amici delle proprie iniziative, si possono immettere album fotografici, ecc. Si potrebbe ritenere che Facebook realizzi nel modo pi pieno il diritto alla privacy sullinformazione, individualisticament e inteso come il diritto allautodeterminazione informativa, cio il diritto di ciascuno di scegliere con chi condividere i propri dati personali ed in quali forme. Rimane tuttavia irrisolto il conflitto tra privacy individuale e dinamiche comunicative nelle reti sociali, infatti una volta che qualcuno abbia aperto il proprio profilo ad altri diventa difficile se non impossibile controllare lulteriore utilizzo che questi facciano delle informazioni a cui hanno avuto accesso. La disciplina delle reti sociali richiede quindi un difficile bilanciamento tra privacy da un lato e libert di informazione, di comunicazione e despressione dallaltro. I blog: La parola blog, derivante da web-log (diario di bordo del web), indica un tipo di sito Web generalmente gestito da una persona o da un ente in cui lautore pubblica on-line, come in una sorta di diario,i propri pensieri, opinioni, riflessioni, considerazioni ed altro. un modello diffusosi con estrema rapidit negli ultimi anni, caratterizzato dalla rapidit di aggiornamento e dallinterattivit con i lettori. I blog vengono prodotti grazie a piattaforme on -line che facilitano la redazione e laggiornamento di pagine Web (anche allutente privo di conoscenze tecniche), consentono di pubblicare brevi messaggi (post) solitamente presentati nellordine cronologico invertito (dai pi recenti ai pi risalenti), permettono ai lettori di essere informati tempestivamente sugli aggiornamenti del sito (la pubblicazione di nuove pagine e massaggi) e di dialogare con lautore inserendo i propri commenti. La pratica del blog ha determinato due fondamentali innovazioni nelluso della rete: - laccresciuta dinamicit. Anche prima dei blog esistevano numerosi siti personali, nei quali una o pi persone presentavano s stesse e mettevano a disposizione del pubblico materiali di vario genere, tuttavia questi siti erano tendenzialmente statici o comunque caratterizzati da periodi di stabilit interrotti da occasionali o periodiche modifiche. I blog, invece, sono di regola dinamici, in essi nuove informazioni sono pubblicate di continuo. - laccresciuta interattivit. Anche prima dei blog era possibile comunicare con il titolare del sito, inviandogli messaggi di posta elettronica o sfruttando gruppi di discussione collegati al sito, tuttavia di regola i materiali presentati sul sito personale erano opera del titolare del sito, mentre linterazione si sarebbe svo lta al di fuori di esso. I blog, invece, consentono ai lettori di associare commenti alle pagine ed ai messaggi dellautore, commenti che sono v isualizzati sul blog ed ai quali lautore od altri lettori possono rispondere. Il blog diventa quindi il luogo d i dialogo tra lautore ed i lettori. Lautore del blog pu regolare tale dialogo, limitandolo ad alcune persone od esercitando un controllo preventivo sui messaggi inviati, anche se nella maggior parte dei blog concessa la massima libert (nel senso che lautore si limita ad eliminare successivamente i messaggi che ritiene sconvenienti). Linterattivit del blog potenziata da alcune funzionalit. Ricordiamo anzitutto la tecnologia del Web-feed (somministrazione del Web), che consente di ricevere automaticamente gli aggiornamenti delle pagine Web. Un Webfeed un documento in XML, associato ad una pagina Web, che indica le modifiche subite dai contenuti di tale pagina. Lutente interessato agli aggiornamenti dovr registrarsi presso il Web -feed (normalmente ci si ottiene cliccando su unapposita icona) e dotarsi di un software capace di leggere i Web -feed (oggi i browser pi diffusi sono dotati di questa funzione). Il software si collegher ai Web-feed presso i quali lutente si sia registrato, e comuni cher allutente le modifiche dei relativi siti, fornendogli anche i link ai nuovi contenuti. Bench i Web -feed possano essere utilizzati anche per altri tipi di pagine Web, essi sono particolarmente rilevanti per i blog, data la dinamicit di questi. Il blog pu avere carattere confidenziale, ed essere rivolto ad una cerchia ristretta di soggetti; allora una sorta di diario con il quale lautore condivide le proprie esperienze ed i propri interessi con amici e conoscenti, ai quali pu , se lo desidera, restringere laccesso. Altre volte il blog ha una destinazione pi ampia, rivolgendosi a quanti debbano essere aggiornati con riferimento ad una certa attivit. Infine, alcuni blog sono rivolti alla generalit degli interessati, che pu essere pi o meno ampia a seconda della tematica affrontata o della popolarit dellautore. Bench i blog nascano da iniziative particolari, non coordinate tra di loro, essi sono ricchi di interconnessioni, infatti il creatore di un blog normalmente inserisce nel blog stesso dei link che conducono alle pagine di altri blog che egli ritiene significativi per i propri lettori. Attraverso linterconnessione dei singoli blog emerge la cosiddetta blogosfera, cio la rete composta dai blog e dalle loro molteplici interconnessioni, nella quale si possono compiere ricerche utilizzando software specificamente destinati a questo scopo (i motori di ricerca per blog). I wiki e Wikipedia: Un wiki un sito Web che permette la facile creazione e modifica di un numero qualsiasi di pagine interconnesse mediante un browser Web che usa un linguaggio di marcatura semplificato o un editore di testi WYSIWYG (What You See Is What You Get). La parola wiki deriva dalla lingua hawaiana, nella quale wiki significa rapido, e quindi tale parola allud e alla rapidit di scrittura e collaborazione consentita da questa tecnologia. Le pagine dei wiki sono solitamente redatte usando un linguaggio di marcatura pi semplice e limitato dellHTML, vengono poi tradotte automaticamente in HTML, ed in questo forma to inviate al browser che le visualizzer ai lettori. Una funzione essenziale dei wiki il controllo delle modifiche: possibile esaminare tutte le modifiche subite da un testo, ed individuare con precisione chi ha effettuato la modifica ed in quale tem-

po. I wiki offrono anche strumenti per la gestione delle versioni di un testo: possibile risalire alla versione del testo precedente ad una qualsiasi modifica. I wiki sono strumenti perfetti per il lavoro cooperativo, per la collaborazione decentrata di comunit aperte di autori: essi sono rivolti alla creazione di opere comuni, nelle quali il contributo di ciascuno diventa indistinguibile dal contributo altrui. Pi autori possono intervenire sul medesimo testo, controllandone levoluzione nel tempo. Un wi ki pu essere accessibile solo ad alcune persone (a quanti collaborano al progetto cui il wiki destinato) oppure pu essere aperto al pubblico (qualunque utente registrato, e talvolta anche lutente non registrato, pu intervenire modificando il contenut o delle pagine). Si potrebbe immaginare che questa seconda modalit di gestione dovrebbe condurre alla distruzione del contenuto informativo del wiki, in seguito agli interventi di autori incapaci o di atti di vandalismo; invece, lesperienza ha mostrato c he gli interventi incompetenti o malintenzionati sono relativamente rari e comunque i successivi interventi di revisori competenti e benintenzionati pongono ad essi rimedio in breve tempo, nella maggior parte dei casi. Grazie alla tecnologia dei wiki h potuto svilupparsi la pi grande e pi letta enciclopedia oggi esistente, Wikipedia, presente in 200 lingue diverse (Wikipedia il 3 sito maggiormente frequentato del Web). Wikipedia nacque dal fallimento di un progetto precedente, denominato Nupedia, unen ciclopedia on-line alla quale tutti potevano proporre i propri contributi, la cui pubblicazione era per subordinata ad un processo di revisione e controllo affidato ad esperti retribuiti. Lorganizzatore del progetto, Jimmy Wales, di fronte allo scarso numero di contributi ottenuti a fronte dei costi elevati, dovette abbandonare il progetto. Egli venne per a conoscenza della tecnologia dei wiki, e nel 2.000 decise di avviare un nuovo progetto di enciclopedia, Wikipedia, basato su tale tecnologia, nel quale sia la redazione delle voci sia i controlli fossero completamente decentrati ed affidati alla generalit degli interessati. Chiunque poteva scrivere una nuova voce e chiunque poteva intervenire modificando una voce preesistente; a tale fine era necessario registrarsi presso il sito di Wikipedia, ma non vi erano controlli e quindi chiunque desiderasse rimanere anonimo poteva farlo creandosi unidentit fittizia. Secondo il senso comune, un progetto siffatto doveva essere destinato ad un immediato fallimento: persone ragionevoli e competenti non avrebbero fornito gratuitamente il proprio lavoro per la faticosa costruzione delle voci, ed anche se qualcuno lavesse fatto il suo contrib uto sarebbe presto stato distrutto da incompetenti e vandali. Contrariamente a queste aspettative, Wikipedia ebbe un enorme successo, conoscendo una crescita rapidissima sia nel numero dei contributi disponibili sia nel numero dei contributori e dei lettori. Alledizione inglese (di gran lunga la pi ampia) si sono affiancate altr e edizioni in numerose lingue. Si osservato che la qualit dei contributi generalmente elevata, comparabile a quella delle migliori enciclopedie commerciali (non mancano le inesattezze, ma esse vengono di solito prontamente individuate e corrette). Le motivazioni di tale partecipazione volontaria e non retribuita sono varie: linteresse per i temi trattati dalle voci, la volont di contribuire alla creazione di unopera che renda la conoscenza accessibile liberamente e gratuitamente a tutta lumanit, e cc. La collaborazione tra i redattori delle voci facilitata da una regola di neutralit, che prevede la formulazione di tutte le diverse opinioni sulle questioni controverse (lo scopo non quello di scrivere gli articoli da un singolo punto di vista, ma di rappresentare tutte le prospettive su una certa questione). La produzione paritetica di contenuti: Le esperienze appena ricordate, accanto a quella del software open source, sono alcune tra le molte che esemplificano il fenomeno della produzione paritetica di contenuti informativi. Secondo Yochai Benkler, lo studioso statunitense che pi di ogni altro ha approfondito lanalisi di questo fenomeno, la produzione paritetica si realizza mediante attivit cooperative c he non sono costruite sullesclusione asimmetrica tipica della propriet, invece gli sviluppi dei processi produttivi sono condivisi in una forma istituzionale che li lasci egualmente disponibili in modo che tutti li possano usare secondo la propria scelta individuale. Benkler osserva che fino ad oggi si riteneva che le attivit produttive si potessero organizzare secondo due modelli: il mercato (dove le persone si scambiano beni e servizi guidate nelle proprie scelte dai prezzi) e lazienda (detta anche pianific azione, dove le persone operano nellambito di una struttura gerarchica guidate dai comandi dei superiori). Ogni economia sviluppata possiede entrambe le forme di organizzazione, affidando alcuni aspetti della produzione alluna, altri allaltra. Secondo Benkler, la produzione paritetica costituisce una terza via, che si distingue sia dal modello degli scambi di mercato sia dal modello gerarchico dellazienda: chi partecipa ad iniziative produttive di questo tipo non segue n i segnali forniti dai prezzi, n le indicazioni dei superiori gerarchici. A favore di questo nuovo modo di produzione basato sulla produzione paritetica, secondo Benkler, vi sono importanti ragioni economiche: - faciliterebbe lindividuazione delle persone pi adatte a svolgere un certo compito , individuazione che lasciata agli stessi interessati, evitando le difficolt ed i costi inerenti alla ricerca dei soggetti a cui affidare un certo lavoro. Esempi: in un progetto di software libero o in Wikipedia chi si ritiene capace di sviluppare un certo modulo o di scrivere una certa voce, completamente libero di farlo, autoselezionandosi per lo svolgimento di tale compito, ed il suo contributo sar accettato se gli altri riterranno di accoglierlo in seguito a revisioni e controlli paritetici. - consentirebbe, in quanto basato sulla condivisione ed il libero accesso alle risorse informative, alle persone pi interessate e competenti nellusare una certa risorsa di farlo senza richiedere il permesso di alcuno , evitando i costi inerenti alla contrattazione per laccesso alle risorse e le rendite monopolistiche. Poich le risorse da usare in comune sono beni informativi (informazioni), il loro utilizzo non rivale, e quindi la loro generale accessibilit non ne determina leccessivo sfruttamento ed il deterioramento. La motivazione per impiegare le proprie energie nello sviluppo di prodotti a cui tutti possano accedere liberamente pu venire, secondo Benkler, dalla combinazione di due motivazioni (oltre che dallaltruismo): il piacere derivante dalla creazione e lappropriazione indiretta (cio i vantaggi economici che il creatore pu trarre in seguito alla libera accessibilit delle proprie opere).

Non sempre la produzione paritetica pu trovare piena applicazione. In molti casi altri modelli economici possono meglio soddisfare importanti esigenze: quelle dei creatori (il bisogno di essere retribuiti adeguatamente per il proprio lavoro), quelle dei loro committenti (garanzie di professionalit e disponibilit), quelle proprie di progetti permanenti e di ampia scala (disponibilit di strutture amministrative permanenti). Una dialettica simile a quella sviluppatasi rispetto al software ha caratterizzato anche il dibattito politico e giuridico circa la regolazione della produzione e delluso di altri tipi di opere dingegno: filmati, musica, opere letterarie, ecc. Come per il software, tale disciplina stata ispirata allidea che solo impedendo gli usi non autorizzati si potessero garantire sufficienti p rofitti allimpresa culturale. Ricordiamo in particolare come la nost ra disciplina sul diritto dautore stabilisca una durata molto lunga per i diritti di sfruttamento economico (che durano fino a 70 anni dalla morte dellautore) e preveda utilizzazioni libere ristrette. La stessa legge sul diritto dautore prevede anche sanzioni per luso non autorizzato di contenuti protetti: - sanzioni penali per chi distribuisca in rete contenuti protetti a fine di lucro, cio per trarne un guadagno. - sanzioni penali pi lievi per chi distribuisca in rete contenuti protetti a fine di profitto, cio per ottenere un qualsiasi beneficio patrimoniale (incluso il mero risparmi di spesa, il non-costo). - sanzioni amministrative per chi si limiti a riprodurre contenuti protetti (a scaricarli dalla rete). Come nel campo del software, cos anche in quello delle opere digitali numerose opinioni hanno rilevato come una disciplina eccessivamente restrittiva sia scarsamente applicabile ed inoltre possa favorire gli oligopoli esistenti, limitare lacces so ai contenuti culturali ed impedire le attivit creative (ostacolando laccesso alle opere dingegno). Accanto alle richieste di una riforma del diritto dautore, sono emerse iniziative volte a far s che lo stesso diritto dautore possa essere usato per amp liare laccesso alle opere ed il loro uso creativo. Il successo dellesperienza open source e lampio uso della licenza GPL hanno suggerito di estendere lo stesso modello anche ad altre opere dingegno: ne risultato il modello delle licenze creative commons. Si tratta di un sistema di licenze semplice e f lessibile, che consente allautore interessato a rendere liberamente accessibili le proprie opere di specificare a quali esclusive egli intenda rinunciare. In tutte le licenze creative commons lautore autorizza tutti a riprodurre e distribuire lopera per fini non commerciali (senza scopo di lucro), e richiede che ogni copia dellopera e delle opere derivate tratte da essa rechi no lindicazione del suo nome, cosicch la sua paternit sia sempre riconosciuta. Lautore pu, se lo desidera: - ampliare la libert dei terzi offrendo loro lulteriore libert di modificare lopera, creando opere derivate basate su di essa. - assoggettare tale libert di modifica alla clausola condividi allo stesso modo (share alike) che corrisponde al copyleft del software open source. In questo modo anche le opere derivate ottenute modificando lopera soggetta a questa clausola dovranno essere distribuite con la medesima licenza creative commons, conferendo le stesse libert ai loro utilizzatori. - consentire anche usi non commerciali. Le licenze creative commons non sono un modello utilizzabile in ogni occasione. In particolare questo modello giuridico pu essere inadatto per gli autori che traggono il proprio sostentamento dalla commercializzazione delle proprie opere. Questo modello, tuttavia, pu trovare numerose applicazioni, non solamente nellambito della produzione paritetica: ad esempio, esso frequentemente utilizzato per i contributi scientifici, i cui autori normalmente sono interessati soprattutto alla circolazione delle proprie opere (piuttosto che al modesto risultato economico che potrebbero trarre dalla loro distribuzione commerciale) e godono di regola di altre fonti di reddito. Le imprese che forniscono le piattaforme del Web impiegano un consistente numero di dipendenti ed operano a scopo di profitto, offrendo agli individui ed ai gruppi la possibilit di comunicare, di accedere ad opere dingegno e di crearne di nuove. Di regola le piattaforme funzionano in questo modo: - limpiego della piattaforma concesso gratuitamente, e le attivit che generano reddito sono quelle connesse: la pubblicit sui siti fornita a fronte di un corrispettivo da parte degli inserzionisti. - gli utenti mettono a disposizione gratuitamente i loro contenuti, cio senza percepire corrispettivi dal gestore della piattaforma. Quando le diverse piattaforme competono per attirare gli utenti, esse finiscono per offrire loro un pi ampio panorama di scelte ed opportunit. Per questo motivo pu attuarsi una sinergia: gli individui generano una crescente quantit di contenuti ed i fornitori generano migliori servizi per accogliere ed aggregare quei contenuti. In questo modo i bisogni individuali possono realizzarsi in uneconomia capace di sostenersi e svilupparsi in un quadro di autorganizzazione/autor egolamentazione. Bisogna tuttavia notare che non sempre si attua la coincidenza tra gli interessi degli utenti e la ricerca del profitto: - le imprese che offrono servizi ed in particolare piattaforme per contenuti creati dagli utenti potrebbero utilizzare i dati personali dei propri utenti in forme illecite (per esempio, tali dati potrebbero essere trasferiti a terzi contro o senza la volont degli utenti, come accade nel caso del trasferimento dei dati ad operatori commerciali che li useranno a fini pubblicitari). - gli utenti non sono pi in grado di eliminare le loro informazioni personali che hanno fornito al gestore della piattaforma, una volta che tali informazioni siano state trasferite. - il trasferimento dei dati su una piattaforma on-line comporta una perdita di controllo da parte dellutente, anche quando questi abbia la possibilit di rimuovere i dati dalla piattaforma; questi dati, infatti, possono essere stati prelevati da altri soggetti, che possono usarli in modi non previsti e non desiderati. Da q ui scaturisce lesigenza di

elaborare nuove soluzioni tecnologiche e giuridiche che consentano a chi abbia trasferito dati personali su piattaforme Web di far s che quei dati possano essere cancellati dal Web nel suo insieme, e non solo dal sito Web nel quale sono stati caricati. Questo diritto alla cancellazione, alloblio, del soggetto a cui si riferiscono i dati si contra ppone al diritto allinformazione di chi abbia ottenuto quei dati e li ritenga rilevanti, per questo motivo adeguate sol uzioni richiedono un difficile bilanciamento dei diritti e degli interessi in gioco. Si recentemente osservato che il crescente uso delle piattaforme on-line pu favorire una crescente frammentazione del Web, cio la sua suddivisione in diverse sottoreti sempre pi separate le une dalle altre (sia negli strumenti software sia nella cerchia degli utenti). Gli utenti di talune piattaforme tendono infatti a rimanere allinterno della piattaforma, usando i se rvizi che essa offre, perfettamente integrati nella piattaforma s tessa. La medesima tendenza si verifica nellaccesso al Web m ediante dispositivi mobili, i quali si presentano sempre pi come piattaforme integrate per luso dei servizi di Internet; per esempio, chi usa un iPhone di regola non accede ai servizi del Web mediante un motore di ricerca generalista (come Google), ma vi accede mediante piccoli programmi informatici detti App (da Application), che lo collegano direttamente ai siti di interesse (le App sono spesso gratuite, ma sono approvate da Apple e distribuite esclusivamente attraverso il negozio on-line di Apple). Gli ultimi anni sono stati caratterizzati da alcuni importanti sviluppi, contraddistinti dalla connessione tra Interne e la realt, tra la dimensione virtuale e la dimensione fisica. Oggi il calcolatore pu prelevare informazioni dallambiente (mediante appositi sensori) ed eventualmente operare nellambiente stesso. Linterazione automatica tra calcolatore ed ambiente acquista una nuova dimensione nellera presente, grazie allunione di due fattori: linserimento di calcolatori dotati di sensori in d ispositivi di ogni genere (telefonini, automobili, apparecchiature domestiche, ecc) ed il collegamento di questi dispositivi ad Internet (e quindi anche tra di essi). Linterazione oggi pi diffusa tra st rumenti informatici e realt si attua nei servizi basati sulla localizzazione (il nostro smartphone in grado sia di indicarci il percorso tra due luoghi sia di rilevare la nostra posizione nel percorso). Si parla di: - realt aumentata, per indicare la visione della realt ottenuta combinando la raffigurazione di un oggetto tratta dalla realt con elementi tratti dal mondo virtuale associato a quelloggetto su Internet. - Internet delle cose, per indicare lo sviluppo di Internet conseguente alla connessione in rete degli oggetti materiali. - intelligenza ambientale, per indicare linserimento nellambiente fisico di dispositivi automatici dotati della capacit di elaborare informazioni ed intelligenza, nonch di comunicare. Questi dispostivi inseriti nellambiente governano macchine di vario genere, facendo s che l ambiente stesso si adatti automaticamente alle esigenze delluomo (ad esempio, esistono oggi abitazioni od elettrodomestici automatici od intelligenti). Gli sviluppi appena illustrati sollevano non pochi problemi giuridici, in particolare attinenti alla protezione della vita privata ed alla tutela delle libert individuali. Sta infatti emergendo la possibilit di realizzare un controllo totale sulle persone, caratterizzato dal fatto che ogni nostro comportamento pu essere rilevato, classificato ed aggiunto ai nostri profili, potremmo essere manipolati da sistemi automatici a conoscenza delle nostre tendenze e debolezze. Per prevenire questi sviluppi necessario realizzare un quadro giuridico idoneo a garantire che la fusione tra il mondo virtuale e quello fisico si sviluppi nel rispetto dei valori umani.

6) La documentazione giuridica e Internet


La prima tesi, i sistemi centralizzati degli anni 60 e 70: Tra gli anni 60 e 70 alcuni sistemi per la documentazione giuridica automatica furono creati sia in Europa sia nellAmerica del Nord, negli USA tali iniziative furono sviluppate prevalentemente da imprese private mentre in Europa si attivarono soprattutto soggetti pubblici. Tali sistemi avevano inizialmente una copertura ridotta, limitata solitamente alle decisioni dei giudici supremi, ma successivamente essi si estesero a contenuti ulteriori, includendo la legislazione ed i regolamenti amministrativi. La creazione di tali sistemi si basava sullidea di realizzare in ogni Paese un singolo sistema nazionale centralizzato per la documentazione giuridica, nel quale tutte le fonti del diritto fossero registrate elettronicamente e rese disponibili per la ricerca. La storia di questo genere di sistemi comprende successi e fallimenti, ma solo pochi di essi sono sopravvissuti fino ai giorni nostri (ad esempio il sistema italiano Italgiure, che regista le massime dei pi importanti tribunali, continua ancora oggi la propria attivit, accrescendo progressivamente i propri contenuti). La prima antitesi, i molteplici sistemi isolati degli anni 80: Bench i PC potessero accedere a banche di dati remote mediante collegamenti di linee telefoniche, negli anni 80 la documentazione giuridica si spost prevalentemente su basi documentali disponibili sui PC, le quali potevano essere usate pi facilmente e senza i costi ed i ritardi del servizio telefonico remoto. Questo cambiamento nella documentazione giuridica fu consentito principalmente da due fattori: - un nuovo dispositivo di memorizzazione, dotato di capacit enormemente superiore rispetto a quella dei supporti allora disponibili. Si tratta del compact disk (CD, disco compatto), leggibile mediante un lettore ottico collegato al od inserito nel PC e consultabile mediante un software risedente sullo stesso PC. - la disponibilit di elaboratori di testi semplici ed economici. Fino agli anni 70 i calcolatori non erano ancora usati nella redazione di documenti, in quanto mancavano software per la redazione di testi sufficientemente economici ed agevoli da utilizzare, i documenti originali erano redatti in forma cartacea e dovevano poi essere ridigitati al

fine di renderli disponibili elettronicamente. Allinizio degli anni 80, invece, si resero disponibil i sui PC elaboratori di testi economici e di facile impiego, il cui uso si estese presto alla redazione di documenti giuridici mediante calcolatore (ad esempio, in molti ordinamenti negli anni 80 si inizi a distribuire unedizione elettronica della Gazze tta Ufficiale). La prima sintesi, i sistemi universalmente accessibili ma plurali degli anni 90: La sintesi tra la tesi degli anni 70 (la realizzazione di un unico sistema nazionale per la documentazione giuridica, inclusivo di tutte le fonti ed accessibile a tutti tramite un collegamento remoto ) e lantitesi degli anni 80 (la distribuzione di copie diverse di banche dati, da utilizzare su PC accessibili individualmente) si compiuta negli anni 90, mediante la rivoluzione di Internet. Tale sintesi consiste nellaccesso a tutte le fondi di documentazione giuridica mediante un unico sistema tecnologico distribuito, il Web. Abbiamo assistito negli ultimi anni ad iniziative molteplici ed eterogenee: assemblee legislative, uffici giudiziari, pubbliche amministrazioni, autorit indipendenti, ecc hanno realizzato propri siti Internet nei quali rendono disponibili informazioni giuridiche di vario genere, inoltre numerosi professionisti del diritto, in particolare avvocati, hanno iniziato a trasferire fonti del diritto sul Web. Pertanto, oggi sono disponibili sul Web numerose copie di molte fonti del diritto: leggi, regolamenti, sentenze, atti amministrativi, ecc, senza dimenticare che linformazione giuridica sul Web si estende anche al dibattito dottrinale ed a discorsi che riguardano il diritto come articoli di giornale e dichiarazioni politiche, ed un certo interesse meritano anche i blog giuridici. La sintesi di Internet ha portato ad una grande crescita nella quantit delle informazioni giuridiche disponibili sul Web, una crescita da cui hanno tratto profitto gli studiosi del diritto, i pratici ed anche i comuni cittadini. A fronte di questa crescita quantitativa c per da dire che non comunque facile ritrovare nel Web linformazione giuridica di cui abbiamo bisogno. La nuova tesi, un sistema informativo giuridico centralizzato per lera di Internet: Linformazione giuridica su Internet caratterizzata dalla frammentazione: essa fornita da enti diversi e suddivisa in mol ti siti, ma questi siti non seguono standard comuni per quando riguarda la presentazione dei documenti, il loro aggiornamento, le tecniche per la ricerca, ecc. Facilitare la cognizione del diritto nellera di Internet significa porre rimedio a questa f rammentazione, un risultato che pu essere perseguito in due modi diversi, secondo due indirizzi antitetici: - la tesi, consistente in un nuovo modello di sistema di documentazione omnicomprensivo e centralizzato, affidato alliniziativa pubblica ed il cui funzionamento sia integrato con lo svolgimento delle procedure legislative, giudiziarie ed amministrative. - lantitesi, consistente nello sviluppo decentrato di sistemi informativi giuridici, al di fuori della pubblica amministrazione, sulla base della libera disponibilit (assicurata dallini ziativa pubblica) di documenti giuridici in formato elettronico. La tesi consiste nel creare un database-madre centralizzato che contiene tutti i documenti giuridici, di qualsiasi tipo, dal quale si trarranno i diversi output in diversi formati (tale base di dati dovrebbe essere predisposta ed aggiornata mediante un processo editoriale centralizzato). In particolare la base di dati madre dovrebbe fornire gli output seguenti: una base di dati per i professionisti che offre prestazioni elevate e pi ampi contenuti, una gazzetta ufficiale con la nuova legislazione, compilazioni del diritto vigente, tutti testi ufficiali in versione originale, ecc. Questo modello offre i seguenti vantaggi: - affidabilit dellinformazione giuridica (che sarebbe estratta dalla base di dati ufficiale). - coerenza formale delle diverse fonti (che proverrebbero dalla stessa base di dati e sarebbero state predisposte secondo la medesima procedura editoriale). - riduzione del rumore nelle ricerche giuridiche (per le quali si interrogherebbe la base di dati ufficiale, anzich i molti siti disponibili su Internet). La nuova antitesi, laccesso a risorse giuridiche distribuite: Lantitesi rispetto alla soluzione centralizzata consiste nel fornire pi punti di accesso a risorse giuridiche condivise. Tali risorse, rappresentate da archivi di documenti giuridici, risiederanno normalmente sui sistemi informativi delle autorit che le hanno prodotte, sistemi che saranno accessibili in rete. Diversi fornitori di contenuti giuridici (pubblici o privati, commerciali o non) potranno accedere a tali risorse, e le potranno elaborare e distribuire nei modi che ritengono opportuni. Una volta che le autorit pubbliche abbiano reso accessibili i testi giuridici, altri attori posso occuparsi della distribuzione di quei testi e del loro arricchimento con informazioni ulteriori. Lo Stato pu intervenire sostenendo le autonome attivit di tali attori, operanti in regime concorrenziale, piuttosto che gestendo direttamente i sistemi di documentazione giuridica. Questo modello offre i seguenti vantaggi: - diversit dei servizi di informazione giuridica e concorrenza dei fornitori. - decentralizzazione ed autonomia (poich ogni ente potrebbe organizzare il proprio sistema documentale secondo i propri bisogni e le proprie capacit tecnologiche). La nuova sintesi, ladozione di standard condivisi: Nel corso degli ultimi anni emersa una terza soluzione, che consente di conservare i benefici di entrambi gli indirizzi. La sintesi basata sulla produzione e gestione di documenti giuridici secondo standard condivisi. Laspetto unificatore non

consiste pi nella creazione di un unico database ma nelladozione di uno standard comune, il quale dovr specificare come i documenti giuridici possano ricevere degli identificatori di nomi univoci (gli URI). Gli stessi organi che hanno adottato atti giuridici (atti legislativi, amministrativi o giudiziari) dovrebbero registrarli in documenti elettronici ufficiali rispettosi dello standard condiviso. Quei documenti potrebbero essere memorizzati in database distribuiti o centralizzati, essere riutilizzati ed elaborati, essere integrati con ulteriori informazioni (ad esempio, i documenti legislativi potrebbero essere arricchiti di riferimenti a commenti dottrinali). Il progetto italiano Norme in Rete (oggi non pi esistente) ha rappresentato un esempio significativo della gestione dei documenti giuridici basata su standard condivisi. Sulla base della definizione di uno standard comune, stato realizzato un sistema che prevedeva la collaborazione di tutti gli enti che adottano atti normativi (Parlamento, Governo e ministeri, autorit indipendenti, autonomie locali, ecc). In questo modello si suppone che ogni autorit produttrice di norme registri i propri documenti in una base di dati separata, ma che li strutturi secondo lo standard condiviso, e li renda accessibili su Internet. Speciali strumenti software detti spider (ragni) visitano quotidianamente le basi di dati, e ne estraggono le informazioni con cui costruire un indice centrale. Il modello di Norme in Rete stato parzialmente tradotto in realt, ed una notevole quantit di documenti giuridici era stata resa disponibile presso il sito del progetto; Norme in Rete non mirava solamente a distribuire informazione giuridica al pubblico, ma anche a rendere disponibili documenti normativi a case editrici ed altri soggetti interessati al riuso ed alla ridistribuzione del documento. Norma in Rete, pur avendo raggiunto notevoli risultati si arrestato. Il governo oggi in carica (2.010) ha infatti voluto affidare la missione della gestione informatica delle fonti ad una propria iniziativa, il progetto Norma Attiva, destinato a fornire pubblico accesso alle fonti del diritto, ed in particolare a tutta la normativa vigente.

CAPITOLO 6: Lintelligenza artificiale


I due principali modelli impiegati nello sviluppo dei sistemi di intelligenza artificiale sono: - il modello fondato sulla rappresentazione implicita della conoscenza in reti neurali e sulla sua elaborazione mediante lattivazione di tali reti - il modello fondato sulla rappresentazione esplicita della conoscenza e sulla sua elaborazione mediante ragionamento.

1) Lintelligenza
Manca una definizione univoca e condivisa di intelligenza. Solitamente si conviene che l intelligenza si rivela nella capacit di svolgere funzioni come: adattamento allambiente o a nuove situazioni, apprendimento dallesperienza, pensiero astratto, utilizzo efficiente di risorse limitate, comunicazione, ecc. Lintelligenza artificiale non si propone solamente di studiare la conoscenza, ma anche di costruirla. Come dallo studio dellintelligenza umana si possono trarre utili indicazioni al fine della costruzione dellintelligenza artificiale, cos la costruzione dellintelligenza artificiale ci aiuta a cogliere la natura dellintelligenza ed in particolare possiamo trarne ipotesi circa il funzionamento dellintelligenza umana. Esistono due diversi modi, in relazione a due diverse dimensioni, di accostarsi allo studio dellintelligenza artificiale: - lidea che lintelligenza consista esclusivamente nel pensiero (rappresentazione della conoscenza e del ragionamento) si contrappone allidea che essa includa anche linterazione con lambiente (percezione ed azione). - lobbiettivo di riprodurre fedelmente le capacit intellettiv e delluomo (con tutti i loro limiti) si contrappone allobbiettivo di realizzare sistemi capaci di razionalit (cio di elaborare informazioni in modo ottimale) prescindendo dai limiti della razionalit umana. importante distinguere tra: - intelligenza artificiale forte. Essa muove dalla convinzione che anche i calcolatori siano capaci di stati cognitivi e di pensiero, nel modo in cui ne dotato lessere umano, e conseguentemente si propone di costruire menti artificiali. Per questo indirizzo il calcolatore appropriatamente programmato realmente una mente, cio pu capire ed avere stati cognitivi. - intelligenza artificiale debole. Essa si propone di realizzare sistemi artificiali capaci di svolgere compiti complessi, sistemi che possono simulare aspetti dei processi cognitivi umani ma che non possono riprodurre quegli stessi processi, non possiedono una mente e non sono in grado di pensare. Il dibattito circa la possibilit di sviluppare forme di intelligenza artificiale forte pu essere fatto risalire al contributo di Alan Turing. Per determinare se in capo ad un calcolatore si potesse determinare una forma di intelligenza artificiale forte egli lo sottoponeva ad un test definito gioco dellimitazione: in questo test vengono interrogati due interlocutori, un essere umano ed un calcolatore, e linterrogante dovr essere in grado di stabilire, sulla base dei quesiti proposti e senza avere u n contatto diretto con i due interlocutori, quale sia lessere umano e quale invece il calcolatore. Attraverso questo test si avr la prova che lintelligenza artificiale stata realizzata quando un sistema informatico riuscir ad ingannare linterrogante, f acendogli credere di essere una persona. Nessun sistema ha ancora superato il testi di Turing, ed anzi nessun sistema si mai avvicinato a questo risultato. Dobbiamo tuttavia notare che il test di Turing solleva un certo problema legato alla sua validit: ci possiamo chiedere se un sistema che, in ipotesi, riuscisse a superare il test sarebbe una vera intelligenza artificiale o

invece sarebbe solo un mero idiota sapiente, che si milita a fingere di essere intelligente, che simula una mente senza possederla veramente. Vi stato pertanto chi ha affermato limpossibilit di realizzare sistemi informatici capaci di attivit ment ale, di pensiero in senso proprio (in particolare questa tesi stata sostenuto da John Searle).

2) Breve storia dellintelligenza artificiale


Il termine robot, oggi utilizzato per indicare le entit intelligenti artificiali capaci di azione ed interazione nel mondo fisico o in quello virtuale, trae origine da unopera letteraria: gli esseri artificiali di cui parla lopera, i robot, sono stati costruiti per servire gli uomini ma si ribelleranno ai loro padroni e ci causer la fine dellumanit. La ricerca scientifica e tecnologica nel campo dellintelligenza artificiale inizi tra gli anni 40 e gli anni 50 . La nascita dellintelligenza artificiale viene solitamente ricondotta ad una celebre conferenza tenutasi a Dartmouth (New Hampshire, USA), che riun per un mese alcuni tra i principali esperti della materia. Lo scopo esplicito della riunione era lo studio dellintelligenza, partendo dallipotesi che ogni aspetto dellapprendimento e dellintelligenza possa essere descritto con una precisione tale che si possano costruire macchine un grado di simularli. La tesi fondamentale che ispirava gli studiosi riuniti a Dartmouth era lipotesi secondo cui lintelligenza possa r isultare dal funzionamento di un sistema che manipola strutture simboliche (per esempio, sequenze di parole o numeri) producendo altre sequenze simboliche. Secondo gli stessi autori, un sistema simbolico fisico ha i mezzi necessari e sufficienti per lazione i ntelligente generale. Dato che ogni sistema di simboli fisici pu essere realizzato mediante una macchina universale, e dato che i moderni calcolatori sono macchine universali, lipotesi che un sistema di simboli fisici sia capace di i ntelligenza implica che un calcolatore potrebbe dar vita allintelligenza (una volta che f osse dotato di un software adeguato e di sufficiente memoria). Secondo questa corrente di pensiero non vi sarebbero limiti allo sviluppo dellintelligenza automatica, si tratterebbe solo di sviluppare tecnologie hardware e soprattutto software adeguate. In entrambe queste direzioni ci sono stati notevoli progressi. Negli anni seguenti, la ricerca nel campo dellintelligenza artificiale diede origine a numerosi risultati. Da un lato furono sviluppati numerosi sistemi intelligenti, cio capaci di affrontare compiti apparentemente tali da richiedere intelligenza (il gioco degli scacchi, la traduzione automatica dalluna allaltra lingua, ecc); dallaltro lato furono realizzati alcuni strumenti c he facilitavano significativamente la realizzazione di sistemi intelligenti. Questi successi condussero a previsioni esageratamente ottimistiche. Studiosi molto autorevoli si spinsero ad affermare che entro uno o due decenni sarebbero state rese disponibili macchine capaci di raggiungere lintelligenza umana. Tuttavia, i l lento sviluppo delle applicazioni di intelligenza artificiale sment queste previsioni, infatti passare da applicazioni sperimentali a sistemi utili per affrontare problemi reali si rivel molto difficile. In particolare lintelli genza artificiale non riusc ad affrontare in modo soddisfacente i compiti cognitivi (come la comprensione del linguaggio o lidentificazione di o ggetti nello spazio) che luomo compie spontaneamente ed apparentemente senza sforzo. Negli anni successivi lattenzione pass pertanto al tentativo di risolvere problemi riguardanti ambiti specialistici, nei quali la soluzione potesse essere ottenuta derivandola da unampia base di conoscenze riguardanti un particolare settore. Si tratt ava quindi di realizzare sistemi esperti capaci di risolvere in modo intelligente, cio utilizzando unampia base di conosce nze, problemi che richiedessero una particolare competenza, come quella di cui dotato un esperto umano. Si elaborarono tecniche per la rappresentazione della conoscenza in forme tali da renderla elaborabile automaticamente, ed in questo senso un certo rilievo ebbero i metodi per il ragionamento automatico ispirati alla logica (intesa come linsieme dei metodi del r agionamento corretto). Tra gli anni 70 e 80 furono realizzati numerosi sistemi esperti, ed alcuni di essi conseguirono risultati significativi in diversi campi, come la diagnosi medica, lanalisi delle strutture molecolari o la progettazione di sist emi informatici. In questi anni iniziarono anche i primi studi in materia di intelligenza artificiale e diritto, e non mancarono i tentativi di realizzare sistemi esperti di diritto. Anche nellambito dei sistemi esperti ai primi entusiasmi fece seguito una pr ofonda delusione: - si dovette constatare che i sistemi realizzati non erano in grado di sostituire la prestazione di un professionista esperto, ma semmai di integrarne la competenza. - emersero alcune difficolt inerenti allo sviluppo ed alla maturazione dei sistemi esperti. In particolare, si constatava che era difficile e costoso rappresentare la conoscenza nella forma richiesta da un sistema esperto (assai pi rigida e limitata rispetto al linguaggio umano) e mantenerla aggiornata, ed anche che non tutte le informazioni potevano essere espresse in questo modo e che, una volta ridotte in tale forma, le informazioni non potevano essere impiegate con la flessibilit di cui capace lintelligenza umana. Vi anche da dire che, da un certo punto di vista, la prospettiva dello sviluppo di sistemi esperti suscitava alcuni timori. Si temeva, cio, che luomo nel consegnare luso delle proprie conoscenze ad un sistema informatico venisse a rinunciare al possesso di tali conoscenze, delegando le proprie attivit intellettuali allo strumento elettronico. Lidea che la delega delle nostre funzioni mentali a enti materiali possa avere effetti pregiudizievoli per lo sviluppo umano merita considerazione, specialmente con riferimento ai sistemi informatici intelligenti (cio in grado di applicarsi da soli). Nei primi anni 90 vi fu quindi una profonda crisi delle ricerche di intelligenza artificiale, il cosiddetto inverno dellintelligenza artificiale, un clima di generale sfiducia nei confronti di questa disciplina. Sempre nei primi anni 90 le ricerche di intelligenza artificiale hanno incontrato Internet, che da un lato richiedeva applicazioni informatiche intelligenti e dallaltro offriva unenorme quantit di informazione in formato digitale alla quale applic are

le tecniche di intelligenza artificiale (ad esempio, le tecniche di intelligenza artificiale hanno trovato impiego nei motori di ricerca on-line). Dalla fine degli anni 90 la ricerca ripresa con rinnovato vigore e non sono mancati significativi risultati, anche operativi, in numerosi settori, tra i quali si possono ricordare: - lestrazione di informazioni da grandi masse di dati. - la selezione di informazioni rilevanti o leliminazione di quelle irrilevanti con tecniche intelligenti . - linterpretazione degli esami medici e la consulenza medica. - la traduzione automatica. - i giochi virtuali. - la gestione di operazioni militari. - il riconoscimento di immagini e movimenti. - i robot fisici, utilizzati nellesplorazione di regioni inospitali della Terra o dello Spazio ed anche nelle attivit ind ustriali, nelle pulizie domestiche, ecc. - lintelligenza ambientale.

3) Il modello connessionistico: le reti neurali


Le reti neurali sono un modello di sistema informatico usato in alcuni ambiti dellintelligenza artificiale, che riproducono il funzionamento delle strutture del nostro cervello , i neuroni e le loro connessioni. Lidea fondamentale che il comportamento intelligente non risulti solo e soprattutto dal rag ionamento (pensiero consapevole): lintelligenza, intesa come la capacit di comportamento efficace e flessibile in contesti complessi, nascerebbe anche dalladattamento allesperienza. Si tratta quindi di fornire ad un calcolatore una rete neurale, cio un modello informatico dei neuroni (le cellule che nel cervello elaborano le informazioni) e delle loro connessioni, ed algoritmi che determinano levoluzione della rete, ossia il suo adattamento allesperienza. Da un lato vi sar la specificazione di neuroni digitali, dei loro collegamenti, dei modi in cui essi operano ed interagiscono; dallaltro lato vi saranno algoritmi che specific ano come la rete debba essere modificata per adattarsi alle esperienze (se la rete da una risposta errata ad un certo input, essa sar modificata in modo che possa dare in futuro la risposta corretta). importante ricordare che anche in questo caso il calcolatore opera sulla base di calcoli binari. La ricerca sulle reti neurali ispirata allidea che lintelligenza possa ottenersi riproducendo l hardware cerebrale (i neuroni), piuttosto che riproducendo le funzioni astratte svolte da quellhardware ( il ragionamento). Lipotesi, quindi, che possiamo apprendere non solo acquisendo consapevolmente contenuti formati in un linguaggio, ma anche in modo del tutto inconsapevole, mediante la modificazione delle connessioni tra i nostri neuroni: il fatto che in certe condizioni si sia data la risposta giusta conduce ad una modifica di tali connessioni tale da far s che la stessa risposta sia data in futuro nelle stesse condizioni o in condizioni analoghe, ed il fatto che in certe condizioni si sia data una risposta sbagliata conduce ad una modifica nelle connessioni neurali tale da evitare la ripetizione dellerrore in futuro. La struttura informatica utilizzata per riprodurre questo tipo di apprendimento la rete neurale: - i neuroni artificiali riproducono informaticamente la struttura dei neuroni presenti nel nostro cervello. - ogni neurone riceve segnali dai neuroni ad esso connessi, segnali che viaggiano seguendo determinati collegamenti. - ai collegamenti tra i neuroni sono assegnati pesi, cio coefficienti in base ai quali i segnali passanti attraverso i collegamenti sono amplificati o ridotti. - il funzionamento di ogni neurone stabilito da funzioni logico-matematiche. Il neurone, quando riceve determinati segnali, verifica se questi segnali abbiano raggiunto il livello (la soglia) richiesta per la propria attivazione; se il livello non stato raggiunto il neurone rimane inerte, mentre se il livello stato raggiunto il neurone si attiva inviando a sua volta segnali ai neuroni connessi con esso. Combinando i neuroni otteniamo una rete neurale: - alcuni neuroni della rete ricevono input dallesterno (ad esempio, da una base di dati, da una telecamera che riceva immagini dallambiente, da una tavoletta sulla quale si tracciano disegni e caratteri, ecc) . - alcuni neuroni della rete, detti neuroni nascosti, sono collegati solo con altri neuroni. - alcuni neuroni della rete inviano il loro output allesterno della rete. La tecnica pi comune per addestrare una rete neurale consiste nel proporre alla rete una serie di esempi corretti, cio una serie di coppie di input e di output, dove loutput indica il risultato corretto per linput corrispondente. Lelaborazione degli esempi avviene nel modo seguente. Il sistema determina la propria risposta rispetto allinput indicato nellesempio, e se la risposta differisce dalloutput dellesempio la rete si riorganizza combinando la propria configurazione (i collegamenti ed i pesi associati ad essi) in modo da poter dare la risposta corretta (la stessa indicata nellesempio) di fronte alla riproposi zione dello stesso input. Dopo un conveniente addestramento, la rete acquista labilit di dare ri sposte corrette non solo nei casi contenuti nellinsieme degli esempi, ma anche nei casi analoghi. In ambito giuridico, le reti neurali sono solitamente addestrate mediante casi giudiziari; lobbiettivo allenare la rete in modo che essa possa riprodurre le risposte date dai giudici nei precedenti e rispondere analogamente nei casi simili. Tra le non molte applicazioni del modello delle rete neurale in ambito giuridico, si pu ricordare il sistema Split-up, cui stato affidato il compito di ripartire il patrimonio tra gli ex coniugi in seguito ad un divorzio. Gli autori del sistema furono

indotti ad utilizzare la tecnica delle reti neurali in quanto, dallanalisi della legislazione e delle sentenze, non avevano rinvenuto regole precise la cui applicazione logica ai fatti dei casi potesse condurre alle soluzioni adottate dai giudici. In materie di questo tipo i giudici sembrano infatti operare in base ad unintuizione allenata piuttosto che secondo regole precise, si tratta di unintuizione informata dalla conoscenza dei casi precedenti e dalle esperienze dello stesso decisore. Nella rete Split-up, i neuroni di input rappresentano i fattori rilevanti nella decisione dei casi in questione (i dati di input sono il contributo dei coniugi alla formazione del patrimonio e lammontare del patrimonio stesso), ed i neuroni di output indicano le possibili divisioni del patrimonio. Secondo gli autori del sistema, tale semplice rete, dopo essere stata allenata sottoponendole alcune centinaia di casi precedenti, sarebbe divenuta capace di riprodurre le decisioni dei casi passati e avrebbe acquistato la capacit di prevedere con sufficiente precisione le decisioni dei casi futuri. Luso delle reti neurali nellapplicazione del diritto stato finora assai limitato. Unimportante ragione di ci sta nel fatto che le reti neurali, anche quando indicano soluzioni giuridiche plausibili, non offrono una giustificazione di tali soluzioni, nel senso che non indicano quali premesse conducano al particolare risultato proposto. Ci dovuto al fatto che la conoscenza utilizzata da una rete neurale implicita nella struttura della rete (nelle connessioni neurali e nei pesi associati ad esse), non formulata in proposizioni esplicite. Secondo il parere di Sartor, le reti neurali artificiali oggi disponibili hanno una capacit molto limitata nel ricevere e nellelaborare le esperienze (esse sono assai semplici se paragonate alla complessit delle strutture neu rali del cervello umano). Questi limiti consigliano una grande cautela nellimpiego di reti neurali, ma non ne escludono il possibile utilizzo per problemi circoscritti

4) Conoscenza esplicita e ragionamento


Il calcolatore pu essere dotato di algoritmi per il ragionamento, cio algoritmi che consentano di passare da certe premesse alle conclusioni logicamente fondate su tali premesse (il passaggio da premesse a conclusioni, secondo schemi di ragionamento forniti dalla logica, prende il nome di inferenza). La verit/validit della conclusione tratta da un certo insieme di premesse mediante uninferenza garantita solamente dalla compresenza delle seguenti condizioni: - la verit/validit delle premesse. - la correttezza dellinferenza. - lassenza di inferenze prevalenti contro limpiego delle premesse o contro lesecuzione dellinferenza. Anche quando compie ragionamenti il calcolatore si limita ad eseguire calcoli binari, ma in questo caso si tratta di complesse combinazioni di tali calcoli effettuate secondo le indicazioni di un programma ragionatore, che danno luogo agli stessi processi di inferenza che effettua anche la nostra mente quando compie ragionamenti logicamente corretti. Possiamo quindi affermare che lesecutore algoritmico si trasformato in un ragionatore automatico; di conseguenza, la programmazione diventa programmazione logica, la quale consiste nellesprimere la conoscenza (le premesse del ragionamento) in un linguaggio logico, cosicch il sistema possa compiere ragionamenti automatici basati sulla conoscenza. Un altro modello di sistema informatico usato nellambito dellintelligenza artificiale quello basato sullutilizzo esplicito della conoscenza, mediante metodi per il ragionamento automatico (questo anche il modello prevalente). A questo fine bisogna che il sistema informatico disponga di due componenti: una rappresentazione della conoscenza rilevante e metodi per il ragionamento automatico applicabili a tale rappresentazione. La caratteristica essenziale dei sistemi basati sulla conoscenza consiste nel fatto che il loro funzionamento, cio il modo in cui affrontano i problemi loro affidati, si basa sullutilizzo di una base di conoscenza. Tale base di conoscenza consiste in un insieme di informazioni specialistiche, attinenti allambito in cui tali sistemi debbono operare. I sistemi basati sulla conoscenza sono spesso identificati con i cosiddetti sistemi esperti, cio i sistemi intesi a fornire funzionalit che richiedono una specifica competenza professionale. Un sistema basato sulla conoscenza indubbiamente un sistema esperto, nel senso che esso svolge funzioni basate su conoscenze specialistiche che solo un esperto possiede. Ci non significa per che esso sia un vero esperto, cio che possa svolgere da solo un intera prestazione professionale, co mprensiva di tutte le funzioni che si affiderebbero allesperto umano. Questo obbiettivo non realizzabile con le tecnologie disponibili oggi e nemmeno nel vicino futuro. Anche in un futuro pi lontano un esperto automatico rimarr privo delle capacit cognitive legate alla condizione umana (ad esempio, la capacit di immedesimarsi nella posizione dellaltro, di c oglierne gli stati psicologici, i ragionamenti, i bisogni, e quindi di apprezzare pienamente gli interessi e valori in gioco). Si potranno invece affidare allelaborazione automatica particolari fasi o momenti delle attivit giuridiche che si affiancano e si integrano a quelli affidati alluomo. Il tipo di ragionamento pi frequente in ambito giuridico l applicazione di regole. Per regola, in questo contesto, non si intende un enunciato che qualifichi come obbligatorio, vietato o permesso un certo comportamento, ma un enunciato condizionale che collega un antecedente ed un conseguente consentendo di inferire il secondo dal primo (la fattispecie astratta lantecedente della regola e la conseguenza giuridica astratta ne il conseguente ). I sistemi basati su regole costituiscono il tipo pi semplice e diffuso di sistema basato sulla conoscenza: tali sistemi contengono una base di conoscenza costituita da regole, ed un motore di inferenza che applica tali regole ai dati di fatto attinenti ai casi concreti (le informazioni attinenti ai casi possono essere fornite dallutilizzatore umano del sistema od estratte da a rchivi informatici).

Limportanza di tali sistemi (ideati a partire dagli anni 70) consiste nella possibilit di applicare un numero elevato di reg ole, addirittura decine di migliaia, tenendo conto dei collegamenti tra di esse, ed in questo modo essi possono colmare i limiti della memoria, dellattenzione e della capacit combinatoria delluomo. Il modello del sistema basato su regole ha trovato applicazione in numerosi ambiti (concessione di crediti, determinazione di polizze assicurative, ecc). I risultati operativi ottenuti in ambito giuridico mediante sistemi basati sulla conoscenza furono inizialmente inferiori alle attese. Negli ultimi anni, per, queste iniziali delusioni sono state seguite da alcuni importanti successi, in particolare nellambito della pubblica amministrazione. La ragione fondamentale di questo cambiamento da ritrovarsi soprattutto nellavvento di Internet; il Web rappresenta, infatti, un modo aperto dove un sistema pu essere utilizzato da un numero i llimitato di utenti, e le funzioni di un sistema possono essere integrate con quelle offerte da altri sistemi. Le pubbliche amministrazioni e, pi in generale, i soggetti che forniscono servizi pubblici hanno iniziato ad usare Internet per fornire informazioni ai cittadini (normalmente si tratta di materiale di presentazione dellente e dell e sue funzioni, cui si accompagna la possibilit di scaricare documenti di vario genere, come testi normativi, manuali di istruzioni, moduli, ecc). I sistemi basati sulla conoscenza possono apportare unimportante progresso nelluso di Internet da parte de lla pubblica amministrazione: essi non si limitano a fornire documenti, ma impiegano le regole associate ai documenti per agevolare lo svolgimento delle relative attivit amministrative (ad esempio, stabilire quali obblighi e diritti spettino ai cittadini in base alla legge, stabilire se il cittadino possegga i requisiti per accedere ad un certo servizio pubblico, ecc). I sistemi basati sulla conoscenza non sono quindi esperti automatici in grado di sostituirsi al funzionario pubblico, ma piuttosto strumenti che forniscono un aiuto intelligente al richiedente del servizio o al funzionario che lo gestisce. Si tratta di un aiuto che pu integrarsi con funzionalit informatiche ulteriori (ad esempio, la ricerca di documenti, la fornitura di moduli, la loro predisposizione automatica, ecc). I sistemi basati sula conoscenza possono essere utilmente impiegati solo grazie allintegrazione delle seguenti attivit: - lattivit dellesperto informatico-giuridico che si occupa dellinserimento, correzione e revisione (ne l caso di errori o della necessit di tener conto di nuove informazioni) delle regole, assicurando che la base di conoscenza non contenga errori di diritto. - lattivit del cittadino o del funzionario che inseriscono i dati sui casi concreti. - lattivit del sistema, che si occupa della derivazione delle conseguenze deducibili dalle regole in esso comprese e dei dati di fatto ad esso forniti o a cui abbia accesso. I sistemi che applicano automaticamente regole preesistenti nella loro base di conoscenza trovano le maggiori applicazioni nellambito della pubblica amministrazione. Essi non sono in grado di affiancare il giurista nelle attivit che formano la pa rte centrale del suo pensiero, che consiste nellaffrontare i casi controversi. Vi da notare che alla riduzione del ragionamento giuridico al modello sillogistico si oppongono alcune fondamentali caratteristiche del diritto: le fonti del diritto spesso non forniscono norme sufficienti a disciplinare tutti gli aspetti del caso, comprendono norme che si contraddicono o il cui contenuto rimane indeterminato. Luso di sistemi basati su regole in ambito giuridico presupporrebbe laccettazione del modello sillogistico del ragionamento giuridico, lidea che il diritto si riduca a uninsieme di regole e che il ragionamento giuridico consista nellapplicazione meccanica di tali regole. Questo errore tecn ico determinerebbe linutilit pratica di tali sistemi: non rappresentando fedelmente il diritto ed il ragionamento giuridico, essi sarebbero inutili ed anzi dannosi, conducendo necessariamente a risultati scorretti o irragionevoli. Parlando delle tendenze delle ricerche di informatica giuridica degli ultimi anni, possiamo illustrare una particolare direzione di ricerca: il tentativo di sviluppare nuovi modelli form ali dellargomentazione giuridica. Lidea che sta alla base di queste ricerche che sia possibile predisporre strumenti logici ed informatici capaci di affrontare la dialettica del ragionamento giuridico, superando i limiti del ragionamento sillogistico. A questo riguardo dobbiamo distinguere due diversi tipi di schema di ragionamento (e di corrispondenti inferenze): - schemi conclusivi. Accettando le premesse di uninferenza conclusiva ne dobbiamo necessariamente accettare a nche le conclusioni. - schemi defeasible (rivedibili o ritrattabili). Pur accettando le premesse di uninferenza defeasible possiamo r espingerne le conclusioni. Uninferenza defeasible un argomento che si impone alla nostra ragione, ma solo in m odo provvisorio, cio solo a condizione che non emergano eccezioni, contro-esempi, argomenti contrari di importanza preminente, ecc. Possiamo distinguere due modi in cui un ragionamento defeasible pu essere contrastato: - il rebutting (contraddire), che consiste nellopporre al nostro argomento A un contro-argomento B che contraddice la conclusione di A, perci la conclusione di B nega, o comunque incompatibile, con la conclusione di A. - lundercutting (recidere), che consiste nellopporre al nostro argomento A un contro -argomento B che nega la forza argomentativa di A, perci B afferma che le premesse di A sono inidonee a fondarne la conclusione. Laccoglimento delle premesse di un argomento defeasible non sufficiente a garantire laccettabilit della sua co nclusione, a tale fine dobbiamo anche considerare se esistano contro-argomenti che contraddicano o recidano il nostro argomento, e solo se tutti i contro-argomenti possono essere superati alla luce di considerazioni ulteriori la conclusione dellargomento risulta giustificata. Il ragionamento giuridico consiste nella dialettica tra argomenti e contro-argomenti, e tale dialettica fa si che il ragionamento giuridico sia defeasible, in quanto le conclusioni che appaiono giustificate alla luce di certi argomenti possono essere

rese inefficaci di argomenti ulteriori. Lidea fondamentale che caratterizza i tentativi di costruire modelli formali della di alettica giuridica quella di affrontare situazioni nelle quali vi sono numerosi argomenti in gioco. Le logiche degli argomenti sono state usate per realizzare sistemi informatici che, anzich limitarsi a fornire una risposta univoca ai quesiti loro proposti, elaborino giustificazioni per la soluzione di punti controversi, suggeriscano argomenti possibili, valutino lo stato degli argomenti alla luce dellarchitettura argomentativa complessiva risultate dalle informazioni fornite al sistema. La realizzazione di tali sistemi richiede metodi che riproducano i passi tipici del ragionamento giuridico.

Vous aimerez peut-être aussi