Vous êtes sur la page 1sur 152

Starrylink Editrice

Collana FlyLine Saggistica

Oscar Bettelli

Modelli per sistemi complessi

Starrylink Editrice

Oscar Bettelli Modelli per sistemi complessi II Edizione Propriet letteraria riservata 2005 Oscar Bettelli 2005 Starrylink Editrice Brescia Contrada S. Urbano, 14 - 25121 Brescia Collana Skyline www.starrylink.it I diritti di riproduzione e traduzione sono riservati. Nessuna parte di questo libro pu essere utilizzata, riprodotta o diffusa con un mezzo qualsiasi senza autorizzazione scritta dellautore. Copertina: Starrylink, Brescia Stampa: Selecta (MI) ISBN : 88-89720-11-5

Modelli per sistemi complessi

La complessit
La complessit si presenta ai nostri occhi come una normale caratteristica del mondo reale. Il tentativo di ricondurre a processi semplici la grande variet di fenomeni naturali ha avuto il suo pi grande successo con la fisica classica. Dal momento in cui la ricerca scientifica sui fenomeni di dinamica e strutturazione complessa si stabilizzata allinterno del contesto delle scienze empiriche alla fine degli anni settanta; a partire dalla comparsa delle Scienze della Complessit nel pi vasto ambito interdisciplinare allinizio degli anni ottanta; e dal momento in cui la complessit diventata materia di forte divulgazione alla fine di questa decade, molti scienziati e altrettanti divulgatori lhanno definita come una rivoluzione scientifica sorta proprio sotto i nostri occhi. Cosa sono i sistemi complessi? Tratti distintivi dei sistemi complessi e del comportamento complesso sono fenomeni dinamici specifici. Sebbene molti sistemi complessi abbiano una struttura nomologica, e consistono di principi di base piuttosto semplici e di equazioni fondamentali altrettanto semplici, si possono individuare al loro interno instabilit dinamiche, biforcazioni e un comportamento chiamato Caos Deterministico, come forme di strutturazione spaziale e dinamica complessa, e di auto-organizzazione. Caos matematico il nome per il comportamento completamente casuale e irregolare di un sistema che non presenta alcuna forma di periodicit. Caos Deterministico Caos Matematico che si presenta in sistemi deterministici, cio in quei sistemi che nella loro dinamica non implicano processi casuali, in quei sistemi in cui cause identiche conducono a identici effetti. Una delle pi importanti conseguenze del caos matematico e deterministico la sensibilit del moto: differenze minime nelle condizioni iniziali del moto possono portare a risultati totalmente differenti; cause simili non portano necessariamente ad effetti simili. I sistemi caotici in modo deterministico presentano molti punti di instabilit dinamica. La

metafora per la sensibilit del moto che ne risulta l Effetto Farfalla formulato in origine in relazione alla sensibilit della dinamica atmosferica (e dei suoi sistemi di simulazione) alle condizioni iniziali: nei sistemi di dinamica atmosferica estremamente instabili il battito delle ali di una farfalla in Brasile potrebbe provocare un tornado in Texas. La metafora si applica non solo a questioni di tempo atmosferico, ma in ogni caso di instabilit dinamica che si presenti in natura o in matematica. Il comportamento caotico stato rilevato anche nei sistemi idrodinamici, negli oscillatori elettrici non lineari , in certi intervalli di parametri dei laser, nel rubinetto che gocciola, nelle reazioni dei sistemi chimici, nei sistemi di controllo fisiologico, e nella dinamica delle popolazioni biologiche. Sono state anche avanzate ipotesi sulla possibile importanza del caos deterministico nellattivit cerebrale durante il sonno, e sulla possibile utilit nella descrizione dello sviluppo del mercato e dello scoppio delle guerre. La causa di tutti questi fenomeni in cui la complessit trova espressione unintrinseca e dinamica auto-referenzialit che appare in diverse variet. Queste variet sono, per esempio, la non linearit delle equazioni fondamentali; feedback come meccanismo causale di base; o iterazioni e delle funzioni ricorsive negli algoritmi di base. Quali campi scientifici si dedicano alla ricerca del comportamento di sistemi complessi? Quali aree di ricerca riguardano le Scienze della Complessit? Il nocciolo delle Scienze della Complessit costituito dalla Teoria dei Sistemi Dinamici, che forma parte della matematica pura. Loggetto della Teoria dei Sistemi Dinamici in primo luogo e soprattutto il comportamento dei sistemi di equazioni differenziali e, in seconda istanza, qualunque cosa possa essere trasformata in tali sistemi. Nello strato che circonda tale nocciolo, si trovano le applicazioni e le conseguenze dirette della Teoria dei Sistemi Dinamici nel contesto delle scienze empiriche. In questo ambito il concetto pi importante quello di Caos Deterministico: comportamento non periodico che si riscontra in sistemi deterministici. Alcuni sistemi caotici-deterministici hanno solo un numero molto limitato di gradi di libert. Il che un altro modo per affermare che questi sistemi possono essere descritti solo da un numero

molto limitato di equazioni. Il Caos Deterministico si verifica solo se almeno una di queste equazioni non lineare. Esempi di comportamento sistemico che pare essere Caos deterministico si conoscono in quasi tutti i campi delle scienze empiriche. Un ulteriore e importante traduzione della Teoria dei Sistemi Dinamici nelle scienze empiriche si trova nella dinamica dei Sistemi Hamiltoniani non lineari che riguarda il contesto della meccanica classica. Ancora un passo oltre il nocciolo delle Scienze della Complessit, allinterno del loro spettro di ricerca, si trova lindagine di sistemi che possono essere considerati come generalizzazioni pi distanti di quelli descritti dalla Teoria dei Sistemi Dinamici. Il caso pi importante quello della dinamica complessa nei sistemi definiti su griglie o reti, conosciuti come Automi Cellulari e Reti Neurali. Pi o meno alla stessa distanza dalla zona del nocciolo si trovano strumenti e concetti collegati al concetto di complessit, come per esempio la geometria frattale. Parte delle Scienze delle complessit formano anche differenti teorie ed approcci alla auto-organizzazione: La termodinamica Non Lineare degli Stati di Non Equilibrio di Prigogine, la Sinergetica di Haken, la Teoria della Auto-Organizzazione Molecolare di Eigen, il concetto di Autopoiesis di Maturana e Varela, e i modelli cibernetici di auto-organizazione. Di queste teorie, almeno le prime due possono essere ricostruite in generale in base al linguaggio della Teoria dei Sistemi Dinamici, ma normalmente si servono di un loro proprio linguaggio. Dal punto di vista storico si potrebbe delineare uno sviluppo delle ricerche sulla complessit relativamente recente. Oggi la rapida diffusione delle Scienze della Complessit pu dare limpressione che la ricerca riguardante i fenomeni complessi sia iniziata 20 o 25 anni fa. Si tratta di unillusione. Per rintracciare le origini delle Scienze della Complessit bisogna risalire a pi di centanni fa. Le origini della ricerca si trovano nel contesto della Meccanica Classica e nella sua visione meccanicista e riduzionista del mondo, che dominava la fisica alla fine del XIX secolo. La sua caratteristica fondamentale un forte concetto lineare di causalit:

il determinismo classico assume come tesi lidea che identici effetti hanno cause identiche. La forma forte di causalit data per scontata allinterno della meccanica classica, implica altre due assunzioni: la prima che effetti simili abbiano cause simili; e la seconda che principi di base semplici o semplici equazioni di base portino naturalmente a forme altrettanto semplici di comportamento dinamico. Queste assunzioni derivate da un concetto forte di causalit sono corrette per sistemi lineari. La linearit (e il Principio di Superposizione derivato) era uno dei paradigmi centrali della meccanica classica, che fu disciplinato matematicamente con metodi algebrici ed analitici. Quasi tutti gli esempi che si trovano nei libri di testo di meccanica classica riguardano sistemi lineari. I fisici sapevano della non esistenza dei sistemi non lineari; ma tutti li consideravano delle strane eccezioni alla regola, come casi che probabilmente sarebbero stati sussunti alla regola nel corso di sviluppi futuri. Per la meccanica classica tutto sarebbe filato liscio come lolio se non ci fossero state ancora delle questioni aperte che rappresentavano la radice di problemi che avrebbero trovato la loro definitiva soluzione settantanni pi tardi. Una delle questioni era la stabilit del sistema solare: i corpi del sistema solare rimangono uniti nella forma del moto periodico? O il moto del sistema solare non periodico in senso stretto e, un giorno o laltro, pu capitare che uno o pi corpi abbandonino il sistema solare? Tra il 1770 e il 1870, Laplace, Lagrange, Poisson e Dirichlet avevano gi tentato senza successo di risolvere il problema. Non erano nemmeno riusciti a rispondere al quesito dei tre corpi, un sistema di tre corpi legati esclusivamente dallinterazione gravitazionale. La descrizione nomologica di entrambi i sistemi data da sistemi non lineari di equazioni differenziali. La loro soluzione non assolutamente banale. Allinizio dellultimo quarto del XIX secolo, allinterno della fisica classica, emersero i primi ben fondati dubbi sulla validit della visione deterministica del mondo. Fu James Clerk Maxwell, che pens per la prima volta alla possibilit di sistemi con traiettorie dinamicamente instabili. Nel suo libro Matter and Motion, pubblicato nel 1877, si trova il seguente suggerimento: [...ma ci sono altri casi in cui una piccola variazione iniziale pu produrre enormi cambiamenti nello stato

10

finale del sistema ]. Nei primi anni ottanta del XIX secolo la disputa sulla stabilit del sistema solare era cos virulenta che nel 1885 Re Olaf II di Svezia annunci su Acta Mathematica una competizione il cui premio sarebbe andato a chi avrebbe risposto alla seguente domanda: Per un sistema arbitrario di punti dotati di massa (mass points) che si attraggono lun laltro in accordo con le leggi di Newton, assumendo che due punti qualunque non collidano mai, dare le coordinate dei punti individuali per tutti i tempi come somma di una serie uniformemente convergente i cui termini siano costituiti da funzioni conosciute. In parole pi semplici: possibile rappresentare la soluzione del problema dei molti corpi in termini di una serie convergente di funzioni (analitiche) conosciute? Heinrich Bruns cerc di risolvere il problema negli anni seguenti. Nel 1887 fece una sorprendente scoperta: differenze minime nelle condizioni iniziali definiscono la stabilit o linstabilit dinamica del sistema. Nonostante ci, non fu Bruns ma Henri Poincar che, nel 1889, vinse il premio offerto da Olaf II. Egli forn la prova matematica definitiva della non integrabilit del problema dei tre corpi. La non integrabilit una caratteristica del sistema pi severa della non linearit della descrizione matematica. lintegrabilit di un Sistema Hamiltoniano che garantisce lesistenza di una soluzione analitica e la sua stabilit dinamica. Il concetto di integrabilit stato della massima importanza per il Formalismo di Hamilton-Jacobi della meccanica classica. Integrabilit significa che c un numero sufficiente di costanti di moto, tale per cui per ogni variabile del sistema esiste una costante di moto. Il Formalismo di Hamilton-Jacobi consiste in un metodo di separazione delle variabili basato su una specifica scelta di coordinate. Allinterno del formalismo la separazione delle variabili la via che conduce a una soluzione analitica del corrispondente sistema di funzioni differenziali. Il risultato della separazione delle variabili dinamica non accoppiata (dynamics decoupled) per i singoli gradi di libert. Lo spaiamento (decoupling) dato per principio per tutti i sistemi lineari, per tutti quei sistemi la cui descrizione matematica consiste esclusivamente di equazioni differenziali lineari. Tali sistemi lineari

11

sono gi non accoppiati nella loro rappresentazione matematica nei loro differenti gradi di libert. Cos il Formalismo di Hamilton-Jacobi basato su un metodo con cui un sistema non lineare viene trasformato in coordinate in cui appare come un sistema lineare. Una trasformazione adeguata allinterno del Formalismo di Hamilton-Jacobi la trasformazione in quelle variabili in cui il sistema appare linearizzato. Lo spaiamento dei gradi di libert equivale a una linearizzazione, una trasformazione in variabili linearizzate. Ma questa trasformazione di spaiamento, questa separazione di variabili, questa linearizzazione, non possibile per tutti i sistemi non lineari. Il Formalismo di Hamilton-Jacobi ha successo solo per quei sistemi non lineari che sono integrabili. Solo per i sistemi integrabili, solo per quei sistemi con un numero sufficiente di costanti di moto si possono trovare delle coordinate adeguate alla separazione delle variabili. Per i sistemi non integrabili la separazione delle variabili impossibile. Solo i sistemi lineari non integrabili possono essere trasformati in una rappresentazione matematica linearizzata con gradi di libert spaiati. I sistemi non lineari non integrabili non possono essere linearizzati in alcun modo. Carl Gustav Jacob Jacobi, svilupp il Formalismo di HamiltonJacobi, era a conoscenza del problema che questa tecnica matematica della Meccanica Hamiltoniana presentava nel caso dei sistemi non integrabili ma supponeva erroneamente che i sistemi non integrabili fossero uneccezione nellambito della meccanica. Per un certo periodo di tempo i suoi successori rimossero completamente il problema, forse accecati dalleleganza matematica del formalismo, finch Poincar non fece la sua scoperta. La distinzione importante non quella tra sistemi lineari e non lineari, ma tra sistemi che possono essere trasformati in lineari e sistemi che non possono esserlo. E questa seconda distinzione identica a quella tra sistemi integrabili e non integrabili. Oggi sappiamo che i sistemi integrabili sono leccezione mentre il caso generale rappresentato dai sistemi non integrabili. Alla fine del XIX secolo invece erano considerati come casi estremamente rari. A causa della sua non integrabilit di principio, un sistema costituito da tre corpi legati dalla gravit non presenta necessariamente una stabilit dinamica per tutte le condizioni iniziali.

12

Infatti, Poincar e Bruns trovarono espliciti casi di instabilit dinamica e scoprirono inoltre che differenze minime nelle condizioni iniziali portano alla stabilit o allinstabilit. Una delle implicazioni dellinstabilit appunto il fatto che il comportamento dinamico sensibile alla condizioni iniziali. Minime variazioni portano a differenze significative nel moto. Cos, dieci anni pi tardi, si ebbe la prova che lipotesi di Maxwell era corretta. Nel periodo successivo, tra il 1890 e il 1912, Poincar fu il protagonista principale dellindagine sulle di dinamiche complesse nel contesto della meccanica classica. Lo scienziato svilupp nuovi metodi qualitativi e non analitici per la descrizione di Sistemi Hamiltoniani non integrabili. Dallanno della morte di Poincar, il 1912, George David Birkhoff port avanti il lavoro dello scienziato francese fino al 1940. Con lui, loggetto della sua ricerca si spost dal contesto della fisica matematica a quello della matematica pura ed ebbe un proprio nome: Teoria dei Sistemi Dinamici. I problemi che avevano condotto alla scoperta di instabilit del moto nei sistemi meccanici non integrabili, anche se trovano la loro origine nel contesto della fisica, erano di natura matematica. Risultavano semplicemente da unincompleta conoscenza delle potenzialit strutturali e dinamiche dei modelli matematici utilizzati nel contesto della fisica. Inoltre, il fatto che la ricerca sulle dinamiche complesse fosse confinata nellambito della matematica pura, pu essere attribuito ad altri due fatti: primo, Poincar era contemporaneamente un matematico, un fisico, un meteorologo, ed altro ancora, ma il tempo dellerudizione universale era terminato con la sua morte. La quantit e la complessit della conoscenza delle discipline scientifiche riconosciute conduceva al primo stadio della specializzazione. Dopo Poincar gli studi accademici dovevano essere indirizzati verso una sola disciplina. Birkhoff, per esempio, era probabilmente un genio matematico, ma era solo un matematico. In secondo luogo la fisica teorica della prima met del secolo era quasi totalmente impegnata nello sviluppo di quelle ricerche che avrebbero portato alle teorie della relativit, della meccanica quantistica, alle teorie quantistiche del campo e, pi tardi, al

13

problema dellunificazione delle forze. Gli strani casi di instabilit dinamica nei Sistemi Hamiltoniani non integrabili, non suscitavano lattenzione di molti fisici. Era un problema che riguardava la vecchia fisica classica. Ma, anche se la ricerca sui prerequisiti di dinamiche complesse, irregolari, instabili in sistemi relativamente semplici di equazioni differenziali erano confinati quasi esclusivamente nel contesto della matematica pura, lontano dai contemporanei sviluppi della fisica, erano le scienze empiriche, e in particolare proprio la fisica, che continuavano a dare alla matematica ulteriori motivi per continuare la ricerca sulla dinamica complessa. I maggiori stimoli alla ricerca su base matematica continuavano ad arrivare dalla fisica classica, in particolare dai problemi di meccanica celeste, come pure dalla Teoria degli Oscillatori che in quegli anni aveva una speciale importanza per lo sviluppo dellingegneria elettrica. Infine, durante gli anni sessanta, Edward Norton Lorenz, un meteorologo americano, ma prima ancora matematico, utilizz uno dei primi sistemi per computer per investigare dei sistemi di simulazione per la dinamica atmosferica. I suoi risultati furono quantomeno sorprendenti: un semplicissimo e rudimentale sistema di simulazione a tre sole variabili si era rivelato un caso estremo di dipendenza della dinamica dalle condizioni iniziali. La scoperta, pi o meno casuale, non fu notata dalla comunit scientifica prima del 1972 o del 1975, poich Lorenz pubblic i suoi risultati nel Journal of the Atmospheric Sciences, rivista non molto letta dai matematici che altrimenti si sarebbero interessati prima a questa scoperta. Pi tardi quando il suo articolo era ormai diventato un classico, il fenomeno della estrema dipendenza e suscettibilit del moto alle condizioni iniziali fu chiamato Effetto Farfalla, prendendo spunto da un esempio fatto da Lorenz durante una conferenza: nei sistemi estremamente instabili di dinamica atmosferica, una farfalla che batte le ali in Brasile potrebbe provocare un Tornado in Texas. Nei cinque anni tra il 1970 e il 1975 le diverse linee di sviluppo della ricerca si fusero e prese piede il fenomeno interdisciplinare che ho introdotto come Scienze della Complessit. Il solo 1975 vide il verificarsi di un gran numero di eventi che si rivelarono di grande importanza. Ne citer solo due: Benoit Mandelbrot defin

14

ci che intendeva per frattali: strutture geometriche con dimensioni non intere e auto-simililarit annidate allinfinito. Tien-Yien Li e James Allen Yorke applicarono lespressione Caos al comportamento irregolare e instabile di sistemi matematici semplici. Il nuovo campo di indagine prese forma e divenne visibile alle diverse comunit e discipline allinterno delle scienze empiriche. Gli anni tra il 1975 e il 1980 possono essere considerati come un periodo di consolidamento delle Scienze della Complessit favorito dal moltiplicarsi delle conferenze su questo tema. I matematici, i fisici, i chimici i biologi e persino i sociologi, si interessarono al nuovo campo di ricerca. Con laiuto di questi concetti, scoprirono il terreno comune alle loro discipline. Questo terreno comune aveva soprattutto il carattere di modello teorico e ora poteva essere identificato almeno parzialmente con alcuni concetti della complessit, dellirregolarit e del caos che furono riscoperti nella dinamica dei sistemi pi diversi. Fu pubblicata la prima rivista dedicata al fenomeno della complessit: Physica D Nonlinear Phenomena. Si rivelarono anche di grande importanza alcune tendenze allunificazione concettuale come quella che interessava la ricerca e il dibattito per una misura universale, e al contempo praticabile, della complessit. Tale dibattito continua ancor oggi senza aver raggiunto alcun risultato definitivo. Dal 1980 si assiste ad una continua espansione interdisciplinare e a una costante divulgazione. Si sono tenute moltissime conferenze. Sono stati pubblicati i primi libri di testo, le prime antologie e i primi testi di divulgazione. Sono nate anche nuove riviste. Contemporaneamente, dallinterno della comunit scientifica sono emersi i primi dubbi su uneccessiva espansione dei concetti di complessit nel panorama interdisciplinare. Una importante teoria sviluppatasi recentemente prende il nome di teoria dei sistemi dinamici e assume una notevole importanza nei modelli teorici matematici delle scienze empiriche. La Teoria dei Sistemi Dinamici , come mostra lo sviluppo storico delle Scienze della Complessit, della massima rilevanza per la teoria modello, e quindi per le scienze empiriche: le scienze empiriche, in particolare modo le scienze naturali cosiddette esatte (e pi di ogni altra la fisica), si servono per la modellizzazione dei

15

sistemi naturali di un metodo matematico basato quasi esclusivamente su sistemi dinamici continui: cio su sistemi di equazioni differenziali. La matematica daltra parte, e soprattutto la Teoria dei Sistemi Dinamici, ci permette di conoscere il comportamento delle soluzioni di questi sistemi di equazioni differenziali. Ci significa che, se un sistema naturale modellato in modo adeguato da un sistema di equazioni differenziali, la matematica pu fornire alle scienze empiriche gli strumenti per una descrizione che contenga ogni possibile comportamento di tale sistema naturale. Perci lanalisi matematica dei modelli strutturali costituisce la base per lapplicazione di tali modelli nel contesto delle scienze naturali. Ma solo se lanalisi matematica di una specifica classe di modelli strutturali ci fornisce una conoscenza completa del possibile comportamento della classe di modelli, possibile ottenere una conoscenza completa della potenzialit dinamica dei sistemi naturali modellati. Proprio per questa relazione, i concetti matematici e il loro sviluppo sono di importanza fondamentale per gli aspetti determinati da un modello teorico delle scienze empiriche. Lo sviluppo delle Scienze della Complessit fornisce alla teoria del modello e alla filosofia della scienza uno dei migliori esempi di forme e modi di interazione tra scienze strutturali e scienze empiriche, in particolare tra matematica e fisica. Introdurr ora un concetto e una distinzione che ritengo importanti per rispondere alla domanda: le Scienze della Complessit sono davvero una rivoluzione scientifica? Il concetto quello di scienze strutturali e la distinzione quella tra scienze strutturali e scienze empiriche. Per scienze strutturali intendo, in opposizione alle scienze empiriche, tutte quelle scienze il cui oggetto sono le strutture astratte. Il prototipo di tali scienze la matematica. La matematica pu, in una concezione estremamente ampia, comprendere la totalit delle scienze strutturali. Ma, in senso pi stretto, si considerano scienze strutturali anche la teoria dellinformazione e la cibernetica. Le scienze empiriche descrivono sistemi naturali reali, sistemi mentali reali, e forse anche altri sistemi reali. I sistemi reali sono strutturati. Se le loro strutture non possono essere descritte in linguaggio semplice, perch sono troppo complicate o troppo

16

specifiche, le scienze empiriche si servono del linguaggio della matematica. Applicano gli strumenti che provengono dallo spettro delle possibilit strutturali sviluppate dalla matematica. Quindi, gli sviluppi delle scienze strutturali sono della massima importanza per le scienze empiriche dal momento che si servono di un linguaggio matematico. Un progresso nello sviluppo degli apparati delle scienze strutturali significa un ampliamento della possibile esattezza e dellambito delle descrizioni date allinterno delle scienze empiriche. Una prospettiva pi ampia dello sviluppo delle scienze naturali moderne durante i pochi secoli della loro esistenza mostra che tale sviluppo non affatto uniforme. Si rilevano, da una parte, delle fasi pi o meno stabili di sviluppo allinterno delle singole discipline scientifiche e, dallaltra, eventi o cambiamenti di procedura che possono essere descritti come cambiamenti scientifici radicali relativamente ai fondamenti concettuali. Il verificarsi allinterno della scienza di cambiamenti radicali ha bisogno di una spiegazione pi dettagliata. Il modello proposto da Thomas Kuhn che ha lo scopo di spiegare tali rivolgimenti concettuali allinterno della scienza, stato esposto nel suo libro del 1962, The Structure of Scientific Revolutions. Il modello di Kuhn si riferisce esclusivamente ai cambiamenti che si verificano allinterno delle scienze empiriche. rilevante soprattutto per le scienze naturali. Descrive esclusivamente i processi di transizione allinterno di sotto-aree di discipline scientifiche ben costituite: i processi di transizione allinterno di sotto-discipline. I processi descritti dal modello fanno parte di una dinamica di medio o lungo periodo di piccoli gruppi, pi o meno isolati, di scienziati. I cambiamenti scientifici che Kuhn descrive nel suo modello prendono forma specifica nel susseguirsi di una sequenza di stadi distinti. Il punto di partenza una fase di sviluppo piuttosto continua. lo stato quasi stabile esterno ai veri sviluppi rivoluzionari. Questo sviluppo senza sobbalzi viene chiamato da Kuhn scienza normale. Le sotto-discipline scientifiche, seguendo Kuhn, nel loro stato di scienza normale sono caratterizzate da specifici paradigmi. Con questa espressione Kuhn intende, da una parte, la concezione di base della scienza e della

17

natura, la concezione fondamentale del mondo, la visione del mondo, che d forma e tiene unita la comunit scientifica che ad esso fa riferimento. Il paradigma trova la sua espressione negli obiettivi scientifici della stessa comunit, nei libri di testo e nelle pubblicazione originali considerate classiche. Forma il quadro generale del contesto delle procedure attive allinterno della comunit scientifica. Daltra parte, Kuhn intende con paradigma un particolare esemplare. Si pu trattare di esperimenti tipici e di attrezzatura sperimentale, importanti esperimenti mentali, o specifici elementi teorici o concettuali. Un paradigma in questo secondo senso viene utilizzato pi volte per riferirsi in modo rappresentativo al paradigma fondamentale a cui si riferisce il primo significato del termine. Viene utilizzato allinterno della comunit scientifica per riferirsi alla propria visione del mondo. Una rivoluzione scientifica secondo Kuhn, la transizione da un paradigma fondamentale a un altro. La transizione segue uno schema che, come mostra Kuhn nella sua analisi, pu essere generalizzato a diverse Rivoluzioni Scientifiche che si sono verificate durante la storia della scienza. Tutte le rivoluzioni scientifiche, sempre secondo Kuhn, seguono questo schema. Quando ancora ci si trova nel contesto della scienza normale, la transizione viene segnalata da anomalie che si verificano allinterno del vecchio paradigma. Le anomalie possono essere dati empirici non spiegabili o interpretazioni ambivalenti causate da nuovi dati empirici. Il verificarsi di anomalie il segnale di seri problemi che affliggono le teorie esistenti nel campo scientifico. I metodi che vengono suggeriti per la soluzione di tali problemi vanno oltre il contesto del vecchio paradigma. Un numero sempre crescente di anomalie e laumentare della loro resistenza a strategie di soluzione coerenti con il vecchio paradigma portano a una crisi della scienza normale. La crisi d il via alla fase di transizione, una fase di sviluppo anomalo e straordinario che, secondo Kuhn, caratterizzata da nuovi approcci concettuali e da nuove teorie il cui nascere stimolato dal verificarsi delle anomalie. Nuovi approcci e nuove teorie entrano in competizione durante la stessa fase di sviluppo anomalo. Alla fine di questa fase di sviluppo e competizione, dopo

18

qualche anno o qualche decennio, emerge vittoriosa una nuova corrente di pensiero concettuale. A sua volta il nuovo paradigma dominer le sotto-discipline, e si manifester in un crescente numero di articoli pubblicati, che modelleranno e daranno forma a loro volta al nuovo paradigma. Si manifester inoltre in monografie che indagheranno le implicazioni del nuovo paradigma, in nuove riviste, fondate esclusivamente per promuovere le idee del nuovo contesto concettuale, e in libri di testo che presenteranno il nuovo quadro scientifico. Un numero sempre maggiore di scienziati delle sotto-discipline in questione lavoreranno nel contesto del nuovo paradigma che trover una sempre maggiore collocazione in ambito istituzionale. Ma soprattutto gli scienziati pi giovani non proveranno alcuna attrazione per il vecchio paradigma, poich la loro istruzione scientifica avr avuto luogo durante la straordinaria fase di sviluppo e competizione delle nuove teorie. Gli scienziati pi anziani raramente si convertiranno al nuovo paradigma ma rimarranno perlopi allinterno del vecchio contesto. Cos, la transizione di paradigma, la rivoluzione scientifica, prende piede con il ricambio generazionale. Anche la formazione delle scienze della complessit si presenta come rivoluzione nel contesto dei fondamenti scientifico-strutturali delle scienze empiriche. Anche a prima vista ci sono molti fatti che rendono quantomeno discutibile lapplicabilit del modello di Kuhn allo sviluppo delle Scienze della Complessit: Le Scienze della Complessit formano un campo non omogeneo di indagine. Esse non appartengono a una specifica sotto-area interna a una disciplina scientifica ben stabilita. Questo sviluppo non nemmeno avvenuto allinterno di una singola disciplina delle scienze empiriche. Si svolto invece in un ambito interdisciplinare, in cui hanno partecipato diverse scienze empiriche tanto quanto la matematica, concepita come il prototipo delle scienze strutturali. Non ha riguardato una comunit scientifica, piccola, pi o meno isolata, e uniforme o almeno ben definita. Gli scienziati in questione lavoravano in parte isolati e in parte in piccoli gruppi. Appartenevano a diverse discipline scientifiche, alcune delle quali erano state costituite solamente durante il periodo di indagine sul fenomeno del comportamento

19

dei sistemi complessi. Il campo interdisciplinare in questione stato riorganizzato frequentemente durante lemergere delle Scienze della Complessit. E non nemmeno possibile tracciare per ogni momento una netta distinzione tra le discipline coinvolte nello sviluppo di queste nuove scienze. La rivoluzione scientifica che ha come effetto finale la nascita delle Scienze della complessit non un cambiamento radicale interno al contesto di una disciplina o di una sotto-disciplina delle scienze empiriche, almeno nel senso descritto dal modello di Thomas Kuhn. Piuttosto , fondamentalmente, un cambiamento concettuale di vasta portata interno ai fondamenti scientificostrutturali di quasi tutte quelle scienze empiriche che si servono dei sistemi dinamici nel senso matematico, come modello base per le loro teorie. Solo se si tiene conto del cambiamento scientifico-strutturale di base, possibile rintracciare qualche cosa che assomiglia a un gruppo di conseguenze della Rivoluzione Scientifico-Strutturale che si sono verificate allinterno delle scienze empiriche. Solo queste conseguenze di un cambiamento scientifico-strutturale precedente possono in parte essere comprese allinterno del modello Kuhniano. In questa approssimazione, abbiamo come punto di partenza della scienza normale la situazione della fisica classica, in particolare della meccanica classica, alla fine del XIX secolo. Il paradigma di partenza, per usare la terminologia di Kuhn, consisteva nei concetti di linearit delle relazioni dinamiche e di causa, nella combinazione di determinismo e causalit forte, e nella stabilit del moto come caso generale presupposto per i sistemi dinamici. Le anomalie che si verificarono allinterno di questo paradigma di partenza consistevano, soprattutto, nella scoperta di forme completamente inattese di comportamento irregolare casuale, e instabile di sistemi dinamici piuttosto semplici. Queste anomalie, come oggi sappiamo, furono considerate anomalie solo a causa di uninsufficiente conoscenza delle implicazioni matematiche dei modelli utilizzati nelle teorie della meccanica classica. Queste anomalie, dopo un lungo processo di sviluppo di circa settantanni, portarono a nuove intuizioni sul possibile comportamento dei sistemi dinamici. Questo processo non

20

assolutamente riconducibile al modello di Kuhn secondo il quale ci si dovrebbe aspettare una fase di sviluppo e attivit scientifica straordinaria e fuori dalla norma, e una prolungata fase di competizione tra alcune possibili soluzioni ai problemi indicati dalle anomalie. Ma questo non si verificato. In seguito al periodo di settantanni che contraddice lanalisi di Kuhn, emerso qualcosa di simile a un nuovo paradigma i cui elementi caratteristici consistevano fondamentalmente nella possibilit e nellabbondanza delle instabilit di moto e dei fenomeni di biforcazione, nel Caos Deterministico, nelle strutture frattali, e nei diversi fenomeni di auto-organizzazione. Questi caratteristici elementi del nuovo paradigma avevano due implicazioni, entrambe di grande rilevanza filosofica. La prima una forma di causalit piuttosto debole: cause simili possono avere effetti totalmente differenti; cio non conducono necessariamente a effetti simili. Il nuovo paradigma viene rappresentato dai sistemi che mostrano un comportamento dinamico che mostra una sorprendente sensibilit al movimento, una dipendenza del comportamento dinamico estremamente sensibile alle condizioni iniziali. E, sempre sorprendentemente, questa sensibilit compatibile con il determinismo; compatibile con una base nomologica del sistema totalmente deterministica. La seconda implicazione una forma epistemologicamente debole di determinismo: uninesattezza infinitesima nella conoscenza delle condizioni iniziali e dei parametri del sistema porta, nel caso di sistemi sensibili al moto, a una grande inesattezza della conoscenza del comportamento futuro del sistema; ed assolutamente impossibile conoscere le condizioni iniziali della dinamica del sistema per misurazione. Linesattezza della predizione per i sistemi caotici, calcolata sulla base di una descrizione nomologica conosciuta del sistema e alla pre-condizione di condizioni iniziali misurate, aumenta con larco temporale della predizione. Anche il comportamento futuro di sistemi deterministici, se mostrano la sensibilit al moto che mostrano i sistemi caotici, in un certo qual senso non calcolabile. Anche se il sistema totalmente deterministico e anche se la descrizione nomologica del sistema e completamente conosciuta senza alcun dubbio, il futuro del sistema non calcolabile se il sistema

21

caotico nella sua dinamica. Il Caos Deterministico forma un limite epistemologico per la predizione della natura. possibile localizzare la causa ultima di questa forma di comportamento del sistema e delle sue implicazioni filosofiche: la non linearit delle equazioni di base che causa questa forma di comportamento complesso anche nei sistemi nomologicamente piuttosto semplici. Ma, anche se le implicazioni filosofiche del nuovo paradigma sono della massima importanza per la nostra concezione della natura e per la sua descrizione scientifica, il quadro dei due paradigmi isolati, la sostituzione del determinismo classico e della causalit forte con la causalit debole e la conseguente forma di determinismo debole, non ci dice molto a proposito della transizione, del processo e dello sviluppo che ha permesso il passaggio dal vecchio al nuovo paradigma. Una ricostruzione dello sviluppo delle scienze della Complessit, nella forma di transizione paradigmatica come la descrive Kuhn, non molto convincente. Come abbiamo visto ignora gli elementi pi interessanti del processo di sviluppo, vale a dire la transizione dalle prime anomalie al nuovo paradigma. Allinterno di una ricostruzione orientata prevalentemente agli sviluppi storici e alle loro specifiche motivazioni, possiamo vedere con pi chiarezza come la realt si discosti dal modello Kuhniano. Sono proprio gli elementi che si discostano dal modello di Kuhn a giustificare lemergere delle Scienze della Complessit come cambiamento radicale allinterno dei fondamenti scientifico strutturali delle scienze empiriche e che legittimano luso delletichetta Rivoluzione ScientificoStrutturale. Come abbiamo gi visto le anomalie verificatesi nellultimo decennio del XIX secolo non hanno condotto a una crisi nei principali campi delle scienze empiriche. N hanno portato a una fase di competizione tra approcci concettuali diversi allinterno delle stesse. Non c stato alcun successivo processo interno alla disciplina scientifica in cui le anomalie si sono verificate. Invece della fase di sviluppo fuori della norma predetta dal modello di Kuhn, abbiamo visto lo stabilirsi di una tradizione matematica dedicata allindagine dei sistemi dinamici. E in matematica non si

22

verificata alcuna competizione tra diversi approcci o diverse teorie. Ci che accaduto piuttosto uno sviluppo costante dei nuovi strumenti teoretici (matematici) per una pi estesa descrizione dei sistemi dinamici. Questo sviluppo costante sembra essere un segno tipico delle scienze strutturali e delle loro politiche metodologiche in contrasto con le modalit delle scienze empiriche. Se seguiamo il manifestarsi delle anomalie, gli scienziati che se ne occuparono consideravano il fenomeno principalmente come una carenza nei fondamenti matematici dei modelli applicati alle scienze empiriche. Era evidente che i problemi che si presentavano allinterno della meccanica classica avevano soprattutto un carattere scientifico-strutturale. Si trattava di problemi relativi ai modelli e i problemi non dipendevano dalle teorie delle scienze empiriche. Quindi la soluzione andava cercata nellambito della matematica. Alla fine degli anni sessanta, lo sviluppo dellindagine sulla dinamica complessa, che stava ora riemergendo anche allinterno delle scienze empiriche, si protraeva ormai da un secolo, se teniamo conto degli inizi, vale a dire dalla scoperta delle prime anomalie fino alla costituzione di un nuovo paradigma putativo. Quasi cento anni, non una sola generazione come sostiene il modello di Kuhn, finch la nascita del nuovo paradigma si ebbe negli anni settanta. Quindi la terminologia di Kuhn quantomeno discutibile. Il nuovo paradigma (o linsieme dei nuovi paradigmi) che pu essere caratterizzato dal concetti di non linearit, feedback dinamici, complessit, Caos Deterministico, frattali, autoorganizzazione e via dicendo, prese piede in pochi anni. Fu necessario un periodo di tempo di gran lunga inferiore a una generazione perch si costituisse. Dopo lassenza di una crisi nel contesto delle scienze naturali in questione, e dopo la mancanza di una fase di sviluppo straordinario della scienza e la sua sostituzione con un processo di sviluppo lento e costante allinterno della matematica, non ci si pu naturalmente attendere che i tempi regolari del modello di Kuhn venissero rispettati. La regolarit dei tempi un prodotto dei meccanismi inerenti al cambiamenti dinamici che riguardano i componenti teorici e

23

concettuali delle scienze empiriche. Si rivela valida solo per quei cambiamenti che coinvolgono solo singole discipline o sottodiscipline delle scienze empiriche. Per i processi che si sviluppano allinterno delle scienze strutturali, i requisiti necessari a questi meccanismi non possono essere soddisfatti. Come la fase di iperattivit scientifica stata sostituita da un prolungato e costante progresso allinterno delle scienze strutturali, cos per le discipline delle scienze empiriche di nuovo coinvolte le cose cominciarono ad accelerare al termine di questa fase di lento sviluppo. O, almeno, cominciarono ad accelerare relativamente a quanto ci si sarebbe potuto attendere seguendo il modello di Khun. Durante gli anni settanta, il campo fu dominato dalla crescente efficacia delle nuove intuizioni nella base dei modelli delle scienze empiriche. Le nuove intuizioni sviluppatesi lentamente vennero ora assimilate rapidamente e aumentarono altrettanto rapidamente la propria sfera di influenza. Questi due processi distinti e sequenziali di cambiamento dinamico allinterno di due differenti settori della scienza costituiscono una delle principali differenze con il modello di Kuhn che descrive esclusivamente una transizione radicale interna ai fondamenti concettuali e teoretici di una disciplina empirica. Una rivoluzione Scientifico-Strutturale non , come si vede, una rivoluzione interna alla sola matematica; una rivoluzione che riguarda la base scientifico-strutturale delle scienze empiriche e le sue implicazioni sui modelli. E le nuove intuizioni non hanno indotto dei cambiamenti nei modelli teorici base di una sola disciplina delle scienze empiriche; ma si tratta della totalit di quelle discipline che applicavano i modelli corrispondenti. La tendenza a collegarsi di un crescente numero di sottodiscipline nellultima fase empirico-scientifica stata estremamente importante per lemergere delle scienze della Complessit. Un tale processo di integrazione di rete ha rilevanza solo in un campo interdisciplinare. Proprio per questo motivo si pone fuori dallambito del modello Kuhniano. cos sorprendente trovare dei rudimentali parallelismi con il modello di Kuhn per lultimo stadio dello sviluppo: allinizio degli anni ottanta, il nuovo paradigma si era gi costituito allinterno delle scienze empiriche. Le Scienze della Complessit

24

iniziarono una fase di consolidamento, una nuova fase di scienza normale, se continuiamo a utilizzare la terminologia del modello di Kuhn che non in grado di descrivere il nuovo paradigma. I processi interni alle scienze empiriche dominarono lo sviluppo durante la costituzione, il consolidamento e la sistematizzazione dei nuovi concetti di complessit. Le conferenze interdisciplinari dedicate allindagine empirico scientifica dei fenomeni complessi alla fine superarono di numero quelli matematici nel campo della Teoria dei Sistemi Dinamici. Crebbe rapidamente il numero degli articoli dedicati ai nuovi concetti e crebbe pure il numero degli scienziati coinvolti. Furono fondate riviste speciali e istituzioni dedicate solo allindagine sulla complessit e furono pubblicati nuovi libri di testo. La divulgazione della complessit come argomento scientifico divenne sempre pi importante. La teoria della complessit nasce dunque per cercare di rispondere alle domande che le anomalie riscontrate nel contesto delle scienze empiriche avevano sollevato. Ma la complessit una caratteristica che stata sempre presente ovunque nel mondo fenomenologico e pi che una vera e propria rivoluzione scientifica lo sviluppo della scienza della complessit costituisce una riscoperta della variet della realt che per un certo periodo sembrava potesse essere ricondotta a poche e semplici equazioni che i fisici magistralmente avevano formulato soprattutto allinterno della meccanica classica. dunque per affrontare lesplosione di possibilit che le inevitabili equazioni non lineari impongono che i fisici prima, i matematici, i biologi, gli informatici poi, hanno cercato di sviluppare modelli consoni ad affrontare il difficile compito di rendere ragione della variet osservabile nel mondo dovuta, in particolare, alla complessit dei fenomeni naturali. In particolare gli informatici hanno accettato questa sfida con particolare slancio sviluppando un potente paradigma di elaborazione delle informazioni, il calcolo parallelo distribuito.

25

I sistemi complessi
I sistemi complessi sono un settore di ricerca straordinariamente affascinante: essi sono universalmente diffusi, non solo in fisica e chimica, ma anche in biologia, in economia e nelle scienze sociali. La scienza della complessit affronta anche domini che hanno a lungo frustrato i tentativi di descrizione quantitativa rigorosa: ad esempio in economia sono in corso importanti sviluppi legati alla possibilit di simulare linterazione fra agenti che vengono modellati in maniera tale da rinunciare alle irrealistiche ipotesi delleconomia classica, come ad esempio quella di comportamento perfettamente razionale. Le principali caratteristiche che sono state associate alla complessit riguardano la presenza di numerosi elementi interagenti, la non linearit delle interazioni, la comparsa a livello globale di propriet emergenti prive di un analogo microscopico, e non ultima la capacit di auto-organizzazione. Ognuno di questi aspetti meriterebbe di essere approfondito, ma opportuno sottolineare che una caratteristica comune ai sistemi che consideriamo complessi la possibilit di amplificare un piccolo fenomeno locale portando tutto il sistema in uno stato qualitativamente nuovo. Si pensi ad esempio ad una transizione di fase come quella da acqua a ghiaccio, che avviene (a temperature inferiori al punto di congelamento) quando fluttuazioni locali danno origine ad una regione solida abbastanza grande da far s che il guadagno in energia libera, associato alla formazione della fase solida, superi il costo energetico relativo alla formazione di una interfaccia fra le due fasi: questa regione risulta quindi stabile e funge da nucleo di condensazione per ulteriori accrescimenti, mentre una analoga regione solida, di dimensioni inferiori, sarebbe condannata alla scomparsa. La sorte macroscopica del sistema comunque definita: abbassando la temperatura, prima o poi la transazione acqua ghiaccio avr luogo. Se non ci interessano i dettagli di questa

26

transizione, possiamo semplificare di molto la descrizione del sistema e trattarlo in maniera deterministica. In altri casi il comportamento macroscopico pu invece dipendere proprio dalle caratteristiche di una fluttuazione locale che si manifesta nel momento in cui il sistema diventa instabile, e che finisce per definirne il destino (almeno fra un insieme di scelte possibili). Lo stato finale pu dipendere dalle caratteristiche di piccole fluttuazioni locali che sono presenti nel momento in cui il sistema diventa instabile, e che arrivano a dominarne le caratteristiche macroscopiche. Naturalmente la descrizione del fenomeno contiene implicitamente una scelta particolare del livello di descrizione, e quindi di quali siano le variabili rilevanti e quali siano quelle trattabili come fluttuazioni; tale scelta corrisponde peraltro a quella naturale per un osservatore macroscopico del fenomeno. Un esempio famoso di amplificazione di piccoli disturbi il cosiddetto effetto farfalla, la dipendenza sensibile dalle condizioni iniziali che si osserva in molti sistemi dinamici non lineari. I sistemi caotici sono infatti considerati complessi, sebbene essi possano anche avere pochi gradi di libert: la nozione di complessit suggerita in questo caso comprende anche sistemi di questo tipo, che non potrebbero essere inclusi in una definizione di complessit che richiedesse la presenza di un gran numero di elementi interagenti. importante osservare che la complessit di un sistema non ne una propriet intrinseca, ma si riferisce sempre ad una sua descrizione, e dipende quindi dalla scelta di un certo punto di vista ovvero dal modello utilizzato nella descrizione e dalle variabili che si ritengono rilevanti. Lo studio della dinamica dei sistemi complessi reso oggi possibile dalla disponibilit di elevata potenza di calcolo dei moderni computer. Naturalmente, si tratta di una condizione necessaria ma non sufficiente: la pura forza computazionale non sufficiente a risolvere alcun problema interessante, e la scienza dei sistemi complessi venuta a maturazione in questi anni grazie ai progressi dei metodi sperimentali, che consentono di conoscere

27

nei dettagli il comportamento di numerosi sistemi fisici e biologici, e allo sviluppo di sofisticati strumenti concettuali, quali la dinamica non lineare, la meccanica statistica dei materiali disordinati, la sinergetica. Questi progressi sono stati potenziati dalla disponibilit di potenti calcolatori. Lo sviluppo scientifico esso stesso un fenomeno complesso, e la presenza di queste interazioni non deve sorprenderci. In questo contesto il calcolatore parallelo non solo uno strumento di simulazione, ma esso stesso un modello concettuale e una sorgente di interessanti sfide intellettuali. Esiste un legame fra gli aspetti computazionali e gli aspetti teorici della scienza della complessit. Fin dalle origini della civilt gli esseri umani hanno cercato di definire dei modelli della realt circostante. La scienza e larte, fin dalle loro forme primitive, hanno sempre avuto insita in loro lattivit del modellare. Una delle principali motivazioni che stanno alla base della nascita e dello sviluppo dellattivit scientifica consiste nel trovare dei modelli semplici che possano spiegare e riprodurre quello che avviene in natura. Per questo motivo fin dai tempi dei Greci, i filosofi e gli scienziati hanno cercato di scoprire dei modelli matematici (teorie) che potessero essere usati per studiare i fenomeni naturali. Ad esempio Pitagora sosteneva che il linguaggio segreto del creato sta tutto racchiuso nei numeri. Lo studio dei modelli ha portato, in tutti i campi della scienza e della tecnica, enormi progressi con effetti di grandi miglioramenti in tutti i settori della societ. La fisica di Galileo stata un grande passo di sintesi esplicativa dei fenomeni naturali in cui lesperimento costituisce la pietra miliare di verifica delle teorie che vengono utilizzate nella spiegazione dei fenomeni studiati. Ultimamente suscita grande interesse lo studio di modelli per i sistemi complessi, sistemi per i quali non possibile utilizzare semplificazioni concettuali in grado di ricondurre il fenomeno in esame ad un modello semplice. I sistemi complessi sono quei sistemi dinamici con capacit di auto-organizzazione composti da un numero elevato di parti interagenti in modo non lineare che danno luogo a comportamenti

28

globali che non possono essere spiegati da una singola legge fisica. Esempi di sistemi complessi possono essere il sistema immunitario, un bosco in fiamme, il cervello umano, una comunit di persone che interagiscono tra loro, un flusso di veicoli su una rete autostradale. Il campo della scienza che si occupa di studiare e modellare questi sistemi detto scienza della complessit. Linformatica, fin dalle sue origini, stato un potente strumento per lo studio e la descrizione di sistemi complessi in tutti i settori della scienza e dellingegneria. La soluzione di problemi scientifici stata, storicamente, una delle motivazioni principali per la realizzazione dei computer e rappresenta un settore applicativo di grande rilevanza che stimola la progettazione e la realizzazione di nuovi calcolatori ad architettura parallela ad elevate prestazioni. La realizzazione di modelli e la simulazione tramite calcolatore consente di fornire un laboratorio virtuale in cui possono essere studiati e risolti problemi complessi attinenti vari campi della scienza. Per molti anni stato difficile studiare il comportamento dei fenomeni complessi perch i modelli usati per descriverli erano cos difficili che la principale modalit computazionale usata, rappresentata dallintegrazione di equazioni differenziali, comportava tempi di calcolo estremamente elevati. Grazie ai calcolatori paralleli, i quali sono composti da pi unit di elaborazione che in parallelo possono eseguire pi programmi per risolvere pi problemi contemporaneamente o per risolvere un singolo problema in un tempo minore, la potenza computazionale a disposizione si accresciuta notevolmente. Inoltre sono emersi nuovi modelli di calcolo come gli automi cellulari, le reti neurali e gli algoritmi genetici, che rappresentano validi strumenti per la descrizione di fenomeni complessi. Un calcolatore pu essere usato come un ambiente di sperimentazione tramite il quale si pu studiare un fenomeno complesso, come levoluzione di alcune forme di vita o di un sistema composto da milioni di particelle e si pu verificare il suo comportamento in base ai valori assunti dai parametri che lo caratterizzano.

29

Ovviamente la simulazione di un uragano non distrugge case e ponti, ma rappresenta un buon modello del fenomeno reale consentendo la misura e la previsione dei valori delle variabili ritenute significative. Un modello semplice ma molto potente che segue questo approccio quello degli automi cellulari (AC). Secondo questo modello, un sistema viene rappresentato come composto da tante semplici parti ed ognuna di queste parti evolve conformemente ad una propria regola interna ed interagisce solo con le parti ad essa vicine. Levoluzione globale del sistema emerge dalle evoluzioni di tutte le parti elementari. Un automa cellulare un sistema dinamico discreto. Spazio, tempo e stati del sistema sono discreti. Ogni elemento dellautoma in una griglia spaziale regolare detto cella e pu essere in uno degli stati finiti che la cella pu avere. Gli stati delle celle variano secondo una regola locale, cio lo stato di una cella ad un dato istante di tempo dipende dallo stato della cella stessa e dagli stati delle celle vicine allistante precedente. Gli stati di tutte le celle sono aggiornati contemporaneamente in maniera sincrona. Linsieme degli stati delle celle compongono lo stato dellautoma. Lo stato globale dellautoma evolve in passi temporali discreti. Grazie alla disponibilit dei sistemi di calcolo parallelo ad alte prestazioni stato possibile simulare fenomeni complessi basati sul modello degli automi cellulari, sistemi fisici complessi che si prestano ad essere formulati in termini di un numero elevato di elementi interagenti solo localmente, sfruttando il naturale parallelismo che presente nel modello degli automi cellulari. Lintegrazione degli automi cellulari e del calcolo parallelo permette di ottenere un utile strumento per la definizione di algoritmi cellulari e la loro esecuzione efficiente per la simulazione di sistemi complessi. La scienza una delle imprese pi grandi e mirabili dellumanit. I suoi enormi progressi sono stati resi possibili da importanti scuole di pensiero e di metodologia. Sin dalle sue origini pi remote, luomo si trovato dinanzi a un ambiente altamente complesso. E la natura stessa lo ha aiutato a tener testa

30

a questo ambiente attraverso un cervello che pu trattare lenorme quantit di informazione necessaria per sopravvivere. Possiamo dire che il nostro cervello riuscito a condensare linformazione in entrata sotto forma di alcuni dati decisivi, necessari per lazione e la reazione. Ma in seguito luomo ha iniziato ad affrontare il suo ambiente in maniera pi consapevole, proprio attraverso lo sviluppo della scienza. In particolare, nella fisica come in molti altri campi, ha potuto scoprire leggi di natura. La fisica Galileiana ha scoperto le sue leggi grazie ad esperimenti, reali o di pensiero, in cui vengono mutati soltanto pochi parametri: ad esempio laltezza o il peso negli esperimenti sulla caduta dei gravi. A questa metodologia associata la tendenza di ricercare elementi semplici attraverso la scomposizione dei sistemi nelle loro parti. proprio questo il metodo grazie al quale la mente occidentale stata in grado di costruire quel solenne edificio monumentale chiamato scienza. Oggi ci stiamo rendendo conto sempre di pi delle limitazioni di questo approccio, e in particolar modo quando abbiamo a che fare con sistemi complessi. Si potrebbe dire che i sistemi complessi sono sistemi il cui comportamento non pu essere compreso in maniera semplice a partire dal comportamento dei loro elementi. In altre parole, la cooperazione degli elementi determina il comportamento dei sistemi globali e fornisce ad essi delle propriet che possono essere completamente estranee agli elementi che costituiscono il sistema. La sinergetica non soltanto ha come suo obiettivo lo studio di questi effetti cooperativi, ma si pone anche la domanda se esistano dei principi generali che regolano il comportamento dei sistemi complessi nonostante il fatto che i loro elementi possono essere di natura completamente differente, elettroni, atomi, molecole, cellule o esseri umani. Questi principi generali che regolano il coordinamento tra gli elementi possono essere rappresentati in maniera rigorosa a un livello matematico elevato in una opportuna rappresentazione. Molti sistemi naturali contengono un grandissimo numero di elementi.

31

Tra gli elementi individuali di questi sistemi esistono inoltre moltissime connessioni. Per descrivere compiutamente sistemi di tal genere dobbiamo trattare una quantit di informazione enorme. Dobbiamo quindi escogitare dei metodi tendenti a condensare lenorme quantit di informazione contenuta in sistemi di tal genere in una quantit di informazione che possa venir trattata dalla mente umana. Per far ci di solito si distingue un livello microscopico caratterizzato da numerosi elementi e un livello macroscopico nel quale ci troviamo dinanzi alle propriet del sistema nel suo complesso. Un metodo per studiare i sistemi complessi consiste (seguendo il paradigma pi consolidato) nella loro scomposizione negli elementi costitutivi. Questa scomposizione effettivamente possibile per molti sistemi, per i quali gli elementi sono definiti in maniera dettagliata, ma a volte questo modo di procedere non riesce a raggiungere lo scopo desiderato. In molti sistemi possono giocare un ruolo decisivo gli effetti cooperativi: in questo caso la cooperazione fra le parti risulta molto pi importante per il comportamento macroscopico del sistema di quanto non lo siano le propriet degli elementi presi separatamente. Quindi, anche se molto importante studiare le propriet delle singole parti, per la comprensione del sistema nel suo insieme si ha in genere bisogno di nuovi e ulteriori concetti e metodi di approccio. In un approccio di questo genere viene studiata la relazione che intercorre fra il livello microscopico e il livello macroscopico. Nel caso di molti sistemi naturali, ma anche in una serie di manufatti prodotti dalluomo, lo stato macroscopico viene ottenuto attraverso un processo di autorganizzazione degli elementi microscopici: il sistema ottiene una specifica struttura spaziale, temporale o funzionale senza uno specifico intervento dallesterno. La sinergetica si chiede se esistano dei principi generali che regolano il processo di autorganizzazione e che siano indipendenti dalla natura dei sottosistemi. Possiamo trovare principi di tal genere, a patto che il sistema intraprenda al livello macroscopico dei cambiamenti di ordine qualitativo. Spesso

32

questi elementi qualitativi sono accompagnati dallemergenza di nuove qualit del sistema macroscopico, anche se gli elementi microscopici rimangono inalterati. In fisica semplici esempi di tali fenomeni sono dati dai fluidi e dal laser. In un fluido si produce una struttura spaziale macroscopica allorch il sistema venga sottoposto a un nuovo vincolo, che dato da un riscaldamento omogeneo: il fluido acquista cio uno specifico stato macroscopico e ordinato che non viene imposto dallesterno, ma che piuttosto viene innescato indirettamente. In un laser gli atti incoerenti di emissione da parte dei singoli atomi vengono coordinati e danno origine a una struttura temporale ordinata. Nella sinergetica le relazioni che intercorrono fra il livello macroscopico e il livello microscopico vengono desunte e determinate ricorrendo a due concetti, al concetto di parametri dordine e a quello del principio di asservimento. I parametri di ordine sono gli osservabili macroscopici che descrivono il comportamento macroscopico del sistema. Secondo il principio di asservimento il comportamento degli elementi microscopici diventa determinato nel momento in cui si danno gli osservabili macroscopici. Si ottiene in questo modo una enorme riduzione dei gradi di libert. In un laser presente un numero enorme di gradi di libert degli atomi ma un solo grado di libert del moto del campo. Una volta oltrepassata la soglia delleffetto laser, lintero sistema viene regolato da un unico grado di libert, e ci dipende proprio dal principio di asservimento. In molti casi, quando cambia un parametro di controllo, i sistemi studiati dalla sinergetica sono sottoposti a una serie di cambiamenti qualitativi. In termini pi generali, pu darsi il caso che i medesimi elementi mostrino (a livello macroscopico) modelli di comportamento completamente differenti. Un esempio fornito ancora una volta dal laser. A bassa intensit della corrente di alimentazione, il laser pu manifestare una emissione casuale. Con laumento della corrente di alimentazione la struttura dellemissione diventa coerente. A energie di alimentazione ancora superiori si producono lampi

33

regolari (moti quasi periodici). Se si modifica un altro parametro, londa coerente pu degradarsi in un caos deterministico. Anche in questo caso si possono identificare diversi itinerari che portano dal moto coerente al moto teorico: vi sono ad esempio fenomeni di intermittenza, nei quali periodi di emissione laser coerente si alternano ad esplosioni caotiche. Il laser potrebbe servire da paradigma per il comportamento delle reti neurali. In particolare potrebbe essere un modello per spiegare i cambiamenti comportamentali che, apparentemente senza nessuna causa, si verificano negli esseri viventi: il problema che deve affrontare la natura consiste nellarmonizzare questi modelli comportamentali, in maniera tale che il movimento dei muscoli possa procedere senza soluzioni di continuit. La sinergetica in certa misura complementare al riduzionismo o allo studio degli elementi microscopici. Essa tende a porre laccento sulle propriet dei sistemi senza tenere conto della natura dei sottosistemi componenti. In questo modo la sinergetica costruisce profonde analogie fra il comportamento macroscopico di sistemi completamente differenti. Oggi vediamo che le scienze biologiche e fisiche sono caratterizzate da una crisi della spiegazione semplice. Di conseguenza quelli che sembravano essere i residui non scientifici delle scienze umane (lincertezza, il disordine, la contraddizione, la pluralit, la complicazione, ecc.) fanno oggi parte della problematica di fondo della conoscenza scientifica. Dobbiamo constatare che il disordine e il caso sono presenti nelluniverso, e svolgono un ruolo attivo nella sua evoluzione. Non siamo in grado di risolvere lincertezza arrecata dalle nozioni di disordine e caso: lo stesso caso non sicuro di essere un caso. Questa incertezza rimane, e rimane anche lincertezza sulla natura dellincertezza arrecataci dal caso. La biologia contemporanea considera ogni specie vivente come una singolarit, che produce singolarit. La vita stessa una singolarit, allinterno dei vari tipi di organizzazioni fisicochimiche esistenti. Il cosmo stesso un evento singolare, dotato di una storia singolare nella quale si produrr la nostra storia singolare, e la storia di ciascun essere vivente una storia singolare.

34

Non possiamo pi, consci della complessit del reale, eliminare il singolare ed il locale ricorrendo alluniversale nelle nostre teorie esplicative. I fenomeni biologici e sociali presentano un numero incalcolabile di interazioni, di inter-retroazioni, uno straordinario groviglio che non pu essere computato nemmeno con il ricorso al computer pi potente. Prigogine ha mostrato che strutture coerenti a forma di vortice possono nascere da perturbazioni che apparentemente avrebbero dovuto dare come risultato delle turbolenze. in questo senso che alla nostra ragione si presenta il problema di una misteriosa relazione fra ordine, disordine e organizzazione. Lordine generato dal disordine ci appare un fatto sorprendente! interessante che un sistema sia nel contempo qualcosa di pi e qualcosa di meno di quella che potrebbe venir definita come la somma delle sue parti. Lorganizzazione impone dei vincoli che inibiscono talune potenzialit che si trovano nelle varie parti, ma nel contempo il tutto organizzato qualcosa di pi della somma delle parti, perch fa emergere qualit che senza una tale organizzazione non esisterebbero. Sono qualit emergenti, nel senso che sono constatabili empiricamente ma non sono deducibili logicamente. Nel campo della complessit vi qualcosa di ancor pi sorprendente. il principio dellologramma. Lologramma una immagine fisica le cui qualit dipendono dal fatto che ogni suo punto contiene quasi tutta linformazione dellinsieme che limmagine rappresenta. Gli organismi biologici possiedono una organizzazione di questo genere: ognuna delle nostre cellule, anche la cellula pi modesta come pu essere una cellula dellepidermide, contiene linformazione genetica di tutto lorganismo nel suo insieme. Naturalmente solo una piccola parte di questa informazione espressa in una singola cellula, mentre il resto inibito, ma comunque presente. In questo senso possiamo dire non soltanto che la parte nel tutto, ma anche che il tutto nella parte. Nelluniverso delle cose semplici necessario che una porta sia aperta o chiusa, mentre nelluniverso complesso si constata che un sistema autonomo nel contempo aperto e chiuso. Un sistema che compie un lavoro per sopravvivere ha bisogno di

35

energia fresca e deve trarre questa energia dal proprio ambiente. Lorganismo, pur essendo autonomo, radicato nel suo rapporto con lambiente e risulta estremamente problematico studiarlo separatamente. La scienza si sviluppa non soltanto basandosi sulla logica e il raziocinio ma anche (si tratta di un paradosso sconcertante) grazie a ci che in essa vi di non scientifico. proprio per ragioni logiche e sperimentali che si giunti a una assurdit logica: il tempo nasce dal non tempo, lo spazio dal non spazio, e lenergia nasce dal nulla (teoria del Big Bang). La complessit sembra negativa o regressiva perch costituisce la reintroduzione dellincertezza in una conoscenza che era partita trionfalmente verso la conquista della certezza assoluta. E su questo assoluto bisogna davvero farci una croce sopra. Ma laspetto positivo, laspetto progressivo che pu derivare dalla risposta alla sfida della complessit consiste nel decollo verso un pensiero multidimensionale. Lerrore del pensiero formalizzante e quantificatore sta nel fatto che questo pensiero arrivato a credere che ci che non fosse quantificabile e formalizzabile non esistesse. Sogno delirante, niente pi folle del delirio della coerenza astratta! La realt multidimensionale: comporta sempre una dimensione individuale, una dimensione sociale, una dimensione biologica, una dimensione fisica, ecc. La sfida della complessit ci fa rinunciare al mito della chiarificazione totale delluniverso, ma ci incoraggia a continuare lavventura della conoscenza, che un dialogo con luniverso. La realt oltrepassa le nostre strutture mentali da ogni parte. Il fine della nostra conoscenza non quello di chiudere, spiegando il tutto con una unica formula, ma quello di aprire il dialogo con luniverso. Il che significa: non soltanto strappare alluniverso ci che pu essere determinato in maniera chiara, con precisione ed esattezza, ma entrare anche in quel gioco fra chiarezza e oscurit che appunto la complessit.

36

Sistemi di calcolo parallelo


Negli ultimi anni sono state delineate le principali caratteristiche architetturali delle macchine parallele conformemente ai modelli teorici di calcolo parallelo e alle metriche usate per misurarne le prestazioni. Sebbene attualmente vi siano macchine parallele che vengono impiegate come macchine dedicate per supportare applicazioni specifiche (trattamento di immagini, robotica, visione, ecc.), sempre pi diffusa la necessit di avere a disposizione sistemi di tipo general-purpose. Per soddisfare questa richiesta necessario un modello di macchina astratta standard che svolga il ruolo che il modello di Von Neumann ha svolto per gli elaboratori sequenziali. La pi famosa e accettata classificazione delle architetture per i sistemi paralleli quella proposta da M.J.Flynn. Secondo questa classificazione, le due pi importanti caratteristiche di un elaboratore sono: il numero di flussi di istruzioni che esso pu processare ad ogni istante, e il numero di flussi di dati su cui esso pu operare simultaneamente. Combinando queste due caratteristiche possibile ottenere le seguenti quattro classi architetturali: SISD (Single Instruction stream Single Data stream) SIMD (Single Instruction stream Multiple Data stream) MISD (Multiple Instruction stream Single Data stream) MIMD (Multiple Instruction stream Multiple Data stream) La classe SISD comprende larchitettura tradizionale di Von Neumann che quella usata da tutti i calcolatori convenzionali, in cui il singolo processore obbedisce ad un singolo flusso di istruzioni (programma sequenziale) ed esegue queste istruzioni ogni volta su un singolo flusso di dati. Alla classe SIMD appartengono le architetture composte da molte unit di elaborazione che eseguono contemporaneamente la

37

stessa istruzione ma lavorano su insiemi di dati diversi. Generalmente, il modo di implementare le architetture SIMD quello di avere un processore principale che invia le istruzioni da eseguire contemporaneamente ad un insieme di elementi di elaborazione che provvedono ad eseguirle. Il processore principale spesso ospitato allinterno di un calcolatore convenzionale che provvede a supportare anche lambiente di sviluppo. I sistemi SIMD sono utilizzati principalmente per supportare computazioni specializzate in parallelo. La classe MISD, in cui pi flussi di istruzioni (processi) lavorano contemporaneamente su un unico flusso di dati, non stata finora utilizzata praticamente. da notare che, mentre nella classe SIMD la granularit, ovvero la dimensione delle attivit eseguibili in parallelo, quella delle istruzioni, nella classe MISD e in quella MIMD la granularit quella dei processi, programmi composti da pi istruzioni. Il modello rappresentato dalla classe MIMD, in cui pi processi, eventualmente creati dinamicamente, sono in esecuzione contemporaneamente su pi processori ed utilizzano dati propri o condivisi, rappresenta una evoluzione della classe SISD. Infatti, la realizzazione di queste architetture avviene attraverso linterconnessione di un numero elevato di elaboratori di tipo convenzionale. I sistemi con architettura MIMD sono oggi fra quelli pi studiati e si pu presumere che essi rappresentino il punto di partenza per la costruzione di macchine parallele di tipo generalpurpose. Sebbene la tassonomia di Flynn sia in grado di rappresentare alcuni aspetti fondamentali nella maggior parte delle architetture parallele, essa non in grado di esplicitare pienamente tutte le caratteristiche interessanti per un programmatore. Infatti, essa non in grado di distinguere fra architetture a memoria condivisa e architetture a memoria distribuita. Inoltre, in essa non trovano adeguata collocazione i calcolatori vettoriali, le macchine dataflow e quelle a riduzione che sono utilizzate come architetture parallele per la implementazione di linguaggi funzionali. In particolare possibile introdurre una ulteriore sottoclassificazione:

38

SIMD Processori vettoriali Array processor Array sistolici MIMD Sistemi a memoria distribuita Sistemi a memoria condivisa Macchine Data-Flow Macchine a riduzione Le architetture SIMD utilizzano un modello di computazione in parallelo di tipo sincrono. Questo modello permette di coordinare lesecuzione di pi operazioni concorrenti attraverso intervalli di tempo che hanno una durata fissa, pari al tempo necessario per eseguire una operazione. Il modello prevede che una computazione sia suddivisa in pi fasi e che allinterno di ogni fase le computazioni possano essere partizionate per esplicitare parallelismo di tipo temporale o spaziale. Nel caso di parallelismo temporale differenti parti di una singola istruzione sono eseguite in parallelo in moduli diversi connessi in cascata (pipeline). Nel caso spaziale gli stessi passi vengono eseguiti simultaneamente su un array di processori identici sincronizzati da un unico controllore. Il parallelismo temporale stato utilizzato nella costruzione di processori vettoriali con caratteristiche pipeline. Mentre il parallelismo spaziale stato utilizzato nella realizzazione degli array processor. Entrambe le forme di parallelismo sono state usate nella progettazione degli array sistolici. I processori vettoriali sono in grado di raggiungere elevate prestazioni nellelaborazione di applicazioni di calcolo scientifico. Le elevate prestazioni sono dovute principalmente alla presenza di computazioni vettoriali e matriciali, che possono essere elaborate attraverso unit hardware specializzate in grado di effettuare operazioni su vettori in pipeline. Il parallelismo esplicitato allinterno di un singolo processore a livello firmware e non visibile a livello del programmatore.

39

Larchitettura generalmente costituita da una memoria principale, una unit di controllo scalare ed una vettoriale, registri scalari e vettoriali e da multiple unit funzionali connesse in pipeline che implementano operazioni aritmetiche e booleane sia su grandezze scalari che vettoriali e che sono in grado di funzionare concorrentemente. Le operazioni vettoriali sono inviate allunit di controllo vettoriale che le esegue in pipeline attraverso le unit vettoriali. Il flusso di dati vettoriali fra la memoria principale e le unit vettoriali controllato dallunit di controllo vettoriale. Per sfruttare appieno la velocit delle unit funzionali necessario disporre di una elevata banda di memoria. A tale scopo le informazioni aventi indirizzi contigui sono memorizzate in moduli contigui. possibile quindi che gli elementi di un vettore, memorizzati in indirizzi consecutivi, possano essere letti e scritti contemporaneamente. Una importante tecnica che i processori vettoriali utilizzano consiste nel permettere a pi unit funzionali vettoriali strutturate in pipeline di evolvere in parallelo utilizzando il flusso dei risultati che provengono da ununit funzionale come ingresso per unaltra unit funzionale. Il grande successo dei processori vettoriali dovuto alla loro facilit di programmazione. Essa pu avvenire o attraverso lestensione di linguaggi sequenziali con istruzioni vettoriali o attraverso compilatori. In questultimo caso il compilatore provvede ad individuare le relazioni di dipendenza fra le istruzioni vettoriali e ad effettuare la traduzione di istruzioni iterative in istruzioni vettoriali. A differenza dei processori vettoriali che sono in grado di trattare sia istruzioni scalari che vettoriali, un array processor una architettura in grado di fornire elevate prestazioni solo per programmi che contengano un numero elevato di istruzioni vettoriali. La classica struttura di un array processor costituita da una unit di controllo (UC), una memoria programma, e da un array di elementi di elaborazione (PE). La memoria contiene il programma che deve essere eseguito. Lunit di controllo ha il compito di prelevare le istruzioni dalla memoria e di separare le istruzioni scalari da quelle vettoriali. Quelle scalari sono eseguite diret-

40

tamente dalla UC mentre quelle vettoriali sono inviate a tutti i PE dellarray in parallelo. La UC attende che il processore pi lento abbia terminato di eseguire listruzione prima di inviarne una nuova, implementando cos il sincronismo della computazione. Ogni elemento dellarray dotato di un meccanismo di controllo locale che, basandosi sul proprio stato, in grado di decidere se eseguire o ignorare le istruzioni che riceve dalla UC. Attraverso un meccanismo di controllo globale, la UC in grado di determinare correttamente la sequenza delle istruzioni da eseguire. Una caratteristica importante di un array processor rappresentata dallo schema di interconnessione che supporta le comunicazioni processore-processore e processore-memoria. Le principali strutture di interconnessione processore-processore, nel caso di memoria distribuita, sono di tipo matrice o ipercubo. La Connection Machine rappresenta una evoluzione di questo modello architetturale. Ogni elemento dellarray una cella composta da un processore e da una memoria locale. Questa strutturazione rimuove la classica suddivisione fra processore e memoria. Le celle possono essere raggruppate per formare strutture dati attive. Su queste strutture possono essere eseguite parallelamente istruzioni di basso livello attraverso i vari processori che agiscono sulle parti locali della struttura dati. La Connection Machine composta da celle connesse secondo una topologia ad ipercubo. Il paradigma che trae maggior vantaggio da queste architetture quello data-parallel. Questa forma di parallelismo prevede che i dati vengano suddivisi spazialmente ed ogni PE esegua, ad intervalli regolari, su una porzione di dati, la stessa computazione. Gli array sistolici sono architetture utilizzate nellelaborazione di segnali e nellanalisi numerica. Un array sistolico costituito da un insieme di moduli uguali, ognuno con una memoria locale, connessi attraverso semplici strutture regolari (matrici, alberi,) corrispondenti al grafo della computazione, in modo da mantenere la localit nelle comunicazioni. Negli array sistolici i dati viaggiano in maniera ritmica dalla

41

memoria del computer ospite ai nodi della rete per ritornare nuovamente alla memoria. Le comunicazioni con lesterno possono avvenire solo attraverso i nodi che sono distribuiti lungo i bordi. Questo permette di avere un buon bilanciamento fra lelaborazione parallela, laccesso alla memoria e le richieste di ingresso-uscita. Ogni nodo esegue una computazione utilizzando i dati di input e il proprio stato interno e invia il risultato ai nodi vicini sui link di uscita. Tutte le operazioni sono sincronizzate attraverso un clock globale esterno. Gli algoritmi eseguiti su questa architettura sono detti sistolici in analogia col funzionamento della circolazione del sangue che viene pompato dal cuore. Le architetture MIMD sono caratterizzate da una grande flessibilit che permette a questi sistemi di supportare su una stessa piattaforma hardware diversi modelli computazionali. Il modello architetturale MIMD pu essere suddiviso in sistemi a memoria condivisa detti multiprocessor e sistemi a memoria distribuita conosciuti come multicomputer. A livello architetturale, i processori del sistema (nodi) cooperano secondo un modello asincrono. Secondo questo modello i vari nodi possono eseguire, in maniera autonoma, pi flussi di istruzioni (processi) che usano dati locali o condivisi. I processi su ogni nodo vengono eseguiti facendo riferimento al tempo locale del processore. Lassenza di un tempo globale fa s che, a differenza del modello sincrono, sia necessario disporre di meccanismi di comunicazione e sincronizzazione per consentire ai vari processi di scambiarsi informazioni sullo stato del sistema. Se si intende realizzare un modello computazionale asincrono la comunicazione fra processi dovr avere una semantica non bloccante sia per le primitive di output sia per quelle in input. Un messaggio inviato da un processo depositato in un buffer, se la primitiva corrispondente non pronta a ricevere il dato. Il processo che ha inviato il messaggio continua lelaborazione e successivamente gli verr segnalato che il messaggio stato ricevuto. Questi meccanismi di comunicazione riducono la sincronizzazione e favoriscono una esecuzione pi parallela dei processi e una loro maggiore indipendenza. Nel caso di architetture MIMD a memoria condivisa possibile

42

emulare un modello sincrono o asincrono utilizzando un linguaggio concorrente che utilizzi un modello di cooperazione a memoria globale e disponga di costrutti di sincronizzazione del tipo semafori o monitor. Questi modelli per la cooperazione fra processi permettono di utilizzare macchine MIMD sia come paradigmi di programmazione a parallelismo esplicito che implicito. Nel caso esplicito, le attivit concorrenti sono espresse direttamente come processi del linguaggio concorrente. Nel caso implicito, il programma sorgente trasformato, mediante compilatori, in una rete di processi cooperanti. I multicomputer sono programmati attraverso il paradigma di scambio messaggi, attraverso una rete di interconnessione, mentre i multiprocessori usano il modello a memoria condivisa. Uno dei limiti principali delle architetture di tipo multiprocessor quello di non poter essere costituite, a causa dei problemi di accesso in memoria e dei ritardi introdotti dalla rete, da molti processori, mostrando cos una bassa scalabilit. I multicomputer sono sistemi caratterizzati da un numero elevato (dalle centinaia alle migliaia) di elaboratori (processore e memoria) ad altissima scala di integrazione, interconnessi da strutture regolari. Ogni elaboratore dotato di un insieme di elementi di connessione (link) che gli permettono di collegarsi ad altri elaboratori secondo strutture statiche o dinamiche di tipo punto-a-punto. La struttura di interconnessione scelta con lobiettivo di mantenere piccola la distanza fra due nodi qualsiasi e di avere un basso numero di link per processore. Se gli algoritmi utilizzati impongono che la maggior parte degli accessi avvenga su dati locali e i processi hanno un comportamento indipendente, allora il carico sulla rete notevolmente ridotto e le performance del sistema diventano elevate. Non sempre gli algoritmi sono caratterizzati da una elevata localit. In questi casi, il sistema utilizza pesantemente la rete di comunicazione e necessita di algoritmi di instradamento (routing) dei messaggi per garantire una completa connettivit logica fra i nodi. Gli algoritmi di routing utilizzati sono generalmente dinamici, cio decidono il percorso a tempo di esecuzione e consentono di

43

bilanciare il carico sui vari link in modo da evitare fenomeni di saturazione. Per ottenere elevate prestazioni in termini di efficienza e scalabilit necessario che gli algoritmi da eseguire su un multicomputer siano progettati effettuando un adeguato bilanciamento fra il tempo di elaborazione e il tempo per la consegna dei messaggi (granularit dei processi) e definendo opportune strategie per lallocazione delle attivit ai vari nodi di elaborazione mantenendone bilanciato il carico di elaborazione. Le macchine data-flow e a riduzione sono sistemi caratterizzati da un nuovo approccio alla programmazione parallela. Il modello architetturale usato sostanzialmente il modello MIMD (cooperazione asincrona fra i nodi ed esecuzione di attivit concorrenti), ma il nuovo paradigma computazionale che esse usano in grado di fornire una visione pi astratta dellarchitettura. Diversamente dalla macchina di Von Neumann, in cui le istruzioni sono eseguite sequenzialmente controllate da un program counter, queste architetture basano il loro funzionamento su due modelli computazionali: data-driven e demand-driven. Il modello data-driven prevede che una istruzione possa essere eseguita solo se tutti gli operandi che essa usa sono disponibili. Nel modello demand-driven la richiesta del risultato che fa partire lesecuzione dellistruzione che lo deve calcolare. Entrambi i modelli non utilizzano un program counter e lesecuzione di una istruzione avviene solo in base alla disponibilit dei dati. Le macchine data-flow utilizzano un modello data-driven e le macchine a riduzione un modello demand-driven. Nelle architetture data-flow i meccanismi di controllo della sequenza delle istruzioni tipici della programmazione imperativa non sono presenti. Esse vengono utilizzate per lesecuzione di programmi funzionali o logici in cui il modello astratto espresso attraverso un modello data-driven. Questo modello computazionale pu essere assimilato ad un modello di computazione concorrente asincrona a scambio messaggi in cui i nodi possono avere granularit pari a quella dei processi o a quella di una singola istruzione. Ogni istruzione pu essere implementata come un template, che composto da un campo operatore, una

44

memoria per ricevere gli operandi, e un campo con lindicazione dei destinatari a cui spedire il risultato. Per far partire lesecuzione tutti i valori degli operandi devono essere ricevuti nelle posizioni ad esse riservate nel template. I grafi data-flow sono in grado di esplicitare due forme di parallelismo. La prima forma permette a due nodi di essere eseguiti in parallelo se non vi dipendenza fra i dati (parallelismo spaziale). La seconda forma ottenuta dalle computazioni pipeline indipendenti che sono presenti nel grafo (parallelismo temporale). Le macchine a riduzione utilizzano un modello demand-driven per controllare il flusso della computazione. Il modello prevede che una istruzione venga abilitata per lesecuzione se i risultati che essa produce sono necessari come operandi per unaltra istruzione che gi abilitata. Nel caso di elaborazione di istruzioni letterali (applicazioni di funzioni su argomenti) o espressioni, lesecuzione di un programma consiste nel riconoscimento delle espressioni riducibili e nella sostituzione dei loro valori calcolati. Il modello di esecuzione pu essere visto come un grafo in cui ogni nodo rappresentato da una sottoespressione che deve essere ridotta. Gli elementi di elaborazione (PE) elaborano i task (singole elaborazioni) utilizzando un pool di task selezionati e un pool di task in attesa. Lo schema di elaborazione il seguente: un PE estrae un task dal pool dei processi selezionati, se vi sono sottoespressioni da valutare, i task relativi sono aggiunti al pool dei selezionati e il task originale va nel pool di attesa, quando un task pu essere valutato, i suoi risultati saranno utilizzati per attivare un task nel pool di attesa che passa nel pool dei selezionati. Uno dei principali requisiti da soddisfare affinch lelaborazione parallela diventi una tecnologia su cui basare le applicazioni del futuro, quello di disporre di un modello standard di macchina astratta, simile al modello di Von Neumann per lelaborazione sequenziale, in modo da separare gli aspetti implementativi software da quelli hardware. Quello che serve un modello astratto su cui compilare efficientemente i linguaggi di alto livello e che possa essere implementato efficientemente in

45

hardware, in modo che sia possibile eseguire un programma con la stessa efficienza su macchine parallele diverse. Un modello teorico consente di valutare i limiti teorici delle prestazioni delle macchine parallele e di effettuare unanalisi della scalabilit e dellefficienza degli algoritmi paralleli. I modelli teorici pi conosciuti sono: Il modello PRAM (Parallel Random Access Machine) Il modello Spatial Machines basato sugli automi cellulari Il modello BSP (Bulk Synchronous Parallel) Il modello LogP

La PRAM una macchina composta da un insieme di processori sequenziali (RAM), ognuno con una propria memoria locale (ML), che comunicano attraverso una memoria condivisa (MC), una unit di switching (SW) che connette i processori con la memoria condivisa. In una unit di tempo, ogni processore pu effettuare operazioni di lettura o scrittura, sia in memoria locale che in quella comune o eseguire operazioni RAM. Da questo si deduce che il tempo di esecuzione di ogni istruzione costante, e quindi il modello computazionale pu essere considerato di tipo sincrono. In esso il costo dovuto alle comunicazioni trascurato. Il modello PRAM pu essere considerato come una astrazione di un multiprocessor a memoria condivisa. Gli algoritmi che vengono eseguiti su una PRAM seguono il modello data-parallel: tutti i processori possono eseguire la stessa istruzione su dati diversi. Purtroppo attraverso una PRAM non possibile modellare computazioni a scambio messaggi su architetture a memoria distribuita. La Spatial Machine utilizza un particolare tipo di automa cellulare come modello di computazione parallela che ha la potenza computazionale di una macchina di Turing. Il modello pi realistico di un automa cellulare poich il numero di processori finito sebbene i processori possano muoversi e inviare messaggi in uno spazio infinito. Il modello

46

computazionale della Spatial Machine definito su una griglia cartesiana tridimensionale di dimensioni infinite. Nel modello tutte le computazioni avvengono in un numero finito di passi ed in ogni passo tutte le computazioni sono eseguite simultaneamente. La Spatial Machine composta da un numero finito di celle ognuna con le stesse funzionalit di un processore. Ogni processore ha un controllo finito simile a quello della macchina di Turing con un numero finito di stati e una funzione di transizione. Nella macchina, una cella individuata come cella terminazione. La computazione termina quando un processore raggiunge il suo stato finale nella cella terminazione. La Spatial Machine pu essere definita come un riconoscitore di un linguaggio limitando loutput ai due valori accept e reject. Il modello BSP stato proposto con lobiettivo di definire un modello pi pratico del modello PRAM che sia un efficiente bridge fra software e harware. Il modello BSP basato su tre elementi: 1. Un insieme di componenti (processori e memorie) 2. Un router che in grado di consegnare messaggi fra coppie di processi attraverso una rete di comunicazione di tipo punto-apunto 3. Un dispositivo di sincronizzazione per la temporizzazione dei componenti. Una computazione BSP consiste in una sequenza di superstep (computazioni globali) in ognuno dei quali ogni componente pu eseguire computazioni locali, trasmissione di messaggi verso il router o trattamento dei messaggi ricevuti da altri processori. Un superstep considerato concluso una volta che tutte le computazioni di tutti i componenti sono completati e il router non ha richieste da soddisfare. I superstep sono separati da barriere globali e tutti i messaggi di un superstep sono ricevuti prima che il successivo superstep inizi. Il modello LogP presenta una parametrizzazione pi evoluta rispetto al modello BSP ma anchesso un modello intermedio che caratterizza una macchina parallela attraverso la latenza e la banda. Il modello LogP caratterizza una macchina parallela attraverso i seguenti parametri:

47

L: rappresenta la latenza e indica il ritardo che introdotto dalla rete di interconnessione quando viene trasferito un messaggio avente le dimensioni di una word da un processore sorgente ad uno destinatario. O: loverhead, ovvero il tempo necessario per processare il messaggio nel nodo che lo riceve o in quello che lo invia. G: il gap e indica il minimo intervallo di tempo fra la trasmissione o la ricezione di messaggi consecutivi ad un processore. Il reciproco di G corrisponde alla banda di comunicazione disponibile per processore. P: il numero dei moduli processori/memoria. Il modello LogP assume che la rete abbia una capacit finita. Se un processore tenta di inviare un messaggio e la rete satura allora il processore si blocca finch la rete non in grado di accettare nuovi messaggi. Le computazioni locali non sono modellate. Il modello LogP non prende in considerazione alcuno stile di programmazione o protocollo di comunicazione ed ugualmente applicabile a paradigmi a memoria condivisa, a scambio di messaggi o data parallel. Le prestazioni di uno o pi moduli che costituiscono un programma parallelo possono essere migliorate aumentando il grado di parallelismo, ovvero il numero di processori che mediamente sono usati durante lesecuzione del programma. Il grado di parallelismo pu essere incrementato sostituendo un modulo con un insieme di moduli operanti in parallelo e caratterizzati da una granularit pi fine a quella del modulo di partenza. Tuttavia la scelta di avere moduli con granularit fine non sempre consente di ottenere miglioramenti poich spesso si ha un aumento del grado di accoppiamento che una misura del grado di congestione dei moduli che nel programma hanno la funzione di servire richieste effettuate da parte di pi moduli utilizzatori. Inoltre importante curare la ripartizione dei dati fra i vari processori in modo da favorire una localit nelle richieste di accesso ai dati. Negli ultimi anni sono stati sviluppati dei linguaggi per la

48

programmazione parallela (detti linguaggi concorrenti) che permettono la scrittura di algoritmi paralleli come un insieme di azioni concorrenti eseguite su differenti processori o nodi di elaborazione. La realizzazione di programmi paralleli richiede di affrontare e risolvere problemi che non sono presenti nella programmazione sequenziale. Problemi tipici sono la creazione di processi, la loro sincronizzazione, la gestione delle comunicazioni tra processi, la prevenzione dello stallo (deadlock) e la terminazione dei processi che compongono il programma parallelo.

49

Automi cellulari
Un automa cellulare un sistema dinamico discreto. Spazio, tempo e stati del sistema sono discreti. Ogni elemento dellautoma in una griglia spaziale regolare detto cella e pu essere in uno degli stati finiti che la cella pu avere. Gli stati delle celle variano secondo una regola locale, cio lo stato di una cella ad un dato istante di tempo dipende dallo stato della cella stessa e dagli stati delle celle vicine allistante precedente. Gli stati di tutte le celle sono aggiornati contemporaneamente in maniera sincrona. Linsieme degli stati delle celle compongono lo stato dellautoma. Quindi lo stato globale dellautoma evolve in passi temporali discreti. Secondo questo modello un sistema viene rappresentato come composto da tante semplici parti ed ognuna di queste parti per evolvere ha una propria regola interna ed interagisce solo con le parti ad essa vicine. Levoluzione globale del sistema emerge dalla evoluzione di tutte le parti elementari. Gli automi cellulari possono essere pensati come dei sistemi dinamici astratti che giocano un ruolo nella matematica discreta comparabile a quello delle equazioni differenziali parziali nella matematica del continuo. Molti studiosi sono dellopinione che le applicazioni pi significative della teoria degli automi cellulari si avranno nella produzione di modelli in grado di simulare il comportamento intrinseco distribuito e di auto-organizzazione. Il concetto di automa cellulare fa la sua comparsa nellambiente scientifico nel 1947 allorch ci si propose di studiare la complessit dei fenomeni biologici e in particolare i meccanismi di funzionamento e auto-riproduzione degli esseri viventi. Gi i primi studiosi di cibernetica cominciarono ad intuire la capacit di alcuni meccanismi di svolgere funzioni tipicamente umane, in modo particolare quelle relative ad alcune attivit mentali elementari. Col termine automa si intende il modello astratto di un dispositivo il quale pu assumere certi stati, pu ricevere stimoli

50

(input) secondo una scala discreta del tempo dallambiente in cui immerso e reagisce a questi stimoli con una transizione di stato e con una risposta (output) secondo una logica prefissata. Formalmente un automa consiste in una quintupla (X, Y, Q, , ) dove X linsieme finito dei simboli di input Y linsieme finito dei simboli di output Q linsieme degli stati interni dellautoma : Q x X Q la funzione di transizione di stato che programma la trasformazione degli stati in funzione dellinput : Q x X Y la funzione di uscita che programma luscita in funzione dellinput e dello stato interno. Da tale definizione di deduce che un automa completamente noto se si conosce il modo in cui reagisce ad ogni possibile assegnazione di input. La sua effettiva realizzabilit legata al fatto che il numero degli stati interni sia finito: si parla in questo senso di automa finito. Un caso particolare di automa fornito dalla Macchina di Turing. Intuitivamente, un automa cellulare pu essere pensato come una rete infinita di piccoli e identici automi finiti, o celle, connessi uniformemente e sincronizzati. Il termine cellulare si riferisce alla sotto-unit ottenuta da tale costruzione e non deve implicare necessariamente una analogia con le cellule degli organismi viventi. Ciascuna di queste sotto-unit detta anche automa elementare (AE). Linsieme delle celle formano uno spazio euclideo ddimensionale. Ad ognuno di questi siti associata una variabile stato, chiamato stato della cella, che pu assumere valori in un insieme finito detto linsieme degli stati. Il tempo avanza in passi discreti. Levoluzione del sistema dovuta ad una unica funzione, detta funzione di transizione, che viene usata ad ogni passo da ogni

51

cella per determinare il suo nuovo stato a partire dallo stato corrente e dagli stati di alcune celle che compongono un vicinato della cella stessa. Il passaggio da uno stato a quello successivo dovuto alla composizione di due operatori, il vicinato, che specifica quali celle influiscono sulla data cella, e la funzione di transizione. Il vicinato o intorno della cella specifica le posizioni, relative alla cella generica, di un numero finito di celle. Tali vicini non necessitano di essere quelli fisicamente adiacenti, possono includere la stessa cella, oppure celle fisicamente distanti dalla cella considerata, limportante che le celle che compongono il vicinato siano in numero finito, e che il tipo di vicinato sia uguale per ogni cella che compone lautoma cellulare. Gli stati delle celle dellintorno sono usati nella regola di transizione della cella centrale per calcolare il suo nuovo stato. In un automa cellulare gli intorni delle celle si sovrappongono e una data cella viene inclusa in diversi intorni delle celle ad essa adiacenti. Una assegnazione di stati a tutte le celle chiamata configurazione. Un automa cellulare reversibile o invertibile se la sua mappa globale invertibile, cio se ogni configurazione ha un unico successore ed un unico predecessore. Un automa reversibile che sia fatto evolvere da qualsiasi configurazione di partenza, per un qualsiasi numero di passi, se poi viene fermato e fatto evolvere allinverso, per lo stesso numero di passi, torner alla configurazione iniziale. Nel contesto dei sistemi dinamici, linvertibilit coincide con quello che i fisici chiamano reversibilit microscopica. Le configurazioni formate da un automa reversibile tipico hanno un aspetto qualitativamente differente rispetto alle configurazioni caratteristiche di un automa non reversibile. In particolare, se la configurazione iniziale casuale, essa tende a rimanere casuale, cio non compare nessuna struttura di autoorganizzazione. Le regole di un automa cellulare sono locali (nessuna interazione a lunga distanza) e uniformi (la stessa regola applicata a tutte le celle in un dato istante di tempo). Tramite la funzione di transizione si pu costruire lesatta

52

evoluzione del sistema in un tempo finito arbitrariamente grande. Ci rende attraenti i sistemi dinamici costruiti su automi cellulari. Infatti, in sistemi dinamici continui, come quelli definiti tramite equazioni differenziali, gli stati possono assumere valori di un insieme non numerabile. Un esempio di semplice automa cellulare molto conosciuto il Gioco della Vita o Life proposto da John Horton Conway. Life simula una popolazione di organismi viventi o celle in una griglia bidimensionale che si sviluppano nel tempo sotto leffetto di tendenze allaccrescimento ed allestinzione. Ogni cella pu avere due stati: vivente (1) o morta (0) ed ha un vicinato composto dalle otto celle adiacenti. Le celle cambiano stato in base alle regole seguenti: 1. Una cella vivente pu sopravvivere nella prossima generazione se e solo se ha 2 o 3 celle viventi nel proprio vicinato. 2. Una cella morta pu tornare in vita nella prossima generazione se e solo se ha esattamente 3 celle viventi nel proprio vicinato. In base a queste semplici regole, Conway ha costruito un automa cellulare molto interessante per gli effetti che si hanno nellevoluzione di una popolazione di organismi viventi. Rispetto alla definizione di automa cellulare standard, nel tempo sono state date delle definizioni sia in termini di modifiche strutturali che di estensioni funzionali. Con il termine modifiche del modello degli automi cellulari ci si vuole riferire a modelli computazionali che differiscono dal modello degli automi cellulari, ma che possono simulare gli automi cellulari e possono essere simulati dagli automi cellulari con un costo addizionale lineare sia nel tempo sia nel numero di celle. Con il termine estensioni o generalizzazioni del modello degli automi cellulari ci si riferisce a modelli computazionali che non possono essere simulati dagli automi cellulari in un tempo lineare. Mentre una modifica rappresenta solo un formalismo differente per definire la stessa cosa, una estensione generalmente pi potente del modello standard degli automi cellulari. Gli automi cellulari non deterministici rappresentano una gene-

53

ralizzazione del modello standard degli automi cellulari. Lestensione importante consiste nel fatto che la funzione di transizione elementare di un automa non deterministico pu generare stati scelti in maniera non deterministica in uno spazio degli stati molto pi ampio. Gli automi cellulari partizionati rappresentano solo una modifica del modello standard. In un automa cellulare standard, una cella usa tutto lo stato delle celle del suo vicinato per calcolare il suo nuovo stato. In un automa cellulare partizionato, una cella legge solo la componente i-esima dello stato della cella i del suo vicinato. Da un punto di vista pratico, gli automi cellulari partizionati hanno il vantaggio che il dominio della funzione di transizione ha una dimensione minore che nel caso standard. Questo tipo di automi cellulari restringe i dati di input per la funzione di transizione di una cella, che riceve solo una parte di informazione da ognuna delle celle vicine. Questa propriet in alcuni casi, in particolare nei casi in cui lo stato delle celle complesso, pu rendere possibile limplementazione della funzione di transizione che nel caso standard sarebbe impossibile implementare a causa della dimensione del suo dominio. Gli automi cellulari probabilistici presentano delle similitudini con quelli non deterministici, seppure essi siano differenti. Gli automi cellulari probabilistici sono stati definiti per simulare fenomeni probabilistici osservati in natura. Ad esempio, fenomeni probabilistici si hanno nei gas reticolari dove certe configurazioni locali possono portare lo stato di una cella verso due possibili stati differenti con uguale probabilit. In un automa cellulare probabilistico, data una cella ed una particolare configurazione delle celle ad essa vicine, viene definita una probabilit per ogni possibile nuovo stato in cui una cella si potr trovare nella prossima iterazione. In un automa cellulare asincrono, una cella ad ogni iterazione pu decidere in maniera non deterministica se cambiare il proprio stato in base alla funzione di transizione oppure mantenere lo stato corrente. Negli automi cellulari asincroni la funzione di transizione elementare simile a quella del modello standard, tuttavia la definizione della funzione di transizione globale differente.

54

Questa classe di automi cellulari rappresenta una modifica rispetto al modello standard in quanto rilascia il vincolo dellaggiornamento dello stato in maniera sincrona per tutte le celle e rappresenta un utile modello computazionale in quei casi in cui si simulano sistemi asincroni nei quali non necessario che lo stato di tutte le componenti sia aggiornato contemporaneamente. Gli automi cellulari inomogenei sono una generalizzazione degli automi cellulari standard, infatti essi sono computazionalmente pi potenti. Negli automi cellulari si pu non avere omogeneit sia dal punto di vista spaziale sia dal punto di vista temporale, ed ognuno di questi due casi non esclude laltro. Nel caso di automi cellulari inomogenei spazialmente la funzione di transizione elementare delle celle pu variare al variare delle coordinate delle celle. Quindi lautoma non caratterizzato da una unica funzione ma da un certo numero di differenti funzioni di transizione per differenti celle o regioni dellautoma ed a queste possono essere associate differenti relazioni di vicinato. Gli automi inomogenei spazialmente sono utili quando si vuole simulare sistemi in cui alcune loro parti svolgono un ruolo particolare, come una sorgente di particelle o un cratere di un vulcano, oppure quando si vuole restringere la computazione in una regione limitata dellautoma. Nel caso di automi cellulari inomogenei temporalmente la funzione di transizione elementare delle celle pu variare al variare del tempo. In questo caso le celle dellautoma possono aggiornare il loro stato per un certo numero di passi usando una funzione di transizione e poi per un altro numero di passi usando una diversa funzione di transizione e cos via in funzione della computazione che lautoma cellulare deve eseguire. Questo tipo di automi inomogenei sono utili nel caso in cui si vogliono simulare fenomeni che sono composti da pi fasi computazionali tra loro differenti ed una di seguito allaltra. Per automi cellulari gerarchici si intende automi cellulari in cui le singole celle non sono atomiche, ma sono composte da parti pi semplici e quindi lo stato di una cella dipende dallo stato delle sue parti. Esso basato sulla struttura di un grafo annidato, cio un grafo composto da vertici ed archi, dove ogni vertice a sua volta

55

un grafo annidato. Gli automi cellulari gerarchici sono stati introdotti come modelli computazionali per sistemi multi-scala e per la simulazione di sistemi biologici multi-livello. In questi casi si ha a che fare con fenomeni composti in cui la scala del tempo e dello spazio per i sotto-fenomeni componenti sono molto differenti. Linteresse principale per gli automi cellulari dovuto al fatto che essi forniscono uno strumento matematico utile per la risoluzione di problemi fisici e naturali troppo complessi per essere affrontati tramite gli strumenti matematici tradizionali. Lo strumento pi usato per costruire un modello matematico del mondo naturale fornito dalle equazioni differenziali, le quali possono descrivere il cambiamento di una certa grandezza come funzione della posizione e del tempo. In esse, le grandezze variano con continuit. Studiare lo stesso problema in modo discreto spesso pi semplice e naturale. Il fatto che lo spazio reale, il tempo e molte variabili fisiche siano ritenuti continui anzich discreti non implica, generalmente, che le equazioni differenziali portino di per s a dei modelli della natura pi validi: spesso non il valore numerico di una variabile ad essere significativo ma solo la dimensione globale. Gli automi cellulari sono essenzialmente caratterizzati da quattro propriet: 1. La geometria della matrice delle celle 2. Lintorno o vicinato di ogni cella 3. Il numero di stati per cella 4. La variet delle regole di transizione La geometria della matrice delle celle pu essere bidimensionale tridimensionale o multidimensionale (a n dimensioni). Lintorno di una cella pu comprendere le celle fisicamente adiacenti oppure le celle determinate tramite una funzione metrica (distanza) definita nello spazio delle celle. Si possono avere automi cellulari binari in cui vi sono solo due stati per cella (1 o 0) oppure si possono definire automi cellulari con un numero molto elevato di stati possibili. Per la simulazione di sistemi che presentano una notevole complessit necessario poter definire celle con un numero di stati elevato.

56

Il numero di regole necessarie per stabilire il prossimo stato di una cella cresce esponenzialmente rispetto al numero dei possibili stati della cella. I modelli ottenuti con le varie regole di transizione sono caratterizzati dallavere comportamenti complessi, in base ai quali gli automi cellulari vengono classificati in quattro classi fondamentali. La classe 1 composta dagli automi cellulari la cui evoluzione, qualsiasi sia la configurazione iniziale, dopo un numero finito di passi porter lautoma in uno stesso stato stabile ed omogeneo oppure in un ciclo definito. Gli automi cellulari della classe 2 fanno s che il valore dello stato di una cella, dopo un certo tempo, sar determinato dai valori iniziali di alcune celle situate in una regione limitata e connessa. La conoscenza dello stato iniziale di una piccola regione sufficiente per predire lo stato finale di una data regione di celle. Di solito le regole di questa classe danno luogo a semplici strutture che possono essere stabili o periodiche e che rimangono isolate una dallaltra. Gli automi cellulari appartenenti a questa classe funzionano come filtri che generano strutture semplici a partire da particolari valori di stato iniziale, per questa ragione, essi appaiono particolarmente utili per lelaborazione di immagini. Negli automi cellulari della classe 3 il valore di una cella dipender dai valori iniziali di un sempre crescente numero di celle. Una predizione dello stato finale richiede la conoscenza completa dello stato iniziale. In un automa cellulare di questo tipo, per quasi tutti i possibili stati iniziali, levoluzione porter a configurazioni caotiche (aperiodiche) anche se non casuali. Dopo un numero sufficientemente grande di passi, le propriet statistiche di queste configurazioni sono praticamente uguali per quasi tutti i possibili stati iniziali. Negli automi cellulari della classe 4, ci sono poche regole di transizione che generano strutture di sostanziale complessit spaziale e temporale. Per questa classe di automi, in molti casi tutte le celle variano il loro stato dopo un numero finito di passi. In alcuni casi si osservano strutture periodiche o stabili che persistono per un numero elevato di passi. In altri casi si

57

osservano delle strutture che si propagano. Negli automi di classe 4, il valore di una cella dopo un numero grande di passi, dipende dal valore di un numero crescente di stati iniziali di altre celle. Il valore dello stato di una cella non pu essere determinato tramite una procedura di calcolo pi semplice della simulazione della sua evoluzione. Il comportamento degli automi cellulari della classe 4 non predicibile anche conoscendo la configurazione degli stati iniziali. Supponiamo di assegnare ad un automa cellulare una qualche configurazione iniziale scelta a caso e di farlo evolvere per molti passi nel tempo e quindi di registrare lo stato finale. Si torni ora alla configurazione di partenza, si cambi il valore di una singola cella e si faccia evolvere il sistema per lo stesso numero di passi. Che effetto avr il piccolo cambiamento sullo stato finale? Per un automa della classe 1 non c alcuna conseguenza, infatti un sistema della prima classe raggiunge lo stesso stato finale indipendentemente dallo stato iniziale. Un automa della classe 2 pu mostrare qualche effetto, ma limitato ad una piccola area vicino al sito in cui avvenuto il cambiamento. In un sistema della classe 3, invece, lalterazione di una singola cella pu provocare un cambiamento che si propaga lungo tutto il reticolo. Le regole della classe 4 sono le pi rare e le pi interessanti. Alcune funzioni di transizione piuttosto semplici ricadono in questa classe. La sensibilit a piccole variazioni nelle condizioni iniziali ancora maggiore che nella terza classe. Si ritiene che per prevedere lo stato futuro di un automa cellulare della quarta classe non vi sia nessuna procedura generale pi efficace di quella che consiste nel lasciare allevoluzione dellautoma stesso il compito di calcolare lo stato. Una ipotesi legata alla considerazione precedente suggerisce che gli automi cellulari infiniti della classe 4 possano essere considerati dei calcolatori universali. In base a questa ipotesi, gli automi cellulari della classe 4 sarebbero i pi semplici calcolatori universali conosciuti. Gli automi cellulari capaci di svolgere la computazione uni-

58

versale possono imitare il comportamento di qualsiasi calcolatore. Supponendo che qualunque processo fisico possa essere rappresentato da un processo computazionale (come sembra verosimile ipotizzare), gli automi cellulari possono imitare anche il comportamento di qualunque sistema fisico. Recentemente sono state proposte delle reti neurali cellulari. Le reti neurali cellulari (cellular neural networks CNN) sono un modello di elaborazione proposto da Chua e Yang nel 1988 definito come un insieme di circuiti non lineari in uno spazio ndimensionale con una struttura di elaborazione parallela ed asincrona. Una CNN un modello di rete neurale in cui ogni unit (cella o neurone) connessa solo ad altre unit appartenenti ad una zona della rete ad essa contigua detta vicinato o intorno. Le reti neurali cellulari sono un modello di calcolo che riassume alcune caratteristiche tipiche delle reti neurali e degli automi cellulari. Infatti, una caratteristica delle CNN la localit delle connessioni tra le unit. In questo tipo di reti neurali linformazione viene scambiata direttamente solo tra unit vicine. Questa caratteristica li rende in qualche modo simili agli automi cellulari e le differenzia dagli altri modelli di reti neurali proposti in letteratura. Il fatto che la comunicazione sia locale non limita le capacit computazionali delle CNN, infatti stato dimostrato che il modello CNN universale essendo equivalente ad una macchina di Turing. Le principali caratteristiche di una rete neurale cellulare sono: Una CNN una griglia regolare n-dimensionale di elementi detti celle Ogni cella costituisce un elemento di elaborazione con pi input e un singolo output Una cella caratterizzata da un vicinato e da uno stato interno che in alcuni casi non osservabile dallesterno della cella I dati ed i parametri di una CNN hanno generalmente valori continui Una CNN pu operare sia con valori temporali continui sia con valori temporali discreti

59

Pu essere definita pi di una rete di connessione tra le celle con differenti dimensioni di vicinato Le CNN elaborano per pi di una interazione e quindi appartengono alla classe delle reti di tipo recurrent. Se il raggio r che definisce il vicinato sufficientemente grande da fare in modo che il vicinato di ogni cella copra tutta la rete, una CNN viene sostanzialmente a coincidere con una rete di Hopfield a valori continui, in questo caso una CNN viene utilizzata come una memoria associativa. I modelli di automa cellulare e rete CNN condividono la localit delle connessioni come base topologica. Al contrario delle CNN, negli automi cellulari lo stato di ogni cella ha valori discreti. Le funzioni di transizione per gli automi cellulari, che sono definite da tavole di verit, possono essere paragonate alle maschere per le CNN a tempo discreto, in tal modo si mantiene una stretta analogia progettuale. Le reti CNN sono un interessante e promettente incrocio tra i concetti di automa cellulare e rete neurale. Le reti neurali rappresentano un modello di calcolo parallelo. Il loro utilizzo per limplementazione di applicazioni reali richiede lutilizzo di sistemi di calcolo a parallelismo massiccio. Nei sistemi ad elevato parallelismo una applicazione viene realizzata tramite un insieme di processi concorrenti che cooperano tramite lo scambio di messaggi. Questo approccio metodologico si basa sul progetto e lo sviluppo di programmi concorrenti che implementano i vari modelli di reti neurali utilizzando la potenza computazionale offerta dalle macchine parallele composte da un elevato numero di nodi di elaborazione. Non esiste un unico modo di implementare in maniera parallela una rete neurale e tra i vari modi esistenti non si pu facilmente individuare quale di essi il migliore in generale. In una rete neurale ogni neurone potrebbe rappresentare una attivit parallela; in pratica ci non viene realizzato poich la granularit del parallelismo esplicitabile dai sistemi paralleli maggiore di quello di un singolo neurone ed in generale il numero dei processori minore del numero di neuroni della rete che

60

occorre implementare. Inoltre, i processori presentano un grado di interconnessione limitato rispetto al grado di interconnessione delle reti neurali. Nella realizzazione di reti neurali occorre usare delle metodologie per decomporre la rete e mappare i neuroni che la compongono sui nodi di elaborazione del sistema parallelo. Per risolvere problemi reali occorrono reti neurali di grandi dimensioni, i sistemi paralleli possono offrire il supporto computazionale necessario. Un diverso approccio, e complementare, alla ricerca di modelli computazionali nellambito dei sistemi complessi ci deriva dagli algoritmi genetici. Recentemente, gli algoritmi genetici sono stati utilizzati con sempre maggiore frequenza in molti settori scientifici e ingegneristici per la loro capacit di risolvere problemi complessi. Inizialmente, il loro principale campo applicativo stato quello dei problemi di ottimizzazione, ma rapidamente essi hanno mostrato di essere adatti a risolvere problemi in molti altri settori: robotica, machine vision, machine learning, data mining, evoluzione degli automi cellulari, apprendimento sia della topologia sia dei pesi delle reti neurali, sistemi intelligenti, evoluzione della cooperazione e comunicazione in sistemi multi-agenti. Gli algoritmi genetici sono algoritmi di ricerca general-purpose che si ispirano ai meccanismi dellevoluzione per affrontare la risoluzione di problemi complessi. In essi, come negli organismi viventi, levoluzione avviene attraverso due processi fondamentali: la selezione naturale e la riproduzione sessuale. Il processo di selezione determina quali elementi di una popolazione debbano sopravvivere per riprodursi, mentre il processo di riproduzione garantisce il mescolamento e la ricombinazione dei geni dei loro discendenti. Lidea che alla base degli algoritmi genetici quella di far evolvere una popolazione di elementi, che rappresentano le soluzioni candidate di uno specifico problema, sia tramite competizione (favorendo la sopravvivenza delle soluzioni migliori) sia attraverso meccanismi di ricombinazione e mutazione. Studi teorici hanno mostrato che il vantaggio computazionale degli algoritmi genetici, rispetto ad esempio alla ricerca di tipo

61

random, che essi tendono ad indirizzare la ricerca verso le regioni dello spazio delle soluzioni pi promettenti (ad elevata fitness) utilizzando ad ogni generazione la conoscenza accumulata durante la ricerca precedente. Un ulteriore aspetto interessante degli algoritmi genetici che essi utilizzano un modello di computazione parallela in cui gli elementi di una popolazione evolvono in parallelo. Questa caratteristica li rende adatti ad essere implementati su macchine parallele e a trattare problemi di notevole complessit. Lalgoritmo genetico una procedura iterativa che usa una popolazione di cromosomi che si evolvono e si riproducono. Per consentire la riproduzione dei cromosomi pi adatti lalgoritmo genetico usa una funzione di fitness che assegna un punteggio ad ogni cromosoma della popolazione corrente. La fitness indica la bont con cui un cromosoma risolve uno specifico problema. Per ricombinare e alterare i cromosomi della popolazione lalgoritmo genetico usa gli operatori genetici di: selezione, crossover e mutazione. Loperatore di selezione provvede a scegliere i cromosomi nella popolazione per la riproduzione. Gli elementi sono selezionati e replicati in maniera proporzionale alla loro probabilit di riproduzione. La probabilit di riproduzione dipende dalla funzione di fitness, i cromosomi che hanno i valori di fitness pi elevati hanno una maggiore probabilit di riprodursi. Loperazione di crossover implementa la funzione di ricombinazione fra due cromosomi, detti genitori, attraverso lo scambio di porzioni delle stringhe che li rappresentano. I cromosomi genitori sono scelti a caso nella popolazione ed accoppiati in modo da generare due nuovi cromosomi detti figli. Loperatore di mutazione si applica a tutti gli elementi della popolazione con una certa probabilit, detta di mutazione, cambiando il valore di un gene scelto in maniera casuale. Volendo risolvere un problema attraverso un algoritmo genetico, la prima cosa che dobbiamo definire il meccanismo di codifica che ci consente di rappresentare le variabili del problema nella forma che lalgoritmo genetico in grado di manipolare. Sebbene esistano diverse codifiche la pi usata quella che utilizza stringhe di bit.

62

Il passo successivo quello di definire una funzione di fitness che consenta allalgoritmo genetico di calcolare la bont di ogni stringa della popolazione come probabile soluzione. La risoluzione di problemi complessi attraverso gli algoritmi genetici richiede elevati tempi di calcolo che sono determinati principalmente dai tempi necessari per la valutazione della fitness e dallelevato numero di iterazioni necessarie per trovare la soluzione, inoltre in un algoritmo genetico occorre generare intere popolazioni di soluzioni candidate per molte generazioni successive. Lelaborazione parallela offre la possibilit di ridurre i tempi di esecuzione e di migliorare le prestazioni di un problema attraverso la sua suddivisione in moduli e lesecuzione contemporanea dei moduli su una macchina parallela dotata di molti processori. Gli algoritmi genetici, contrariamente a quanto pu apparire a prima vista, non sono direttamente parallelizzabili. Infatti, sebbene la popolazione degli elementi possa essere distribuita facilmente sui nodi di una architettura parallela lo stesso non si pu dire per le varie fasi della computazione. Le procedure che riguardano il processo di selezione e il crossover operano su tutta la popolazione, necessitano di comunicazioni non locali, e introducono punti di centralizzazione che necessitano di una esecuzione seriale.

63

Una metrica su insiemi


Il concetto di insieme un concetto matematico molto astratto e generale. Un insieme pu connotare una moltitudine di cose diverse ed un concetto che sta a fondamento della matematica, dal concetto di insieme possibile definire il concetto di numero e fondare su di esso tutta la matematica. un fatto notevole che sia possibile indurre una metrica su insiemi in una maniera molto generale utilizzando una misura e le semplici operazioni di unione e intersezione tra insiemi. La funzione definita come: (A B) d(A,B) = ( A B) si pu dimostrare essere effettivamente una distanza che induce una metrica sulla potenza degli insiemi considerati. Dove sta per differenza simmetrica ovvero A B = (A \ B) (B \ A). Una applicazione di questa metrica stata utilizzata nellimplementazione di algoritmi genetici per la risoluzione di particolari problemi. Gli algoritmi genetici sono oramai una tecnologia matura che ha dimostrato il suo potenziale in numerose e variegate applicazioni nel mondo reale. Ultimamente lattenzione si rivolge allintegrazione degli algoritmi genetici con altri modelli di ispirazione biologica per costruire paradigmi computazionali molto pi potenti e flessibili per la risoluzione di problemi, molti laboratori di ricerca hanno mostrato che i vari modelli computazionali possono essere migliorati se li si integra tra loro. Lintegrazione di questi modelli fra loro o con altri paradigmi, come ad esempio la fuzzy logic, consente loro di superare le limitazioni che presentano singolarmente e di ottenere performance migliori. Le reti neurali

64

cellulari sono un esempio di questo approccio. Un altro esempio rappresentato dai sistemi neurogenetici in cui gli algoritmi genetici sono usati per semplificare la fase di training o per evolvere i pesi e larchitettura di una rete neurale. Un ulteriore esempio riguarda lutilizzo degli algoritmi genetici per far evolvere le regole di un automa cellulare. Come esempio di integrazione fra i vari paradigmi interessante un modello in cui levoluzione dei pesi di una rete neurale realizzato attraverso luso di un algoritmo genetico. Montana e Davis hanno usato gli algoritmi genetici in sostituzione dellalgoritmo di back propagation per cercare i pesi delle connessioni di una rete neurale con una architettura fissata. I nodi (neuroni) e i pesi delle connessioni di una rete neurale sono rappresentati dai geni di un cromosoma e entrambi sono codificati utilizzando lo stesso alfabeto. La funzione di fitness calcolata sulla base del rapporto tra il numero di bit diversi, fra due stringhe binarie, e il numero di bit complessivo. facile vedere come la funzione di fitness cos definita corrisponda alla distanza sopra introdotta, in cui la misura non altro che la cardinalit dellinsieme. Allaltro estremo della ricerca biologica troviamo una applicazione di questa metrica nel campo della psicologia cognitiva, in particolare nellanalisi dei processi di categorizzazione e riconoscimento di oggetti. Il tentativo teorico degli studi di psicologia cognitiva consiste nello specificare quali siano i meccanismi che consentano di: 1. Individuare esattamente il prototipo di una categoria in funzione delle caratteristiche associate ai singoli esemplari della categoria stessa 2. Decidere se un dato esemplare appartiene o no a una data categoria o, nel caso di pi categorie, a quale categoria appartiene in funzione delle caratteristiche possedute dallesemplare stesso. La specificazione di questi meccanismi stata oggetto di varie proposte teoriche, tra le quali una delle pi interessanti stata quella avanzata da James A. Hampton nel 1993. Innanzitutto, egli definisce il prototipo di una categoria tramite lelenco ordinato di tutte le caratteristiche che sono associate ad almeno un esemplare

65

della categoria, ciascuna a sua volta associata a un peso prototipico che pari al peso della caratteristica stessa diviso per il numero di esemplari che fanno parte della categoria. In altri termini, il peso prototipico coincide con una valutazione della presenza media della caratteristica nellambito degli esemplari della categoria. Per quanto riguarda la decisione relativa allappartenenza di un esemplare a una data categoria, Hampton introduce una grandezza che misura la somiglianza dellesemplare dato dalla categoria. In particolare questa somiglianza viene misurata facendo il rapporto tra il numero di caratteristiche che individuano lesemplare e il numero di caratteristiche totali del prototipo. Anche in questo caso facile verificare che la somiglianza di Hampton corrisponde alla metrica su insiemi sopra introdotta. Lo studio delle regole di categorizzazione attualmente oggetto di una intensa attivit di ricerca. Questa attivit ha preso in esame non solo i meccanismi base a cui i soggetti decidono di attribuire un nuovo esemplare a una categoria preesistente, ma anche i meccanismi che consentono ai soggetti di formare nuove categorie in seguito allosservazione di un certo numero di esemplari. Le regole di categorizzazione finora proposte si possono ripartire in quattro grandi classi: 1. Una categoria incentrata sul suo prototipo: ogni esemplare viene incluso nella categoria in cui la sua somiglianza col prototipo massima, o la distanza dal prototipo minima, rispetto alle somiglianze coi prototipi di altre categorie; la formazione della categoria prende dunque le mosse dalla scelta del prototipo della categoria stessa; 2. Una categoria caratterizzata sia dal suo prototipo che da un opportuno raggio di prototipicit, cio da una opportuna distanza dal prototipo comprendente gli esemplari pi tipici; si pu dunque introdurre il concetto di cerchio di prototipicit, inteso come la zona, o intorno, situata a una distanza dal prototipo non superiore al raggio di prototipicit, in cui gli esemplari pi tipici sono contenuti; ovvio che regole di questo tipo hanno senso solo ove sia possibile introdurre un opportuno concetto di distanza tra esemplari; 3. Una categoria comprende solo esemplari che sono pi vicini

66

tra loro, o la cui distanza reciproca non supera un certo valore di soglia, un esemplare classificato nella stessa categoria dellesemplare che gli pi vicino; 4. Una categoria comprende solo gli esemplari la cui distanza reciproca media sufficientemente bassa; un esemplare incluso nella categoria in cui la sua distanza media dagli esemplari della categoria stessa la minima possibile. In tutti questi casi risulta evidente come alla base della categorizzazione sia importante la possibilit di definire una metrica sulle caratteristiche degli esemplari. Ora si pone un importante problema concettuale: nel caso in cui non vi sia sovrapposizione tra caratteristiche la metrica sopra introdotta fornisce una distanza massima. Il problema della sovrapposizione nulla, ad una analisi pi attenta, si rivela per un problema di rappresentazione, se associamo due oggetti allora esiste certamente una rappresentazione in cui essi hanno qualcosa in comune (al limite la nostra stessa associazione).

67

Un modello per il traffico stradale


Sono numerosi gli esempi di sistemi la cui costruzione abbastanza semplice ma il cui comportamento estremamente complesso. Lo scopo di una teoria dei sistemi complessi cercare delle leggi che regolano il comportamento globale di questi sistemi e che non sono facilmente deducibili dallanalisi delle singole leggi che controllano ciascuno dei sottosistemi costituenti. La scienza dei sistemi complessi parte sempre dal comportamento delle singole componenti di un sistema complesso e dalle loro interazioni. Tuttavia, essa si basa sullipotesi che le propriet microscopiche dei componenti sono poco rilevanti e che il comportamento collettivo non varia se variano di poco le leggi che regolano il comportamento dei singoli componenti. Nel caso di sistemi fisici, i moti delle singole molecole devono essere seguiti esplicitamente e il comportamento globale del sistema viene stimato calcolando le propriet medie. Il solo modo fattibile per realizzare tali simulazioni attraverso luso dei calcolatori elettronici. La simulazione tramite calcolatori un metodo molto usato per lo studio e lanalisi di molti fenomeni naturali in vari settori della scienza. Appare per questo naturale chiedersi se la simulazione il metodo pi efficiente da usare o se vi una formula matematica che pu portare pi direttamente ai risultati cercati. Per chiarire questo particolare aspetto occorre analizzare la corrispondenza tra processi fisici e processi computazionali. presumibile che qualunque processo fisico possa essere descritto da un algoritmo, cos ogni processo fisico pu essere rappresentato da un processo computazionale. Naturalmente il processo computazionale pu essere pi o meno complesso. Nel caso degli automi cellulari la corrispondenza tra processi fisici e processi computazionali particolarmente chiara. Infatti, un automa cellulare pu essere visto come un modello di un sistema fisico, ma daltra parte esso pu essere realizzato come un processo computazionale con una stretta analogia con il modello dei sistemi di elaborazione, ed in particolare con i sistemi di elaborazione paralleli.

68

Il paradigma computazionale degli automi cellulari offre un modello di calcolo che, differenziandosi dai classici metodi matematici, permette di definire modelli complessi attraverso un approccio formale che richiede allutente di concentrarsi sul particolare del fenomeno da studiare, a partire da questo si ottiene il modello globale. Per questa ragione molto importante poter disporre di un paradigma di programmazione che permetta di esprimere in forma di algoritmo le caratteristiche di un dato automa cellulare che contiene il modello del fenomeno da simulare. La simulazione di flussi di traffico stradale un problema molto difficile da risolvere a causa della complessit del fenomeno e del numero di fattori da considerare nel modello. Un sistema composto da un insieme di strade percorso da un numero elevato di autoveicoli rappresenta un esempio significativo di sistema complesso. I metodi computazionali basati su sistemi di equazioni differenziali possono essere usati per modellare solo aspetti parziali di questo fenomeno offrendo una visione macroscopica del fenomeno stesso. In alternativa luso combinato degli automi cellulari e dei sistemi di calcolo parallelo ad alte prestazioni permettono la realizzazione e lesecuzione di modelli microscopici di traffico stradale nei quali ogni veicolo un singolo oggetto dinamico (attivo) capace di adattare il proprio comportamento alle caratteristiche della strada e del traffico in essa presente tramite linterazione con i veicoli ad esso prossimi. Il modello di traffico ad automi cellulari che verr delineato di seguito, stato definito per simulare il traffico su strade di grande comunicazione, come superstrade ed autostrade. Nel modello, ogni singola cella dellautoma rappresenta un segmento della strada (a senso unico) lungo 5 metri, lunghezza equivalente alla media della lunghezza degli autoveicoli. Ogni segmento composto da tre corsie, rispettivamente la corsia di destra, centrale e sinistra. Una quarta corsia stata aggiunta per modellare gli ingressi, le uscite e la corsia di emergenza. Lo stato di ogni cella consiste nelle caratteristiche dei veicoli presenti in essa (velocit, lunghezza, accelerazione), nelle caratteristiche strutturali della strada (salita, discesa, distanza dalla prossima uscita), nelle

69

condizioni di traffico, dei limiti di velocit presenti e del comportamento del conducente (velocit desiderata). Lo stato di ogni cella composto da 11 sottostati che descrivono il segmento della strada e le caratteristiche del veicolo in esso presente. Il vicinato di ogni cella contiene 25 celle che permettono di avere linformazione sul tratto di strada che corrisponde alla porzione vista dal conducente in avanti e dietro. La funzione di transizione che regola levoluzione dello stato di ogni cella dellautoma e quindi permette di simulare il comportamento globale dei veicoli sulla strada composta da due parti principali. 1. Nella prima parte vengono calcolati, per il veicolo presente nella cella, i valori correnti della velocit, della corsia e del numero di celle in avanti dove il veicolo, presente nella cella, arriver nella prossima iterazione avendo lo scopo di viaggiare alla velocit desiderata in condizioni di sicurezza. 2. Nella seconda parte viene esaminato lo stato delle celle del vicinato che rappresentano una porzione della strada dietro la cella corrente per verificare la eventuale presenza di un veicolo che la prossima iterazione porter nella cella corrente. In questo caso i valori che descrivono le caratteristiche del veicolo dovranno essere copiati nello stato della cella corrente. Per realizzare queste due parti, la funzione di transizione composta dalle seguenti funzioni: CheckSpeed: questa funzione riceve come argomenti la corsia, il limite di velocit, la prossima uscita e luscita scelta dal conducente e ritorna la velocit massima in condizioni di sicurezza che il veicolo pu raggiungere nella cella nella data corsia. La funzione considera i veicoli immediatamente davanti e dietro in tutte le corsie allo scopo di calcolare la prossima posizione dei veicoli anche considerando i cambiamenti di corsia. Il valore della velocit ottenuto confrontando la velocit e la prossima possibile posizione del veicolo con le velocit e le prossime possibili posizioni dei veicoli vicini. Distance: riceve come argomento la corsia e ritorna il valore della distanza dal veicolo immediatamente davanti nella stessa corsia. Deceler: riceve come parametri la distanza dal veicolo

70

successivo, la velocit attuale, la velocit desiderata dal conducente, la massima velocit in sicurezza, la capacit di decelerazione del veicolo ed il gradiente della strada e calcola la nuova velocit del veicolo ottenuta effettuando la minima decelerazione in condizioni di sicurezza ottima. Acceler: riceve come parametri la distanza dal veicolo successivo, la velocit attuale, la velocit desiderata, la capacit di accelerazione del veicolo e il gradiente della strada, e calcola la nuova velocit ottenuta operando la massima accelerazione possibile in condizioni di sicurezza ottima. Questo modello stato realizzato in ambiente CAMEL ottenendo un comportamento che descrive abbastanza bene il flusso globale dei veicoli sotto differenti condizioni di traffico. In particolare, in presenza di ostacoli sulla carreggiata si potuto verificare la creazione di code di veicoli come accade nella realt ed inoltre si notato che la velocit dei veicoli diminuisce allaumentare della densit del traffico ottenendo una corretta relazione tra la velocit media dei veicoli ed il volume di traffico. (cfr. S. Di Gregorio, 1981)

71

Le leggi della complessit


La visione di complessit suggerisce un approccio al problema della conoscenza radicalmente diverso da quello tradizionale. In s stessa non una teoria e forse neppure un paradigma definito, ma piuttosto lesigenza di utilizzare strategie di pensiero multidimensionali, un frame-work concettuale generale che riguarda la necessit di un utilizzo dinamico di modelli diversi per connettere a vari livelli teorie, dati, problemi e significati. Non c pi una realt esterna fissa da rappresentare mediante luso monodimensionale di un modello unico ricavato da principi di partenza assoluti secondo uno schema lineare, riduzionista e dicotomico. Piuttosto, il sistema della conoscenza caratterizzato da un processo di auto-organizzazione delle informazioni che procede per successivi anelli di retro-azione dai risultati ai principi attraverso una pluralit di modelli, modificando via via gli uni e gli altri, in una progressiva costruzione della realt. Alla definizione di questa linea di pensiero che intreccia risultati sperimentali e problematiche epistemologiche hanno dato un contributo decisivo le ricerche di W.Mc Culloch, J. Piaget, H. Von Foerster, G. Bateson, H. Maturana, F. Varela ed H. Atlan. Lepistemologia naturale costruttivista stata messa a punto separatamente da Gregory Bateson e, allincirca nello stesso periodo, da Humberto Maturana e Francisco Varela, nota ormai come Teoria di Maturana-Varela-Bateson. Al cuore della teoria c lidea che la vita e la cognizione seguono lo stesso tipo di processo e condividono dunque la stessa natura: una struttura che apprende una struttura viva ed viva finch apprende. La matrice fondamentale del pensiero razionale moderno e di quella sua caratteristica creatura che la scienza consiste nellidea di poter disporre di un Metodo in grado di costruire un percorso ordinato di pensieri ed esperienze e garantire con cristallina evidenza la Verit delle varie acquisizioni, pensate come una successione crescente verso la conquista definitiva del Sapere Assoluto ed Incontrovertibile. Man mano che questo ambizioso programma laico di conquista del cielo si sviluppava fu

72

necessario ammettere la sua difficile realizzabilit; ma questa non veniva imputata ad un difetto di principio, bens ad intoppi pratici e contingenti, ad una non perfetta applicazione del metodo. L imperfezione umana veniva cos ad essere valutata in base ad un ideale di perfezione che continuava a funzionare come principio regolativo della concezione del sapere come possibilit di accesso alla Totalit del Reale. Sotto questo profilo emblematica lavventura intellettuale di Cartesio e l onda lunga della sua eredit, che ancora oggi permea il senso comune e lepistemologia dei filosofi (verificazionismo, falsificazionismo e qualche altro ismo). E. Morin ha proposto di indicare globalmente gli assunti della proposta metodologica cartesiana sotto la denominazione di Pensiero Semplice, le cui caratteristiche riduzioniste, lineari e dicotomiche, possono cos essere riassunte: laccumulo di conoscenza inversamente proporzionale alla variazione dellignoranza; se un problema troppo complesso per poter essere risolto pu sempre essere suddiviso in tanti sotto problemi per i quali possibile una spiegazione. La sommatoria delle microspiegazioni fornir la soluzione al macro-problema di partenza; proprio come in matematica, il metodo deve permettere di distinguere tra questioni valide, suscettibili di chiara definizione e dimostrazione, e idee irrimediabilmente confuse, da rigettare nel flusso temporale del gioco delle opinioni, dei desideri e delle chimere; il metodo permette dunque di fissare una direzione del Progresso, una rotta ben definita rispetto alla quale eventuali blocchi, deviazioni, ritorni e convergenze sono sempre subordinati e riassumibili nella storia globale della strada maestra della conoscenza. Bisogna capire che la separazione tipica del cartesianesimo tra ego cogitans e res extensa una conseguenza necessaria delladozione del metodo. Questo, prima ancora di fornire uno strumento di conoscenza, un esercizio di purificazione ed ascesi intellettuale, capace di rendere la mente razionale in grado di cogliere gli aspetti universali, necessari e atemporali dellordine del creato, lasciando

73

il resto al suo destino contingente di accidente deteriorabile; primo aspetto tra tutti la corporeit. Anche l epurazione delle tonalit emotive si rende necessaria nella misura in cui esse vengono a distorcere con capricci soggettivi la riflessione asettica sulla realt esterna immutabile. Dunque la novit che definisce la razionalit moderna, dal 600 ad oggi, consiste nellessersi auto-costituita come strumento unico nella costruzione del territorio della conoscenza grazie alladozione di un metodo privilegiato. In seguito a questatto di hybris, il suo primo provvedimento stato quello si espellere dalle sue colonie ogni altro approccio con il reale incapace di esibire le necessarie caratteristiche di chiarezza, costringendolo o ad autoconfinarsi nelle riserve protette del sacro oppure a nascondersi nei boudoir del privato o nelle caverne di una vaga spiritualit, fondando quel gioco schizofrenico tipico della civilt borghese che stato cos acutamente analizzato da M. Foucault. Le avventure della conoscenza negli ultimi due secoli hanno visto lincrinarsi progressivo e inesorabile dello schema monolitico del pensiero semplice, con la conseguente necessit di esorcizzare definitivamente il fantasma del metodo assoluto per fare posto ad un pi flessibile approccio sistemico in cui losservatore cosciente del suo ruolo di costruttore di modelli. Un sistema complesso, composto da molti elementi interagenti non-linearmente e che presenta comportamenti emergenti impredicibili, per essere visto richiede una riflessione sul ruolo dellosservatore. (Ignazio Licata) A seconda della velocit di produzione dinformazione, strettamente correlata al grado di non-linearit e dunque di complessit del sistema, possiamo distinguere due grandi categorie di sistemi amplificatori. Una prima grande classe quella dei sistemi in cui linformazione cresce con il tempo, ma va progressivamente rallentando. In questo caso il volume di fase una funzione polinomiale del tempo. Si tratta di sistemi relativamente prevedibili, perch dopo un certo tempo dI/dt praticamente si annulla ed il sistema si

74

assesta su una struttura ben definita. Rientrano in questa categoria le strutture dissipative, studiate da I. Prigogine. Si tratta di sistemi aperti che si auto-organizzano in virt di un certo processo non lineare che permette loro un bilanciamento tra lenergia libera in entrata e lentropia in uscita. In queste strutture possibile, secondo Glansdorff e Prigogine, mostrare che la funzione di dissipazione dellentropia soddisfa ad un criterio matematico detto criterio di Ljapunov, che ne garantisce la stabilit. Inoltre esiste un teorema di Conway-Hoff-Smoller che permette di fare delle previsioni sulla forma generale della struttura dissipativa nello stadio di mante-nimento. Sul versante opposto, R. Landauer e R. Fox hanno dimostrato che la congettura di Glansdorff-Prigogine non ha validit universale e recentemente N. Kopell e D. Ruelle hanno stabilito dei limiti ben precisi per la complessit delle configurazioni raggiungibili da questo tipo di sistemi. Sembra perci che, contrariamente alle aspettative di Prigogine, non sia possibile una teoria generale unificata delle strutture dissipative capace di spiegare ogni passaggio dal disordine allordine. Questi sistemi presentano comunque, pur nella loro irriducibile variet, delle caratteristiche interessanti per lo studio di una vasta classe di fenomeni fisici, chimici e biologici. Un meccanismo non-lineare tipico di questo tipo di strutture quello della retro-azione o feed-back. Il termine deriva dalla cibernetica ed indica lazione circolare della risposta sullo stimolo e delleffetto sulla causa. Questo conduce a processi di auto-bilanciamento ed auto-rafforzamento che sono allorigine della struttura del sistema e della capacit autoorganizzativa. Esempi classici sono i sistemi di reazionediffusione, come il modello di Turing della morfogenesi, la reazione di Belusov-Zhabotinsky, il modello predatore-preda di Lotka-Volterra, le celle di convezione di Bnard, il LASER, gli iper-cicli di Eigen. Sono tutti sistemi auto-oscillatori, i cui attrattori appartengono alla classe dei cosiddetti cicli-limite. Si scoperto che quando un sistema evolve verso una situazione di auto-organizzazione la transizione viene pilotata da un parametro ordinatore secondo uno scenario universale, indipendente cio dalle caratteristiche peculiari del sistema, retto da unequazione del tipo Ginzburg-Landau dipendente dal tempo,

75

proprio come avviene nelle transizioni di fase. Sotto particolari condizioni al contorno e per valori superiori al valore critico di certi parametri che descrivono lazione dellambiente esterno sul sistema, le strutture dissipative possono cominciare a manifestare delle instabilit, fino ad avere delle risposte fortemente nonlineari e dei bruschi cambiamenti in cui compaiono nuove forme dordine. Queste biforcazioni avvengono in misura maggiore quanto pi il sistema lontano dallequilibrio e comportano sempre una modificazione drastica e repentina dellattrattore. merito della teoria delle catastrofi di R. Thom quello di aver classificato tutte le possibili biforcazioni nel caso di due variabili e quattro parametri dordine identificando sette modelli geometrici di catastrofi di base. Per valori super-critici dei parametri di controllo le strutture dissipative tendono a saltare ed il sistema entra a far parte della seconda grande categoria dei sistemi amplificatori di informazione: i sistemi caotici. La seconda categoria quella dei sistemi dove sia I che dI/dt crescono con il tempo e V una funzione esponenziale del tempo. Una condizione molto generale perch si abbiano sistemi di questo tipo che, oltre alla non-linearit, ci sia un numero di variabili di stato = 2 (teorema di Smale, 1966). In questo caso parliamo di sistemi strutturalmente instabili. Le biforcazioni si presentano con tale frequenza e variet da rendere impossibile ogni tentativo di classificazione alla Thom. Con il passare del tempo si produce la contrazione di un elemento di volume lungo una direzione dello spazio delle fasi ed invece si ha unespansione lungo le altre. Una caratteristica essenziale di questa categoria di sistemi la completa impredicibilit del comportamento dinamico, nonostante le equazioni che lo descrivono siano semplici e deterministiche; in altre parole, pur essendo ogni passo devoluzione del sistema perfettamente calcolabile, impossibile fare qualunque tipo di previsione anche a medio e breve termine. In questo senso parliamo di sistemi caotici deterministici, caratterizzati da un forte grado di non-linearit. Unaltra particolarit che le traiettorie dello spazio delle fasi vengono tutte a raccogliersi in una regione ben definita la cui dimensione geometrica non generalmente un numero intero. Si costituiscono cos degli attrattori che sono oggetti frattali nel senso di Mandelbrot e che

76

sono denominati attrattori strani o caotici. I sistemi caotici sono estremamente sensibili alle condizioni iniziali o ad ogni pur piccola perturbazione: condizioni iniziali vicinissime nello spazio di fase possono dar luogo a traiettorie completamente diverse ed ogni instabilit viene amplificata. questo il famoso effetto farfalla. Diversamente dalle strutture dissipative che reggono abbastanza bene le perturbazioni, sia ristabilendo la loro struttura e la loro autonomia sia assorbendola per passare ad un nuovo livello di auto-organizzazione, i sistemi caotici si impadroniscono immediatamente di una fluttuazione e lamplificano fino ad estenderla allinterno del sistema, provocando comportamenti nuovi ed assolutamente inaspettati. sotto questo aspetto che il tipo di amplificazione dellinformazione realizzata dai sistemi caotici pu condurre a stati pi ordinati. Gli attrattori caotici agiscono come miscelatori di ordine e disordine, favorendo imprevedibilmente ora luno ora laltro. A parte i modelli della turbolenza, i sistemi caotici sono attualmente studiati proprio per questa loro interessante capacit di interagire in modo creativo con il rumore esterno. Di recente Matsumodo e Tsuda hanno mostrato come alcuni sistemi caotici a cui viene aggiunta lazione di fluttuazioni mostrano bruscamente un comportamento collettivo ordinato, come, ad esempio, oscillazioni armoniche. In breve, in alcuni casi caos pi caos pu dare luogo a strutture ordinate. Partendo da questo risultato e considerando che il sistema nervoso umano un amplificatore dinformazione, Nicolis, Tsuda ed altri hanno sviluppato modelli dellattivit delle reti neurali nei quali lattivit mentale viene vista come lincessante lavorio di pi attrattori caotici. Quando uno stimolo esterno entra nel sistema pu cos indurre una risposta ordinata: idee, connessioni, processi di memorizzazione e di riconoscimento e cos via. Altri studi in questa direzione sembrano mostrare che esiste uno scenario universale di transizione al caos, proprio come esiste un parametro dordine nelle transizioni di fase e nei processi di autoorganizzazione. Negli ultimi anni ha acquistato una notevole risonanza il lavoro svolto dal bio-matematico S. Kauffman, utilizzando la teoria del caos e le sue relazioni con la teoria delle informazioni. Kauffman ha studiato il comportamento di reti

77

binarie, in cui ogni nodo pu essere soggetto soltanto a due stati del tipo ON/OFF ed il cui schema varia per passi discreti; ogni nodo assume un determinato valore a seconda dello stato dei nodi adiacenti. Le reti binarie sono un tipo di automa cellulare, schemi di attivit caratterizzati essenzialmente dallavere una dinamica discreta, del tipo step by step. Gli automi cellulari furono ideati in origine da J. von Neumann per fornire un modello di macchine che si autoriproducono (da qui il nome) ed il loro studio fu poi ripreso da R. Conway, S. Wolfram, F. Varela e R. Uribe, D. Farmer. (Ignazio Licata, Informazione e complessit, Quaderni Andromeda di Filosofia Naturale, 1998) Vorremmo comprendere lordine che ci circonda nella biosfera, e vediamo che un tale ordine pu essere il riflesso sia di forme di equilibrio a bassa energia (la palla nel recipiente) che di strutture dissipative in non-equilibrio, di vortici stabili che mantengono un ordine assorbendo ed emettendo materia ed energia. Ci sono almeno tre ostacoli che dobbiamo attentamente considerare. In primo luogo la teoria dei quanti, che impedisce una previsione dettagliata dei fenomeni a livello molecolare. Qualunque sia la teoria finale, questo mondo ha ormai assistito a troppi lanci di dadi quantistici per riuscire a prevedere il suo stato nel dettaglio. In secondo luogo, anche laddove domini il determinismo classico, la teoria del caos ci dimostra che minimi cambiamenti nelle condizioni di partenza possono portare a profonde modifiche del comportamento in un sistema caotico. In pratica, potremmo essere incapaci di conoscere le condizioni iniziali con precisione sufficiente per prevedere un comportamento dettagliato. Infine, la teoria della computazione sembra implicare il fatto che i sistemi in non-equilibrio possono essere visti come computer che eseguono algoritmi. Per ampie classi di questi algoritmi, vedi ad esempio gli automi cellulari, non possibile ottenere alcuna descrizione compatta, simile ad una legge, del loro comportamento. Se lorigine e levoluzione della vita equivalgono a un algoritmo informatico incompressibile allora, in linea di principio, non possiamo trovare alcuna teoria essenziale che sia in grado di

78

predire tutti i dettagli del suo svolgimento. Tuttavia, anche ammesso che levoluzione sia un processo incompressibile, non detto che non si possano trovare leggi profonde che regolino questo flusso imprevedibile, dal momento che non possiamo escludere la possibilit che molte caratteristiche degli organismi e la loro evoluzione stessa siano intrinsecamente robusti e insensibili ai dettagli. Dopo tutto ci che ci basterebbe non necessariamente una previsione dettagliata, ma piuttosto una spiegazione logica. Il grande mistero della biologia sta nel fatto che la vita sia emersa e che lordine che osserviamo sia apparso. Una teoria soddisfacente dovrebbe dar conto della creazione dello stupefacente ordine che vediamo dalla nostra finestra come naturale espressione di una qualche legge sottostante. Chiunque vi dica di sapere come la vita sia iniziata in un mondo incandescente circa 3,45 miliardi di anni fa uno sciocco o un furfante. Nessuno lo sa. In effetti, potremmo non essere mai in grado di ricostruire la reale sequenza storica degli eventi che hanno permesso ai primi sistemi molecolari in evoluzione e in grado di autoriprodursi di fiorire pi di 3 miliardi di anni fa. Ma se il percorso storico destinato a rimanere per sempre un mistero, possibile tuttavia sviluppare teorie strutturate ed esperimenti per dimostrare in maniera realistica come la vita possa essersi cristallizzata, aver messo radici ed essersi diffusa in tutto il globo. Ma attenzione: nessuno lo sa! Nessuno sa a che cosa assomigliassero i primi sistemi molecolari capaci di riprodursi, ma forme arcaiche di cellule si adagiarono su argille o su superfici rocciose, vennero sepolte e lasciarono le loro impronte affinch potessimo ritrovarle e porci le domande che oggi fanno riflettere. Quale complessit mostrano queste antiche cellule! Si pu capire dalla loro morfologia che, come nelle cellule contemporanee, la loro membrana fosse uno strato bilipidico, una specie di bolla di sapone a doppio strato fatta di molecole di lipidi, contenente una rete di molecole in grado di mantenersi e di riprodursi. Ma in che modo questi aggregati molecolari autoreplicantesi sono riusciti a coagularsi a partire dalla primigenia

79

nuvola di idrogeno, atomi e molecole, che a sua volta si coagulata da una nube di polvere nella terra primeva? Le teorie sullorigine della vita apparvero nella loro forma moderna solo dopo i brillanti esperimenti di Louis Pasteur, egli dimostr che non si formava alcuna crescita di batteri nel suo brodo sterile, che abilmente aveva isolato dallambiente esterno: la vita, concluse, generata dalla vita! Con Pasteur il problema delle origini della vita apparve improvvisamente immenso, profondo, misterioso, indicibile, forse al di l della scienza stessa. Gli organismi ospitano molecole assenti nei materiali non viventi. Gli organismi contengono molecole organiche. La differenza tra vivente e non vivente, si pens per qualche tempo, risiede nei diversi tipi di molecole. Nessun ponte poteva colmare questa distanza. A met del diciannovesimo secolo, Emil Fischer sintetizz lurea, un composto chiaramente organico, da sostanze chimiche inorganiche. La vita, dunque, era fatta dello stesso materiale del mondo non vivente. La vita proviene da materiale non animato, sebbene questo gioco di prestigio sia molto pi complesso di quanto ci si sarebbe mai potuto immaginare. Quelli che volevano credere che la vita fosse iniziata con lacido nucleico DNA, dovevano tuttavia affrontare un grosso inconveniente: il DNA da solo non si autoreplica, deve esserci un insieme complesso di enzimi proteici. Per la duplicazione del DNA occorre una molecola, un ovulo, che possiede una struttura e complessit strabiliante. Occorre un certo grado di complessit affinch la vita possa evolversi. George Wald (1954) in un suo articolo si chiede come pu essere che un gruppo di molecole possa assemblarsi proprio nella maniera giusta per formare una cellula vivente, basterebbe solo considerare la difficolt di questo compito per concludere che la generazione spontanea di un organismo vivente impossibile. Eppure siamo qui! Wald continua dicendo che, se vengono fatti moltissimi tentativi, ci che inconcepibilmente improbabile alla fine si realizza.

80

Uno non deve far altro che aspettare: il tempo stesso a fare i miracoli. Ma 4 miliardi di anni non sono abbastanza per permettere alla vita di emergere da una pura combinazione casuale, sono insufficienti per diversi ordini di grandezza. Lastronomo Fred Hoyle rinunci alla possibilit di una generazione spontanea affermando che un evento simile ha una probabilit paragonabile alle possibilit che un tornado, passando sopra a una discarica, fosse in grado di assemblare un Boeing 747 con i materiali l depositati. La cellula vivente un sistema aperto enormemente complesso. Mentre la materia e lenergia attraversano i confini della membrana cellulare, le cellule del vostro corpo coordinano il comportamento di circa 100.000 diversi tipi di molecole. Se speriamo che capire il comportamento di sistemi termodinamici chimici aperti molto semplici ci porti a capire la cellula siamo proprio presuntuosi. Nessuno capisce come si comportino le complesse reti cellulari di reazioni chimiche ed i loro catalizzatori, o quali leggi governino i loro comportamenti. Anche se semplici sistemi termodinamici aperti sono almeno un inizio, e sono gi di per s affascinanti. Dei sistemi semplici non in equilibrio possono formare degli schemi notevolmente complessi di concentrazioni chimiche, con variazioni impressionanti nel tempo e nello spazio, Prigogine ha chiamato questi sistemi dissipativi perch per riuscire a mantenere la propria struttura dissipano in continuazione materia ed energia. Le concentrazioni delle specie chimiche in un sistema dissipativo possono non raggiungere uno stato stazionario, le concentrazioni possono incominciare ad oscillare in cicli ripetuti, cicli limite, che si mantengono per lunghi periodi di tempo. I comportamenti relativamente semplici dei sistemi chimici in non equilibrio sono molto studiati e possono avere una grande variet di implicazioni biologiche. Molti pensano che i modelli naturali con cui si formano questi sistemi abbiano molto da insegnarci a proposito dello schema spaziale che si manifesta nello sviluppo delle piante e animali. Ma per quanto possano essere interessanti questi modelli chimici non sono ancora dei

81

sistemi viventi. La cellula non solo un sistema aperto, ma un sistema collettivamente autocatalitico. Nelle cellule non solo emergono degli andamenti chimici, ma le cellule si mantengono come entit capaci di riprodursi e di andare incontro a unevoluzione darwiniana. Sarebbe interessante riuscire a comprendere lorigine di sistemi molecolari collettivamente autocatalitici, a questo fine il primo passo consiste nel distinguere tra reazioni spontanee che avvengono molto lentamente e reazioni catalizzate che devono verificarsi rapidamente. Occorrerebbe trovare le condizioni in cui le stesse molecole siano sia i catalizzatori che i prodotti delle reazioni che generano il gruppo autocatalitico. Questo dipende dalla possibilit che ogni molecola del sistema ha di svolgere una doppia funzione: fungere da ingrediente o da prodotto di una reazione ma anche essere il catalizzatore di unaltra reazione. Ecco di seguito lidea di Stuart Kauffman: Man mano che la diversit molecolare nel nostro sistema aumenta, il rapporto fra reazioni e sostanze chimiche aumenta sempre pi. In altre parole, il grafico di reazione ha sempre pi linee che connettono i punti delle sostanze chimiche. Le molecole del sistema sono esse stesse candidate per catalizzare le reazioni grazie a cui si sono formate. Man mano che il rapporto tra reazioni e sostanze chimiche aumenta, il numero di reazioni che sono catalizzate dalle molecole nel sistema aumenta. Quando il numero delle reazioni catalizzate si avvicina al numero delle sostanze chimiche, si forma una grande rete di reazioni catalizzate e compare improvvisamente un sistema collettivamente autocatalitico

82

I requisiti dellordine
Partiamo dal considerare delle reti booleane, ovvero degli elementi che possono essere o attivi o inattivi, interconnessi da collegamenti eccitatori o inibitori. Le reti booleane sono analoghe, per alcuni aspetti, alle reti neurali. Le reti booleane possono esibire un ordine profondo, ma anche un caos strabiliante. Le condizioni nelle quali delle dinamiche ordinate possono emergere allinterno di tali sistemi dipendono dagli attrattori che in esse si realizzano. Due caratteristiche relative al modo in cui sono strutturate le reti possono controllare se esse si trovano in un regime ordinato o caotico, o in un regime di transizione di fase tra questi due, al confine del caos. Una caratteristica semplicemente quanti input controllano ogni elemento: se ogni elemento controllato solo da uno o due altri elementi, ovvero se la rete poco connessa, allora il sistema mostra un ordine sbalorditivo. Se invece ogni elemento controllato da molti altri, allora la rete caotica. Cos regolare la connessione di una rete serve a regolare anche il fatto che si formino ordine o caos. La seconda caratteristica che controlla il sorgere dellordine o del caos prende forma proprio nelle stesse regole di controllo. Alcune delle regole di controllo, le funzioni booleane AND e OR, tendono a creare dinamiche ordinate, altre regole di controllo creano invece il caos. Un modo per chiedersi quali tipi di reti di elementi esibiscano ordine o caos quello di costruire delle reti molto specifiche e di studiarle. Lapproccio pi naturale definire accuratamente un certo tipo di reti, e poi usare dei computer per simularne un gran numero. Allora, come se facessimo un sondaggio, potremo eseguire un ritratto dei comportamenti tipici, o generici, dei membri della classe di reti studiate.

83

Consideriamo le reti in cui ogni elemento riceve input solamente da un altro elemento. In queste reti non succede niente di interessante. Esse cadono velocemente in cicli di stato molto brevi, cos brevi che spesso consistono di un solo stato, una singola configurazione di attivazione. Allaltro estremo della scala, consideriamo delle reti in cui ogni elemento riceve un input da tutti gli altri elementi incluso se stesso. In questo caso il sistema diviene estremamente caotico. Uno scopre velocemente che la lunghezza dei cicli di stato delle reti la radice quadrata del numero degli stati. Basta fare alcuni conti per rendersi conto che una piccola rete di soli 200 elementi pu continuare ad attraversare stati di attivazione diversi per un periodo astronomico: nei sistemi termodinamici aperti non in equilibrio lordine non assolutamente automatico. Se tentiamo di far evolvere una rete simile cambiando casualmente le regole booleane di qualche elemento altereremo met delle transizioni di stato della rete e scaraventeremo tutti i vecchi bacini di attrazione e i cicli di stato nella spazzatura della storia della rete. In questo caso, piccoli cambiamenti causano grandissime variazioni di comportamento. In questa famiglia non ci sono piccole variazioni ereditabili che consentano alla selezione di agire. Un esempio di ordine che si sviluppa in queste reti avviene quando ogni elemento connesso mediamente ad altri due. Per queste reti la lunghezza dei cicli di stato non la radice quadrata del numero degli stati ma, approssimativamente, la radice quadrata del numero delle variabili binarie. Pensate a una rete booleana costruita a caso con 100.000 elementi ognuno dei quali riceva due input. Il diagramma di collegamento sembrerebbe una accozzaglia impazzita, inoltre ad ogni elemento stata assegnata in maniera casuale una funzione booleana. Anche la logica quindi assemblata a caso. Eppure la rete si stabilizza velocemente in cicli di appena 317 configurazioni. In queste reti lordine si esprime per vie diverse. Stati vicini convergono nello spazio di stato. In altre parole, due configurazioni iniziali simili saranno situate probabilmente nello stesso

84

bacino di attrazione, e quindi guideranno il sistema verso lo stesso attrattore. Queste reti non sono troppo ordinate a differenza della rete i cui elementi hanno un solo input, non sono rigide come una roccia, ma sono capaci di comportamenti complessi. Due parametri sono sufficienti per determinare se delle reti booleane casuali sono ordinate o caotiche. Reti poco connesse esibiscono un ordine interno, quelle densamente connesse virano verso il caos, mentre reti con una singola connessione per ogni elemento si congelano in un comportamento rigido e immobile. Ma la densit non lunico fattore. Se le reti hanno connessioni numerose possibile definire un parametro che le porta da un regime caotico a un regime ordinato. (B. Derrida, G. Weisbuch) Come fanno le reti cellulari a raggiungere sia la stabilit che la flessibilit? La nuova interessante ipotesi che le reti possano ottenere questo scopo raggiungendo una specie di stato sospeso, in equilibrio sullorlo del caos. Non dovremmo sorprenderci troppo se lungo questo asse si verifica un cambiamento improvviso nel comportamento, una specie di transizione di fase dallordine al caos. Una transizione di fase molto simile si verifica nei modelli di reti booleane, ancora una volta appare un raggruppamento significativo di elementi interconnessi. Se questo raggruppamento si forma allora la rete si trova in un regime ordinato, se non si forma allora la rete in un regime caotico. Proprio in mezzo, proprio vicino alla transizione di fase, proprio ai confini del caos, possono verificarsi i comportamenti pi complessi: abbastanza ordinati da assicurare una stabilit, ma pieni di flessibilit e sorprese. proprio su questo confine che si concentrano i maggiori studiosi della complessit. Possiamo vedere intuitivamente che il confine del caos pu rappresentare un regime attraente per coordinare comportamenti complessi.

85

Complesso e complicato
Il problema intanto quello di capire la differenza non solo linguistica, ma anche fortemente epistemotogica che corre fra due termini che sono solo apparentemente simili: complicato e complesso. Oggi la scienza ha compreso che nella conoscenza della realt non si tratta soltanto di raccogliere un numero considerevole di dati relativi ad un fenomeno, per meglio definirlo, e che non il numero elevato di variabili in gioco a stabilire la presenza di una complessit, quanto piuttosto il loro essere visibilmente intrecciate in una rete di relazioni. Ci che fa davvero la differenza tra due concetti di complesso e complicato la scoperta che tutti i fenomeni, soprattutto quelli legati al mondo del vivente, mostrano unapparente mancanza di ordine nella propria evoluzione e a volte nella stessa struttura, caratteristiche che non permettono di ricostruire certe serie di eventi, come quelle della biologia contemporanea, se non come processi caotici. Il contesto entro cui la scienza contemporanea parla di una scoperta della complessit si individua cos nella scoperta del carattere imprevedibile di alcuni fenomeni, e nella comprensione del fatto che: nella scienza non esistono oggetti semplici, cio la ricostruzione di un evento osservato sembra rispondere a leggi deterministiche ma va ben oltre queste leggi; la previsione dello stato futuro di un sistema pu sembrare possibile, ma a costo di ridurre qualitativamente la portata di un fenomeno studiato; le qualit riscontrate in un oggetto studiato non sono proprie di quelloggetto, ma sono la risposta della sua interazione con losservatore, sono il suo modo di vederle. Questo rappresenta il vero punto di partenza di ogni possibile riflessione sul ruolo stesso della scienza, sulla sua ricerca di una coerente immagine del mondo.

86

Il criterio che permette di differenziare complicatezza e complessit dovrebbe comunque scaturire anche dallevidenza del limite intrinseco alle spiegazioni che la scienza classica ha dato dei fenomeni, quelle cio che puntano a semplificare, a ridurre, a sminuire la portata di un fenomeno, ad ignorare le innumerevoli relazioni possibili fra fenomeni ed eventi diversi. Quindi, nel momento in cui si prende coscienza dellesigenza di una nuova situazione teorica si dovrebbero, per cosi dire, ridisegnare anche gli strumenti e le procedure dindagine della scienza e il sistema delle pratiche sperimentali di ogni disciplina. Tutto questo implica un notevole spostamento di prospettiva: si mostra anzitutto come ogni idea di esattezza nella scienza, se scaturita da una concezione del Mondo come meccanismo semplice, sia fittizia. Di conseguenza, si manifestato il carattere puramente descrittivo delle leggi scientifiche, la loro incapacit, cio, di andare oltre la semplice supposizione di uno stato di cose, di spiegare davvero un fenomeno, fatto questo che mette sotto una luce diversa anche il concetto di osservazione e di esperimento, nonch quello di verit. Una goccia dacqua che si spande nellacqua, le fluttuazioni delle popolazioni animali, la linea frastagliata di una costa, i ritmi della fibrillazione cardiaca, levoluzione delle condizioni meteorologiche, la forma delle nubi, la grande macchia rossa di Giove, gli errori dei computer, le oscillazioni dei prezzi, sono fenomeni apparentemente assai diversi, che possono suscitare la curiosit di un bambino o impegnare per anni uno studioso, con un solo tratto in comune: per la scienza tradizionale, appartengono al regno dellinforme, dellimprevedibile dellirregolare. In una parola al caos. Ma da due decenni, scienziati di diverse discipline stanno scoprendo che dietro il caos c in realt un ordine nascosto, che d origine a fenomeni estremamente complessi a partire da regole molto semplici. (J.Gleick, pioniere di una nuova scienza, Chaos) Nella scienza classica, il caos era per definizione, assenza di ordine. Oggi considerato una dimensione retta da leggi non definibili, infatti, il concetto di disordine inteso come complessit. La teoria del caos nata quando la scienza classica non aveva

87

pi mezzi per spiegare gli aspetti irregolari e incostanti della natura; innanzitutto una teoria scientifica, nata su sperimentazioni fisiche, biologiche, matematiche, socio-economiche, che ha cambiato laspetto del mondo e che in un secondo tempo stata sintetizzata nelle arti espressive, facendo la sua apparizione nello studio di fenomeni meteorologici. Le applicazioni pratiche di questa teoria sono dirette nei pi svariati campi, in quanto essa permette, con la sua visione della realt, di scegliere tra una grande abbondanza di opportunit e di raggiungere il principale obbiettivo della scienza oggi e di sempre trovare per mezzo di quali regole governato 1 universo e in che modo possiamo usarlo ai nostri fini come vagheggiava Bacone. Nellaffermazione di George Santayana Chaos is a name for any order that produces confusion in our minds, si conferma che il caos, questo punto, non pu pi essere visto come casualit e totale mancanza di ordine, ma unicamente, come un ordine cos complesso da sfuggire alla percezione e alla comprensione umana; un ordine con una logica stocastica e inestricabile dove le regole dellantica idea di armonia platonica non siano pi riscontrabili. Di conseguenza, i sistemi caotici non possono pi essere interpretati esclusivamente come imprevedibili anche se irregolari. fondamentale sottolineare che il caos non sinonimo di caso (curiosamente suo anagramma) come la logica potrebbe indurre a pensare e non si pu parlare di completo disordine, in quanto i sistemi caotici, alla luce delle nuove scoperte della teoria del caos, sono sistemi dinamici sempre prevedibili a breve termine e, quindi, riconducibili ad una logica nuova pi o meno complessa. Si pu, dunque, paradossalmente affermare, in base a precise scoperte scientifiche, che nel caos c ordine. La nazione di organizzazione evidenzia un processo che si dimostra innanzi tutto imprevedibile, non deterministico, partecipe al tempo stesso di ORDINE e DISORDINE, di condizioni di equilibrio e di non equilibrio. Alla luce di questo la natura ci si presenta sempre pi come una realt difficilmente definibile determinabile. Infatti venuta attualmente meno la pretesa di un suo completo dominio, ci sembra vada meglio avvicinata linterno di una ricerca aperta che

88

tenga conto di tutti gli elementi che intervengono ; elementi che evidenziano una certa discontinuit ed ambiguit nella nozione di natura. In tal modo non trovano pi posto tutti i modelli riduzionisti e continuistici di spiegazione. Emerge, invece, una qualche libert nelle strutture fisiche non deterministiche inteso; perci diventa impassibile un suo perfetto padroneggiamento oggettivo. La natura in quanto tale, si presenta in s imprevedibile disponibile verso sempre nuove ed inedite possibilit di sintesi le quali prendono inevitabilmente corpo qualora si verifichino certe circostanze. La nuova visione della natura dunque oscilla tra condizioni vincolanti e libert tra loro dinamicamente convesse. Evidentemente questo conferisce un certo valore allidea che nella natura vi sia un certo progresso, una sua storia, che non tuttavia assolutamente indicabile. Come ha giustamente osservato Italo Mancini a proposito della teoria delle catastrofi elaborata da Ren Thomson, sono ora di fronte ad una ribellione in favore del nuovo, dellinedito, del dispotismo. Le ragioni del diverso di fronte allidentico. La natura al contrario di quanto sostiene Monod, non si trova in un equilibrio morto, dove lorganizzazione del vivente semplicemente uneccezione e deve non ci sono le idee di progresso e libert, ma bens qualcosa di organizzato da leggi che regolano il processo tra ordine e disordine. Di conseguenza possiamo affermare che luniverso in continua trasformazione in progresso per le sue intrinseche possibilit e trova spiegazione non dentro di s, ma altrove. Questo suggerimento alla base dellattuale riflessione sulla natura. Tale apertura conferisce maggior spazio alla libert umana che resta irriducibile rispetto ad ogni tentativo di dominio o di comprensione della natura. Ci restituisce un valore positivo alluomo che, senza sentirsi schiacciato dalla natura, vi si avvicina per trascenderla. Di siffatta apertura partecipa anche il sapere scientifico stesso. Infatti la natura in quanto realt non omogenea ed estremamente complessa, ci appare resistere ad ogni intento conoscitivo inglobante, comprendente, anche per i limiti insiti nel metodo scientifico. Di conseguenza la natura ci si mostra sempre come

89

circoscritta entro i molteplici linguaggi della scienza; di qui limpossibilit inoltre di sbarazzarci delle nostre conoscenze che sono sempre linguisticamente confinate entro mappe o modelli che ovviamente non sono la realt, bens livelli o aspetti particolari di essa, che resta in s attingibile. E in questo spazio di irriducibilit teorica e pratica che si situa una diversa intelligibilit della natura; unintelligibilit che estremamente dipendente per un verso dai condizionamenti del nostro conoscere e, per laltro, da unemergenza ontologica che sembra affacciarsi dallepistemologia contemporanea. Cimentarsi nella ricerca di una definizione esauriente dei fermenti del nostro tempo appare unimpresa quanto mai rischiosa e, sotto parecchi aspetti, sterile. Il compito sarebbe pi facile e interessante se ci si limitasse ad unanalisi condotta attraverso lindividuazione di alcune parole chiave, intese come guide per posare lo sguardo sulla realt. Una di queste parole da usare come lente di ingrandimento, soprattutto per esplorare il campo del sapere a noi pi vicino, quello della filosofia e della scienza, potrebbe essere senzaltro il termine crisi. La storia del pensiero scientifico e filosofico contemporaneo infatti segnata, gi a partire dalla fine del XIX secolo dalla progressiva presa di coscienza di un lento ma inesorabile dileguarsi delle certezze, dei fondamenti teorici e pratici del sapere. Uno alla volta, tutte le categorie del pensare e dellagire scientifico e filosofico, idee e concetti ritenuti immutabili come il tempo, lo spazio, il rapporto tra cause ed effetto, sono stati messi alla prova. Assunta consapevolezza di ci, su un piano pi teorico ed intellettuale si ritenuto che una delle possibili linee di azione fosse, da un lato, quella di trovare nuove risposte, pi adeguate al tempo che stiamo vivendo, agli interrogativi classici della filosofia, intesa ancora come sguardo critico sul mondo; dallaltro, si cercato di costruire unimmagine il pi possibile confortante del lavoro e delle prospettive della scienza, la quale ha mantenuto la speranza di continuare a ricoprire il ruolo ereditato dal tempo di Newton e Galileo, di faro illuminante dellesistenza umana. Su un piano meno astratto, la crisi che caratterizza il nostro secolo

90

per una crisi di tipo esistenziale, profonda e diffusa a livello globale; nessun aspetto della nostra vita ne immune, a partire da questioni come la salute, i mezzi di sussistenza, la qualit dellambiente e dei rapporti sociali, leconomia, la tecnologia. Si sviluppata insomma la coscienza di una serie impressionante di emergenze, che coinvolgono lumanit, a tutti i livelli in un tentativo di ricerca di nuove soluzioni. Limmagine stessa della filosofia e della scienza ne risulta quindi modificata: il sapere ereditato dallet moderna, per poter sopravvivere, deve mettere in discussione uno dopo laltro tutti i suoi fondamenti, ma soprattutto deve scoprirsi ancora capace di calarsi nella vita reale e rispondere alle domande sempre pi pressanti che essa gli pone. I sistemi complessi, formati da moltissime parti che interagiscono tra loro, hanno alcune caratteristiche tipiche. [cfr. Kauffman] Stabilit I sistemi complessi tendono a mantenersi stabili nonostante i cambiamenti ambientali. Questo viene realizzato con dei circuiti di retroazione negativa che traggono informazione dallambiente. Maggiore la complessit del sistema, e maggiore pu essere la sua stabilit. Un termostato che regola la temperatura in una stanza formato da un solo circuito di retroazione, e infatti non ha una grande flessibilit: per esempio non pu nulla contro la rottura di una finestra. Finalit I sistemi complessi sembrano sempre avere un comportamento finalizzato, nel senso che le loro dinamiche tendono ad ottenere un determinato stato. Gli organismi cercano di mantenersi in vita, di nutrirsi, riprodursi, ecc.; ma anche sistemi economici e sociali a volte si dirigono ostinatamente (?) verso determinati esiti, nonostante i tentativi di controllarli. Procedura Le procedure sono unaltra caratteristica di certi sistemi: sequenze di azioni che vengono effettuate per determinare un certo risultato (lesempio classico la ricetta di cucina). I sistemi pi versatili scelgono la sequenza in modo versatile a seconda delle situazioni.

91

Adeguamento dei comportamenti Alcuni sistemi si riprogrammano, adeguando i propri comportamenti in modo da evitare un errore: apprendono dai propri errori. Anticipazione una caratteristica che permette ai sistemi di anticipare i cambiamenti ambientali, rilevando segni premonitori e prendendo contromisure prima che il cambiamento vero e proprio si verifichi. Interazione con lambiente In alternativa al modificare i propri meccanismi interni in risposta allambiente, un sistema pu agire direttamente sullambiente per modificarlo. Molti animali fanno questo (vengono in mente, per esempio, i castori), ma lhomo sapiens ad avere il primato in questa abilit. Riproduzione Molti sistemi complessi creano altri esemplari di se stessi. Questo tipico di tutti gli organismi viventi, ma lo stesso principio opera nelle comunit che si riproducono, le aziende che aprono nuove sedi, e cos via. Autoriparazione Una caratteristica tipica dei sistemi biologici e sociali, rara invece nelle macchine. Gli esseri viventi riparano i propri danni; lo stesso si pu dire di una societ danneggiata, di una citt di cui sono demolite delle parti, e cos via. Riorganizzazione Alcuni sistemi complessi riescono a modificare la loro stessa struttura interna per adeguarsi alle situazioni. tipico dei sistemi sociali (cambiamenti di forma di governo, di strutture organizzative, ecc); anche i sistemi biologici in qualche misura lo fanno (lesercizio fisico fa aumentare le masse muscolari). Lo stesso si pu dire per i sistemi mentali (i famosi cambiamenti di paradigma!). Autoprogrammazione la possibilit di inventare i propri scopi, nonch i metodi per conseguirli. una cosa che si rileva solo nei sistemi di massima complessit: gli esseri umani. Laumentare della complessit in un sistema va in genere a suo

92

vantaggio, perch lo rende pi versatile. Tuttavia vi sono alcuni problemi tipici legati alla complessit che si incontrano non di rado. [cfr. Kauffman] La tragedia dei comuni Questo tipo di problema si riassume cos: quando un sistema formato da sottosistemi, questi possono assumere degli obiettivi in conflitto tra loro, che causano danni a tutto il complesso. Questo fenomeno viene chiamato tragedia dei comuni dal titolo di un saggio dellecologista Garret Hardin sui pascoli comuni dellInghilterra medievale. Comuni significa che questi pascoli potevano essere utilizzati da qualunque membro della comunit per alimentare le proprie greggi. In pratica questa mancanza di vincoli fa s che ogni pastore sfrutti al massimo i pascoli disponibili per avere pi pecore, e innalzare cos il proprio standard di vita. Ma dal momento che ogni pastore ha interesse a ragionare in questo modo, le pecore totali aumenteranno a dismisura, e ci fa s che lerba venga mangiata fino alla radice, desertificando il terreno e, nel lungo periodo, portando la comunit a una miseria ancora maggiore. Vi sono due aspetti degni di nota in questa situazione: Il disastro generale prodotto da una serie di decisioni che, singolarmente, sono prese al fine di migliorare la situazione; Il problema non pu essere risolto con lautodisciplina dei singoli, perch basta anche un singolo pastore avido per causare il disastro. Occorre una forma di controllo comune. In generale, la tragedia dei comuni in agguato ogni qual volta un problema viene affrontato da un punto di vista inferiore a quello che realmente coinvolge. In ultima analisi, i problemi ecologici del nostro pianeta rappresentano un esempio allarmante di questo fenomeno. Il costo dellinformazione La tragedia dei comuni sembrerebbe suggerire che i problemi si risolvono al meglio prendendo tutte le decisioni al livello pi alto. Ma noto che anche centralizzare troppo ha pesanti inconvenienti: vorrebbe dire un apparato decisionale di dimensioni abnormi, e, specialmente, un apparato ancora pi grande e costoso

93

per raccogliere tutte le informazioni necessarie a prendere tutte le decisioni. In realt non esiste una soluzione perfetta a questo dilemma tra accentramento e decentramento. Laccentramento riduce i conflitti tra sottosistemi e evita i problemi dei comuni, ma con pesanti costi di gestione e di raccolta delle informazioni. Daltro canto, decentrare le decisioni aumenta la velocit e la flessibilit, a rischio per di conflitti tra le parti. La regola empirica da seguire la seguente: Prendere ogni decisione al livello pi basso possibile, ma essere preparati a cedere il controllo a un livello superiore in caso di conflitti. I sistemi biologici effettuano da soli questo procedimento: la maggior parte delle nostre funzioni corporee sono svolte in modo autonomo e inconscio, lasciando la mente libera per altri compiti. Solo quando qualcosa non va siamo avvertiti di porvi la nostra attenzione (per esempio con un dolore). In generale, si ripropone il dilemma del controllo: occorre sempre un compromesso tra il prezzo delle variazioni accettabili del sistema e il costo dei sistemi di controllo (pi sono stretti e pi sono costosi: controllo stretto significa meccanismi complicati, maggiore dispendio di energie, e minore flessibilit. Si pensi al controllo dei comportamenti accettabili o meno dalla societ). La perdita della prevedibilit Un sistema molto complesso riesce ad essere molto flessibile nel suo comportamento, ma questa complessit va a scapito della sua comprensibilit. Una democrazia pi complessa e flessibile di un regime tirannico, ma in una democrazia anche molto pi difficoltoso fare piani a lungo termine. Allo stesso modo, una moderna economia di mercato reagisce rapidamente ai cambiamenti, ma arduo prevederne gli sviluppi. Dunque anche la flessibilit ha un prezzo: intervenendo sui sistemi flessibili si rischia spesso di sprecare energie in azioni inutili o basate su previsioni sbagliate. Con la flessibilit sale parallelamente il costo dellincertezza. I sistemi semplici con cui abbiamo a che fare nella quotidianit sono spesso sistemi di primo ordine (cio con 1 variabile di livello) a retroazione negativa. Scaldarsi le mani davanti a una stufa un esempio di sistema a retroazione negativa di primo ordine.

94

Di questi sistemi semplici la mente umana riesce a costruirsi modelli soddisfacenti, e dunque riusciamo ad affrontarli senza problemi. Il modello di un sistema complesso, viceversa, richiede molte equazioni di livello e molti circuiti di retroazione. Possiamo considerare complessi i sistemi di ordine superiore al quarto o quinto (4 o 5 variabili di livello). Questi sistemi mostrano spesso comportamenti non-lineari, reagiscono in modo controintuitivo, hanno insomma tutta una serie di caratteristiche che li rende molto difficili o impossibili da comprendere per mezzo di un modello mentale. Jay Forrester (1969) elenca una serie di caratteristiche dei sistemi complessi. importante conoscerle, perch non solo si riscontrano nelle questioni reali, ma si riflettono poi anche nei modelli di esse che costruiamo al calcolatore: Sono controintuitivi Noi siamo abituati a trattare sistemi semplici, e i nostri schemi di progetto/azione/aspettativa sono modellati su di essi, mentre i sistemi complessi di solito si comportano in maniera opposta; la nostra esperienza quindi ci porta spesso a trarre conclusioni errate circa i sistemi complessi. Inoltre, nella nostra esperienza quotidiana cause ed effetti sono strettamente correlati nel tempo e nello spazio, e su queste basi noi dirigiamo le nostre azioni: gli effetti delle azioni sono subito visibili; gli errori sono subito evidenti e possono essere subito corretti, in un continuo processo di aggiustamento. Tutte queste premesse familiari vengono a mancare quando trattiamo sistemi complessi. Cause ed effetti divergono nel tempo e nello spazio (in effetti, spesso lo stesso concetto di legame diretto causa-effetto diventa inadeguato). I sintomi possono apparire anche con grande ritardo. Un altro aspetto ingannevole che spesso i sistemi complessi presentano comportamenti apparentemente semplici. In realt non si tratta di cause ed effetti, ma di sintomi concomitanti, la cui origine deriva da dinamiche interne del sistema. evidente che cercare di sfruttare questa correlazione del tutto inutile. Sono notevolmente insensibili alla variazione di molti parametri del sistema

95

Il sistemi complessi sono notevolmente insensibili alla variazione di molti dei suoi parametri (cio le costanti nelle equazioni). la struttura interna del sistema a determinarne il comportamento; cambiando i parametri non si ottengono variazioni significative. (Forrester nota che le dinamiche industriali, economiche, sociali, ecc. sono le medesime indipendentemente dalla nazionalit, il settore, il contesto storico, ecc.) Si oppongono strenuamente ai cambiamenti di strategia Quando si tenta una nuova strategia con un sistema complesso, esso tende a trovare un nuovo comportamento tale da restituire alla strategia risultati che riportano alle condizioni di partenza. Contengono punti sensibili, spesso in luoghi imprevisti, manovrando i quali si pu influenzare pesantemente il comportamento del sistema Spesso questi punti sono difficili da individuare e lazione richiesta lopposto di quello che verrebbe da pensare. Ma se si agisce su questi punti, si irradiano nel sistema flussi di informazione che fanno s che le nuove circostanze, trattate dai vecchi schemi, conducano a risultati nuovi. Si oppongono alle azioni correttive esterne riducendo parallelamente le forze interne dello stesso segno Dunque i programmi di intervento vengono spesso sprecati nel rimpiazzare la perduta azione interna del sistema. Questo aspetto va considerato attentamente se lintervento esterno oneroso. Di fronte a un cambiamento, spesso reagiscono nel lungo periodo in modo opposto a come reagiscono nellimmediato Questo implica che le decisioni prese seguendo il metro della gratificazione istantanea portano nel lungo periodo a un peggioramento generale. Tendono verso una bassa efficienza Tutte le caratteristiche precedenti fanno s che i sistemi complessi vengano tendenzialmente spinti verso condizioni di efficienza peggiore. La loro natura controintuitiva favorisce ladozione di strategie che hanno effetti negativi. Il fatto poi che gli effetti di breve e di lungo periodo siano solitamente di segno opposto ha spesso conseguenze nefaste. Ad esempio supponiamo che una politica urbana dia dei risultati

96

immediati incoraggianti. Come abbiamo visto, questo probabilmente causer problemi maggiori nel lungo periodo. Ma quando questi problemi finalmente si presenteranno, lesperienza (!) precedente spinger ad una adozione ancora pi massiccia degli stessi provvedimenti, che avevano dato cos buona prova di s. evidente che questo meccanismo spinger il sistema verso condizioni sempre peggiori. Contengono meccanismi interni che producono il comportamento indesiderabile osservato Quando si cerca di eliminare un determinato problema da un sistema, totalmente inutile combattere semplicemente il sintomo. Esso si manifesta come prodotto di dinamiche profondamente radicate nel sistema, e sono queste cause su cui bisogna agire. Agire solo sulle loro conseguenze non porta ad alcun risultato: bisogna scoprire i meccanismi che generano leffetto indesiderato e cercare di intervenire su di essi, in modo che siano loro a dirigere il sistema nella direzione voluta. Uno dei metodi matematici utilizzati per affrontare la complessit costituito dai sistemi dinamici. Gi da tempo si era approdati alla conclusione dellimpossibilit di studiare fenomeni complessi quali quelli biologici o economici utilizzando modelli semplici, di tipo statico. La propagazione di unepidemia, un andamento anomalo del battito cardiaco, la trasmissione degli impulsi cerebrali hanno in comune la caratteristica non trascurabile di evolversi nel tempo e la loro osservazione ha convinto gli studiosi della necessit di introdurre nellanalisi di questi fenomeni un modello di sistema dinamico, che - in quanto biologico - doveva in ogni caso tendere verso lequilibrio: in un tale scenario eventuali variazioni imprevedibili e disordinate non potevano che essere attribuite a condizioni eccezionali e quindi considerate patologiche. E di appena una ventina di anni fa lidea, stimolata dalla scoperta del caos deterministico, che queste variazioni caotiche possono essere inerenti ai sistemi, ovvero contenute nei modelli teorici deterministici che descrivono levoluzione dei sistemi stessi. Questo nuovo modo di pensare ha portato a risultati insospettati. (Casati)

97

Questi risultati, che oggi consentono lo sviluppo di teorie come quella dei sistemi viventi di Capra, sono stati resi possibili dalla disponibilit, negli anni 70, di elaboratori molto potenti e veloci, in grado quindi di affrontare lenorme complessit dei sistemi oggetto di studio: ci ha consentito lapplicazione concreta di nuovi filoni di ricerca, quali la teoria del caos e la geometria frattale, e ha dato forma ad una struttura matematica coerente, che potremmo chiamare la matematica della complessit. La caratteristica cruciale della matematica della complessit data dalla sua non-linearit. Il consistente aumento della potenza e della velocit elaborativa dei computer degli anni 70 ha finalmente consentito lo studio e la risoluzione di numerose equazioni non lineari che fino a quel momento era stato impossibile risolvere manualmente ma la conoscenza delle cui propriet era essenziale per studiare situazioni fisiche in cui intervengono delle turbolenze; si pensi al flusso dellacqua in un fiume, inizialmente lineare, che allimprovviso incontri uno scoglio: la presenza dellostacolo generer nel liquido un movimento complesso e vorticoso che pu apparire caotico. Applicando, per, e risolvendo le equazioni non lineari associate a questo tipo di moto, si scopre lesistenza di un ordine soggiacente allapparente caos. In realt, la teoria del caos una vera e propria teoria dellordine, ma di un nuovo tipo di ordine svelato dalla nuova matematica. Questo fatto di grande importanza per la teoria dei sistemi viventi, poich le reti che rappresentano il modello basilare di tutti i sistemi viventi sono anchesse molto complesse (Capra, 1996) Ed infatti, da quando (poco pi di un decennio) la matematica e la fisica sono state introdotte come strumenti di ricerca nella fisiologia cardiaca (attraverso luso dellanalisi spettrale, della dinamica non lineare e della teoria del caos), la rilevazione di una dinamica caotica non viene pi automaticamente associata ad una condizione patologica quanto al normale andamento del ritmo cardiaco! Questa idea si basa sul fatto che, come affermano gli esperti della Harvard Medical School, il caos procura al corpo umano una flessibilit che gli permette di rispondere a stimoli diversi. In effetti il sistema di generazione del ritmo cardiaco formato da un oscillatore periodico controllato da una

98

molteplicit di meccanismi non lineari (ormoni, sistema simpatico e parasimpatico...). Si confrontato per esempio lo spettro di frequenza di un elettrocardiogramma di soggetti normali e di soggetti malati di cuore. Si osservato che gli ECG dei primi presentano delle irregolarit su scale che vanno da qualche secondo a qualche giorno, mentre quello dei pazienti presenta uno spettro molto pi piatto. Per esempio, si osservato che alcune persone molto malate hanno dei battiti molto regolari prima di morire. Infatti il ritmo cardiaco si deve adeguare allattivit dellorganismo (respirazione, attivit mentale, ecc.). Questo aggiustamento produce un ritmo irregolare. In alcune malattie il cuore perde la capacit di adattarsi allattivit dellorganismo e perci presenta un ritmo estremamente periodico. (Casati) Lesempio sopra riportato ci permette di comprendere meglio la relazione fra gradi di libert, zone di instabilit e processo di adattamento evolutivo in un sistema complesso (e non solo di tipo biologico): ladattamento non altro che il passaggio di un sistema, sottoposto ad uno stimolo esterno, da un attrattore ad un altro, oppure pu rappresentare una risposta elastica (che cio riporta allattrattore originario) a piccole perturbazioni qualora il sistema si trovi lontano dai punti di catastrofe.

99

Il punto di vista
Il cervello umano lorgano pi complesso che conosciamo. La sua complessit e potenzialit veramente strabiliante. Quando parliamo di cervello non possiamo fare a meno di parlare della nostra esperienza soggettiva, in particolare utilizziamo il concetto di mente. Mente e cervello sono due aspetti complementari che utilizziamo per comprendere la nostra complessa dimensione cognitiva. Il tentativo riduzionista, a cui molti eminenti ricercatori si stanno dedicando in questi ultimi anni, consiste nel ricondurre le multiformi e sbalorditive potenzialit della mente ad aspetti fisiologici del funzionamento del cervello. Si parla di una mente che emergerebbe dai processi che avvengono nellintricata rete di neuroni attivati nel cervello. In ogni caso laspetto oggettivo e quello soggettivo dellesperienza rimane controverso ed essenzialmente inconciliabile. Lesperire il rosso diverso dallosservare lattivazione di un qualsivoglia circuito neurale oggettivabile con una registrazione esterna al soggetto stesso. Ognuno di noi osserva il mondo da un proprio particolare, irriducibile e irripetibile punto di vista. Lesperienza di ognuno unica poich uniche sono le connessioni che ciascuno di noi utilizza nel proprio esperire, ognuno di noi connesso al proprio organismo in una maniera privilegiata accessibile solo al soggetto stesso che la sperimenta. Tramite il linguaggio lesperienza pu essere comunicata e condivisa da altri, ma il processo originario si gi concluso, il linguaggio subentra in una fase successiva in cui la verbalizzazione e la memoria svolgono un ruolo determinante: lesperienza in s patrimonio del soggetto, inaccessibile e particolare. Il cervello raccoglie miliardi di impulsi in parallelo e li riconduce ad una unica risposta conseguente e sequenziale, ma non tutti i nostri processi mentali sono consci. Le capacit del cervello sono veramente sbalorditive e non solo quelle verbali, pensiamo per esempio alle capacit psicomotorie.

100

Costruire un robot che semplicemente cammini su due gambe presenta delle enormi difficolt come dimostrano i prototipi realizzati finora. Ma le capacit cognitive della mente sono veramente strabilianti. La mente presenta una incredibile facilit di manipolazione dellinformazione ricavando ordine dal caos in cui si trova ad operare. Un piccolo indizio sufficiente per estrapolare complesse teorie esplicative. Ogni individuo costituisce una finestra sul mondo, costruisce la propria rappresentazione della realt e riconduce la realt oggettiva alla pura convenzione di condivisibilit con altri individui in reciproca comunicazione. Il tramonto che ho dinnanzi a me potrebbe anche non esistere, essere una pura allucinazione, solo quando altri condividono la mia esperienza allora esso prende uno spessore oggettivo: diviene la realt oggettiva. Ma la comunicazione si avvale principalmente del linguaggio che ancora pura convenzione, una camicia di forza in cui emozioni e desideri possono esprimersi; nel linguaggio il processo percettivo primario viene elaborato e manipolato dalla mente, latto primario della percezione cosciente viene irrimediabilmente perduto e di esso non rimane che una traccia nella memoria del soggetto. Continuamente la mente ricuce il proprio vissuto in una dimensione storica che si staglia nel tempo e nello spazio, dellattimo fuggente non rimane che un riverbero nella memoria del soggetto che lha sperimentato. La memoria dilata il tempo fino ai confini del conoscibile e dellimmaginabile. Ma chi che sperimenta, chi che ricorda? Se consideriamo luomo nella sua completezza questa domanda ha una risposta banale: luomo. Ma se analizziamo come avviene la percezione del colore rosso a partire dalle reazioni elettrochimiche che avvengono nellocchio, nella retina, nel nervo ottico, nel cervello, informazione che si propaga tramite reazioni a catena non siamo pi in grado di individuare il soggetto che

101

percepisce: il processo di percezione si perde nel nulla, nella complessit della struttura cerebrale. Laspetto soggettivo e quello oggettivo della percezione appaiono inconciliabili. Anche se riuscissimo a riprodurre in una qualche ipotetica rete neurale tutto il percorso che gli impulsi elettrochimici seguono in un processo di percezione non potremmo mai essere sicuri che qualcuno stia soggettivamente percependo alcunch. Anzi lunica cosa di cui siamo certi la nostra stessa percezione cosciente, i processi cognitivi che avvengono in unaltra testa sono a noi inconoscibili e costituiscono solo unipotesi non verificabile direttamente basata sulla verosimiglianza dellassunzione che laltro da me sia simile a me, ovvero costituito fisiologicamente come me. Esiste forse un qualche livello di complessit dal quale emerge la coscienza? Personalmente penso che la complessit non basti. Nei sistemi complessi al confine tra lordine e il caos avvengono fenomeni estremamente interessanti: si manifesta un ordine ad un livello superiore. Il pensiero attuale si orienta sempre pi allanalisi della complessit, preferendo la generalit allo specialismo ed alla frantumazione del sapere. Un ampio cambiamento intervenuto nellorizzonte teorico ed esso stato promosso da molti scienziati, quali A. Einstein, I. Prigogine, E. Morin, G. Bateson, F. J. Varela, H. von Foerster. Costoro hanno sottolineato la limitatezza e lunilateralit delle concezioni razionali, lineari e meccanicistiche. Termini quali ragione, ordine, simmetria, certezza, misurabilit, armonia, equilibrio, omogeneit, legge, verit, obiettivit, razionalit, regolarit e prevedibilit sono stati fortemente messi in discussione. Al contrario, le teorie della complessit affermano che vita, umanit, evoluzione, cambiamento, conoscenza, etc. sono originate da, e vanno di pari passo con, disordine, caos, perturbazione, dissimmetria, instabilit, squilibrio, flussi, turbolenza, non linearit, marginalit, incertezza, relativit, disarmonia, frattalismo, imponderabilit, etc. Soltanto un pensiero strategico pu collegare (olismo) tali

102

eventi e gestire la complessit. E necessario un modo di pensare olistico, in grado cio di rispettare ci che diverso (e divergente), le sfaccettature multidimensionali di una situazione e di un problema (frattale e ologramma), agendo sulle loro interdipendenze. Come scrive P. Drucker (1993), citando E. M. Forster, molto importante collegare ci che si conosce o si sta per conoscere; questo il principio per promuovere la produttivit della conoscenza. Infatti, il tutto nella parte ed ogni parte nel tutto. Come affermava Pascal, tutte le cose sono causa ed effetto, mediate ed immediate, connesse e separate allo stesso tempo; quindi impossibile conoscere una parte senza conoscere lintero e vice versa. Buona parte del transito fra modernit e postmodernit pu essere letto seguendo da un lato il declino delle visioni paradigmatiche derivanti dalla fisica e dalla meccanica e dallaltro la parallela fortuna attribuita ai costrutti ermeneutici delle cosiddette scienze della complessit attualmente costitutivi del patrimonio metaforico di riferimento di numerose dicipline. I connotati transdisciplinari di tali saperi emergenti (biologia, cibernetica, etc.) e le prospettive di lettura della realt consentite risultano particolarmente adeguate al superamento di una perniciosa dualit fra razionalit tecnica e creativit artistica: che ha determinato una marcata insofferenza (e/o indifferenza) per alcune qualit del reale (quali lincertezza, il disordine, la contradditoriet, la pluralit, etc.) che, considerate a lungo euristicamente irrilevanti dallindagine scientifica, sono invece oggi ritenute le probabili matrici dellevoluzione e della nascita/creazione dellinnovazione. Il sovvertimento di valori, proposto dai saperi della complessit, si segnala dunque in primo luogo in quanto risveglio della riflessione, da parte della comunit scientifica, nei confronti di un problema che, se da un lato determina limiti alle pretese di neutralit dellatto conoscitivo (e la conseguente inapplicabilit del principio di semplificazione analitica dei sistemi osservati per scomposizione), consente comunque di individuare un carattere costruttivo del non equilibrio e dellindeterminazione. La stessa relazione osservatore/osservato appare inalienabilmente complessa poich lordine

103

che leggiamo nella realt esterna lordine prodotto dalla nostra mente nellatto del conoscere; il patrimonio acquisito di conoscenze del soggetto, ovvero le sue potenzialit ermeneuticodescrittive, costituiscono precondizioni (qualit) ineliminabili di tale rapporto. Il processo di conoscenza stesso quindi eminentemente qualitativo e lidea di gestione e organizzazione delle relazioni fra sistemi e ambiente sintreccia con la nozione di autoorganizzazione che introduce una nuova prospettiva (aperta e dinamica) fra entit sistemica e sua esposizione creativa alle perturbazioni ambientali. Il paradigma della complessit presuppone un nuovo approccio epistemologico, in base al quale la realt ha una natura sistemica che si configura come una rete interconnessa di rapporti, non meccanicistica n lineare. Ci comporta un modello di mente che non rispetta oggettivamente una realt indipendente ed esterna, ma che attua delle strategie per adattarsi ad un contesto e scoprire nuove conoscenze. Lintroduzione del concetto di sistema e di complessit nella scienza contemporanea ha teso a far crollare questo mito di strutture ontologiche dure e persistenti e quelle propriet che si credeva facessero parte delle cose si sono rivelate propriet dellosservatore. Adottando questo punto di vista ne deriva coerentemente che distinzioni quali sistema-ambiente, autonomia-controllo fanno parte della nostra cognizione del sistema e non sono caratteristiche del sistema stesso. La compatibilit tra il pensiero di Bateson e Maturana sta nel fatto che entrambi sostengono e sviluppano, come gi Wiener, Bertalanffy e Piaget, una teoria dei sistemi che sottolinea, con linevitabile riferimento allosservatore, lirriducibile molteplicit dei punti di vista e, con lidea di autonomia, sposta laccento dal problema del controllo a quello della interconnessione reciproca tra sistemi. Maturana, come gi Bateson, sottolinea come tutto ci che detto detto da un osservatore e come le nostre descrizioni siano fatte in base ai cambiamenti di stato che avvertiamo in relazione alla particolare zuppa in cui siamo immersi. In altre parole, potremo dire che qualunque osservazione di un osservatore partecipe sempre unosservazione di quello che gli succede al proprio interno quando in accop-

104

piamento strutturale con un altro sistema. A questo proposito Varela nota come ad ogni stadio losservatore in rapporto con il sistema attraverso una comprensione che modifica la sua relazione con esso. Losservatore, infatti, al pari di ogni altro organismo vivente, autopoietico, cio autonomo, autoreferente, autocostruentesi, e crea le sue conoscenze per compensare le perturbazioni del suo ambiente. La definizione del sistema vivente come autopoietico ci permette di uscire dalla vecchia dicotomia sistema aperto-sistema chiuso e dallillusione del controllo. Infatti i sistemi autopoietici sono chiusi (autonomi, con una propria identit) dal punto di vista dellorganizzazione, in quanto si autoproducono e non sono caratterizzabili in termini di relazioni input-output. Daltra parte sono sistemi aperti (dipendenti), in quanto il loro comportamento influenzato dalle perturbazioni dellambiente, che non determina per la loro identit. E la chiusura organizzazionale del sistema, che corrisponde al suo dominio cognitivo, che stabilisce lambito delle interazioni possibili e che determina il significato da attribuire agli stimoli esterni rispetto alla sua evoluzione. In questo modo viene meno lutilit del concetto di controllo e viene messo in primo piano, con lidea di autonomia, il fenomeno delladattamento, visto come compatibilit tra struttura dellambiente e struttura del sistema. Losservatore potr, quindi, fare solo quelle distinzioni che gli sono consentite dal suo modo di accoppiamento strutturale e, come nota Dell, potr vivere lesperienza psicologica della causalit se sar in grado di interagire con gli oggetti operando un accoppiamento strutturale che gli faccia ottenere il risultato desiderato. Finch esiste questa compatibilit, lambiente e il sistema interagiscono attraverso perturbazioni reciproche e provocano continui cambiamenti di stato definiti accoppiamenti strutturali tra sistema e sistema, sistema e ambiente. Assumendo questo punto di vista, nota Ceruti, vengono meno ideali quali un adattamento perfetto, una conoscenza completa ed emerge invece lidea di unevoluzione caratterizzata da interazioni costruttive e da accoppiamenti tra vari sistemi e punti di vista. Altrettanto chiaramente trova posto lidea delloriginalit di ogni sistema che si costruisce e ricostruisce attraverso la storia particolare e idiosincratica delle sue interazioni e dei suoi

105

accoppiamenti. In questo senso possiamo dire con Dell che lontologia di Maturana e lepistemologia di Bateson sono compatibili; nel senso che lintegrazione dellosservatore non corrisponde semplicemente alla limitazione di un punto di vista assoluto ma, costruttivamente, al riconoscimento dellirriducibilit di punti di vista vicarianti nella costituzione delluniverso cognitivo e dellidentit di un medesimo soggetto, la cui possibilit di interazione costruttiva con lambiente sar maggiore quanto pi differenziata e integrata sar la sua struttura interna.

106

Mente e complessit
La mente opera in un ambiente estremamente complesso e principalmente in condizioni di incertezza, in un mondo estremamente variabile e avendo a disposizione solo un limitato numero di informazioni. Il nostro Universo strutturato secondo una serie di sistemi complessi organizzati su scale gerarchiche di crescente grandezza, sia parallele che inserite luna entro laltra come in una sorta di scatole cinesi, a loro volta sempre pi grandi e complesse. Di questa struttura, abbastanza evidente sia a livello microscopico che macroscopico, per altro gi ampiamente studiata, non riusciamo tuttavia a intravedere con chiarezza i meccanismi operativi o lorganizzazione n a coglierne la inimmaginabile vastit. Un sistema complesso un sistema dinamico organizzato ed ordinato composto da un elevato numero di elementi, ognuno dei quali in diretto rapporto con gli altri: linsieme che ne deriva ha poi la propriet di comportarsi, in rapporto allambiente esterno, alla pari di un elemento unitario, quasi fosse privo di struttura interna. Il cervello umano un esempio notevole di sistema complesso. Per cercare di comprenderne il funzionamento possiamo far riferimento alla metafora del computer: ci che ci serve il concetto di processo di elaborazione dellinformazione. Il cervello, tra le altre cose, uno stupefacente elaboratore di informazioni. In ogni esempio di sistema complesso auto-organizzante quello che si introduce alla base della descrizione del modello costituito da processi elementari di elaborazione. Occorrono degli agenti che compiano azioni. Levoluzione non funziona se alla base non vi sono molecole in grado di riprodursi, duplicarsi e interagire con lambiente. I modelli matematici e i sistemi dinamici simulati a computer non funzionano se alla base non c un microprocessore ad eseguire le computazioni richieste.

107

Le basi biologiche della vita dovrebbero essere rintracciabili nelle dinamiche di evoluzione e nelle leggi delle reazioni chimiche. Nelle reti di connessioni linformazione pu propagarsi per attivazione dei singoli neurodi; in questo modo molti ricercatori tentano di spiegare lemergere di processi tipici dellelaborazione cerebrale, ma in che modo e con quali leggi potrebbero aver luogo processi di auto-organizzazione spontanea? In reti booleane interconnesse possibile definire dei parametri che governano il tipo di ordine che pu emergere ai confini del caos. Esiste un ordine gratuito? Un ordine che consenta ontologicamente lesistenza degli organismi viventi? Se guardiamo fuori dalla finestra e notiamo la strutturazione ordinata del mondo in cui viviamo dovremmo rispondere in maniera affermativa. Ma certamente molto difficile ricavare lolismo mostrato dalla mente basandoci unicamente sulle leggi della fisica conosciute. Anzi le leggi della fisica portano ad una crescita inevitabile dellentropia, stipare in un contenitore una montagna di informazioni eterogenee non porta ad ordine ma al caos pi assoluto. Le informazioni debbono essere vagliate e selezionate, e questo presuppone un agente intelligente. Noi siamo abituati ad agire ed operare come se questo fosse la cosa pi naturale del mondo, in realt anche la pi piccola azione, come radersi la barba, richiede una elaborazione di una incredibile complessit computazionale. Linformazione mediata dal linguaggio, ma non solo: un gesto, un sorriso, uno sguardo valgono a volte pi di mille parole. E la comprensione del linguaggio da parte di una macchina gi una impresa veramente notevole, per non parlare della produzione linguistica. Immaginiamo una pattinatrice che compie le sue incredibili evoluzioni e confrontiamola con i risultati di deambulazione ottenuti dai nostri prototipi di robot e ci rendiamo conto di quanto siamo ancora lontani da avere una tecnologia adeguata del

108

controllo psicomotorio. Nellambito della manipolazione del linguaggio scritto sono stati fatti alcuni passi in avanti davvero interessanti: sono state realizzate delle entit virtuali in grado di conversare con lutente. Il linguaggio e la capacit di elaborarlo sono uno dei cardini attorno a cui ruota tutta la complessa civilt contemporanea e tutta la tecnologia dellinformazione comprese le tecniche multimediali. Viviamo in una civilt dellimmagine e della comunicazione. possibile programmare computer per analizzare documenti e far prendere decisioni in merito al loro contenuto. Questi programmi si basano sulla corrispondenza fra sintassi e semantica presente nella loro base di conoscenza. I programmi sono solo manipolatori sintattici, ma con laumentare della base di conoscenza si ottengono risultati che hanno una valenza indubbiamente semantica, almeno secondo il giudizio dellutente che li utilizza. Il computer un motore logico, e su questa base in grado di produrre prestazioni nemmeno immaginabili a priori. Ma la mente non solo raziocinio, anche imprevedibilit e intuizione del tutto irrazionale: la mente plastica e multiforme. Non siamo in grado di prevedere cosa diremo fra un istante! Il futuro si dipana dal presente in maniera imprevedibile anche se ha radici profondamente connesse da leggi di causa ed effetto nel passato. La mente si destreggia da sempre nel mare di contraddizioni che la realt parziale in cui vive continuamente le propone. La mente rimarrebbe bloccata nel proprio flusso di pensiero se analizzasse logicamente ogni dettaglio dellinformazione globale che elabora istante per istante. Avviene una scrematura ed una sintesi dellinformazione pertinente nel mare di informazioni complessivo in cui siamo immersi. Come ci sia possibile veramente difficile da descrivere in un modello computazionale della mente. Lattenzione seleziona gli stimoli e gli stimoli guidano lattenzione. Possiamo essere distratti da una immagine che ci giunge

109

improvvisa su un televisore ma non perdiamo il filo del discorso che ci interessa seguire. Una larga parte delle ricerche di linguistica computazionale dedicata alla costruzione di analizzatori sintattici, cio di sistemi automatici che prendono una frase come ingresso e assegnano alla frase una struttura sintattica come uscita. Un analizzatore sintattico d in uscita una rappresentazione della struttura sintattica di una frase ma, per definizione, non si occupa di dare una rappresentazione del suo significato. Quando si cercato di costruire sistemi computazionali di comprensione del linguaggio, questi sono stati in genere intesi come estensioni degli analizzatori sintattici, nel senso letterale che allanalizzatore sintattico veniva aggiunto un sistema di interpretazione semantica. Questa concezione del rapporto tra sintassi e semantica i linguisti computazionali lhanno ricavata dalla linguistica chomskiana, dove il ruolo della semantica quello di interpretare la struttura generata dal componente sintattico della grammatica. Questa idea della semantica come interpretazione di strutture formali sembra essere stata ripresa dalla logica formale. Su un piano generale, invece, la semantica assume un ruolo centrale, come giusto che sia nella costruzione di un modello della comprensione, mentre la sintassi ha un ruolo fondamentale ma subordinato alla semantica. Questo indica anche la strada da percorrere per arrivare a una vera comprensione della sintassi: studiare come fatta la rappresentazione semantica delle frasi e quali sono le condizioni effettive in cui avviene il lavoro di costruzione della rappresentazione semantica nella comprensione. I processi linguistici sono di fondamentale importanza nella vita quotidiana ed ovvio che ogni messaggio verbale per avere effetto deve essere compreso dal ricevente, non solo analizzato sintatticamente. Tramite una telefonata posso fissare un appuntamento; con lo scambio di relativamente poche informazioni posso determinare un evento futuro che si verificher con un elevato grado di probabilit. Per essere allappuntamento fissato devo coordinare diverse

110

azioni da intraprendere, in particolare spostare il mio corpo fisicamente in un ambiente estremamente variegato, per esempio prendere un treno che parte ad una certa ora. Studiare la dinamica dellevento ho fissato un appuntamento dal punto di vista delle leggi della fisica produce un evidente paradosso: un evento che si verificher con alto grado di probabilit costituito da una collezione di eventi tutti precari ed improbabili presi singolarmente, per esempio i tragitti che posso seguire sono molteplici e temporalmente imprevedibili. Molti processi vitali sono di questo tipo. Occorre un direttore dorchestra, una mano invisibile. Ma cosa c di cos miracoloso nel rispettare un appuntamento, in fondo una cosa che facciamo quotidianamente. Si tratta di collocare un evento nel futuro, una coincidenza spazio temporale e poi di rispettarla allinterno di un mutevole divenire, ma dal punto della macchina fisica, dellenorme computer delluniverso, questo evento un evento improbabile, ovvero in cui non possibile ricostruire la dinamica e la storia se non a posteriori. Questo evento non pu avverarsi per caso occorre un controllo costante di un soggetto e della sua volont. Ecco il punto in cui sorgono le problematiche maggiori nelle teorie del rapporto tra mente e corpo: da dove scaturisce la volont? Potrebbe un computer eseguire efficacemente questo stesso compito? In fondo una semplice agenda memorizza in maniera efficace linformazione relativa allappuntamento consentendo un comportamento allapparenza teleodinamico. Quando ci sono i mattoncini di base, ovvero quando possibile eseguire dei processi di elaborazione delle informazione, allora possono verificarsi anche delle condizioni per comportamenti controintuitivi dal punto di vista delle leggi della fisica.

111

Complessit e vita
La vita fiorisce in una realt multiforme e complessa. La semplicit delle equazioni della fisica viene surclassata dalla complessit della realt in cui viviamo. Le cose lasciate a s stesse degradano; la vita invece si autoalimenta: la vita produce vita, ma nato prima luovo o la gallina? Oggigiorno siamo convinti che il segreto della vita sia tutto racchiuso nel DNA. Eppure osservando il mondo vivente ci stupiamo della sua variet ed organizzazione. Che esista un ordine gratuito? Un ordine che si origina dalla complessit e che si affianca allevoluzione per darci ragione della multiforme manifestazione della vita. La precisione con cui avviene la mitosi nelle cellule viventi veramente sorprendente in un mondo governato dal caos. Duplicare un filamento di DNA non certo un processo casuale, ma un processo che ubbidisce a determinate leggi fisico chimiche con grande precisione. Un filamento di DNA completamente disteso in lunghezza supera il metro. Questa circostanza ha dellincredibile! Il processo di duplicazione delle cellule avviene sullorlo della complessit e del caos ma governato da meccanismi di grande precisione. Le cellule si duplicano in un processo automatico, le modificazioni genetiche, motore dellevoluzione, sono quanto mai rare. E sarebbe disastroso se non fosse cos! La vita si sviluppa su binari molto stretti, sul filo del rasoio, sorprendente quanto essa si dimostri stabile, solida e ordinata. Le cellule si riproducono a milioni senza il minimo errore. Uno dei problemi pi spinosi della ricerca biologica consiste nel capire come e perch avviene la differenziazione cellulare, cosa fa

112

s che un gruppo di cellule si specializzi per generare il fegato piuttosto che il cervello. Esiste un direttore dorchestra? Una mano invisibile che pilota tutto il processo? Un nuovo settore della ricerca informatica studia la vita artificiale. Organismi che vivono in micromondi digitali si sviluppano e si riproducono mostrando a volte comportamenti straordinariamente simili agli organismi biologici. Poche regole adattative sono sufficienti a creare comportamenti evolutivi complessi. Stiamo sempre pi penetrando nei meandri del mistero della vita. La complessit della vita biologica strabiliante sia nelle sue basi molecolari che nelle sue manifestazioni in termini di organi funzionanti ed organismi adulti. Bench le cellule del nostro corpo siano in un numero enorme, tutte funzionano, tutte compiono qualche lavoro utile; nessuna di esse vive di rendita. Quelle del fegato sono, ad esempio, degli indaffaratissimi laboratori chimici. Alcune di esse sono adibite a fabbricare quel litro di bile che ci necessario per la digestione. Altre hanno un compito del tutto diverso, ma non meno importante: devono riconoscere a vista e distruggere tutti i veleni e tutti i microbi che, ad ogni pasto, noi mandiamo gi sveltamente. A digestione ultimata, una gran massa di particelle alimentari viene trasferita dallintestino al fegato, tramite la vena porta. Quelle particelle sono a miliardi. Eppure le cellule del fegato le controllano con attenta cura, una per una. Se c un microbo tra di esse, o un elemento tossico, viene immediatamente aggredito e demolito. I suoi resti vengono inviati ai reni, affinch provvedano a farli uscire lungo le vie urinarie. Altre cellule sono invece adibite a tessere proteine. Nei nostri alimenti ve ne sono molte, ma il nostro corpo vuole le proprie proteine, per cui demolisce tutte quelle che ingeriamo, ed utilizza i componenti per approntarne delle altre, quelle che gli sono necessarie. un lavoro enorme. Inoltre, molte cellule del fegato devono immagazzinare lo

113

zucchero glucosio, ossia il carburante del nostro organismo. Ma per far questo, devono prima convertirlo in glicogeno. Ad ogni richiesta di carburante, devono riconvertire il glicogeno in glucosio ed inviarlo al cuore, affinch possa giungere a tutto il corpo. Ciascuna cellula vivente un automatismo. Come fa a sapere ci che deve fare? Qual lorigine di una tale organizzazione? I genetisti vi risponderanno: tutto scritto nel DNA. Possiamo paragonare la cellula vivente ad una fabbrica completamente automatizzata, e quindi in grado di funzionare da sola, senza alcun intervento dallesterno. I progressi dellelettronica e dellautomazione consentono di progettare, almeno in linea teorica, una fabbrica di questo tipo. Per metterla in attivit, per farla funzionare e per controllarla, sarebbero sufficienti dei segnali elettrici registrati sulle piste di un nastro magnetico. Quei segnali dovrebbero giungere, anzitutto, ad un complesso di elaboratori elettronici adeguatamente programmati, in grado di interpretare i segnali provenienti da nastro, e convertirli in comandi operativi. Tali comandi, anchessi costituiti da segnali elettrici, dovrebbero giungere ai servomeccanismi preposti al funzionamento delle macchine, dei congegni e dei sistemi di trasporto. In tale modo, i segnali provenienti dalle testine di lettura del registratore, dovrebbero poter attivare tutto il ciclo produttivo della fabbrica, in ogni suo minimo dettaglio. Un elaboratore elettronico dovrebbe sorvegliare tutta lattivit della fabbrica e interverrebbe immediatamente allinsorgere di unanomalia. Diversamente, il suo funzionamento diverrebbe ben presto caotico, e tutto il sistema si auto distruggerebbe. Eppure il pi piccolo e pi semplice di tutti i viventi, un microrganismo costituito da una sola cellula, immensamente pi complesso e meglio organizzato di qualsiasi nostro cervello elettronico, e funziona senza un computer centralizzato. Una singola cellula paragonabile soltanto ad una prodigiosa fabbrica ultra-automatizzata e cibernetica, capace di dirigere e controllare tutta la propria attivit, e quindi in grado di funzionare completamente da sola, e per di pi di provvedere a riparare gli eventuali guasti.

114

Alcuni secoli or sono, prima dellinvenzione del microscopio ottico, era impossibile immaginare che tutti i viventi fossero formati da microspopiche cellule funzionanti per proprio conto. Dopo linvenzione del microscopio ottico, risult evidente che la vita si basa sulle cellule, ma che lorganizzazione delle cellule fosse cos complessa non poteva passare nella mente di nessuno. Ma sono forse elettronici i viventi? Non lo sono. Lenergia elettronica non sarebbe adatta per farli funzionare. necessaria unenergia molto pi fine, esattamente predisposta per le microscopiche apparecchiature biologiche. lenergia organica, vitale, metabolica. contenuta in appositi serbatoi, le molecole ATP. Le stesse cellule viventi che captano i raggi di luce e ne prelevano lenergia, per funzionare devono convertire quellenergia nellaltra, quella organica. Ma per convertire lenergia elettronica nellenergia vitale dellATP, sono necessarie delle centrali energetiche. Sono dette mitocondri. Quelle centrali energetiche appaiono al microscopio incredibilmente complesse. Ancora non ben chiaro come avvenga questa traduzione dellenergia. Se ci chiediamo che cosa sia in realt lenergia organica, quella ottenuta dallenergia elettronica del glucosio, ci troviamo di fronte ad uno dei tanti enigmi di quellimmensit organizzata che la vita. Non si riesce a comprendere come la cellula vivente possa essere cos complessa, pur essendo tanto piccola da riuscire invisibile ad occhio nudo. Dal fondo di ciascun nostro occhio escono 60 milioni di fili conduttori. Sappiamo tutti che dallocchio esce un solo nervo ottico, diretto al cervello, per di pi quel nervo ha lo spessore medio di due millimetri e mezzo. Eppure contiene pi fili conduttori di quanti ne escono da una centrale telefonica. Bench siano 60 milioni, ciascuno di quei fili accuratamente ricoperto con due strati di isolante, proprio come i fili conduttori delle linee telefoniche. Il nervo ottico, tagliato in sezione, come fosse uno spago, e visto al microscopio elettronico appare vasto quanto una grande piazza. Si vede bene che quella piazza pavimentata con delle

115

monetine. Ciascuna di esse uno dei fili in sezione. Non c dubbio che alla nostra tecnica sarebbe del tutto impossibile fabbricare cavi di quel genere, alla natura invece questo prodigio stato possibile. Ma la retina molto pi complessa. Ciascun filo del nervo ottico non per nulla collegato con la cellula visiva corrispondente, come potrebbe sembrare. Termina invece con una propria cellula vivente detta gangliare. Si potrebbe pensare che sia tale cellula gangliare ad essere in comunicazione con quella visiva, ma non neppure cos. Sotto la visiva, in comunicazione con essa, c la cellula bipolare. Ora, tra le due cellule soprastanti e la cellula gangliare sottostante, vi sono altre cellule, due tipi di cellule diverse: le amacrine e le orizzontali. Tutto questo perch limpulso proveniente dalle antennine deve venir prima amplificato e quindi messo in codice. Nella retina vi sono quei cinque tipi di cellule diverse, disposte a strati. Complessivamente nella retina vi sono allincirca 500 milioni di cellule viventi, tutte adibite allinformazione corrispondente allimmagine luminosa. Inoltre avviene un fenomeno logicamente difficile da spiegare. Noi vediamo la luna dov, alta nel cielo, e non gi dentro di noi, come dovrebbe logicamente avvenire, e ci per un atto puramente psichico, il quale non ha nulla in comune con ci che fisico e biologico. il fenomeno della localizzazione spaziale delle immagini. Una telecamera ultra miniaturizzata potrebbe costituire locchio di un robot. Il robot si comporterebbe come se vedesse, senza per veder nulla. Dare una dimensione psichica a un robot una impresa veramente difficile. Ognuno di noi ha accesso solo ai propri processi psichici, anche la psiche di altre persone ci del tutto preclusa ad una sperimentazione diretta. Ipotizzare una psiche in un robot una ipotesi non verificabile e quindi non scientificamente accettabile.

116

Logica e ragionamento
Normalmente si pensa esista un solo modo di ragionare, una sola logica, in realt esistono innumerevoli logiche. La logica utilizzata dal computer, logica classica, molto solida e ben fondata. Il metodo deduttivo matematico consente di raggiungere vette elevate mantenendo un rigore e una affidabilit notevoli. Non c spazio per lintuizione nei metodi computazionali del calcolatore. Da determinate premesse ne conseguono in maniera stringente determinate conseguenze, tutte ricavabili da una catena consistente di cause ed effetti. Ma il cervello non lavora cos. Sarebbe bloccato nel suo flusso logico se ad ogni momento dovesse prendere in considerazione tutte le informazioni pertinenti ad un determinato problema. La mente seleziona le informazioni pertinenti ancor prima di ricavarne tutte le conseguenze, e in questo modo commette degli errori. In questo modo per riesce a produrre dei risultati che un calcolatore non riesce ad emulare, riesce ad affrontare problemi di grande complessit computazionale. Il gioco degli scacchi ne un esempio. Il giocatore umano trova la strategia vincente senza calcolare tutte le possibilit che le mosse sulla scacchiera consentirebbero. Il computer no, calcola tutte le possibilit in maniera esaustiva. Deep Blue, il super computer, ha battuto Kasparov, il campione del mondo di scacchi, grazie a questa logica esaustiva, grazie alla forza bruta. Ma nel mare della complessit dei sistemi reali la mente umana riesce ancora a produrre prestazioni migliori. Quali strategie usa la mente per ottenere questo incredibile risultato? Certo luomo non pu competere con il computer nel compito di calcolare pigreco fino al centesimo decimale, ma se si tratta di

117

riconoscere il volto materno un bimbo riesce molto meglio che non una rete neurale. Per un robot il compito di andare a prendere un caff al bar presenta enormi difficolt computazionali e cognitive. Per eseguire un compito cos banale in un ambiente reale il robot dovrebbe essere in grado di elaborare una quantit enorme di informazioni; a livello cognitivo, verbale e psicomotorio, nonch avere una rappresentazione del mondo estremamente vasta. Non esiste solo il ragionamento simbolico che si esprime nella logica come manipolazione di simboli, ma esistono modalit di ragionamento sub simbolici basati sullinterazione e trasmissione di informazione in reti di nodi connessi, come si riesce a capire studiando le reti neurali. Nelle reti interconnesse, lattivazione di neurodi consente al sistema di produrre prestazioni che possono essere interpretate come veri e propri ragionamenti logici. Un sistema semplificato di queste logiche lo si ritrova nella realizzazione di reti neurali e nel calcolo parallelo. Reti di nodi in cui linformazione si trasmette grazie allattivazione in parallelo in una miriade di canali di comunicazione. Ogni singolo nodo contribuisce alla prestazione finale della rete ma non la determina in maniera rigida e causale. Le prestazioni della rete ubbidiscono a leggi statistiche pi che a connessioni singole. Si osserva un effetto di convergenza e di stabilit della rete. Sostituire il paradigma se A vero allora B vero con se A attivo allora B attivo consente un interessante sviluppo delle possibilit logiche del sistema. Una determinata logica pu essere monotonica, ovvero ogni affermazione vera rimarr tale al crescere della base di conoscenza, oppure pu essere non monotonica, ovvero una affermazione ha uno stato di verit dinamico, cio dipendente dallo stato delle conoscenze in un determinato istante: una affermazione vera pu anche non esserlo pi dopo un certo periodo di evoluzione del sistema. Il concetto di verit non dunque assoluto ma dipendente dallinsieme delle informazioni disponibili al sistema di deduzione.

118

In particolare in un sistema di rappresentazione in cui la funzione di verit sostituita da una funzione di attivazione ci che risulta vero consiste nello stato dinamico in cui un particolare nodo risulta attivo o meno. Avviene una scissione tra il mondo reale e la rappresentazione del mondo utilizzata dal sistema deduttivo, questa scissione necessita di un processo di riallineamento che consenta la verifica che le deduzioni corrispondano ai fatti reali del mondo. Da questo punto di vista il metodo scientifico galileiano si presenta come un ottimo sistema di controllo e verifica sperimentale. Consideriamo ad esempio di avere linformazione che Titti un uccello. Possiamo allora dedurre che Titti vola. In seguito ci viene detto che Titti un pinguino. Ne deduciamo allora che Titti non vola. Otteniamo cos una contraddizione elementare e linformazione sul fatto che Titti vola oppure no diviene inutilizzabile. Solo una verifica sperimentale ci consente di affermare che Titti non vola. Il sistema deduttivo cos costruito non monotonico. La verit di una affermazione dipende dallo stato di conoscenza del sistema e possiede una dimensione temporale. La logica del senso comune funziona spesso in questo modo, a differenza della struttura granitica della logica classica, la logica che le persone utilizzano normalmente funziona in una dimensione temporale e in questo modo le persone riescono ad interagire in maniera pi efficace con il complesso mondo in cui vivono, in cui non vi sono affermazioni universali assolute ma ogni deduzione si presenta limitata nel tempo, precaria ed occasionale. Come faccia la mente a districarsi in un mare di informazioni contraddittorie un aspetto che merita un attento esame e profonde riflessioni. Il momento presente, il qui ed ora, governa in maniera stringente latto psichico alla base del ragionamento logico che le persone usano. Il processo psichico che si realizza nel presente lelemento

119

indubitabile dellesperienza, nel passato interviene la memoria che potrebbe essere fallace, nel futuro ancora non c risposta: la previsione pu essere confermata o smentita dai fatti in una modalit che non ci dato conoscere a priori. Nella logica classica non esiste una dimensione temporale, una affermazione vera vera per sempre; nel mondo reale siamo immersi in un continuo divenire. Allinizio la nostra rappresentazione del mondo contiene pochi fatti e poche esperienze, con il procedere dellinterazione col mondo i fatti si organizzano in solide strutture concettuali che possiamo comunicare verbalmente. Dal punto di vista della tecnologia dei computer questo significa costruire basi di conoscenza in continuo aggiornamento, basi di conoscenza che siano in grado di evolvere interagendo con la realt esterna. Quando si costruisce un sistema esperto, le regole sono fissate allinizio, la modifica e laggiornamento delle regole risulta estremamente laborioso. Sarebbe di grande interesse, invece, progettare sistemi esperti in grado di aggiornare continuamente la propria base di conoscenza sulla base dellesperienza acquisita. Quando si realizza un sistema esperto, di solito, la conoscenza di un esperto umano viene fotografata in un sistema di conoscenza basato su regole. Una tale base di conoscenza risulta essere statica e il sistema esperto risulta utile in quanto ripropone le deduzioni relative ad uno specifico problema riportando fedelmente il parere che lesperto umano aveva precedentemente inserito. Ovviamente il sistema esperto espande al proprio interno tutte le possibili conseguenze relative alle regole che conosce, tenendo presente tutte le svariate sfumature deducibili logicamente dalle premesse. Un sistema esperto dinamico invece dovrebbe essere in grado di aggiornare la propria base di conoscenza sulla base dellinterazione contestuale al suo utilizzo. A questo scopo si rende necessario il giudizio di un esperto che incrementi e corregga la base di conoscenza in una fase successiva alla implementazione iniziale.

120

Inoltre il sistema dovrebbe essere in grado di trattare quei casi in cui linformazione risulta incompleta o contraddittoria. A buon diritto un sistema di tal genere sarebbe considerato pi intelligente rispetto ai sistemi esperti standard. Il cervello umano non utilizza la strategia di risoluzione utilizzata dal motore inferenziale di un sistema esperto. Il cervello non intento a computare tutte le regole della propria base di conoscenza, lavora piuttosto su sotto parti magistralmente selezionate. Il cervello si sofferma solo sugli aspetti pertinenti al problema considerato. Come riesca a selezionare lambito di competenza veramente difficile da spiegare utilizzando le normali conoscenze informatiche. Lo stimolo viene selezionato fin dallinizio del processo di percezione. Il cervello si mette in moto fin da subito, non aspetta di raccogliere i dati di input, ma elabora linformazione fin dal suo primo apparire a livello sensoriale. Inoltre un piccolo indizio pu attirare lattenzione e portare il ragionamento su un filo logico molto particolare ed originale, selezionando e potando tutto un intero albero di possibilit logiche che un computer invece dovrebbe analizzare. Come fa il cervello a trovare strategie vincenti operando in queste modalit cos precarie? Forse lelaborazione parallela che si realizza nel cervello consente buoni risultati anche quando non si utilizzano strategie che esauriscono tutti i casi possibili. Forse questo modo di procedere lunico in grado di fornire buone prestazioni in un mondo estremamente complesso, un mondo in cui i sistemi deduttivi classici ben presto sono bloccati dalla mole esponenziale di calcoli che si rendono necessari. Gli informatici hanno classificato i vari gradi di complessit computazionale che si presentano nella risoluzione di problemi. Nei casi reali spesso ci troviamo di fronte ad una crescita esponenziale della complessit computazionale. Per risolvere con metodi esaustivi certi problemi di interesse pratico occorrerebbe una elaborazione che necessita di un tempo

121

di esecuzione superiore allet delluniverso. Risulta pertanto di importanza fondamentale riuscire a capire come il cervello riesca a trovare quelle scorciatoie che gli permettono di non rimanere bloccato dalla mole di calcoli che si rendono necessari nella risoluzione dei problemi reali.

122

Spiegare e comprendere
Apparentemente la scienza sembra una disciplina del tutto obiettiva: il contributo di un singolo scienziato consisterebbe nello studiare gli stessi fenomeni in modo pi approfondito dei suoi predecessori. Questa visione pu essere corretta nel periodo di scienza normale, non quando una data disciplina subisce dei cambiamenti profondi. Se un gruppo di ricercatori vuole portare avanti un progetto in comune, bisogna preliminarmente mettersi daccordo su quali siano fenomeni che sono interessanti (e quindi degni di essere studiati) e quali siano i criteri in base ai quali una spiegazione di un fenomeno viene accettata come una valida spiegazione scientifica. Queste scelte sono essenziali ed essendo necessario farle prima di iniziare la normale attivit scientifica seguono una logica del tutto diversa da quella che guida il normale sviluppo della scienza. La fisica moderna nata quando Galilei (con una scelta apparentemente arbitraria) decideva di studiare il moto dei corpi trascurando lattrito, nonostante che un mondo senza attrito sarebbe completamente diverso da quello che conosciamo. Un cambiamento quindi di prospettiva in una disciplina ha spesso delle motivazioni e delle implicazioni che vanno al di la dello stretto ambito scientifico e che possono essere di interesse generale. Negli ultimi venti anni una parte della fisica ha subito un cambiamento di questo tipo. I fenomeni che tradizionalmente erano studiati erano solo quelli riproducibili, ovvero quelli che si potevano effettuare in laboratorio e ripetere varie volte con gli stessi risultati. Questa scelta taglia fuori un gran numero di fenomeni difficili da riprodurre: basti pensare alla forma dei cristalli di neve, ognuno diverso dagli altri eppure tutti con la loro bellissima simmetria esagonale. La forma dei fulmini, dei frammenti di un vetro che si rompe, la spuma delle onde del mare erano fenomeni non riproducibili e quindi non soggetti allanalisi rigorosa della fisica sperimentale. Negli anni settanta un gruppo di fisici incomincia a cambiare atteggiamento; non si cerca pi di capire come mai un dato

123

bicchiere si rompa in determinato modo (compito impossibile dato che tutti i bicchieri del nostro servizio si rompono in frammenti di forma differente) ma piuttosto si cerca di trovare quali siano le caratteristiche in comune di tutti i modi in cui i bicchieri si rompono: da un lato si cerca di classificare le forme irregolari che si presentano in questi fenomeni e dallaltro si richiede che la teoria sia in grado non di predire con precisione il fenomeno, ma semplicemente di dirci con che probabilit i fenomeni possano avvenire. Sistemi di questo tipo, in cui non possibile fare previsioni certe, ma solo indicare delle probabilit diventano interessanti e parole come caotico, irregolare, impredicibile, che nel passato avevano un significato negativo acquistano ora un significato positivo. Nella concezione neopositivistica della scienza le teorie scientifiche sono concepite come classi di enunciati deduttivamente chiuse e assiomatizzabili; la comprensione scientifica del mondo avviene attraverso procedure ipotetico deduttive che permettono di spiegare i fatti e di prevederne di nuovi incorporandoli in sistemi deduttivi quali appunto devono essere le teorie scientifiche. La spiegazione scientifica si configura quindi come un argomento inferenziale di cui ci che conta esplicitare la forma logica e la cui funzione quella di ricondurre la descrizione di un evento sotto una generalizzazione che dovrebbe rendere ragione del suo occorrere. Laltro assunto fondamentale della concezione standard asserisce la simmetria tra spiegazione e previsione. Largomentazione deduttiva con cui si pu spiegare un certo evento , dal punto di vista strutturale, identica alla previsione di quellevento. In questa posizione si riflette uno degli aspetti pi caratteristici dellimmagine neopositivistica della scienza: la convinzione secondo cui il potere esplicativo di una teoria dipende dalla sua capacit di previsione; questultima caratteristica assume un valore prescrittivo per qualsiasi teoria scientifica. Un rovesciamento dellapproccio stato operato da quei filosofi che hanno ricondotto lo studio della spiegazione a quello della logica delle domande perch, nella convinzione che la spiegazione sia una nozione essenzialmente pragmatica. La

124

validit di una spiegazione non pu essere analizzata senza prendere in considerazione il contesto nel quale sorta la domanda da cui la spiegazione dipende. In tal modo essendo la spiegazione una relazione pragmatica e non un problema semantico e implicando, quindi, solo secondariamente relazioni tra teorie e fatti, laccettabilit di una teoria non viene fatta dipendere dal suo potere esplicativo e lutilizzazione che se ne fa in vista di una spiegazione non richiede per la teoria il requisito della verit. Le teorie scientifiche vengono applicate nelle spiegazioni. Il concetto di spiegazione stato spesso confrontato con quelli di descrizione e di comprensione. Lo scopo della fisica e delle altre scienze naturali sarebbe quello di spiegare, mentre lo scopo della storia e delle altre scienze umane sarebbe quello di comprendere. Ma la comprensione si intreccia in modo inestricabile con la spiegazione e la descrizione. La descrizione delloggetto da spiegare comporta lattivazione di un certo quadro concettuale che permette di rappresentare il fenomeno secondo una determinata prospettiva. La descrizione indicativa del tipo di comprensione con il quale vengono organizzati e resi intelligibili i dati empirici. La natura dei concetti utilizzati in una descrizione definisce il taglio con cui si voluto strutturare un certo ambito della realt. Vi sono modalit diverse di comprendere il mondo, forme di descrizione cio i cui concetti si dispongono su piani categoriali diversi costituendo modi di vedere tra loro alternativi. Un atto di comprensione implica la formazione di concetti che permettono di dare struttura allesperienza costruendo livelli diversi di realt. Vi incommensurabilit tra una forma di descrizione e unaltra quando i sistemi concettuali utilizzati risultano diversi rispondendo a punti prospettici alternativi. Non possibile passare da una descrizione allaltra senza cambiare il modo di vedere, la forma dellintelligibilit. Sono due modi diversi di guardare che corrispondono a due distinti atti di comprensione. Lirriducibile molteplicit delle teorie e delle discipline scientifiche derivano da questa variet dei risultati conseguenti ad

125

unattivit a pi livelli di comprensione del mondo. Ad una certa forma di descrizione corrisponde un certo metodo di rappresentazione: si costruiscono cos mondi diversi. Ogni teoria scientifica costruisce i suoi oggetti, ed questa attivit costruttiva che ci rende intelligibile il mondo. Un sistema di classificazione parte peculiare e inestricabile della teoria scientifica cui appartiene. Nella definizione di una teoria scientifica ha un ruolo preminente la determinazione dei concetti attraverso cui si struttura il livello di realt che costituisce il dominio di applicazione della teoria. Ogni spiegazione parte da una descrizione e la descrizione presuppone un certo modo di comprendere i dati. chiaro come la presentazione di un evento sotto una certa descrizione contribuisca a determinare il quadro esplicativo adeguato per la spiegazione dellevento. La descrizione non la semplice trascrizione di una serie di elementi osservativi neutri, essa comporta lattivazione di una visione generale, di procedure di verifica, di criteri per lapplicazione di termini specifici e diversi da un caso allaltro o da una teoria allaltra. Presentare un certo comportamento come intenzionale presuppone che esso venga descritto in un certo modo. Il fatto che un evento concepito come unazione intenzionale dipende dal modo in cui stato descritto, cio da un atto di comprensione intenzionale di certi elementi comportamentali. Alcune delle controversie scientifiche pi interessanti hanno origine proprio nella diversa strumentazione concettuale utilizzata dalle parti in conflitto. Quando un accadimento naturale viene spiegato da una teoria fisica esso viene compreso allinterno di un sistema teorico pi ampio e specifico, caratterizzato da forme di classificazione che producono una nuova immagine del mondo. Il mondo degli atomi, degli elettroni, dei protoni altro rispetto a quello delle sedie e dei tavoli, definito da una rete concettuale che determina una ridescrizione ad un diverso livello categoriale. Non tutte le leggi sono causali. Esistono per esempio leggi probabilistiche. C una ragione per ritenere che le leggi non causali non

126

possono svolgere il ruolo delle leggi di copertura nelle spiegazioni scientifiche. Le regolarit non causali non hanno una forza esplicativa che permetta di fornire una comprensione degli eventi nel mondo, richiedono anzi di essere, a loro volta, spiegate. I marinai, molto tempo prima di Newton, erano perfettamente a conoscenza della correlazione tra il comportamento delle maree e la posizione e le fasi della luna. Ma visto che erano totalmente alloscuro delle relazioni causali implicate, giustamente non avevano nessuna pretesa di comprendere perch le maree fluissero e defluissero. Quando Newton forn una spiegazione basata sui legami gravitazionali, si raggiunse la comprensione. Tenendo presente questa considerazione, ci rendiamo conto che dobbiamo prestare altrettanta attenzione alle spiegazioni delle regolarit di quanta ne diamo alle spiegazioni di fatti particolari. Queste regolarit richiedono una spiegazione causale. Gli sviluppi della scienza nel ventesimo secolo dovrebbero averci preparato alleventualit che alcune delle nostre spiegazioni scientifiche dovranno essere statistiche, non solo perch la nostra conoscenza incompleta, ma piuttosto perch la natura stessa intrinsecamente statistica. Alcune delle leggi adottate per spiegare eventi particolari saranno statistiche, e cos pure alcune delle regolarit di cui desideriamo dare una spiegazione. Questa circostanza costituisce una sfida per la concezione inferenziale nella quale per la spiegazione statistica necessaria una elevata probabilit di tipo induttivo. Alcuni fenomeni seguono una legge statistica ma non seguono induttivamente dai fatti esplicativi. Rintracciare le cause reali diviene problematico. Tuttavia i processi casuali iniziano in un luogo centrale e viaggiano verso lesterno a una velocit finita. Un insieme piuttosto complesso di relazioni di rilevanza statistica spiegato dalla propagazione di un processo, o di un insieme di processi, a partire da un evento comune centrale. Quando possibile rintracciare un evento centrale come causa della correlazione statistica possiamo ricondurci ad una spiegazione causale. Purtroppo molto spesso questo non immediatamente visibile, lunico dato di cui disponiamo

127

appunto la misurazione della correlazione statistica tra eventi. La collisione di due palle da biliardo e lemissione o lassorbimento di un fotone, sono tipici esempi di interazioni causali. Le interazioni causali sono quel genere di cose che siamo inclini a identificare come eventi. Relativamente a un particolare contesto, un evento comparativamente piccolo nelle sue dimensioni spaziali e temporali: i processi hanno tipicamente durate molto pi lunghe, e anche la loro estensione spaziale pu essere maggiore. Un raggio di luce, che viaggia verso la Terra da una stella lontana, rappresenta un processo che avviene su una grande distanza e dura per un tempo molto lungo. Se pensiamo a una causa come ad un evento, e a un effetto come ad un evento distinto, allora la connessione tra loro potrebbe essere semplicemente un processo causale spaziotemporalmente continuo. Reichenbach elabor una idea di come debbano essere identificate le cause, nel suo principio di causa comune. Se due o pi eventi di un certo tipo si verificano in luoghi diversi, ma si verificano nello stesso momento pi frequentemente di quanto ci si dovrebbe aspettare se accadessero indipendentemente, allora questa apparente coincidenza va spiegata in termini di un comune antecedente causale. Se, per esempio, tutte le lampadine elettriche di una particolare area si spengono simultaneamente, noi non crediamo che ci accada perch si sono bruciate tutte in modo fortuito alle stesso momento. Attribuiamo la coincidenza a una causa comune, come una valvola saltata, una linea caduta o dei problemi alla centrale generatrice. La mente estremamente sensibile alle coincidenze significative proprio per il fatto che nella maggioranza dei casi esse sottendono a qualche legge di causa ed effetto antecedente e comune. Le teorie scientifiche devono dirci quel che vero in natura e come va spiegato. Ma queste sono due funzioni completamente differenti, e vanno tenute distinte. Di solito vengono confuse. La seconda viene comunemente vista come un derivato della prima.

128

Si pensa che le teorie scientifiche spieghino tramite le descrizioni che danno della realt. Una volta terminato il lavoro di descrizione, la scienza pu chiudere i battenti. Questo un errore, un errore incoraggiato dal modello di spiegazione in base a leggi di copertura (Hempel). Il modello presume che tutto ci che abbiamo bisogno di conoscere sono le leggi di natura - e un po di logica, forse un po di teoria della probabilit - e in questo modo conosciamo quali fattori ne possono spiegare altri. Ad esempio, nella pi semplice versione nomologico-deduttiva, il modello a legge di copertura dice che un fattore pu spiegarne un altro solo nel caso in cui il verificarsi del secondo possa venir dedotto dal verificarsi del primo, date le leggi di natura. Nellimpostazione del modello di copertura si fa assegnamento sulle leggi naturali, e solo su esse, per individuare i fattori che possiamo utilizzare nella spiegazione. Tuttavia non possiamo spiegare molti fenomeni con un modello a legge di copertura perch non disponiamo di nessuna legge che li comprenda. Le leggi di copertura sono rare. Molti fenomeni che hanno ottime spiegazioni scientifiche non sono compresi entro alcuna legge. Lattivit dello scienziato, prima ancora e al di l di stabilire le leggi di natura, consiste nella specificazione di quei fattori che rispetto ad altri sono rilevanti dal punto di vista esplicativo. Una volta conosciute le leggi di natura, resta ancora da decidere quali generi di fattori vadano considerati nella spiegazione. Molto spesso si considerano casi ideali. Ma le leggi sono rare e spesso non abbiamo proprio nessuna legge per quel che accade quando le condizioni sono lontane dallessere ideali. Il comportamento degli oggetti naturali vincolato da alcune leggi specifiche e da un insieme di principi generali, ma non determinato nei dettagli, nemmeno statisticamente, come ci mostrano i risultati della meccanica quantistica. La maggior parte dei casi della vita reale implica una combinazione di cause, e noi non disponiamo di leggi generali che descrivono quel che accade in questi casi complessi. Non c nessuna teoria generale che stabilisca in che modo combinare gli

129

effetti delle singole leggi fenomenologiche. Non esiste una teoria del tutto ed veramente difficile anche solo immaginarla! Quando tutte le leggi saranno conosciute, le leggi saranno sufficienti per spiegare tutti i fenomeni, tuttavia, nel frattempo noi diamo delle spiegazioni: ed compito della scienza dirci quali generi di spiegazioni sono ammissibili. Le leggi esplicative, per loro stessa natura, hanno delle eccezioni: solo in circostanze improbabili una legge del genere sar vera alla lettera. la nostra immagine della struttura esplicativa della natura che lo richiede: noi supponiamo che in natura siano allopera certe leggi fondamentali. Molto spesso una legge non vera (approssimata) fornisce delle ottime spiegazioni. Anche la natura stessa della spiegazione cambia nei vari periodi storici. Poich ci che si considera una spiegazione intelligibile cambia, si tentati di pensare allintelligibilit delle spiegazioni come a qualcosa di puramente soggettivo, psicologico. Il fatto che gli scienziati del diciassettesimo secolo considerassero inintelligibili le spiegazioni che implicavano forze agenti tra particelle materiali, mostra che la novit a creare sconcerto, mentre ci che familiare sembra intelligibile. Nel secolo diciannovesimo, quando ci si era abituati allidea, queste spiegazioni risultarono perfettamente intelligibili. Tuttavia lintelligibilit si caratterizza per un aspetto sistematico pi che psicologico. Sapere che un fatto accade regolarmente non lo rende intelligibile. la regolarit stessa che risulterebbe inintelligibile. Solo nel momento in cui si potesse modificare il nostro sistema di credenze in modo che la regolarit cessasse di essere puramente fenomenica, adattandosi in un modello coerente con il resto delle nostre credenze ad essa collegate potremmo giungere ad una spiegazione soddisfacente. Quando identifichiamo un evento come qualcosa che va spiegato, lo facciamo rispetto ad un quadro di credenze, ad uno sfondo di aspettative sul modo in cui quel genere di cose dovrebbe

130

comportarsi; e questo sfondo determina anche il tipo di considerazioni che potrebbero rientrare in una spiegazione intelligibile. Lintelligibilit ha un aspetto sistematico in quanto lo scienziato tenta di spiegare i fenomeni seguendo determinate regole. Se le regole sono incorporate in una filosofia meccanicistica corpuscolare non si riesce ad accettare una spiegazione che preveda interazioni a distanza. Quando la comunit scientifica giunse a considerare esplicative le forze tra particelle agenti a distanza, il cambiamento non fu solamente psicologico, era cambiata la pratica esplicativa, erano diverse le regole che si dovevano seguire per fornire una spiegazione scientifica. Laccettabilit di una spiegazione deve essere messa in relazione non solo con i fatti, ma anche con le regole dellattivit scientifica cos come viene praticata in periodi diversi, regole che governano il modo in cui i fatti devono essere ordinati e compresi. Le leggi a differenza delle correlazioni empiriche funzionano come modelli, sono impalcature teoriche entro cui i fatti possono essere spiegati. Queste regole precedono logicamente ogni particolare spiegazione perch sono esse stesse a definire ci che necessita di spiegazione e ci che va fatto per fornire una spiegazione scientifica. Mentre vero che ogni nuova applicazione o chiarificazione di una tradizione di ricerca produce una qualche modifica della pratica accettata, la differenza tra tipi di argomentazioni proposte dagli scienziati, e tra i tipi di considerazioni ritenute pertinenti, indica se essi stanno proponendo una estensione originale di un modo accettato di spiegare o se stanno mettendo in discussione la pratica esplicativa accettata. Accettare quadri concettuali diversi di regole diverse per la spiegazione, comporta il porre domande di tipo diverso e il cercare risposte diverse; impegna quindi a condurre ricerche future in una direzione diversa. Anche le nostre comuni descrizioni e spiegazioni del comportamento umano vengono fornite su uno sfondo di regole, regole che sono implicite in ci che comunemente affermiamo su quanto fanno gli uomini. Solitamente, quando descriviamo il comportamento umano, lo descriviamo come una sorta di azione intenzionale piuttosto che

131

come un certo tipo di evento nel mondo esterno. Talvolta classifichiamo il comportamento umano nei termini del fine verso cui pensiamo sia rivolto lagente. Le nostre descrizioni presuppongono che si stia trattando con un agente che fa ci che intende fare. Un comportamento descritto in questo modo richiede delle spiegazioni che devono essere espresse nei termini delle intenzioni dellagente. Una azione ci risulta enigmatica quando non vediamo il motivo di compierla in quelle circostanze, e per trovare una spiegazione cerchiamo allora gli scopi, le credenze, le linee di condotta, i desideri dellagente. Nonostante questo sia il modo corrente per rendere ragione delle azioni umane, alcuni autori affermano che non si tratta affatto di una spiegazione. Questo modo di procedere non riesce a provare come le ragioni spiegano le azioni, dato che una persona pu avere una ragione per unazione, ed eseguire lazione, anche se pu non essere questa la ragione per cui egli ha agito cos, mostrare che egli aveva una ragione per agire in quel modo non dimostra che lagente ha eseguito lazione perch aveva quella ragione. Le persone non si comportano secondo un principio di massima razionalit! In particolare non facile definire cosa sia lintenzionalit dellagente. Per la pratica esplicativa implicita nel linguaggio ordinario fondamentale che le azioni debbano essere spiegate in termini di intenzioni. La spiegazione di un comportamento funziona in quanto ci mettiamo al posto dellagente, ma in nessun modo possiamo ricavarne una spiegazione causale. In altre parole, se dobbiamo fornire una spiegazione intelligibile di unazione allinterno di un quadro concettuale dobbiamo assumere il punto di vista dellagente. Tutto ci in netto contrasto con le scienze fisiche. In queste ultime spieghiamo gli eventi dimostrando che sono intelligibili, anche se il loro verificarsi sembra anomalo, perch quegli eventi sono realmente ci che dovrebbe accadere alla luce dei concetti e delle regole accettate dai ricercatori. Per spiegare gli eventi si costruisce un calcolo che dimostra come la descrizione del loro

132

verificarsi possa avvenire in accordo con le regole e le leggi procedurali che definiscono la pratica esplicativa della comunit scientifica. Ma nella pratica esplicativa che informa il nostro modo comune di parlare del comportamento umano, le azioni devono essere spiegate in termini di intenzioni dellagente, e per far questo non abbiamo a disposizione nessun tipo di calcolo adeguato. Non ambizione degli psicologi sperimentali spiegare e descrivere il comportamento nel modo in cui noi comunemente lo facciamo. Quello che persone come Hebb sperano di dimostrare che un processo mentale pu essere un processo intellegibile dal punto di vista fisiologico; egli cerca di usare i concetti e le regole della ricerca fisiologica per elaborare teorie, in linea con quelle della fisica e della chimica, che mettano in relazione microstati dei processi cerebrali dellagente con la sua risposta alla situazione in esame. Questa teoria spera di spiegare la connessione tra lazione dellagente e la sua intenzione ad un livello pi fondamentale. ovvia comunque la frattura semantica che porta questo tipo di approccio. Nella nostra prassi comune esiste un dualismo semantico tra gli stati fisici e gli stati mentali.

133

Complessit e musica
Lidea ispiratrice della elaborazione parallela distribuita si estende ad un lunga tradizione concettuale e sperimentale. Il successo della teoria della cognizione si fonda, come in molte altre discipline, su una solida base di risultati teorici e matematici. Possedere una solida teoria matematica dei processi di elaborazione delle informazioni costituisce un potente strumento di indagine. La teoria dellarmonia (Harmony Theory) si colloca proprio a questo livello di formulazione matematica dellelaborazione subsimbolica. La teoria dellarmonia un corpo di cognizioni matematiche per lo studio di una classe di sistemi dinamici in grado di eseguire compiti cognitivi in accordo con il paradigma di elaborazione subsimbolica. Questi sistemi dinamici possono servire come modelli della cognizione umana o per disegnare sistemi cognitivi artificiali. Laspetto fondamentale della cognizione esplorata dal paradigma sub-simbolico non coinvolge procedure di manipolazione di simboli ma utilizza il concetto di attivazione di unit elementari, relazioni e correlazioni statistiche. Lo scopo della teoria dellarmonia consiste nel fornire un potente linguaggio per esprimere teorie cognitive nel paradigma sub-simbolico, un linguaggio complementare allesistente linguaggio di manipolazione di simboli. Laspetto importante non consiste in una strategia che sia necessariamente applicabile a tutti i sistemi cognitivi indistintamente, ma piuttosto in strategie che portano a nuovi interessanti risultati matematici, a nuove architetture di calcolo e a modelli di computazione che forniscano contributi significativi nel campo dei sistemi distribuiti massicciamente paralleli in grado di eseguire compiti cognitivi. Ogni processo viene considerato come una realizzazione di una rappresentazione di configurazioni statiche relative ad un mondo esterno.

134

Ogni schema di attivazione costituisce una informazione da elaborare. La teoria matematica dellarmonia si fonda sul concetto familiare nella scienza cognitiva che ogni inferenza deriva dallattivazione di uno schema. La teoria matematica dellarmonia utilizza lanalisi matematica e la simulazione a computer per delineare le implicazioni derivate dai principi fondamentali. A partire da questi principi possibile analizzare matematicamente quegli aspetti che risultano derivare rigorosamente dalle regole utilizzate da una macchina che implementi i requisiti computazionali di base. La teoria dellarmonia richiama alla mente la disciplina principe in cui larmonia si esprime, ovvero la musica. La complessit che ritroviamo in un brano musicale si esprime in forma armonica e si presenta alle nostre orecchie come una forma melodica molto ben determinata e per nulla caotica. Le possibilit di espressione in un brano musicale sono notevoli, un autore ha a disposizione una vasta gamma di forme armoniche distinte per realizzare il proprio brano musicale, ma il risultato di tale lavoro si presenta alle nostre orecchie con un elevato grado di uniformit melodica; noi riconosciamo la melodia come una unica entit strutturale e la riconosciamo tra migliaia di melodie diverse. Le regole armoniche di base sono semplici e ripetitive per ogni nota di tonica scelta. Ma le melodie, nonostante utilizzino solo 7 note fondamentali, sono numerosissime e diversissime tra di loro. Nella musica interviene non solo il tono ma anche il timbro e ogni strumento possiede il proprio timbro caratteristico, la voce poi pu caratterizzare una melodia in una maniera determinante. Informatici e musicisti si sono divertiti a creare musica in maniera automatica. Dal loro lavoro ne risulta evidente le grandi potenzialit del sistema di note e di voci differenti che si possono utilizzare, ma dalle loro melodie risulta altrettanto evidente come la creativit umana intervenga in maniera vistosa nel creare belle melodie. Esiste una affinit tra il funzionamento della mente e la musica.

135

La capacit di creare una bella melodia che appaghi il corpo e lo spirito risiede nelle pi sottili potenzialit creative della mente. Si direbbe che la melodia sgorghi da sola nella mente del musicista. Il computer si dimostra assai poco creativo limitandosi a combinare casualmente suoni, non riesce a cogliere quel senso di unit che una musicista riesce ad esprimere componendo una melodia in cui ogni nota sembra essere insostituibile allinterno dellintero brano musicale. La musica, la capacit di comporre musica, costituisce una sfida per la logica digitale che determina il funzionamento del computer. Sfida ancora lontana dallavere una risposta soddisfacente. Nella complessit delle potenzialit armoniche il computer non riesce a trovare quella semplicit ed immediatezza che il musicista riesce ad esprimere in maniera cos naturale. Cosa c di pi ordinato di una melodia? Ogni nota perfettamente coordinata nel tempo e nello spazio. Nella musica si manifesta il pi alto livello di sincronicit. Lorecchio pu percepire la pi piccola stonatura nellesecuzione del brano musicale, il minimo disturbo fortuito o accidentale. Eppure le possibilit espressive consentite dalla struttura musicale sono di una enorme complessit, anzi il rumore bianco prodotto dalla contemporanea presenza di tutti i toni, che rappresenta il massimo di probabilit, costituisce un suono molto simile al silenzio per lorecchio. La musica si basa sulla diversit e contrapposizione di suoni. Nel mare dei possibili suoni la melodia si staglia come unica e necessaria. In una orchestra ogni suono coordinato e ogni strumento svolge il proprio ruolo, sia esso un virtuosismo del solista o il ritmo segnato dal tamburo. Il caos possibile viene soggiogato dalla melodia producendo un ordine cristallino nel mare della complessit. La melodia nasce come possibilit ma si concretizza in una necessit determinata dallestro del compositore, assume una propria individualit che consente perfino di numerarla come un

136

tutto unico, ogni nota, scelta tra quelle possibili, diviene insostituibile nel contesto melodico. Come scegliere ad ogni passo la nota successiva mentre si compone un brano? Occorre dire che nonostante lestrema libert a disposizione del compositore esistono alcune regole di composizione che producono melodie pi accettabili dallorecchio che altre. Queste regole, come per esempio la risoluzione sulla tonica della settima, costituiscono il corpo principale dei trattati di armonia, in cui sono sistemati con ordine le varie suddivisioni in accordi maggiori e minori. Ma anche se facciamo digerire ad un computer tutti i trattati di armonia esistenti non siamo ancora in grado di creare melodie veramente originali e piacevoli. Il computer si perde nella complessit musicale, produce melodie ripetitive e sterili, che a sprazzi sembrano interessanti, ma poi si perdono nella cacofonia. Cosa succede nella mente del compositore mentre compone musica? La mente riesce a coordinare miriadi di suoni in una melodia che sembra dovesse esistere di per s anche prima di essere composta. Questo un risultato veramente strabiliante. La neuropsicologia ha scoperto moltissime situazioni cliniche in cui si pu affermare che la consapevolezza dissociata dalla capacit di discriminazione. Non c nulla di sorprendente nellagire senza consapevolezza, si potrebbe perfino affermare che la maggior parte delle attivit quotidiane sono eseguite in modo non conscio e che molte delle interazioni con il mondo esterno vengono portate avanti in modo automatico e, in un certo senso, senza soffermarcisi con il pensiero. Il pianista che esegue un brano al pianoforte non pensa alle note che sta suonando, semplicemente esegue i movimenti che con lesercizio gli sono divenuti abituali. La mano sinistra si muove secondo le regole armoniche e la mano destra secondo le regole melodiche, il tutto in un processo semi automatico in cui la coscienza interviene come guida ma non come controllore di tutte le movenze acquisite durante

137

lapprendimento psicomotorio dellesecutore. Se il musicista dovesse prendere piena coscienza di tutte le note, una ad una, ben presto si troverebbe bloccato nella sua capacit di eseguire il brano musicale. La musica guida la consapevolezza e noi apprezziamo la melodia senza essere completamente consci di tutte le note che essa contiene, la musica come una filastrocca contiene in s una catena di riferimenti conseguenti ed automatici. La musica dipana il caos tramite una cadenza (ritmo) e una convergenza di suoni (melodia) che, seguendo le regole armoniche, producono un senso di appagamento nellorecchio dellascoltatore. La musica distende, rilassa e accondiscende ai gusti di chi lascolta. Quante volte ci capita di canticchiare interiormente una musica, essa viene generata dalla profondit dellinconscio che accompagna la genesi del pensiero. Ma che cos la coscienza? Se lameba fosse un animale grande, cos da diventare parte dellesperienza quotidiana, il suo comportamento indurrebbe subito lattribuzione a essa di stati di dolore e di piacere, di fame, desiderio e simili, esattamente come facciamo con un cane. Di solito noi attribuiamo la coscienza perch utile; ci permette di capire, prevedere e controllare le azioni molto pi prontamente che se non lo facessimo. Noi ascriviamo delle qualit di tipo umano anche a degli oggetti nei giochi al computer, ai missili dotati di servo controllo, ai giocattoli meccanici e ai robot; in realt siamo progettati per essere degli attributori animistici per qualsiasi aspetto del nostro ambiente, sia esso naturale o artificiale. Ma in realt lunica coscienza che conosciamo direttamente la nostra, ognuno la propria, lattribuzione di coscienza ad esseri o cose sempre problematica; anzi non pu essere mai direttamente sperimentata. Sperimentare lesistenza di un pensiero non equivale a sperimentare la coscienza. Il pensiero non comporta necessariamente la coscienza. In un certo senso il computer pensa ma non cosciente. Esiste un pensiero automatico e un pensiero cosciente.

138

La coscienza di s qualcosa che sperimentiamo indipendentemente dal pensiero, come ci insegnano molti maestri orientali. Certamente il pensiero strettamente collegato alle capacit linguistiche. Ma un oggetto parlante (per esempio la radio) non detto che utilizzi il pensiero. Mentre il linguaggio pu essere utile per il pensiero, non affatto vero che il pensiero richieda il linguaggio. Per esempio, pensiero senza linguaggio pu essere osservato nei pazienti afasici, che hanno perduto sia la capacit ricettiva che quella espressiva in seguito al danno cerebrale. errato far coincidere il pensiero con il possesso del linguaggio. stato provato che la coscienza non condizione necessaria per la consapevolezza degli eventi sensoriali (si veda quei casi di visione cieca), e quindi probabilmente non condizione necessaria per il pensiero. Il vantaggio adattativo di essere capaci di comunicare chiaro a tutti, ma il potere di comunicare con le parole richiede congiuntamente sia la capacit che il bisogno di astrazione e di rappresentazione selettiva. La rappresentazione permette il riferimento, ma lastrazione permette di costruire un mondo, un universo che esiste non solo nel passato, ma anche nel futuro. Di solito ci si basa sulle evidenze comportamentali per descrivere i livelli, o stadi, di coscienza, cio gli stati di attivazione che vanno dal coma alla massima allerta. Ma facile dimostrare, o comunque argomentare in modo convincente, che una risposta comportamentale a uno stimolo pu essere necessaria, ma sicuramente non sufficiente, per attribuire consapevolezza cosciente per un determinato stimolo al soggetto. Si consideri un paziente paraplegico, nel quale il midollo spinale sia stato danneggiato in modo grave, causando paralisi e anestesia a entrambe le gambe; i movimenti degli arti inferiori sono ancora possibili quando eccitati da una stimolazione cutanea: una puntura dago causa invariabilmente la retrazione dellarto, gli archi nervosi riflessi del dolore dominano i centri spinali dove il dolore non esiste. Larto paraplegico risponde ma la persona vi dir che non ha sentito assolutamente nulla, eppure vede larto muoversi.

139

Egli non ha consapevolezza cosciente della stimolazione che provoca la risposta motoria, e non ha alcuna conoscenza di aver prodotto la risposta se non ha la possibilit di vederla o di esserne indirettamente informato. Cosa dire dei comportamenti pi complessi? La complessit largomento su cui molti autori hanno basato il loro giudizio: sia la complessit del sistema nervoso che la complessit del comportamento. Sperry (1969) sostiene che la coscienza sia una propriet emergente dalla complessit sempre maggiore del cervello, assente nei cervelli semplici ma presente nei cervelli pi complicati. Ma perch la complessit dovrebbe di per s comportare un tale risultato? Mi sembra improbabile che la visione cieca sia dovuta a una perdita di complessit del sistema visivo in termini quantitativi. La risposta risiede nel modo in cui organizzato il sistema nervoso e non nella sua complessit in quanto tale. Certamente un sistema nervoso complesso il pre-requisito affinch si realizzi una determinata organizzazione cerebrale, ma la complessit di per s non ci rivela le caratteristiche di questa organizzazione. Nella visione cieca pazienti ciechi in una certa area visiva dimostrano di percepire inconsciamente gli stimoli visivi, in quanto indovinano con alta percentuale di risposte esatte lo stimolo pur dicendo di non averne coscienza alcuna. Ipotizzare una coscienza basandosi su osservazioni indirette estremamente complicato, ogni procedura effettiva pu essere simulata o inconscia. Noi trattiamo le altre persone come fossero uguali a noi, anche quando non possiamo dialogare con loro, attraverso analogie, e condividiamo con gli altri il loro dolore o la vista di un arcobaleno. Gli uomini sono molto simili tra loro fino a quando non si enfatizza eccessivamente limportanza del linguaggio per il pensiero. Il linguaggio senza il pensiero non ha alcun senso, ma il pensiero senza linguaggio ne ha. Tramite il linguaggio non abbiamo difficolt ad accettare che gli altri siano in grado di indicare se stanno vivendo una determinata esperienza, riusciamo ad immaginare lesperienza

140

altrui rapportandola alla nostra, anche se non possiamo sperimentarla direttamente, il vissuto dellaltro mediato dal linguaggio. Ci pu essere comportamento, anche molto complesso, senza consapevolezza. Una persona o un animale possono mostrare delle eccellenti capacit senza che vi sia consapevolezza.

141

BIBLIOGRAFIA - Adeli Hojjat, Knowledge engineering, McGraw-Hill, New York 1990. - Aleksander Igor, Come si costruisce una mente, Einaudi editore. - Arigoni Anio, Mathematical Developments Arising From 'Semantical Implication' And The Evaluation Of Membership Characteristic Functions, Fuzzy Sets and System 4, 1980. - Arigoni Anio, Furlanello Cesare, Maniezzo Vittorio, Irrilevant Features In Concept Learning, IPMU Parigi 1990. - Baldacci Maria Bruna, Rappresentazione e ricerca delle informazioni, NIS la Nuova Italia Scientifica, Roma, 1988. - Baldissera C., Ceri S., Colorni A., Metodi di ottimizzazione, Clup editore, Milano 1981. - Bara Bruno G., La simulazione del comportamento, Franco Angeli editore, Milano 1977. - Barnet Anthony, Istinto e intelligenza, Boringhieri editore, Torino 1972. - Bateson Gregory, Mente e natura, Adelphi editore, Milano 1984. - Bencivenga Ermanno, Le logiche libere, Boringhieri editore, Torino 1976. - Bettelli Oscar, Dati, Relazioni & Associazioni, Apogeo editore, Milano 1991. - Bettelli Oscar, Macchine intelligenti, Arpa Publishing 1997. - Bettelli Oscar, Sincronicit: un paradigma per la mente, Antitesi editoria, Roma. - Bettelli Oscar, Processi cognitivi, CLUEB editore, Bologna 2000. - Bettelli Oscar, Messaggi e comunicazione, trasformazioni delle Simiglianze in programmazione logica, Franco Angeli editore, 2002. - Bocchi G., Ceruti M., La sfida della complessita', Feltrinelli editore, Bologna 1985. - Boden M., Artificial Intelligence and Natural Man, New York, Basic Books, 1977. - Bohr Niels, I quanti e la vita, Boringhieri editore, Torino 1965.

142

- Bonfantini Massimo A., L'esistenza della realta', Bompiani editore, Milano 1976. - Braitenberg Valentino, I veicoli pensanti, Garzanti editore. - Braitenberg Valentino, Il cervello e le idee, Garzanti editore. - Buser Pierre, Il cervello allo specchio, McGraw-Hill 1999. - Dapor Maurizio, L'intelligenza della vita, dal caos all'uomo, Springer editore, Milano 2002. - De Bono Edward, Il meccanismo della mente, Garzanti editore 1972. - De Bono Edward, Il pensiero laterale, Rizzoli - Capra Fritjof, Il tao della fisica, Adelphi - Carruccio Ettore, Mondi della logica, Zanichelli editore, Bologna 1971. - Casadei Giorgio A., Teolis Antonio G.B., Prolog: dalla programmazione all'intelligenza artificiale, Zanichelli, Bologna 1986. - Castelfranchi Yurij, Stock Oliviero, Macchine come noi, la scommessa dell'intelligenza artificiale, Editori Laterza. - Catastini Laura, Il pensiero allo specchio, La nuova Italia editrice. - Ceri S., Gottlob G., Tanca L., Logic Programming and Databases, Springer Verlag, Germany 1990. - Cini Marcello, Un paradiso perduto, Feltrinelli 1999. - Changeux Jean Pierre, Ricoeur Paul, La natura e la regola, Raffaello Cortina Editore 1999. - Churchland Paul M., Il motore della ragione, la sede dell'anima , Il saggiatore editore. - Console Luca, Lamma Evelina, Mello Paola, Programmazione Logica e Prolog, UTET, Torino 1991. - Dunne J.W., Esperimento col tempo, Longanesi editore, Milano 1984. - Durante Marcello, La linguistica sincronica, Boringhieri - Eccles J.C., La conoscenza del cervello, Piccin editore, Padova 1976. - Edelman Gerald M., Sulla materia della mente, Adelphi, Milano 1993 - Edelman Gerald M., Il presente ricordato, Rizzoli

143

- Ehrlich Stephane, Apprendimento e memoria nell'uomo, Edizioni Paoline, 1978. - Feigenbaum E. e Feldman J., Computers and Thought, New York, McGraw-Hill, 1963. - Felician L., Tecniche di organizzazione delle informazioni, Mondadori editore, Milano 1989. - Giorello G., Strata P., L'automa spirituale, Laterza editore, Bari 1991. - Gleick James, CAOS, Rizzoli editore 1987. - Goldberg David E., Genetic Algorithms in Search, Optimization and Machine Learning, Addison-Wesley Pubblishing, Menlo Park California 1989. - Goldbeter A., Cell To Cell Signaling: from experiment to theoretical models, Academic press, San Diego 1989. - Goldman Alvin I., Applicazioni filosofiche della scienza cognitiva, Il Mulino 1996 - Graham Cairns Smith A., Mente e coscienza. Saggio sulla natura della Materia e l'origine della coscienza, Fioriti editore, 2000. - Hedrich Reiner, Le scienze della complessit, Epistemologia Vol. 1 Anno XXII, Tilgher, Genova, 1999. - Hintikka Jaakko, Induzione, accettazione, informazione, Il Mulino editore, Bologna 1974. - Hofstadter Douglas R., Dennett Daniel C., L'io della mente, Adelphi editore, Milano 1985. - Jaspers Karl, Ragione e antiragione nel nostro tempo, Sansoni editore, Firenze 1978. - Jung Carl Gustav, L'uomo e i suoi simboli, Editori Associati, Milano 1991. - Jung Carl Gustav, La psicologia dell'inconscio, Newton, Roma -Jung Carl Gustav, Sulla sincronicita', Il mulino, Bologna - Kauffman Stuart, A casa nell'universo, le leggi del caos e della Complessit, Editori riuniti, 2001. - Lashley Karl S., La fisica della mente, Boringhieri editore, Torino 1969. - Laszlo Ervin, Alle radici dell'universo, Sperling & Kupfer editore, Milano 1993.

144

- Longo Giuseppe, Teoria dell'informazione, Boringhieri editore, Torino 1980. - Lukaszewicz Witold, Non-Monotonic Reasoning, Ellis Horwood, New York 1990. - Maier N.R.F., Schneirla T.C., Principles of animal psychology, Dover Publications, Inc., New York 1964. - Makinson David C., Temi fondamentali della logica moderna, Boringhieri editore, Torino 1979. - Manzotti Riccardo Tagliasco Vincenzo, Coscienza e realt, Il mulino editore, Bologna 2001. - Mecacci Luciano, Identikit del cervello, Laterza editore. - Mendelson Elliott, Introduzione alla logica matematica, Boringhieri editore, Torino 1972. - Moravia Sergio, L'enigma della mente, Laterza editore. - Morin Edgar, Teorie dell'evento, Bompiani editore, Milano 1972. Kingdom, 1990. - Nilsson Nils J., Metodi per la risoluzione dei problemi nella intelligenza artificiale, Franco Angeli editore, Milano 1982. - Norwood, Russell, Hanson, I modelli della scoperta scientifica, Feltrinelli editore, Milano 1978. - Oliverio Alberto, La mente, istruzioni per l'uso, Rizzoli editore. - Parisi Domenico, Castelfranchi Cristiano, La macchina e il linguaggio,Bollati Boringhieri editore,1987. - Penrose Roger, La mente nuova dell'imperatore, Rizzoli editore, Milano 1992. - Penrose Roger, Ombre della mente, Rizzoli editore, Milano 1996. - Pessa Eliano, Penna M. Pietronilla, Manuale di scienza cognitiva, Editori Laterza, Roma 2000. - Piaget Jean, Lo sviluppo mentale del bambino, Einaudi editore, Torino 1967. - Piaget Jean, La rappresentazione del mondo nel fanciullo, Boringhieri editore, Torino 1966. - Pierce John R., La teoria dell'informazione, Edizioni Mondadori, Milano 1963. - Pinker Steven, Come funziona la mente, Mondadori editore. - Poggio Tomaso, L'occhio e il cervello, Edizioni Theoria.

145

- Prigogine Ilya, Stengers Isabelle, La nuova alleanza, Einaudi editore, Torino 1981. - Prodi Giorgio, La storia naturale della logica, Bompiani editore, Milano 1982. - Putnam Hilary, La sfida del realismo, Garzanti editore 1991. - Putnam Hilary, Rappresentazione e realt, Garzanti editore. - Reed Stephen K., Psicologia cognitiva, Il Mulino editore, Bologna 1989. - Rizzi Barbara, La gestione dell'incertezza nei sistemi esperti: La teoria di Hajek, Tesi di Laurea, Bologna 1990. - Rumelhart David E., McCelland James L., Parallel Distribuited Processing, MIT Press, London 1989. - Russell B., Introduzione alla filosofia matematica, Newton Compton editori, Roma 1970. - Russell B., Storia delle idee del secolo XIX, Einaudi editore 1950. - Salton G., McGill M.J., Introduction to modern information retrieval, McGraw-Hill, New York 1983. - Sanford Anthony J., La mente dell'uomo, Il Mulino - Saumya K. Debray, Raghu Ramakrishnan, Generalized Horn Clause Programs, 1991. - Schank Roger C., Memoria dinamica, Marsilio Editori, Venezia, 1987. - Schiavina Barbara, La gestione dell'incertezza nei sistemi esperti: Un'applicazione, Tesi di Laurea, Bologna 1990. - Singh Jagjit, Linguaggio e cibernetica, Edizioni Mondadori, Milano 1969. - Spezzano Giandomenico, Talia Domenico, Calcolo parallelo, automi cellulari e modelli per sistemi complessi, Franco Angeli Editore. - Teller Edward, Il lato oscuro della fisica, Sperling & Kupfer - Tsichritzis D.C., Lochovsky F.H., Data models, Prentice-Hall, Englewood Cliffs, N.Y., 1982. - Weiskrantz Lawrence, Coscienza perduta e trovata, McGrawHill. - T. Winograd, F. Flores, Calcolatori e conoscenza, Arnoldo Mondadori Editore, Milano, 1987.

146

- Wittgenstein Ludwig, Tractatus logico-philosophicus, Einaudi editore, Torino 1968. - Vamos Tibor, Epistemologia del computer, Sperling & Kupfer editore, Milano 1993. - Viale Riccardo, Mente umana mente artificiale, Feltrinelli editore, Milano 1989

147

Indice
La complessit I sistemi complessi Sistemi di calcolo parallelo Automi cellulari Una metrica su insiemi Un modello per il traffico stradale Le leggi della complessit I requisiti dellordine Complesso e complicato Il punto di vista Mente e complessit Complessit e vita Logica e ragionamento Spiegare e comprendere Complessit e musica Bibliografia 7 26 37 50 64 68 72 83 86 100 107 112 117 123 134 142

149

Finito di stampare nel mese di Settembre 2005 presso Selecta (MI) www.starrylink.it

Starrylink Editrice
Collana FlyLine Saggistica