Starrylink Editrice Collana FlyLine Saggistica
Oscar Bettelli
Modelli per sistemi complessi
Starrylink Editrice
Oscar Bettelli Modelli per sistemi complessi II° Edizione Proprietà letteraria riservata © 2005 Oscar Bettelli © 2005 Starrylink Editrice Brescia Contrada S. Urbano, 14 - 25121 Brescia Collana Skyline www.starrylink.it I diritti di riproduzione e traduzione sono riservati. Nessuna parte di questo libro può essere utilizzata, riprodotta o diffusa con un mezzo qualsiasi senza autorizzazione scritta dell’autore. Copertina: Starrylink, Brescia Stampa: Selecta (MI) ISBN : 88-89720-11-5
Modelli per sistemi complessi
La complessità La complessità si presenta ai nostri occhi come una normale caratteristica del mondo reale. Il tentativo di ricondurre a processi semplici la grande varietà di fenomeni naturali ha avuto il suo più grande successo con la fisica classica. Dal momento in cui la ricerca scientifica sui fenomeni di dinamica e strutturazione complessa si è stabilizzata all’interno del contesto delle scienze empiriche alla fine degli anni settanta; a partire dalla comparsa delle Scienze della Complessità nel più vasto ambito interdisciplinare all’inizio degli anni ottanta; e dal momento in cui la complessità è diventata materia di forte divulgazione alla fine di questa decade, molti scienziati e altrettanti divulgatori l’hanno definita come una “rivoluzione scientifica” sorta proprio sotto i nostri occhi. Cosa sono i sistemi complessi? Tratti distintivi dei sistemi complessi e del comportamento complesso sono fenomeni dinamici specifici. Sebbene molti sistemi complessi abbiano una struttura nomologica, e consistono di principi di base piuttosto semplici e di equazioni fondamentali altrettanto semplici, si possono individuare al loro interno instabilità dinamiche, biforcazioni e un comportamento chiamato “Caos Deterministico”, come forme di strutturazione spaziale e dinamica complessa, e di auto-organizzazione. “Caos matematico” è il nome per il comportamento completamente casuale e irregolare di un sistema che non presenta alcuna forma di periodicità. “Caos Deterministico” è Caos Matematico che si presenta in sistemi deterministici, cioè in quei sistemi che nella loro dinamica non implicano processi casuali, in quei sistemi in cui cause identiche conducono a identici effetti. Una delle più importanti conseguenze del caos matematico e deterministico è la sensibilità del moto: differenze minime nelle condizioni iniziali del moto possono portare a risultati totalmente differenti; cause simili non portano necessariamente ad effetti simili. I sistemi caotici in modo deterministico presentano molti punti di instabilità dinamica. La
7
metafora per la sensibilità del moto che ne risulta è l’ “Effetto Farfalla” formulato in origine in relazione alla sensibilità della dinamica atmosferica (e dei suoi sistemi di simulazione) alle condizioni iniziali: nei sistemi di dinamica atmosferica estremamente instabili il battito delle ali di una farfalla in Brasile potrebbe provocare un tornado in Texas. La metafora si applica non solo a questioni di tempo atmosferico, ma in ogni caso di instabilità dinamica che si presenti in natura o in matematica. Il comportamento caotico è stato rilevato anche nei sistemi idrodinamici, negli oscillatori elettrici non lineari , in certi intervalli di parametri dei laser, nel rubinetto che gocciola, nelle reazioni dei sistemi chimici, nei sistemi di controllo fisiologico, e nella dinamica delle popolazioni biologiche. Sono state anche avanzate ipotesi sulla possibile importanza del caos deterministico nell’attività cerebrale durante il sonno, e sulla possibile utilità nella descrizione dello sviluppo del mercato e dello scoppio delle guerre. La causa di tutti questi fenomeni in cui la complessità trova espressione è un’intrinseca e dinamica auto-referenzialità che appare in diverse varietà. Queste varietà sono, per esempio, la non linearità delle equazioni fondamentali; feedback come meccanismo causale di base; o iterazioni e delle funzioni ricorsive negli algoritmi di base. Quali campi scientifici si dedicano alla ricerca del comportamento di sistemi complessi? Quali aree di ricerca riguardano le Scienze della Complessità? Il nocciolo delle Scienze della Complessità è costituito dalla Teoria dei Sistemi Dinamici, che forma parte della matematica pura. L’oggetto della Teoria dei Sistemi Dinamici è in primo luogo e soprattutto il comportamento dei sistemi di equazioni differenziali e, in seconda istanza, qualunque cosa possa essere trasformata in tali sistemi. Nello strato che circonda tale nocciolo, si trovano le applicazioni e le conseguenze dirette della Teoria dei Sistemi Dinamici nel contesto delle scienze empiriche. In questo ambito il concetto più importante è quello di “Caos Deterministico”: comportamento non periodico che si riscontra in sistemi deterministici. Alcuni sistemi caotici-deterministici hanno solo un numero molto limitato di gradi di libertà. Il che è un altro modo per affermare che questi sistemi possono essere descritti solo da un numero
8
molto limitato di equazioni. Il Caos Deterministico si verifica solo se almeno una di queste equazioni è non lineare. Esempi di comportamento sistemico che pare essere Caos deterministico si conoscono in quasi tutti i campi delle scienze empiriche. Un ulteriore e importante traduzione della Teoria dei Sistemi Dinamici nelle scienze empiriche si trova nella dinamica dei Sistemi Hamiltoniani non lineari che riguarda il contesto della meccanica classica. Ancora un passo oltre il nocciolo delle Scienze della Complessità, all’interno del loro spettro di ricerca, si trova l’indagine di sistemi che possono essere considerati come generalizzazioni più distanti di quelli descritti dalla Teoria dei Sistemi Dinamici. Il caso più importante è quello della dinamica complessa nei sistemi definiti su griglie o reti, conosciuti come Automi Cellulari e Reti Neurali. Più o meno alla stessa distanza dalla zona del nocciolo si trovano strumenti e concetti collegati al concetto di complessità, come per esempio la geometria frattale. Parte delle Scienze delle complessità formano anche differenti teorie ed approcci alla auto-organizzazione: La termodinamica Non Lineare degli Stati di Non Equilibrio di Prigogine, la Sinergetica di Haken, la Teoria della Auto-Organizzazione Molecolare di Eigen, il concetto di Autopoiesis di Maturana e Varela, e i modelli cibernetici di auto-organizazione. Di queste teorie, almeno le prime due possono essere ricostruite in generale in base al linguaggio della Teoria dei Sistemi Dinamici, ma normalmente si servono di un loro proprio linguaggio. Dal punto di vista storico si potrebbe delineare uno sviluppo delle ricerche sulla complessità relativamente recente. Oggi la rapida diffusione delle Scienze della Complessità può dare l’impressione che la ricerca riguardante i fenomeni complessi sia iniziata 20 o 25 anni fa. Si tratta di un’illusione. Per rintracciare le origini delle Scienze della Complessità bisogna risalire a più di cent’anni fa. Le origini della ricerca si trovano nel contesto della Meccanica Classica e nella sua visione meccanicista e riduzionista del mondo, che dominava la fisica alla fine del XIX° secolo. La sua caratteristica fondamentale è un forte concetto lineare di causalità:
9
il determinismo classico assume come tesi l’idea che identici effetti hanno cause identiche. La forma forte di causalità data per scontata all’interno della meccanica classica, implica altre due assunzioni: la prima che effetti simili abbiano cause simili; e la seconda che principi di base semplici o semplici equazioni di base portino naturalmente a forme altrettanto semplici di comportamento dinamico. Queste assunzioni derivate da un concetto forte di causalità sono corrette per sistemi lineari. La linearità (e il Principio di Superposizione derivato) era uno dei paradigmi centrali della meccanica classica, che fu disciplinato matematicamente con metodi algebrici ed analitici. Quasi tutti gli esempi che si trovano nei libri di testo di meccanica classica riguardano sistemi lineari. I fisici sapevano della non esistenza dei sistemi non lineari; ma tutti li consideravano delle strane eccezioni alla regola, come casi che probabilmente sarebbero stati sussunti alla regola nel corso di sviluppi futuri. Per la meccanica classica tutto sarebbe filato liscio come l’olio se non ci fossero state ancora delle questioni aperte che rappresentavano la radice di problemi che avrebbero trovato la loro definitiva soluzione settant’anni più tardi. Una delle questioni era la stabilità del sistema solare: i corpi del sistema solare rimangono uniti nella forma del moto periodico? O il moto del sistema solare è non periodico in senso stretto e, un giorno o l’altro, può capitare che uno o più corpi abbandonino il sistema solare? Tra il 1770 e il 1870, Laplace, Lagrange, Poisson e Dirichlet avevano già tentato senza successo di risolvere il problema. Non erano nemmeno riusciti a rispondere al quesito dei tre corpi, un sistema di tre corpi legati esclusivamente dall’interazione gravitazionale. La descrizione nomologica di entrambi i sistemi è data da sistemi non lineari di equazioni differenziali. La loro soluzione non è assolutamente banale. All’inizio dell’ultimo quarto del XIX° secolo, all’interno della fisica classica, emersero i primi ben fondati dubbi sulla validità della visione deterministica del mondo. Fu James Clerk Maxwell, che pensò per la prima volta alla possibilità di sistemi con traiettorie dinamicamente instabili. Nel suo libro “Matter and Motion”, pubblicato nel 1877, si trova il seguente suggerimento: [...ma ci sono altri casi in cui una piccola variazione iniziale può produrre enormi cambiamenti nello stato
10
finale del sistema …]. Nei primi anni ottanta del XIX° secolo la disputa sulla stabilità del sistema solare era così virulenta che nel 1885 Re Olaf II di Svezia annunciò su ‘Acta Mathematica’ una competizione il cui premio sarebbe andato a chi avrebbe risposto alla seguente domanda: “Per un sistema arbitrario di punti dotati di massa (mass points) che si attraggono l’un l’altro in accordo con le leggi di Newton, assumendo che due punti qualunque non collidano mai, dare le coordinate dei punti individuali per tutti i tempi come somma di una serie uniformemente convergente i cui termini siano costituiti da funzioni conosciute.” In parole più semplici: È possibile rappresentare la soluzione del problema dei molti corpi in termini di una serie convergente di funzioni (analitiche) conosciute? Heinrich Bruns cercò di risolvere il problema negli anni seguenti. Nel 1887 fece una sorprendente scoperta: differenze minime nelle condizioni iniziali definiscono la stabilità o l’instabilità dinamica del sistema. Nonostante ciò, non fu Bruns ma Henri Poincaré che, nel 1889, vinse il premio offerto da Olaf II. Egli fornì la prova matematica definitiva della non integrabilità del problema dei tre corpi. La non integrabilità è una caratteristica del sistema più severa della non linearità della descrizione matematica. È l’integrabilità di un Sistema Hamiltoniano che garantisce l’esistenza di una soluzione analitica e la sua stabilità dinamica. Il concetto di integrabilità è stato della massima importanza per il Formalismo di Hamilton-Jacobi della meccanica classica. Integrabilità significa che c’è un numero sufficiente di costanti di moto, tale per cui per ogni variabile del sistema esiste una costante di moto. Il Formalismo di Hamilton-Jacobi consiste in un metodo di separazione delle variabili basato su una specifica scelta di coordinate. All’interno del formalismo la separazione delle variabili è la via che conduce a una soluzione analitica del corrispondente sistema di funzioni differenziali. Il risultato della separazione delle variabili è dinamica non accoppiata (dynamics decoupled) per i singoli gradi di libertà. Lo spaiamento (decoupling) è dato per principio per tutti i sistemi lineari, per tutti quei sistemi la cui descrizione matematica consiste esclusivamente di equazioni differenziali lineari. Tali sistemi lineari
11
sono già non accoppiati nella loro rappresentazione matematica nei loro differenti gradi di libertà. Così il Formalismo di Hamilton-Jacobi è basato su un metodo con cui un sistema non lineare viene trasformato in coordinate in cui appare come un sistema lineare. Una trasformazione adeguata all’interno del Formalismo di Hamilton-Jacobi è la trasformazione in quelle variabili in cui il sistema appare linearizzato. Lo spaiamento dei gradi di libertà equivale a una linearizzazione, una trasformazione in variabili linearizzate. Ma questa trasformazione di spaiamento, questa separazione di variabili, questa linearizzazione, non è possibile per tutti i sistemi non lineari. Il Formalismo di Hamilton-Jacobi ha successo solo per quei sistemi non lineari che sono integrabili. Solo per i sistemi integrabili, solo per quei sistemi con un numero sufficiente di costanti di moto si possono trovare delle coordinate adeguate alla separazione delle variabili. Per i sistemi non integrabili la separazione delle variabili è impossibile. Solo i sistemi lineari non integrabili possono essere trasformati in una rappresentazione matematica linearizzata con gradi di libertà spaiati. I sistemi non lineari non integrabili non possono essere linearizzati in alcun modo. Carl Gustav Jacob Jacobi, sviluppò il Formalismo di HamiltonJacobi, era a conoscenza del problema che questa tecnica matematica della Meccanica Hamiltoniana presentava nel caso dei sistemi non integrabili ma supponeva erroneamente che i sistemi non integrabili fossero un’eccezione nell’ambito della meccanica. Per un certo periodo di tempo i suoi successori rimossero completamente il problema, forse accecati dall’eleganza matematica del formalismo, finché Poincaré non fece la sua scoperta. La distinzione importante non è quella tra sistemi lineari e non lineari, ma tra sistemi che possono essere trasformati in lineari e sistemi che non possono esserlo. E questa seconda distinzione è identica a quella tra sistemi integrabili e non integrabili. Oggi sappiamo che i sistemi integrabili sono l’eccezione mentre il caso generale è rappresentato dai sistemi non integrabili. Alla fine del XIX° secolo invece erano considerati come casi estremamente rari. A causa della sua non integrabilità di principio, un sistema costituito da tre corpi legati dalla gravità non presenta necessariamente una stabilità dinamica per tutte le condizioni iniziali.
12
Infatti, Poincaré e Bruns trovarono espliciti casi di instabilità dinamica e scoprirono inoltre che differenze minime nelle condizioni iniziali portano alla stabilità o all’instabilità. Una delle implicazioni dell’instabilità è appunto il fatto che il comportamento dinamico è sensibile alla condizioni iniziali. Minime variazioni portano a differenze significative nel moto. Così, dieci anni più tardi, si ebbe la prova che l’ipotesi di Maxwell era corretta. Nel periodo successivo, tra il 1890 e il 1912, Poincaré fu il protagonista principale dell’indagine sulle di dinamiche complesse nel contesto della meccanica classica. Lo scienziato sviluppò nuovi metodi qualitativi e non analitici per la descrizione di Sistemi Hamiltoniani non integrabili. Dall’anno della morte di Poincaré, il 1912, George David Birkhoff portò avanti il lavoro dello scienziato francese fino al 1940. Con lui, l’oggetto della sua ricerca si spostò dal contesto della fisica matematica a quello della matematica pura ed ebbe un proprio nome: “Teoria dei Sistemi Dinamici”. I problemi che avevano condotto alla scoperta di instabilità del moto nei sistemi meccanici non integrabili, anche se trovano la loro origine nel contesto della fisica, erano di natura matematica. Risultavano semplicemente da un’incompleta conoscenza delle potenzialità strutturali e dinamiche dei modelli matematici utilizzati nel contesto della fisica. Inoltre, il fatto che la ricerca sulle dinamiche complesse fosse confinata nell’ambito della matematica pura, può essere attribuito ad altri due fatti: primo, Poincaré era contemporaneamente un matematico, un fisico, un meteorologo, ed altro ancora, ma il tempo dell’erudizione universale era terminato con la sua morte. La quantità e la complessità della conoscenza delle discipline scientifiche riconosciute conduceva al primo stadio della specializzazione. Dopo Poincaré gli studi accademici dovevano essere indirizzati verso una sola disciplina. Birkhoff, per esempio, era probabilmente un genio matematico, ma era solo un matematico. In secondo luogo la fisica teorica della prima metà del secolo era quasi totalmente impegnata nello sviluppo di quelle ricerche che avrebbero portato alle teorie della relatività, della meccanica quantistica, alle teorie quantistiche del campo e, più tardi, al
13
problema dell’unificazione delle forze. Gli strani casi di instabilità dinamica nei Sistemi Hamiltoniani non integrabili, non suscitavano l’attenzione di molti fisici. Era un problema che riguardava la vecchia fisica classica. Ma, anche se la ricerca sui prerequisiti di dinamiche complesse, irregolari, instabili in sistemi relativamente semplici di equazioni differenziali erano confinati quasi esclusivamente nel contesto della matematica pura, lontano dai contemporanei sviluppi della fisica, erano le scienze empiriche, e in particolare proprio la fisica, che continuavano a dare alla matematica ulteriori motivi per continuare la ricerca sulla dinamica complessa. I maggiori stimoli alla ricerca su base matematica continuavano ad arrivare dalla fisica classica, in particolare dai problemi di meccanica celeste, come pure dalla Teoria degli Oscillatori che in quegli anni aveva una speciale importanza per lo sviluppo dell’ingegneria elettrica. Infine, durante gli anni sessanta, Edward Norton Lorenz, un meteorologo americano, ma prima ancora matematico, utilizzò uno dei primi sistemi per computer per investigare dei sistemi di simulazione per la dinamica atmosferica. I suoi risultati furono quantomeno sorprendenti: un semplicissimo e rudimentale sistema di simulazione a tre sole variabili si era rivelato un caso estremo di dipendenza della dinamica dalle condizioni iniziali. La scoperta, più o meno casuale, non fu notata dalla comunità scientifica prima del 1972 o del 1975, poiché Lorenz pubblicò i suoi risultati nel Journal of the Atmospheric Sciences, rivista non molto letta dai matematici che altrimenti si sarebbero interessati prima a questa scoperta. Più tardi quando il suo articolo era ormai diventato un classico, il fenomeno della estrema dipendenza e suscettibilità del moto alle condizioni iniziali fu chiamato “Effetto Farfalla”, prendendo spunto da un esempio fatto da Lorenz durante una conferenza: nei sistemi estremamente instabili di dinamica atmosferica, una farfalla che batte le ali in Brasile potrebbe provocare un Tornado in Texas. Nei cinque anni tra il 1970 e il 1975 le diverse linee di sviluppo della ricerca si fusero e prese piede il fenomeno interdisciplinare che ho introdotto come Scienze della Complessità. Il solo 1975 vide il verificarsi di un gran numero di eventi che si rivelarono di grande importanza. Ne citerò solo due: Benoit Mandelbrot definì
14
ciò che intendeva per “frattali”: strutture geometriche con dimensioni non intere e auto-simililarità annidate all’infinito. Tien-Yien Li e James Allen Yorke applicarono l’espressione “Caos” al comportamento irregolare e instabile di sistemi matematici semplici. Il nuovo campo di indagine prese forma e divenne visibile alle diverse comunità e discipline all’interno delle scienze empiriche. Gli anni tra il 1975 e il 1980 possono essere considerati come un periodo di consolidamento delle Scienze della Complessità favorito dal moltiplicarsi delle conferenze su questo tema. I matematici, i fisici, i chimici i biologi e persino i sociologi, si interessarono al nuovo campo di ricerca. Con l’aiuto di questi concetti, scoprirono il terreno comune alle loro discipline. Questo terreno comune aveva soprattutto il carattere di modello teorico e ora poteva essere identificato almeno parzialmente con alcuni concetti della complessità, dell’irregolarità e del caos che furono riscoperti nella dinamica dei sistemi più diversi. Fu pubblicata la prima rivista dedicata al fenomeno della complessità: Physica D – Nonlinear Phenomena. Si rivelarono anche di grande importanza alcune tendenze all’unificazione concettuale come quella che interessava la ricerca e il dibattito per una misura universale, e al contempo praticabile, della complessità. Tale dibattito continua ancor oggi senza aver raggiunto alcun risultato definitivo. Dal 1980 si assiste ad una continua espansione interdisciplinare e a una costante divulgazione. Si sono tenute moltissime conferenze. Sono stati pubblicati i primi libri di testo, le prime antologie e i primi testi di divulgazione. Sono nate anche nuove riviste. Contemporaneamente, dall’interno della comunità scientifica sono emersi i primi dubbi su un’eccessiva espansione dei concetti di complessità nel panorama interdisciplinare. Una importante teoria sviluppatasi recentemente prende il nome di teoria dei sistemi dinamici e assume una notevole importanza nei modelli teorici matematici delle scienze empiriche. La Teoria dei Sistemi Dinamici è, come mostra lo sviluppo storico delle Scienze della Complessità, della massima rilevanza per la teoria modello, e quindi per le scienze empiriche: le scienze empiriche, in particolare modo le scienze naturali cosiddette esatte (e più di ogni altra la fisica), si servono per la modellizzazione dei
15
sistemi naturali di un metodo matematico basato quasi esclusivamente su sistemi dinamici continui: cioè su sistemi di equazioni differenziali. La matematica d’altra parte, e soprattutto la Teoria dei Sistemi Dinamici, ci permette di conoscere il comportamento delle soluzioni di questi sistemi di equazioni differenziali. Ciò significa che, se un sistema naturale è modellato in modo adeguato da un sistema di equazioni differenziali, la matematica può fornire alle scienze empiriche gli strumenti per una descrizione che contenga ogni possibile comportamento di tale sistema naturale. Perciò l’analisi matematica dei modelli strutturali costituisce la base per l’applicazione di tali modelli nel contesto delle scienze naturali. Ma solo se l’analisi matematica di una specifica classe di modelli strutturali ci fornisce una conoscenza completa del possibile comportamento della classe di modelli, è possibile ottenere una conoscenza completa della potenzialità dinamica dei sistemi naturali modellati. Proprio per questa relazione, i concetti matematici e il loro sviluppo sono di importanza fondamentale per gli aspetti determinati da un modello teorico delle scienze empiriche. Lo sviluppo delle Scienze della Complessità fornisce alla teoria del modello e alla filosofia della scienza uno dei migliori esempi di forme e modi di interazione tra scienze strutturali e scienze empiriche, in particolare tra matematica e fisica. Introdurrò ora un concetto e una distinzione che ritengo importanti per rispondere alla domanda: le Scienze della Complessità sono davvero una rivoluzione scientifica? Il concetto è quello di “scienze strutturali” e la distinzione è quella tra scienze strutturali e scienze empiriche. Per scienze strutturali intendo, in opposizione alle scienze empiriche, tutte quelle scienze il cui oggetto sono le strutture astratte. Il prototipo di tali scienze è la matematica. La matematica può, in una concezione estremamente ampia, comprendere la totalità delle scienze strutturali. Ma, in senso più stretto, si considerano scienze strutturali anche la teoria dell’informazione e la cibernetica. Le scienze empiriche descrivono sistemi naturali reali, sistemi mentali reali, e forse anche altri sistemi reali. I sistemi reali sono strutturati. Se le loro strutture non possono essere descritte in linguaggio semplice, perché sono troppo complicate o troppo
16
specifiche, le scienze empiriche si servono del linguaggio della matematica. Applicano gli strumenti che provengono dallo spettro delle possibilità strutturali sviluppate dalla matematica. Quindi, gli sviluppi delle scienze strutturali sono della massima importanza per le scienze empiriche dal momento che si servono di un linguaggio matematico. Un progresso nello sviluppo degli apparati delle scienze strutturali significa un ampliamento della possibile esattezza e dell’ambito delle descrizioni date all’interno delle scienze empiriche. Una prospettiva più ampia dello sviluppo delle scienze naturali moderne durante i pochi secoli della loro esistenza mostra che tale sviluppo non è affatto uniforme. Si rilevano, da una parte, delle fasi più o meno stabili di sviluppo all’interno delle singole discipline scientifiche e, dall’altra, eventi o cambiamenti di procedura che possono essere descritti come cambiamenti scientifici radicali relativamente ai fondamenti concettuali. Il verificarsi all’interno della scienza di cambiamenti radicali ha bisogno di una spiegazione più dettagliata. Il modello proposto da Thomas Kuhn che ha lo scopo di spiegare tali rivolgimenti concettuali all’interno della scienza, è stato esposto nel suo libro del 1962, “The Structure of Scientific Revolutions”. Il modello di Kuhn si riferisce esclusivamente ai cambiamenti che si verificano all’interno delle scienze empiriche. È rilevante soprattutto per le scienze naturali. Descrive esclusivamente i processi di transizione all’interno di sotto-aree di discipline scientifiche ben costituite: i processi di transizione all’interno di sotto-discipline. I processi descritti dal modello fanno parte di una dinamica di medio o lungo periodo di piccoli gruppi, più o meno isolati, di scienziati. I cambiamenti scientifici che Kuhn descrive nel suo modello prendono forma specifica nel susseguirsi di una sequenza di stadi distinti. Il punto di partenza è una fase di sviluppo piuttosto continua. È lo stato quasi stabile esterno ai veri sviluppi rivoluzionari. Questo sviluppo senza sobbalzi viene chiamato da Kuhn “scienza normale”. Le sotto-discipline scientifiche, seguendo Kuhn, nel loro stato di scienza normale sono caratterizzate da specifici “paradigmi”. Con questa espressione Kuhn intende, da una parte, la concezione di base della scienza e della
17
natura, la concezione fondamentale del mondo, la “visione del mondo”, che dà forma e tiene unita la comunità scientifica che ad esso fa riferimento. Il paradigma trova la sua espressione negli obiettivi scientifici della stessa comunità, nei libri di testo e nelle pubblicazione originali considerate “classiche”. Forma il quadro generale del contesto delle procedure attive all’interno della comunità scientifica. D’altra parte, Kuhn intende con “paradigma” un particolare esemplare. Si può trattare di esperimenti tipici e di attrezzatura sperimentale, importanti esperimenti mentali, o specifici elementi teorici o concettuali. Un paradigma in questo secondo senso viene utilizzato più volte per riferirsi in modo rappresentativo al paradigma fondamentale a cui si riferisce il primo significato del termine. Viene utilizzato all’interno della comunità scientifica per riferirsi alla propria visione del mondo. Una rivoluzione scientifica è secondo Kuhn, la transizione da un paradigma fondamentale a un altro. La transizione segue uno schema che, come mostra Kuhn nella sua analisi, può essere generalizzato a diverse “Rivoluzioni Scientifiche” che si sono verificate durante la storia della scienza. Tutte le rivoluzioni scientifiche, sempre secondo Kuhn, seguono questo schema. Quando ancora ci si trova nel contesto della scienza normale, la transizione viene segnalata da anomalie che si verificano all’interno del vecchio paradigma. Le anomalie possono essere dati empirici non spiegabili o interpretazioni ambivalenti causate da nuovi dati empirici. Il verificarsi di anomalie è il segnale di seri problemi che affliggono le teorie esistenti nel campo scientifico. I metodi che vengono suggeriti per la soluzione di tali problemi vanno oltre il contesto del vecchio paradigma. Un numero sempre crescente di anomalie e l’aumentare della loro resistenza a strategie di soluzione coerenti con il vecchio paradigma portano a una crisi della scienza normale. La crisi dà il via alla fase di transizione, una fase di sviluppo anomalo e straordinario che, secondo Kuhn, è caratterizzata da nuovi approcci concettuali e da nuove teorie il cui nascere è stimolato dal verificarsi delle anomalie. Nuovi approcci e nuove teorie entrano in competizione durante la stessa fase di sviluppo anomalo. Alla fine di questa fase di sviluppo e competizione, dopo
18
qualche anno o qualche decennio, emerge vittoriosa una nuova corrente di pensiero concettuale. A sua volta il nuovo paradigma dominerà le sotto-discipline, e si manifesterà in un crescente numero di articoli pubblicati, che modelleranno e daranno forma a loro volta al nuovo paradigma. Si manifesterà inoltre in monografie che indagheranno le implicazioni del nuovo paradigma, in nuove riviste, fondate esclusivamente per promuovere le idee del nuovo contesto concettuale, e in libri di testo che presenteranno il nuovo quadro scientifico. Un numero sempre maggiore di scienziati delle sotto-discipline in questione lavoreranno nel contesto del nuovo paradigma che troverà una sempre maggiore collocazione in ambito istituzionale. Ma soprattutto gli scienziati più giovani non proveranno alcuna attrazione per il vecchio paradigma, poiché la loro istruzione scientifica avrà avuto luogo durante la straordinaria fase di sviluppo e competizione delle nuove teorie. Gli scienziati più anziani raramente si convertiranno al nuovo paradigma ma rimarranno perlopiù all’interno del vecchio contesto. Così, la transizione di paradigma, la rivoluzione scientifica, prende piede con il ricambio generazionale. Anche la formazione delle scienze della complessità si presenta come rivoluzione nel contesto dei fondamenti scientifico-strutturali delle scienze empiriche. Anche a prima vista ci sono molti fatti che rendono quantomeno discutibile l’applicabilità del modello di Kuhn allo sviluppo delle Scienze della Complessità: Le Scienze della Complessità formano un campo non omogeneo di indagine. Esse non appartengono a una specifica sotto-area interna a una disciplina scientifica ben stabilita. Questo sviluppo non è nemmeno avvenuto all’interno di una singola disciplina delle scienze empiriche. Si è svolto invece in un ambito interdisciplinare, in cui hanno partecipato diverse scienze empiriche tanto quanto la matematica, concepita come il prototipo delle scienze strutturali. Non ha riguardato una comunità scientifica, piccola, più o meno isolata, e uniforme o almeno ben definita. Gli scienziati in questione lavoravano in parte isolati e in parte in piccoli gruppi. Appartenevano a diverse discipline scientifiche, alcune delle quali erano state costituite solamente durante il periodo di indagine sul fenomeno del comportamento
19
dei sistemi complessi. Il campo interdisciplinare in questione è stato riorganizzato frequentemente durante l’emergere delle Scienze della Complessità. E non è nemmeno possibile tracciare per ogni momento una netta distinzione tra le discipline coinvolte nello sviluppo di queste nuove scienze. La rivoluzione scientifica che ha come effetto finale la nascita delle Scienze della complessità non è un cambiamento radicale interno al contesto di una disciplina o di una sotto-disciplina delle scienze empiriche, almeno nel senso descritto dal modello di Thomas Kuhn. Piuttosto è, fondamentalmente, un cambiamento concettuale di vasta portata interno ai fondamenti scientificostrutturali di quasi tutte quelle scienze empiriche che si servono dei sistemi dinamici nel senso matematico, come modello base per le loro teorie. Solo se si tiene conto del cambiamento scientifico-strutturale di base, è possibile rintracciare qualche cosa che assomiglia a un gruppo di conseguenze della Rivoluzione Scientifico-Strutturale che si sono verificate all’interno delle scienze empiriche. Solo queste conseguenze di un cambiamento scientifico-strutturale precedente possono in parte essere comprese all’interno del modello Kuhniano. In questa approssimazione, abbiamo come punto di partenza della scienza normale la situazione della fisica classica, in particolare della meccanica classica, alla fine del XIX° secolo. Il paradigma di partenza, per usare la terminologia di Kuhn, consisteva nei concetti di linearità delle relazioni dinamiche e di causa, nella combinazione di determinismo e causalità forte, e nella stabilità del moto come caso generale presupposto per i sistemi dinamici. Le anomalie che si verificarono all’interno di questo paradigma di partenza consistevano, soprattutto, nella scoperta di forme completamente inattese di comportamento irregolare casuale, e instabile di sistemi dinamici piuttosto semplici. Queste anomalie, come oggi sappiamo, furono considerate anomalie solo a causa di un’insufficiente conoscenza delle implicazioni matematiche dei modelli utilizzati nelle teorie della meccanica classica. Queste anomalie, dopo un lungo processo di sviluppo di circa settant’anni, portarono a nuove intuizioni sul possibile comportamento dei sistemi dinamici. Questo processo non è
20
assolutamente riconducibile al modello di Kuhn secondo il quale ci si dovrebbe aspettare una fase di sviluppo e attività scientifica straordinaria e fuori dalla norma, e una prolungata fase di competizione tra alcune possibili soluzioni ai problemi indicati dalle anomalie. Ma questo non si è verificato. In seguito al periodo di settant’anni che contraddice l’analisi di Kuhn, è emerso qualcosa di simile a un nuovo paradigma i cui elementi caratteristici consistevano fondamentalmente nella possibilità e nell’abbondanza delle instabilità di moto e dei fenomeni di biforcazione, nel Caos Deterministico, nelle strutture frattali, e nei diversi fenomeni di auto-organizzazione. Questi caratteristici elementi del nuovo paradigma avevano due implicazioni, entrambe di grande rilevanza filosofica. La prima è una forma di causalità piuttosto debole: cause simili possono avere effetti totalmente differenti; cioè non conducono necessariamente a effetti simili. Il nuovo paradigma viene rappresentato dai sistemi che mostrano un comportamento dinamico che mostra una sorprendente sensibilità al movimento, una dipendenza del comportamento dinamico estremamente sensibile alle condizioni iniziali. E, sempre sorprendentemente, questa sensibilità è compatibile con il determinismo; è compatibile con una base nomologica del sistema totalmente deterministica. La seconda implicazione è una forma epistemologicamente debole di determinismo: un’inesattezza infinitesima nella conoscenza delle condizioni iniziali e dei parametri del sistema porta, nel caso di sistemi sensibili al moto, a una grande inesattezza della conoscenza del comportamento futuro del sistema; ed è assolutamente impossibile conoscere le condizioni iniziali della dinamica del sistema per misurazione. L’inesattezza della predizione per i sistemi caotici, calcolata sulla base di una descrizione nomologica conosciuta del sistema e alla pre-condizione di condizioni iniziali misurate, aumenta con l’arco temporale della predizione. Anche il comportamento futuro di sistemi deterministici, se mostrano la sensibilità al moto che mostrano i sistemi caotici, è in un certo qual senso non calcolabile. Anche se il sistema è totalmente deterministico e anche se la descrizione nomologica del sistema e completamente conosciuta senza alcun dubbio, il futuro del sistema non è calcolabile se il sistema è
21
caotico nella sua dinamica. Il Caos Deterministico forma un limite epistemologico per la predizione della natura. È possibile localizzare la causa ultima di questa forma di comportamento del sistema e delle sue implicazioni filosofiche: è la non linearità delle equazioni di base che causa questa forma di comportamento complesso anche nei sistemi nomologicamente piuttosto semplici. Ma, anche se le implicazioni filosofiche del nuovo paradigma sono della massima importanza per la nostra concezione della natura e per la sua descrizione scientifica, il quadro dei due paradigmi isolati, la sostituzione del determinismo classico e della causalità forte con la causalità debole e la conseguente forma di determinismo debole, non ci dice molto a proposito della transizione, del processo e dello sviluppo che ha permesso il passaggio dal vecchio al nuovo paradigma. Una ricostruzione dello sviluppo delle scienze della Complessità, nella forma di transizione paradigmatica come la descrive Kuhn, non è molto convincente. Come abbiamo visto ignora gli elementi più interessanti del processo di sviluppo, vale a dire la transizione dalle prime anomalie al “nuovo paradigma”. All’interno di una ricostruzione orientata prevalentemente agli sviluppi storici e alle loro specifiche motivazioni, possiamo vedere con più chiarezza come la realtà si discosti dal modello Kuhniano. Sono proprio gli elementi che si discostano dal modello di Kuhn a giustificare l’emergere delle Scienze della Complessità come cambiamento radicale all’interno dei fondamenti scientifico strutturali delle scienze empiriche e che legittimano l’uso dell’etichetta “Rivoluzione ScientificoStrutturale”. Come abbiamo già visto le anomalie verificatesi nell’ultimo decennio del XIX° secolo non hanno condotto a una crisi nei principali campi delle scienze empiriche. Né hanno portato a una fase di competizione tra approcci concettuali diversi all’interno delle stesse. Non c’è stato alcun successivo processo interno alla disciplina scientifica in cui le anomalie si sono verificate. Invece della fase di sviluppo fuori della norma predetta dal modello di Kuhn, abbiamo visto lo stabilirsi di una tradizione matematica dedicata all’indagine dei sistemi dinamici. E in matematica non si
22
è verificata alcuna competizione tra diversi approcci o diverse teorie. Ciò che è accaduto è piuttosto uno sviluppo costante dei nuovi strumenti teoretici (matematici) per una più estesa descrizione dei sistemi dinamici. Questo sviluppo costante sembra essere un segno tipico delle scienze strutturali e delle loro politiche metodologiche in contrasto con le modalità delle scienze empiriche. Se seguiamo il manifestarsi delle anomalie, gli scienziati che se ne occuparono consideravano il fenomeno principalmente come una carenza nei fondamenti matematici dei modelli applicati alle scienze empiriche. Era evidente che i problemi che si presentavano all’interno della meccanica classica avevano soprattutto un carattere scientifico-strutturale. Si trattava di problemi relativi ai modelli e i problemi non dipendevano dalle teorie delle scienze empiriche. Quindi la soluzione andava cercata nell’ambito della matematica. Alla fine degli anni sessanta, lo sviluppo dell’indagine sulla dinamica complessa, che stava ora riemergendo anche all’interno delle scienze empiriche, si protraeva ormai da un secolo, se teniamo conto degli inizi, vale a dire dalla scoperta delle prime anomalie fino alla costituzione di un “nuovo paradigma” putativo. Quasi cento anni, non una sola generazione come sostiene il modello di Kuhn, finché la nascita del “nuovo paradigma” si ebbe negli anni settanta. Quindi la terminologia di Kuhn è quantomeno discutibile. Il “nuovo paradigma” (o l’insieme dei “nuovi paradigmi”) che può essere caratterizzato dal concetti di non linearità, feedback dinamici, complessità, Caos Deterministico, frattali, autoorganizzazione e via dicendo, prese piede in pochi anni. Fu necessario un periodo di tempo di gran lunga inferiore a una generazione perché si costituisse. Dopo l’assenza di una “crisi” nel contesto delle scienze naturali in questione, e dopo la mancanza di una “fase di sviluppo straordinario della scienza” e la sua sostituzione con un processo di sviluppo lento e costante all’interno della matematica, non ci si può naturalmente attendere che i “tempi” regolari del modello di Kuhn venissero rispettati. La regolarità dei tempi è un prodotto dei meccanismi inerenti al cambiamenti dinamici che riguardano i componenti teorici e
23
concettuali delle scienze empiriche. Si rivela valida solo per quei cambiamenti che coinvolgono solo singole discipline o sottodiscipline delle scienze empiriche. Per i processi che si sviluppano all’interno delle scienze strutturali, i requisiti necessari a questi meccanismi non possono essere soddisfatti. Come la fase di iperattività scientifica è stata sostituita da un prolungato e costante progresso all’interno delle scienze strutturali, così per le discipline delle scienze empiriche di nuovo coinvolte le cose cominciarono ad accelerare al termine di questa fase di lento sviluppo. O, almeno, cominciarono ad accelerare relativamente a quanto ci si sarebbe potuto attendere seguendo il modello di Khun. Durante gli anni settanta, il campo fu dominato dalla crescente efficacia delle nuove intuizioni nella base dei modelli delle scienze empiriche. Le nuove intuizioni sviluppatesi lentamente vennero ora assimilate rapidamente e aumentarono altrettanto rapidamente la propria sfera di influenza. Questi due processi distinti e sequenziali di cambiamento dinamico all’interno di due differenti settori della scienza costituiscono una delle principali differenze con il modello di Kuhn che descrive esclusivamente una transizione radicale interna ai fondamenti concettuali e teoretici di una disciplina empirica. Una rivoluzione Scientifico-Strutturale non è, come si vede, una rivoluzione interna alla sola matematica; è una rivoluzione che riguarda la base scientifico-strutturale delle scienze empiriche e le sue implicazioni sui modelli. E le nuove intuizioni non hanno indotto dei cambiamenti nei modelli teorici base di una sola disciplina delle scienze empiriche; ma si tratta della totalità di quelle discipline che applicavano i modelli corrispondenti. La tendenza a collegarsi di un crescente numero di sottodiscipline nell’ultima fase empirico-scientifica è stata estremamente importante per l’emergere delle scienze della Complessità. Un tale processo di integrazione di rete ha rilevanza solo in un campo interdisciplinare. Proprio per questo motivo si pone fuori dall’ambito del modello Kuhniano. È così sorprendente trovare dei rudimentali parallelismi con il modello di Kuhn per l’ultimo stadio dello sviluppo: all’inizio degli anni ottanta, il nuovo paradigma si era già costituito all’interno delle scienze empiriche. Le Scienze della Complessità
24
iniziarono una fase di consolidamento, una nuova fase di “scienza normale”, se continuiamo a utilizzare la terminologia del modello di Kuhn che non è in grado di descrivere il nuovo paradigma. I processi interni alle scienze empiriche dominarono lo sviluppo durante la costituzione, il consolidamento e la sistematizzazione dei nuovi concetti di complessità. Le conferenze interdisciplinari dedicate all’indagine empirico scientifica dei fenomeni complessi alla fine superarono di numero quelli matematici nel campo della Teoria dei Sistemi Dinamici. Crebbe rapidamente il numero degli articoli dedicati ai nuovi concetti e crebbe pure il numero degli scienziati coinvolti. Furono fondate riviste speciali e istituzioni dedicate solo all’indagine sulla complessità e furono pubblicati nuovi libri di testo. La divulgazione della complessità come argomento scientifico divenne sempre più importante. La teoria della complessità nasce dunque per cercare di rispondere alle domande che le anomalie riscontrate nel contesto delle scienze empiriche avevano sollevato. Ma la complessità è una caratteristica che è stata sempre presente ovunque nel mondo fenomenologico e più che una vera e propria rivoluzione scientifica lo sviluppo della scienza della complessità costituisce una riscoperta della varietà della realtà che per un certo periodo sembrava potesse essere ricondotta a poche e semplici equazioni che i fisici magistralmente avevano formulato soprattutto all’interno della meccanica classica. È dunque per affrontare l’esplosione di possibilità che le inevitabili equazioni non lineari impongono che i fisici prima, i matematici, i biologi, gli informatici poi, hanno cercato di sviluppare modelli consoni ad affrontare il difficile compito di rendere ragione della varietà osservabile nel mondo dovuta, in particolare, alla complessità dei fenomeni naturali. In particolare gli informatici hanno accettato questa sfida con particolare slancio sviluppando un potente paradigma di elaborazione delle informazioni, il calcolo parallelo distribuito.
25
I sistemi complessi I sistemi complessi sono un settore di ricerca straordinariamente affascinante: essi sono universalmente diffusi, non solo in fisica e chimica, ma anche in biologia, in economia e nelle scienze sociali. La scienza della complessità affronta anche domini che hanno a lungo frustrato i tentativi di descrizione quantitativa rigorosa: ad esempio in economia sono in corso importanti sviluppi legati alla possibilità di simulare l’interazione fra agenti che vengono modellati in maniera tale da rinunciare alle irrealistiche ipotesi dell’economia classica, come ad esempio quella di comportamento perfettamente razionale. Le principali caratteristiche che sono state associate alla complessità riguardano la presenza di numerosi elementi interagenti, la non linearità delle interazioni, la comparsa a livello globale di proprietà emergenti prive di un analogo microscopico, e non ultima la capacità di auto-organizzazione. Ognuno di questi aspetti meriterebbe di essere approfondito, ma è opportuno sottolineare che una caratteristica comune ai sistemi che consideriamo complessi è la possibilità di amplificare un piccolo fenomeno locale portando tutto il sistema in uno stato qualitativamente nuovo. Si pensi ad esempio ad una transizione di fase come quella da acqua a ghiaccio, che avviene (a temperature inferiori al punto di congelamento) quando fluttuazioni locali danno origine ad una regione solida abbastanza grande da far sì che il guadagno in energia libera, associato alla formazione della fase solida, superi il costo energetico relativo alla formazione di una interfaccia fra le due fasi: questa regione risulta quindi stabile e funge da nucleo di condensazione per ulteriori accrescimenti, mentre una analoga regione solida, di dimensioni inferiori, sarebbe condannata alla scomparsa. La sorte macroscopica del sistema è comunque definita: abbassando la temperatura, prima o poi la transazione acqua → ghiaccio avrà luogo. Se non ci interessano i dettagli di questa
26
transizione, possiamo semplificare di molto la descrizione del sistema e trattarlo in maniera deterministica. In altri casi il comportamento macroscopico può invece dipendere proprio dalle caratteristiche di una fluttuazione locale che si manifesta nel momento in cui il sistema diventa instabile, e che finisce per definirne il destino (almeno fra un insieme di scelte possibili). Lo stato finale può dipendere dalle caratteristiche di piccole fluttuazioni locali che sono presenti nel momento in cui il sistema diventa instabile, e che arrivano a dominarne le caratteristiche macroscopiche. Naturalmente la descrizione del fenomeno contiene implicitamente una scelta particolare del livello di descrizione, e quindi di quali siano le variabili “rilevanti” e quali siano quelle trattabili come “fluttuazioni”; tale scelta corrisponde peraltro a quella naturale per un osservatore macroscopico del fenomeno. Un esempio famoso di amplificazione di piccoli disturbi è il cosiddetto effetto farfalla, la dipendenza sensibile dalle condizioni iniziali che si osserva in molti sistemi dinamici non lineari. I sistemi caotici sono infatti considerati complessi, sebbene essi possano anche avere pochi gradi di libertà: la nozione di complessità suggerita in questo caso comprende anche sistemi di questo tipo, che non potrebbero essere inclusi in una definizione di complessità che richiedesse la presenza di un gran numero di elementi interagenti. È importante osservare che la complessità di un sistema non ne è una proprietà intrinseca, ma si riferisce sempre ad una sua descrizione, e dipende quindi dalla scelta di un certo “punto di vista” ovvero dal modello utilizzato nella descrizione e dalle variabili che si ritengono rilevanti. Lo studio della dinamica dei sistemi complessi è reso oggi possibile dalla disponibilità di elevata potenza di calcolo dei moderni computer. Naturalmente, si tratta di una condizione necessaria ma non sufficiente: la pura forza computazionale non è sufficiente a risolvere alcun problema interessante, e la scienza dei sistemi complessi è venuta a maturazione in questi anni grazie ai progressi dei metodi sperimentali, che consentono di conoscere
27
nei dettagli il comportamento di numerosi sistemi fisici e biologici, e allo sviluppo di sofisticati strumenti concettuali, quali la dinamica non lineare, la meccanica statistica dei materiali disordinati, la sinergetica. Questi progressi sono stati potenziati dalla disponibilità di potenti calcolatori. Lo sviluppo scientifico è esso stesso un fenomeno complesso, e la presenza di queste interazioni non deve sorprenderci. In questo contesto il calcolatore parallelo non è solo uno strumento di simulazione, ma è esso stesso un modello concettuale e una sorgente di interessanti sfide intellettuali. Esiste un legame fra gli aspetti computazionali e gli aspetti teorici della scienza della complessità. Fin dalle origini della civiltà gli esseri umani hanno cercato di definire dei modelli della realtà circostante. La scienza e l’arte, fin dalle loro forme primitive, hanno sempre avuto insita in loro l’attività del modellare. Una delle principali motivazioni che stanno alla base della nascita e dello sviluppo dell’attività scientifica consiste nel trovare dei modelli semplici che possano spiegare e riprodurre quello che avviene in natura. Per questo motivo fin dai tempi dei Greci, i filosofi e gli scienziati hanno cercato di scoprire dei modelli matematici (teorie) che potessero essere usati per studiare i fenomeni naturali. Ad esempio Pitagora sosteneva che “il linguaggio segreto del creato sta tutto racchiuso nei numeri”. Lo studio dei modelli ha portato, in tutti i campi della scienza e della tecnica, enormi progressi con effetti di grandi miglioramenti in tutti i settori della società. La fisica di Galileo è stata un grande passo di sintesi esplicativa dei fenomeni naturali in cui l’esperimento costituisce la pietra miliare di verifica delle teorie che vengono utilizzate nella spiegazione dei fenomeni studiati. Ultimamente suscita grande interesse lo studio di modelli per i sistemi complessi, sistemi per i quali non è possibile utilizzare semplificazioni concettuali in grado di ricondurre il fenomeno in esame ad un modello semplice. I sistemi complessi sono quei sistemi dinamici con capacità di auto-organizzazione composti da un numero elevato di parti interagenti in modo non lineare che danno luogo a comportamenti
28
globali che non possono essere spiegati da una singola legge fisica. Esempi di sistemi complessi possono essere il sistema immunitario, un bosco in fiamme, il cervello umano, una comunità di persone che interagiscono tra loro, un flusso di veicoli su una rete autostradale. Il campo della scienza che si occupa di studiare e modellare questi sistemi è detto scienza della complessità. L’informatica, fin dalle sue origini, è stato un potente strumento per lo studio e la descrizione di sistemi complessi in tutti i settori della scienza e dell’ingegneria. La soluzione di problemi scientifici è stata, storicamente, una delle motivazioni principali per la realizzazione dei computer e rappresenta un settore applicativo di grande rilevanza che stimola la progettazione e la realizzazione di nuovi calcolatori ad architettura parallela ad elevate prestazioni. La realizzazione di modelli e la simulazione tramite calcolatore consente di fornire un laboratorio virtuale in cui possono essere studiati e risolti problemi complessi attinenti vari campi della scienza. Per molti anni è stato difficile studiare il comportamento dei fenomeni complessi perché i modelli usati per descriverli erano così difficili che la principale modalità computazionale usata, rappresentata dall’integrazione di equazioni differenziali, comportava tempi di calcolo estremamente elevati. Grazie ai calcolatori paralleli, i quali sono composti da più unità di elaborazione che in parallelo possono eseguire più programmi per risolvere più problemi contemporaneamente o per risolvere un singolo problema in un tempo minore, la potenza computazionale a disposizione si è accresciuta notevolmente. Inoltre sono emersi nuovi modelli di calcolo come gli automi cellulari, le reti neurali e gli algoritmi genetici, che rappresentano validi strumenti per la descrizione di fenomeni complessi. Un calcolatore può essere usato come un ambiente di sperimentazione tramite il quale si può studiare un fenomeno complesso, come l’evoluzione di alcune forme di vita o di un sistema composto da milioni di particelle e si può verificare il suo comportamento in base ai valori assunti dai parametri che lo caratterizzano.
29
Ovviamente la simulazione di un uragano non distrugge case e ponti, ma rappresenta un buon modello del fenomeno reale consentendo la misura e la previsione dei valori delle variabili ritenute significative. Un modello semplice ma molto potente che segue questo approccio è quello degli automi cellulari (AC). Secondo questo modello, un sistema viene rappresentato come composto da tante semplici parti ed ognuna di queste parti evolve conformemente ad una propria regola interna ed interagisce solo con le parti ad essa vicine. L’evoluzione globale del sistema emerge dalle evoluzioni di tutte le parti elementari. Un automa cellulare è un sistema dinamico discreto. Spazio, tempo e stati del sistema sono discreti. Ogni elemento dell’automa in una griglia spaziale regolare è detto cella e può essere in uno degli stati finiti che la cella può avere. Gli stati delle celle variano secondo una regola locale, cioè lo stato di una cella ad un dato istante di tempo dipende dallo stato della cella stessa e dagli stati delle celle vicine all’istante precedente. Gli stati di tutte le celle sono aggiornati contemporaneamente in maniera sincrona. L’insieme degli stati delle celle compongono lo stato dell’automa. Lo stato globale dell’automa evolve in passi temporali discreti. Grazie alla disponibilità dei sistemi di calcolo parallelo ad alte prestazioni è stato possibile simulare fenomeni complessi basati sul modello degli automi cellulari, sistemi fisici complessi che si prestano ad essere formulati in termini di un numero elevato di elementi interagenti solo localmente, sfruttando il naturale parallelismo che è presente nel modello degli automi cellulari. L’integrazione degli automi cellulari e del calcolo parallelo permette di ottenere un utile strumento per la definizione di algoritmi cellulari e la loro esecuzione efficiente per la simulazione di sistemi complessi. La scienza è una delle imprese più grandi e mirabili dell’umanità. I suoi enormi progressi sono stati resi possibili da importanti scuole di pensiero e di metodologia. Sin dalle sue origini più remote, l’uomo si è trovato dinanzi a un ambiente altamente complesso. E la natura stessa lo ha aiutato a tener testa
30
a questo ambiente attraverso un cervello che può trattare l’enorme quantità di informazione necessaria per sopravvivere. Possiamo dire che il nostro cervello è riuscito a condensare l’informazione in entrata sotto forma di alcuni dati decisivi, necessari per l’azione e la reazione. Ma in seguito l’uomo ha iniziato ad affrontare il suo ambiente in maniera più consapevole, proprio attraverso lo sviluppo della scienza. In particolare, nella fisica come in molti altri campi, ha potuto scoprire leggi di natura. La fisica Galileiana ha scoperto le sue leggi grazie ad esperimenti, reali o di pensiero, in cui vengono mutati soltanto pochi parametri: ad esempio l’altezza o il peso negli esperimenti sulla caduta dei gravi. A questa metodologia è associata la tendenza di ricercare elementi semplici attraverso la scomposizione dei sistemi nelle loro parti. È proprio questo il metodo grazie al quale la mente occidentale è stata in grado di costruire quel solenne edificio monumentale chiamato scienza. Oggi ci stiamo rendendo conto sempre di più delle limitazioni di questo approccio, e in particolar modo quando abbiamo a che fare con sistemi complessi. Si potrebbe dire che i sistemi complessi sono sistemi il cui comportamento non può essere compreso in maniera semplice a partire dal comportamento dei loro elementi. In altre parole, la cooperazione degli elementi determina il comportamento dei sistemi globali e fornisce ad essi delle proprietà che possono essere completamente estranee agli elementi che costituiscono il sistema. La sinergetica non soltanto ha come suo obiettivo lo studio di questi effetti cooperativi, ma si pone anche la domanda se esistano dei principi generali che regolano il comportamento dei sistemi complessi nonostante il fatto che i loro elementi possono essere di natura completamente differente, elettroni, atomi, molecole, cellule o esseri umani. Questi principi generali che regolano il coordinamento tra gli elementi possono essere rappresentati in maniera rigorosa a un livello matematico elevato in una opportuna rappresentazione. Molti sistemi naturali contengono un grandissimo numero di elementi.
31
Tra gli elementi individuali di questi sistemi esistono inoltre moltissime connessioni. Per descrivere compiutamente sistemi di tal genere dobbiamo trattare una quantità di informazione enorme. Dobbiamo quindi escogitare dei metodi tendenti a condensare l’enorme quantità di informazione contenuta in sistemi di tal genere in una quantità di informazione che possa venir trattata dalla mente umana. Per far ciò di solito si distingue un livello microscopico caratterizzato da numerosi elementi e un livello macroscopico nel quale ci troviamo dinanzi alle proprietà del sistema nel suo complesso. Un metodo per studiare i sistemi complessi consiste (seguendo il paradigma più consolidato) nella loro scomposizione negli elementi costitutivi. Questa scomposizione è effettivamente possibile per molti sistemi, per i quali gli elementi sono definiti in maniera dettagliata, ma a volte questo modo di procedere non riesce a raggiungere lo scopo desiderato. In molti sistemi possono giocare un ruolo decisivo gli effetti cooperativi: in questo caso la cooperazione fra le parti risulta molto più importante per il comportamento macroscopico del sistema di quanto non lo siano le proprietà degli elementi presi separatamente. Quindi, anche se è molto importante studiare le proprietà delle singole parti, per la comprensione del sistema nel suo insieme si ha in genere bisogno di nuovi e ulteriori concetti e metodi di approccio. In un approccio di questo genere viene studiata la relazione che intercorre fra il livello microscopico e il livello macroscopico. Nel caso di molti sistemi naturali, ma anche in una serie di manufatti prodotti dall’uomo, lo stato macroscopico viene ottenuto attraverso un processo di autorganizzazione degli elementi microscopici: il sistema ottiene una specifica struttura spaziale, temporale o funzionale senza uno specifico intervento dall’esterno. La sinergetica si chiede se esistano dei principi generali che regolano il processo di autorganizzazione e che siano indipendenti dalla natura dei sottosistemi. Possiamo trovare principi di tal genere, a patto che il sistema intraprenda al livello macroscopico dei cambiamenti di ordine qualitativo. Spesso
32
questi elementi qualitativi sono accompagnati dall’emergenza di nuove qualità del sistema macroscopico, anche se gli elementi microscopici rimangono inalterati. In fisica semplici esempi di tali fenomeni sono dati dai fluidi e dal laser. In un fluido si produce una struttura spaziale macroscopica allorché il sistema venga sottoposto a un nuovo vincolo, che è dato da un riscaldamento omogeneo: il fluido acquista cioè uno specifico stato macroscopico e ordinato che non viene imposto dall’esterno, ma che piuttosto viene innescato indirettamente. In un laser gli atti incoerenti di emissione da parte dei singoli atomi vengono coordinati e danno origine a una struttura temporale ordinata. Nella sinergetica le relazioni che intercorrono fra il livello macroscopico e il livello microscopico vengono desunte e determinate ricorrendo a due concetti, al concetto di parametri d’ordine e a quello del principio di asservimento. I parametri di ordine sono gli osservabili macroscopici che descrivono il comportamento macroscopico del sistema. Secondo il principio di asservimento il comportamento degli elementi microscopici diventa determinato nel momento in cui si danno gli osservabili macroscopici. Si ottiene in questo modo una enorme riduzione dei gradi di libertà. In un laser è presente un numero enorme di gradi di libertà degli atomi ma un solo grado di libertà del moto del campo. Una volta oltrepassata la soglia dell’effetto laser, l’intero sistema viene regolato da un unico grado di libertà, e ciò dipende proprio dal principio di asservimento. In molti casi, quando cambia un parametro di controllo, i sistemi studiati dalla sinergetica sono sottoposti a una serie di cambiamenti qualitativi. In termini più generali, può darsi il caso che i medesimi elementi mostrino (a livello macroscopico) modelli di comportamento completamente differenti. Un esempio è fornito ancora una volta dal laser. A bassa intensità della corrente di alimentazione, il laser può manifestare una emissione casuale. Con l’aumento della corrente di alimentazione la struttura dell’emissione diventa coerente. A energie di alimentazione ancora superiori si producono lampi
33
regolari (moti quasi periodici). Se si modifica un altro parametro, l’onda coerente può degradarsi in un caos deterministico. Anche in questo caso si possono identificare diversi itinerari che portano dal moto coerente al moto teorico: vi sono ad esempio fenomeni di intermittenza, nei quali periodi di emissione laser coerente si alternano ad esplosioni caotiche. Il laser potrebbe servire da paradigma per il comportamento delle reti neurali. In particolare potrebbe essere un modello per spiegare i cambiamenti comportamentali che, apparentemente senza nessuna causa, si verificano negli esseri viventi: il problema che deve affrontare la natura consiste nell’armonizzare questi modelli comportamentali, in maniera tale che il movimento dei muscoli possa procedere senza soluzioni di continuità. La sinergetica è in certa misura complementare al riduzionismo o allo studio degli elementi microscopici. Essa tende a porre l’accento sulle proprietà dei sistemi senza tenere conto della natura dei sottosistemi componenti. In questo modo la sinergetica costruisce profonde analogie fra il comportamento macroscopico di sistemi completamente differenti. Oggi vediamo che le scienze biologiche e fisiche sono caratterizzate da una crisi della spiegazione semplice. Di conseguenza quelli che sembravano essere i residui non scientifici delle scienze umane (l’incertezza, il disordine, la contraddizione, la pluralità, la complicazione, ecc.) fanno oggi parte della problematica di fondo della conoscenza scientifica. Dobbiamo constatare che il disordine e il caso sono presenti nell’universo, e svolgono un ruolo attivo nella sua evoluzione. Non siamo in grado di risolvere l’incertezza arrecata dalle nozioni di disordine e caso: lo stesso caso non è sicuro di essere un caso. Questa incertezza rimane, e rimane anche l’incertezza sulla natura dell’incertezza arrecataci dal caso. La biologia contemporanea considera ogni specie vivente come una singolarità, che produce singolarità. La vita stessa è una singolarità, all’interno dei vari tipi di organizzazioni fisicochimiche esistenti. Il cosmo stesso è un evento singolare, dotato di una storia singolare nella quale si produrrà la nostra storia singolare, e la storia di ciascun essere vivente è una storia singolare.
34
Non possiamo più, consci della complessità del reale, eliminare il singolare ed il locale ricorrendo all’universale nelle nostre teorie esplicative. I fenomeni biologici e sociali presentano un numero incalcolabile di interazioni, di inter-retroazioni, uno straordinario groviglio che non può essere computato nemmeno con il ricorso al computer più potente. Prigogine ha mostrato che strutture coerenti a forma di vortice possono nascere da perturbazioni che apparentemente avrebbero dovuto dare come risultato delle turbolenze. È in questo senso che alla nostra ragione si presenta il problema di una misteriosa relazione fra ordine, disordine e organizzazione. L’ordine generato dal disordine ci appare un fatto sorprendente! È interessante che un sistema sia nel contempo qualcosa di più e qualcosa di meno di quella che potrebbe venir definita come la somma delle sue parti. L’organizzazione impone dei vincoli che inibiscono talune potenzialità che si trovano nelle varie parti, ma nel contempo il tutto organizzato è qualcosa di più della somma delle parti, perché fa emergere qualità che senza una tale organizzazione non esisterebbero. Sono qualità emergenti, nel senso che sono constatabili empiricamente ma non sono deducibili logicamente. Nel campo della complessità vi è qualcosa di ancor più sorprendente. È il principio dell’ologramma. L’ologramma è una immagine fisica le cui qualità dipendono dal fatto che ogni suo punto contiene quasi tutta l’informazione dell’insieme che l’immagine rappresenta. Gli organismi biologici possiedono una organizzazione di questo genere: ognuna delle nostre cellule, anche la cellula più modesta come può essere una cellula dell’epidermide, contiene l’informazione genetica di tutto l’organismo nel suo insieme. Naturalmente solo una piccola parte di questa informazione è espressa in una singola cellula, mentre il resto è inibito, ma comunque è presente. In questo senso possiamo dire non soltanto che la parte è nel tutto, ma anche che il tutto è nella parte. Nell’universo delle cose semplici è necessario che una “porta” sia aperta o chiusa, mentre nell’universo complesso si constata che un sistema autonomo è nel contempo aperto e chiuso. Un sistema che compie un lavoro per sopravvivere ha bisogno di
35
energia fresca e deve trarre questa energia dal proprio ambiente. L’organismo, pur essendo autonomo, è radicato nel suo rapporto con l’ambiente e risulta estremamente problematico studiarlo separatamente. La scienza si sviluppa non soltanto basandosi sulla logica e il raziocinio ma anche (si tratta di un paradosso sconcertante) grazie a ciò che in essa vi è di non scientifico. È proprio per ragioni logiche e sperimentali che si è giunti a una assurdità logica: il tempo nasce dal non tempo, lo spazio dal non spazio, e l’energia nasce dal nulla (teoria del Big Bang). La complessità sembra negativa o regressiva perché costituisce la reintroduzione dell’incertezza in una conoscenza che era partita trionfalmente verso la conquista della certezza assoluta. E su questo assoluto bisogna davvero farci una croce sopra. Ma l’aspetto positivo, l’aspetto progressivo che può derivare dalla risposta alla sfida della complessità consiste nel decollo verso un pensiero multidimensionale. L’errore del pensiero formalizzante e quantificatore sta nel fatto che questo pensiero è arrivato a credere che ciò che non fosse quantificabile e formalizzabile non esistesse. Sogno delirante, niente è più folle del delirio della coerenza astratta! La realtà è multidimensionale: comporta sempre una dimensione individuale, una dimensione sociale, una dimensione biologica, una dimensione fisica, ecc. La sfida della complessità ci fa rinunciare al mito della chiarificazione totale dell’universo, ma ci incoraggia a continuare l’avventura della conoscenza, che è un dialogo con l’universo. La realtà oltrepassa le nostre strutture mentali da ogni parte. Il fine della nostra conoscenza non è quello di chiudere, spiegando il tutto con una unica formula, ma quello di aprire il dialogo con l’universo. Il che significa: non soltanto strappare all’universo ciò che può essere determinato in maniera chiara, con precisione ed esattezza, ma entrare anche in quel gioco fra chiarezza e oscurità che è appunto la complessità.
36
Sistemi di calcolo parallelo Negli ultimi anni sono state delineate le principali caratteristiche architetturali delle macchine parallele conformemente ai modelli teorici di calcolo parallelo e alle metriche usate per misurarne le prestazioni. Sebbene attualmente vi siano macchine parallele che vengono impiegate come macchine dedicate per supportare applicazioni specifiche (trattamento di immagini, robotica, visione, ecc.), è sempre più diffusa la necessità di avere a disposizione sistemi di tipo general-purpose. Per soddisfare questa richiesta è necessario un modello di macchina astratta standard che svolga il ruolo che il modello di Von Neumann ha svolto per gli elaboratori sequenziali. La più famosa e accettata classificazione delle architetture per i sistemi paralleli è quella proposta da M.J.Flynn. Secondo questa classificazione, le due più importanti caratteristiche di un elaboratore sono: il numero di flussi di istruzioni che esso può processare ad ogni istante, e il numero di flussi di dati su cui esso può operare simultaneamente. Combinando queste due caratteristiche è possibile ottenere le seguenti quattro classi architetturali: • SISD (Single Instruction stream – Single Data stream) • SIMD (Single Instruction stream – Multiple Data stream) • MISD (Multiple Instruction stream – Single Data stream) • MIMD (Multiple Instruction stream – Multiple Data stream) La classe SISD comprende l’architettura tradizionale di Von Neumann che è quella usata da tutti i calcolatori convenzionali, in cui il singolo processore obbedisce ad un singolo flusso di istruzioni (programma sequenziale) ed esegue queste istruzioni ogni volta su un singolo flusso di dati. Alla classe SIMD appartengono le architetture composte da molte unità di elaborazione che eseguono contemporaneamente la
37
stessa istruzione ma lavorano su insiemi di dati diversi. Generalmente, il modo di implementare le architetture SIMD è quello di avere un processore principale che invia le istruzioni da eseguire contemporaneamente ad un insieme di elementi di elaborazione che provvedono ad eseguirle. Il processore principale spesso è ospitato all’interno di un calcolatore convenzionale che provvede a supportare anche l’ambiente di sviluppo. I sistemi SIMD sono utilizzati principalmente per supportare computazioni specializzate in parallelo. La classe MISD, in cui più flussi di istruzioni (processi) lavorano contemporaneamente su un unico flusso di dati, non è stata finora utilizzata praticamente. È da notare che, mentre nella classe SIMD la granularità, ovvero la dimensione delle attività eseguibili in parallelo, è quella delle istruzioni, nella classe MISD e in quella MIMD la granularità è quella dei processi, programmi composti da più istruzioni. Il modello rappresentato dalla classe MIMD, in cui più processi, eventualmente creati dinamicamente, sono in esecuzione contemporaneamente su più processori ed utilizzano dati propri o condivisi, rappresenta una evoluzione della classe SISD. Infatti, la realizzazione di queste architetture avviene attraverso l’interconnessione di un numero elevato di elaboratori di tipo convenzionale. I sistemi con architettura MIMD sono oggi fra quelli più studiati e si può presumere che essi rappresentino il punto di partenza per la costruzione di macchine parallele di tipo generalpurpose. Sebbene la tassonomia di Flynn sia in grado di rappresentare alcuni aspetti fondamentali nella maggior parte delle architetture parallele, essa non è in grado di esplicitare pienamente tutte le caratteristiche interessanti per un programmatore. Infatti, essa non è in grado di distinguere fra architetture a memoria condivisa e architetture a memoria distribuita. Inoltre, in essa non trovano adeguata collocazione i calcolatori vettoriali, le macchine dataflow e quelle a riduzione che sono utilizzate come architetture parallele per la implementazione di linguaggi funzionali. In particolare è possibile introdurre una ulteriore sottoclassificazione:
38
SIMD • Processori vettoriali • Array processor • Array sistolici MIMD • Sistemi a memoria distribuita • Sistemi a memoria condivisa • Macchine Data-Flow • Macchine a riduzione Le architetture SIMD utilizzano un modello di computazione in parallelo di tipo sincrono. Questo modello permette di coordinare l’esecuzione di più operazioni concorrenti attraverso intervalli di tempo che hanno una durata fissa, pari al tempo necessario per eseguire una operazione. Il modello prevede che una computazione sia suddivisa in più fasi e che all’interno di ogni fase le computazioni possano essere partizionate per esplicitare parallelismo di tipo temporale o spaziale. Nel caso di parallelismo temporale differenti parti di una singola istruzione sono eseguite in parallelo in moduli diversi connessi in cascata (pipeline). Nel caso spaziale gli stessi passi vengono eseguiti simultaneamente su un array di processori identici sincronizzati da un unico controllore. Il parallelismo temporale è stato utilizzato nella costruzione di processori vettoriali con caratteristiche pipeline. Mentre il parallelismo spaziale è stato utilizzato nella realizzazione degli array processor. Entrambe le forme di parallelismo sono state usate nella progettazione degli array sistolici. I processori vettoriali sono in grado di raggiungere elevate prestazioni nell’elaborazione di applicazioni di calcolo scientifico. Le elevate prestazioni sono dovute principalmente alla presenza di computazioni vettoriali e matriciali, che possono essere elaborate attraverso unità hardware specializzate in grado di effettuare operazioni su vettori in pipeline. Il parallelismo è esplicitato all’interno di un singolo processore a livello firmware e non è visibile a livello del programmatore.
39
L’architettura è generalmente costituita da una memoria principale, una unità di controllo scalare ed una vettoriale, registri scalari e vettoriali e da multiple unità funzionali connesse in pipeline che implementano operazioni aritmetiche e booleane sia su grandezze scalari che vettoriali e che sono in grado di funzionare concorrentemente. Le operazioni vettoriali sono inviate all’unità di controllo vettoriale che le esegue in pipeline attraverso le unità vettoriali. Il flusso di dati vettoriali fra la memoria principale e le unità vettoriali è controllato dall’unità di controllo vettoriale. Per sfruttare appieno la velocità delle unità funzionali è necessario disporre di una elevata banda di memoria. A tale scopo le informazioni aventi indirizzi contigui sono memorizzate in moduli contigui. È possibile quindi che gli elementi di un vettore, memorizzati in indirizzi consecutivi, possano essere letti e scritti contemporaneamente. Una importante tecnica che i processori vettoriali utilizzano consiste nel permettere a più unità funzionali vettoriali strutturate in pipeline di evolvere in parallelo utilizzando il flusso dei risultati che provengono da un’unità funzionale come ingresso per un’altra unità funzionale. Il grande successo dei processori vettoriali è dovuto alla loro facilità di programmazione. Essa può avvenire o attraverso l’estensione di linguaggi sequenziali con istruzioni vettoriali o attraverso compilatori. In quest’ultimo caso il compilatore provvede ad individuare le relazioni di dipendenza fra le istruzioni vettoriali e ad effettuare la traduzione di istruzioni iterative in istruzioni vettoriali. A differenza dei processori vettoriali che sono in grado di trattare sia istruzioni scalari che vettoriali, un array processor è una architettura in grado di fornire elevate prestazioni solo per programmi che contengano un numero elevato di istruzioni vettoriali. La classica struttura di un array processor è costituita da una unità di controllo (UC), una memoria programma, e da un array di elementi di elaborazione (PE). La memoria contiene il programma che deve essere eseguito. L’unità di controllo ha il compito di prelevare le istruzioni dalla memoria e di separare le istruzioni scalari da quelle vettoriali. Quelle scalari sono eseguite diret-
40
tamente dalla UC mentre quelle vettoriali sono inviate a tutti i PE dell’array in parallelo. La UC attende che il processore più lento abbia terminato di eseguire l’istruzione prima di inviarne una nuova, implementando così il sincronismo della computazione. Ogni elemento dell’array è dotato di un meccanismo di controllo locale che, basandosi sul proprio stato, è in grado di decidere se eseguire o ignorare le istruzioni che riceve dalla UC. Attraverso un meccanismo di controllo globale, la UC è in grado di determinare correttamente la sequenza delle istruzioni da eseguire. Una caratteristica importante di un array processor è rappresentata dallo schema di interconnessione che supporta le comunicazioni processore-processore e processore-memoria. Le principali strutture di interconnessione processore-processore, nel caso di memoria distribuita, sono di tipo matrice o ipercubo. La Connection Machine rappresenta una evoluzione di questo modello architetturale. Ogni elemento dell’array è una cella composta da un processore e da una memoria locale. Questa strutturazione rimuove la classica suddivisione fra processore e memoria. Le celle possono essere raggruppate per formare strutture dati attive. Su queste strutture possono essere eseguite parallelamente istruzioni di basso livello attraverso i vari processori che agiscono sulle parti locali della struttura dati. La Connection Machine è composta da celle connesse secondo una topologia ad ipercubo. Il paradigma che trae maggior vantaggio da queste architetture è quello data-parallel. Questa forma di parallelismo prevede che i dati vengano suddivisi spazialmente ed ogni PE esegua, ad intervalli regolari, su una porzione di dati, la stessa computazione. Gli array sistolici sono architetture utilizzate nell’elaborazione di segnali e nell’analisi numerica. Un array sistolico è costituito da un insieme di moduli uguali, ognuno con una memoria locale, connessi attraverso semplici strutture regolari (matrici, alberi,…) corrispondenti al grafo della computazione, in modo da mantenere la località nelle comunicazioni. Negli array sistolici i dati viaggiano in maniera ritmica dalla
41
memoria del computer ospite ai nodi della rete per ritornare nuovamente alla memoria. Le comunicazioni con l’esterno possono avvenire solo attraverso i nodi che sono distribuiti lungo i bordi. Questo permette di avere un buon bilanciamento fra l’elaborazione parallela, l’accesso alla memoria e le richieste di ingresso-uscita. Ogni nodo esegue una computazione utilizzando i dati di input e il proprio stato interno e invia il risultato ai nodi vicini sui link di uscita. Tutte le operazioni sono sincronizzate attraverso un clock globale esterno. Gli algoritmi eseguiti su questa architettura sono detti sistolici in analogia col funzionamento della circolazione del sangue che viene pompato dal cuore. Le architetture MIMD sono caratterizzate da una grande flessibilità che permette a questi sistemi di supportare su una stessa piattaforma hardware diversi modelli computazionali. Il modello architetturale MIMD può essere suddiviso in sistemi a memoria condivisa detti multiprocessor e sistemi a memoria distribuita conosciuti come multicomputer. A livello architetturale, i processori del sistema (nodi) cooperano secondo un modello asincrono. Secondo questo modello i vari nodi possono eseguire, in maniera autonoma, più flussi di istruzioni (processi) che usano dati locali o condivisi. I processi su ogni nodo vengono eseguiti facendo riferimento al tempo locale del processore. L’assenza di un tempo globale fa sì che, a differenza del modello sincrono, sia necessario disporre di meccanismi di comunicazione e sincronizzazione per consentire ai vari processi di scambiarsi informazioni sullo stato del sistema. Se si intende realizzare un modello computazionale asincrono la comunicazione fra processi dovrà avere una semantica non bloccante sia per le primitive di output sia per quelle in input. Un messaggio inviato da un processo è depositato in un buffer, se la primitiva corrispondente non è pronta a ricevere il dato. Il processo che ha inviato il messaggio continua l’elaborazione e successivamente gli verrà segnalato che il messaggio è stato ricevuto. Questi meccanismi di comunicazione riducono la sincronizzazione e favoriscono una esecuzione più parallela dei processi e una loro maggiore indipendenza. Nel caso di architetture MIMD a memoria condivisa è possibile
42
emulare un modello sincrono o asincrono utilizzando un linguaggio concorrente che utilizzi un modello di cooperazione a memoria globale e disponga di costrutti di sincronizzazione del tipo semafori o monitor. Questi modelli per la cooperazione fra processi permettono di utilizzare macchine MIMD sia come paradigmi di programmazione a parallelismo esplicito che implicito. Nel caso esplicito, le attività concorrenti sono espresse direttamente come processi del linguaggio concorrente. Nel caso implicito, il programma sorgente è trasformato, mediante compilatori, in una rete di processi cooperanti. I multicomputer sono programmati attraverso il paradigma di scambio messaggi, attraverso una rete di interconnessione, mentre i multiprocessori usano il modello a memoria condivisa. Uno dei limiti principali delle architetture di tipo multiprocessor è quello di non poter essere costituite, a causa dei problemi di accesso in memoria e dei ritardi introdotti dalla rete, da molti processori, mostrando così una bassa scalabilità. I multicomputer sono sistemi caratterizzati da un numero elevato (dalle centinaia alle migliaia) di elaboratori (processore e memoria) ad altissima scala di integrazione, interconnessi da strutture regolari. Ogni elaboratore è dotato di un insieme di elementi di connessione (link) che gli permettono di collegarsi ad altri elaboratori secondo strutture statiche o dinamiche di tipo punto-a-punto. La struttura di interconnessione è scelta con l’obiettivo di mantenere piccola la distanza fra due nodi qualsiasi e di avere un basso numero di link per processore. Se gli algoritmi utilizzati impongono che la maggior parte degli accessi avvenga su dati locali e i processi hanno un comportamento indipendente, allora il carico sulla rete è notevolmente ridotto e le performance del sistema diventano elevate. Non sempre gli algoritmi sono caratterizzati da una elevata località. In questi casi, il sistema utilizza pesantemente la rete di comunicazione e necessita di algoritmi di instradamento (routing) dei messaggi per garantire una completa connettività logica fra i nodi. Gli algoritmi di routing utilizzati sono generalmente dinamici, cioè decidono il percorso a tempo di esecuzione e consentono di
43
bilanciare il carico sui vari link in modo da evitare fenomeni di saturazione. Per ottenere elevate prestazioni in termini di efficienza e scalabilità è necessario che gli algoritmi da eseguire su un multicomputer siano progettati effettuando un adeguato bilanciamento fra il tempo di elaborazione e il tempo per la consegna dei messaggi (granularità dei processi) e definendo opportune strategie per l’allocazione delle attività ai vari nodi di elaborazione mantenendone bilanciato il carico di elaborazione. Le macchine data-flow e a riduzione sono sistemi caratterizzati da un nuovo approccio alla programmazione parallela. Il modello architetturale usato è sostanzialmente il modello MIMD (cooperazione asincrona fra i nodi ed esecuzione di attività concorrenti), ma il nuovo paradigma computazionale che esse usano è in grado di fornire una visione più astratta dell’architettura. Diversamente dalla macchina di Von Neumann, in cui le istruzioni sono eseguite sequenzialmente controllate da un program counter, queste architetture basano il loro funzionamento su due modelli computazionali: data-driven e demand-driven. Il modello data-driven prevede che una istruzione possa essere eseguita solo se tutti gli operandi che essa usa sono disponibili. Nel modello demand-driven è la richiesta del risultato che fa partire l’esecuzione dell’istruzione che lo deve calcolare. Entrambi i modelli non utilizzano un program counter e l’esecuzione di una istruzione avviene solo in base alla disponibilità dei dati. Le macchine data-flow utilizzano un modello data-driven e le macchine a riduzione un modello demand-driven. Nelle architetture data-flow i meccanismi di controllo della sequenza delle istruzioni tipici della programmazione imperativa non sono presenti. Esse vengono utilizzate per l’esecuzione di programmi funzionali o logici in cui il modello astratto è espresso attraverso un modello data-driven. Questo modello computazionale può essere assimilato ad un modello di computazione concorrente asincrona a scambio messaggi in cui i nodi possono avere granularità pari a quella dei processi o a quella di una singola istruzione. Ogni istruzione può essere implementata come un template, che è composto da un campo operatore, una
44
memoria per ricevere gli operandi, e un campo con l’indicazione dei destinatari a cui spedire il risultato. Per far partire l’esecuzione tutti i valori degli operandi devono essere ricevuti nelle posizioni ad esse riservate nel template. I grafi data-flow sono in grado di esplicitare due forme di parallelismo. La prima forma permette a due nodi di essere eseguiti in parallelo se non vi è dipendenza fra i dati (parallelismo spaziale). La seconda forma è ottenuta dalle computazioni pipeline indipendenti che sono presenti nel grafo (parallelismo temporale). Le macchine a riduzione utilizzano un modello demand-driven per controllare il flusso della computazione. Il modello prevede che una istruzione venga abilitata per l’esecuzione se i risultati che essa produce sono necessari come operandi per un’altra istruzione che è già abilitata. Nel caso di elaborazione di istruzioni letterali (applicazioni di funzioni su argomenti) o espressioni, l’esecuzione di un programma consiste nel riconoscimento delle espressioni riducibili e nella sostituzione dei loro valori calcolati. Il modello di esecuzione può essere visto come un grafo in cui ogni nodo è rappresentato da una sottoespressione che deve essere ridotta. Gli elementi di elaborazione (PE) elaborano i task (singole elaborazioni) utilizzando un pool di task selezionati e un pool di task in attesa. Lo schema di elaborazione è il seguente: un PE estrae un task dal pool dei processi selezionati, se vi sono sottoespressioni da valutare, i task relativi sono aggiunti al pool dei selezionati e il task originale va nel pool di attesa, quando un task può essere valutato, i suoi risultati saranno utilizzati per attivare un task nel pool di attesa che passa nel pool dei selezionati. Uno dei principali requisiti da soddisfare affinché l’elaborazione parallela diventi una tecnologia su cui basare le applicazioni del futuro, è quello di disporre di un modello standard di macchina astratta, simile al modello di Von Neumann per l’elaborazione sequenziale, in modo da separare gli aspetti implementativi software da quelli hardware. Quello che serve è un modello astratto su cui compilare efficientemente i linguaggi di alto livello e che possa essere implementato efficientemente in
45
hardware, in modo che sia possibile eseguire un programma con la stessa efficienza su macchine parallele diverse. Un modello teorico consente di valutare i limiti teorici delle prestazioni delle macchine parallele e di effettuare un’analisi della scalabilità e dell’efficienza degli algoritmi paralleli. I modelli teorici più conosciuti sono: • • • •
Il modello PRAM (Parallel Random Access Machine) Il modello Spatial Machines basato sugli automi cellulari Il modello BSP (Bulk Synchronous Parallel) Il modello LogP
La PRAM è una macchina composta da un insieme di processori sequenziali (RAM), ognuno con una propria memoria locale (ML), che comunicano attraverso una memoria condivisa (MC), una unità di switching (SW) che connette i processori con la memoria condivisa. In una unità di tempo, ogni processore può effettuare operazioni di lettura o scrittura, sia in memoria locale che in quella comune o eseguire operazioni RAM. Da questo si deduce che il tempo di esecuzione di ogni istruzione è costante, e quindi il modello computazionale può essere considerato di tipo sincrono. In esso il costo dovuto alle comunicazioni è trascurato. Il modello PRAM può essere considerato come una astrazione di un multiprocessor a memoria condivisa. Gli algoritmi che vengono eseguiti su una PRAM seguono il modello data-parallel: tutti i processori possono eseguire la stessa istruzione su dati diversi. Purtroppo attraverso una PRAM non è possibile modellare computazioni a scambio messaggi su architetture a memoria distribuita. La Spatial Machine utilizza un particolare tipo di automa cellulare come modello di computazione parallela che ha la potenza computazionale di una macchina di Turing. Il modello è più realistico di un automa cellulare poiché il numero di processori è finito sebbene i processori possano muoversi e inviare messaggi in uno spazio infinito. Il modello
46
computazionale della Spatial Machine è definito su una griglia cartesiana tridimensionale di dimensioni infinite. Nel modello tutte le computazioni avvengono in un numero finito di passi ed in ogni passo tutte le computazioni sono eseguite simultaneamente. La Spatial Machine è composta da un numero finito di celle ognuna con le stesse funzionalità di un processore. Ogni processore ha un controllo finito simile a quello della macchina di Turing con un numero finito di stati e una funzione di transizione. Nella macchina, una cella è individuata come cella terminazione. La computazione termina quando un processore raggiunge il suo stato finale nella cella terminazione. La Spatial Machine può essere definita come un riconoscitore di un linguaggio limitando l’output ai due valori “accept” e “reject”. Il modello BSP è stato proposto con l’obiettivo di definire un modello più pratico del modello PRAM che sia un efficiente bridge fra software e harware. Il modello BSP è basato su tre elementi: 1. Un insieme di componenti (processori e memorie) 2. Un router che è in grado di consegnare messaggi fra coppie di processi attraverso una rete di comunicazione di tipo punto-apunto 3. Un dispositivo di sincronizzazione per la temporizzazione dei componenti. Una computazione BSP consiste in una sequenza di superstep (computazioni globali) in ognuno dei quali ogni componente può eseguire computazioni locali, trasmissione di messaggi verso il router o trattamento dei messaggi ricevuti da altri processori. Un superstep è considerato concluso una volta che tutte le computazioni di tutti i componenti sono completati e il router non ha richieste da soddisfare. I superstep sono separati da barriere globali e tutti i messaggi di un superstep sono ricevuti prima che il successivo superstep inizi. Il modello LogP presenta una parametrizzazione più evoluta rispetto al modello BSP ma è anch’esso un modello intermedio che caratterizza una macchina parallela attraverso la latenza e la banda. Il modello LogP caratterizza una macchina parallela attraverso i seguenti parametri:
47
• L: rappresenta la latenza e indica il ritardo che è introdotto dalla rete di interconnessione quando viene trasferito un messaggio avente le dimensioni di una word da un processore sorgente ad uno destinatario. • O: è l’overhead, ovvero il tempo necessario per processare il messaggio nel nodo che lo riceve o in quello che lo invia. • G: è il gap e indica il minimo intervallo di tempo fra la trasmissione o la ricezione di messaggi consecutivi ad un processore. Il reciproco di G corrisponde alla banda di comunicazione disponibile per processore. • P: il numero dei moduli processori/memoria. Il modello LogP assume che la rete abbia una capacità finita. Se un processore tenta di inviare un messaggio e la rete è satura allora il processore si blocca finché la rete non è in grado di accettare nuovi messaggi. Le computazioni locali non sono modellate. Il modello LogP non prende in considerazione alcuno stile di programmazione o protocollo di comunicazione ed è ugualmente applicabile a paradigmi a memoria condivisa, a scambio di messaggi o data parallel. Le prestazioni di uno o più moduli che costituiscono un programma parallelo possono essere migliorate aumentando il grado di parallelismo, ovvero il numero di processori che mediamente sono usati durante l’esecuzione del programma. Il grado di parallelismo può essere incrementato sostituendo un modulo con un insieme di moduli operanti in parallelo e caratterizzati da una granularità più fine a quella del modulo di partenza. Tuttavia la scelta di avere moduli con granularità fine non sempre consente di ottenere miglioramenti poiché spesso si ha un aumento del grado di accoppiamento che è una misura del grado di congestione dei moduli che nel programma hanno la funzione di servire richieste effettuate da parte di più moduli utilizzatori. Inoltre è importante curare la ripartizione dei dati fra i vari processori in modo da favorire una località nelle richieste di accesso ai dati. Negli ultimi anni sono stati sviluppati dei linguaggi per la
48
programmazione parallela (detti linguaggi concorrenti) che permettono la scrittura di algoritmi paralleli come un insieme di azioni concorrenti eseguite su differenti processori o nodi di elaborazione. La realizzazione di programmi paralleli richiede di affrontare e risolvere problemi che non sono presenti nella programmazione sequenziale. Problemi tipici sono la creazione di processi, la loro sincronizzazione, la gestione delle comunicazioni tra processi, la prevenzione dello stallo (deadlock) e la terminazione dei processi che compongono il programma parallelo.
49
Automi cellulari Un automa cellulare è un sistema dinamico discreto. Spazio, tempo e stati del sistema sono discreti. Ogni elemento dell’automa in una griglia spaziale regolare è detto cella e può essere in uno degli stati finiti che la cella può avere. Gli stati delle celle variano secondo una regola locale, cioè lo stato di una cella ad un dato istante di tempo dipende dallo stato della cella stessa e dagli stati delle celle vicine all’istante precedente. Gli stati di tutte le celle sono aggiornati contemporaneamente in maniera sincrona. L’insieme degli stati delle celle compongono lo stato dell’automa. Quindi lo stato globale dell’automa evolve in passi temporali discreti. Secondo questo modello un sistema viene rappresentato come composto da tante semplici parti ed ognuna di queste parti per evolvere ha una propria regola interna ed interagisce solo con le parti ad essa vicine. L’evoluzione globale del sistema emerge dalla evoluzione di tutte le parti elementari. Gli automi cellulari possono essere pensati come dei sistemi dinamici astratti che giocano un ruolo nella matematica discreta comparabile a quello delle equazioni differenziali parziali nella matematica del continuo. Molti studiosi sono dell’opinione che le applicazioni più significative della teoria degli automi cellulari si avranno nella produzione di modelli in grado di simulare il comportamento intrinseco distribuito e di auto-organizzazione. Il concetto di automa cellulare fa la sua comparsa nell’ambiente scientifico nel 1947 allorché ci si propose di studiare la complessità dei fenomeni biologici e in particolare i meccanismi di funzionamento e auto-riproduzione degli esseri viventi. Già i primi studiosi di cibernetica cominciarono ad intuire la capacità di alcuni meccanismi di svolgere funzioni tipicamente umane, in modo particolare quelle relative ad alcune attività mentali elementari. Col termine automa si intende il modello astratto di un dispositivo il quale può assumere certi stati, può ricevere stimoli
50
(input) secondo una scala discreta del tempo dall’ambiente in cui è immerso e reagisce a questi stimoli con una transizione di stato e con una risposta (output) secondo una logica prefissata. Formalmente un automa consiste in una quintupla (X, Y, Q, τ, σ) dove • X è l’insieme finito dei simboli di input • Y è l’insieme finito dei simboli di output • Q è l’insieme degli stati interni dell’automa • τ : Q x X → Q è la funzione di transizione di stato che programma la trasformazione degli stati in funzione dell’input • σ : Q x X → Y è la funzione di uscita che programma l’uscita in funzione dell’input e dello stato interno. Da tale definizione di deduce che un automa è completamente noto se si conosce il modo in cui reagisce ad ogni possibile assegnazione di input. La sua effettiva realizzabilità è legata al fatto che il numero degli stati interni sia finito: si parla in questo senso di automa finito. Un caso particolare di automa è fornito dalla Macchina di Turing. Intuitivamente, un automa cellulare può essere pensato come una rete infinita di piccoli e identici automi finiti, o celle, connessi uniformemente e sincronizzati. Il termine cellulare si riferisce alla sotto-unità ottenuta da tale costruzione e non deve implicare necessariamente una analogia con le cellule degli organismi viventi. Ciascuna di queste sotto-unità è detta anche automa elementare (AE). L’insieme delle celle formano uno spazio euclideo ddimensionale. Ad ognuno di questi siti è associata una variabile stato, chiamato stato della cella, che può assumere valori in un insieme finito detto l’insieme degli stati. Il tempo avanza in passi discreti. L’evoluzione del sistema è dovuta ad una unica funzione, detta funzione di transizione, che viene usata ad ogni passo da ogni
51
cella per determinare il suo nuovo stato a partire dallo stato corrente e dagli stati di alcune celle che compongono un vicinato della cella stessa. Il passaggio da uno stato a quello successivo è dovuto alla composizione di due operatori, il vicinato, che specifica quali celle influiscono sulla data cella, e la funzione di transizione. Il vicinato o intorno della cella specifica le posizioni, relative alla cella generica, di un numero finito di celle. Tali vicini non necessitano di essere quelli fisicamente adiacenti, possono includere la stessa cella, oppure celle fisicamente distanti dalla cella considerata, l’importante è che le celle che compongono il vicinato siano in numero finito, e che il tipo di vicinato sia uguale per ogni cella che compone l’automa cellulare. Gli stati delle celle dell’intorno sono usati nella regola di transizione della cella centrale per calcolare il suo nuovo stato. In un automa cellulare gli intorni delle celle si sovrappongono e una data cella viene inclusa in diversi intorni delle celle ad essa adiacenti. Una assegnazione di stati a tutte le celle è chiamata configurazione. Un automa cellulare è reversibile o invertibile se la sua mappa globale è invertibile, cioè se ogni configurazione ha un unico successore ed un unico predecessore. Un automa reversibile che sia fatto evolvere da qualsiasi configurazione di partenza, per un qualsiasi numero di passi, se poi viene fermato e fatto evolvere all’inverso, per lo stesso numero di passi, tornerà alla configurazione iniziale. Nel contesto dei sistemi dinamici, l’invertibilità coincide con quello che i fisici chiamano reversibilità microscopica. Le configurazioni formate da un automa reversibile tipico hanno un aspetto qualitativamente differente rispetto alle configurazioni caratteristiche di un automa non reversibile. In particolare, se la configurazione iniziale è casuale, essa tende a rimanere casuale, cioè non compare nessuna struttura di autoorganizzazione. Le regole di un automa cellulare sono locali (nessuna interazione a lunga distanza) e uniformi (la stessa regola è applicata a tutte le celle in un dato istante di tempo). Tramite la funzione di transizione si può costruire l’esatta
52
evoluzione del sistema in un tempo finito arbitrariamente grande. Ciò rende attraenti i sistemi dinamici costruiti su automi cellulari. Infatti, in sistemi dinamici continui, come quelli definiti tramite equazioni differenziali, gli stati possono assumere valori di un insieme non numerabile. Un esempio di semplice automa cellulare molto conosciuto è il Gioco della Vita o Life proposto da John Horton Conway. Life simula una popolazione di organismi viventi o celle in una griglia bidimensionale che si sviluppano nel tempo sotto l’effetto di tendenze all’accrescimento ed all’estinzione. Ogni cella può avere due stati: vivente (1) o morta (0) ed ha un vicinato composto dalle otto celle adiacenti. Le celle cambiano stato in base alle regole seguenti: 1. Una cella vivente può sopravvivere nella prossima generazione se e solo se ha 2 o 3 celle viventi nel proprio vicinato. 2. Una cella morta può tornare in vita nella prossima generazione se e solo se ha esattamente 3 celle viventi nel proprio vicinato. In base a queste semplici regole, Conway ha costruito un automa cellulare molto interessante per gli effetti che si hanno nell’evoluzione di una popolazione di organismi viventi. Rispetto alla definizione di automa cellulare standard, nel tempo sono state date delle definizioni sia in termini di modifiche strutturali che di estensioni funzionali. Con il termine modifiche del modello degli automi cellulari ci si vuole riferire a modelli computazionali che differiscono dal modello degli automi cellulari, ma che possono simulare gli automi cellulari e possono essere simulati dagli automi cellulari con un costo addizionale lineare sia nel tempo sia nel numero di celle. Con il termine estensioni o generalizzazioni del modello degli automi cellulari ci si riferisce a modelli computazionali che non possono essere simulati dagli automi cellulari in un tempo lineare. Mentre una modifica rappresenta solo un formalismo differente per definire la stessa cosa, una estensione è generalmente più potente del modello standard degli automi cellulari. Gli automi cellulari non deterministici rappresentano una gene-
53
ralizzazione del modello standard degli automi cellulari. L’estensione importante consiste nel fatto che la funzione di transizione elementare di un automa non deterministico può generare stati scelti in maniera non deterministica in uno spazio degli stati molto più ampio. Gli automi cellulari partizionati rappresentano solo una modifica del modello standard. In un automa cellulare standard, una cella usa tutto lo stato delle celle del suo vicinato per calcolare il suo nuovo stato. In un automa cellulare partizionato, una cella legge solo la componente i-esima dello stato della cella i del suo vicinato. Da un punto di vista pratico, gli automi cellulari partizionati hanno il vantaggio che il dominio della funzione di transizione ha una dimensione minore che nel caso standard. Questo tipo di automi cellulari restringe i dati di input per la funzione di transizione di una cella, che riceve solo una parte di informazione da ognuna delle celle vicine. Questa proprietà in alcuni casi, in particolare nei casi in cui lo stato delle celle è complesso, può rendere possibile l’implementazione della funzione di transizione che nel caso standard sarebbe impossibile implementare a causa della dimensione del suo dominio. Gli automi cellulari probabilistici presentano delle similitudini con quelli non deterministici, seppure essi siano differenti. Gli automi cellulari probabilistici sono stati definiti per simulare fenomeni probabilistici osservati in natura. Ad esempio, fenomeni probabilistici si hanno nei gas reticolari dove certe configurazioni locali possono portare lo stato di una cella verso due possibili stati differenti con uguale probabilità. In un automa cellulare probabilistico, data una cella ed una particolare configurazione delle celle ad essa vicine, viene definita una probabilità per ogni possibile nuovo stato in cui una cella si potrà trovare nella prossima iterazione. In un automa cellulare asincrono, una cella ad ogni iterazione può decidere in maniera non deterministica se cambiare il proprio stato in base alla funzione di transizione oppure mantenere lo stato corrente. Negli automi cellulari asincroni la funzione di transizione elementare è simile a quella del modello standard, tuttavia la definizione della funzione di transizione globale è differente.
54
Questa classe di automi cellulari rappresenta una modifica rispetto al modello standard in quanto rilascia il vincolo dell’aggiornamento dello stato in maniera sincrona per tutte le celle e rappresenta un utile modello computazionale in quei casi in cui si simulano sistemi asincroni nei quali non è necessario che lo stato di tutte le componenti sia aggiornato contemporaneamente. Gli automi cellulari inomogenei sono una generalizzazione degli automi cellulari standard, infatti essi sono computazionalmente più potenti. Negli automi cellulari si può non avere omogeneità sia dal punto di vista spaziale sia dal punto di vista temporale, ed ognuno di questi due casi non esclude l’altro. Nel caso di automi cellulari inomogenei spazialmente la funzione di transizione elementare delle celle può variare al variare delle coordinate delle celle. Quindi l’automa non è caratterizzato da una unica funzione σ ma da un certo numero di differenti funzioni di transizione per differenti celle o regioni dell’automa ed a queste possono essere associate differenti relazioni di vicinato. Gli automi inomogenei spazialmente sono utili quando si vuole simulare sistemi in cui alcune loro parti svolgono un ruolo particolare, come una sorgente di particelle o un cratere di un vulcano, oppure quando si vuole restringere la computazione in una regione limitata dell’automa. Nel caso di automi cellulari inomogenei temporalmente la funzione di transizione elementare delle celle può variare al variare del tempo. In questo caso le celle dell’automa possono aggiornare il loro stato per un certo numero di passi usando una funzione di transizione e poi per un altro numero di passi usando una diversa funzione di transizione e così via in funzione della computazione che l’automa cellulare deve eseguire. Questo tipo di automi inomogenei sono utili nel caso in cui si vogliono simulare fenomeni che sono composti da più fasi computazionali tra loro differenti ed una di seguito all’altra. Per automi cellulari gerarchici si intende automi cellulari in cui le singole celle non sono atomiche, ma sono composte da parti più semplici e quindi lo stato di una cella dipende dallo stato delle sue parti. Esso è basato sulla struttura di un grafo annidato, cioè un grafo composto da vertici ed archi, dove ogni vertice è a sua volta
55
un grafo annidato. Gli automi cellulari gerarchici sono stati introdotti come modelli computazionali per sistemi multi-scala e per la simulazione di sistemi biologici multi-livello. In questi casi si ha a che fare con fenomeni composti in cui la scala del tempo e dello spazio per i sotto-fenomeni componenti sono molto differenti. L’interesse principale per gli automi cellulari è dovuto al fatto che essi forniscono uno strumento matematico utile per la risoluzione di problemi fisici e naturali troppo complessi per essere affrontati tramite gli strumenti matematici tradizionali. Lo strumento più usato per costruire un modello matematico del mondo naturale è fornito dalle equazioni differenziali, le quali possono descrivere il cambiamento di una certa grandezza come funzione della posizione e del tempo. In esse, le grandezze variano con continuità. Studiare lo stesso problema in modo discreto spesso è più semplice e naturale. Il fatto che lo spazio reale, il tempo e molte variabili fisiche siano ritenuti continui anziché discreti non implica, generalmente, che le equazioni differenziali portino di per sé a dei modelli della natura più validi: spesso non è il valore numerico di una variabile ad essere significativo ma solo la dimensione globale. Gli automi cellulari sono essenzialmente caratterizzati da quattro proprietà: 1. La geometria della matrice delle celle 2. L’intorno o vicinato di ogni cella 3. Il numero di stati per cella 4. La varietà delle regole di transizione La geometria della matrice delle celle può essere bidimensionale tridimensionale o multidimensionale (a n dimensioni). L’intorno di una cella può comprendere le celle fisicamente adiacenti oppure le celle determinate tramite una funzione metrica (distanza) definita nello spazio delle celle. Si possono avere automi cellulari binari in cui vi sono solo due stati per cella (1 o 0) oppure si possono definire automi cellulari con un numero molto elevato di stati possibili. Per la simulazione di sistemi che presentano una notevole complessità è necessario poter definire celle con un numero di stati elevato.
56
Il numero di regole necessarie per stabilire il prossimo stato di una cella cresce esponenzialmente rispetto al numero dei possibili stati della cella. I modelli ottenuti con le varie regole di transizione sono caratterizzati dall’avere comportamenti complessi, in base ai quali gli automi cellulari vengono classificati in quattro classi fondamentali. La classe 1 è composta dagli automi cellulari la cui evoluzione, qualsiasi sia la configurazione iniziale, dopo un numero finito di passi porterà l’automa in uno stesso stato stabile ed omogeneo oppure in un ciclo definito. Gli automi cellulari della classe 2 fanno sì che il valore dello stato di una cella, dopo un certo tempo, sarà determinato dai valori iniziali di alcune celle situate in una regione limitata e connessa. La conoscenza dello stato iniziale di una piccola regione è sufficiente per predire lo stato finale di una data regione di celle. Di solito le regole di questa classe danno luogo a semplici strutture che possono essere stabili o periodiche e che rimangono isolate una dall’altra. Gli automi cellulari appartenenti a questa classe funzionano come filtri che generano strutture semplici a partire da particolari valori di stato iniziale, per questa ragione, essi appaiono particolarmente utili per l’elaborazione di immagini. Negli automi cellulari della classe 3 il valore di una cella dipenderà dai valori iniziali di un sempre crescente numero di celle. Una predizione dello stato finale richiede la conoscenza completa dello stato iniziale. In un automa cellulare di questo tipo, per quasi tutti i possibili stati iniziali, l’evoluzione porterà a configurazioni caotiche (aperiodiche) anche se non casuali. Dopo un numero sufficientemente grande di passi, le proprietà statistiche di queste configurazioni sono praticamente uguali per quasi tutti i possibili stati iniziali. Negli automi cellulari della classe 4, ci sono poche regole di transizione che generano strutture di sostanziale complessità spaziale e temporale. Per questa classe di automi, in molti casi tutte le celle variano il loro stato dopo un numero finito di passi. In alcuni casi si osservano strutture periodiche o stabili che persistono per un numero elevato di passi. In altri casi si
57
osservano delle strutture che si propagano. Negli automi di classe 4, il valore di una cella dopo un numero grande di passi, dipende dal valore di un numero crescente di stati iniziali di altre celle. Il valore dello stato di una cella non può essere determinato tramite una procedura di calcolo più semplice della simulazione della sua evoluzione. Il comportamento degli automi cellulari della classe 4 non è predicibile anche conoscendo la configurazione degli stati iniziali. Supponiamo di assegnare ad un automa cellulare una qualche configurazione iniziale scelta a caso e di farlo evolvere per molti passi nel tempo e quindi di registrare lo stato finale. Si torni ora alla configurazione di partenza, si cambi il valore di una singola cella e si faccia evolvere il sistema per lo stesso numero di passi. Che effetto avrà il piccolo cambiamento sullo stato finale? Per un automa della classe 1 non c’è alcuna conseguenza, infatti un sistema della prima classe raggiunge lo stesso stato finale indipendentemente dallo stato iniziale. Un automa della classe 2 può mostrare qualche effetto, ma limitato ad una piccola area vicino al sito in cui è avvenuto il cambiamento. In un sistema della classe 3, invece, l’alterazione di una singola cella può provocare un cambiamento che si propaga lungo tutto il reticolo. Le regole della classe 4 sono le più rare e le più interessanti. Alcune funzioni di transizione piuttosto semplici ricadono in questa classe. La sensibilità a piccole variazioni nelle condizioni iniziali è ancora maggiore che nella terza classe. Si ritiene che per prevedere lo stato futuro di un automa cellulare della quarta classe non vi sia nessuna procedura generale più efficace di quella che consiste nel lasciare all’evoluzione dell’automa stesso il compito di calcolare lo stato. Una ipotesi legata alla considerazione precedente suggerisce che gli automi cellulari infiniti della classe 4 possano essere considerati dei calcolatori universali. In base a questa ipotesi, gli automi cellulari della classe 4 sarebbero i più semplici calcolatori universali conosciuti. Gli automi cellulari capaci di svolgere la computazione uni-
58
versale possono imitare il comportamento di qualsiasi calcolatore. Supponendo che qualunque processo fisico possa essere rappresentato da un processo computazionale (come sembra verosimile ipotizzare), gli automi cellulari possono imitare anche il comportamento di qualunque sistema fisico. Recentemente sono state proposte delle reti neurali cellulari. Le reti neurali cellulari (cellular neural networks CNN) sono un modello di elaborazione proposto da Chua e Yang nel 1988 definito come un insieme di circuiti non lineari in uno spazio ndimensionale con una struttura di elaborazione parallela ed asincrona. Una CNN è un modello di rete neurale in cui ogni unità (cella o neurone) è connessa solo ad altre unità appartenenti ad una zona della rete ad essa contigua detta vicinato o intorno. Le reti neurali cellulari sono un modello di calcolo che riassume alcune caratteristiche tipiche delle reti neurali e degli automi cellulari. Infatti, una caratteristica delle CNN è la località delle connessioni tra le unità. In questo tipo di reti neurali l’informazione viene scambiata direttamente solo tra unità vicine. Questa caratteristica li rende in qualche modo simili agli automi cellulari e le differenzia dagli altri modelli di reti neurali proposti in letteratura. Il fatto che la comunicazione sia locale non limita le capacità computazionali delle CNN, infatti è stato dimostrato che il modello CNN è universale essendo equivalente ad una macchina di Turing. Le principali caratteristiche di una rete neurale cellulare sono: • Una CNN è una griglia regolare n-dimensionale di elementi detti celle • Ogni cella costituisce un elemento di elaborazione con più input e un singolo output • Una cella è caratterizzata da un vicinato e da uno stato interno che in alcuni casi non è osservabile dall’esterno della cella • I dati ed i parametri di una CNN hanno generalmente valori continui • Una CNN può operare sia con valori temporali continui sia con valori temporali discreti
59
• Può essere definita più di una rete di connessione tra le celle con differenti dimensioni di vicinato • Le CNN elaborano per più di una interazione e quindi appartengono alla classe delle reti di tipo recurrent. Se il raggio r che definisce il vicinato è sufficientemente grande da fare in modo che il vicinato di ogni cella copra tutta la rete, una CNN viene sostanzialmente a coincidere con una rete di Hopfield a valori continui, in questo caso una CNN viene utilizzata come una memoria associativa. I modelli di automa cellulare e rete CNN condividono la località delle connessioni come base topologica. Al contrario delle CNN, negli automi cellulari lo stato di ogni cella ha valori discreti. Le funzioni di transizione per gli automi cellulari, che sono definite da tavole di verità, possono essere paragonate alle maschere per le CNN a tempo discreto, in tal modo si mantiene una stretta analogia progettuale. Le reti CNN sono un interessante e promettente incrocio tra i concetti di automa cellulare e rete neurale. Le reti neurali rappresentano un modello di calcolo parallelo. Il loro utilizzo per l’implementazione di applicazioni reali richiede l’utilizzo di sistemi di calcolo a parallelismo massiccio. Nei sistemi ad elevato parallelismo una applicazione viene realizzata tramite un insieme di processi concorrenti che cooperano tramite lo scambio di messaggi. Questo approccio metodologico si basa sul progetto e lo sviluppo di programmi concorrenti che implementano i vari modelli di reti neurali utilizzando la potenza computazionale offerta dalle macchine parallele composte da un elevato numero di nodi di elaborazione. Non esiste un unico modo di implementare in maniera parallela una rete neurale e tra i vari modi esistenti non si può facilmente individuare quale di essi è il migliore in generale. In una rete neurale ogni neurone potrebbe rappresentare una attività parallela; in pratica ciò non viene realizzato poiché la granularità del parallelismo esplicitabile dai sistemi paralleli è maggiore di quello di un singolo neurone ed in generale il numero dei processori è minore del numero di neuroni della rete che
60
occorre implementare. Inoltre, i processori presentano un grado di interconnessione limitato rispetto al grado di interconnessione delle reti neurali. Nella realizzazione di reti neurali occorre usare delle metodologie per decomporre la rete e mappare i neuroni che la compongono sui nodi di elaborazione del sistema parallelo. Per risolvere problemi reali occorrono reti neurali di grandi dimensioni, i sistemi paralleli possono offrire il supporto computazionale necessario. Un diverso approccio, e complementare, alla ricerca di modelli computazionali nell’ambito dei sistemi complessi ci deriva dagli algoritmi genetici. Recentemente, gli algoritmi genetici sono stati utilizzati con sempre maggiore frequenza in molti settori scientifici e ingegneristici per la loro capacità di risolvere problemi complessi. Inizialmente, il loro principale campo applicativo è stato quello dei problemi di ottimizzazione, ma rapidamente essi hanno mostrato di essere adatti a risolvere problemi in molti altri settori: robotica, machine vision, machine learning, data mining, evoluzione degli automi cellulari, apprendimento sia della topologia sia dei pesi delle reti neurali, sistemi intelligenti, evoluzione della cooperazione e comunicazione in sistemi multi-agenti. Gli algoritmi genetici sono algoritmi di ricerca general-purpose che si ispirano ai meccanismi dell’evoluzione per affrontare la risoluzione di problemi complessi. In essi, come negli organismi viventi, l’evoluzione avviene attraverso due processi fondamentali: la selezione naturale e la riproduzione sessuale. Il processo di selezione determina quali elementi di una popolazione debbano sopravvivere per riprodursi, mentre il processo di riproduzione garantisce il mescolamento e la ricombinazione dei geni dei loro discendenti. L’idea che è alla base degli algoritmi genetici è quella di far evolvere una popolazione di elementi, che rappresentano le soluzioni candidate di uno specifico problema, sia tramite competizione (favorendo la sopravvivenza delle soluzioni migliori) sia attraverso meccanismi di ricombinazione e mutazione. Studi teorici hanno mostrato che il vantaggio computazionale degli algoritmi genetici, rispetto ad esempio alla ricerca di tipo
61
random, è che essi tendono ad indirizzare la ricerca verso le regioni dello spazio delle soluzioni più promettenti (ad elevata fitness) utilizzando ad ogni generazione la conoscenza accumulata durante la ricerca precedente. Un ulteriore aspetto interessante degli algoritmi genetici è che essi utilizzano un modello di computazione parallela in cui gli elementi di una popolazione evolvono in parallelo. Questa caratteristica li rende adatti ad essere implementati su macchine parallele e a trattare problemi di notevole complessità. L’algoritmo genetico è una procedura iterativa che usa una popolazione di cromosomi che si evolvono e si riproducono. Per consentire la riproduzione dei cromosomi più adatti l’algoritmo genetico usa una funzione di fitness che assegna un punteggio ad ogni cromosoma della popolazione corrente. La fitness indica la bontà con cui un cromosoma risolve uno specifico problema. Per ricombinare e alterare i cromosomi della popolazione l’algoritmo genetico usa gli operatori genetici di: selezione, crossover e mutazione. L’operatore di selezione provvede a scegliere i cromosomi nella popolazione per la riproduzione. Gli elementi sono selezionati e replicati in maniera proporzionale alla loro probabilità di riproduzione. La probabilità di riproduzione dipende dalla funzione di fitness, i cromosomi che hanno i valori di fitness più elevati hanno una maggiore probabilità di riprodursi. L’operazione di crossover implementa la funzione di ricombinazione fra due cromosomi, detti genitori, attraverso lo scambio di porzioni delle stringhe che li rappresentano. I cromosomi genitori sono scelti a caso nella popolazione ed accoppiati in modo da generare due nuovi cromosomi detti figli. L’operatore di mutazione si applica a tutti gli elementi della popolazione con una certa probabilità, detta di mutazione, cambiando il valore di un gene scelto in maniera casuale. Volendo risolvere un problema attraverso un algoritmo genetico, la prima cosa che dobbiamo definire è il meccanismo di codifica che ci consente di rappresentare le variabili del problema nella forma che l’algoritmo genetico è in grado di manipolare. Sebbene esistano diverse codifiche la più usata è quella che utilizza stringhe di bit.
62
Il passo successivo è quello di definire una funzione di fitness che consenta all’algoritmo genetico di calcolare la bontà di ogni stringa della popolazione come probabile soluzione. La risoluzione di problemi complessi attraverso gli algoritmi genetici richiede elevati tempi di calcolo che sono determinati principalmente dai tempi necessari per la valutazione della fitness e dall’elevato numero di iterazioni necessarie per trovare la soluzione, inoltre in un algoritmo genetico occorre generare intere popolazioni di soluzioni candidate per molte generazioni successive. L’elaborazione parallela offre la possibilità di ridurre i tempi di esecuzione e di migliorare le prestazioni di un problema attraverso la sua suddivisione in moduli e l’esecuzione contemporanea dei moduli su una macchina parallela dotata di molti processori. Gli algoritmi genetici, contrariamente a quanto può apparire a prima vista, non sono direttamente parallelizzabili. Infatti, sebbene la popolazione degli elementi possa essere distribuita facilmente sui nodi di una architettura parallela lo stesso non si può dire per le varie fasi della computazione. Le procedure che riguardano il processo di selezione e il crossover operano su tutta la popolazione, necessitano di comunicazioni non locali, e introducono punti di centralizzazione che necessitano di una esecuzione seriale.
63
Una metrica su insiemi Il concetto di insieme è un concetto matematico molto astratto e generale. Un insieme può connotare una moltitudine di cose diverse ed è un concetto che sta a fondamento della matematica, dal concetto di insieme è possibile definire il concetto di numero e fondare su di esso tutta la matematica. È un fatto notevole che sia possibile indurre una metrica su insiemi in una maniera molto generale utilizzando una misura µ e le semplici operazioni di unione e intersezione tra insiemi. La funzione definita come: µ(A ∆ B) d(A,B) = ⎯⎯⎯⎯⎯⎯⎯ µ( A ∪ B) si può dimostrare essere effettivamente una distanza che induce una metrica sulla potenza degli insiemi considerati. Dove ∆ sta per differenza simmetrica ovvero A ∆ B = (A \ B) ∪ (B \ A). Una applicazione di questa metrica è stata utilizzata nell’implementazione di algoritmi genetici per la risoluzione di particolari problemi. Gli algoritmi genetici sono oramai una tecnologia matura che ha dimostrato il suo potenziale in numerose e variegate applicazioni nel mondo reale. Ultimamente l’attenzione si rivolge all’integrazione degli algoritmi genetici con altri modelli di ispirazione biologica per costruire paradigmi computazionali molto più potenti e flessibili per la risoluzione di problemi, molti laboratori di ricerca hanno mostrato che i vari modelli computazionali possono essere migliorati se li si integra tra loro. L’integrazione di questi modelli fra loro o con altri paradigmi, come ad esempio la fuzzy logic, consente loro di superare le limitazioni che presentano singolarmente e di ottenere performance migliori. Le reti neurali
64
cellulari sono un esempio di questo approccio. Un altro esempio è rappresentato dai sistemi neurogenetici in cui gli algoritmi genetici sono usati per semplificare la fase di training o per evolvere i pesi e l’architettura di una rete neurale. Un ulteriore esempio riguarda l’utilizzo degli algoritmi genetici per far evolvere le regole di un automa cellulare. Come esempio di integrazione fra i vari paradigmi è interessante un modello in cui l’evoluzione dei pesi di una rete neurale è realizzato attraverso l’uso di un algoritmo genetico. Montana e Davis hanno usato gli algoritmi genetici in sostituzione dell’algoritmo di back propagation per cercare i pesi delle connessioni di una rete neurale con una architettura fissata. I nodi (neuroni) e i pesi delle connessioni di una rete neurale sono rappresentati dai geni di un cromosoma e entrambi sono codificati utilizzando lo stesso alfabeto. La funzione di fitness è calcolata sulla base del rapporto tra il numero di bit diversi, fra due stringhe binarie, e il numero di bit complessivo. È facile vedere come la funzione di fitness così definita corrisponda alla distanza sopra introdotta, in cui la misura non è altro che la cardinalità dell’insieme. All’altro estremo della ricerca biologica troviamo una applicazione di questa metrica nel campo della psicologia cognitiva, in particolare nell’analisi dei processi di categorizzazione e riconoscimento di oggetti. Il tentativo teorico degli studi di psicologia cognitiva consiste nello specificare quali siano i meccanismi che consentano di: 1. Individuare esattamente il prototipo di una categoria in funzione delle caratteristiche associate ai singoli esemplari della categoria stessa 2. Decidere se un dato esemplare appartiene o no a una data categoria o, nel caso di più categorie, a quale categoria appartiene in funzione delle caratteristiche possedute dall’esemplare stesso. La specificazione di questi meccanismi è stata oggetto di varie proposte teoriche, tra le quali una delle più interessanti è stata quella avanzata da James A. Hampton nel 1993. Innanzitutto, egli definisce il prototipo di una categoria tramite l’elenco ordinato di tutte le caratteristiche che sono associate ad almeno un esemplare
65
della categoria, ciascuna a sua volta associata a un peso prototipico che è pari al peso della caratteristica stessa diviso per il numero di esemplari che fanno parte della categoria. In altri termini, il peso prototipico coincide con una valutazione della presenza media della caratteristica nell’ambito degli esemplari della categoria. Per quanto riguarda la decisione relativa all’appartenenza di un esemplare a una data categoria, Hampton introduce una grandezza che misura la somiglianza dell’esemplare dato dalla categoria. In particolare questa somiglianza viene misurata facendo il rapporto tra il numero di caratteristiche che individuano l’esemplare e il numero di caratteristiche totali del prototipo. Anche in questo caso è facile verificare che la somiglianza di Hampton corrisponde alla metrica su insiemi sopra introdotta. Lo studio delle regole di categorizzazione è attualmente oggetto di una intensa attività di ricerca. Questa attività ha preso in esame non solo i meccanismi base a cui i soggetti decidono di attribuire un nuovo esemplare a una categoria preesistente, ma anche i meccanismi che consentono ai soggetti di formare nuove categorie in seguito all’osservazione di un certo numero di esemplari. Le regole di categorizzazione finora proposte si possono ripartire in quattro grandi classi: 1. Una categoria è incentrata sul suo prototipo: ogni esemplare viene incluso nella categoria in cui la sua somiglianza col prototipo è massima, o la distanza dal prototipo è minima, rispetto alle somiglianze coi prototipi di altre categorie; la formazione della categoria prende dunque le mosse dalla scelta del prototipo della categoria stessa; 2. Una categoria è caratterizzata sia dal suo prototipo che da un opportuno raggio di prototipicità, cioè da una opportuna distanza dal prototipo comprendente gli esemplari più tipici; si può dunque introdurre il concetto di cerchio di prototipicità, inteso come la zona, o intorno, situata a una distanza dal prototipo non superiore al raggio di prototipicità, in cui gli esemplari più tipici sono contenuti; è ovvio che regole di questo tipo hanno senso solo ove sia possibile introdurre un opportuno concetto di distanza tra esemplari; 3. Una categoria comprende solo esemplari che sono più vicini
66
tra loro, o la cui distanza reciproca non supera un certo valore di soglia, un esemplare è classificato nella stessa categoria dell’esemplare che gli è più vicino; 4. Una categoria comprende solo gli esemplari la cui distanza reciproca media è sufficientemente bassa; un esemplare è incluso nella categoria in cui la sua distanza media dagli esemplari della categoria stessa è la minima possibile. In tutti questi casi risulta evidente come alla base della categorizzazione sia importante la possibilità di definire una metrica sulle caratteristiche degli esemplari. Ora si pone un importante problema concettuale: nel caso in cui non vi sia sovrapposizione tra caratteristiche la metrica sopra introdotta fornisce una distanza massima. Il problema della sovrapposizione nulla, ad una analisi più attenta, si rivela però un problema di rappresentazione, se associamo due oggetti allora esiste certamente una rappresentazione in cui essi hanno qualcosa in comune (al limite la nostra stessa associazione).
67
Un modello per il traffico stradale Sono numerosi gli esempi di sistemi la cui costruzione è abbastanza semplice ma il cui comportamento è estremamente complesso. Lo scopo di una teoria dei sistemi complessi è cercare delle leggi che regolano il comportamento globale di questi sistemi e che non sono facilmente deducibili dall’analisi delle singole leggi che controllano ciascuno dei sottosistemi costituenti. La scienza dei sistemi complessi parte sempre dal comportamento delle singole componenti di un sistema complesso e dalle loro interazioni. Tuttavia, essa si basa sull’ipotesi che le proprietà microscopiche dei componenti sono poco rilevanti e che il comportamento collettivo non varia se variano di poco le leggi che regolano il comportamento dei singoli componenti. Nel caso di sistemi fisici, i moti delle singole molecole devono essere seguiti esplicitamente e il comportamento globale del sistema viene stimato calcolando le proprietà medie. Il solo modo fattibile per realizzare tali simulazioni è attraverso l’uso dei calcolatori elettronici. La simulazione tramite calcolatori è un metodo molto usato per lo studio e l’analisi di molti fenomeni naturali in vari settori della scienza. Appare per questo naturale chiedersi se la simulazione è il metodo più efficiente da usare o se vi è una formula matematica che può portare più direttamente ai risultati cercati. Per chiarire questo particolare aspetto occorre analizzare la corrispondenza tra processi fisici e processi computazionali. È presumibile che qualunque processo fisico possa essere descritto da un algoritmo, così ogni processo fisico può essere rappresentato da un processo computazionale. Naturalmente il processo computazionale può essere più o meno complesso. Nel caso degli automi cellulari la corrispondenza tra processi fisici e processi computazionali è particolarmente chiara. Infatti, un automa cellulare può essere visto come un modello di un sistema fisico, ma d’altra parte esso può essere realizzato come un processo computazionale con una stretta analogia con il modello dei sistemi di elaborazione, ed in particolare con i sistemi di elaborazione paralleli.
68
Il paradigma computazionale degli automi cellulari offre un modello di calcolo che, differenziandosi dai classici metodi matematici, permette di definire modelli complessi attraverso un approccio formale che richiede all’utente di concentrarsi sul particolare del fenomeno da studiare, a partire da questo si ottiene il modello globale. Per questa ragione è molto importante poter disporre di un paradigma di programmazione che permetta di esprimere in forma di algoritmo le caratteristiche di un dato automa cellulare che contiene il modello del fenomeno da simulare. La simulazione di flussi di traffico stradale è un problema molto difficile da risolvere a causa della complessità del fenomeno e del numero di fattori da considerare nel modello. Un sistema composto da un insieme di strade percorso da un numero elevato di autoveicoli rappresenta un esempio significativo di sistema complesso. I metodi computazionali basati su sistemi di equazioni differenziali possono essere usati per modellare solo aspetti parziali di questo fenomeno offrendo una visione macroscopica del fenomeno stesso. In alternativa l’uso combinato degli automi cellulari e dei sistemi di calcolo parallelo ad alte prestazioni permettono la realizzazione e l’esecuzione di modelli microscopici di traffico stradale nei quali ogni veicolo è un singolo oggetto dinamico (attivo) capace di adattare il proprio comportamento alle caratteristiche della strada e del traffico in essa presente tramite l’interazione con i veicoli ad esso prossimi. Il modello di traffico ad automi cellulari che verrà delineato di seguito, è stato definito per simulare il traffico su strade di grande comunicazione, come superstrade ed autostrade. Nel modello, ogni singola cella dell’automa rappresenta un segmento della strada (a senso unico) lungo 5 metri, lunghezza equivalente alla media della lunghezza degli autoveicoli. Ogni segmento è composto da tre corsie, rispettivamente la corsia di destra, centrale e sinistra. Una quarta corsia è stata aggiunta per modellare gli ingressi, le uscite e la corsia di emergenza. Lo stato di ogni cella consiste nelle caratteristiche dei veicoli presenti in essa (velocità, lunghezza, accelerazione), nelle caratteristiche strutturali della strada (salita, discesa, distanza dalla prossima uscita), nelle
69
condizioni di traffico, dei limiti di velocità presenti e del comportamento del conducente (velocità desiderata). Lo stato di ogni cella è composto da 11 sottostati che descrivono il segmento della strada e le caratteristiche del veicolo in esso presente. Il vicinato di ogni cella contiene 25 celle che permettono di avere l’informazione sul tratto di strada che corrisponde alla porzione vista dal conducente in avanti e dietro. La funzione di transizione che regola l’evoluzione dello stato di ogni cella dell’automa e quindi permette di simulare il comportamento globale dei veicoli sulla strada è composta da due parti principali. 1. Nella prima parte vengono calcolati, per il veicolo presente nella cella, i valori correnti della velocità, della corsia e del numero di celle in avanti dove il veicolo, presente nella cella, arriverà nella prossima iterazione avendo lo scopo di viaggiare alla velocità desiderata in condizioni di sicurezza. 2. Nella seconda parte viene esaminato lo stato delle celle del vicinato che rappresentano una porzione della strada dietro la cella corrente per verificare la eventuale presenza di un veicolo che la prossima iterazione porterà nella cella corrente. In questo caso i valori che descrivono le caratteristiche del veicolo dovranno essere copiati nello stato della cella corrente. Per realizzare queste due parti, la funzione di transizione è composta dalle seguenti funzioni: • CheckSpeed: questa funzione riceve come argomenti la corsia, il limite di velocità, la prossima uscita e l’uscita scelta dal conducente e ritorna la velocità massima in condizioni di sicurezza che il veicolo può raggiungere nella cella nella data corsia. La funzione considera i veicoli immediatamente davanti e dietro in tutte le corsie allo scopo di calcolare la prossima posizione dei veicoli anche considerando i cambiamenti di corsia. Il valore della velocità è ottenuto confrontando la velocità e la prossima possibile posizione del veicolo con le velocità e le prossime possibili posizioni dei veicoli vicini. • Distance: riceve come argomento la corsia e ritorna il valore della distanza dal veicolo immediatamente davanti nella stessa corsia. • Deceler: riceve come parametri la distanza dal veicolo
70
successivo, la velocità attuale, la velocità desiderata dal conducente, la massima velocità in sicurezza, la capacità di decelerazione del veicolo ed il gradiente della strada e calcola la nuova velocità del veicolo ottenuta effettuando la minima decelerazione in condizioni di sicurezza ottima. • Acceler: riceve come parametri la distanza dal veicolo successivo, la velocità attuale, la velocità desiderata, la capacità di accelerazione del veicolo e il gradiente della strada, e calcola la nuova velocità ottenuta operando la massima accelerazione possibile in condizioni di sicurezza ottima. Questo modello è stato realizzato in ambiente CAMEL ottenendo un comportamento che descrive abbastanza bene il flusso globale dei veicoli sotto differenti condizioni di traffico. In particolare, in presenza di ostacoli sulla carreggiata si è potuto verificare la creazione di code di veicoli come accade nella realtà ed inoltre si è notato che la velocità dei veicoli diminuisce all’aumentare della densità del traffico ottenendo una corretta relazione tra la velocità media dei veicoli ed il volume di traffico. (cfr. S. Di Gregorio, 1981)
71
Le leggi della complessità La visione di complessità suggerisce un approccio al problema della conoscenza radicalmente diverso da quello tradizionale. In sé stessa non è una teoria e forse neppure un paradigma definito, ma è piuttosto l’esigenza di utilizzare strategie di pensiero multidimensionali, un frame-work concettuale generale che riguarda la necessità di un utilizzo dinamico di modelli diversi per connettere a vari livelli teorie, dati, problemi e significati. Non c’è più una realtà esterna fissa da rappresentare mediante l’uso monodimensionale di un modello unico ricavato da principi di partenza assoluti secondo uno schema lineare, riduzionista e dicotomico. Piuttosto, il sistema della conoscenza è caratterizzato da un processo di auto-organizzazione delle informazioni che procede per successivi anelli di retro-azione dai risultati ai principi attraverso una pluralità di modelli, modificando via via gli uni e gli altri, in una progressiva “costruzione” della realtà. Alla definizione di questa linea di pensiero che intreccia risultati sperimentali e problematiche epistemologiche hanno dato un contributo decisivo le ricerche di W.Mc Culloch, J. Piaget, H. Von Foerster, G. Bateson, H. Maturana, F. Varela ed H. Atlan. L’epistemologia naturale costruttivista è stata messa a punto separatamente da Gregory Bateson e, all’incirca nello stesso periodo, da Humberto Maturana e Francisco Varela, nota ormai come Teoria di Maturana-Varela-Bateson. Al cuore della teoria c’è l’idea che la vita e la cognizione seguono lo stesso tipo di processo e condividono dunque la stessa natura: una struttura che apprende è una struttura viva ed è viva finché apprende. La matrice fondamentale del pensiero “razionale” moderno e di quella sua caratteristica creatura che è la scienza consiste nell’idea di poter disporre di un Metodo in grado di costruire un percorso ordinato di pensieri ed esperienze e garantire con cristallina evidenza la Verità delle varie acquisizioni, pensate come una successione crescente verso la conquista definitiva del Sapere Assoluto ed Incontrovertibile. Man mano che questo ambizioso programma “laico” di conquista del “cielo” si sviluppava fu
72
necessario ammettere la sua difficile realizzabilità; ma questa non veniva imputata ad un difetto di principio, bensì ad “intoppi” pratici e contingenti, ad una non “perfetta” applicazione del metodo. L’ “imperfezione” umana veniva così ad essere valutata in base ad un ideale di perfezione che continuava a funzionare come principio regolativo della concezione del sapere come possibilità di accesso alla Totalità del Reale. Sotto questo profilo è emblematica l’avventura intellettuale di Cartesio e l’ “onda lunga” della sua eredità, che ancora oggi permea il senso comune e l’epistemologia dei filosofi (verificazionismo, falsificazionismo e qualche altro –ismo). E. Morin ha proposto di indicare globalmente gli assunti della proposta metodologica cartesiana sotto la denominazione di Pensiero Semplice, le cui caratteristiche riduzioniste, lineari e dicotomiche, possono così essere riassunte: · l’accumulo di conoscenza è inversamente proporzionale alla variazione dell’ignoranza; · se un problema è troppo complesso per poter essere risolto può sempre essere suddiviso in tanti sotto problemi per i quali è possibile una spiegazione. La “sommatoria” delle microspiegazioni fornirà la soluzione al macro-problema di partenza; · proprio come in matematica, il metodo deve permettere di distinguere tra questioni “valide”, suscettibili di chiara definizione e dimostrazione, e idee irrimediabilmente “confuse”, da rigettare nel flusso temporale del gioco delle opinioni, dei desideri e delle chimere; · il metodo permette dunque di fissare una direzione del Progresso, una “rotta” ben definita rispetto alla quale eventuali blocchi, deviazioni, ritorni e convergenze sono sempre subordinati e riassumibili nella storia globale della “strada maestra” della conoscenza. Bisogna capire che la separazione tipica del cartesianesimo tra “ego cogitans” e “res extensa” è una conseguenza necessaria dell’adozione del metodo. Questo, prima ancora di fornire uno strumento di conoscenza, è un esercizio di purificazione ed ascesi intellettuale, capace di rendere la mente razionale in grado di cogliere gli aspetti universali, necessari e atemporali dell’ordine del creato, lasciando
73
il resto al suo destino contingente di “accidente” deteriorabile; primo aspetto tra tutti la corporeità. Anche l’ “epurazione” delle tonalità emotive si rende necessaria nella misura in cui esse vengono a distorcere con “capricci” soggettivi la riflessione “asettica” sulla realtà esterna immutabile. Dunque la novità che definisce la razionalità moderna, dal ‘600 ad oggi, consiste nell’essersi auto-costituita come strumento unico nella costruzione del territorio della conoscenza grazie all’adozione di un metodo privilegiato. In seguito a quest’atto di hybris, il suo primo provvedimento è stato quello si espellere dalle sue “colonie” ogni altro approccio con il reale incapace di esibire le necessarie caratteristiche di “chiarezza”, costringendolo o ad autoconfinarsi nelle riserve protette del “sacro” oppure a nascondersi nei “boudoir” del privato o nelle caverne di una vaga “spiritualità”, fondando quel gioco schizofrenico tipico della civiltà borghese che è stato così acutamente analizzato da M. Foucault. Le avventure della conoscenza negli ultimi due secoli hanno visto l’incrinarsi progressivo e inesorabile dello schema monolitico del pensiero semplice, con la conseguente necessità di esorcizzare definitivamente il fantasma del metodo “assoluto” per fare posto ad un più flessibile approccio sistemico in cui l’osservatore è cosciente del suo ruolo di costruttore di modelli. Un sistema complesso, composto da molti elementi interagenti non-linearmente e che presenta comportamenti emergenti impredicibili, per essere “visto” richiede una riflessione sul ruolo dell’osservatore. (Ignazio Licata) A seconda della velocità di produzione d’informazione, strettamente correlata al grado di non-linearità e dunque di complessità del sistema, possiamo distinguere due grandi categorie di sistemi amplificatori. Una prima grande classe è quella dei sistemi in cui l’informazione cresce con il tempo, ma va progressivamente rallentando. In questo caso il volume di fase è una funzione polinomiale del tempo. Si tratta di sistemi relativamente prevedibili, perché dopo un certo tempo dI/dt praticamente si annulla ed il sistema si
74
assesta su una struttura ben definita. Rientrano in questa categoria le strutture dissipative, studiate da I. Prigogine. Si tratta di sistemi aperti che si auto-organizzano in virtù di un certo processo non lineare che permette loro un “bilanciamento” tra l’energia libera in entrata e l’entropia in uscita. In queste strutture è possibile, secondo Glansdorff e Prigogine, mostrare che la funzione di dissipazione dell’entropia soddisfa ad un criterio matematico detto criterio di Ljapunov, che ne garantisce la stabilità. Inoltre esiste un teorema di Conway-Hoff-Smoller che permette di fare delle previsioni sulla forma generale della struttura dissipativa nello stadio di “mante-nimento”. Sul versante opposto, R. Landauer e R. Fox hanno dimostrato che la congettura di Glansdorff-Prigogine non ha validità universale e recentemente N. Kopell e D. Ruelle hanno stabilito dei limiti ben precisi per la complessità delle configurazioni raggiungibili da questo tipo di sistemi. Sembra perciò che, contrariamente alle aspettative di Prigogine, non sia possibile una teoria generale unificata delle strutture dissipative capace di spiegare ogni passaggio dal disordine all’ordine. Questi sistemi presentano comunque, pur nella loro irriducibile varietà, delle caratteristiche interessanti per lo studio di una vasta classe di fenomeni fisici, chimici e biologici. Un “meccanismo” non-lineare tipico di questo tipo di strutture è quello della retro-azione o feed-back. Il termine deriva dalla cibernetica ed indica l’azione “circolare” della risposta sullo stimolo e dell’effetto sulla causa. Questo conduce a processi di auto-bilanciamento ed auto-rafforzamento che sono all’origine della struttura del sistema e della capacità autoorganizzativa. Esempi classici sono i sistemi di reazionediffusione, come il modello di Turing della morfogenesi, la reazione di Belusov-Zhabotinsky, il modello predatore-preda di Lotka-Volterra, le celle di convezione di Bènard, il LASER, gli iper-cicli di Eigen. Sono tutti sistemi auto-oscillatori, i cui attrattori appartengono alla classe dei cosiddetti cicli-limite. Si è scoperto che quando un sistema evolve verso una situazione di auto-organizzazione la transizione viene “pilotata” da un parametro ordinatore secondo uno scenario universale, indipendente cioè dalle caratteristiche peculiari del sistema, retto da un’equazione del tipo Ginzburg-Landau dipendente dal tempo,
75
proprio come avviene nelle transizioni di fase. Sotto particolari condizioni al contorno e per valori superiori al valore critico di certi parametri che descrivono l’azione dell’ambiente esterno sul sistema, le strutture dissipative possono cominciare a manifestare delle instabilità, fino ad avere delle risposte fortemente nonlineari e dei bruschi cambiamenti in cui compaiono nuove forme d’ordine. Queste “biforcazioni” avvengono in misura maggiore quanto più il sistema è lontano dall’equilibrio e comportano sempre una modificazione drastica e repentina dell’attrattore. È merito della teoria delle catastrofi di R. Thom quello di aver classificato tutte le possibili biforcazioni nel caso di due variabili e quattro parametri d’ordine identificando sette modelli geometrici di catastrofi di base. Per valori super-critici dei parametri di controllo le strutture dissipative tendono a “saltare” ed il sistema entra a far parte della seconda grande categoria dei sistemi amplificatori di informazione: i sistemi caotici. La seconda categoria è quella dei sistemi dove sia I che dI/dt crescono con il tempo e V è una funzione esponenziale del tempo. Una condizione molto generale perché si abbiano sistemi di questo tipo è che, oltre alla non-linearità, ci sia un numero di variabili di stato = 2 (teorema di Smale, 1966). In questo caso parliamo di sistemi strutturalmente instabili. Le biforcazioni si presentano con tale frequenza e varietà da rendere impossibile ogni tentativo di classificazione alla Thom. Con il passare del tempo si produce la contrazione di un elemento di volume lungo una direzione dello spazio delle fasi ed invece si ha un’espansione lungo le altre. Una caratteristica essenziale di questa categoria di sistemi è la completa impredicibilità del comportamento dinamico, nonostante le equazioni che lo descrivono siano semplici e deterministiche; in altre parole, pur essendo ogni “passo” d’evoluzione del sistema perfettamente calcolabile, è impossibile fare qualunque tipo di previsione anche a medio e breve termine. In questo senso parliamo di sistemi caotici deterministici, caratterizzati da un “forte” grado di non-linearità. Un’altra particolarità è che le traiettorie dello spazio delle fasi vengono tutte a raccogliersi in una regione ben definita la cui “dimensione” geometrica non è generalmente un numero intero. Si costituiscono così degli attrattori che sono oggetti frattali nel senso di Mandelbrot e che
76
sono denominati attrattori strani o caotici. I sistemi caotici sono estremamente sensibili alle condizioni iniziali o ad ogni pur piccola perturbazione: condizioni iniziali vicinissime nello spazio di fase possono dar luogo a traiettorie completamente diverse ed ogni instabilità viene amplificata. È questo il famoso “effetto farfalla”. Diversamente dalle strutture dissipative che “reggono” abbastanza bene le perturbazioni, sia ristabilendo la loro struttura e la loro autonomia sia “assorbendola” per passare ad un nuovo livello di auto-organizzazione, i sistemi caotici si “impadroniscono” immediatamente di una fluttuazione e l’amplificano fino ad estenderla all’interno del sistema, provocando comportamenti nuovi ed assolutamente inaspettati. È sotto questo aspetto che il tipo di amplificazione dell’informazione realizzata dai sistemi caotici può condurre a stati più ordinati. Gli attrattori caotici agiscono come “miscelatori” di ordine e disordine, favorendo imprevedibilmente ora l’uno ora l’altro. A parte i modelli della turbolenza, i sistemi caotici sono attualmente studiati proprio per questa loro interessante capacità di interagire in modo “creativo” con il “rumore” esterno. Di recente Matsumodo e Tsuda hanno mostrato come alcuni sistemi caotici a cui viene aggiunta l’azione di fluttuazioni mostrano bruscamente un comportamento collettivo ordinato, come, ad esempio, oscillazioni armoniche. In breve, in alcuni casi caos più caos può dare luogo a strutture ordinate. Partendo da questo risultato e considerando che il sistema nervoso umano è un amplificatore d’informazione, Nicolis, Tsuda ed altri hanno sviluppato modelli dell’attività delle reti neurali nei quali l’attività mentale viene vista come l’incessante “lavorio” di più attrattori caotici. Quando uno stimolo esterno entra nel sistema può così indurre una “risposta” ordinata: idee, connessioni, processi di memorizzazione e di riconoscimento e così via. Altri studi in questa direzione sembrano mostrare che esiste uno scenario universale di transizione al caos, proprio come esiste un parametro d’ordine nelle transizioni di fase e nei processi di autoorganizzazione. Negli ultimi anni ha acquistato una notevole risonanza il lavoro svolto dal bio-matematico S. Kauffman, utilizzando la teoria del caos e le sue relazioni con la teoria delle informazioni. Kauffman ha studiato il comportamento di reti
77
binarie, in cui ogni nodo può essere soggetto soltanto a due stati del tipo ON/OFF ed il cui schema varia per passi discreti; ogni nodo assume un determinato valore a seconda dello stato dei nodi adiacenti. Le reti binarie sono un tipo di automa cellulare, schemi di attività caratterizzati essenzialmente dall’avere una dinamica discreta, del tipo “step by step”. Gli automi cellulari furono ideati in origine da J. von Neumann per fornire un modello di macchine che si autoriproducono (da qui il nome) ed il loro studio fu poi ripreso da R. Conway, S. Wolfram, F. Varela e R. Uribe, D. Farmer. (Ignazio Licata, Informazione e complessità, Quaderni Andromeda di Filosofia Naturale, 1998) Vorremmo comprendere l’ordine che ci circonda nella biosfera, e vediamo che un tale ordine può essere il riflesso sia di forme di equilibrio a bassa energia (la palla nel recipiente) che di strutture dissipative in non-equilibrio, di vortici stabili che mantengono un ordine assorbendo ed emettendo materia ed energia. Ci sono almeno tre ostacoli che dobbiamo attentamente considerare. In primo luogo la teoria dei quanti, che impedisce una previsione dettagliata dei fenomeni a livello molecolare. Qualunque sia la teoria finale, questo mondo ha ormai assistito a troppi lanci di dadi quantistici per riuscire a prevedere il suo stato nel dettaglio. In secondo luogo, anche laddove domini il determinismo classico, la teoria del caos ci dimostra che minimi cambiamenti nelle condizioni di partenza possono portare a profonde modifiche del comportamento in un sistema caotico. In pratica, potremmo essere incapaci di conoscere le condizioni iniziali con precisione sufficiente per prevedere un comportamento dettagliato. Infine, la teoria della computazione sembra implicare il fatto che i sistemi in non-equilibrio possono essere visti come computer che eseguono algoritmi. Per ampie classi di questi algoritmi, vedi ad esempio gli automi cellulari, non è possibile ottenere alcuna descrizione compatta, simile ad una legge, del loro comportamento. Se l’origine e l’evoluzione della vita equivalgono a un algoritmo informatico incompressibile allora, in linea di principio, non possiamo trovare alcuna teoria essenziale che sia in grado di
78
predire tutti i dettagli del suo svolgimento. Tuttavia, anche ammesso che l’evoluzione sia un processo incompressibile, non è detto che non si possano trovare leggi profonde che regolino questo flusso imprevedibile, dal momento che non possiamo escludere la possibilità che molte caratteristiche degli organismi e la loro evoluzione stessa siano intrinsecamente robusti e insensibili ai dettagli. Dopo tutto ciò che ci basterebbe non è necessariamente una previsione dettagliata, ma piuttosto una spiegazione logica. Il grande mistero della biologia sta nel fatto che la vita sia emersa e che l’ordine che osserviamo sia apparso. Una teoria soddisfacente dovrebbe dar conto della creazione dello stupefacente ordine che vediamo dalla nostra finestra come naturale espressione di una qualche legge sottostante. Chiunque vi dica di sapere come la vita sia iniziata in un mondo incandescente circa 3,45 miliardi di anni fa è uno sciocco o un furfante. Nessuno lo sa. In effetti, potremmo non essere mai in grado di ricostruire la reale sequenza storica degli eventi che hanno permesso ai primi sistemi molecolari in evoluzione e in grado di autoriprodursi di fiorire più di 3 miliardi di anni fa. Ma se il percorso storico è destinato a rimanere per sempre un mistero, è possibile tuttavia sviluppare teorie strutturate ed esperimenti per dimostrare in maniera realistica come la vita possa essersi cristallizzata, aver messo radici ed essersi diffusa in tutto il globo. Ma attenzione: nessuno lo sa! Nessuno sa a che cosa assomigliassero i primi sistemi molecolari capaci di riprodursi, ma forme arcaiche di cellule si adagiarono su argille o su superfici rocciose, vennero sepolte e lasciarono le loro impronte affinché potessimo ritrovarle e porci le domande che oggi fanno riflettere. Quale complessità mostrano queste antiche cellule! Si può capire dalla loro morfologia che, come nelle cellule contemporanee, la loro membrana fosse uno strato bilipidico, una specie di bolla di sapone a doppio strato fatta di molecole di lipidi, contenente una rete di molecole in grado di mantenersi e di riprodursi. Ma in che modo questi aggregati molecolari autoreplicantesi sono riusciti a coagularsi a partire dalla primigenia
79
nuvola di idrogeno, atomi e molecole, che a sua volta si è coagulata da una nube di polvere nella terra primeva? Le teorie sull’origine della vita apparvero nella loro forma moderna solo dopo i brillanti esperimenti di Louis Pasteur, egli dimostrò che non si formava alcuna crescita di batteri nel suo brodo sterile, che abilmente aveva isolato dall’ambiente esterno: la vita, concluse, è generata dalla vita! Con Pasteur il problema delle origini della vita apparve improvvisamente immenso, profondo, misterioso, indicibile, forse al di là della scienza stessa. Gli organismi ospitano molecole assenti nei materiali non viventi. Gli organismi contengono molecole organiche. La differenza tra vivente e non vivente, si pensò per qualche tempo, risiede nei diversi tipi di molecole. Nessun ponte poteva colmare questa distanza. A metà del diciannovesimo secolo, Emil Fischer sintetizzò l’urea, un composto chiaramente organico, da sostanze chimiche inorganiche. La vita, dunque, era fatta dello stesso materiale del mondo non vivente. La vita proviene da materiale non animato, sebbene questo gioco di prestigio sia molto più complesso di quanto ci si sarebbe mai potuto immaginare. Quelli che volevano credere che la vita fosse iniziata con l’acido nucleico DNA, dovevano tuttavia affrontare un grosso inconveniente: il DNA da solo non si autoreplica, deve esserci un insieme complesso di enzimi proteici. Per la duplicazione del DNA occorre una molecola, un ovulo, che possiede una struttura e complessità strabiliante. Occorre un certo grado di complessità affinché la vita possa evolversi. George Wald (1954) in un suo articolo si chiede come può essere che un gruppo di molecole possa assemblarsi proprio nella maniera giusta per formare una cellula vivente, basterebbe solo considerare la difficoltà di questo compito per concludere che la generazione spontanea di un organismo vivente è impossibile. Eppure siamo qui! Wald continua dicendo che, se vengono fatti moltissimi tentativi, ciò che è inconcepibilmente improbabile alla fine si realizza.
80
Uno non deve far altro che aspettare: è il tempo stesso a fare i miracoli. Ma 4 miliardi di anni non sono abbastanza per permettere alla vita di emergere da una pura combinazione casuale, sono insufficienti per diversi ordini di grandezza. L’astronomo Fred Hoyle rinunciò alla possibilità di una generazione spontanea affermando che un evento simile ha una probabilità paragonabile alle possibilità che un tornado, passando sopra a una discarica, fosse in grado di assemblare un Boeing 747 con i materiali lì depositati. La cellula vivente è un sistema aperto enormemente complesso. Mentre la materia e l’energia attraversano i confini della membrana cellulare, le cellule del vostro corpo coordinano il comportamento di circa 100.000 diversi tipi di molecole. Se speriamo che capire il comportamento di sistemi termodinamici chimici aperti molto semplici ci porti a capire la cellula siamo proprio presuntuosi. Nessuno capisce come si comportino le complesse reti cellulari di reazioni chimiche ed i loro catalizzatori, o quali leggi governino i loro comportamenti. Anche se semplici sistemi termodinamici aperti sono almeno un inizio, e sono già di per sé affascinanti. Dei sistemi semplici non in equilibrio possono formare degli schemi notevolmente complessi di concentrazioni chimiche, con variazioni impressionanti nel tempo e nello spazio, Prigogine ha chiamato questi sistemi dissipativi perché per riuscire a mantenere la propria struttura dissipano in continuazione materia ed energia. Le concentrazioni delle specie chimiche in un sistema dissipativo possono non raggiungere uno stato stazionario, le concentrazioni possono incominciare ad oscillare in cicli ripetuti, cicli limite, che si mantengono per lunghi periodi di tempo. I comportamenti relativamente semplici dei sistemi chimici in non equilibrio sono molto studiati e possono avere una grande varietà di implicazioni biologiche. Molti pensano che i modelli naturali con cui si formano questi sistemi abbiano molto da insegnarci a proposito dello schema spaziale che si manifesta nello sviluppo delle piante e animali. Ma per quanto possano essere interessanti questi modelli chimici non sono ancora dei
81
sistemi viventi. La cellula non è solo un sistema aperto, ma un sistema collettivamente autocatalitico. Nelle cellule non solo emergono degli andamenti chimici, ma le cellule si mantengono come entità capaci di riprodursi e di andare incontro a un’evoluzione darwiniana. Sarebbe interessante riuscire a comprendere l’origine di sistemi molecolari collettivamente autocatalitici, a questo fine il primo passo consiste nel distinguere tra reazioni spontanee che avvengono molto lentamente e reazioni catalizzate che devono verificarsi rapidamente. Occorrerebbe trovare le condizioni in cui le stesse molecole siano sia i catalizzatori che i prodotti delle reazioni che generano il gruppo autocatalitico. Questo dipende dalla possibilità che ogni molecola del sistema ha di svolgere una doppia funzione: fungere da ingrediente o da prodotto di una reazione ma anche essere il catalizzatore di un’altra reazione. Ecco di seguito l’idea di Stuart Kauffman: “… Man mano che la diversità molecolare nel nostro sistema aumenta, il rapporto fra reazioni e sostanze chimiche aumenta sempre più. In altre parole, il grafico di reazione ha sempre più linee che connettono i punti delle sostanze chimiche. Le molecole del sistema sono esse stesse candidate per catalizzare le reazioni grazie a cui si sono formate. Man mano che il rapporto tra reazioni e sostanze chimiche aumenta, il numero di reazioni che sono catalizzate dalle molecole nel sistema aumenta. Quando il numero delle reazioni catalizzate si avvicina al numero delle sostanze chimiche, si forma una grande rete di reazioni catalizzate e compare improvvisamente un sistema collettivamente autocatalitico…”
82
I requisiti dell’ordine Partiamo dal considerare delle reti booleane, ovvero degli elementi che possono essere o attivi o inattivi, interconnessi da collegamenti eccitatori o inibitori. Le reti booleane sono analoghe, per alcuni aspetti, alle reti neurali. Le reti booleane possono esibire un ordine profondo, ma anche un caos strabiliante. Le condizioni nelle quali delle dinamiche ordinate possono emergere all’interno di tali sistemi dipendono dagli attrattori che in esse si realizzano. Due caratteristiche relative al modo in cui sono strutturate le reti possono controllare se esse si trovano in un regime ordinato o caotico, o in un regime di transizione di fase tra questi due, al confine del caos. Una caratteristica è semplicemente quanti input controllano ogni elemento: se ogni elemento è controllato solo da uno o due altri elementi, ovvero se la rete è poco connessa, allora il sistema mostra un ordine sbalorditivo. Se invece ogni elemento è controllato da molti altri, allora la rete è caotica. Così regolare la connessione di una rete serve a regolare anche il fatto che si formino ordine o caos. La seconda caratteristica che controlla il sorgere dell’ordine o del caos prende forma proprio nelle stesse regole di controllo. Alcune delle regole di controllo, le funzioni booleane AND e OR, tendono a creare dinamiche ordinate, altre regole di controllo creano invece il caos. Un modo per chiedersi quali tipi di reti di elementi esibiscano ordine o caos è quello di costruire delle reti molto specifiche e di studiarle. L’approccio più naturale è definire accuratamente un certo tipo di reti, e poi usare dei computer per simularne un gran numero. Allora, come se facessimo un sondaggio, potremo eseguire un ritratto dei comportamenti tipici, o generici, dei membri della classe di reti studiate.
83
Consideriamo le reti in cui ogni elemento riceve input solamente da un altro elemento. In queste reti non succede niente di interessante. Esse cadono velocemente in cicli di stato molto brevi, così brevi che spesso consistono di un solo stato, una singola configurazione di attivazione. All’altro estremo della scala, consideriamo delle reti in cui ogni elemento riceve un input da tutti gli altri elementi incluso se stesso. In questo caso il sistema diviene estremamente caotico. Uno scopre velocemente che la lunghezza dei cicli di stato delle reti è la radice quadrata del numero degli stati. Basta fare alcuni conti per rendersi conto che una piccola rete di soli 200 elementi può continuare ad attraversare stati di attivazione diversi per un periodo astronomico: nei sistemi termodinamici aperti non in equilibrio l’ordine non è assolutamente automatico. Se tentiamo di far evolvere una rete simile cambiando casualmente le regole booleane di qualche elemento altereremo metà delle transizioni di stato della rete e scaraventeremo tutti i vecchi bacini di attrazione e i cicli di stato nella spazzatura della storia della rete. In questo caso, piccoli cambiamenti causano grandissime variazioni di comportamento. In questa famiglia non ci sono piccole variazioni ereditabili che consentano alla selezione di agire. Un esempio di ordine che si sviluppa in queste reti avviene quando ogni elemento è connesso mediamente ad altri due. Per queste reti la lunghezza dei cicli di stato non è la radice quadrata del numero degli stati ma, approssimativamente, la radice quadrata del numero delle variabili binarie. Pensate a una rete booleana costruita a caso con 100.000 elementi ognuno dei quali riceva due input. Il diagramma di collegamento sembrerebbe una accozzaglia impazzita, inoltre ad ogni elemento è stata assegnata in maniera casuale una funzione booleana. Anche la logica è quindi assemblata a caso. Eppure la rete si stabilizza velocemente in cicli di appena 317 configurazioni. In queste reti l’ordine si esprime per vie diverse. Stati vicini convergono nello spazio di stato. In altre parole, due configurazioni iniziali simili saranno situate probabilmente nello stesso
84
bacino di attrazione, e quindi guideranno il sistema verso lo stesso attrattore. Queste reti non sono troppo ordinate a differenza della rete i cui elementi hanno un solo input, non sono rigide come una roccia, ma sono capaci di comportamenti complessi. Due parametri sono sufficienti per determinare se delle reti booleane casuali sono ordinate o caotiche. Reti poco connesse esibiscono un ordine interno, quelle densamente connesse virano verso il caos, mentre reti con una singola connessione per ogni elemento si congelano in un comportamento rigido e immobile. Ma la densità non è l’unico fattore. Se le reti hanno connessioni numerose è possibile definire un parametro che le porta da un regime caotico a un regime ordinato. (B. Derrida, G. Weisbuch) Come fanno le reti cellulari a raggiungere sia la stabilità che la flessibilità? La nuova interessante ipotesi è che le reti possano ottenere questo scopo raggiungendo una specie di stato sospeso, in equilibrio sull’orlo del caos. Non dovremmo sorprenderci troppo se lungo questo asse si verifica un cambiamento improvviso nel comportamento, una specie di transizione di fase dall’ordine al caos. Una transizione di fase molto simile si verifica nei modelli di reti booleane, ancora una volta appare un raggruppamento significativo di elementi interconnessi. Se questo raggruppamento si forma allora la rete si trova in un regime ordinato, se non si forma allora la rete è in un regime caotico. Proprio in mezzo, proprio vicino alla transizione di fase, proprio ai confini del caos, possono verificarsi i comportamenti più complessi: abbastanza ordinati da assicurare una stabilità, ma pieni di flessibilità e sorprese. È proprio su questo confine che si concentrano i maggiori studiosi della complessità. Possiamo vedere intuitivamente che il confine del caos può rappresentare un regime attraente per coordinare comportamenti complessi.
85
Complesso e complicato Il problema è intanto quello di capire la differenza non solo linguistica, ma anche fortemente epistemotogica che corre fra due termini che sono solo apparentemente simili: complicato e complesso. Oggi la scienza ha compreso che nella conoscenza della realtà non si tratta soltanto di raccogliere un numero considerevole di dati relativi ad un fenomeno, per meglio definirlo, e che non è il numero elevato di variabili in gioco a stabilire la presenza di una complessità, quanto piuttosto il loro essere visibilmente intrecciate in una rete di relazioni. Ciò che fa davvero la differenza tra due concetti di complesso e complicato è la scoperta che tutti i fenomeni, soprattutto quelli legati al mondo del vivente, mostrano un’apparente mancanza di ordine nella propria evoluzione e a volte nella stessa struttura, caratteristiche che non permettono di ricostruire certe serie di eventi, come quelle della biologia contemporanea, se non come processi caotici. Il contesto entro cui la scienza contemporanea parla di una scoperta della complessità si individua così nella scoperta del carattere imprevedibile di alcuni fenomeni, e nella comprensione del fatto che: • nella scienza non esistono oggetti semplici, cioè la ricostruzione di un evento osservato sembra rispondere a leggi deterministiche ma va ben oltre queste leggi; • la previsione dello stato futuro di un sistema può sembrare possibile, ma a costo di ridurre qualitativamente la portata di un fenomeno studiato; • le qualità riscontrate in un oggetto studiato non sono proprie di quell’oggetto, ma sono la risposta della sua interazione con l’osservatore, sono il suo “modo di vederle”. Questo rappresenta il vero punto di partenza di ogni possibile riflessione sul ruolo stesso della scienza, sulla sua ricerca di una coerente immagine del mondo.
86
Il criterio che permette di differenziare complicatezza e complessità dovrebbe comunque scaturire anche dall’evidenza del limite intrinseco alle spiegazioni che la scienza “classica” ha dato dei fenomeni, quelle cioè che puntano a semplificare, a ridurre, a sminuire la portata di un fenomeno, ad ignorare le innumerevoli relazioni possibili fra fenomeni ed eventi diversi. Quindi, nel momento in cui si prende coscienza dell’esigenza di una nuova situazione teorica si dovrebbero, per cosi dire, ridisegnare anche gli strumenti e le procedure d’indagine della scienza e il sistema delle pratiche sperimentali di ogni disciplina. Tutto questo implica un notevole spostamento di prospettiva: si mostra anzitutto come ogni idea di esattezza nella scienza, se è scaturita da una concezione del Mondo come meccanismo semplice, sia fittizia. Di conseguenza, si è manifestato il carattere puramente descrittivo delle leggi scientifiche, la loro incapacità, cioè, di andare oltre la semplice supposizione di uno stato di cose, di spiegare davvero un fenomeno, fatto questo che mette sotto una luce diversa anche il concetto di osservazione e di esperimento, nonché quello di verità. “Una goccia d’acqua che si spande nell’acqua, le fluttuazioni delle popolazioni animali, la linea frastagliata di una costa, i ritmi della fibrillazione cardiaca, l’evoluzione delle condizioni meteorologiche, la forma delle nubi, la grande macchia rossa di Giove, gli errori dei computer, le oscillazioni dei prezzi, sono fenomeni apparentemente assai diversi, che possono suscitare la curiosità di un bambino o impegnare per anni uno studioso, con un solo tratto in comune: per la scienza tradizionale, appartengono al regno dell’informe, dell’imprevedibile dell’irregolare. In una parola al caos. Ma da due decenni, scienziati di diverse discipline stanno scoprendo che dietro il caos c’è in realtà un ordine nascosto, che dà origine a fenomeni estremamente complessi a partire da regole molto semplici.” (J.Gleick, pioniere di una nuova scienza, Chaos) Nella scienza classica, il caos era per definizione, assenza di ordine. Oggi è considerato una dimensione retta da leggi non definibili, infatti, il concetto di disordine è inteso come complessità. La teoria del caos è nata quando la scienza classica non aveva
87
più mezzi per spiegare gli aspetti irregolari e incostanti della natura; è innanzitutto una teoria scientifica, nata su sperimentazioni fisiche, biologiche, matematiche, socio-economiche, che ha cambiato l’aspetto del mondo e che in un secondo tempo è stata sintetizzata nelle arti espressive, facendo la sua apparizione nello studio di fenomeni meteorologici. Le applicazioni pratiche di questa teoria sono dirette nei più svariati campi, in quanto essa permette, con la sua visione della realtà, di scegliere tra una grande abbondanza di opportunità e di raggiungere il principale obbiettivo della scienza oggi e di sempre trovare per mezzo di quali regole è governato 1’ universo e in che modo possiamo usarlo ai nostri fini come vagheggiava Bacone. Nell’affermazione di George Santayana “Chaos is a name for any order that produces confusion in our minds”, si conferma che il caos, questo punto, non può più essere visto come casualità e totale mancanza di ordine, ma unicamente, come un ordine così complesso da sfuggire alla percezione e alla comprensione umana; un ordine con una logica stocastica e inestricabile dove le regole dell’antica idea di armonia platonica non siano più riscontrabili. Di conseguenza, i sistemi caotici non possono più essere interpretati esclusivamente come imprevedibili anche se irregolari. È fondamentale sottolineare che il caos non è sinonimo di caso (curiosamente suo anagramma) come la logica potrebbe indurre a pensare e non si può parlare di completo disordine, in quanto i sistemi caotici, alla luce delle nuove scoperte della teoria del caos, sono sistemi dinamici sempre prevedibili a breve termine e, quindi, riconducibili ad una logica nuova più o meno complessa. Si può, dunque, paradossalmente affermare, in base a precise scoperte scientifiche, che nel caos c’è ordine. La nazione di “organizzazione” evidenzia un processo che si dimostra innanzi tutto imprevedibile, non deterministico, partecipe al tempo stesso di ORDINE e DISORDINE, di condizioni di equilibrio e di non equilibrio. Alla luce di questo la natura ci si presenta sempre più come una realtà difficilmente definibile determinabile. Infatti venuta attualmente meno la pretesa di un suo completo dominio, ci sembra vada meglio avvicinata l’interno di una ricerca aperta che
88
tenga conto di tutti gli elementi che intervengono ; elementi che evidenziano una certa discontinuità ed ambiguità nella nozione di natura. In tal modo non trovano più posto tutti i modelli riduzionisti e continuistici di spiegazione. Emerge, invece, una qualche libertà nelle strutture fisiche non deterministiche inteso; perciò diventa impassibile un suo perfetto padroneggiamento oggettivo. La natura in quanto tale, si presenta in sé imprevedibile disponibile verso sempre nuove ed inedite possibilità di sintesi le quali prendono inevitabilmente corpo qualora si verifichino certe circostanze. La nuova visione della natura dunque oscilla tra condizioni vincolanti e libertà tra loro dinamicamente convesse. Evidentemente questo conferisce un certo valore all’idea che nella natura vi sia un certo progresso, una sua storia, che non è tuttavia assolutamente indicabile. Come ha giustamente osservato Italo Mancini a proposito della teoria delle catastrofi elaborata da René Thomson, sono ora di fronte ad una ribellione in favore del nuovo, dell’inedito, del dispotismo. Le ragioni del diverso di fronte all’identico. La natura al contrario di quanto sostiene Monod, non si trova in un equilibrio morto, dove l’organizzazione del vivente è semplicemente un’eccezione e deve non ci sono le idee di progresso e libertà, ma bensì è qualcosa di organizzato da leggi che regolano il processo tra ordine e disordine. Di conseguenza possiamo affermare che l’universo è in continua trasformazione è in progresso per le sue intrinseche possibilità e trova spiegazione non dentro di sé, ma altrove. Questo suggerimento è alla base dell’attuale riflessione sulla natura. Tale apertura conferisce maggior spazio alla libertà umana che resta irriducibile rispetto ad ogni tentativo di dominio o di comprensione della natura. Ciò restituisce un valore positivo all’uomo che, senza sentirsi schiacciato dalla natura, vi si avvicina per trascenderla. Di siffatta apertura partecipa anche il sapere scientifico stesso. Infatti la natura in quanto realtà non omogenea ed estremamente complessa, ci appare resistere ad ogni intento conoscitivo inglobante, comprendente, anche per i limiti insiti nel metodo scientifico. Di conseguenza la natura ci si mostra sempre come
89
circoscritta entro i molteplici linguaggi della scienza; di qui l’impossibilità inoltre di sbarazzarci delle nostre conoscenze che sono sempre linguisticamente confinate entro “mappe” o “modelli” che ovviamente non sono la realtà, bensì livelli o aspetti particolari di essa, che resta in sé attingibile. E in questo spazio di irriducibilità teorica e pratica che si situa una diversa intelligibilità della natura; un’intelligibilità che è estremamente dipendente per un verso dai condizionamenti del nostro conoscere e, per l’altro, da un’emergenza ontologica che sembra affacciarsi dall’epistemologia contemporanea. Cimentarsi nella ricerca di una definizione esauriente dei fermenti del nostro tempo appare un’impresa quanto mai rischiosa e, sotto parecchi aspetti, sterile. Il compito sarebbe più facile e interessante se ci si limitasse ad un’analisi condotta attraverso l’individuazione di alcune parole chiave, intese come guide per posare lo sguardo sulla realtà. Una di queste parole da usare come lente di ingrandimento, soprattutto per esplorare il campo del sapere a noi più vicino, quello della filosofia e della scienza, potrebbe essere senz’altro il termine “crisi”. La storia del pensiero scientifico e filosofico contemporaneo è infatti segnata, già a partire dalla fine del XIX° secolo dalla progressiva presa di coscienza di un lento ma inesorabile dileguarsi delle certezze, dei fondamenti teorici e pratici del sapere. Uno alla volta, tutte le categorie del pensare e dell’agire scientifico e filosofico, idee e concetti ritenuti immutabili come il tempo, lo spazio, il rapporto tra cause ed effetto, sono stati messi alla prova. Assunta consapevolezza di ciò, su un piano più teorico ed intellettuale si è ritenuto che una delle possibili linee di azione fosse, da un lato, quella di trovare nuove risposte, più adeguate al tempo che stiamo vivendo, agli interrogativi classici della filosofia, intesa ancora come sguardo critico sul mondo; dall’altro, si è cercato di costruire un’immagine il più possibile confortante del lavoro e delle prospettive della scienza, la quale ha mantenuto la speranza di continuare a ricoprire il ruolo ereditato dal tempo di Newton e Galileo, di faro illuminante dell’esistenza umana. Su un piano meno astratto, la crisi che caratterizza il nostro secolo è
90
però una crisi di tipo esistenziale, profonda e diffusa a livello globale; nessun aspetto della nostra vita ne è immune, a partire da questioni come la salute, i mezzi di sussistenza, la qualità dell’ambiente e dei rapporti sociali, l’economia, la tecnologia. Si è sviluppata insomma la coscienza di una serie impressionante di emergenze, che coinvolgono l’umanità, a tutti i livelli in un tentativo di ricerca di nuove soluzioni. L’immagine stessa della filosofia e della scienza ne risulta quindi modificata: il sapere ereditato dall’età moderna, per poter sopravvivere, deve mettere in discussione uno dopo l’altro tutti i suoi fondamenti, ma soprattutto deve scoprirsi ancora capace di calarsi nella vita reale e rispondere alle domande sempre più pressanti che essa gli pone. I sistemi complessi, formati da moltissime parti che interagiscono tra loro, hanno alcune caratteristiche tipiche. [cfr. Kauffman] Stabilità I sistemi complessi tendono a mantenersi stabili nonostante i cambiamenti ambientali. Questo viene realizzato con dei circuiti di retroazione negativa che traggono informazione dall’ambiente. Maggiore la complessità del sistema, e maggiore può essere la sua stabilità. Un termostato che regola la temperatura in una stanza è formato da un solo circuito di retroazione, e infatti non ha una grande flessibilità: per esempio non può nulla contro la rottura di una finestra. Finalità I sistemi complessi sembrano sempre avere un comportamento finalizzato, nel senso che le loro dinamiche tendono ad ottenere un determinato stato. Gli organismi cercano di mantenersi in vita, di nutrirsi, riprodursi, ecc.; ma anche sistemi economici e sociali a volte si dirigono ostinatamente (?) verso determinati esiti, nonostante i tentativi di controllarli. Procedura Le procedure sono un’altra caratteristica di certi sistemi: sequenze di azioni che vengono effettuate per determinare un certo risultato (l’esempio classico è la ricetta di cucina). I sistemi più versatili scelgono la sequenza in modo versatile a seconda delle situazioni.
91
Adeguamento dei comportamenti Alcuni sistemi si riprogrammano, adeguando i propri comportamenti in modo da evitare un errore: apprendono dai propri errori. Anticipazione È una caratteristica che permette ai sistemi di anticipare i cambiamenti ambientali, rilevando “segni premonitori” e prendendo contromisure prima che il cambiamento vero e proprio si verifichi. Interazione con l’ambiente In alternativa al modificare i propri meccanismi interni in risposta all’ambiente, un sistema può agire direttamente sull’ambiente per modificarlo. Molti animali fanno questo (vengono in mente, per esempio, i castori), ma è l’homo sapiens ad avere il primato in questa abilità. Riproduzione Molti sistemi complessi creano altri esemplari di se stessi. Questo è tipico di tutti gli organismi viventi, ma lo stesso principio opera nelle comunità che si riproducono, le aziende che aprono nuove sedi, e così via. Autoriparazione Una caratteristica tipica dei sistemi biologici e sociali, rara invece nelle macchine. Gli esseri viventi riparano i propri danni; lo stesso si può dire di una società danneggiata, di una città di cui sono demolite delle parti, e così via. Riorganizzazione Alcuni sistemi complessi riescono a modificare la loro stessa struttura interna per adeguarsi alle situazioni. È tipico dei sistemi sociali (cambiamenti di forma di governo, di strutture organizzative, ecc); anche i sistemi biologici in qualche misura lo fanno (l’esercizio fisico fa aumentare le masse muscolari). Lo stesso si può dire per i sistemi mentali (i famosi “cambiamenti di paradigma”!). Autoprogrammazione È la possibilità di inventare i propri scopi, nonché i metodi per conseguirli. È una cosa che si rileva solo nei sistemi di massima complessità: gli esseri umani. L’aumentare della complessità in un sistema va in genere a suo
92
vantaggio, perché lo rende più versatile. Tuttavia vi sono alcuni problemi tipici legati alla complessità che si incontrano non di rado. [cfr. Kauffman] La tragedia dei comuni Questo tipo di problema si riassume così: quando un sistema è formato da sottosistemi, questi possono assumere degli obiettivi in conflitto tra loro, che causano danni a tutto il complesso. Questo fenomeno viene chiamato tragedia dei comuni dal titolo di un saggio dell’ecologista Garret Hardin sui “pascoli comuni” dell’Inghilterra medievale. “Comuni” significa che questi pascoli potevano essere utilizzati da qualunque membro della comunità per alimentare le proprie greggi. In pratica questa mancanza di vincoli fa sì che ogni pastore sfrutti al massimo i pascoli disponibili per avere più pecore, e innalzare così il proprio standard di vita. Ma dal momento che ogni pastore ha interesse a ragionare in questo modo, le pecore totali aumenteranno a dismisura, e ciò fa sì che l’erba venga mangiata fino alla radice, desertificando il terreno e, nel lungo periodo, portando la comunità a una miseria ancora maggiore. Vi sono due aspetti degni di nota in questa situazione: • Il disastro generale è prodotto da una serie di decisioni che, singolarmente, sono prese al fine di migliorare la situazione; • Il problema non può essere risolto con l’autodisciplina dei singoli, perché basta anche un singolo pastore “avido” per causare il disastro. Occorre una forma di controllo comune. In generale, la tragedia dei comuni è in agguato ogni qual volta un problema viene affrontato da un punto di vista inferiore a quello che realmente coinvolge. In ultima analisi, i problemi ecologici del nostro pianeta rappresentano un esempio allarmante di questo fenomeno. Il costo dell’informazione La “tragedia dei comuni” sembrerebbe suggerire che i problemi si risolvono al meglio prendendo tutte le decisioni al livello più alto. Ma è noto che anche centralizzare troppo ha pesanti inconvenienti: vorrebbe dire un apparato decisionale di dimensioni abnormi, e, specialmente, un apparato ancora più grande e costoso
93
per raccogliere tutte le informazioni necessarie a prendere tutte le decisioni. In realtà non esiste una soluzione perfetta a questo dilemma tra accentramento e decentramento. L’accentramento riduce i conflitti tra sottosistemi e evita i problemi dei “comuni”, ma con pesanti costi di gestione e di raccolta delle informazioni. D’altro canto, decentrare le decisioni aumenta la velocità e la flessibilità, a rischio però di conflitti tra le parti. La regola empirica da seguire è la seguente: Prendere ogni decisione al livello più basso possibile, ma essere preparati a cedere il controllo a un livello superiore in caso di conflitti. I sistemi biologici effettuano da soli questo procedimento: la maggior parte delle nostre funzioni corporee sono svolte in modo autonomo e inconscio, lasciando la mente libera per altri compiti. Solo quando qualcosa non va siamo “avvertiti” di porvi la nostra attenzione (per esempio con un dolore). In generale, si ripropone il dilemma del controllo: occorre sempre un compromesso tra il prezzo delle variazioni accettabili del sistema e il costo dei sistemi di controllo (più sono stretti e più sono “costosi”: controllo stretto significa meccanismi complicati, maggiore dispendio di energie, e minore flessibilità. Si pensi al controllo dei comportamenti accettabili o meno dalla società). La perdita della prevedibilità Un sistema molto complesso riesce ad essere molto flessibile nel suo comportamento, ma questa complessità va a scapito della sua comprensibilità. Una democrazia è più complessa e flessibile di un regime tirannico, ma in una democrazia è anche molto più difficoltoso fare piani a lungo termine. Allo stesso modo, una moderna economia di mercato reagisce rapidamente ai cambiamenti, ma è arduo prevederne gli sviluppi. Dunque anche la flessibilità ha un prezzo: intervenendo sui sistemi flessibili si rischia spesso di sprecare energie in azioni inutili o basate su previsioni sbagliate. Con la flessibilità sale parallelamente il costo dell’incertezza. I sistemi semplici con cui abbiamo a che fare nella quotidianità sono spesso sistemi di primo ordine (cioè con 1 variabile di livello) a retroazione negativa. Scaldarsi le mani davanti a una stufa è un esempio di sistema a retroazione negativa di primo ordine.
94
Di questi sistemi semplici la mente umana riesce a costruirsi modelli soddisfacenti, e dunque riusciamo ad affrontarli senza problemi. Il modello di un sistema complesso, viceversa, richiede molte equazioni di livello e molti circuiti di retroazione. Possiamo considerare “complessi” i sistemi di ordine superiore al quarto o quinto (4 o 5 variabili di livello). Questi sistemi mostrano spesso comportamenti non-lineari, reagiscono in modo controintuitivo, hanno insomma tutta una serie di caratteristiche che li rende molto difficili o impossibili da comprendere per mezzo di un modello mentale. Jay Forrester (1969) elenca una serie di caratteristiche dei sistemi complessi. È importante conoscerle, perché non solo si riscontrano nelle questioni reali, ma si riflettono poi anche nei modelli di esse che costruiamo al calcolatore: Sono controintuitivi Noi siamo abituati a trattare sistemi semplici, e i nostri schemi di progetto/azione/aspettativa sono modellati su di essi, mentre i sistemi complessi di solito si comportano in maniera opposta; la nostra esperienza quindi ci porta spesso a trarre conclusioni errate circa i sistemi complessi. Inoltre, nella nostra esperienza quotidiana cause ed effetti sono strettamente correlati nel tempo e nello spazio, e su queste basi noi dirigiamo le nostre azioni: gli effetti delle azioni sono subito visibili; gli errori sono subito evidenti e possono essere subito corretti, in un continuo processo di aggiustamento. Tutte queste premesse familiari vengono a mancare quando trattiamo sistemi complessi. Cause ed effetti divergono nel tempo e nello spazio (in effetti, spesso lo stesso concetto di legame diretto causa-effetto diventa inadeguato). I sintomi possono apparire anche con grande ritardo. Un altro aspetto ingannevole è che spesso i sistemi complessi presentano comportamenti apparentemente semplici. In realtà non si tratta di cause ed effetti, ma di sintomi concomitanti, la cui origine deriva da dinamiche interne del sistema. È evidente che cercare di sfruttare questa correlazione è del tutto inutile. Sono notevolmente insensibili alla variazione di molti parametri del sistema
95
Il sistemi complessi sono notevolmente insensibili alla variazione di molti dei suoi parametri (cioè le costanti nelle equazioni). È la struttura interna del sistema a determinarne il comportamento; cambiando i parametri non si ottengono variazioni significative. (Forrester nota che le dinamiche industriali, economiche, sociali, ecc. sono le medesime indipendentemente dalla nazionalità, il settore, il contesto storico, ecc.) Si oppongono strenuamente ai cambiamenti di strategia Quando si tenta una nuova strategia con un sistema complesso, esso tende a trovare un nuovo comportamento tale da restituire alla strategia risultati che riportano alle condizioni di partenza. Contengono punti sensibili, spesso in luoghi imprevisti, manovrando i quali si può influenzare pesantemente il comportamento del sistema Spesso questi punti sono difficili da individuare e l’azione richiesta è l’opposto di quello che verrebbe da pensare. Ma se si agisce su questi punti, si irradiano nel sistema flussi di informazione che fanno sì che le nuove circostanze, trattate dai vecchi schemi, conducano a risultati nuovi. Si oppongono alle azioni correttive esterne riducendo parallelamente le forze interne dello stesso segno Dunque i programmi di intervento vengono spesso sprecati nel rimpiazzare la perduta azione interna del sistema. Questo aspetto va considerato attentamente se l’intervento esterno è oneroso. Di fronte a un cambiamento, spesso reagiscono nel lungo periodo in modo opposto a come reagiscono nell’immediato Questo implica che le decisioni prese seguendo il metro della “gratificazione istantanea” portano nel lungo periodo a un peggioramento generale. Tendono verso una bassa efficienza Tutte le caratteristiche precedenti fanno sì che i sistemi complessi vengano tendenzialmente spinti verso condizioni di efficienza peggiore. La loro natura controintuitiva favorisce l’adozione di strategie che hanno effetti negativi. Il fatto poi che gli effetti di breve e di lungo periodo siano solitamente di segno opposto ha spesso conseguenze nefaste. Ad esempio supponiamo che una politica urbana dia dei risultati
96
immediati incoraggianti. Come abbiamo visto, questo probabilmente causerà problemi maggiori nel lungo periodo. Ma quando questi problemi finalmente si presenteranno, l’esperienza (!) precedente spingerà ad una adozione ancora più massiccia degli stessi provvedimenti, “che avevano dato così buona prova di sé”. È evidente che questo meccanismo spingerà il sistema verso condizioni sempre peggiori. Contengono meccanismi interni che producono il comportamento indesiderabile osservato Quando si cerca di eliminare un determinato problema da un sistema, è totalmente inutile combattere semplicemente il sintomo. Esso si manifesta come prodotto di dinamiche profondamente radicate nel sistema, e sono queste cause su cui bisogna agire. Agire solo sulle loro conseguenze non porta ad alcun risultato: bisogna scoprire i meccanismi che generano l’effetto indesiderato e cercare di intervenire su di essi, in modo che siano loro a dirigere il sistema nella direzione voluta. Uno dei metodi matematici utilizzati per affrontare la complessità è costituito dai sistemi dinamici. Già da tempo si era approdati alla conclusione dell’impossibilità di studiare fenomeni complessi quali quelli biologici o economici utilizzando modelli semplici, di tipo statico. La propagazione di un’epidemia, un andamento anomalo del battito cardiaco, la trasmissione degli impulsi cerebrali hanno in comune la caratteristica non trascurabile di evolversi nel tempo e la loro osservazione ha convinto gli studiosi della necessità di introdurre nell’analisi di questi fenomeni un modello di sistema dinamico, che - in quanto biologico - doveva in ogni caso tendere verso l’equilibrio: in un tale scenario eventuali variazioni imprevedibili e disordinate non potevano che essere attribuite a condizioni eccezionali e quindi considerate patologiche. E’ di appena una ventina di anni fa l’idea, stimolata dalla scoperta del caos deterministico, che “queste variazioni caotiche’ possono essere inerenti ai sistemi, ovvero contenute nei modelli teorici deterministici che descrivono l’evoluzione dei sistemi stessi. Questo nuovo modo di pensare ha portato a risultati insospettati.” (Casati)
97
Questi risultati, che oggi consentono lo sviluppo di teorie come quella dei sistemi viventi di Capra, sono stati resi possibili dalla disponibilità, negli anni ‘70, di elaboratori molto potenti e veloci, in grado quindi di affrontare l’enorme complessità dei sistemi oggetto di studio: ciò ha consentito l’applicazione concreta di nuovi filoni di ricerca, quali la teoria del caos e la geometria frattale, e ha dato forma ad una struttura matematica coerente, che potremmo chiamare la matematica della complessità. La caratteristica cruciale della matematica della complessità è data dalla sua non-linearità. Il consistente aumento della potenza e della velocità elaborativa dei computer degli anni ‘70 ha finalmente consentito lo studio e la risoluzione di numerose equazioni non lineari che fino a quel momento era stato impossibile risolvere manualmente ma la conoscenza delle cui proprietà era essenziale per studiare situazioni fisiche in cui intervengono delle ‘turbolenze’; si pensi al flusso dell’acqua in un fiume, inizialmente lineare, che all’improvviso incontri uno scoglio: la presenza dell’ostacolo genererà nel liquido un movimento complesso e vorticoso che può apparire caotico. Applicando, però, e risolvendo le equazioni non lineari associate a questo tipo di moto, si scopre l’esistenza di un ordine soggiacente all’apparente caos. “In realtà, la teoria del caos è una vera e propria teoria dell’ordine, ma di un nuovo tipo di ordine svelato dalla nuova matematica. Questo fatto è di grande importanza per la teoria dei sistemi viventi, poiché le reti che rappresentano il modello basilare di tutti i sistemi viventi sono anch’esse molto complesse” (Capra, 1996) Ed infatti, da quando (poco più di un decennio) la matematica e la fisica sono state introdotte come strumenti di ricerca nella fisiologia cardiaca (attraverso l’uso dell’analisi spettrale, della dinamica non lineare e della teoria del caos), la rilevazione di una dinamica caotica non viene più automaticamente associata ad una condizione patologica quanto al normale andamento del ritmo cardiaco! Questa idea si basa sul fatto che, come affermano gli esperti della Harvard Medical School, “il caos procura al corpo umano una flessibilità che gli permette di rispondere a stimoli diversi”. In effetti “il sistema di generazione del ritmo cardiaco è formato da un oscillatore periodico controllato da una
98
molteplicità di meccanismi non lineari (ormoni, sistema simpatico e parasimpatico...). Si è confrontato per esempio lo spettro di frequenza di un elettrocardiogramma di soggetti normali e di soggetti malati di cuore. Si è osservato che gli ECG dei primi presentano delle irregolarità su scale che vanno da qualche secondo a qualche giorno, mentre quello dei pazienti presenta uno spettro molto più piatto. Per esempio, si è osservato che alcune persone molto malate hanno dei battiti molto regolari prima di morire. Infatti il ritmo cardiaco si deve adeguare all’attività dell’organismo (respirazione, attività mentale, ecc.). Questo aggiustamento produce un ritmo irregolare. In alcune malattie il cuore perde la capacità di adattarsi all’attività dell’organismo e perciò presenta un ritmo estremamente periodico.” (Casati) L’esempio sopra riportato ci permette di comprendere meglio la relazione fra gradi di libertà, zone di instabilità e processo di adattamento evolutivo in un sistema complesso (e non solo di tipo biologico): l’adattamento non è altro che il passaggio di un sistema, sottoposto ad uno stimolo esterno, da un attrattore ad un altro, oppure può rappresentare una risposta ‘elastica’ (che cioè riporta all’attrattore originario) a piccole perturbazioni qualora il sistema si trovi lontano dai punti di catastrofe.
99
Il punto di vista Il cervello umano è l’organo più complesso che conosciamo. La sua complessità e potenzialità è veramente strabiliante. Quando parliamo di cervello non possiamo fare a meno di parlare della nostra esperienza soggettiva, in particolare utilizziamo il concetto di mente. Mente e cervello sono due aspetti complementari che utilizziamo per comprendere la nostra complessa dimensione cognitiva. Il tentativo riduzionista, a cui molti eminenti ricercatori si stanno dedicando in questi ultimi anni, consiste nel ricondurre le multiformi e sbalorditive potenzialità della mente ad aspetti fisiologici del funzionamento del cervello. Si parla di una mente che emergerebbe dai processi che avvengono nell’intricata rete di neuroni attivati nel cervello. In ogni caso l’aspetto oggettivo e quello soggettivo dell’esperienza rimane controverso ed essenzialmente inconciliabile. L’esperire il rosso è diverso dall’osservare l’attivazione di un qualsivoglia circuito neurale oggettivabile con una registrazione esterna al soggetto stesso. Ognuno di noi osserva il mondo da un proprio particolare, irriducibile e irripetibile punto di vista. L’esperienza di ognuno è unica poiché uniche sono le connessioni che ciascuno di noi utilizza nel proprio esperire, ognuno di noi è connesso al proprio organismo in una maniera privilegiata accessibile solo al soggetto stesso che la sperimenta. Tramite il linguaggio l’esperienza può essere comunicata e condivisa da altri, ma il processo originario si è già concluso, il linguaggio subentra in una fase successiva in cui la verbalizzazione e la memoria svolgono un ruolo determinante: l’esperienza in sé è patrimonio del soggetto, inaccessibile e particolare. Il cervello raccoglie miliardi di impulsi in parallelo e li riconduce ad una unica risposta conseguente e sequenziale, ma non tutti i nostri processi mentali sono consci. Le capacità del cervello sono veramente sbalorditive e non solo quelle verbali, pensiamo per esempio alle capacità psicomotorie.
100
Costruire un robot che semplicemente cammini su due gambe presenta delle enormi difficoltà come dimostrano i prototipi realizzati finora. Ma le capacità cognitive della mente sono veramente strabilianti. La mente presenta una incredibile facilità di manipolazione dell’informazione ricavando ordine dal caos in cui si trova ad operare. Un piccolo indizio è sufficiente per estrapolare complesse teorie esplicative. Ogni individuo costituisce una finestra sul mondo, costruisce la propria rappresentazione della realtà e riconduce la realtà oggettiva alla pura convenzione di condivisibilità con altri individui in reciproca comunicazione. Il tramonto che ho dinnanzi a me potrebbe anche non esistere, essere una pura allucinazione, solo quando altri condividono la mia esperienza allora esso prende uno spessore oggettivo: diviene la realtà oggettiva. Ma la comunicazione si avvale principalmente del linguaggio che è ancora pura convenzione, una camicia di forza in cui emozioni e desideri possono esprimersi; nel linguaggio il processo percettivo primario viene elaborato e manipolato dalla mente, l’atto primario della percezione cosciente viene irrimediabilmente perduto e di esso non rimane che una traccia nella memoria del soggetto. Continuamente la mente ricuce il proprio vissuto in una dimensione storica che si staglia nel tempo e nello spazio, dell’attimo fuggente non rimane che un riverbero nella memoria del soggetto che l’ha sperimentato. La memoria dilata il tempo fino ai confini del conoscibile e dell’immaginabile. Ma chi è che sperimenta, chi è che ricorda? Se consideriamo l’uomo nella sua completezza questa domanda ha una risposta banale: è l’uomo. Ma se analizziamo come avviene la percezione del colore rosso a partire dalle reazioni elettrochimiche che avvengono nell’occhio, nella retina, nel nervo ottico, nel cervello, informazione che si propaga tramite reazioni a catena non siamo più in grado di individuare il soggetto che
101
percepisce: il processo di percezione si perde nel nulla, nella complessità della struttura cerebrale. L’aspetto soggettivo e quello oggettivo della percezione appaiono inconciliabili. Anche se riuscissimo a riprodurre in una qualche ipotetica rete neurale tutto il percorso che gli impulsi elettrochimici seguono in un processo di percezione non potremmo mai essere sicuri che qualcuno stia soggettivamente percependo alcunché. Anzi l’unica cosa di cui siamo certi è la nostra stessa percezione cosciente, i processi cognitivi che avvengono in un’altra testa sono a noi inconoscibili e costituiscono solo un’ipotesi non verificabile direttamente basata sulla verosimiglianza dell’assunzione che l’altro da me sia simile a me, ovvero costituito fisiologicamente come me. Esiste forse un qualche livello di complessità dal quale emerge la coscienza? Personalmente penso che la complessità non basti. Nei sistemi complessi al confine tra l’ordine e il caos avvengono fenomeni estremamente interessanti: si manifesta un ordine ad un livello superiore. Il pensiero attuale si orienta sempre più all’analisi della complessità, preferendo la generalità allo specialismo ed alla frantumazione del sapere. Un ampio cambiamento è intervenuto nell’orizzonte teorico ed esso è stato promosso da molti scienziati, quali A. Einstein, I. Prigogine, E. Morin, G. Bateson, F. J. Varela, H. von Foerster. Costoro hanno sottolineato la limitatezza e l’unilateralità delle concezioni razionali, lineari e meccanicistiche. Termini quali ragione, ordine, simmetria, certezza, misurabilità, armonia, equilibrio, omogeneità, legge, verità, obiettività, razionalità, regolarità e prevedibilità sono stati fortemente messi in discussione. Al contrario, le teorie della complessità affermano che vita, umanità, evoluzione, cambiamento, conoscenza, etc. sono originate da, e vanno di pari passo con, disordine, caos, perturbazione, dissimmetria, instabilità, squilibrio, flussi, turbolenza, non linearità, marginalità, incertezza, relatività, disarmonia, frattalismo, imponderabilità, etc. Soltanto un pensiero strategico può collegare (olismo) tali
102
eventi e gestire la complessità. E’ necessario un modo di pensare olistico, in grado cioè di rispettare ciò che è diverso (e divergente), le sfaccettature multidimensionali di una situazione e di un problema (frattale e ologramma), agendo sulle loro interdipendenze. Come scrive P. Drucker (1993), citando E. M. Forster, è molto importante collegare ciò che si conosce o si sta per conoscere; questo è il principio per promuovere la produttività della conoscenza. Infatti, il tutto è nella parte ed ogni parte è nel tutto. Come affermava Pascal, tutte le cose sono causa ed effetto, mediate ed immediate, connesse e separate allo stesso tempo; quindi è impossibile conoscere una parte senza conoscere l’intero e vice versa. Buona parte del transito fra modernità e postmodernità può essere letto seguendo da un lato il declino delle visioni paradigmatiche derivanti dalla fisica e dalla meccanica e dall’altro la parallela fortuna attribuita ai costrutti ermeneutici delle cosiddette scienze della complessità – attualmente costitutivi del patrimonio metaforico di riferimento di numerose dicipline. I connotati transdisciplinari di tali saperi emergenti (biologia, cibernetica, etc.) e le prospettive di lettura della realtà consentite risultano particolarmente adeguate al superamento di una perniciosa dualità fra razionalità tecnica e creatività artistica: che ha determinato una marcata insofferenza (e/o indifferenza) per alcune “qualità” del reale (quali l’incertezza, il disordine, la contradditorietà, la pluralità, etc.) che, considerate a lungo euristicamente irrilevanti dall’indagine scientifica, sono invece oggi ritenute le probabili matrici dell’evoluzione e della nascita/creazione dell’innovazione. Il sovvertimento di valori, proposto dai saperi della complessità, si segnala dunque in primo luogo in quanto risveglio della riflessione, da parte della comunità scientifica, nei confronti di un problema che, se da un lato determina limiti alle pretese di neutralità dell’atto conoscitivo (e la conseguente inapplicabilità del principio di semplificazione analitica dei sistemi osservati per scomposizione), consente comunque di individuare un carattere costruttivo del non equilibrio e dell’indeterminazione. La stessa relazione osservatore/osservato appare inalienabilmente complessa poiché‚ l’ordine
103
che leggiamo nella realtà esterna è l’ordine prodotto dalla nostra mente nell’atto del conoscere; il patrimonio acquisito di conoscenze del soggetto, ovvero le sue potenzialità ermeneuticodescrittive, costituiscono precondizioni (qualità) ineliminabili di tale rapporto. Il processo di conoscenza stesso è quindi eminentemente qualitativo e l’idea di gestione e organizzazione delle relazioni fra sistemi e ambiente s’intreccia con la nozione di autoorganizzazione che introduce una nuova prospettiva (aperta e dinamica) fra entità sistemica e sua esposizione creativa alle perturbazioni ambientali. Il paradigma della complessità presuppone un nuovo approccio epistemologico, in base al quale la realtà ha una natura sistemica che si configura come una rete interconnessa di rapporti, non meccanicistica né lineare. Ciò comporta un modello di mente che non rispetta oggettivamente una realtà indipendente ed esterna, ma che attua delle strategie per adattarsi ad un contesto e scoprire nuove conoscenze. L’introduzione del concetto di sistema e di complessità nella scienza contemporanea ha teso a far crollare questo mito di strutture ontologiche “dure e persistenti” e “quelle proprietà che si credeva facessero parte delle cose si sono rivelate proprietà dell’osservatore”. Adottando questo punto di vista ne deriva coerentemente che distinzioni quali “sistema-ambiente”, “autonomia-controllo” fanno parte della nostra cognizione del sistema e non sono caratteristiche del sistema stesso. La compatibilità tra il pensiero di Bateson e Maturana sta nel fatto che entrambi sostengono e sviluppano, come già Wiener, Bertalanffy e Piaget, una teoria dei sistemi che sottolinea, con l’inevitabile riferimento all’osservatore, l’irriducibile molteplicità dei punti di vista e, con l’idea di autonomia, sposta l’accento dal problema del controllo a quello della interconnessione reciproca tra sistemi. Maturana, come già Bateson, sottolinea come “tutto ciò che è detto è detto da un osservatore” e come le nostre descrizioni siano fatte in base “ai cambiamenti di stato che avvertiamo in relazione alla particolare zuppa in cui siamo immersi”. In altre parole, potremo dire che qualunque osservazione di un osservatore partecipe è sempre un’osservazione di quello che gli succede al proprio interno quando è in accop-
104
piamento strutturale con un altro sistema. A questo proposito Varela nota come “ad ogni stadio l’osservatore è in rapporto con il sistema attraverso una comprensione che modifica la sua relazione con esso”. L’osservatore, infatti, al pari di ogni altro organismo vivente, è autopoietico, cioè autonomo, autoreferente, autocostruentesi, e crea le sue conoscenze per compensare le perturbazioni del suo ambiente. La definizione del sistema vivente come autopoietico ci permette di uscire dalla vecchia dicotomia sistema aperto-sistema chiuso e dall’illusione del controllo. Infatti i sistemi autopoietici sono chiusi (autonomi, con una propria identità) dal punto di vista dell’organizzazione, in quanto si autoproducono e non sono caratterizzabili in termini di relazioni “input-output”. D’altra parte sono sistemi aperti (dipendenti), in quanto il loro comportamento è influenzato dalle perturbazioni dell’ambiente, che non determina però la loro identità. E’ la chiusura organizzazionale del sistema, che corrisponde al suo dominio cognitivo, che stabilisce l’ambito delle interazioni possibili e che determina il significato da attribuire agli stimoli esterni rispetto alla sua evoluzione. In questo modo viene meno l’utilità del concetto di controllo e viene messo in primo piano, con l’idea di autonomia, il fenomeno dell’adattamento, visto come “compatibilità tra struttura dell’ambiente e struttura del sistema”. L’osservatore potrà, quindi, fare solo quelle distinzioni che gli sono consentite dal suo modo di accoppiamento strutturale e, come nota Dell, potrà vivere l’esperienza psicologica della causalità se sarà in grado di interagire con gli oggetti operando un accoppiamento strutturale che gli faccia ottenere il risultato desiderato. Finché esiste questa compatibilità, l’ambiente e il sistema interagiscono attraverso perturbazioni reciproche e provocano continui cambiamenti di stato definiti “accoppiamenti strutturali tra sistema e sistema, sistema e ambiente”. Assumendo questo punto di vista, nota Ceruti, vengono meno ideali quali un adattamento perfetto, una conoscenza completa ed emerge invece l’idea di un’evoluzione caratterizzata da interazioni costruttive e da accoppiamenti tra vari sistemi e punti di vista. Altrettanto chiaramente trova posto l’idea dell’originalità di ogni sistema “che si costruisce e ricostruisce attraverso la storia particolare e idiosincratica delle sue interazioni e dei suoi
105
accoppiamenti”. In questo senso possiamo dire con Dell che l’ontologia di Maturana e l’epistemologia di Bateson sono compatibili; nel senso che “l’integrazione dell’osservatore non corrisponde semplicemente alla limitazione di un punto di vista assoluto ma, costruttivamente, al riconoscimento dell’irriducibilità di punti di vista vicarianti nella costituzione dell’universo cognitivo e dell’identità di un medesimo soggetto”, la cui possibilità di interazione costruttiva con l’ambiente sarà maggiore quanto più differenziata e integrata sarà la sua struttura interna.
106
Mente e complessità La mente opera in un ambiente estremamente complesso e principalmente in condizioni di incertezza, in un mondo estremamente variabile e avendo a disposizione solo un limitato numero di informazioni. Il nostro Universo è strutturato secondo una serie di sistemi complessi organizzati su scale gerarchiche di crescente grandezza, sia parallele che inserite l’una entro l’altra come in una sorta di scatole cinesi, a loro volta sempre più grandi e complesse. Di questa struttura, abbastanza evidente sia a livello microscopico che macroscopico, per altro già ampiamente studiata, non riusciamo tuttavia a intravedere con chiarezza i meccanismi operativi o l’organizzazione né a coglierne la inimmaginabile vastità. Un sistema complesso è un sistema dinamico organizzato ed ordinato composto da un elevato numero di elementi, ognuno dei quali è in diretto rapporto con gli altri: l’insieme che ne deriva ha poi la proprietà di comportarsi, in rapporto all’ambiente esterno, alla pari di un elemento unitario, quasi fosse privo di struttura interna. Il cervello umano è un esempio notevole di sistema complesso. Per cercare di comprenderne il funzionamento possiamo far riferimento alla metafora del computer: ciò che ci serve è il concetto di processo di elaborazione dell’informazione. Il cervello, tra le altre cose, è uno stupefacente elaboratore di informazioni. In ogni esempio di sistema complesso auto-organizzante quello che si introduce alla base della descrizione del modello è costituito da processi elementari di elaborazione. Occorrono degli agenti che compiano azioni. L’evoluzione non funziona se alla base non vi sono molecole in grado di riprodursi, duplicarsi e interagire con l’ambiente. I modelli matematici e i sistemi dinamici simulati a computer non funzionano se alla base non c’è un microprocessore ad eseguire le computazioni richieste.
107
Le basi biologiche della vita dovrebbero essere rintracciabili nelle dinamiche di evoluzione e nelle leggi delle reazioni chimiche. Nelle reti di connessioni l’informazione può propagarsi per attivazione dei singoli neurodi; in questo modo molti ricercatori tentano di spiegare l’emergere di processi tipici dell’elaborazione cerebrale, ma in che modo e con quali leggi potrebbero aver luogo processi di auto-organizzazione spontanea? In reti booleane interconnesse è possibile definire dei parametri che governano il tipo di ordine che può emergere ai confini del caos. Esiste un ordine gratuito? Un ordine che consenta ontologicamente l’esistenza degli organismi viventi? Se guardiamo fuori dalla finestra e notiamo la strutturazione ordinata del mondo in cui viviamo dovremmo rispondere in maniera affermativa. Ma certamente è molto difficile ricavare l’olismo mostrato dalla mente basandoci unicamente sulle leggi della fisica conosciute. Anzi le leggi della fisica portano ad una crescita inevitabile dell’entropia, stipare in un contenitore una montagna di informazioni eterogenee non porta ad ordine ma al caos più assoluto. Le informazioni debbono essere vagliate e selezionate, e questo presuppone un agente intelligente. Noi siamo abituati ad agire ed operare come se questo fosse la cosa più naturale del mondo, in realtà anche la più piccola azione, come radersi la barba, richiede una elaborazione di una incredibile complessità computazionale. L’informazione è mediata dal linguaggio, ma non solo: un gesto, un sorriso, uno sguardo valgono a volte più di mille parole. E la comprensione del linguaggio da parte di una macchina è già una impresa veramente notevole, per non parlare della produzione linguistica. Immaginiamo una pattinatrice che compie le sue incredibili evoluzioni e confrontiamola con i risultati di deambulazione ottenuti dai nostri prototipi di robot e ci rendiamo conto di quanto siamo ancora lontani da avere una tecnologia adeguata del
108
controllo psicomotorio. Nell’ambito della manipolazione del linguaggio scritto sono stati fatti alcuni passi in avanti davvero interessanti: sono state realizzate delle entità virtuali in grado di conversare con l’utente. Il linguaggio e la capacità di elaborarlo sono uno dei cardini attorno a cui ruota tutta la complessa civiltà contemporanea e tutta la tecnologia dell’informazione comprese le tecniche multimediali. Viviamo in una civiltà dell’immagine e della comunicazione. È possibile programmare computer per analizzare documenti e far prendere decisioni in merito al loro contenuto. Questi programmi si basano sulla corrispondenza fra sintassi e semantica presente nella loro base di conoscenza. I programmi sono solo manipolatori sintattici, ma con l’aumentare della base di conoscenza si ottengono risultati che hanno una valenza indubbiamente semantica, almeno secondo il giudizio dell’utente che li utilizza. Il computer è un motore logico, e su questa base è in grado di produrre prestazioni nemmeno immaginabili a priori. Ma la mente non è solo raziocinio, è anche imprevedibilità e intuizione del tutto irrazionale: la mente è plastica e multiforme. Non siamo in grado di prevedere cosa diremo fra un istante! Il futuro si dipana dal presente in maniera imprevedibile anche se ha radici profondamente connesse da leggi di causa ed effetto nel passato. La mente si destreggia da sempre nel mare di contraddizioni che la realtà parziale in cui vive continuamente le propone. La mente rimarrebbe bloccata nel proprio flusso di pensiero se analizzasse logicamente ogni dettaglio dell’informazione globale che elabora istante per istante. Avviene una scrematura ed una sintesi dell’informazione pertinente nel mare di informazioni complessivo in cui siamo immersi. Come ciò sia possibile è veramente difficile da descrivere in un modello computazionale della mente. L’attenzione seleziona gli stimoli e gli stimoli guidano l’attenzione. Possiamo essere distratti da una immagine che ci giunge
109
improvvisa su un televisore ma non perdiamo il filo del discorso che ci interessa seguire. Una larga parte delle ricerche di linguistica computazionale è dedicata alla costruzione di analizzatori sintattici, cioè di sistemi automatici che prendono una frase come ingresso e assegnano alla frase una struttura sintattica come uscita. Un analizzatore sintattico dà in uscita una rappresentazione della struttura sintattica di una frase ma, per definizione, non si occupa di dare una rappresentazione del suo significato. Quando si è cercato di costruire sistemi computazionali di comprensione del linguaggio, questi sono stati in genere intesi come estensioni degli analizzatori sintattici, nel senso letterale che all’analizzatore sintattico veniva aggiunto un sistema di interpretazione semantica. Questa concezione del rapporto tra sintassi e semantica i linguisti computazionali l’hanno ricavata dalla linguistica chomskiana, dove il ruolo della semantica è quello di interpretare la struttura generata dal componente sintattico della grammatica. Questa idea della semantica come interpretazione di strutture formali sembra essere stata ripresa dalla logica formale. Su un piano generale, invece, la semantica assume un ruolo centrale, come è giusto che sia nella costruzione di un modello della comprensione, mentre la sintassi ha un ruolo fondamentale ma subordinato alla semantica. Questo indica anche la strada da percorrere per arrivare a una vera comprensione della sintassi: studiare come è fatta la rappresentazione semantica delle frasi e quali sono le condizioni effettive in cui avviene il lavoro di costruzione della rappresentazione semantica nella comprensione. I processi linguistici sono di fondamentale importanza nella vita quotidiana ed è ovvio che ogni messaggio verbale per avere effetto deve essere compreso dal ricevente, non solo analizzato sintatticamente. Tramite una telefonata posso fissare un appuntamento; con lo scambio di relativamente poche informazioni posso determinare un evento futuro che si verificherà con un elevato grado di probabilità. Per essere all’appuntamento fissato devo coordinare diverse
110
azioni da intraprendere, in particolare spostare il mio corpo fisicamente in un ambiente estremamente variegato, per esempio prendere un treno che parte ad una certa ora. Studiare la dinamica dell’evento “ho fissato un appuntamento” dal punto di vista delle leggi della fisica produce un evidente paradosso: un evento che si verificherà con alto grado di probabilità è costituito da una collezione di eventi tutti precari ed improbabili presi singolarmente, per esempio i tragitti che posso seguire sono molteplici e temporalmente imprevedibili. Molti processi vitali sono di questo tipo. Occorre un direttore d’orchestra, una mano invisibile. Ma cosa c’è di così miracoloso nel rispettare un appuntamento, in fondo è una cosa che facciamo quotidianamente. Si tratta di collocare un evento nel futuro, una coincidenza spazio temporale e poi di rispettarla all’interno di un mutevole divenire, ma dal punto della macchina fisica, dell’enorme computer dell’universo, questo evento è un evento improbabile, ovvero in cui non è possibile ricostruire la dinamica e la storia se non a posteriori. Questo evento non può avverarsi per caso occorre un controllo costante di un soggetto e della sua volontà. Ecco il punto in cui sorgono le problematiche maggiori nelle teorie del rapporto tra mente e corpo: da dove scaturisce la volontà? Potrebbe un computer eseguire efficacemente questo stesso compito? In fondo una semplice agenda memorizza in maniera efficace l’informazione relativa all’appuntamento consentendo un comportamento all’apparenza teleodinamico. Quando ci sono i mattoncini di base, ovvero quando è possibile eseguire dei processi di elaborazione delle informazione, allora possono verificarsi anche delle condizioni per comportamenti controintuitivi dal punto di vista delle leggi della fisica.
111
Complessità e vita La vita fiorisce in una realtà multiforme e complessa. La semplicità delle equazioni della fisica viene surclassata dalla complessità della realtà in cui viviamo. Le cose lasciate a sé stesse degradano; la vita invece si autoalimenta: la vita produce vita, ma è nato prima l’uovo o la gallina? Oggigiorno siamo convinti che il segreto della vita sia tutto racchiuso nel DNA. Eppure osservando il mondo vivente ci stupiamo della sua varietà ed organizzazione. Che esista un ordine gratuito? Un ordine che si origina dalla complessità e che si affianca all’evoluzione per darci ragione della multiforme manifestazione della vita. La precisione con cui avviene la mitosi nelle cellule viventi è veramente sorprendente in un mondo governato dal caos. Duplicare un filamento di DNA non è certo un processo casuale, ma un processo che ubbidisce a determinate leggi fisico chimiche con grande precisione. Un filamento di DNA completamente disteso in lunghezza supera il metro. Questa circostanza ha dell’incredibile! Il processo di duplicazione delle cellule avviene sull’orlo della complessità e del caos ma è governato da meccanismi di grande precisione. Le cellule si duplicano in un processo automatico, le modificazioni genetiche, motore dell’evoluzione, sono quanto mai rare. E sarebbe disastroso se non fosse così! La vita si sviluppa su binari molto stretti, sul filo del rasoio, è sorprendente quanto essa si dimostri stabile, solida e ordinata. Le cellule si riproducono a milioni senza il minimo errore. Uno dei problemi più spinosi della ricerca biologica consiste nel capire come e perché avviene la differenziazione cellulare, cosa fa
112
sì che un gruppo di cellule si specializzi per generare il fegato piuttosto che il cervello. Esiste un direttore d’orchestra? Una mano invisibile che pilota tutto il processo? Un nuovo settore della ricerca informatica studia la vita artificiale. Organismi che vivono in micromondi digitali si sviluppano e si riproducono mostrando a volte comportamenti straordinariamente simili agli organismi biologici. Poche regole adattative sono sufficienti a creare comportamenti evolutivi complessi. Stiamo sempre più penetrando nei meandri del mistero della vita. La complessità della vita biologica è strabiliante sia nelle sue basi molecolari che nelle sue manifestazioni in termini di organi funzionanti ed organismi adulti. Benché le cellule del nostro corpo siano in un numero enorme, tutte funzionano, tutte compiono qualche lavoro utile; nessuna di esse vive di rendita. Quelle del fegato sono, ad esempio, degli indaffaratissimi laboratori chimici. Alcune di esse sono adibite a fabbricare quel litro di bile che ci è necessario per la digestione. Altre hanno un compito del tutto diverso, ma non meno importante: devono riconoscere a vista e distruggere tutti i veleni e tutti i microbi che, ad ogni pasto, noi mandiamo giù sveltamente. A digestione ultimata, una gran massa di particelle alimentari viene trasferita dall’intestino al fegato, tramite la vena porta. Quelle particelle sono a miliardi. Eppure le cellule del fegato le controllano con attenta cura, una per una. Se c’è un microbo tra di esse, o un elemento tossico, viene immediatamente aggredito e demolito. I suoi resti vengono inviati ai reni, affinché provvedano a farli uscire lungo le vie urinarie. Altre cellule sono invece adibite a “tessere” proteine. Nei nostri alimenti ve ne sono molte, ma il nostro corpo vuole le proprie proteine, per cui demolisce tutte quelle che ingeriamo, ed utilizza i componenti per approntarne delle altre, quelle che gli sono necessarie. È un lavoro enorme. Inoltre, molte cellule del fegato devono immagazzinare lo
113
zucchero glucosio, ossia il carburante del nostro organismo. Ma per far questo, devono prima convertirlo in glicogeno. Ad ogni richiesta di carburante, devono riconvertire il glicogeno in glucosio ed inviarlo al cuore, affinché possa giungere a tutto il corpo. Ciascuna cellula vivente è un automatismo. Come fa a sapere ciò che deve fare? Qual è l’origine di una tale organizzazione? I genetisti vi risponderanno: è tutto scritto nel DNA. Possiamo paragonare la cellula vivente ad una fabbrica completamente automatizzata, e quindi in grado di funzionare da sola, senza alcun intervento dall’esterno. I progressi dell’elettronica e dell’automazione consentono di progettare, almeno in linea teorica, una fabbrica di questo tipo. Per metterla in attività, per farla funzionare e per controllarla, sarebbero sufficienti dei segnali elettrici registrati sulle piste di un nastro magnetico. Quei segnali dovrebbero giungere, anzitutto, ad un complesso di elaboratori elettronici adeguatamente programmati, in grado di interpretare i segnali provenienti da nastro, e convertirli in comandi operativi. Tali comandi, anch’essi costituiti da segnali elettrici, dovrebbero giungere ai servomeccanismi preposti al funzionamento delle macchine, dei congegni e dei sistemi di trasporto. In tale modo, i segnali provenienti dalle testine di lettura del registratore, dovrebbero poter attivare tutto il ciclo produttivo della fabbrica, in ogni suo minimo dettaglio. Un elaboratore elettronico dovrebbe sorvegliare tutta l’attività della fabbrica e interverrebbe immediatamente all’insorgere di un’anomalia. Diversamente, il suo funzionamento diverrebbe ben presto caotico, e tutto il sistema si auto distruggerebbe. Eppure il più piccolo e più semplice di tutti i viventi, un microrganismo costituito da una sola cellula, è immensamente più complesso e meglio organizzato di qualsiasi nostro “cervello elettronico”, e funziona senza un computer centralizzato. Una singola cellula è paragonabile soltanto ad una prodigiosa fabbrica ultra-automatizzata e cibernetica, capace di dirigere e controllare tutta la propria attività, e quindi in grado di funzionare completamente da sola, e per di più di provvedere a riparare gli eventuali guasti.
114
Alcuni secoli or sono, prima dell’invenzione del microscopio ottico, era impossibile immaginare che tutti i viventi fossero formati da microspopiche cellule funzionanti per proprio conto. Dopo l’invenzione del microscopio ottico, risultò evidente che la vita si basa sulle cellule, ma che l’organizzazione delle cellule fosse così complessa non poteva passare nella mente di nessuno. Ma sono forse elettronici i viventi? Non lo sono. L’energia elettronica non sarebbe adatta per farli funzionare. È necessaria un’energia molto più “fine”, esattamente predisposta per le microscopiche apparecchiature biologiche. È l’energia organica, vitale, metabolica. È contenuta in appositi serbatoi, le molecole ATP. Le stesse cellule viventi che captano i raggi di luce e ne prelevano l’energia, per funzionare devono convertire quell’energia nell’altra, quella organica. Ma per convertire l’energia elettronica nell’energia vitale dell’ATP, sono necessarie delle “centrali energetiche”. Sono dette mitocondri. Quelle centrali energetiche appaiono al microscopio incredibilmente complesse. Ancora non è ben chiaro come avvenga questa traduzione dell’energia. Se ci chiediamo che cosa sia in realtà l’energia organica, quella ottenuta dall’energia elettronica del glucosio, ci troviamo di fronte ad uno dei tanti enigmi di quell’immensità organizzata che è la vita. Non si riesce a comprendere come la cellula vivente possa essere così complessa, pur essendo tanto piccola da riuscire invisibile ad occhio nudo. Dal fondo di ciascun nostro occhio escono 60 milioni di fili conduttori. Sappiamo tutti che dall’occhio esce un solo nervo ottico, diretto al cervello, per di più quel nervo ha lo spessore medio di due millimetri e mezzo. Eppure contiene più fili conduttori di quanti ne escono da una centrale telefonica. Benché siano 60 milioni, ciascuno di quei fili è accuratamente ricoperto con due strati di isolante, proprio come i fili conduttori delle linee telefoniche. Il nervo ottico, tagliato in sezione, come fosse uno spago, e visto al microscopio elettronico appare vasto quanto una grande piazza. Si vede bene che quella piazza è pavimentata con delle
115
“monetine”. Ciascuna di esse è uno dei fili in sezione. Non c’è dubbio che alla nostra tecnica sarebbe del tutto impossibile fabbricare cavi di quel genere, alla natura invece questo prodigio è stato possibile. Ma la retina è molto più complessa. Ciascun filo del nervo ottico non è per nulla collegato con la cellula visiva corrispondente, come potrebbe sembrare. Termina invece con una propria cellula vivente detta gangliare. Si potrebbe pensare che sia tale cellula gangliare ad essere in comunicazione con quella visiva, ma non è neppure così. Sotto la visiva, in comunicazione con essa, c’è la cellula bipolare. Ora, tra le due cellule soprastanti e la cellula gangliare sottostante, vi sono altre cellule, due tipi di cellule diverse: le amacrine e le orizzontali. Tutto questo perché l’impulso proveniente dalle “antennine” deve venir prima amplificato e quindi messo in codice. Nella retina vi sono quei cinque tipi di cellule diverse, disposte a strati. Complessivamente nella retina vi sono all’incirca 500 milioni di cellule viventi, tutte adibite all’informazione corrispondente all’immagine luminosa. Inoltre avviene un fenomeno logicamente difficile da spiegare. Noi vediamo la luna dov’è, alta nel cielo, e non già dentro di noi, come dovrebbe logicamente avvenire, e ciò per un atto puramente psichico, il quale non ha nulla in comune con ciò che è fisico e biologico. È il fenomeno della localizzazione spaziale delle immagini. Una telecamera ultra miniaturizzata potrebbe costituire l’occhio di un robot. Il robot si comporterebbe come se vedesse, senza però veder nulla. Dare una dimensione psichica a un robot è una impresa veramente difficile. Ognuno di noi ha accesso solo ai propri processi psichici, anche la psiche di altre persone ci è del tutto preclusa ad una sperimentazione diretta. Ipotizzare una psiche in un robot è una ipotesi non verificabile e quindi non scientificamente accettabile.
116
Logica e ragionamento Normalmente si pensa esista un solo modo di ragionare, una sola logica, in realtà esistono innumerevoli logiche. La logica utilizzata dal computer, logica classica, è molto solida e ben fondata. Il metodo deduttivo matematico consente di raggiungere vette elevate mantenendo un rigore e una affidabilità notevoli. Non c’è spazio per l’intuizione nei metodi computazionali del calcolatore. Da determinate premesse ne conseguono in maniera stringente determinate conseguenze, tutte ricavabili da una catena consistente di cause ed effetti. Ma il cervello non lavora così. Sarebbe bloccato nel suo flusso logico se ad ogni momento dovesse prendere in considerazione tutte le informazioni pertinenti ad un determinato problema. La mente seleziona le informazioni pertinenti ancor prima di ricavarne tutte le conseguenze, e in questo modo commette degli errori. In questo modo però riesce a produrre dei risultati che un calcolatore non riesce ad emulare, riesce ad affrontare problemi di grande complessità computazionale. Il gioco degli scacchi ne è un esempio. Il giocatore umano trova la strategia vincente senza calcolare tutte le possibilità che le mosse sulla scacchiera consentirebbero. Il computer no, calcola tutte le possibilità in maniera esaustiva. Deep Blue, il super computer, ha battuto Kasparov, il campione del mondo di scacchi, grazie a questa logica esaustiva, grazie alla forza bruta. Ma nel mare della complessità dei sistemi reali la mente umana riesce ancora a produrre prestazioni migliori. Quali strategie usa la mente per ottenere questo incredibile risultato? Certo l’uomo non può competere con il computer nel compito di calcolare pigreco fino al centesimo decimale, ma se si tratta di
117
riconoscere il volto materno un bimbo riesce molto meglio che non una rete neurale. Per un robot il compito di andare a prendere un caffè al bar presenta enormi difficoltà computazionali e cognitive. Per eseguire un compito così banale in un ambiente reale il robot dovrebbe essere in grado di elaborare una quantità enorme di informazioni; a livello cognitivo, verbale e psicomotorio, nonché avere una rappresentazione del mondo estremamente vasta. Non esiste solo il ragionamento simbolico che si esprime nella logica come manipolazione di simboli, ma esistono modalità di ragionamento sub simbolici basati sull’interazione e trasmissione di informazione in reti di nodi connessi, come si riesce a capire studiando le reti neurali. Nelle reti interconnesse, l’attivazione di neurodi consente al sistema di produrre prestazioni che possono essere interpretate come veri e propri ragionamenti logici. Un sistema semplificato di queste logiche lo si ritrova nella realizzazione di reti neurali e nel calcolo parallelo. Reti di nodi in cui l’informazione si trasmette grazie all’attivazione in parallelo in una miriade di canali di comunicazione. Ogni singolo nodo contribuisce alla prestazione finale della rete ma non la determina in maniera rigida e causale. Le prestazioni della rete ubbidiscono a leggi statistiche più che a connessioni singole. Si osserva un effetto di convergenza e di stabilità della rete. Sostituire il paradigma se A è vero allora B è vero con se A è attivo allora B è attivo consente un interessante sviluppo delle possibilità logiche del sistema. Una determinata logica può essere monotonica, ovvero ogni affermazione vera rimarrà tale al crescere della base di conoscenza, oppure può essere non monotonica, ovvero una affermazione ha uno stato di verità dinamico, cioè dipendente dallo stato delle conoscenze in un determinato istante: una affermazione vera può anche non esserlo più dopo un certo periodo di evoluzione del sistema. Il concetto di verità non è dunque assoluto ma dipendente dall’insieme delle informazioni disponibili al sistema di deduzione.
118
In particolare in un sistema di rappresentazione in cui la funzione di verità è sostituita da una funzione di attivazione ciò che risulta “vero” consiste nello stato dinamico in cui un particolare nodo risulta attivo o meno. Avviene una scissione tra il mondo reale e la rappresentazione del mondo utilizzata dal sistema deduttivo, questa scissione necessita di un processo di riallineamento che consenta la verifica che le deduzioni corrispondano ai fatti reali del mondo. Da questo punto di vista il metodo scientifico galileiano si presenta come un ottimo sistema di controllo e verifica sperimentale. Consideriamo ad esempio di avere l’informazione che Titti è un uccello. Possiamo allora dedurre che Titti vola. In seguito ci viene detto che Titti è un pinguino. Ne deduciamo allora che Titti non vola. Otteniamo così una contraddizione elementare e l’informazione sul fatto che Titti vola oppure no diviene inutilizzabile. Solo una verifica sperimentale ci consente di affermare che Titti non vola. Il sistema deduttivo così costruito è non monotonico. La verità di una affermazione dipende dallo stato di conoscenza del sistema e possiede una dimensione temporale. La logica del senso comune funziona spesso in questo modo, a differenza della struttura granitica della logica classica, la logica che le persone utilizzano normalmente funziona in una dimensione temporale e in questo modo le persone riescono ad interagire in maniera più efficace con il complesso mondo in cui vivono, in cui non vi sono affermazioni universali assolute ma ogni deduzione si presenta limitata nel tempo, precaria ed occasionale. Come faccia la mente a districarsi in un mare di informazioni contraddittorie è un aspetto che merita un attento esame e profonde riflessioni. Il momento presente, il qui ed ora, governa in maniera stringente l’atto psichico alla base del ragionamento logico che le persone usano. Il processo psichico che si realizza nel presente è l’elemento
119
indubitabile dell’esperienza, nel passato interviene la memoria che potrebbe essere fallace, nel futuro ancora non c’è risposta: la previsione può essere confermata o smentita dai fatti in una modalità che non ci è dato conoscere a priori. Nella logica classica non esiste una dimensione temporale, una affermazione vera è vera per sempre; nel mondo reale siamo immersi in un continuo divenire. All’inizio la nostra rappresentazione del mondo contiene pochi fatti e poche esperienze, con il procedere dell’interazione col mondo i fatti si organizzano in solide strutture concettuali che possiamo comunicare verbalmente. Dal punto di vista della tecnologia dei computer questo significa costruire basi di conoscenza in continuo aggiornamento, basi di conoscenza che siano in grado di evolvere interagendo con la realtà esterna. Quando si costruisce un sistema esperto, le regole sono fissate all’inizio, la modifica e l’aggiornamento delle regole risulta estremamente laborioso. Sarebbe di grande interesse, invece, progettare sistemi esperti in grado di aggiornare continuamente la propria base di conoscenza sulla base dell’esperienza acquisita. Quando si realizza un sistema esperto, di solito, la conoscenza di un esperto umano viene fotografata in un sistema di conoscenza basato su regole. Una tale base di conoscenza risulta essere statica e il sistema esperto risulta utile in quanto ripropone le deduzioni relative ad uno specifico problema riportando fedelmente il parere che l’esperto umano aveva precedentemente inserito. Ovviamente il sistema esperto espande al proprio interno tutte le possibili conseguenze relative alle regole che conosce, tenendo presente tutte le svariate sfumature deducibili logicamente dalle premesse. Un sistema esperto dinamico invece dovrebbe essere in grado di aggiornare la propria base di conoscenza sulla base dell’interazione contestuale al suo utilizzo. A questo scopo si rende necessario il giudizio di un esperto che incrementi e corregga la base di conoscenza in una fase successiva alla implementazione iniziale.
120
Inoltre il sistema dovrebbe essere in grado di trattare quei casi in cui l’informazione risulta incompleta o contraddittoria. A buon diritto un sistema di tal genere sarebbe considerato più intelligente rispetto ai sistemi esperti standard. Il cervello umano non utilizza la strategia di risoluzione utilizzata dal motore inferenziale di un sistema esperto. Il cervello non è intento a computare tutte le regole della propria base di conoscenza, lavora piuttosto su sotto parti magistralmente selezionate. Il cervello si sofferma solo sugli aspetti pertinenti al problema considerato. Come riesca a selezionare l’ambito di competenza è veramente difficile da spiegare utilizzando le normali conoscenze informatiche. Lo stimolo viene selezionato fin dall’inizio del processo di percezione. Il cervello si mette in moto fin da subito, non aspetta di raccogliere i dati di input, ma elabora l’informazione fin dal suo primo apparire a livello sensoriale. Inoltre un piccolo indizio può attirare l’attenzione e portare il ragionamento su un filo logico molto particolare ed originale, selezionando e potando tutto un intero albero di possibilità logiche che un computer invece dovrebbe analizzare. Come fa il cervello a trovare strategie vincenti operando in queste modalità così precarie? Forse l’elaborazione parallela che si realizza nel cervello consente buoni risultati anche quando non si utilizzano strategie che esauriscono tutti i casi possibili. Forse questo modo di procedere è l’unico in grado di fornire buone prestazioni in un mondo estremamente complesso, un mondo in cui i sistemi deduttivi classici ben presto sono bloccati dalla mole esponenziale di calcoli che si rendono necessari. Gli informatici hanno classificato i vari gradi di complessità computazionale che si presentano nella risoluzione di problemi. Nei casi reali spesso ci troviamo di fronte ad una crescita esponenziale della complessità computazionale. Per risolvere con metodi esaustivi certi problemi di interesse pratico occorrerebbe una elaborazione che necessita di un tempo
121
di esecuzione superiore all’età dell’universo. Risulta pertanto di importanza fondamentale riuscire a capire come il cervello riesca a trovare quelle scorciatoie che gli permettono di non rimanere bloccato dalla mole di calcoli che si rendono necessari nella risoluzione dei problemi reali.
122
Spiegare e comprendere Apparentemente la scienza sembra una disciplina del tutto obiettiva: il contributo di un singolo scienziato consisterebbe nello studiare gli stessi fenomeni in modo più approfondito dei suoi predecessori. Questa visione può essere corretta nel periodo di scienza normale, non quando una data disciplina subisce dei cambiamenti profondi. Se un gruppo di ricercatori vuole portare avanti un progetto in comune, bisogna preliminarmente mettersi d’accordo su quali siano fenomeni che sono interessanti (e quindi degni di essere studiati) e quali siano i criteri in base ai quali una spiegazione di un fenomeno viene accettata come una valida spiegazione scientifica. Queste scelte sono essenziali ed essendo necessario farle prima di iniziare la normale attività scientifica seguono una logica del tutto diversa da quella che guida il normale sviluppo della scienza. La fisica moderna è nata quando Galilei (con una scelta apparentemente arbitraria) decideva di studiare il moto dei corpi trascurando l’attrito, nonostante che un mondo senza attrito sarebbe completamente diverso da quello che conosciamo. Un cambiamento quindi di prospettiva in una disciplina ha spesso delle motivazioni e delle implicazioni che vanno al di la dello stretto ambito scientifico e che possono essere di interesse generale. Negli ultimi venti anni una parte della fisica ha subito un cambiamento di questo tipo. I fenomeni che tradizionalmente erano studiati erano solo quelli riproducibili, ovvero quelli che si potevano effettuare in laboratorio e ripetere varie volte con gli stessi risultati. Questa scelta taglia fuori un gran numero di fenomeni difficili da riprodurre: basti pensare alla forma dei cristalli di neve, ognuno diverso dagli altri eppure tutti con la loro bellissima simmetria esagonale. La forma dei fulmini, dei frammenti di un vetro che si rompe, la spuma delle onde del mare erano fenomeni non riproducibili e quindi non soggetti all’analisi rigorosa della fisica sperimentale. Negli anni settanta un gruppo di fisici incomincia a cambiare atteggiamento; non si cerca più di capire come mai un dato
123
bicchiere si rompa in determinato modo (compito impossibile dato che tutti i bicchieri del nostro servizio si rompono in frammenti di forma differente) ma piuttosto si cerca di trovare quali siano le caratteristiche in comune di tutti i modi in cui i bicchieri si rompono: da un lato si cerca di classificare le forme irregolari che si presentano in questi fenomeni e dall’altro si richiede che la teoria sia in grado non di predire con precisione il fenomeno, ma semplicemente di dirci con che probabilità i fenomeni possano avvenire. Sistemi di questo tipo, in cui non è possibile fare previsioni certe, ma solo indicare delle probabilità diventano interessanti e parole come caotico, irregolare, impredicibile, che nel passato avevano un significato negativo acquistano ora un significato positivo. Nella concezione neopositivistica della scienza le teorie scientifiche sono concepite come classi di enunciati deduttivamente chiuse e assiomatizzabili; la comprensione scientifica del mondo avviene attraverso procedure ipotetico deduttive che permettono di spiegare i fatti e di prevederne di nuovi incorporandoli in sistemi deduttivi quali appunto devono essere le teorie scientifiche. La spiegazione scientifica si configura quindi come un argomento inferenziale di cui ciò che conta esplicitare è la forma logica e la cui funzione è quella di ricondurre la descrizione di un evento sotto una generalizzazione che dovrebbe rendere ragione del suo occorrere. L’altro assunto fondamentale della concezione standard asserisce la simmetria tra spiegazione e previsione. L’argomentazione deduttiva con cui si può spiegare un certo evento è, dal punto di vista strutturale, identica alla previsione di quell’evento. In questa posizione si riflette uno degli aspetti più caratteristici dell’immagine neopositivistica della scienza: la convinzione secondo cui il potere esplicativo di una teoria dipende dalla sua capacità di previsione; quest’ultima caratteristica assume un valore prescrittivo per qualsiasi teoria scientifica. Un rovesciamento dell’approccio è stato operato da quei filosofi che hanno ricondotto lo studio della spiegazione a quello della logica delle “domande perché”, nella convinzione che la spiegazione sia una nozione essenzialmente pragmatica. La
124
validità di una spiegazione non può essere analizzata senza prendere in considerazione il contesto nel quale è sorta la domanda da cui la spiegazione dipende. In tal modo essendo la spiegazione una relazione pragmatica e non un problema semantico e implicando, quindi, solo secondariamente relazioni tra teorie e fatti, l’accettabilità di una teoria non viene fatta dipendere dal suo potere esplicativo e l’utilizzazione che se ne fa in vista di una spiegazione non richiede per la teoria il requisito della verità. Le teorie scientifiche vengono applicate nelle spiegazioni. Il concetto di spiegazione è stato spesso confrontato con quelli di descrizione e di comprensione. Lo scopo della fisica e delle altre scienze naturali sarebbe quello di spiegare, mentre lo scopo della storia e delle altre scienze umane sarebbe quello di comprendere. Ma la comprensione si intreccia in modo inestricabile con la spiegazione e la descrizione. La descrizione dell’oggetto da spiegare comporta l’attivazione di un certo quadro concettuale che permette di rappresentare il fenomeno secondo una determinata prospettiva. La descrizione è indicativa del tipo di comprensione con il quale vengono organizzati e resi intelligibili i dati empirici. La natura dei concetti utilizzati in una descrizione definisce il taglio con cui si è voluto strutturare un certo ambito della realtà. Vi sono modalità diverse di comprendere il mondo, forme di descrizione cioè i cui concetti si dispongono su piani categoriali diversi costituendo modi di vedere tra loro alternativi. Un atto di comprensione implica la formazione di concetti che permettono di dare struttura all’esperienza costruendo livelli diversi di realtà. Vi è incommensurabilità tra una forma di descrizione e un’altra quando i sistemi concettuali utilizzati risultano diversi rispondendo a punti prospettici alternativi. Non è possibile passare da una descrizione all’altra senza cambiare il modo di vedere, la forma dell’intelligibilità. Sono due modi diversi di guardare che corrispondono a due distinti atti di comprensione. L’irriducibile molteplicità delle teorie e delle discipline scientifiche derivano da questa varietà dei risultati conseguenti ad
125
un’attività a più livelli di comprensione del mondo. Ad una certa forma di descrizione corrisponde un certo metodo di rappresentazione: si costruiscono così mondi diversi. Ogni teoria scientifica costruisce i suoi oggetti, ed è questa attività costruttiva che ci rende intelligibile il mondo. Un sistema di classificazione è parte peculiare e inestricabile della teoria scientifica cui appartiene. Nella definizione di una teoria scientifica ha un ruolo preminente la determinazione dei concetti attraverso cui si struttura il livello di realtà che costituisce il dominio di applicazione della teoria. Ogni spiegazione parte da una descrizione e la descrizione presuppone un certo modo di comprendere i dati. È chiaro come la presentazione di un evento sotto una certa descrizione contribuisca a determinare il quadro esplicativo adeguato per la spiegazione dell’evento. La descrizione non è la semplice trascrizione di una serie di elementi osservativi neutri, essa comporta l’attivazione di una visione generale, di procedure di verifica, di criteri per l’applicazione di termini specifici e diversi da un caso all’altro o da una teoria all’altra. Presentare un certo comportamento come intenzionale presuppone che esso venga descritto in un certo modo. Il fatto che un evento è concepito come un’azione intenzionale dipende dal modo in cui è stato descritto, cioè da un atto di comprensione intenzionale di certi elementi comportamentali. Alcune delle controversie scientifiche più interessanti hanno origine proprio nella diversa strumentazione concettuale utilizzata dalle parti in conflitto. Quando un accadimento naturale viene spiegato da una teoria fisica esso viene compreso all’interno di un sistema teorico più ampio e specifico, caratterizzato da forme di classificazione che producono una nuova immagine del mondo. Il mondo degli atomi, degli elettroni, dei protoni è altro rispetto a quello delle sedie e dei tavoli, è definito da una rete concettuale che determina una ridescrizione ad un diverso livello categoriale. Non tutte le leggi sono causali. Esistono per esempio leggi probabilistiche. C’è una ragione per ritenere che le leggi non causali non
126
possono svolgere il ruolo delle leggi di copertura nelle spiegazioni scientifiche. Le regolarità non causali non hanno una forza esplicativa che permetta di fornire una comprensione degli eventi nel mondo, richiedono anzi di essere, a loro volta, spiegate. I marinai, molto tempo prima di Newton, erano perfettamente a conoscenza della correlazione tra il comportamento delle maree e la posizione e le fasi della luna. Ma visto che erano totalmente all’oscuro delle relazioni causali implicate, giustamente non avevano nessuna pretesa di comprendere perché le maree fluissero e defluissero. Quando Newton fornì una spiegazione basata sui legami gravitazionali, si raggiunse la comprensione. Tenendo presente questa considerazione, ci rendiamo conto che dobbiamo prestare altrettanta attenzione alle spiegazioni delle regolarità di quanta ne diamo alle spiegazioni di fatti particolari. Queste regolarità richiedono una spiegazione causale. Gli sviluppi della scienza nel ventesimo secolo dovrebbero averci preparato all’eventualità che alcune delle nostre spiegazioni scientifiche dovranno essere statistiche, non solo perché la nostra conoscenza è incompleta, ma piuttosto perché la natura stessa è intrinsecamente statistica. Alcune delle leggi adottate per spiegare eventi particolari saranno statistiche, e così pure alcune delle regolarità di cui desideriamo dare una spiegazione. Questa circostanza costituisce una sfida per la concezione inferenziale nella quale per la spiegazione statistica è necessaria una elevata probabilità di tipo induttivo. Alcuni fenomeni seguono una legge statistica ma non seguono induttivamente dai fatti esplicativi. Rintracciare le cause reali diviene problematico. Tuttavia i processi casuali iniziano in un luogo centrale e viaggiano verso l’esterno a una velocità finita. Un insieme piuttosto complesso di relazioni di rilevanza statistica è spiegato dalla propagazione di un processo, o di un insieme di processi, a partire da un evento comune centrale. Quando è possibile rintracciare un evento centrale come causa della correlazione statistica possiamo ricondurci ad una spiegazione causale. Purtroppo molto spesso questo non è immediatamente visibile, l’unico dato di cui disponiamo è
127
appunto la misurazione della correlazione statistica tra eventi. La collisione di due palle da biliardo e l’emissione o l’assorbimento di un fotone, sono tipici esempi di interazioni causali. Le interazioni causali sono quel genere di cose che siamo inclini a identificare come eventi. Relativamente a un particolare contesto, un evento è comparativamente piccolo nelle sue dimensioni spaziali e temporali: i processi hanno tipicamente durate molto più lunghe, e anche la loro estensione spaziale può essere maggiore. Un raggio di luce, che viaggia verso la Terra da una stella lontana, rappresenta un processo che avviene su una grande distanza e dura per un tempo molto lungo. Se pensiamo a una causa come ad un evento, e a un effetto come ad un evento distinto, allora la connessione tra loro potrebbe essere semplicemente un processo causale spaziotemporalmente continuo. Reichenbach elaborò una idea di come debbano essere identificate le cause, nel suo principio di causa comune. Se due o più eventi di un certo tipo si verificano in luoghi diversi, ma si verificano nello stesso momento più frequentemente di quanto ci si dovrebbe aspettare se accadessero indipendentemente, allora questa apparente coincidenza va spiegata in termini di un comune antecedente causale. Se, per esempio, tutte le lampadine elettriche di una particolare area si spengono simultaneamente, noi non crediamo che ciò accada perché si sono bruciate tutte in modo fortuito alle stesso momento. Attribuiamo la coincidenza a una causa comune, come una valvola saltata, una linea caduta o dei problemi alla centrale generatrice. La mente è estremamente sensibile alle coincidenze significative proprio per il fatto che nella maggioranza dei casi esse sottendono a qualche legge di causa ed effetto antecedente e comune. Le teorie scientifiche devono dirci quel che è vero in natura e come va spiegato. Ma queste sono due funzioni completamente differenti, e vanno tenute distinte. Di solito vengono confuse. La seconda viene comunemente vista come un derivato della prima.
128
Si pensa che le teorie scientifiche spieghino tramite le descrizioni che danno della realtà. Una volta terminato il lavoro di descrizione, la scienza può chiudere i battenti. Questo è un errore, un errore incoraggiato dal modello di spiegazione in base a leggi di copertura (Hempel). Il modello presume che tutto ciò che abbiamo bisogno di conoscere sono le leggi di natura - e un po’ di logica, forse un po’ di teoria della probabilità - e in questo modo conosciamo quali fattori ne possono spiegare altri. Ad esempio, nella più semplice versione nomologico-deduttiva, il modello a legge di copertura dice che un fattore può spiegarne un altro solo nel caso in cui il verificarsi del secondo possa venir dedotto dal verificarsi del primo, date le leggi di natura. Nell’impostazione del modello di copertura si fa assegnamento sulle leggi naturali, e solo su esse, per individuare i fattori che possiamo utilizzare nella spiegazione. Tuttavia non possiamo spiegare molti fenomeni con un modello a legge di copertura perché non disponiamo di nessuna legge che li comprenda. Le leggi di copertura sono rare. Molti fenomeni che hanno ottime spiegazioni scientifiche non sono compresi entro alcuna legge. L’attività dello scienziato, prima ancora e al di là di stabilire le leggi di natura, consiste nella specificazione di quei fattori che rispetto ad altri sono rilevanti dal punto di vista esplicativo. Una volta conosciute le leggi di natura, resta ancora da decidere quali generi di fattori vadano considerati nella spiegazione. Molto spesso si considerano casi ideali. Ma le leggi sono rare e spesso non abbiamo proprio nessuna legge per quel che accade quando le condizioni sono lontane dall’essere ideali. Il comportamento degli oggetti naturali è vincolato da alcune leggi specifiche e da un insieme di principi generali, ma non è determinato nei dettagli, nemmeno statisticamente, come ci mostrano i risultati della meccanica quantistica. La maggior parte dei casi della vita reale implica una combinazione di cause, e noi non disponiamo di leggi generali che descrivono quel che accade in questi casi complessi. Non c’è nessuna teoria generale che stabilisca in che modo combinare gli
129
effetti delle singole leggi fenomenologiche. Non esiste una teoria del tutto ed è veramente difficile anche solo immaginarla! Quando tutte le leggi saranno conosciute, le leggi saranno sufficienti per spiegare tutti i fenomeni, tuttavia, nel frattempo noi diamo delle spiegazioni: ed è compito della scienza dirci quali generi di spiegazioni sono ammissibili. Le leggi esplicative, per loro stessa natura, hanno delle eccezioni: solo in circostanze improbabili una legge del genere sarà vera alla lettera. È la nostra immagine della struttura esplicativa della natura che lo richiede: noi supponiamo che in natura siano all’opera certe leggi fondamentali. Molto spesso una legge non vera (approssimata) fornisce delle ottime spiegazioni. Anche la natura stessa della spiegazione cambia nei vari periodi storici. Poiché ciò che si considera una spiegazione intelligibile cambia, si è tentati di pensare all’intelligibilità delle spiegazioni come a qualcosa di puramente soggettivo, psicologico. Il fatto che gli scienziati del diciassettesimo secolo considerassero inintelligibili le spiegazioni che implicavano forze agenti tra particelle materiali, mostra che è la novità a creare sconcerto, mentre ciò che è familiare sembra intelligibile. Nel secolo diciannovesimo, quando ci si era abituati all’idea, queste spiegazioni risultarono perfettamente intelligibili. Tuttavia l’intelligibilità si caratterizza per un aspetto sistematico più che psicologico. Sapere che un fatto accade regolarmente non lo rende intelligibile. È la regolarità stessa che risulterebbe inintelligibile. Solo nel momento in cui si potesse modificare il nostro sistema di credenze in modo che la regolarità cessasse di essere puramente fenomenica, adattandosi in un modello coerente con il resto delle nostre credenze ad essa collegate potremmo giungere ad una spiegazione soddisfacente. Quando identifichiamo un evento come qualcosa che va spiegato, lo facciamo rispetto ad un quadro di credenze, ad uno sfondo di aspettative sul modo in cui quel genere di cose dovrebbe
130
comportarsi; e questo sfondo determina anche il tipo di considerazioni che potrebbero rientrare in una spiegazione intelligibile. L’intelligibilità ha un aspetto sistematico in quanto lo scienziato tenta di spiegare i fenomeni seguendo determinate regole. Se le regole sono incorporate in una filosofia meccanicistica corpuscolare non si riesce ad accettare una spiegazione che preveda interazioni a distanza. Quando la comunità scientifica giunse a considerare esplicative le forze tra particelle agenti a distanza, il cambiamento non fu solamente psicologico, era cambiata la pratica esplicativa, erano diverse le regole che si dovevano seguire per fornire una spiegazione scientifica. L’accettabilità di una spiegazione deve essere messa in relazione non solo con i fatti, ma anche con le regole dell’attività scientifica così come viene praticata in periodi diversi, regole che governano il modo in cui i fatti devono essere ordinati e compresi. Le leggi a differenza delle correlazioni empiriche funzionano come modelli, sono impalcature teoriche entro cui i fatti possono essere spiegati. Queste regole precedono logicamente ogni particolare spiegazione perché sono esse stesse a definire ciò che necessita di spiegazione e ciò che va fatto per fornire una spiegazione scientifica. Mentre è vero che ogni nuova applicazione o chiarificazione di una tradizione di ricerca produce una qualche modifica della pratica accettata, la differenza tra tipi di argomentazioni proposte dagli scienziati, e tra i tipi di considerazioni ritenute pertinenti, indica se essi stanno proponendo una estensione originale di un modo accettato di spiegare o se stanno mettendo in discussione la pratica esplicativa accettata. Accettare quadri concettuali diversi di regole diverse per la spiegazione, comporta il porre domande di tipo diverso e il cercare risposte diverse; impegna quindi a condurre ricerche future in una direzione diversa. Anche le nostre comuni descrizioni e spiegazioni del comportamento umano vengono fornite su uno sfondo di regole, regole che sono implicite in ciò che comunemente affermiamo su quanto fanno gli uomini. Solitamente, quando descriviamo il comportamento umano, lo descriviamo come una sorta di azione intenzionale piuttosto che
131
come un certo tipo di evento nel mondo esterno. Talvolta classifichiamo il comportamento umano nei termini del fine verso cui pensiamo sia rivolto l’agente. Le nostre descrizioni presuppongono che si stia trattando con un agente che fa ciò che intende fare. Un comportamento descritto in questo modo richiede delle spiegazioni che devono essere espresse nei termini delle intenzioni dell’agente. Una azione ci risulta enigmatica quando non vediamo il motivo di compierla in quelle circostanze, e per trovare una spiegazione cerchiamo allora gli scopi, le credenze, le linee di condotta, i desideri dell’agente. Nonostante questo sia il modo corrente per rendere ragione delle azioni umane, alcuni autori affermano che non si tratta affatto di una spiegazione. Questo modo di procedere non riesce a provare come le ragioni spiegano le azioni, dato che una persona può avere una ragione per un’azione, ed eseguire l’azione, anche se può non essere questa la ragione per cui egli ha agito così, mostrare che egli aveva una ragione per agire in quel modo non dimostra che l’agente ha eseguito l’azione perché aveva quella ragione. Le persone non si comportano secondo un principio di massima razionalità! In particolare non è facile definire cosa sia l’intenzionalità dell’agente. Per la pratica esplicativa implicita nel linguaggio ordinario è fondamentale che le azioni debbano essere spiegate in termini di intenzioni. La spiegazione di un comportamento funziona in quanto ci mettiamo al posto dell’agente, ma in nessun modo possiamo ricavarne una spiegazione causale. In altre parole, se dobbiamo fornire una spiegazione intelligibile di un’azione all’interno di un quadro concettuale dobbiamo assumere il punto di vista dell’agente. Tutto ciò è in netto contrasto con le scienze fisiche. In queste ultime spieghiamo gli eventi dimostrando che sono intelligibili, anche se il loro verificarsi sembra anomalo, perché quegli eventi sono realmente ciò che dovrebbe accadere alla luce dei concetti e delle regole accettate dai ricercatori. Per spiegare gli eventi si costruisce un calcolo che dimostra come la descrizione del loro
132
verificarsi possa avvenire in accordo con le regole e le leggi procedurali che definiscono la pratica esplicativa della comunità scientifica. Ma nella pratica esplicativa che informa il nostro modo comune di parlare del comportamento umano, le azioni devono essere spiegate in termini di intenzioni dell’agente, e per far questo non abbiamo a disposizione nessun tipo di calcolo adeguato. Non è ambizione degli psicologi sperimentali spiegare e descrivere il comportamento nel modo in cui noi comunemente lo facciamo. Quello che persone come Hebb sperano di dimostrare è che un processo mentale può essere un processo intellegibile dal punto di vista fisiologico; egli cerca di usare i concetti e le regole della ricerca fisiologica per elaborare teorie, in linea con quelle della fisica e della chimica, che mettano in relazione microstati dei processi cerebrali dell’agente con la sua risposta alla situazione in esame. Questa teoria spera di spiegare la connessione tra l’azione dell’agente e la sua intenzione ad un livello più fondamentale. È ovvia comunque la frattura semantica che porta questo tipo di approccio. Nella nostra prassi comune esiste un dualismo semantico tra gli stati fisici e gli stati mentali.
133
Complessità e musica L’idea ispiratrice della elaborazione parallela distribuita si estende ad un lunga tradizione concettuale e sperimentale. Il successo della teoria della cognizione si fonda, come in molte altre discipline, su una solida base di risultati teorici e matematici. Possedere una solida teoria matematica dei processi di elaborazione delle informazioni costituisce un potente strumento di indagine. La teoria dell’armonia (Harmony Theory) si colloca proprio a questo livello di formulazione matematica dell’elaborazione subsimbolica. La teoria dell’armonia è un corpo di cognizioni matematiche per lo studio di una classe di sistemi dinamici in grado di eseguire compiti cognitivi in accordo con il paradigma di elaborazione subsimbolica. Questi sistemi dinamici possono servire come modelli della cognizione umana o per disegnare sistemi cognitivi artificiali. L’aspetto fondamentale della cognizione esplorata dal paradigma sub-simbolico non coinvolge procedure di manipolazione di simboli ma utilizza il concetto di attivazione di unità elementari, relazioni e correlazioni statistiche. Lo scopo della teoria dell’armonia consiste nel fornire un potente linguaggio per esprimere teorie cognitive nel paradigma sub-simbolico, un linguaggio complementare all’esistente linguaggio di manipolazione di simboli. L’aspetto importante non consiste in una strategia che sia necessariamente applicabile a tutti i sistemi cognitivi indistintamente, ma piuttosto in strategie che portano a nuovi interessanti risultati matematici, a nuove architetture di calcolo e a modelli di computazione che forniscano contributi significativi nel campo dei sistemi distribuiti massicciamente paralleli in grado di eseguire compiti cognitivi. Ogni processo viene considerato come una realizzazione di una rappresentazione di configurazioni statiche relative ad un mondo esterno.
134
Ogni schema di attivazione costituisce una informazione da elaborare. La teoria matematica dell’armonia si fonda sul concetto familiare nella scienza cognitiva che ogni inferenza deriva dall’attivazione di uno schema. La teoria matematica dell’armonia utilizza l’analisi matematica e la simulazione a computer per delineare le implicazioni derivate dai principi fondamentali. A partire da questi principi è possibile analizzare matematicamente quegli aspetti che risultano derivare rigorosamente dalle regole utilizzate da una macchina che implementi i requisiti computazionali di base. La teoria dell’armonia richiama alla mente la disciplina principe in cui l’armonia si esprime, ovvero la musica. La complessità che ritroviamo in un brano musicale si esprime in forma armonica e si presenta alle nostre orecchie come una forma melodica molto ben determinata e per nulla caotica. Le possibilità di espressione in un brano musicale sono notevoli, un autore ha a disposizione una vasta gamma di forme armoniche distinte per realizzare il proprio brano musicale, ma il risultato di tale lavoro si presenta alle nostre orecchie con un elevato grado di uniformità melodica; noi riconosciamo la melodia come una unica entità strutturale e la riconosciamo tra migliaia di melodie diverse. Le regole armoniche di base sono semplici e ripetitive per ogni nota di tonica scelta. Ma le melodie, nonostante utilizzino solo 7 note fondamentali, sono numerosissime e diversissime tra di loro. Nella musica interviene non solo il tono ma anche il timbro e ogni strumento possiede il proprio timbro caratteristico, la voce poi può caratterizzare una melodia in una maniera determinante. Informatici e musicisti si sono divertiti a creare musica in maniera automatica. Dal loro lavoro ne risulta evidente le grandi potenzialità del sistema di note e di voci differenti che si possono utilizzare, ma dalle loro melodie risulta altrettanto evidente come la creatività umana intervenga in maniera vistosa nel creare belle melodie. Esiste una affinità tra il funzionamento della mente e la musica.
135
La capacità di creare una bella melodia che appaghi il corpo e lo spirito risiede nelle più sottili potenzialità creative della mente. Si direbbe che la melodia sgorghi da sola nella mente del musicista. Il computer si dimostra assai poco creativo limitandosi a combinare casualmente suoni, non riesce a cogliere quel senso di unità che una musicista riesce ad esprimere componendo una melodia in cui ogni nota sembra essere insostituibile all’interno dell’intero brano musicale. La musica, la capacità di comporre musica, costituisce una sfida per la logica digitale che determina il funzionamento del computer. Sfida ancora lontana dall’avere una risposta soddisfacente. Nella complessità delle potenzialità armoniche il computer non riesce a trovare quella semplicità ed immediatezza che il musicista riesce ad esprimere in maniera così naturale. Cosa c’è di più ordinato di una melodia? Ogni nota è perfettamente coordinata nel tempo e nello spazio. Nella musica si manifesta il più alto livello di sincronicità. L’orecchio può percepire la più piccola stonatura nell’esecuzione del brano musicale, il minimo disturbo fortuito o accidentale. Eppure le possibilità espressive consentite dalla struttura musicale sono di una enorme complessità, anzi il rumore bianco prodotto dalla contemporanea presenza di tutti i toni, che rappresenta il massimo di probabilità, costituisce un suono molto simile al silenzio per l’orecchio. La musica si basa sulla diversità e contrapposizione di suoni. Nel mare dei possibili suoni la melodia si staglia come unica e necessaria. In una orchestra ogni suono è coordinato e ogni strumento svolge il proprio ruolo, sia esso un virtuosismo del solista o il ritmo segnato dal tamburo. Il caos possibile viene soggiogato dalla melodia producendo un ordine cristallino nel mare della complessità. La melodia nasce come possibilità ma si concretizza in una necessità determinata dall’estro del compositore, assume una propria individualità che consente perfino di numerarla come un
136
tutto unico, ogni nota, scelta tra quelle possibili, diviene insostituibile nel contesto melodico. Come scegliere ad ogni passo la nota successiva mentre si compone un brano? Occorre dire che nonostante l’estrema libertà a disposizione del compositore esistono alcune regole di composizione che producono melodie più accettabili dall’orecchio che altre. Queste regole, come per esempio la risoluzione sulla tonica della settima, costituiscono il corpo principale dei trattati di armonia, in cui sono sistemati con ordine le varie suddivisioni in accordi maggiori e minori. Ma anche se facciamo digerire ad un computer tutti i trattati di armonia esistenti non siamo ancora in grado di creare melodie veramente originali e piacevoli. Il computer si perde nella complessità musicale, produce melodie ripetitive e sterili, che a sprazzi sembrano interessanti, ma poi si perdono nella cacofonia. Cosa succede nella mente del compositore mentre compone musica? La mente riesce a coordinare miriadi di suoni in una melodia che sembra dovesse esistere di per sé anche prima di essere composta. Questo è un risultato veramente strabiliante. La neuropsicologia ha scoperto moltissime situazioni cliniche in cui si può affermare che la consapevolezza è dissociata dalla capacità di discriminazione. Non c’è nulla di sorprendente nell’agire senza consapevolezza, si potrebbe perfino affermare che la maggior parte delle attività quotidiane sono eseguite in modo non conscio e che molte delle interazioni con il mondo esterno vengono portate avanti in modo automatico e, in un certo senso, senza soffermarcisi con il pensiero. Il pianista che esegue un brano al pianoforte non pensa alle note che sta suonando, semplicemente esegue i movimenti che con l’esercizio gli sono divenuti abituali. La mano sinistra si muove secondo le regole armoniche e la mano destra secondo le regole melodiche, il tutto in un processo semi automatico in cui la coscienza interviene come guida ma non come controllore di tutte le movenze acquisite durante
137
l’apprendimento psicomotorio dell’esecutore. Se il musicista dovesse prendere piena coscienza di tutte le note, una ad una, ben presto si troverebbe bloccato nella sua capacità di eseguire il brano musicale. La musica guida la consapevolezza e noi apprezziamo la melodia senza essere completamente consci di tutte le note che essa contiene, la musica come una filastrocca contiene in sé una catena di riferimenti conseguenti ed automatici. La musica dipana il caos tramite una cadenza (ritmo) e una convergenza di suoni (melodia) che, seguendo le regole armoniche, producono un senso di appagamento nell’orecchio dell’ascoltatore. La musica distende, rilassa e accondiscende ai gusti di chi l’ascolta. Quante volte ci capita di canticchiare interiormente una musica, essa viene generata dalla profondità dell’inconscio che accompagna la genesi del pensiero. Ma che cos’è la coscienza? Se l’ameba fosse un animale grande, così da diventare parte dell’esperienza quotidiana, il suo comportamento indurrebbe subito l’attribuzione a essa di stati di dolore e di piacere, di fame, desiderio e simili, esattamente come facciamo con un cane. Di solito noi attribuiamo la coscienza perché è utile; ci permette di capire, prevedere e controllare le azioni molto più prontamente che se non lo facessimo. Noi ascriviamo delle qualità di tipo umano anche a degli oggetti nei giochi al computer, ai missili dotati di servo controllo, ai giocattoli meccanici e ai robot; in realtà siamo progettati per essere degli attributori animistici per qualsiasi aspetto del nostro ambiente, sia esso naturale o artificiale. Ma in realtà l’unica coscienza che conosciamo direttamente è la nostra, ognuno la propria, l’attribuzione di coscienza ad esseri o cose è sempre problematica; anzi non può essere mai direttamente sperimentata. Sperimentare l’esistenza di un pensiero non equivale a sperimentare la coscienza. Il pensiero non comporta necessariamente la coscienza. In un certo senso il computer pensa ma non è cosciente. Esiste un pensiero automatico e un pensiero cosciente.
138
La coscienza di sé è qualcosa che sperimentiamo indipendentemente dal pensiero, come ci insegnano molti maestri orientali. Certamente il pensiero è strettamente collegato alle capacità linguistiche. Ma un oggetto parlante (per esempio la radio) non è detto che utilizzi il pensiero. Mentre il linguaggio può essere utile per il pensiero, non è affatto vero che il pensiero richieda il linguaggio. Per esempio, pensiero senza linguaggio può essere osservato nei pazienti afasici, che hanno perduto sia la capacità ricettiva che quella espressiva in seguito al danno cerebrale. È errato far coincidere il pensiero con il possesso del linguaggio. È stato provato che la coscienza non è condizione necessaria per la consapevolezza degli eventi sensoriali (si veda quei casi di visione cieca), e quindi probabilmente non è condizione necessaria per il pensiero. Il vantaggio adattativo di essere capaci di comunicare è chiaro a tutti, ma il potere di comunicare con le parole richiede congiuntamente sia la capacità che il bisogno di astrazione e di rappresentazione selettiva. La rappresentazione permette il riferimento, ma l’astrazione permette di costruire un mondo, un universo che esiste non solo nel passato, ma anche nel futuro. Di solito ci si basa sulle evidenze comportamentali per descrivere i livelli, o stadi, di coscienza, cioè gli stati di attivazione che vanno dal coma alla massima allerta. Ma è facile dimostrare, o comunque argomentare in modo convincente, che una risposta comportamentale a uno stimolo può essere necessaria, ma sicuramente non sufficiente, per attribuire consapevolezza cosciente per un determinato stimolo al soggetto. Si consideri un paziente paraplegico, nel quale il midollo spinale sia stato danneggiato in modo grave, causando paralisi e anestesia a entrambe le gambe; i movimenti degli arti inferiori sono ancora possibili quando eccitati da una stimolazione cutanea: una puntura d’ago causa invariabilmente la retrazione dell’arto, gli archi nervosi riflessi del dolore dominano i centri spinali dove il dolore non esiste. L’arto paraplegico risponde ma la persona vi dirà che non ha sentito assolutamente nulla, eppure vede l’arto muoversi.
139
Egli non ha consapevolezza cosciente della stimolazione che provoca la risposta motoria, e non ha alcuna conoscenza di aver prodotto la risposta se non ha la possibilità di vederla o di esserne indirettamente informato. Cosa dire dei comportamenti più complessi? La complessità è l’argomento su cui molti autori hanno basato il loro giudizio: sia la complessità del sistema nervoso che la complessità del comportamento. Sperry (1969) sostiene che la coscienza sia una proprietà emergente dalla complessità sempre maggiore del cervello, assente nei cervelli semplici ma presente nei cervelli più complicati. Ma perché la complessità dovrebbe di per sé comportare un tale risultato? Mi sembra improbabile che la visione cieca sia dovuta a una perdita di complessità del sistema visivo in termini quantitativi. La risposta risiede nel modo in cui è organizzato il sistema nervoso e non nella sua complessità in quanto tale. Certamente un sistema nervoso complesso è il pre-requisito affinché si realizzi una determinata organizzazione cerebrale, ma la complessità di per sé non ci rivela le caratteristiche di questa organizzazione. Nella visione cieca pazienti ciechi in una certa area visiva dimostrano di percepire inconsciamente gli stimoli visivi, in quanto indovinano con alta percentuale di risposte esatte lo stimolo pur dicendo di non averne coscienza alcuna. Ipotizzare una coscienza basandosi su osservazioni indirette è estremamente complicato, ogni procedura effettiva può essere simulata o inconscia. Noi trattiamo le altre persone come fossero uguali a noi, anche quando non possiamo dialogare con loro, attraverso analogie, e condividiamo con gli altri il loro dolore o la vista di un arcobaleno. Gli uomini sono molto simili tra loro fino a quando non si enfatizza eccessivamente l’importanza del linguaggio per il pensiero. Il linguaggio senza il pensiero non ha alcun senso, ma il pensiero senza linguaggio ne ha. Tramite il linguaggio non abbiamo difficoltà ad accettare che gli altri siano in grado di indicare se stanno vivendo una determinata esperienza, riusciamo ad immaginare l’esperienza
140
altrui rapportandola alla nostra, anche se non possiamo sperimentarla direttamente, il vissuto dell’altro è mediato dal linguaggio. Ci può essere comportamento, anche molto complesso, senza consapevolezza. Una persona o un animale possono mostrare delle eccellenti capacità senza che vi sia consapevolezza.
141
BIBLIOGRAFIA - Adeli Hojjat, Knowledge engineering, McGraw-Hill, New York 1990. - Aleksander Igor, Come si costruisce una mente, Einaudi editore. - Arigoni Anio, Mathematical Developments Arising From 'Semantical Implication' And The Evaluation Of Membership Characteristic Functions, Fuzzy Sets and System 4, 1980. - Arigoni Anio, Furlanello Cesare, Maniezzo Vittorio, Irrilevant Features In Concept Learning, IPMU Parigi 1990. - Baldacci Maria Bruna, Rappresentazione e ricerca delle informazioni, NIS la Nuova Italia Scientifica, Roma, 1988. - Baldissera C., Ceri S., Colorni A., Metodi di ottimizzazione, Clup editore, Milano 1981. - Bara Bruno G., La simulazione del comportamento, Franco Angeli editore, Milano 1977. - Barnet Anthony, Istinto e intelligenza, Boringhieri editore, Torino 1972. - Bateson Gregory, Mente e natura, Adelphi editore, Milano 1984. - Bencivenga Ermanno, Le logiche libere, Boringhieri editore, Torino 1976. - Bettelli Oscar, Dati, Relazioni & Associazioni, Apogeo editore, Milano 1991. - Bettelli Oscar, Macchine intelligenti, Arpa Publishing 1997. - Bettelli Oscar, Sincronicità: un paradigma per la mente, Antitesi editoria, Roma. - Bettelli Oscar, Processi cognitivi, CLUEB editore, Bologna 2000. - Bettelli Oscar, Messaggi e comunicazione, trasformazioni delle Simiglianze in programmazione logica, Franco Angeli editore, 2002. - Bocchi G., Ceruti M., La sfida della complessita', Feltrinelli editore, Bologna 1985. - Boden M., Artificial Intelligence and Natural Man, New York, Basic Books, 1977. - Bohr Niels, I quanti e la vita, Boringhieri editore, Torino 1965.
142
- Bonfantini Massimo A., L'esistenza della realta', Bompiani editore, Milano 1976. - Braitenberg Valentino, I veicoli pensanti, Garzanti editore. - Braitenberg Valentino, Il cervello e le idee, Garzanti editore. - Buser Pierre, Il cervello allo specchio, McGraw-Hill 1999. - Dapor Maurizio, L'intelligenza della vita, dal caos all'uomo, Springer editore, Milano 2002. - De Bono Edward, Il meccanismo della mente, Garzanti editore 1972. - De Bono Edward, Il pensiero laterale, Rizzoli - Capra Fritjof, Il tao della fisica, Adelphi - Carruccio Ettore, Mondi della logica, Zanichelli editore, Bologna 1971. - Casadei Giorgio A., Teolis Antonio G.B., Prolog: dalla programmazione all'intelligenza artificiale, Zanichelli, Bologna 1986. - Castelfranchi Yurij, Stock Oliviero, Macchine come noi, la scommessa dell'intelligenza artificiale, Editori Laterza. - Catastini Laura, Il pensiero allo specchio, La nuova Italia editrice. - Ceri S., Gottlob G., Tanca L., Logic Programming and Databases, Springer Verlag, Germany 1990. - Cini Marcello, Un paradiso perduto, Feltrinelli 1999. - Changeux Jean Pierre, Ricoeur Paul, La natura e la regola, Raffaello Cortina Editore 1999. - Churchland Paul M., Il motore della ragione, la sede dell'anima , Il saggiatore editore. - Console Luca, Lamma Evelina, Mello Paola, Programmazione Logica e Prolog, UTET, Torino 1991. - Dunne J.W., Esperimento col tempo, Longanesi editore, Milano 1984. - Durante Marcello, La linguistica sincronica, Boringhieri - Eccles J.C., La conoscenza del cervello, Piccin editore, Padova 1976. - Edelman Gerald M., Sulla materia della mente, Adelphi, Milano 1993 - Edelman Gerald M., Il presente ricordato, Rizzoli
143
- Ehrlich Stephane, Apprendimento e memoria nell'uomo, Edizioni Paoline, 1978. - Feigenbaum E. e Feldman J., Computers and Thought, New York, McGraw-Hill, 1963. - Felician L., Tecniche di organizzazione delle informazioni, Mondadori editore, Milano 1989. - Giorello G., Strata P., L'automa spirituale, Laterza editore, Bari 1991. - Gleick James, CAOS, Rizzoli editore 1987. - Goldberg David E., Genetic Algorithms in Search, Optimization and Machine Learning, Addison-Wesley Pubblishing, Menlo Park California 1989. - Goldbeter A., Cell To Cell Signaling: from experiment to theoretical models, Academic press, San Diego 1989. - Goldman Alvin I., Applicazioni filosofiche della scienza cognitiva, Il Mulino 1996 - Graham Cairns Smith A., Mente e coscienza. Saggio sulla natura della Materia e l'origine della coscienza, Fioriti editore, 2000. - Hedrich Reiner, Le scienze della complessità, Epistemologia Vol. 1 Anno XXII, Tilgher, Genova, 1999. - Hintikka Jaakko, Induzione, accettazione, informazione, Il Mulino editore, Bologna 1974. - Hofstadter Douglas R., Dennett Daniel C., L'io della mente, Adelphi editore, Milano 1985. - Jaspers Karl, Ragione e antiragione nel nostro tempo, Sansoni editore, Firenze 1978. - Jung Carl Gustav, L'uomo e i suoi simboli, Editori Associati, Milano 1991. - Jung Carl Gustav, La psicologia dell'inconscio, Newton, Roma -Jung Carl Gustav, Sulla sincronicita', Il mulino, Bologna - Kauffman Stuart, A casa nell'universo, le leggi del caos e della Complessità, Editori riuniti, 2001. - Lashley Karl S., La fisica della mente, Boringhieri editore, Torino 1969. - Laszlo Ervin, Alle radici dell'universo, Sperling & Kupfer editore, Milano 1993.
144
- Longo Giuseppe, Teoria dell'informazione, Boringhieri editore, Torino 1980. - Lukaszewicz Witold, Non-Monotonic Reasoning, Ellis Horwood, New York 1990. - Maier N.R.F., Schneirla T.C., Principles of animal psychology, Dover Publications, Inc., New York 1964. - Makinson David C., Temi fondamentali della logica moderna, Boringhieri editore, Torino 1979. - Manzotti Riccardo Tagliasco Vincenzo, Coscienza e realtà, Il mulino editore, Bologna 2001. - Mecacci Luciano, Identikit del cervello, Laterza editore. - Mendelson Elliott, Introduzione alla logica matematica, Boringhieri editore, Torino 1972. - Moravia Sergio, L'enigma della mente, Laterza editore. - Morin Edgar, Teorie dell'evento, Bompiani editore, Milano 1972. Kingdom, 1990. - Nilsson Nils J., Metodi per la risoluzione dei problemi nella intelligenza artificiale, Franco Angeli editore, Milano 1982. - Norwood, Russell, Hanson, I modelli della scoperta scientifica, Feltrinelli editore, Milano 1978. - Oliverio Alberto, La mente, istruzioni per l'uso, Rizzoli editore. - Parisi Domenico, Castelfranchi Cristiano, La macchina e il linguaggio,Bollati Boringhieri editore,1987. - Penrose Roger, La mente nuova dell'imperatore, Rizzoli editore, Milano 1992. - Penrose Roger, Ombre della mente, Rizzoli editore, Milano 1996. - Pessa Eliano, Penna M. Pietronilla, Manuale di scienza cognitiva, Editori Laterza, Roma 2000. - Piaget Jean, Lo sviluppo mentale del bambino, Einaudi editore, Torino 1967. - Piaget Jean, La rappresentazione del mondo nel fanciullo, Boringhieri editore, Torino 1966. - Pierce John R., La teoria dell'informazione, Edizioni Mondadori, Milano 1963. - Pinker Steven, Come funziona la mente, Mondadori editore. - Poggio Tomaso, L'occhio e il cervello, Edizioni Theoria.
145
- Prigogine Ilya, Stengers Isabelle, La nuova alleanza, Einaudi editore, Torino 1981. - Prodi Giorgio, La storia naturale della logica, Bompiani editore, Milano 1982. - Putnam Hilary, La sfida del realismo, Garzanti editore 1991. - Putnam Hilary, Rappresentazione e realtà, Garzanti editore. - Reed Stephen K., Psicologia cognitiva, Il Mulino editore, Bologna 1989. - Rizzi Barbara, La gestione dell'incertezza nei sistemi esperti: La teoria di Hajek, Tesi di Laurea, Bologna 1990. - Rumelhart David E., McCelland James L., Parallel Distribuited Processing, MIT Press, London 1989. - Russell B., Introduzione alla filosofia matematica, Newton Compton editori, Roma 1970. - Russell B., Storia delle idee del secolo XIX, Einaudi editore 1950. - Salton G., McGill M.J., Introduction to modern information retrieval, McGraw-Hill, New York 1983. - Sanford Anthony J., La mente dell'uomo, Il Mulino - Saumya K. Debray, Raghu Ramakrishnan, Generalized Horn Clause Programs, 1991. - Schank Roger C., Memoria dinamica, Marsilio Editori, Venezia, 1987. - Schiavina Barbara, La gestione dell'incertezza nei sistemi esperti: Un'applicazione, Tesi di Laurea, Bologna 1990. - Singh Jagjit, Linguaggio e cibernetica, Edizioni Mondadori, Milano 1969. - Spezzano Giandomenico, Talia Domenico, Calcolo parallelo, automi cellulari e modelli per sistemi complessi, Franco Angeli Editore. - Teller Edward, Il lato oscuro della fisica, Sperling & Kupfer - Tsichritzis D.C., Lochovsky F.H., Data models, Prentice-Hall, Englewood Cliffs, N.Y., 1982. - Weiskrantz Lawrence, Coscienza perduta e trovata, McGrawHill. - T. Winograd, F. Flores, Calcolatori e conoscenza, Arnoldo Mondadori Editore, Milano, 1987.
146
- Wittgenstein Ludwig, Tractatus logico-philosophicus, Einaudi editore, Torino 1968. - Vamos Tibor, Epistemologia del computer, Sperling & Kupfer editore, Milano 1993. - Viale Riccardo, Mente umana mente artificiale, Feltrinelli editore, Milano 1989
147
Indice La complessità I sistemi complessi Sistemi di calcolo parallelo Automi cellulari Una metrica su insiemi Un modello per il traffico stradale Le leggi della complessità I requisiti dell’ordine Complesso e complicato Il punto di vista Mente e complessità Complessità e vita Logica e ragionamento Spiegare e comprendere Complessità e musica Bibliografia
149
7 26 37 50 64 68 72 83 86 100 107 112 117 123 134 142
Finito di stampare nel mese di Settembre 2005 presso Selecta (MI) www.starrylink.it
Starrylink Editrice Collana FlyLine Saggistica