Complessità
Il termine complessità è oggi parte integrante del linguaggio scientifico, in contesti diversi. In quello dell'informatica, dell'analisi numerica e dell'ottimizzazione esso corrisponde alla caratteristica quantitativa che determina la convenienza o la stessa possibilità di giovarsi di un algoritmo di calcolo per la soluzione pratica (automatica o anche manuale) di un problema, al quale è assegnata la complessità dell'algoritmo che lo risolve. Nel quadro dell'organizzazione e delle applicazioni tecniche ed economiche il termine indica invece alcune caratteristiche strutturali del sistema, mentre nell'ambito dei sistemi dinamici la complessità è generalmente considerata una caratteristica qualitativa che assegna a un sistema, concepito come un aggregato organico e strutturato di parti fra loro interagenti, comportamenti non immediatamente riconducibili a quelli delle singole parti. Qui ci si occuperà soltanto di questo significato, legato all'emergere di nuovi aspetti del comportamento del sistema non rilevabili al livello delle singole parti componenti, ma legati al modo in cui esse interagiscono tra loro. Con riferimento a tale particolare accezione del termine, risulta quindi del tutto spontaneo considerare stadi diversi e successivi di complessità a partire da situazioni elementari.
I sistemi complessi presentano vari motivi d'interesse: le implicazioni di natura pratica, come nel caso degli schemi di controllo a retroazione impiegati nel campo della tecnica, gli aspetti concettuali degli strumenti matematici coinvolti, nonché i successi concreti e le speranze (talora eccessive) di impiego come modelli matematici utili a comprendere e governare fenomeni non facilmente rappresentabili mediante strumenti tradizionali. Non solamente le scienze fisiche e le loro applicazioni tecnologiche dunque, ma anche le scienze della vita, dell'uomo e della società.
Nel 1948 il matematico statunitense di origine russa Norbert Wiener aveva individuato nel controllo a retroazione uno degli aspetti fondamentali di una disciplina di cui è universalmente considerato il fondatore: la cibernetica, da lui definita proprio come la scienza che si occupa del controllo e della comunicazione non soltanto nelle macchine ma anche negli esseri viventi, caratterizzati indubbiamente da complessità. Anche Jay Wright Forrester attribuisce il comportamento anti-intuitivo dei sistemi complessi alla presenza di anelli di retroazione.
Suscitano inoltre interesse aspetti di natura per certi versi filosofica, cui lo stesso Wiener dedicò grande attenzione nelle sue ricerche. Ci riferiamo per esempio alla capacità di molti sistemi a retroazione di dar conto di comportamenti apparentemente orientati al conseguimento di un fine mediante il collegamento di parti che, singolarmente, si comportano in modo rigidamente meccanicistico (essendo dunque influenzate, nella terminologia tradizionale, da sole cause efficienti e non finali), oppure alla caratteristica del caos deterministico di associare, nel nome stesso che suona come un ossimoro, leggi rigorosamente deterministiche a comportamenti imprevedibili.
Vi sono circostanze in cui si manifestano fenomeni sostanzialmente nuovi e quindi emergono comportamenti che autorizzano a parlare di successivi livelli di complessità: quando si ricorre a combinazioni in retroazione (feedback), per le quali gli autovalori del sistema lineare complessivo risultano diversi da quelli delle parti componenti; quando a relazioni lineari se ne sostituiscono alcune non lineari, per effetto delle quali si manifestano insiemi limite, attrattori o repulsori, diversi dai punti classici di equilibrio dei sistemi dinamici lineari; quando variazioni di parametri provocano la comparsa di fenomeni di biforcazione alle frontiere delle regioni di stabilità strutturale; infine, quando si manifestano le tipologie più complesse di attrattori che dànno luogo alla comparsa del caos deterministico.
Tutto ciò spiega l'attenzione che è stata rivolta verso i sistemi complessi anche al di fuori degli ambiti specialistici, sebbene essa, nei suoi eccessi ingenui, abbia sollevato perplessità da cui sono scaturite posizioni molto critiche nei riguardi della cosiddetta 'complessologia'. Per valutare queste diverse posizioni è opportuno tenere separati i diversi aspetti della questione; nel seguito saranno esaminati quelli matematici, benché sia necessario usare prudenza riguardo alle speranze che tali metodi trovino una formulazione accessibile a un vasto pubblico non specialista.
Al fine di valutare la complessità di un sistema, sembra essenziale considerare non tanto il numero delle parti che lo compongono, quanto il modo, più o meno organico, in cui queste interagiscono. Spesso si ricorre a diagrammi di tipo qualitativo, come quello della fig. 1, nel quale le coordinate corrispondono ai valori di due parametri, K e C. Il primo dà conto di come il sistema evolve nel tempo e, in particolare, della possibilità di prevedere tale evoluzione su intervalli più o meno lunghi partendo da dati affetti da qualche incertezza. Per K=0 il comportamento del sistema è perfettamente prevedibile, come nel caso di sistemi statici o, meno banalmente, di sistemi che evolvono secondo leggi deterministiche semplici; per valori di K molto elevati l'informazione sullo stato delle singole parti si perde assai rapidamente ed è impossibile prevedere, se non in termini statistici, lo stato all'istante t1 a partire da quello all'istante t0, anche se l'intervallo temporale è molto piccolo. Nella fig. 1 il punto a, caratterizzato da un valore di K prossimo a 0, corrisponde al sistema Sole-Terra: posizione e velocità del nostro pianeta sono agevolmente determinabili a partire dai valori assunti all'istante t0, anche nel caso in cui t1−t0 risulti piuttosto grande e nonostante le incertezze sul valore di t0. Il punto c, caratterizzato invece da un valore elevato di K, può corrispondere a un gas perfetto in situazione di massima entropia, per cui minime incertezze su posizione e velocità delle singole molecole a un istante t0 rendono impossibile stimare il loro valore dopo un intervallo anche brevissimo. La causa sono quegli urti fra molecole che avvengono solo in corrispondenza con certe condizioni iniziali e non a condizioni iniziali anche solo leggermente diverse. Valori intermedi di K si riferiscono a fenomeni di caos deterministico, di cui si parlerà più innanzi. Il parametro C dà invece conto dell'organizzazione del sistema, e cioè della struttura secondo la quale le varie parti componenti si influenzano reciprocamente e consentono scelte che siano funzionali al conseguimento di obiettivi, anche incompatibili fra loro. Fra i sistemi a noi noti, il valore più elevato di C si ha nel caso del cervello umano, rappresentato convenzionalmente, nella fig. 1, dal punto b.
A proposito del diagramma, si può notare che non è facile attribuire valori ben precisi a C e K, ancorché sia ragionevole operare un confronto tra i valori assunti da tali parametri nel caso di due sistemi differenti. Per esempio una galassia, il sistema immunitario del sangue, un batterio sono caratterizzati da valori crescenti sia di C sia di K e i rispettivi punti rappresentativi si collocano nel diagramma della fig. 1 fra i punti a e b. In definitiva, si può dire che il parametro C è particolarmente idoneo a caratterizzare la complessità, nel senso in cui la si considera in questa sede.
All'aumentare del numero delle parti che compongono un sistema K generalmente aumenta a sua volta, mentre a parità di numero di parti componenti C può crescere in conseguenza di una modificazione che porti a un'organizzazione meglio articolata; peraltro, valori elevati di C possono essere conseguiti soltanto se il numero delle parti componenti non è troppo piccolo.
Si può dunque concludere che è il carattere organico dei collegamenti fra le varie parti del sistema, piuttosto che il numero di queste, a dar conto della possibilità che emergano comportamenti nuovi rispetto a sistemi i cui componenti sono collegati fra loro in modi diversi e meno organici. Ciò suggerisce di utilizzare la nozione di emergenza per caratterizzare la complessità, dando così un significato concreto alla nota frase che compendia il punto di vista olistico nella formula 'il tutto è più della somma delle parti'. Già Bernard Bolzano si chiedeva: "Una proprietà che manca in tutte le parti deve anche non appartenere al tutto?"; e rispondeva che "è piuttosto esattamente il contrario! Ogni tutto ha e deve avere molte proprietà che mancano alle parti".
Un primo livello certamente molto elementare di complessità si manifesta nei sistemi che presentano un anello di retroazione (feedback). Per illustrare questo concetto si farà riferimento a semplici sistemi orientati, ossia sollecitati da ingressi, in risposta ai quali ha luogo la variazione di alcune grandezze, dette uscite, che caratterizzano il comportamento del sistema. Se il valore assunto dall'uscita in un dato istante dipende soltanto dal valore dell'ingresso in quello stesso istante, il sistema è detto non dinamico (o anche statico, oppure istantaneo); se invece l'uscita dipende dall'andamento dell'ingresso anche in istanti diversi il sistema si dice dinamico: in particolare, se l'uscita dipende solamente dall'andamento passato dell'ingresso, cosicché questo in un dato istante influenza soltanto il valore futuro di quella e non quello passato, il sistema sarà definito causale. Il comportamento dei sistemi dinamici a tempo continuo, lineari e a parametri costanti nel tempo (o tempo-invarianti), può essere descritto in termini di relazione tra ingresso e uscita dall'equazione differenziale lineare, ordinaria e non omogenea
[1] formula,
dove u(t) e y(t) sono rispettivamente l'ingresso e l'uscita, che qui considereremo per semplicità scalari. Oppure, in termini di rappresentazione di stato, dalle
[2] formula
dove x(t) è il vettore di stato (con n componenti), A è una matrice, ℬ è un vettore colonna e C (da non confondere con il parametro C usato in precedenza) è un vettore riga. Le [2] mostrano, sostanzialmente, come i valori assunti dallo stato e dall'ingresso all'istante t influenzino la tendenza dello stato stesso a variare, vale a dire la sua derivata rispetto al tempo, e come l'uscita y(t) dipenda, per il tramite del vettore C, dal valore assunto nello stesso istante dallo stato x. Ci si può limitare allo studio, a partire da condizioni iniziali non tutte nulle, dell'evoluzione libera, in cui si hanno u(t)=0 e equilibrio solo quando nella [1] i valori della y e di tutte le sue derivate sono nulli mentre nelle [2] sono nulle tutte le componenti di x. La situazione è detta di equilibrio perché il sistema, se vi si trova, può permanervi indefinitamente.
L'evoluzione libera a partire da una condizione diversa da quella di equilibrio avviene mediante una combinazione di modi del tipo eαit dell'equazione caratteristica del sistema det(sI−A)=0 e di coppie di modi eαit senβit e eαitcosβit, corrispondenti rispettivamente alle radici reali αi e alle coppie di radici complesse αit±iβit e eventualmente moltiplicati per un polinomio in t in caso di radici multiple.
All'aumentare del valore dell'indice n che esprime l'ordine del sistema cresce il numero dei modi, che però rimangono sempre dei due tipi considerati (e si possono manifestare anche in un sistema del secondo ordine, con n=2). Tali modi, oltre che con il diagramma in funzione del tempo, sono spesso rappresentati nello spazio delle fasi, vale a dire sul piano con assi coordinati x1=y e x2=dy/dt, secondo l'andamento qualitativo che è riportato in fig. 2 per le sei configurazioni tipiche di nodo stabile e instabile, fuoco stabile e instabile, sella e centro.
Se due sistemi lineari sono collegati fra loro in modo tale da formare un nuovo sistema lineare - anch'esso con un solo ingresso e una sola uscita - e da consentire di sommare o sottrarre grandezze di ingresso e di uscita, risultano possibili gli schemi della fig. 3. Nei primi due, che rappresentano rispettivamente una combinazione in cascata e una in parallelo o in antiparallelo, i modi del sistema risultante rimangono quelli dei due sistemi componenti. Qualcuno di essi può eventualmente sparire per cancellazione o compensazione; se, inoltre, due radici dell'equazione caratteristica relative a due sottosistemi coincidono, nella combinazione in cascata la nuova molteplicità risulta uguale alla somma delle molteplicità relative ai singoli sottosistemi e il modo complessivo non coincide esattamente con quelli delle singole parti: il fattore trascendente, che rimane lo stesso, è moltiplicato per un polinomio di grado diverso.
Nel terzo tipo di collegamento, invece, siamo in presenza di un anello di retroazione positiva o negativa e i modi del sistema complessivo risultano diversi da quelli dei sottosistemi componenti e dai tipi illustrati nella fig. 2, anche nel caso in cui questi ultimi presentino dinamiche molto semplici o addirittura tutte dello stesso tipo, come nei fenomeni di accumulazione nei quali l'uscita è costituita dall'integrale dell'ingresso. In questo senso si può dire quindi che emerge un comportamento nuovo rispetto a quello delle parti, a differenza di quanto avviene per le configurazioni prive di anelli di retroazione.
Gli schemi a retroazione hanno trovato impiego soprattutto per scopi di controllo automatico, in cui l'azione da esercitare sull'uscita è determinata a partire dal suo scostamento da un ingresso di riferimento. Vale però la pena di ricordarne anche l'uso nel campo della matematica applicata, per il potenziamento apportato nel calcolo automatico dalla presenza di anelli di retroazione nel diagramma di flusso di un algoritmo, e per lungo tempo negli schemi per la soluzione analogica di un'equazione differenziale. Notevole interesse presenta inoltre il ricorso a schemi a retroazione nello sviluppo di modelli esplicativi e, talora, di modelli predittivi in varie scienze della natura, dell'uomo e della società. Prescindendo da ovvie considerazioni sul carattere a retroazione di leggi come quella di Heinrich Lenz sull'elettromagnetismo o di Henri L. Le Chatelier in chimica fisica, ci si limiterà qui a ricordare i modelli a retroazione relativi all'omeostasi degli esseri viventi e alla dinamica delle popolazioni, nonché i modelli macroeconomici di Paul A. Samuelson e John R. Hicks e di Alban W. Phillips o quelli di Frederick W. Lanchester e di Lewis F. Richardson sui conflitti militari e sulla corsa agli armamenti. Gioverà tuttavia tener presente che modelli puramente lineari hanno possibilità intrinsecamente limitate e che, per dar conto di alcuni aspetti importanti dei fenomeni da rappresentare, è necessario introdurre alcune non linearità come di fatto avviene in alcuni dei modelli citati o quanto meno nelle loro versioni più sofisticate.
Consideriamo ora un'ulteriore causa di nuovi tipi di comportamento nel caso dei fenomeni non lineari e sostituiamo la prima delle equazioni [2] (con u(t)=0) con una del tipo
[3] formula.
In questa sede ci si limiterà a considerare funzionif sufficientemente regolari, continue cioè insieme alle loro derivate fino a quella di ordine k, con k e n (il numero di componenti del vettore x) piuttosto modesti. Nel caso lineare con matrice A non singolare si aveva un solo punto di equilibrio in x=0, che in un sistema del secondo ordine poteva essere soltanto dei tipi indicati nella fig. 2. La [3], invece, ammette più punti di equilibrio. Detto x‸ uno di essi (per il quale si ha f(x‸)=0), si può considerare l'equazione linearizzata, valida in un intorno di x‸:
[4] formula,
in cui J(x‸) è la matrice jacobiana della f(x) calcolata per x=x‸ e svolge una funzione analoga a quella della matrice A in [2]. Non tutte le informazioni sul comportamento di un sistema lineare fornite in maniera univoca dalla A possono essere ottenute nel caso non lineare dalla matrice J(x‸), sia pure limitatamente a un intorno di x‸. Se tutti gli autovalori di J(x‸) hanno parte reale negativa o se viceversa almeno uno di essi ha parte reale positiva, il punto di equilibrio del sistema non lineare presenterà in effetti caratteristiche di stabilità (tutte le traiettorie convergono su x‸) o, rispettivamente, di instabilità (vi sono traiettorie che divergono da x‸ anche se prendono origine da un punto molto vicino a esso). Se però per esempio in un sistema del secondo ordine si ha una coppia di autovalori di J(x‸) con parte reale nulla (nel qual caso il linearizzato presenta un centro in x‸), il sistema non lineare esibisce nell'intorno di x‸ un quadro di fase che può sì corrispondere a quello di un centro, ma anche avere le caratteristiche di un fuoco stabile oppure di un fuoco instabile.
Un altro aspetto che emerge in presenza di una non linearità, anche non drastica, consiste nell'esistenza di insiemi limite diversi dai punti di equilibrio. I più comuni sono i cicli e i tori, accanto ai quali si possono considerare le linee omocline: escono da un punto sella e vi ritornano seguendo un percorso diverso da quello del modello linearizzato a causa della deformazione di una delle due traiettorie uscenti (fig. 2); tale deformazione è dovuta alla non linearità della f(x) e produce un ripiegamento della traiettoria, fino a farla diventare una delle due che, nel modello linearizzato, entrano nel punto sella.
I cicli limite si presentano in sistemi almeno del secondo ordine (n≥2) e corrispondono a traiettorie chiuse (e quindi a oscillazioni persistenti) di forma non necessariamente ellittica; la corrispondente evoluzione nel tempo è pertanto periodica ma non necessariamente sinusoidale. Il ciclo limite si distingue in modo essenziale dalle oscillazioni che si hanno intorno a un centro, perché queste ultime possono essere di qualsiasi ampiezza mentre quelli sono traiettorie chiuse isolate: nel caso di cicli stabili le traiettorie che partono da punti non appartenenti al ciclo (e in un suo conveniente intorno) convergono su di esso, in quello dei cicli instabili ne divergono.
Da un punto di vista fisico, l'insieme delle infinite curve chiuse intorno a un centro corrisponde al comportamento (ideale) di un pendolo senza attriti, o di un circuito risonante LC con resistenza nulla. Un ciclo limite corrisponde invece a fenomeni più complessi in cui una sorgente di potenza fornisce durante ciascun periodo l'energia che si perde per dissipazione, come accade per esempio con i pesi di un orologio a pendolo o con i componenti attivi in un oscillatore elettronico. A regime, l'oscillazione è di ampiezza e frequenza costanti e può avere varie forme: di un'onda quadra oppure a dente di sega, fino a quelle assai complesse del battito cardiaco e del segnale elettrocardiografico alle quali sembrano però adattarsi meglio modelli più sofisticati.
Punti di equilibrio, cicli limite e tori costituiscono come si è detto le forme più semplici e comuni di insiemi limite. Se tutte le traiettorie che escono da punti di un loro intorno tendono a essi, tali insiemi si dicono attrattori e al contrario repulsori se le traiettorie tendono ad allontanarsi dall'insieme limite pur partendo da punti molto prossimi a esso. È chiaro che l'attrattore di un dato sistema non lineare corrisponde a un repulsore per il sistema a tempo invertito. Vi sono poi anche insiemi limite che non ricadono in nessuna di queste due tipologie, come nel caso di un ciclo limite (appartenente a un piano) in cui le traiettorie che partono da punti al suo interno tendono a esso, mentre quelle che partono da punti esterni se ne allontanano (o viceversa). Uno stesso sistema non lineare può presentare più attrattori e repulsori: tipico è il caso, in un sistema del secondo ordine, di un punto di equilibrio stabile circondato da un ciclo limite instabile, a sua volta circondato da un ciclo limite stabile, e così via. Il primo ciclo limite instabile racchiude il bacino di attrazione del punto di equilibrio stabile; la regione anulare compresa fra due cicli limite instabili consecutivi costituisce il bacino di attrazione del ciclo limite stabile compreso fra di essi.
Ulteriori aspetti del comportamento del sistema emergono se, in luogo della [3], si considera l'espressione
[5] formula,
dove p è un vettore le cui componenti possono essere interpretate come parametri che influenzano i coefficienti delle equazioni del sistema. Si noti che, a differenza della u(t) nella [1] o nelle [2], nella equazione [5] p non è una funzione del tempo; e infatti l'analisi è condotta valutando nello spazio dei parametri, ossia per ogni valore vettoriale di p, non tanto l'evoluzione nel tempo dello stato x quanto aspetti complessivi del comportamento del sistema quali la presenza o meno di determinati insiemi limite e le loro caratteristiche di attrattori o repulsori. In ogni caso, per variazioni di p lente in rapporto ai tempi caratteristici della dinamica del sistema, l'analisi considerata può anche consentire di studiare l'evoluzione temporale dello stato x, dal momento che in ciascun intervallo di durata significativa per l'evoluzione di x(t) p stesso subisce variazioni modeste e può essere ragionevolmente approssimato con il suo valore medio nell'intervallo stesso.
Lo spazio che ha come coordinate i valori di ciascuna componente di x e di p è detto di controllo. Un esempio particolarmente semplice è quello dello spazio di controllo a tre dimensioni relativo a un sistema del secondo ordine (n=2) dipendente da un parametro scalare: in ogni piano ortogonale all'asse su cui sono riportati i valori di tale parametro si sviluppano le traiettorie (quadro di fase) del sistema (a parametri costanti), nelle cui equazioni p esprime la quota del piano considerato.
Con riferimento allo spazio dei parametri, si parla di stabilità strutturale se in una data regione il comportamento del sistema rimane qualitativamente dello stesso tipo (per es., un nodo stabile rimane un nodo stabile, un ciclo rimane un ciclo ecc.). All'interno di ciascuna di tali regioni di stabilità strutturale, il comportamento del sistema non presenta quindi alcun aspetto sostanzialmente nuovo rispetto a quanto emerge attribuendo ai coefficienti nella [3] valori corrispondenti a un qualsiasi punto nella regione dello spazio dei parametri considerata.
Novità sostanziali emergono invece nei punti di frontiera di tali regioni, detti punti di biforcazione: nel loro intorno si hanno punti dello spazio dei parametri arbitrariamente vicini fra loro, cui corrispondono sistemi dinamici descritti da equazioni del tipo della [3] e con caratteristiche essenzialmente diverse fra loro (per es., in uno dei due sistemi si manifesta un ciclo limite che nell'altro non appare, oppure risulta modificata la natura di un punto di equilibrio). Le biforcazioni possono essere locali o globali. Le biforcazioni locali si possono avere anche in sistemi lineari, descritti da equazioni del tipo [2] per u(t)=0, e corrispondono a valori critici degli autovalori della matrice A (o di quelli della matrice jacobiana J(x‸) nel caso della [3]): per esempio, se la parte reale di due autovalori complessi coniugati è nulla per un certo valore del parametro, per valori a esso vicinissimi gli autovalori possono avere parte reale negativa l'uno e positiva l'altro e il punto di equilibrio passare da fuoco stabile, a centro, a fuoco instabile. Nel caso di sistemi non lineari, inoltre, si possono avere collisioni di insiemi limite. Per esempio, in corrispondenza di un ben definito valore di p, un ciclo limite stabile e uno instabile possono collidere in uno solo tale che le traiettorie uscenti da punti molto prossimi e interni o esterni a esso se ne avvicinano o se ne allontanano.
Le biforcazioni globali non corrispondono a valori critici degli autovalori della matrice jacobiana, ma a un'alterazione complessiva del quadro di fase. Ne è un esempio la fig. 4, che rappresenta per il caso di un parametro scalare p l'andamento delle traiettorie per p〈p‸, p=p‸ e p>p‸: in tutti e tre i casi si hanno sempre due punti sella S1 e S2, nell'immediato intorno dei quali la situazione non si modifica in modo sostanziale; per p=p‸ si ha però un'eteroclina, che collega i due punti sella e separa drasticamente la regione alla propria sinistra da quella alla propria destra; negli altri due casi si ha una sorta di corridoio, nel quale le traiettorie vanno da sinistra verso destra se p〈p‸ e da destra verso sinistra per p>p‸ (i tre quadri di fase possono essere interpretati, come si è detto, come tre sezioni ortogonali all'asse p nello spazio di controllo di coordinate x1,x2,p).
La perdita di stabilità strutturale ha suggerito di utilizzare le biforcazioni come modelli esplicativi, o anche predittivi, per molti fenomeni della fisica, della tecnica (interpretazione in scienza delle costruzioni del carico di punta come una biforcazione 'a forcone'), della biologia, dell'ecologia (il modello predatore-preda di Michael Rosenzweig, che utilizza la biforcazione di Hopf), dell'economia. Una situazione particolarmente semplice, in quanto si presenta anche in uno spazio di controllo bidimensionale con n=1 e p scalare, è legata all'interpretazione dei fenomeni di isteresi: consente fra l'altro un'interpretazione soddisfacente del battito cardiaco.
Nello studio dei fenomeni di perdita della stabilità strutturale si è fatto largo impiego di nozioni della teoria delle catastrofi. Una biforcazione è infatti catastrofica, vale a dire comporta una ristrutturazione (detta spesso perestrojka nella letteratura scientifica russa) sostanziale dell'equilibrio quando, con il passaggio da un valore pa del parametro scalare p a un valore pb arbitrariamente vicino e separato da un valore critico p0, accade che da ogni punto x0 di un opportuno insieme il sistema evolve verso un attrattore macroscopicamente distante da quello verso il quale si evolveva per p=pa. Ovviamente non tutte le biforcazioni sono catastrofiche: in quelle non catastrofiche l'attrattore cui si tende per p=pb è vicino a quello cui si tende per p=pa; si hanno inoltre biforcazioni indeterminate, nelle quali da alcuni x0 si tende a un attrattore vicino a quello cui (per tutti i valori di x dell'insieme considerato) si tende per p=pa e da altri si tende a un attrattore lontano.
All'aumentare dell'ordine n del sistema, e cioè delle dimensioni del vettore di stato, emergono nuovi e complessi fenomeni dovuti all'apparire di attrattori strani, insiemi limite attrattivi sostanzialmente diversi dai punti di equilibrio, dai cicli e dai tori stabili. Per tale tipo di attrattori non si dispone di una definizione precisa, accettata da tutti: troppo vaga è probabilmente quella negativa, basata sulla loro sostanziale differenza rispetto ai punti di equilibrio, ai cicli o ai tori; certamente suggestive ma troppo limitative sono forse quelle che li caratterizzano in base alla forte sensibilità alle condizioni iniziali e alla dimensione frattale.
Un attrattore strano, di cui un esempio tra i più semplici e noti è l'attrattore di Lorenz schematizzato nella fig. 5, è generalmente confinato in una regione limitata dello spazio degli stati, mentre il suo bacino di attrazione occupa una regione assai più estesa e talora l'intero spazio. Dai punti del bacino di attrazione esterni alla regione dell'attrattore evolvono traiettorie che si dirigono verso di esso, in modo non troppo diverso da come tenderebbero a un attrattore più semplice; quando però la traiettoria entra in essa, evolve in modo sostanzialmente diverso da quello che caratterizza i cicli e i tori. Nel caso di comportamenti di questo tipo si parla abitualmente di caos deterministico: il sistema è rigidamente deterministico, in quanto retto da equazioni del tipo della [3] senza alcun elemento stocastico legato a variazioni di parametri o a sollecitazioni esterne descrivibili in termini probabilistici; cionondimeno esso appare caotico (nel senso di imprevedibile), in quanto minime incertezze nella valutazione dello stato presente si traducono ben presto in differenze molto elevate dello stato futuro pur in assenza di divaricazioni crescenti delle traiettorie come quelle che si hanno nei sistemi instabili, dato che l'attrattore è racchiuso in una regione limitata. Per i sistemi non caotici, i principali meccanismi che determinano il passaggio al caos mediante modificazioni graduali dei valori dei parametri sono una cascata di biforcazioni locali, detta cascata di Feigenbaum, oppure una biforcazione sola ma di carattere globale; in questo secondo caso si ha caos omoclino oppure eteroclino, a seconda che si presentino una o almeno due selle.
La geometria frattale degli attrattori strani si rivela prevalentemente in due aspetti: mentre gli attrattori tradizionali hanno dimensione intera (il cui valore è 0 per i punti di equilibrio, 1 per i cicli limite e 2 per i tori) quella di molti attrattori strani è espressa da un numero non intero; inoltre in molti casi si ha il ripetersi di caratteristiche qualitative simili a vari livelli di scala.
Arnol´d 1983: Arnol´d, Vladimir I., Geometrical methods in the theory of ordinary differential equations, New York, Springer, 1983 (2. ed. 1988).
Bertalanffy 1968: Bertalanffy, Ludwig von, General system theory. Foundations, development, applications, New York, Braziller, 1968 (trad. it.: Teoria generale dei sistemi. Fondamenti, sviluppo, applicazioni, Milano, Oscar Mondadori, 1983).
Bocchi, Ceruti 1985: Bocchi, Gianluca - Ceruti, Mauro, La sfida della complessità, Milano, Feltrinelli, 1985.
Bolzano 1851: Bolzano, Bernard, Paradoxien des Unendlichen, Leipzig, Reclan, 1851 (trad. it.: I paradossi dell'infinito, Milano, Silva e Feltrinelli, 1965).
Calimani, Lepschy 1990: Calimani, Riccardo - Lepschy, Antonio, Feedback. Guida ai cicli a retroazione: dal controllo automatico al controllo biologico, Milano, Garzanti, 1990.
Forrester 1968: Forrester, Jay Wright, Principles of systems, Cambridge (Mass.), Wright-Allen Press, 1968 (trad. it. Principi dei sistemi, Milano, ETAS Kompass, 1974).
Forrester 1971: Forrester, Jay Wright, Counterintuitive beha-vior of social systems, "Technology review", 1971, pp. 52-68.
Guckenheimer, Holmes 1983: Guckenheimer, John - Holmes, Philip, Nonlinear oscillations, dynamical systems, and bifurcations of vector fields, New York, Springer, 1983.
Nicolis, Prigogine 1987: Nicolis, Grégoire - Prigogine, Ilya, Die Erforschung des Komplexen: auf den Weg zu einem neuen Verständnis der Naturwissenschaften, München, Piper, 1987 (trad. it.: La complessità. Esplorazione di nuovi campi della scienza, Torino, Einaudi, 1991).
Rinaldi 1993: Rinaldi, Sergio, Stabilità strutturali e biforcazioni e Il caos deterministico, in: Biosistemi e complessità, a cura di Enzo Berardinelli, Sergio Cerutti, Bologna, Patron, 1993.
Wiggins 1990: Wiggins, Stephen, Introduction to applied nonlinear dynamical systems, and chaos, New York, Springer, 1990.