Teoria della complessità

Da Wikipedia, l'enciclopedia libera.
bussola Disambiguazione – Se stai cercando altre accezioni di complessità, vedi Sistema complesso, Epistemologia della complessità.

La teoria della complessità è una teoria sviluppata da Seth Lloyd, fisico del MIT e del Santa Fe Institute, che nei primi anni '90 classificava trentadue esempi di situazioni che venivano dagli uni o dagli altri definite complesse". [1]

Il concetto è venuto affermandosi negli ultimi decenni sotto la spinta dell'informatizzazione e grazie alla crescente inclinazione, nell'indagine scientifica, a rinunciare alle assunzioni di linearità nei sistemi dinamici per indagarne più a fondo il comportamento.[2][3]

Terminologia[modifica | modifica sorgente]

Il termine è anche utilizzato da alcuni come sinonimo di epistemologia della complessità, una branca della filosofia della scienza inaugurata nei primi anni ’70 da Edgar Morin, Isabelle Stengers e Ilya Prigogine e dalla quale è possibile aspettarsi un giorno un contributo per mettere ordine nella terminologia.

Si parla di complessità o teoria della complessità pensando alla teoria del caos, al comportamento emergente molto ricco di significati e di differenti utilizzi nel linguaggio colloquiale di molti sistemi, alla complessità delle reti, al comportamento che i sistemi esibiscono quando sono lontani dall’equilibrio termodinamico e alle facoltà di auto-organizzazione che a volte ne derivano.

Questo movimento scientifico sta avendo una messe di conseguenze non solo tecnologiche ma anche filosofiche e - grazie alla suggestione di taluni aspetti - persino giornalistiche e di costume. L’uso del termine complessità è, per queste ragioni, ancora (2011) instabile, e nella letteratura divulgativa se ne rinvengono anche utilizzi spurii che si allontanano dal contesto scientifico per avventurarsi in ambiti più colloquiali (tipicamente facendo astrazione dal concetto, cruciale, di non-linearità): ecco che, ad esempio, si parla a volte di complessità come sinonimo di sistemistica tout-court, oppure di cibernetica oppure di mera interdisciplinarità, oppure ancora di un non meglio precisato "pensiero complesso".[4]

Esiste poi una teoria della complessità computazionale che è un filone scientifico più stabile e meglio definito, storicamente evolutosi separatamente da quello afferente al concetto di sistema non-lineare ma alla fine sottilmente collegato a questo.

Infine, anche in ambito scientifico si riscontrano molti impieghi del termine complessità diversi tra loro e tutti irrilevanti rispetto alla presente discussione. Per tutti, un esempio autorevole: i numeri complessi.

Cenni storici[modifica | modifica sorgente]

Il concetto contemporaneo di complessità[5] affonda le sue radici in lavori come quelli di fine Ottocento del fisico-matematico Henri Poincaré e in quelli, durante la prima metà del Novecento, di matematici e fisici come Hadamard, Lyapunov, Schrödinger, Kolmogorov, Andronov.

Impulsi decisivi al pensiero sistemico e quindi complesso furono impressi dal polymath russo Alexander Bogdanov (1873-1928), poi dai cibernetici (Wiener e von Foerster, tra gli altri) e dal matematico-ingegnere Warren Weaver (soprattutto con il saggio “Science and Complexity”, American Scientist, 36:536, 1948).

A questi contributi si affiancava, decisivo, l’avvento dei computer. Il loro impiego porterà, fra l’altro, Edward Lorenz a scoprire il famoso “effetto farfalla”, ossia la prima dimostrazione sperimentale di variazioni finite di un sistema dinamico a partire da variazioni infinitesime delle condizioni iniziali (era stata questa la scoperta di Poincaré).

Intanto, tra i '50 e i ’60 del Novecento, sotto l’impulso di P.W. Anderson la fisica si affrancava definitivamente dal riduzionismo; Ilya Prigogine indagava per la prima volta risolutamente i sistemi lontani dall’equilibrio; nasceva la sistemistica transdisciplinare per opera di Bertalanffy, Bánáthy, Zwicky e altri; Kolmogorov e Solomonoff ideavano la complessità algoritmica; ed Edgar Morin maturava la sua grandiosa razionalizzazione del pensiero complesso [6][7].

Linearità[modifica | modifica sorgente]

Di centrale importanza in questo contesto è il concetto di linearità[8], che non va confuso con quello colloquiale bensì inteso nel senso della teoria dei sistemi.

Un problema è lineare se lo si può scomporre in una somma di sotto-problemi indipendenti tra loro. Quando, invece, i vari componenti/aspetti di un problema interagiscono gli uni con gli altri così da rendere impossibile la loro separazione per risolvere il problema passo-passo e “a blocchi”, allora si parla di non-linearità.

Un altro modo per affermare la stessa cosa è usare esplicitamente la definizione sistemistica, secondo la quale è lineare un sistema che risponde in modo direttamente proporzionale alle sollecitazioni ricevute. Si dice allora che per quel sistema vale il principio di sovrapposizione degli effetti, nel senso che se alla sollecitazione S1 il sistema dà la risposta R1 e alla sollecitazione S2 dà la risposta R2, allora alla sollecitazione (S1+S2) esso risponderà con (R1+R2).

I sistemi e i problemi che si presentano in natura sono essenzialmente non-lineari. Tuttavia, per semplificare inizialmente le indagini o per scopi applicativi, si ricorre spesso in prima istanza all’ipotesi di linearità. Si considerano, cioè, in prima approssimazione trascurabili gli effetti della non-linearità e si approntano modelli matematici che descrivono il sistema come se esso fosse lineare (linearizzazione).

Un modello matematico lineare consiste nella rappresentazione del sistema in esame come una funzione polinomiale, i coefficienti della quale sono indipendenti l’uno dall’altro (o così debolmente dipendenti da poter trascurare le mutue interazioni).

Questo approccio si rivela fecondo in moltissimi casi. Per fare un esempio: nessun amplificatore audio è intrinsecamente lineare ma, entro certi limiti di frequenza, esso si comporterà in modo lineare, rivelandosi così utilizzabile per l’hi-fi.

I modelli lineari sono utili perché in ipotesi di linearità molti sistemi presenti in natura “si somigliano”, nel senso che il loro comportamento può essere descritto mediante le medesime equazioni anche se i contesti sono molto diversi, come la meccanica, l’elettronica, la chimica, la biologia, l'economia e così via.

Enormi progressi scientifici e tecnologici sono stati ottenuti anche prima che l’avvento degli elaboratori elettronici (1940-1950) consentisse di addentrarsi risolutamente nei territori della non-linearità.

Non-linearità[modifica | modifica sorgente]

Immagine al calcolatore del più noto degli attrattori strani, l'attrattore di Lorenz

Si immagini di voler condurre uno studio di una popolazione di animali per modellare con un’equazione l’andamento nel tempo della popolazione in funzione della disponibilità di cibo. Se esistono predatori per quel tipo di animale, il modello lineare si rivela semplicistico e inadeguato: infatti, la popolazione degli animali predati diventa anche una funzione della popolazione dei predatori; ma, a sua volta, l’espansione o la contrazione della popolazione dei predatori dipenderà anche dalla maggiore o minore presenza di prede. Il sistema prede – predatori – cibo, dunque, è intrinsecamente non lineare perché nessuno dei suoi componenti può essere studiato separatamente dagli altri. Le equazioni di Lotka-Volterra costituiscono infatti un esempio classico di semplice modello non-lineare di una situazione ambientale.

Tali modelli, e di complessità anche molto maggiore, sono oggi assai diffusi[9] in elettronica, in avionica, in chimica, in biologia, in ecologia, in economia e in molti altri settori. Essi sono il risultato della modellizzazione che effettuiamo quando smettiamo di "fingere" che i sistemi siano lineari e li studiamo invece nella loro intima complessità.

La solubilità delle equazioni matematiche che ne derivano non è quasi mai possibile, e solo l’utilizzo di simulazioni numeriche all’elaboratore consente di trattare i relativi problemi. Per questa ragione, l’indagine dei sistemi dinamici complessi – che pure erano noti e marginalmente studiati già dai primi dell’Ottocento – si è sviluppata a partire dall’avvento dei computer. Per fare un esempio molto noto, le figure "a farfalla" del celebre attrattore di Lorenz sono simulazioni di computer grafica.

Comportamento emergente[modifica | modifica sorgente]

Dalla non-linearità di interazione tra le componenti di un sistema scaturisce l’attitudine di questo a esibire proprietà inspiegabili sulla base delle leggi che governano le singole componenti stesse:

« Il comportamento emergente di un sistema è dovuto alla non-linearità. Le proprietà di un sistema lineare sono infatti additive: l’effetto di un insieme di elementi è la somma degli effetti considerati separatamente, e nell’insieme non appaiono nuove proprietà che non siano già presenti nei singoli elementi. Ma se vi sono termini/elementi combinati, che dipendono gli uni dagli altri, allora il complesso è diverso dalla somma delle parti e compaiono effetti nuovi. [10] »

Quantunque il comportamento emergente sia più facilmente riscontrabile in sistemi di organismi viventi o di individui sociali oppure ancora in sistemi economici ovvero in sistemi 'complicati' dai molteplici gradi di libertà, diversamente da una credenza oggi diffusa l’emergenza si manifesta anche in contesti molto più elementari, come ad esempio la fisica delle particelle[11] e la fisica atomica[12]; e anzi, proprio questo fatto ne attesta l’importanza sul piano epistemologico, nel senso che si può contestare risolutamente la visione riduzionista in base alla quale ogni conoscenza scientifica deve essere fatta risalire a quella delle leggi che governano le particelle elementari. Invece, al salire della scala geometrica (particelle, atomi, molecole, eccetera), emergono leggi nuove che, senza violarle, integrano e superano quelle dei livelli precedenti.

È importante sottolineare che la conditio sine qua non per l'emergenza è la non-linearità delle interazioni tra le componenti di un sistema e non già la numerosità di queste.[13]. Per questo motivo nel sistema vivente umano la coscienza, il linguaggio o la capacità auto-riflessiva sono ritenute proprietà emergenti perché non spiegabili dalla semplice interazione tra neuroni.

Caos[modifica | modifica sorgente]

Il comportamento caotico di sistemi anche apparentemente semplici e soggetti a leggi controllate e deterministiche, come ad esempio il problema dei tre corpi (nel quale Henri Poincaré alla fine dell’Ottocento rinvenne comportamenti caotici) o la mappa logistica di Robert May, è pure esso riconducibile alla non-linearità: i tre pianeti di Poincaré costituiscono un sistema nel quale gli elementi di ciascuna delle tre coppie di componenti si influenzano l'uno con l'altro, e la mappa logistica è in ultima analisi un modello semplificato del problema preda-predatore di cui sopra.

Nonostante i prodromi ottocenteschi, una vera e propria teoria del caos si è sviluppata solo a partire dagli anni '60 del Novecento, quando l'impiego dei computer consentì di compiere osservazioni controllate e allestire simulazioni numeriche.[14]

Nella teoria del caos l'enfasi è posta sulla forte dipendenza del sistema dalle condizioni iniziali, nel senso che a variazioni infinitesime di queste possono aver luogo variazioni finite della traiettoria nello spazio delle fasi. Si parla allora di "caos deterministico", per sottolineare come l'evoluzione di un sistema possa farsi imprevedibile anche a partire da leggi di base ordinate o addirittura deterministiche.

Complessità nel vivente[modifica | modifica sorgente]

Il comportamento emergente delle folle o dei consumatori o degli operatori in un mercato o degli organismi in un collettivo vivente è, ovviamente, il più intrigante da esaminare. Particolare attenzione ricevono tra gli studiosi i fenomeni di auto-organizzazione, altra manifestazione delle interazioni non-lineari tra le componenti di un sistema[15].

In questo campo, un ruolo primario viene giocato dai computer, come si può facilmente comprendere già contemplando il gioco della vita di John Conway, nel quale poche semplici regole fissate per pochi individui di base possono condurre a evoluzioni assai complesse. È questo il dominio dei cosiddetti automi cellulari e dei sistemi adattivi complessi o CAS (complex adaptive systems): ambienti artificiali attraverso i quali si simula e si studia il comportamento dei sistemi più complessi, come quelli viventi. All'interno di questo filone di ricerca si è mossa anche una parte della psicologia e della psicoanalisi che sta tentando di introdurre la teoria della complessità all'interno del paradigma teorico, attraverso l'introduzione dei concetti di auto-organizzazione, non linearità, eco-organizzazione (termine caro a Bateson e Morin) e comportamento emergente[16][17].

Secondo alcuni, si tratta di un filone di ricerca che potrebbe condurre anche a dare conto dell’evoluzione del mondo da materia fisica inerte a organismi viventi[18].

Teorie della complessità[modifica | modifica sorgente]

L’instabilità del termine complessità fa sì che si parli di “teoria” della complessità in molteplici domini anche disgiunti, e "una" teoria della complessità in effetti non esiste.

Il dominio che più di ogni altro ha il potenziale di condurre a una teoria unificante è lo studio dei sistemi dinamici non lineari.

In questo ambito, l'entropia “di Kolmogorov” è una prerogativa del moto nello spazio delle fasi e viene collegata a un concetto analogo a quello che si ritrova in termodinamica.[19] Attraverso questo concetto la complessità dei sistemi dinamici può collegarsi anche alla complessità computazionale.[20]

Etimologia[modifica | modifica sorgente]

"Complesso" scende dal verbo latino complector, che vuol dire cingere, tenere avvinto strettamente, e, in senso metaforico, abbracciare, comprendere, unire tutto in sé, riunire sotto un solo pensiero e una sola denominazione. Altri significati che appaiono nei classici latini sono quelli di legame, nesso, concatenazione.[21]

Dal XVII secolo in poi, una situazione, un problema, un sistema è "complesso" se consta di molte parti interrelate, che influiscono una sull'altra. Un problema complicato (da complico, piegare, arrotolare, avvolgere), invece, è uno che si fatica a risolvere perché contiene un gran numero di parti nascoste, che vanno scoperte una a una.[22]

Implicazioni filosofiche: Pensiero complesso[modifica | modifica sorgente]

L'etimologia del termine aiuta a comprendere il senso ultimo dell'"atteggiamento complesso", che ammonisce circa l'insufficienza del solo approccio analitico e invoca l'integrazione di questo con un approccio sistemico: un sistema complesso non può essere compreso mediante il solo esame delle sue componenti e, per analogia, le "cause ultime" di un problema complesso non sono banalmente quelle delle sue parti essenziali, perché esso non può essere risolto mediante semplice scomposizione ma richiede l'iterazione tra questa e una visione d'insieme.

È questo il punto di partenza della epistemologia della complessità sviluppata da Edgar Morin a partire dai primi anni '70 del Novecento.[23][24][25]

Da Morin (che muove da una critica al riduzionismo e dal disvelamento dell'importanza del comportamento emergente) in poi, un pensiero complesso non può essere sviluppato prescindendo dal senso scientifico della complessità.

Note[modifica | modifica sorgente]

  1. ^ S.Lloyd,Ilprogramma dell'universo, Torino, Einaudi 2006, pp.159-182
  2. ^ F.T. Arecchi, Caos e complessità nel vivente, IUSS Press, Pavia, 2004, pagg. 11-12
  3. ^ [1] Istituto Nazionale di Fisica Nucleare: Scienza per tutti, pag. 1
  4. ^ P.Magrassi, Difendersi dalla complessità, Franco Angeli 2009, pagg. 85-86
  5. ^ P. Magrassi, "Sfruttare il caos", Il Sole 24Ore Nòva Review, N.4 2008, settembre 2008, p.23.
  6. ^ G. Bocchi, M. Ceruti (a cura di), La sfida della complessità, Feltrinelli, Milano, 1985
  7. ^ A. Cravera, Competere nella complessità, Etas Libri 2009
  8. ^ P.Magrassi, Difendersi dalla complessità, op. cit., pag. 29
  9. ^ [2] Istituto Nazionale di Fisica Nucleare: Scienza per tutti, pag. 11
  10. ^ P.Bridgman, The Logic of Modern Physics, The MacMillan Company, New York 1927; citato con adattamento in P.Magrassi, op. cit., pag. 51
  11. ^ L.Pietronero, Complessità e altre storie, Di Renzo, Roma 2007, pag. 57
  12. ^ P.W.Anderson, “More Is Different”, Science, New Series, Vol. 177, No. 4047, August 4, 1972
  13. ^ P.W.Anderson, op. cit., pag.394
  14. ^ [3] E.N. Lorenz, "Deterministic nonperiodic flow", Journal of the Atmospheric Sciences", Vol.20, p.130, March 1963
  15. ^ F.T. Arecchi, op. cit. pag. 61
  16. ^ Lenti, G., Al di là del principio di entropia, Armando Editore, 2005.
  17. ^ Florita, M.O., con prefazione di Edoardo Boncinelli, L'intreccio: neuroscienze, clinica e teoria dei sistemi dinamici complessi, FrancoAngeli, 2011.
  18. ^ Eigen, M., P. Schuster, 1979, The Hypercycle: A Principle of Natural Self-Organization, Springer-Verlag, Berlin, Germany
  19. ^ Robert M. Gray, Entropy And Information Theory, Springer-Verlag, New York 2008
  20. ^ M. Gell-Mann, “What Is Complexity?”, Complexity, vol.1 no.1, John Wiley & Sons, Inc. 1995
  21. ^ P.Magrassi, Difendersi dalla complessità, op. cit., pag. 130
  22. ^ P.Magrassi, op. cit., pag. 131
  23. ^ Edgar Morin, Introduzione al pensiero complesso, Sperling & Kupfer, Milano, 1993
  24. ^ Edgar Morin, "Le vie della complessità", in G.Bocchi, M.Ceruti (a cura di), op. cit., pagg. 49-60
  25. ^ Isabelle Stengers, "Perché non può esserci un paradigma della complessità", in G.Bocchi, M.Ceruti (a cura di), La sfida della complessità, Feltrinelli, Milano, 1985 (prima edizione), Bruno Mondadori, Milano, 2007 (nuova edizione), pagg. 61-83

Bibliografia[modifica | modifica sorgente]

Collegamenti esterni[modifica | modifica sorgente]

Argomenti correlati[modifica | modifica sorgente]

Altri progetti[modifica | modifica sorgente]