Al momento stai visualizzando La sfida della complessità

La sfida della complessità

  • Categoria dell'articolo:blog

Quando parliamo di teoria della complessità, o meglio ancora di sfida della complessità, ci riferiamo a un nuovo modo di fare ricerca, nonché alla rinnovata alleanza tra scienze fisiche, biologiche e umane, e a una nuova concezione dell’evoluzione naturale.

Si tratta di una rivoluzione sul piano epistemologico, che ha spinto gli studiosi a sostenere la nascita di una terza cultura, sintesi e superamento del sapere umanistico e tecnologico, e possibile frutto di una speciale autocoscienza filosofica della scienza.

All’elaborazione della teoria della complessità, definita come lo studio interdisciplinare dei sistemi complessi adattivi e dei fenomeni emergenti ad essi associati, contribuiscono parimenti scienziati e filosofi, avvalendosi di sistemi formali automatici, progettati per eseguire, in modo velocissimo e infallibile, qualunque algoritmo: ossia i computer.

Quale primo esempio di sistema di media complessità (tra la minima del non-vivente e la massima del vivente), il computer non è dunque inteso semplicemente come strumento di calcolo, ma come oggetto di riflessione filosofica (macchine pensanti) e come laboratorio virtuale e sperimentale di modelli computazionali.

Grazie all’alto numero di connessioni e interconnessioni non lineari – in cui gli elementi, organizzati per livelli gerarchici interni, possiedono funzioni specializzate e una grande varietà di legami – il computer ben si presta a modellizzare la complessità nei suoi aspetti più comuni: molteplicità delle componenti e delle interazioni, assenza di gerarchia piramidale e interazione adattiva con l’ambiente.

Pensiamo anche all’economia, alla fisica, alla biologia, alla linguistica, alla sociologia: sono anch’essi sistemi complessi ad alta densità di interconnessioni.

Se parliamo di sfida della complessità è perché essa ci obbliga a rincorrere lo sviluppo del sistema, creando sempre nuovi modelli: mentre il sistema si aggiorna ed evolve, noi aggiorniamo la nostra modellistica che diventa quindi sempre più articolata.

Il pensiero sistemico è quello che meglio riflette questa complessità del mondo: non c’è un punto d’arrivo ultimo, un “Tutto” di una teoria finale. Come scrive Ignazio Licata nel suo ultimo saggio “La complessità” (Di Renzo Editore 2018):

“Siamo processi che studiano processi ‘inseguendoli’ cognitivamente. Quando in genere si pensa a un’azienda o a un’impresa si pensa immediatamente al mondo degli affari e della produzione. Questo non è sbagliato, ma è ‘chiuso’ rispetto a prospettive e possibilità più ampie. L’azienda non è un sistema isolato e se si desidera operare realmente per il cambiamento non ci si può più basare su rigidi meccanismi competitivi, ma occorre essere capaci di produrre conoscenza, dopo aver interrogato i segni del mondo, e costruire deliberatamente scenari alternativi.  Il problema non consiste nell’essere il miglior giocatore, ma nell’ideare nuovi giochi”.

Secondo i sette principi della teoria della complessità un sistema complesso è: auto-organizzato, sottoposto a disorganizzazione creativa e sull’orlo del caos – un gran numero di piccole perturbazioni e un piccolo numero di grandi perturbazioni, che mediante distruzione, generano discontinuità, creazione, innovazione – ispirato a un principio ologrammatico e di condivisione per cui il sistema è nell’ambiente e l’ambiente è nel sistema, caratterizzato dall’impossibilità di previsione e dunque dalla flessibilità strategica, legato al potere delle connessioni e alla causalità circolare in un meccanismo virtuoso e non deterministico di causa-effetto e, infine, necessariamente basato su una modalità di apprendimento che procede per tentativi (try&learn).

Sempre Licata, citando Laplace, rammenta:

“Possiamo considerare lo stato attuale dell’universo come l’effetto del suo passato e la causa del suo futuro. Un intelletto che a un determinato istante dovesse conoscere tutte le forze che mettono in moto la natura, e tutte le posizioni di tutti gli oggetti di cui la natura è composta, e se questo intelletto fosse inoltre sufficientemente ampio da sottoporre questi dati ad analisi, racchiuderebbe in un’unica formula i movimenti dei corpi più grandi dell’universo e quelli degli atomi più piccoli; per un tale intelletto nulla sarebbe incerto e il futuro proprio come il passato sarebbe evidente davanti ai suoi occhi”.

E ancora:

“La complessità, in definitiva, è vedere in ogni direzione la proliferazione di infinite storie, il superamento di un antico vetro infrangibile e asettico tra osservatore e osservato, che dà all’uomo la piena consapevolezza del suo essere un agente attivo, un attore che può scrivere gran parte della sua narrazione. E per farlo non può semplicemente limitarsi a calcolare il probabile sull’esistente, ma deve sviluppare la visio che gli consente di scommettere sul possibile e sul non ancora”.

Il pericolo, oggi, è la prolificazione infinita dell’informazione: se il volume dei dati con il quale abbiamo a che fare cresce in modo esponenziale (basti pensare a tutti quei dati non strutturati tipici del web), aumenta parallelamente anche la necessità di un’elaborazione degli stessi. Ecco dunque perché parliamo di Big Data analytics: i Big Data rappresentano una miniera preziosa di dati, che opportunamente governata, permette di estrarre una serie di informazioni nascoste, attraverso un meccanismo di raccolta e analisi, alla ricerca delle connessioni possibili. Tutto questo fluidifica il processo decisionale di un sistema (ad esempio di un’azienda) e consente di elaborare analisi prescrittive, intervenendo sul futuro prossimo.

Si tratta di uno strumento di previsione e misurazione della realtà – preciso e orientato alla riduzione dei costi di gestione e analisi – che si distingue per: Volume (la mole straordinaria dei dati), Varietà (eterogeneità dei dati), Velocità (dati prodotti sempre più velocemente e frequentemente), Variabilità (il significato o l’interpretazione di uno stesso dato può variare in funzione del contesto in cui questo viene raccolto e analizzato) e Viralità (propagazione rapida e a grande distanza delle reazioni che accompagnano l’evento espansivo dei dati). Sono le meglio conosciute 5 v dei Big Data.

E se la vastità dell’orizzonte può generare qualche comprensibile vertigine, è bene ricordare – con le parole di Licata – che “il problema non consiste nell’essere il miglior giocatore, ma nell’ideare nuovi giochi”.