Il nuovo secolo e la visione scientifica del mondo

 

La scienza classica

In questo capitolo cercheremo di analizzare l’evoluzione che la visione scientifica del mondo – e la visione del rapporto fra la Scienza e il mondo, fra soggetto e oggetto del processo conoscitivo – ha avuto nel corso del XX secolo, nel tentativo di mostrare come questa evoluzione apra nuove prospettive a un rapporto di complementarietà fra il metodo scientifico  e altre spinte endogene che muovono inarrestabilmente l’uomo singolo e la civiltà umana tutta verso la perenne conquista di nuovi orizzonti di conoscenza e di consapevolezza.
Il punto di partenza della nostra analisi sarà la “fisica classica”, cioè quella disciplina scientifica cosiddetta “esatta” o “forte” che poggia saldamente il suo apparato conoscitivo sul “metodo scientifico” galileiano [1].

Essa si occupa di acquisire, tramite l’osservazione, conoscenze dei fenomeni naturali organizzandole nella forma di “teorie” scientifiche. Per partire, dobbiamo dunque definire cosa si intende (o, almeno, cosa noi intendiamo) per teoria scientifica. Sono teorie della fisica, ad esempio, la termodinamica, la meccanica, l’elettromagnetismo, la relatività ristretta, ecc. Ma cosa hanno in comune questi apparati conoscitivi, come caratteristiche distintive che ce li fa classificare come teorie scientifiche?

Per essere definito come teoria scientifica forte, un determinato sistema di conoscenze deve possedere tre caratteristiche:

    1. Una prima caratteristica di una teoria è che le entità da essa trattate, e a proposito delle quali essa fa affermazioni, non sono oggetti concreti, ma entità astratte. Ad esempio entità geometriche (angoli, segmenti, superfici…); o entità fisiche (temperatura, entropia, o vettori come il campo elettrico,  o magnetico, o gravitazionale…)
    2. Secondo. Un apparato logico – deduttivo applicabile alle entità astratte, costituito da un certo numero (limitato) di premesse (assiomi o principi o postulati) relative alle entità astratte; e un algoritmo (regole di calcolo) che consente di trarre una varietà pressoché illimitata di conseguenze dedotte univocamente dalle (limitate) premesse. L’algoritmo può essere ad esempio quello del calcolo vettoriale, o algebrico, o differenziale; o quello della teoria dei gruppi. Le leggi della teoria sono allora in generale espresse nella forma di equazioni (vettoriali, algebriche, differenziali….) che legano fra loro le entità astratte della teoria [2].
    3. Terzo. Regole di corrispondenza che consentano di associare alle entità astratte della teoria, delle entità concrete, quantificabili e misurabili. Ad esempio un campo (gravitazionale, o elettrico) si manifesta con una forza, e questa a sua volta produce una deformazione, o una accelerazione. Cosicché se in una determinata situazione l’algoritmo della teoria fa prevedere la presenza di un campo di una determinata intensità, la concreta conseguenza di carattere  sperimentale deve essere che nella realtà in quella situazione devono evidenziarsi quelle manifestazioni (deformazioni o accelerazioni) che le regole di corrispondenza ci fanno prevedere.

Una teoria matematica si differenzia da una teoria fisica in quanto si disinteressa completamente della terza di queste dotazioni (regole di corrispondenza); si limita a scegliere un insieme di entità astratte cui applicare un determinato apparato logico – deduttivo, che consente di ricavare da poche premesse una abbondante messe di conseguenze. La teoria fornisce cioè metodi generali per risolvere un numero indeterminato di problemi, e per controllare la correttezza della soluzione; il tutto restando nell’ambito di questioni di coerenza logica, nel pieno disinteresse  di eventuali concrete implicazioni. In realtà , un fondamentale teorema (proposto e dimostrato nel 1931 dal matematico austriaco KURT GÖDEL) dimostra l’impossibilità di dimostrare la  coerenza interna di un sistema logico – deduttivo con un procedimento che sia tutto interno allo stesso sistema; e dunque nemmeno la matematica può concedersi il lusso di asserragliarsi tutta all’interno delle prime due succitate posizioni. Fin qui, ci siamo riferiti alla fisica e – per inciso – alla matematica. Ma questi due casi non esauriscono le possibilità: quando parliamo di “scienza”, non escludiamo il caso che oggetto del nostro interesse conoscitivo siano fenomeni attinenti – ad esempio – sistemi viventi. In questi casi, è del tutto eccezionale il fatto che le entità osservate possano essere associate a entità astratte obbedienti a un apparato logico – deduttivo formalizzato e univoco. Non per questo non si tratta, anche in questi casi, di “scienza”.

In effetti se si consulta un dizionario, alla voce “scienza” si legge: “la scienza è il risultato dell’attività umana volta a conoscere, attraverso l’esperienza e il ragionamento, il mondo, le sue cause, le sue leggi e i suoi princìpi generali. La scienza pura raccoglie le conoscenze. La scienza applicata le traduce in pratica”. Da cui concludiamo che per chiamarsi  “scientifico” un processo conoscitivo non deve necessariamente avvalersi di un apparato logico – assiomatico formalizzato. Esso deve necessariamente partire dalla osservazione,“l’esperienza”, come fonte prima del sapere e come verifica a posteriori; ma lo strumento cui si affida la organizzazione e la generalizzazione delle conoscenze scaturite dalla osservazione e dalla misura è il “ragionamento”, che è un processo più flessibile e meno rigido dell’algoritmo formale caratteristico di una teoria matematica. E un’altra cosa acquisiamo dal dizionario: il fatto che con “scienza” si intende nel linguaggio consolidato non solo il processo di produzione di conoscenza, ma anche la ricerca di ricadute applicative. Avendo acquisito queste precisazioni semantiche e queste generalizzazioni, torniamo alla fisica, che è la disciplina di cui ci stiamo per ora occupando. Per essa , che si cura di studiare – come tutte le scienze osservative – gli accadimenti concreti  (fenomeni) che avvengono nel mondo, la terza proposizione (regole di corrispondenza) rappresenta sia il punto di partenza che il punto di arrivo di un percorso concettualmente complesso, che richiede ad un tempo rigore e fantasia.

Immaginiamo di voler studiare un fenomeno semplice, come il lancio di un sasso. Qualunque sia l’ambiente (ad esempio all’aperto) in cui ci troviamo, esso è sede di accadimenti così numerosi e vari da darci l’impressione (fondata) che quel che accade qui ed ora è del tutto unico, diverso da quello che è mai accaduto altrove e in altri tempi. Tuttavia possiamo ritenere corretto scordarci di questi accadimenti, poiché ci appare evidente che essi non influenzano in misura apprezzabile il fenomeno cui siamo interessati (il moto del sasso dopo che è stato lanciato). Ridotto all’osso, lo studio delle caratteristiche del lancio si riduce a misurare come varia la posizione del sasso nel suo volo, via via che passa il tempo  dall’istante in cui è stato lanciato a quello in cui ricade a terra: obiettivo non banale ai tempi, ad esempio, di Galileo, ma facilmente  abbordabile oggi usando strumenti sofisticati ma largamente disponibili, come una cinepresa che scatta decine di fotogrammi al secondo in rapida regolare sequenza.

Se ripetiamo più volte il lancio, riscontreremo che di volta in volta il sasso va a cadere in una posizione diversa; e ciò accade anche se, con opportuni dispositivi (il più semplice può essere un cannoncino a molla), facciamo in modo che il sasso sia lanciato ogni volta nella stessa direzione con la stessa velocità. Questa variabilità può essere ricondotta a cause varie di perturbazione (sfarfallamenti del sasso; colpi di vento; ecc). Eliminando tutte queste cause di aleatorietà (il sasso sarà sostituito con una sferetta metallica pesante,  in modo da minimizzare le influenze sul movimento dell’aria in cui il movimento stesso avviene), riscontreremo che il moto della nostra sferetta tende da un lato vieppiù ad essere riproducibile; e d’altro lato viene fortemente ridotta la complessità del fenomeno, la cui descrizione diviene semplice, e le cui modalità sono riconducibili a un numero assai limitato di cause (nel caso specifico, la forza peso che agisce sull’oggetto in movimento).

Questo processo di “schematizzazione” ci ha fatto spostare l’attenzione  dal fenomeno naturale iniziale (lancio del sasso in condizioni ambientali qualunque) verso un suo modello semplificato (lancio di una sferetta in condizioni ambientali “controllate”); ma questa rinuncia ci viene ampiamente compensata dal fatto che il comportamento del modello è semplice e riproducibile.
Non è qui il caso di discutere, nemmeno nelle sue linee essenziali, quali misure sarebbe opportuno effettuare, e quali ragionamenti fare sui risultati, in modo da essere condotti per mano a formulare l’equazione generale che descrive il moto di un punto  materiale sottoposto alla sola forza di gravità.

Osserviamo solo che quando noi facciamo misure su un particolare modello (nel nostro caso la pallina in volo dopo essere stata lanciata dal cannoncino), e poi riusciamo a interpretare i risultati come soluzioni di una opportuna equazione, noi moltiplichiamo il nostro potenziale conoscitivo. La stessa equazione, applicata a situazioni diverse (diverse direzioni di lancio, diverse velocità iniziali), consente infatti di prevedere quale sarà  lo svolgimento del moto in queste nuove situazioni, appartenenti a una infinita varietà. E se la forza di gravità fosse attenuata di qualsivoglia fattore (come Galileo riuscì a simulare usando un piano inclinato), saremmo ancora in grado di prevedere i risultati, e di verificare così la validità della teoria anche quando applicata a situazioni in cui la forza di gravità avesse diverse intensità (ad esempio, sulla luna). Ma a questo punto possiamo andare oltre. Se anziché avere una forza di gravità uniforme nello spazio (come accade  nel caso di un grave sottoposto alla forza peso) noi avessimo una forza di gravitazione diversa da posizione a posizione (così come viene avvertita ad esempio da un pianeta sottoposto alla attrazione gravitazionale del sole), ci aspettiamo che la stessa equazione, ricavata facendo i nostri modesti piccoli esperimenti col cannoncino, sia in grado di farci correttamente prevedere e calcolare il moto dei pianeti: basterà che alla forza peso costante che in tale equazione appare, si sostituisca  l’espressione della forza gravitazionale. È questa la formidabile intuizione di Newton, che secondo la leggenda venne illuminato quando  fu colpito da una mela caduta dall’albero.

Tutta questa abbondante messe di previsioni della teoria e delle sue generalizzazioni possono essere sottoposte a verifica sperimentale. Ed è l’avverarsi delle previsioni che ci autorizza in conclusione ad accettare la ipotesi di teoria come teoria scientifica ortodossa, almeno entro i confini entro cui le verifiche sperimentali delle previsioni sono state effettuate.
È grazie allo sviluppo e all’impiego di questo approccio  metodologico che la scienza moderna, a cominciare per l’appunto da Galileo e Newton,ha sviluppato la meccanica classica; e poi a seguire, specie nel secolo XIX, le altre grandi teorie della fisica classica.
Prima di proseguire, e cominciare a discutere quali implicazioni abbia il metodo scientifico classico in termini di visione del rapporto fra scienza e mondo, fra soggetto e oggetto del processo conoscitivo, dedicheremo ancora qualche parola a un altro strumento metodologico cui la scienza classica fa sistematico ricorso, il cosiddetto “riduzionismo”.

Consideriamo ora a tal fine un qualunque sistema fisico complesso: ma del resto, tutti i sistemi reali, anche quelli apparentemente più semplici, sono caratterizzati da straordinaria complessità; si pensi al gas contenuto in un recipiente, la cui complessità deriva dall’essere costituito da milioni di miliardi di miliardi di molecole, ognuna dotata di un suo movimento sostanzialmente indipendente da quello delle altre, un sistema caratterizzato nell’insieme da grande disordine.
Volendo indagare il comportamento del sistema, l’approccio riduzionistico consiste nello scomporre il sistema nei suoi componenti; nello studiare il comportamento di tali componenti elementari; per poi ricomporre il sistema e ricondurre le proprietà del tutto alle proprietà dei singoli elementi.

Misurando a un certo istante la posizione e la velocità di tutte le molecole (immaginiamo alcune foto al microscopio, riprese in rapidissima sequenza), un osservatore abilissimo (dotato di strumenti tecnici sofisticatissimi, ma concettualmente realizzabili; e dotato di memoria e capacità di elaborazione straordinariamente potenti, ma concettualmente possibili) sarebbe poi in grado, a partire da questi dati osservati a quell’istante, di ricostruire con ogni precisione e dettaglio usando al dinamica del punto materiale più sopra introdotta e discussa, la storia – passato e futuro, dalla nascita alla morte – di quel sistema.

 

Il paradiso di certezze della fisica classica

Questa illuministica visione è quella generalmente condivisa, nel mondo della Scienza, fino ai primi decenni del ventesimo secolo. È questa fiducia assoluta nei propri mezzi che consentiva a Pierre Simon de Laplace di rispondere, a una domanda di Napoleone che gli chiedeva che ruolo avesse Dio nella concezione scientifica del mondo: “non abbiamo bisogno di questa ipotesi di lavoro”.

Questa visione del mondo, e della sua attitudine ad essere conosciuto, poggia su due ipotesi fondamentali, che nella nostra analisi del metodo scientifico classico abbiamo tacitamente assunto:

      1. il mondo ed ogni sua parte evolve in base a leggi strettamente deterministiche, ogni effetto essendo frutto univoco della sua causa. Per conseguenza, passato e futuro (di ogni cosa e del tutto) sono scritti a priori nel libro della Natura, a prescindere dal fatto che qualcuno – quel libro – si prenda la briga di sfogliarlo.
      2. L’oggetto della conoscenza – il “mondo” – non è minimamente perturbato dal processo conoscitivo, che può penetrare in qualunque profondità esso voglia, lasciando comunque incontaminato il cronometrico evolvere del mondo (nel suo insieme, in ogni sua parte, in ogni suo dettaglio).

Questa visione è pienamente coerente con i fondamenti del metodo scientifico codificato da Galileo.

Secondo Galileo, e secondo tutta la scienza classica, la conoscenza del mondo si sviluppa attraverso un processo interattivo fra soggetto e oggetto della indagine.

Osservazione, induzione, deduzione, riprova; il che vuol dire osservazione, ipotesi di legge, previsione, riprova; o se vogliamo osservazione, ipotesi, dubbio, verifica sperimentale. È ben vero che questa interazione produce in generale una perturbazione dell’osservato da parte dell’osservatore; tuttavia secondo la fisica classica questa perturbazione può essere resa tanto piccola quanto si vuole pur di usare adeguate cautele. Cosicché l’indagine può arrivare fino a toccare e disvelare ogni più intima correlazione di causa – effetto, senza minimamente perturbare tale correlazione; dando così credito e fondamento alla visione di Laplace.

Ma v’è un altro punto, fondamentale, che caratterizza la proposta metodologica di Galileo.

Se, in conseguenza della complessità di ogni sistema reale, ogni fenomeno naturale può apparire unico, talvolta e per certi aspetti imprevedibile (per conseguenza di pratiche limitatezze nella capacità dell’osservatore, non per limiti intrinseci nella Natura o nel metodo), il metodo insegna (attraverso il procedimento più sopra illustrato della “schematizzazione”) come svestire il fenomeno delle sue incertezze e delle sue soggettività, scoprendo il nocciolo universale contenuto in ognuna delle nostre esperienze. Non solo l’evoluzione del mondo è deterministica; non solo essa viene (o può venire) lasciata imperturbata dall’osservazione, ma ogni fenomeno – ogni singola esperienza – è innervata di universalità. Può apparire, a prima vista, che il mondo sia un mosaico di tessere (di singole esperienze) ciascuna irripetibile. E che a ciascuno sia dato conoscere quelle tessere che il corso della sua vita gli porta a incontrare, ed esplorarle in ogni dettaglio quelle tessere, ma solo quelle; altre e diverse rispetto a quelle che esplorerà ogni altro osservatore. Può apparire – dice la Scienza – ma non è così: perché sotto la polvere che rende unica ogni tessera vi è in esse una ripetibile universalità. Cosicché ciò che io – ora e qui – esploro e misuro, serve a verificare, controllare ed ampliare, ciò che altri osservatori hanno trovato o troveranno.

Questa circostanza attribuisce alla Scienza un altro formidabile punto di forza: cioè la sinergia fra l’operato dei vari ricercatori; ognuno dei quali controlla, completa, rafforza ed allarga l’operato degli altri (intersoggettività della conoscenza scientifica). La conquista del mondo procede per allargamenti concentrici, ogni nuova teoria (che parte dall’esperimento, e all’esperimento è ricondotta al momento della verifica) inglobando e raffinando, mai negando, la teoria precedente.

Come una lampada sempre più intensa, su una torre sempre più alta, che illumina sempre  meglio un cerchio sempre più largo entro la terra da esplorare, respingendo più lontano il buio dell’ignoranza.

E la terra illuminata (e così conquistata) grazie alla intersoggetività delle conquiste scientifiche, appartiene a tutti, a ogni singolo e all’umanità nel suo insieme [3].

Salda su questi tre pilastri (cronometrica, deterministica evoluzione del mondo, innervata da ferree relazioni di causa – effetto; indipendenza del mondo osservato da ogni perturbazione esercitata dall’osservatore; allargamento concentrico, progressivo e irreversibile della terra conosciuta) la Scienza classica vive e procede nella sua splendida sicurezza. Una Scienza che trova al proprio interno le proprie certezze, cui non servono punti di appoggio esterni a sé; una Scienza, come si dice, totalmente autoreferenziata.

La capacità di autoreferenziarsi vale in primo luogo, per la scienza classica, sul terreno strettamente conoscitivo. Se fra due scienziati nasce una contesa – una contesa su questioni di scienza – non serve un arbitro fra i due, e tanto meno un giudice: a dirimere il dubbio, sarà l’aureo ricorso all’esperimento. È la stessa Natura a emettere il verdetto. Ma vale anche, l’autoreferenzialità, sul terreno etico. Va infatti premesso che, secondo il metro scientifico, il degrado e la corruzione (e il regresso fino alla morte, rappresentata dalla assenza di ogni evoluzione) sono misurati, per un sistema complesso, dal disordine (o, come si usa dire con termine scientifico, dall’entropia); e per contrapposto dunque la conquista dell’ordine è positiva evoluzione, è progresso, è bene. Ma il disordine è anche ignoranza, e l’ordine è conoscenza. E allora se è vero che il  procedere della Scienza produce inesorabile, concentrico ed irreversibile allargamento della terra esplorata (dell’area illuminata dalla conoscenza), allora è vero anche che la ricerca scientifica produce progresso, produce bene; essa è – comunque – moralmente e politicamente positiva.

In conclusione dunque, non solo è lecito per lo scienziato – ma è doveroso cercare di procurarsi più fondi, più strutture, più risorse, per produrre un volume crescente di conoscenze. Al più, spetta alla collettività di decidere, in base a priorità di vario genere, a quale ritmo sfogliare il libro della Natura; ma ogni tentativo di rallentare tale ritmo sarà comunque considerato, dalla comunità degli scienziati, come reazionario e retrivo.

Ma per conseguenza della sua autoconsistenza interna, la Scienza si riconosce anche la possibilità e il diritto di chiudersi nella sua torre eburnea, non toccata né condizionata dalla società e dalle sue regole, dalle sue priorità, dai suoi valori. Se mai apre le finestre della torre, non lo fa per ascoltare, né tanto meno per lasciarsi controllare, verificare: lo fa per diffondere benignamente, quando crede, i suoi tesori, attraverso la divulgazione.

La porta, l’apre solo quel poco che serve a riprodursi, a reclutare i nuovi adepti; che quanto prima, appena acquisite le regole, verranno cooptati nella comunità.

E in questo quadro, l’etica dello scienziato si riduce a una semplice questione di rispetto delle regole interne; o se vogliamo, di coerenza col metodo, di credibilità scientifica (un paradigma che ammette anche, come versione corrotta, quella dell’adeguamento alle regole della corporazione).

Questo quadro di certezze, e di splendida autosufficienza della scienza, che già caratterizza l’illuminismo di Laplace (matematico, fisico e filosofo), si consolida e si estende via via che nel corso del secolo XIX  e agli inizi del XX secolo, la Scienza e segnatamente la fisica, producono quei grandi monumenti conoscitivi al metodo galileiano – newtoniano che sono le grandi teorie della fisica classica : l’elettromagnetismo di Maxwell, che sintetizza nelle sue famose quattro equazioni la capacità di predire una straordinaria varietà di fenomeni naturali e artificiali; la termodinamica; l’ottica, che può essere anche inglobata nel panorama conoscitivo presidiato  dalle equazioni di Maxwell; fino ad arrivare alla Teoria della Relatività Ristretta di Albert Einstein agli inizi del novecento.

E, attratte dai successi della fisica, anche le altre discipline naturalistiche  tentano di adottare – con successo a dire il vero assai  più modesto –  lo stesso apparato metodologico.

A proposito dei grandi raggiungimenti conoscitivi testé citati, vale la pena spendere qualche parola per commentare l’anomalia metodologica rappresentata dalla termodinamica. La termodinamica classica, basata sui suoi due famosi principi (primo e secondo principio della termodinamica ), fu sviluppata  a partire dal lavoro di Sadi Carnot (anno 1830 circa), che era motivato non da obiettivi conoscitivi, ma piuttosto  da esigenze applicative legate alla progettazione delle macchine a vapore, che venivano realizzate per trasformare in energia meccanica (o lavoro) l’energia termica (o Calore) sviluppata nella combustione di opportuni combustibili (inizialmente le macchine a vapore bruciavano soprattutto carbone).

Constatato che tali macchine trasformavano in lavoro solo una frazione relativamente piccola del calore prodotto nella caldaia, la maggior parte del quale veniva invece scaricato e dissipato nell’ambiente, Sadi Carnot si prefiggeva di trovar modo di minimizzare gli sprechi. I suoi studi si concentravano pertanto più che sulla indagine dei fenomeni che accadono, sulla individuazione dei confini oltre i quali si trovano i fenomeni non realizzabili.

Questo modo diverso di guardare le cose ha importanti conseguenze metodologiche.

Nello schema galileiano e newtoniano si formulano  leggi prescrittive e deterministiche, mentre nell’approccio di Carnot si cerca di scoprire e formalizzare i divieti  che la Natura impone ai suoi processi. Questo procedimento richiede un tipo di astrazione completamente diverso: per Carnot è centrale ciò che per Newton è da scartare .

La formulazione della termodinamica secondo le linee metologiche classiche (riduzionismo, dinamica newtoniana del punto, ecc.) fu enunciata solo molti decenni  più tardi (fine del XIX secolo) ad opera di Ludwig Boltzmann, che riuscì a trovare ed enunciare le relazioni esistenti fra le grandezze macroscopiche che caratterizzano lo stato di un gas (pressione, temperatura) e il l valor medio delle grandezze cinematiche  (velocità) delle particelle  microscopiche  di cui il gas è composto (teoria cinetica dei gas). È paradossale che per  rispolverare l’approccio classico, Boltzmann fu costretto a remare controcorrente; tanto che morì suicida, per le difficoltà a fare accettare dalla comunità scientifica le sue teorie.  Tutto ciò mentre la scoperta della struttura atomica e molecolare della materia stava dando nuova linfa e nuovi orizzonti all’approccio riduzionistico, che analizzando il macroscopico in termini di componenti microscopici andava scoprendo un mondo di simmetrie e di bellezza (oltreché,come vedremo fra poco, di problemi).

Prima di procedere con la nostra analisi storica del metodo, vale la pena ricordare, sia pur  solo di passaggio, che è proprio grazie ai grandi raggiungimenti conoscitivi nel corso dell’800, che la fisica si candida concretamente al ruolo di avanguardia dello sviluppo della civiltà occidentale, e che in realtà è europea fino agli inizi del ‘900 (per poi dispiegarsi nel corso del XX secolo sul continente americano prima; e poi sull’intero globo terrestre nell’era globale).
Infatti, i modelli artificiali dei fenomeni naturali, che come abbiamo più sopra discusso sono funzionali alla scienza per conseguire i suoi obiettivi conoscitivi, vanno via via acquisendo una loro vita autonoma, alimentata dalle loro sempre più varie e utili applicazioni. La scienza diviene sempre più il battistrada dello sviluppo tecnologico. E quest’ultimo è sempre più il motore dello sviluppo industriale, dell’economia, della stessa cultura: in una parola, della civiltà.

Questo fenomeno, la cui analisi esula dai nostri attuali scopi, va tuttavia tenuto presente nei ragionamenti che faremo da qui in avanti, trattandosi del fenomeno che caratterizza e connota l’ambiente in cui lo sviluppo scientifico avviene; e sempre più spesso anche l’obiettivo cui esso tende.

 

La cacciata dall’Eden

Ma torniamo ora a portare la nostra attenzione sugli aspetti più direttamente conoscitivi.
Il paradiso di certezze della fisica classica, caratterizzata dalla consapevolezza (o dalla illusione) di piena autosufficienza metodologica,  viene perturbato profondamente e irrimediabilmente a partire dai primi decenni del ventesimo secolo; ed è proprio una grande conquista scientifica, la meccanica quantistica, a dar l’avvio a questa rivoluzione.
La meccanica quantistica si occupa di sistemi microscopici, atomici e subatomici; cioè in sostanza della struttura intima che sottende e per molti aspetti determina anche l’architettura del mondo macroscopico che ci circonda.

Orbene, l’osservazione sistematica del mondo microscopico evidenziò un panorama fenomenologico del tutto nuovo e inaspettato, che costrinse la comunità dei fisici – che pure resistette a lungo, e si arrese finalmente solo all’evidenza dei fatti – a rinunciare al determinismo stretto proprio della fisica classica. In generale, un sistema microscopico si manifesta come un sistema che  vive in una sorta di stato virtuale, in certa misura indefinito; esso tiene, per così dire, il piede perennemente in più staffe, senza decidersi su quale finalmente appoggiarsi. Solo la misura effettuata dallo sperimentatore (solo la ineliminabile perturbazione prodotta dall’osservazione: “ineliminabile perturbazione”, è questa una grande novità concettuale) costringe il sistema a calarsi in un preciso stato, ad appoggiarsi definitivamente su una sola staffa.

E la teoria non è nemmeno in linea di principio in grado di prevedere in quale stato si calerà, e dunque di calcolare quale sarà il risultato della misura: il massimo che può fare è calcolare la probabilità che ognuno dei possibili risultati si verifichi.
Questa visione quantistica, imposta dall’esperimento, demolisce definitivamente due delle grandi certezze della scienza classica:

      • la relazione deterministica di causa – effetto che rende certa e univocamente prevedibile l’evoluzione dei sistemi classici. Le equazioni della nuova teoria rappresentano sì relazioni deterministiche, che determinano però l’evoluzione di grandezze probabilistiche; e queste non consentono di calcolare ogni singolo risultato della osservazione, ma solo le relative frequenze che sono da attendersi statisticamente. Va osservato che rispetto alle teorie scientifiche classiche che abbiamo caratterizzato all’inizio di questo capitolo, ciò che la meccanica quantistica sottopone a critica e revisione è la tipologia delle regole di corrispondenza, che anziché essere deterministiche – come nelle teorie classiche – la meccanica quantistica è costretta a degradare a corrispondenza probabilistica.
      • la indipendenza della evoluzione del sistema naturale rispetto all’intervento dell’osservatore. Quando un sistema viene osservato, esso viene certamente – ineludibilmente – perturbato, e costretto ad evolvere da allora in poi in maniera diversa; esso viene in certo senso privato di un ventaglio di libertà che gli era proprio prima che l’osservazione avesse luogo.

La introduzione di queste due ineliminabili cause di incertezza fra di loro interconnesse, e la conseguente perdita del paradiso di certezze proprio della fisica classica, ha fortemente turbato la comunità dei fisici nei primi decenni del ventesimo secolo; e molti scienziati, fra i più brillanti e influenti, hanno resistito a lungo prima di accettare i nuovi canoni. Si racconta che Einstein dicesse: “non posso credere che Dio giochi ai dadi”.
Ma fu infine l’evidenza sperimentale a costringere ad accettare questa visione più incerta, più imprevedibile, ma anche più libera, della evoluzione dei sistemi.

La storia di un sistema (almeno di un sistema microscopico: di questi si occupa la meccanica quantistica) non è più, come pensava Laplace, un libro già scritto dall’inizio alla fine; un libro che la scienza, con la ricerca, sfoglia e legge, prendendone atto come un notaio imparziale. È invece un libro che viene scritto e letto, contestualmente, via via che viene sfogliato. Solo ciò che sta nelle pagine già lette (già scritte e lette), ciò che appartiene al passato, rientra nell’ambito delle certezze. Ciò che verrà è incerto, il futuro è concettualmente prevedibile solo in termini di congetture, calcolabile solo in termini di probabilità.

Torniamo al paragone della lampada della scienza sull’alta torre. Secondo la visione quantistica, i sistemi microscopi presenti nel panorama circostante la torre, finché la luce è spenta costituiscono un mondo pieno di fremiti e di incertezze: ogni cosa – ogni foglia svolazzante – non si sa dove sta.
L’accensione della lampada immobilizza istantaneamente ogni cosa a terra: si vedrà allora il panorama non quale esso era finché regnava il buio, ma come esso è stato trasformato dall’accensione della lampada.

 

Sapere è potere

Tutto ciò, come abbiamo più volte ribadito, vale per i sistemi microscopici. Quando applicata ai sistemi macroscopici, la meccanica quantistica si riduce infatti alla dinamica classica, e non comporta alcuna incertezza nelle previsioni. Al contrario, va detto che mentre nel riferimento della dinamica classica non era possibile dare ragione della stabilità degli atomi, che sono i mattoni costituenti qualunque struttura macroscopica, le equazioni della meccanica quantistica danno dettagliata ragione della struttura atomica, della sua stabilità e delle sue interazioni con la radiazione elettromagnetica. Con la formalizzazione della meccanica quantistica – obiettivo che la fisica consegue all’inizio degli anni ’30 – prende così nuovo impulso l’approccio riduzionistico allo studio della struttura  della materia. Avendo spiegato la struttura  e la stabilità dell’atomo in termini dei suoi componenti subatomici (elettroni, protoni, e neutroni), la ricerca in fisica si rivolge allo studio della struttura delle particelle subatomiche. Usando macchine sempre più potenti, sofisticate e costose, la struttura subatomica viene indagata – con pieno successo – con risoluzione e precisione crescente, portando alla scoperta di una varietà di nuove particelle elementari (ma non saranno anche queste composte da costituenti ancora più piccoli?): i quark, i leptoni, i gluoni. Una fauna di entità instabili che popolano il mondo subnucleare formando strutture dotate di meravigliose simmetrie, legate fra loro da forze costituenti un sistema dinamico che appare sempre più semplice e unificato via via che la sperimentazione ne approfondisce la conoscenza.

Nel contempo, mentre procede lo studio dei costituenti sempre più intimi della materia, la ricerca in fisica, facendo uso di strumenti sempre più sofisticati, prosegue lo studio dell’ “infinitamente grande”, la genesi e l’evoluzione dell’universo cosmico: ottenendo con l’astrofisica molti lusinghieri successi sia con lo sviluppo di importanti puntuali raggiungimenti conoscitivi che in termini di connessioni con l’ ”infinitamente piccolo”; ma incontrando anche alcune rilevanti difficoltà metodologiche cui più avanti accenneremo.

Ma soprattutto, ciò che caratterizza l’evoluzione della ricerca in fisica nel corso del XX secolo, è la crescente capacità di generare innovazione tecnologica: cioè di inventare, caratterizzare e realizzare una straordinaria varietà di materiali, dispositivi, processi che entrando nell’uso comune incidono in misura crescente sulla nostra vita, sui nostri gusti, sulla nostra cultura. A titolo di esempio citeremo qui: materiali sofisticati in termini di struttura e di prestazioni, come semiconduttori, superconduttori, cristalli liquidi ecc;  dispositivi per telecomunicazioni, telefonini, videotelefonini, impianti satellitari, ecc.; dispositivi per la diagnostica e la terapia medico – sanitaria; nanotecnologie con le più varie applicazioni; dispositivi militari; ecc,ecc,ecc. Un bagaglio di invenzioni e innovazioni che stanno penetrando così capillarmente e pervasivamente  nella nostra vita da produrre una vera e propria rivoluzione di portata epocale.

Ciò che deve preoccuparci è che, mentre aumenta con tutto ciò la capacità dell’uomo di modificare non solo la propria civiltà, ma anche le stesse caratteristiche fisiche dell’ambiente in cui viviamo, sta andando in crisi via via più profonda la nostra capacità di prevedere e controllare le conseguenze di ciò che, come  comunità umana, andiamo facendo. Per discutere tutto ciò, è necessario introdurre un approccio metodologico che prende corpo soprattutto a partire dalla metà del XX secolo, parallelamente e per molti aspetti in antagonismo al procedere dell’approccio riduzionista.

 

Complessità e caos

Prenderemo le mosse da una famosa affermazione fatta da un fisico dell’atmosfera, Edward Lorenz, nel 1966: “Basta il battito d’ali di una farfalla in Canada, a provocare il giorno dopo un tifone in Brasile”. Lorenz si occupava di previsioni meteorologiche: e la sua frase deriva dalla constatazione, da lui fatta, che usando il modello di atmosfera da lui adottato, bastava cambiare di un nonnulla le condizioni iniziali, per pervenire a previsioni completamente diverse. Inutile dunque, approfittando del suo potente computer, fare il calcolo con precisione via via crescente; poiché le condizioni iniziali non sono note con precisione infinita, le previsioni calcolate non sono comunque attendibili.  L’approfondimento di questa spiacevole situazione portò alla riscoperta dei risultati delle ricerche che un grande matematico francese, Henri  Poincaré, aveva condotto quasi 80 anni prima, sulle equazioni di Newton per la dinamica dei sistemi non lineari. Nonostante si tratti di equazioni strettamente deterministiche, il comportamento delle loro soluzioni, anche nel semplice caso  di tre soli corpi fra di loro interagenti, può diventare “caotico”; il che significa imprevedibile, per l’impossibilità di principio, e non solo pratica, di stabilire le condizioni iniziali con infinita precisione: basta una perturbazione minima (un battito d’ali di una farfalla) per dar luogo a soluzioni drammaticamente diverse.

Il fatto che i sistemi caotici, il cui evolvere è sostanzialmente imprevedibile, siano rimasti esterni allo sviluppo della scienza nei tre secoli durante i quali essa ha messo a segno una messe così rilevante di successi metodologici, conoscitivi e applicativi, può portarci a pensare che i sistemi a comportamento caotico siano rare eccezioni all’interno del panorama dei sistemi possibili. In verità si tratta di una impressione falsa, dovuta  a una scelta che la scienza classica ha fatto a priori, di limitare la sua attenzione a quei sistemi che potessero essere   indagati con l’approccio riduzionistico, che potessero essere schematizzabili con modelli semplici e ripetibili, e fossero dunque descrivibili da algoritmi capaci di partorire previsioni certe [4].

In realtà, una volta abbattuto lo schermo che circoscriveva il mondo oggetto dell’indagine scientifica, separandolo dall’universo assai più esteso del conoscibile, ci si è reso conto della varietà di fenomeni e di ambiti disciplinari, al cui studio non è applicabile il metodo scientifico classico. In particolare sono caotici, e quindi intrinsecamente non predicibili, i sistemi cosiddetti “complessi”, che ora andiamo a definire [5].
È detto complesso un sistema costituito da un numero grandissimo di componenti  fra di loro interagenti con legge non–lineare, cosicché il sistema abbia proprietà collettive di insieme non riconducibili alle proprietà  dei suoi costituenti (proprietà emergenti). Sono sistemi complessi, in particolare, tutti i sistemi appartenenti all’ambito della vita (un essere vivente; una colonia di esseri viventi, microscopici o macroscopici; un ecosistema; un sistema macroclimatico ecc.). Molti sistemi complessi sono complessi a più ordini: ad esempio un organismo vivo è complesso in quanto composto di cellule; ma ogni cellula è a sua volta complessa in quanto composta di molecole, ecc.

I sistemi complessi godono in generale di un certo numero di proprietà: l’irriducibilità della loro storia a fattori strutturali; il carattere  autoreferenziale della loro struttura interna; la capacità di autoorganizzarsi. E, ciò che qui più interessa, come già anticipato, il loro comportamento caotico; il che significa, essenzialmente  imprevedibile.

Ciò spiega perché il tentativo di molte discipline di adottare  il metodo scientifico galileiano, per mutuarne il grande successo come motore della macchina produttrice di conoscenza (tentativo che ha coinvolto la biologia, la sociologia, l’economia, ecc.) non è stato coronato da significativi successi: si tratta di discipline che si occupano di sistemi complessi, cui semplicemente il metodo scientifico classico non è applicabile. Ogni qualvolta si ha a che fare con un sistema complesso, il tentativo di prevederne l’evoluzione è destinato a sicuro insuccesso: ognuna delle cause di mutamento  che venga applicata, volutamente o accidentalmente, al sistema, può produrre un  ventaglio di effetti del tutto imprevedibile. Di un sistema complesso non può essere indagato il futuro; può essere solo studiata la storia, i cui fatti salienti possono anche essere  ricondotti univocamente alla relativa causa.

Ma qualora si volesse ripercorrerne la storia, quella stessa causa potrebbe produrre effetti completamente diversi.
Queste caratteristiche e proprietà dei sistemi complessi hanno precise implicazioni non solo sugli strumenti conoscitivi ad essi applicabili, ma anche sulle tecniche che possono essere adottate per controllarli. Nel caso di un sistema classico che ci sia noto (il che significa: di cui conosciamo le equazioni che ne governano l’evoluzione), se vogliamo che esso evolva, a partire da una nota condizione iniziale, verso una voluta configurazione finale, basta che interveniamo agendo appropriatamente sulle cause, in modo che esse determinino l’evoluzione verso la desiderata configurazione finale. Nel caso di un sistema complesso, che non mostra nel suo comportamento alcuna deterministica correlazione di causa – effetto, il suddetto metodo non è applicabile. Il sistema si manifesta, nelle sue interazioni con l’ambiente, come una entità globale. Se vogliamo costringerlo ad assumere una determinata configurazione, non possiamo che agire su di esso come tale (come entità globale) obbligandolo ad assumere e mantenere la configurazione voluta. Sarà poi il sistema stesso,  agendo sulle sue ridondanze interne, e usando le sue capacità autoreferenziali di autoorganizzazione, a costringere i suoi costituenti ad assumere configurazioni compatibili con la configurazione di insieme che abbiamo imposto.

In un sistema classico, la configurazione obiettivo viene raggiunta come effetto di cause note imposte al sistema.
Se il sistema è suscettibile di una descrizione riduzionistica, tali cause sono in generale imposte agendo sui componenti del sistema. Nel caso di un sistema complesso, la configurazione obiettivo viene imposta agendo direttamente sul sistema attraverso le sue manifestazioni globali, ed è tale imposizione globale a divenire la causa degli aggiustamenti interni che il sistema impone ai suoi costituenti. Si ha così, rispetto al caso classico, una sorta di inversione dei rapporti di causa – effetto; o per lo meno una  sorta di circolarità per cui l’effetto globale diviene anche causa degli aggiustamenti dei comportamenti.

 

Circolarità delle relazioni di causa-effetto

In questo quadro, non appare in particolare realistica né proponibile l’ipotesi che l’osservatore e l’osservato procedano indisturbati l’uno dall’altro, su due binari paralleli che corrono ciascuno nel proprio mondo. Al contrario, essi si influenzano reciprocamente, in una relazione di causa- effetto inestricabile nelle sue caratteristiche di circolarità: l’osservazione perturba apprezzabilmente, spesso drammaticamente, le caratteristiche e l’evoluzione del sistema osservato; e per sua parte il sistema osservato influenza fortemente il comportamento dell’osservatore, e le stesse regole e modalità di osservazione. Questa interazione, con le sue caratteristiche di circolarità, si manifesta quando l’osservatore  compie la sua campagna di osservazione e indagine su un particolare sistema; ma si amplifica vieppiù quando si allarghi l’attenzione al complesso delle indagini che il sistema della ricerca compie su un particolare comparto di fenomeni [6].

Si amplifica sul versante conoscitivo: e ciò perché il sistema della ricerca è esso stesso un sistema complesso, che evolve dunque in maniera caotica, a priori imprevedibile, a seguito delle sollecitazioni cui è sottoposto. E i risultati che la scienza via via acquisisce rappresentano, per la scienza stessa, sollecitazioni metodologiche e conoscitive che non possono essere trascurate nell’ulteriore procedere dell’indagine [7].

Ma si amplifica ancor più sul versante applicativo. Come abbiamo a più riprese accennato, la ricerca produce una varietà di innovazioni tecnologiche profonde,  che a loro volta incidono profondamente sulla civiltà; ed è la civiltà nel suo insieme l’humus in cui si sviluppa la scienza, determinandone le priorità e i connotati [8].
I risultati della ricerca si traducono in azioni, in formidabili strumenti di intervento, che segnano e condizionano pesantemente lo sviluppo e l’evoluzione del mondo: dell’economia, della società, dei valori; ma anche dell’ambiente, alla scala locale, regionale e planetaria.

Nel contempo, i programmi di ricerca divengono spesso grandi programmi coordinati, caratterizzati ciascuno da un enorme impegno di risorse (finanziarie ed umane); ed allora ogni programma entra nei fatti in competizione e contrapposizione con gli altri.
Tornando alla nostra metafora, intorno  alla lampada della Scienza accesa sulla torre, oltre la radura circostante illuminata (il mondo microscopico, e quello macroscopico esplorabile dalla fisica classica), vi è una foresta vergine, intricata e folta. Esplorarla vuol dire aprire in essa solchi profondi, sentieri fra di loro divergenti: non più l’immagine concentrica di conquista progressiva del conoscibile, ma la ramificazione irreversibile dello sviluppo del sapere e del saper fare. Scegliere di tracciare e percorrere un sentiero anziché un altro, porta non solo a sviluppare un sapere anziché un altro (saperi nei fatti alternativi); ma segna lo sviluppo globale della civiltà e del mondo, scrive una storia anziché un’altra, a livello macroscopico e planetario: la storia naturale si intreccia indissolubilmente con la storia del sistema antropico e con la storia della scienza, un libro che viene scritto e letto via via che viene sfogliato.

La Scienza non è più, nei fatti, isolata dalla società: nel senso che il suo procedere impronta inesorabilmente lo sviluppo della umanità e del mondo. E allora essa non può più pretendere che il suo proprio procedere non venga a sua volta, simmetricamente, improntato e contaminato dalla società.

Box 1 previsione consapevole

Box 2 Etica della Scienza e bioetica

 

Il crollo della torre d’avorio

Non più dunque la Scienza che si apre solo per dare: per dare risultati, benessere, conoscenza. (Ed anche su questo terreno, sul problema del diffondere il suo sapere, la impossibilità concettuale di tradurre in modelli intuitivi i comportamenti dei sistemi microscopici, direttamente non osservabili, apre problemi filosofici non trascurabili).

Una Scienza, invece, che non ha più il diritto né la capacità di considerarsi autoreferenziata. Non ne ha il diritto. Perché la società, che alimenta la scienza di risorse e che dalle scelte e dai risultati della scienza è fortemente influenzata e condizionata, ha per sua parte il diritto di entrare nel merito delle scelte di indirizzo che la scienza si dà. Ma non ne ha nemmeno la capacità: perché se è vero che l’evoluzione dei sistemi è, in molti casi, non deterministicamente prevedibile ed è spesso non ripetibile, allora non v’è più (o è opinabile definire) il terreno imparziale sul quale la ipotetica contesa fra due scienziati si risolve oggettivamente, senza ricorso ad arbitri.

Vogliamo fare, a questo riguardo, un esempio che ci sembra significativo (ma altri esempi, altrettanto significativi, possono trarsi dalla biologia e dalla genetica, dalla epidemiologia, ecc.)

Il clima terrestre è la manifestazione della evoluzione di un sistema complesso; evoluzione che passa per momenti di instabilità, punti di biforcazione da cui si dipartono sviluppi alternativi e divergenti, imprevedibili. Presumibilmente, a livello planetario uno di tali punti di biforcazione verrebbe raggiunto qualora l’umanità continui a immettere, sconsideratamente, anidride carbonica in atmosfera, fino a portare l’effetto serra oltre il limite di non ritorno. Quale sarebbe l’evoluzione del clima, da quel momento in poi? Esistono al riguardo, nel mondo della Scienza, diverse scuole di pensiero; ma se è vero che quello rappresenta un punto di biforcazione, una previsione certa non è possibile; né è possibile la sperimentazione, perché fra le possibili evoluzioni, alcune sono catastrofiche, e forse distruttive.

Ma a questo punto il discorso sulla interrelazione fra la Scienza e la più generale spinta dell’uomo verso la conoscenza e la “coscienza” – di sé e del mondo – si fa più complesso.
Abbiamo già anticipato, in apertura del capitolo, che nel 1931, un venticinquenne matematico austriaco di nome KURT GÖDEL, pubblicò un fondamentale lavoro in cui dimostrava che la coerenza interna di una teoria assiomatico-deduttiva, non può essere dimostrata se non appoggiando il ragionamento su pilastri esterni alla teoria. Come una biblioteca che pretenda di essere completa, ma i cui indici siano contenuti in volumi che non trovano posto nella biblioteca stessa.

Questo dilemma, interno al settore della logica-matematica, suggerisce tuttavia, per analogia, stimolanti interrogativi relativi alle scienze naturali.
La Scienza classica, autoreferenziata, presumeva di contenere in sé tutte le regole e i paradigmi del metodo atto a sviluppare senza limiti la conoscenza dell’uomo nei riguardi della Natura. Ma Natura in fondo è tutto; dunque essa si reputava “la” Scienza, capace di soddisfare – pur di lasciarla lavorare – ogni anelito conoscitivo dell’uomo; pensava di inglobare in sé concetti come “cultura” e “coscienza”, che solo all’interno dei suoi riferimenti trovavano definizione e precisazione.

Ma se le basi su cui poggiano le colonne della Scienza appartengono ad un’altra giurisdizione, allora diviene necessario un allargamento dei confini, o almeno una politica di alleanza. Allargamento che dovrà procedere fino a contenere tutte le regioni dove maturano i criteri di valore e di giudizio. La biblioteca sarà infine solo la coscienza dell’uomo – quella dei singoli e della collettività – che comprende la ragione e la scienza, ma cui non sono estranei l’arte, la tradizione, la religione; in definitiva anche il sentimento.

Fin qui abbiamo accennato ai problemi conoscitivi e metodologici propri del mondo microscopico, e a quelli propri di sistemi complessi alla scala macroscopica e planetaria; ma a un’altra scala, come abbiamo già fuggevolmente anticipato, l’indagine scientifica si è cimentata e si cimenta con l’infinitamente grande, cioè con la nascita l’evoluzione e la storia dell’Universo cosmico. Orbene, procedendo sempre più oltre nello spazio e nel tempo, nell’infinitamente grande il cerchio si richiude con l’infinitamente piccolo.
I soggetti protagonisti nei primi istanti di vita dell’Universo – così come, presumibilmente, negli ultimi istanti prima della sua morte – sono stati e saranno quelle stesse particelle nucleari e subnucleari (quark, gluoni e leptoni) che si incontrano penetrando sempre più addentro la struttura intima, microscopica, della materia.
Si va così producendo una visione unitaria, riconducibile a quattro campi di forze fondamentali fra di loro almeno parzialmente interconnessi (probabilmente unificabili in futuro).

Ciò produce una profonda interrelazione fra i fenomeni alle varie scale, interrelazione ancorata da alcune costanti universali. Per fare un paragone, immaginiamo un telo elastico, teso, ancorato ad alcuni punti fissi (ad esempio, come paletti conficcati nel terreno). Applicando una forza in una posizione del telo, questa si trasmette e si traduce in forze esercitate in ogni altra posizione: forza la cui intensità dipende da quanto il telo è teso, e dunque dalle posizioni in cui i paletti sono piantati.

Ebbene, quelle costanti fondamentali sembrano avere valori scelti dal caso. Come se quei paletti fossero stati conficcati senza alcun criterio guida: se uno li spostasse, si avrebbe una teoria altrettanto coerente. Perché dunque sono piantati proprio lì e non altrove?
Immaginiamo di sollevare, al centro del telo, un palo verticale; per trasformare quel telo in una tenda. Quel palo sia la vita. Ora appare che i pioli nel terreno siano piantati nell’unica configurazione che consente a quel palo centrale di stare in piedi; in modo che quel telo si trasformi in tenda abitata. Per uscire dalla metafora, pare che solo quel rapporto fra le costanti universali sia quello capace di far coagulare la materia primordiale in ammassi di galassie, in galassie e stelle; quello che consente la nascita dei pianeti, e di quel raro esemplare che è la Terra; e sulla Terra l’ossigeno e l’acqua, e infine la vita e l’intelligenza. Se vogliamo, quel rapporto fra le costanti universali pare essere l’unico capace di dar luogo a un mondo che possa aver coscienza di sé.

Questa affascinante ipotesi, è quella che va sotto il nome di “principio antropico” nella visione cosmologica; ipotesi di circolarità che porterebbe, per vie interne alla scienza più ortodossa, l’esigenza del parametro “coscienza” entro il riferimento scientifico; facendone un punto di partenza, oltre che un punto di arrivo, delle teorie scientifiche “ del tutto”.

Ma, a questo punto, ci siamo  ormai trasferiti su una terra incerta; terra che a tutt’oggi è di confine fra scienza e fantascienza, fra ipotesi scientifica e fantasia.

Assumiamola solo a testimonianza della esigenza che ormai la Scienza avverte di allargare l’area delle proprie alleanze [10].

 

Note

[1] In realtà, come ha mostrato Lucio Russo in un suo appassionante saggio, il metodo scientifico è nato in età ellenistica, ed è stato riscoperto dalla scienza moderna. Vedi Lucio Russo, “La rivoluzione dimenticata” Feltrinelli (1996), Milano.

[2] Nel 1623, scrive Galileo nel Saggiatore: “la filosofia è scritta in questo grandissimo libro che continuamente ci sta aperto innanzi agli occhi (io dico l’Universo), ma non si può intendere se prima non si impara a intender la lingua e a conoscere i caratteri nei quali è scritto. Egli è scritto in lingua matematica, e i caratteri sono triangoli, cerchi e altre figure geometriche, senza i quali mezzi è impossibile intenderne umanamente parola”.

[3] Vale la pena introdurre a questo punto un breve inciso a proposito del linguaggio. Affinché il sapere scientifico sia davvero sapere intersoggettivo – ed affinché parimenti intersoggettivo sia il processo di perenne sviluppo di nuovo sapere – è necessario in primo luogo un efficiente e trasparente interscambio di informazione all’interno della comunità scientifica (comunicazione infrascientifica). Questa comunicazione, per raggiungere il suo scopo, deve soddisfare alcuni precisi criteri. Essa non deve riguardare solo i risultati positivi che ciascuno scienziato ha ottenuto; deve contenere anche gli eventuali risultati negativi, e soprattutto deve riguardare anche le procedure che ogni singolo ricercatore ha seguito eseguendo le sue campagne di misure, o i ragionamenti fatti per enunciare le sue ipotesi di teoria. Tutto ciò perché la comunità scientifica deve essere messa in condizione di poter verificare, integrare, estendere (o, al contrario, negare) i risultati che il singolo ricercatore ha ottenuto, o le ipotesi che egli propone alla discussione collettiva. Queste esigenze, proprie della comunicazione infrascientifica, rendono la letteratura scientifica estremamente complessa, e la sua lettura resta accessibile solo a specialisti, in possesso di competenze specifiche, ed anche padroni  dei codici interpretativi propri di questa comunicazione (algoritmi, convenzioni, ecc.). Un cittadino qualunque non è assolutamente in grado di leggere e comprendere un articolo tratto dalla letteratura scientifica. D’altra parte, il fatto che il sapere scientifico sia, nella moderna civiltà, la principale materia prima dei processi di produzione di ricchezza, impone che la comunità scientifica – la cui attività è finanziata (almeno in parte) dalla collettività – si faccia carico di diffondere  i risultati ottenuti all’intera società, attraverso la “divulgazione” e la diffusione della cultura scientifica. Gli articoli divulgativi, con cui il mondo della ricerca comunica con la società, non sono necessariamente condannati ad essere “non rigorosi”; essi saranno semmai meno esaustivi: ad esempio, riguarderanno la descrizione dei risultati trascurando di dedicarsi ai procedimenti. Se la comunità scientifica trascura di informare la società, non può addurre come scusa l’intrinseca incomunicabilità della scienza; si tratta in realtà di pigrizia, o addirittura della volontà maliziosa di mantenere il monopolio di questa preziosa risorsa.

[4] È quanto mai pertinente riferire qui una storiella, che ho sentito raccontare da Bruno Touschek, brillantissimo fisico austriaco (italiano di adozione) che ho avuto la fortuna di conoscere e frequentare. In una nottata buia, un viandante incontra un tale che, chino verso terra sotto un lampione, mostra chiaramente di cercare qualcosa; e gli chiede “ mi dica, cosa ha perso, e dove la ha persa ; voglio aiutarla a cercare”. E quello risponde: “ ho perso la chiave “. Chiede ancora il primo : “ dove pensa di averla persa?. E l’altro :”ho l’impressione di averla persa laggiù,  ma la cerco qui perché è l’unico posto dove si vede qualcosa!” Bellissima metafora dell’approccio classico alla conoscenza.

[5] Non è quella che qui diamo l’unica definizione che può essere data di sistema complesso.

[6] La capacità di prevedere l’evoluzione dei sistemi complessi può essere minata talvolta dall’intervento, nella catena di causa-effetto, di perturbazioni spurie difficilmente prevedibili a priori. Un esempio: è noto che una dieta ricca di grassi animali tende a favorire l’aumento del colesterolo nel sangue, e ciò fa accrescere il rischio di malattie cardiovascolari. Con una rilevante eccezione: il grasso contenuto nella carne dei pesci è ricco di un particolare antiossidante detto “omega-3”, che aiuta a inibire l’accumulo di colesterolo. Questo fenomeno è stato ampiamente pubblicizzato e nei paesi dove maggiore è l’attenzione alla prevenzione (come nei paesi scandinavi) ha prodotto un sensibile aumento del consumo di prodotti ittici. Ci si aspettava, per conseguenza, una diminuzione delle malattie cardiovascolari. Si è riscontrato il contrario: unfenomeno che può essere analizzato a posteriori, ma era pressoché impossibile da prevedere a priori. L’aumento della domanda di prodotti ittici ne ha fatto aumentare per conseguenza il costo. Ne è seguito lo sviluppo della piscicoltura, che però utilizza mangimi di origine animale, e quindi immette sul mercato prodotti che hanno perso la magica proprietà di essere ricchi di “omega-3”.

[7] Vale la pena citare, a sostegno di questa affermazione, la cosiddetta “serendipity”, neologismo anglosassone che non ha traduzione nella  nostra lingua. Serendipity è quel fenomeno – così frequente da rappresentare ormai la regola – per cui un determinato programma di ricerca dà non solo risposte diverse da quelle attese, ma dà addirittura risposte a domande diverse da quelle che l’hanno motivato. A maggior ragione, le applicazioni pratiche e le innovazioni tecnologiche prodotte dai programmi di ricerca fondamentale sono spesso in settori diversi da quelli ipotizzati in fase di impostazione della ricerca stessa.

[8] Così come i programmi di ricerca sono esposti a fenomeni di “serendipity”, i programmi di intervento sociale, politico (o militare) incorrono in analoghi fenomeni di divergenze fra cause (intenzioni) ed effetti (risultati).
Questo meccanismo (designato con la locuzione ostica “eterogenesi dei fini”) è particolarmente maligno, in quanto gli effetti indesiderati sono tanto più perversi quanto più le intenzioni erano buone.  Questa negativa correlazione è motivata – a quanto pare- dal fatto che quanto più il decisore è spinto da buone intenzioni, tanto più allenta l’analisi critica dei possibili risvolti negativi, che potrebbero , al contrario, essere minimizzati adottando a priori il criterio della cautela. Dio ci protegga dalle buone intenzioni dei potenti.

[9] V. Silvestrini, Come si prende una decisione, Roma, Editori Riuniti, 1986.

[10] Alcuni testi non specialistici che possiamo chiamare “divulgativi “ ( ma non perciò non rigorosi), in cui il lettore curioso potrà trovare approfondimenti su diversi aspetti delle questioni presentate nel presente saggio, sono:
Lucio Russo, “La rivoluzione dimenticata”, Feltrinelli (1996)
Marcello Cini, “Un paradiso perduto “, Feltrinelli, 1994
Pietro Greco, “Evoluzione “ CUEN – Città della Scienza, 1999

Comments are closed.