di Giorgio Masiero
Come Georges Lemaître, fisico e teologo, corresse Einstein da un pregiudizio metafisico e Pio XII da un fraintendimento scientifico
Nel 1493 Alessandro VI promulgò la bolla “Inter cætera” con la quale divideva il mondo nuovo tra Castiglia e Portogallo per mezzo d’un meridiano. Negli anni la prescrizione fu gradualmente dimenticata dai due stati, perché i portoghesi si considerarono penalizzati dal papa aragonese, ma soprattutto perché l’immensità del globo e la concorrenza degli altri paesi europei trovarono l’equilibrio della ripartizione coloniale con altri mezzi, i soliti della politica e della guerra. Questo non è il solo esempio d’un papa che sbaglia quando esce dal suo campo. Il beato John Newman, nella lettera al duca di Norfolk, elenca gli errori di altri pontefici, da Liberio a Gregorio XIII a Sisto V allo stesso San Pietro, di cui San Paolo scrisse riguardo ad un episodio accaduto ad Antiochia: “Mi opposi a Pietro a viso aperto, perché aveva torto” (Lettera ai Galati, II, 11). Urbano VIII invece aveva ragione nel “caso Galileo” dal punto di vista scientifico, ma errò proprio là dove non doveva, nel confondere le ragioni della teologia con quelle della fisica, oltre che le funzioni della profezia con quelle della politica: così “traspose indebitamente nel regno della dottrina della fede una domanda che appartiene alla ricerca scientifica” (San Giovanni Paolo II). Più recentemente è toccato a Georges Lemaître correggere un papa. Fu infatti questo fisico gesuita a trattenere Pio XII da ripetere l’errore, cui lo avevano indotto scienziati troppo zelanti, di usare il Big bang a prova scientifica della creazione divina, confondendo i conti paralleli e complementari che teologia e fisica fanno del mondo. Sul “conto” spettante alla teologia non tornerò qui in modo dettagliato, rinviando il Lettore interessato ad un mio passato articolo.
Non esito a definire Lemaître (Charleroi, 1894 – Lovanio, 1966), di cui CS ha ricordato lunedì i 50 anni dalla morte con un articolo di Marco Respinti, il padre della cosmologia moderna. Fu il primo infatti, nel 1927, a spiegare come effetto dell’espansione dell’universo lo spostamento verso il rosso degli spettri galattici, osservato nel decennio precedente da Vesto Slipher e da Edwin Hubble. Utilizzando un modello di universo sferico ad espansione esponenziale (oggi chiamato di Eddington-Lemaître), anticipò correttamente la legge che Hubble pubblicherà 2 anni dopo, secondo cui la velocità di fuga delle galassie lontane è proporzionale alla loro distanza dalla Terra. Se il suo nome non gode in cosmologia degli stessi onori di Einstein, Eddington, Hubble o Gamov, si deve solo al fatto che, oltre ad essere uno scienziato, era un prete.
Da giovane, dopo essersi iscritto alla facoltà d’ingegneria dell’università cattolica di Lovanio, si trasferì a fisica e matematica, dove si laureò nel 1920 con una tesi sull’approssimazione delle funzioni di più variabili reali. Seguirono 3 anni di seminario, durante i quali accompagnò l’approfondimento della fisica, in particolare della relatività generale, allo studio della teologia. Ordinato sacerdote, una borsa di studio gli consentì di andare a Cambridge, dove seguì le lezioni di astrofisica di Arthur Eddington. Di qui si trasferì nel 1925 al M.I.T. di Boston e all’Osservatorio astronomico di Harvard. Divenuto uno specialista a livello mondiale di relatività, poté giovarsi di masse di nuovi dati astronomici e delle macchine di calcolo più moderne, così da scrivere il grande articolo dell’aprile 1927: “Un univers homogène de masse constante et de rayon croissant, rendant compte de la vitesse radiale des nébuleuses extra-galactiques”.
In questo lavoro Lemaître avanzò una teoria rivoluzionaria: l’universo non è un oggetto statico, ma ebbe inizio dall’esplosione di un “atomo primordiale”. Oggi, con il Big bang diventato un concetto di consumo e confusione di massa, la cosa non fa più sensazione; molta opposizione incontrò invece allora, da Einstein e dagli altri scienziati del tempo…, fino a Fred Hoyle cui si deve l’invenzione per burla del termine “Big bang”. L’importanza monumentale di Lemaître sta nell’aver storicizzato l’universo. Per tutti i secoli prima di lui, l’idea di un’espansione cosmica fu fuori dell’immaginazione umana: l’universo fu sempre considerato fisso ed immutabile e l’idea che esso potesse evolvere era semplicemente inconcepibile. Per merito del fisico belga, anche l’universo nella sua interezza è diventato oggetto d’indagine scientifica, con il tempo a giocarvi il ruolo primario. Il 1927 fu un vero e proprio anno di svolta nella storia della scienza naturale: “Di tutte le grandi predizioni fatte nei secoli dalla scienza,” celebrò col senno di mezzo secolo dopo il fisico pluripremiato John Wheeler, “ce n’è mai stata una maggiore di questa che prediceva, e prediceva correttamente, e lo faceva contro ogni immaginazione, un fenomeno così fantastico come l’espansione dell’universo?”.
Anche il suo maestro di Cambridge, Eddington, gli espresse inizialmente “disgusto”, ma Lemaître insisté a spiegare a tutti che la sua idea non era collegata a motivazioni filosofiche o teologiche; piuttosto era la naturale conseguenza di teorie fisiche ultra corroborate come la termodinamica, la relatività generale e la nuova fisica dei quanti. L’inizio dell’universo, da non confondere con la sua origine – questa sì una questione metafisica! –, è per Lemaître semplicemente lo stato di minima entropia dove tutta la materia-energia è concentrata in un quanto. Materia, spazio e tempo nascono dalla disintegrazione progressiva d’un unico “atomo” (nel senso etimologico di oggetto inscindibile), perfettamente omogeneo, ad entropia minimale.
Il primo modello sarà negli anni modificato, da lui e dai fisici venuti dopo di lui. Oggi la formazione dei vari nuclei atomici non è più spiegata a partire dalla deflagrazione d’un uovo primigenio, ma dalla graduale condensazione d’un “brodo” di particelle elementari iniziali: quark e leptoni. Tuttavia quel modello predisse, oltre alla recessione galattica, un fenomeno che sarebbe stato osservato nel 1967, un anno dopo la morte di Lemaître: la radiazione cosmica di fondo. Con questa scoperta, che avrebbe procurato il premio Nobel ai due osservatori sperimentali (ma non in via postuma al predittore matematico di 40 anni prima), il modello del Big bang fu definitivamente sdoganato nella comunità scientifica. Lemaître assegnava la radiazione fossile direttamente alle particelle sprigionatesi nell’esplosione dell’uovo primordiale, oggi sappiamo che si tratta della radiazione elettromagnetica rilasciata dal materiale primigenio, la cui temperatura è di circa -270 °C.
Estratto dalle conclusioni dell’articolo di Lemaître del 1927. Notiamo il punto 2., da cui facilmente s’intende la non confrontabilità del modello fisico-matematico di Big bang col concetto teologico di Creazione, e il punto 3., dove per la prima volta si spiega l’osservata recessione delle galassie come effetto dell’espansione dello spazio. Tra le righe finali, leggiamo l’umile orgoglio con cui l’Autore rivendica alla propria teoria la somma dei vantaggi delle soluzioni di de Sitter e di Einstein, senza però infierire sui difetti dei precedenti modelli che contro i fatti assegnavano massa totale nulla all’universo (de Sitter) o non spiegavano affatto la recessione (Einstein). Infine notiamo l’originale affermazione che “la maggior parte dell’universo è per sempre fuori dalla nostra portata”. A Lemaître si deve dunque, anche, l’introduzione del concetto scientifico di universo osservabile.
Il modello di Lemaître più raffinato di universo è sferico, non più esponenziale ma con un’espansione distinta in 3 fasi:
- nella prima, dalla singolarità iniziale si sviluppa uno scoppio seguito da un’espansione decelerata;
- segue una fase piatta, durante la quale l’universo è simile a quello statico voluto da Einstein;
- per ultima, c’è una fase di espansione veloce.
Un “universo esitante” lo chiamò il cosmologo belga nella sua tesi di dottorato al M.I.T., oggi denominato modello di Lemaître-Tolman-Bondi, che spiegava anche la formazione delle grandi strutture cosmiche (galassie ed ammassi) come derivate da condensazione per attrazione gravitazionale della materia durante la seconda fase quasi-statica. Però, perché tale soluzione consegua matematicamente dalla relatività generale, bisogna correggere le equazioni di Einstein introducendo una costante. Al genio recalcitrante, Lemaître replicò che la costante, oltre che necessaria all’astronomia di Hubble, era giustificata dalla natura quantistica dei momenti iniziali. Oggi sappiamo che Lemaître aveva ragione ed Einstein torto: la costante cosmologica è divenuta uno standard delle equazioni della relatività generale ed il suo valore è interpretato come l’energia del vuoto quantistico.
Le discussioni tra Lemaître ed Einstein furono in ogni caso molto feconde. In seguito ad una di queste, il prete cosmologo arrivò a dimostrare che l’anisotropia e l’inomogeneità immaginate da alcuni fisici, “soprattutto sovietici” (Stephen Hawking), nello sforzo metafisico di rimuovere l’inizio del tempo con universi oscillatori fatti di fasi alterne di espansione e di collasso (modelli Big bang – Big crunch), non hanno efficacia: permane in tutti almeno una singolarità spazio-temporale. Lemaître precedette così anche Roger Penrose e Hawking nei loro famosi teoremi, dove si prova che, sotto larghe condizioni, le singolarità non sono eliminabili.
Egli dovette le sue scoperte di fisica al fatto di padroneggiare in modo formidabile la matematica. Di fatto, nel calcolo numerico era in anticipo sui tempi, sia nella teoria matematica che nella tecnologia delle macchine di calcolo. Per esempio, fu uno degli inventori dell’FFT, la tecnica moderna della trasformata di Fourier veloce. Quanto alle macchine, fin dagli anni ’30 aveva utilizzato un calcolatore analogico messo a punto al M.I.T., capace di risolvere numericamente e anche di disegnare le soluzioni dei sistemi di equazioni differenziali. Dopo la seconda guerra mondiale, a Lovanio usò macchine elettro-meccaniche (i primi moderni computer) con cui determinò, tra l’altro, le frequenze e i modi di vibrazione della molecola di monodeutero-etilene. Cosicché Lemaître può considerarsi anche uno dei primi programmatori europei.
Pubblicò inoltre bellissimi articoli – che ricordo avendoli letti durante la preparazione della tesi di laurea – riguardanti una generalizzazione della forma quaternionica data da Eddington all’equazione di Dirac dell’elettrone. In questa forma l’equazione appare invariante sotto l’azione del gruppo di spin associato al gruppo pseudo-ortogonale SO(3,3). Questo studio e l’attenta lettura delle opere del grande matematico Cartan lo portarono ad interessarsi alla teoria degli spinori, sia matematicamente che storicamente.
Lemaître fu un prete profondamente attaccato alla sua fede. Era membro d’una fraternità sacerdotale, “Gli Amici di Gesù”, che impegna ad una vocazione vissuta radicalmente nel rispetto dei voti. Ma tenne sempre separate la fisica dalla teologia nel metodo e nel lavoro, se non nell’anima (ciò che sarebbe impossibile). In particolare, nessuna confusione mai ammise tra la singolarità fisico-matematica dei momenti iniziali del cosmo, che appartiene alla scienza naturale, e la creazione divina, che appartiene alla Rivelazione. Nel 1951, Pio XII, in un’allocuzione all’assemblea della Pontificia Accademia delle Scienze, aveva citato una frase del fisico Edmund Whittaker che accostava il Big bang alla Genesi commettendo l’errore uguale ed opposto degli scienziati che mettono i due racconti in contraddizione. Lemaître non era presente, ma qualche tempo più tardi intervenne presso il pontefice e questi, in tutti i suoi discorsi successivi, non collegherà più il Big bang alla Creazione.
C’è una questione grande come una montagna – anzi di più: grande come il mondo intero – che affiora ogni volta che si parla di Big bang: risalendo indietro fino all’atomo primordiale, alla singolarità iniziale, che cosa accadeva prima dell’espansione?La risposta standard della fisica è: “Nulla”. Lo spazio era chiuso intorno all’uovo e nulla succede dove non c’è lo spazio in cui possa succedere, spiegano i fisici in coro. Né il tempo ha alcun significato in un mondo perfettamente statico com’è quello dell’atomo primordiale, aggiungono ineccepibilmente. Si comincia a contare il tempo quando lo spazio comincia a formarsi. E da 14 miliardi di anni lo spazio si espande, si formano le stelle, ecc., ecc. Tale è il racconto ufficiale della fisica, che ho più volte riferito, l’ultima volta in questo articolo.
Questo nulla accaduto fino al Big bang è tuttavia una sentenza un po’ presuntuosa, mentre la risposta corretta in bocca ad uno scienziato dovrebbe essere: “Non sappiamo”. È vero che in base alla relatività generale lo spazio e il tempo si dipanano a partire dall’espansione e che pertanto non abbiamo un prima da misurare con l’orologio; tuttavia nemmeno abbiamo il diritto di ritenere che nello stato embrionale la relatività generale sia corretta… La verità dunque è che “Non sappiamo”. Purtroppo, caro Lettore, incontrerai ai nostri giorni pochi scienziati sufficientemente onesti da dare in pubblico questa risposta.
.dal sito Critica Scientifica
la scienza ha la sua mitologia
di Giorgio Masiero
La scienza si oppone al mito, o piuttosto alcune sue teorie si basano su principi che altro non sono che nuovi miti?
Il mito, dagli albori dell’umanità, non è mai stato una favola per bambini, ma lo strumento con cui un popolo ordina la realtà, che altrimenti gli apparirebbe un turbinio d’immagini senza senso, e così può abitare il mondo, organizzare le sue istituzioni e crearsi un’identità. Nel racconto di come ebbero origine gli astri e la terra, le piante, gli animali e gli uomini, e di quali eroi abbiano istituito le regole della società in cui si trova a vivere, un popolo trova il suo posto nel mondo. Il mito (dal greco mýthos, racconto sacro) è la narrazione intoccabile della storia passata e presente d’un popolo, ed anche del futuro che immagina per sé. La scuola e i media invece, inseguendo Comte, c’istruiscono ad attribuire l’origine e la persistenza del mito all’ignoranza dell’uomo antico che, succube dell’incontrollabilità delle forze naturali, si sarebbe rifugiato in esso per sfuggire all’ansia e al terrore. Oggi non è più così, canta la dottrina “positiva”: noi viviamo nell’età moderna, l’ultimo stadio della storia in cui la scienza, dandoci la vera conoscenza della realtà e il dominio sulla natura, rende obsoleto il mito e discioglie le identità etniche nell’umanità globalizzata.
La scienza come opposizione al mito, ci dicono: ma è davvero così? o piuttosto anche gli scienziati possono essere moderni vati, cantori di narrazioni atte a interpretare l’esperienza secondo lo Zeitgeist? Sta alla filosofia il giudizio sulla scienza e i suoi principi, che sono gelosamente custoditi dagli esperti. In questa operazione di “disvelamento” (che è la parola greca per verità, à-létheia, e tramanda l’insegnamento che la verità si cela e che per intravederla occorre incidere la superficie), la scienza è spogliata dell’aura magica e torna ad essere un artefatto umano come altri.
Un’occhiata alla storia politica, economica e tecno-scientifica dell’Occidente dimostra che alcuni pochi miti, i cosiddetti paradigmi kuhniani, precedono la scienza in epoca moderna, proprio come altri la precedevano in antichità (e altri ancora la precederanno in futuro). I miti eccedono la dottrina, così come le cause comprendono gli effetti e gli originali le copie. E la scienza non libera dal mito, ma con la potenza della tecnica v’immerge i suoi cultori fino a non vederlo, in esso risiedendo la perla del mistero come nel naòsdel tempio. Cosicché tutti, credenti e non, costruttori e iconoclasti, saggi e folli, abbiamo i nostri miti, anche chi nega di averne. Solo abbiamo miti diversi, più e meno coerenti, ed una diversa o nulla consapevolezza di possederli.
I grandi miti della scienza moderna sono tre: il meccanicismo, l’evoluzionismo e l’emarginazione dell’umano. E, altrettanto degli dei di Omero, sono inconsistenti e utili soltanto alla conservazione sociale.
Il meccanicismo è l’idea donataci da Cartesio d’un mondo-macchina fatto come un orologio, che era nel ‘600 la macchina per antonomasia. Per il meccanicista ciò che la scienza osserva è pura materia, res extensa, le cui parti interagiscono attraverso forze attrattive o repulsive e dove il moto complessivo è stabilito dalla disposizione delle parti. Il successo del riduzionismo meccanicistico è stato spettacolare: dalla pubblicazione dei “Philosophiae Naturalis Principia Mathematica” (1687) di Newton fino agli inizi del XX secolo, esso fu considerato la chiave per aprire i cassetti dei segreti della natura, dal moto degli astri al funzionamento degli atomi. Lo schema si è esteso ben oltre la meccanica, fino ad abbracciare l’elettromagnetismo prima e la fisica dei quanti poi, anche se né l’uno né l’altra possono essere rappresentati in termini meccanici. Neanche la rivoluzione di Einstein, che buttò all’aria gli assiomi di Newton, ha ammazzato il paradigma: la relatività descrive, per mezzo di un sistema di equazioni differenziali, un universo che è ancora parzialmente meccanico in quanto predicibile come un meccanismo.
La falsificazione definitiva del meccanicismo si è avuta solo con la meccanica quantistica, che – a riprova della validità di un mito più antico, quello platonico della caverna – è chiamata “meccanica” anche se non è una meccanica. Le coordinate e le velocità, che nella fisica classica erano numeri determinati univocamente (almeno in linea teorica) dalle equazioni del moto, diventano in fisica quantistica operatori che, dalle canoniche regole di commutazione, estraggono solo una conoscenza probabilistica delle osservabili del sistema e della loro evoluzione temporale. Il vuoto quantistico poi – un ente dotato di proprietà fisiche, ma privo di struttura spazio-temporale – annacqua i concetti di corpo isolato, località e causalità. Attraverso il vuoto, la storia dell’universo invischia tutti i fenomeni (entanglement), in particolare quelli compresi nella zona mesoscopica della biologia, dove le condizioni al contorno pesano come le leggi d’invarianza. Non che la fisica quantistica dei campi sia l’ultima parola: c’è tanto lavoro da fare per i giovani fisici teorici che vogliano eliminare la sua incoerenza con la relatività generale e rimediare al disastro dell’attuale discrepanza tra teorie e dati, ma è pacifico che un ritorno al meccanicismo è escluso.
Il secondo mito, quello evoluzionistico, ha avuto invece una storia di fallimenti fin dall’inizio, perché non ha mostrato alcuna capacità predittiva, né applicativa. Esso è un caso unico nella storia della scienza naturale per questa sua nullità epistemica, tecnologica ed economica. Come si spiega che un postulato metafisico, ammantato di vesti scientifiche, abbia goduto di così calorosa e duratura accoglienza in ambito accademico? Darwin partì dall’ipotesi che le specie esistenti derivino da una o poche specie primitive attraverso catene di discendenza estesesi per milioni di anni. Anche tralasciando i meccanismi attraverso cui si sarebbe prodotta la differenziazione, è chiaro che Darwin concepì l’evoluzione biologica come un processo graduale che coinvolse innumeri forme intermedie, molte se non la maggior parte delle quali dovrebbe essere registrata nei reperti fossili. Invece, eccezion fatta per una manciata di campioni molto dubbi, non c’è traccia di tipi intermedi. Stephen J. Gould abbandonò il continuismo darwiniano proprio per questa ragione: “La maggior parte delle specie non mostrano alcuna mutazione durante la loro esistenza sulla terra. Esse appaiono nei reperti fossili sempre uguali a quando spariscono; i cambi morfologici sono solitamente limitati e senza una direzione”. Normalmente in scienza sperimentale questa lacuna basterebbe a falsificare il mito, e già Darwin si era rassegnato all’eventualità, in assenza di nuove scoperte fossili… Non Gould però, che rimase darwinista fino alla morte, né la biologia maggioritaria dei nostri giorni, secondo cui il “fatto” dell’evoluzione sarebbe accaduto a tal velocità ed in così specialissime condizioni che le forme intermedie sarebbero sparite senza lasciare traccia. L’evoluzionismo passa l’esame di Popper come i raccomandati i test di ammissione: non gli è permesso di fallire!
Matematicamente poi, l’evoluzione “si sostiene su dozzine e dozzine di migliaia di miracoli” (Marcel-Paul Schützenberger). Lo capisce anche un bambino. Consideriamo il flagello batterico, una sorta di remo usato dai batteri per muoversi nell’acqua e mosso da una macchina rotatoria molecolare alimentata da un acido. A seconda del microbo, il funzionamento coinvolge diverse decine e anche centinaia di tipi di proteine, che devono essere tutte presenti contemporaneamente al loro posto di lavoro perché il flagello svolga la sua funzione. Questo è l’esempio più “semplice” di ciò che Schützenberger chiamava “complessità funzionale”: un sistema organizzato di molte componenti, interagenti tra loro così da svolgere una funzione e tali che la mancanza di una sola componente impedisce al sistema di svolgerla. Questa nozione è cruciale per capire perché il darwinismo è un insieme infinito di miracoli. Tuttavia essa non avrà alcun peso per un darwinista, perché il mito è l’ultima cosa cui un uomo può rinunciare.
Naturale quindi che la Società italiana dei biologi evoluzionistici scelga a presidente non un ricercatore di un laboratorio chimico-biologico e nemmeno un fisico o un matematico, ma un filosofo con spiccate doti divulgative. I miti quanto più sono implausibili tanto più reclamano retori affabulatorî. E si capisce che i dipartimenti di biologia organizzino per gli studenti lezioni tenute da un giornalista, fan di Tolkien e scrittore di fantascienza. Per questo romanziere, l’idea di anelli mancanti nella catena fra le grandi scimmie e l’uomo è “ingannevole”, fraintende il “funzionamento vero” dell’evoluzione e, infine, supporta tutta “una serie di narrazioni errate sul posto che l’uomo occupa nell’universo”. Le peculiarità dell’essere umano dal bipedismo al linguaggio simbolico sarebbero tutti “errori” di trascrizione del DNA e l’evoluzione accaduta sarebbe stata solo una possibilità tra tante equiprobabili: “la Verità” – con la V maiuscola, precisa questo Signore degli anelli mancanti – starebbe nel “tempo profondo dell’evoluzione, un infinito corridoio buio, senza alcun segno che marchi una scala di riferimento” e dove può succedere di tutto. Compresa la serie di miracoli, chioso io, che non sono fatti accaduti in un “infinito corridoio buio”, ma fantasie assegnate ad un intervallo finito di 10^17 secondi, misurato dalla paleontologia e dalla fisica del carbonio.
Il terzo mito della scienza sta nel nocciolo del Principio cosmologico. Le equazioni della relatività e i dati astronomici non sono sufficienti a determinare la struttura globale dell’universo fisico, ne uscirebbero infiniti mondi diversi. Servono ipotesi addizionali, se vogliamo disporre di ufficiali incaricati di narrare la genesi “scientifica” del mondo reale in cui abitiamo. Seguendo Einstein, questi ufficiali, titolati cosmologi, adottano il postulato di uniformità spaziale nella distribuzione della materia. Ovviamente non un’uniformità rigorosa: qua c’è una stella (con la sua densità), là un pianeta (con un’altra densità), qua c’è un buco nero (con un’altra, altissima densità) e là il vuoto (con densità quasi pari a zero). Ma su larga scala, in media, essi predicano che il cosmo è come un gas di molecole, con una densità costante di tanti grammi per metro cubo. È questo “il vero Principio copernicano” – come lo chiamò il cosmologo Hermann Bondi – e non la storiella che s’insegna ai bambini sulla Terra che gira intorno al Sole. Ed è chiamato copernicano con piena ragione perché, anche se Copernico non sapeva nulla di densità spaziale media della materia, esso costituisce l’ultimo ripudio del geocentrismo e così porta a termine la rivoluzione intrapresa a suo tempo dal canonico polacco su… osservazioni astronomiche? No, su assunzioni teologiche neoplatoniche.
Altrettanto metafisiche sono le origini del Principio cosmologico: se l’universo a grande scala è dichiarato privo di struttura e di organizzazione e soggetto solo a fluttuazioni locali rispetto alla sua densità media come se fosse un gas, ciò non è la fine d’una catena di deduzioni derivanti dalle osservazioni astronomiche, ma è il principio – il Principio fondamentale della cosmologia – con cui la teoria interpreta i dati.
Quando Telmo Pievani, nella sua lettera aperta del 2013 a Enzo Pennetta, scrisse che “il non senso dell’evoluzione, cioè la sua mancanza di una direzione finalistica, appare a mio avviso limpidamente dalle conoscenze scientifiche attuali”, fece la stessa confusione tra ipotesi iniziali e conclusioni finali: l’ipotesi sposata dai darwinisti che il motore dell’innovazione biologica sia il caso implica necessariamente la conclusione del “non senso dell’evoluzione”. Le tesi che certi filosofi, biologi e cosmologi proclamano di dimostrare, non sono altro che le ipotesi da cui sono partiti e ciò che credono di ricavare dalle “conoscenze scientifiche” proviene soltanto dai loro pre-giudizi.
Einstein propose di estendere anche al tempo il principio di uniformità. Accortosi poi che le equazioni di campo non ammettono la stabilità d’un universo a-temporale, eterno, che collasserebbe invece sotto la gravità, le corresse con un termine addizionale, la costante cosmologica Λ. Presto però, un matematico sovietico e un prete belga dimostrarono indipendentemente l’esistenza di soluzioni del campo senza bisogno di costanti ad hoc, ma semplicemente lasciando variare nel tempo la densità della materia. I due avevano predetto l’espansione dell’universo, un cosmo della specie Big bang, e pochi anni dopo Edwin Hubble corroborò la predizione con osservazioni al telescopio. Einstein rinunciò allora al copernicanesimo temporale, scartò la costante cosmologica (“il più grande errore della mia vita”) e si adattò all’idea d’un universo iniziato ad espandersi una quindicina di miliardi di anni fa da una singolarità iniziale.
Non passò molto tempo però, che anche il copernicanesimo spaziale si scontrò coi dati. Oggi il divario tra teoria e osservazioni è diventato abissale, se Halton Arp – un astronomo restio a digerire teorie in contrasto con i dati – può dire: “I cosmologi trascurano le osservazioni che si sono andate accumulando negli ultimi 25 anni e che ora sono divenute schiaccianti”. Per esempio, si osservano galassie separate da miliardi di anni luce e si misurano velocità relative di allontanamento così basse che sarebbero richiesti centinaia di miliardi di anni – decine di volte l’età stimata dell’universo – per produrre quelle separazioni, se fosse vero il principio di densità uniforme. Un’altra difficoltà: non c’è sufficiente materia nell’universo per generare campi gravitazionali abbastanza forti da spiegare la formazione e la persistenza delle galassie.
Tali incongruenze sono superate dai cosmologi con trucchi che peggiorano le cose. Il problema è che essi non possono rinunciare al principio copernicano, pena la sopravvivenza della cosmologia. Come Kuhn ha bene spiegato, la prima preoccupazione della scienza ufficiale è di preservare il paradigma, di proteggerlo per così dire dai dati ostili. Cosa si fa allora se non c’è abbastanza materia nell’universo? La s’inventa, introducendo qualcosa di misteriosissimo chiamato materia oscura, una sostanza che non interagisce con i campi elettromagnetici e che di conseguenza risulta invisibile. La materia oscura è il provvidenziale god of the gaps che alza il campo gravitazionale ai livelli necessari a salvare il mito…, e con esso i posti di lavoro. Che poi non una particella di materia oscura sia mai stata osservata non importa. Se fosse osservabile, non sarebbe “oscura”, giusto? Anzi, si è costretti ad introdurre un secondo mistero doloroso, l’energia oscura, stavolta per spiegare l’accelerazione con cui l’universo si espande. Col risultato finale che il 95% di tutta la materia-energia dell’universo diviene “oscura”. Non è ironico che la scienza degli umani pretenda di parlare in nome di tutto l’universo trovandosi a rappresentare appena il 5%? Più antropocentrismo di questo…
A parlare per il convitato di pietra “oscuro”, la cosmologia copernicana resuscita Λ: così, la costante cosmologica prima introdotta dal panteismo di Einstein per narrare un universo senza storia e poi rimossa dall’osservazione di Hubble di un universo con storia, è ora reintrodotta per salvare il paradigma. Una servizievole duttilità, se si pensa che la prima volta Λ doveva servire ad evitare il collasso dell’universo ed ora, con un triplo salto mortale sulla 125ma cifra decimale, fa il servizio opposto di espandere l’universo senza però che le galassie si allontanino troppo.
Il principio copernicano è intimamente connesso con l’ideologia imperante di emarginazione dell’umano. Così nonostante le falsificazioni lo si conserva, anzi lo si estende, come un giocatore accanito che dopo ogni partita persa alza la posta: l’ultima versione è il principio di densità uniforme in media di vita nello spazio, cioè la credenza in un universo pullulante di specie aliene rispetto a cui l’intelligenza della razza terrestre si troverebbe a metà strada. Non importa che in 43 anni il programma SETI patrocinato dalla Nasa abbia dato esito zero, né che nessuno abbia mai incontrato un ET fuori dai set di Hollywood: la prova dell’esistenza di extraterrestri intelligenti è, ha annunciato trionfante un giornalista scientifico al telegiornale qualche giorno fa, che la CIA si occupa di Ufo da decenni. Come dire che la decisione USA d’intraprendere la seconda guerra del Golfo è la prova che Saddam possedeva armi di distruzione di massa.
E se noi uomini siamo una specie d’intelligenza mediocre in un universo popolato (al 33% ostile, per le leggi della probabilità), è giusto che lavoriamo a costruire macchine che ci superino ma al cui servizio possiamo sopravvivere. Che cos’è il transumanesimo in fondo, se non il super-mito che condensa in sé meccanicismo, evoluzionismo e copernicanesimo? Se poi le macchine non potranno mai avere sensibilità e coscienza, poco importa: in un’evoluzione decretata senza direzione, il sorpasso della macchina sull’uomo può avverarsi anche verso il basso, con persone deprivate di umanità e sempre più schiave della tecnica.
.dal sito Critica Scientifica
La scalata al “monte improbabile”. Il Finalismo cacciato dalla porta rientra dalla finestra
By Enzo Pennetta on 2 giugno 2011
“Il darwinismo è una teoria di processi cumulativi così lenti da richiedere, per completarsi, da migliaia a milioni di decenni”
“La selezione naturale, il processo cieco, inconscio, automatico che fu scoperto da Darwin e che, come noi oggi sappiamo, è la spiegazione dell’esistenza e della forma apparentemente finalistica di ogni essere vivente, non ha in vista alcun fine“.
Queste due affermazioni tratte dal libro “Orologiaio cieco” di Richard Dawkins contengono i principi fondamentali della teoria sintetica dell’evoluzione o neodarwinismo: l’assoluta casualità delle mutazioni e i tempi molto lunghi affinché le stesse possano produrre cambiamenti positivi.
Ma cosa s’intende per tempi lunghi?
È lo stesso Dawkins a fornirci un caso specifico su cui effettuare un calcolo, si tratta di quello che venne definito da Isaac Asimov il “numero dell’emoglobina”. L’emoglobina è la proteina, presente nei globuli rossi, quella che veicola l’ossigeno nel sangue conferendo allo stesso tempo il caratteristico colore rosso. Una proteina è una catena i cui anelli sono costituiti da elementi chiamati aminoacidi, nel caso dell’emoglobina la sua lunghezza è di 146 aminoacidi. Come tutto ciò che riguarda la biologia, secondo la teoria neodarwiniana, anche l’emoglobina è il risultato casuale di un lento processo cumulativo del quale lo stesso Asimov indicava la probabilità che si verificasse. Il calcolo delle probabilità è espresso da una potenza che ha come base il numero di differenti aminoacidi utilizzabili e come esponente il numero di anelli della catena da costruire.
Per fare un esempio, il numero di possibili parole di 4 lettere che si possono comporre con i 21 segni dell’alfabeto italiano è dato da: 21^4 = 194.481
La probabilità di comporre casualmente la parola “caso” spingendo 4 volte su 21 tasti è dunque una su 194.481.
Nel caso proposto da Asimov il numero di combinazioni possibili per costruire l’emoglobina è espresso da: 20, cioè il numero degli aminoacidi a disposizione, elevato alla 146, il numero degli “anelli” che costituiscono la catena = 20^146.
Espresso in base dieci tale numero corrisponde a circa 10^190. Al riguardo Dawkins afferma: “La fortuna che si richiederebbe per ottenere questo risultato è inimmaginabile.” e non si può che essere d’accordo con questa considerazione.
Per renderci conto della “fortuna” che bisognerebbe avere, possiamo fare il seguente calcolo: quanti secondi sono passati dall’inizio dell’universo e, nell’assolutamente ipotetico caso in cui potessimo tentare una combinazione al secondo (ammettendo l’ipotesi che nessuna combinazione sia uscita casualmente due volte), quante combinazioni avremmo potuto provare sinora ?
Moltiplicando: i 3600 secondi contenuti in un’ora per le 24 ore del giorno, per i 366 giorni circa di un anno (per eccesso), per i 14 miliardi di anni passati dal Big Bang, risultano trascorsi, (arrotondando ancora per eccesso), 10^18 secondi dall’inizio dell’universo.
Nell’ipotesi che dalla nascita dell’universo si fosse potuta provare una combinazione al secondo (questa ottimistica supposizione propone una velocità talmente elevata da essere del tutto irreale, incompatibile con l’assunto della prima frase “Il darwinismo è una teoria di processi cumulativi così lenti da richiedere, per completarsi, da migliaia a milioni di decenni”), per sapere quante combinazioni dovremmo ancora tentare prima di esaurirle tutte dovremmo sottrarre dalle combinazioni totali 10^190 la quantità di quelle provate 10^18.
Il risultato visibile sulla calcolatrice sarebbe ancora 10^190 in quanto la sottrazione avrebbe solo intaccato in modo impercettibile la quantità iniziale e il display non riuscirebbe visualizzare la differenza. Il numero resterebbero quindi ancora 10^190 combinazioni da provare, il che, sempre ad una combinazione al secondo, richiederebbe un tempo pari a poco più di 10^172 volte l’età dell’universo.
Anche ipotizzando che esistano diverse combinazioni di 146 aminoacidi, equivalenti dal punto di vista funzionale, la questione non cambia di molto, infatti ammettendo che ad esempio esistano 1000 tipi varianti di emoglobina, e tutti ugualmente funzionanti, la probabilità di trovarne uno “migliora” di 10^3 portando le combinazioni da provare a “solo” 10^187.
Come suggerisce Dawkins di superare questa difficoltà ? Dawkins ricorre al concetto di selezione cumulativa, il suo ragionamento è il seguente: “Nella selezione cumulativa, invece, esse (le entità selezionate) «si riproducono» , o in qualche altro modo i risultati di un processo di cernita vengono sottoposti ad un altro processo di cernita…”
Il concetto di selezione cumulativa, che poi sarebbe realizzata dalla selezione naturale, viene chiarito con il seguente esempio:
Se una scimmia dovesse battere casualmente a macchina la frase di Shakespeare “Methinks it is like a weasel” (“O forse somiglia a una donnola”), essendo la frase composta da 28 caratteri, ed essendo l’alfabeto inglese composto da 27 lettere, le possibili combinazioni di 27 lettere in una frase di 28 lettere (compresi gli spazi) sarebbero espresse da: 2728.
A questo punto Dawkins inserisce un computer che “seleziona” frasi mutanti che più si avvicinino alla frase originale: “Il computer esamina le frasi mutanti nonsense, la “progenie” della frase originaria, e sceglie quella che, per quanto poco, assomiglia di più alla frase bersaglio…”
Per poter completare la frase in un numero ragionevole di tentativi lo scienziato inglese introduce quella che definisce una “frase bersaglio” e un computer che conosce in anticipo la frase che deve essere composta, il che inserisce il finalismo nella teoria.
L’unico modo per evitare il finalismo è quello di ammettere che le frasi debbano essere scelte mediante la selezione naturale, ma il fatto che le frasi intermedie siano dallo stesso Dawkins definite “nonsense” esclude che esse possano essere premiate dalla selezione naturale.
Ecco la contraddizione di Dawkins: si parte da un “il processo cieco, inconscio, automatico” e per renderlo possibile nei dodici miliardi di anni dall’origine dell’universo si finisce per postulare un “computer” e una “frase bersaglio” che negano il processo cieco da cui si era partiti.
Se invece si volesse mantenere un processo cieco, si dovrebbe ipotizzare un’età dell’universo del tutto incompatibile con quella stimata dalla comunità scientifica.
In matematica quando si parte da un assunto e questo conduce ad una contraddizione, si giunge alla conclusione che l’assunto iniziale era errato. Questo procedimento viene detto “dimostrazione per assurdo”.
La vita dell’universo è troppo breve per poter ammettere che abbia potuto verificarsi una dinamica neodarwiniana per la quale i circa 14 miliardi di anni stimati dagli astronomi sono insufficienti, esattamente come lo sono i 12.000 dei fondamentalisti creazionisti: credere che le circa centomila proteine del corpo umano siano state prodotte e assemblate casualmente in un ecosistema complesso nel corso della vita dell’universo richiede un atto di fede superiore a quello dei creazionisti stessi.
La scienza dovrebbe compiere un gesto di umiltà e riconoscere che riguardo all’origine della vita e delle specie sfugge ancora qualcosa di fondamentale.