La nostra visione del mondo

Cenni di cultura fisica contemporanea

Non è certo facile riassumere in poche pagine le innumerevoli forme in cui la scienza e la tecnologia si sono sviluppate ai nostri giorni; da Galileo ad oggi la fisica ha fatto passi da gigante, per non parlare di discipline quali la medicina e la chimica. Tutto ciò, se ha avuto ripercussioni profonde dal lato sociale ed economico, cambiando molto il nostro stile di vita, d’altro canto non ha mancato di modificare notevolmente il nostro modo di percepire l’universo fisico. Tali implicazioni si estendono ben oltre l’ambito strettamente scientifico ed investono tutta la cultura del XX secolo, compresa l’area della filosofia. In particolare poi, si è avuto uno sviluppo ed una differenziazione notevolissima nei campi di indagine di ogni singola area di studio. Dalla sinergia fra le ricerche sperimentali ed elaborazione di concetti teorici è risultata, agli albori del secolo, una profonda revisione di concetti ed idee ritenuti solo fino a poco prima ormai saldamente consolidati.

Per motivi di spazio e per evitare banalizzazioni, mi limiterò a presentare alcune delle tappe fondamentali raggiunte nel ventesimo secolo nel campo della fisica, una delle aree di studio che, per il suo carattere di universalità e per ciò che rappresenta nel mondo di oggi, anche per le considerevoli applicazioni tecnologiche, ben rappresenta ciò che è stato lo sforzo culturale del ventesimo secolo. Non a caso alcune delle rivoluzioni più profonde del pensiero moderno sono partite proprio da essa.

Esempio classico è la rivoluzione dei concetti di tempo e di spazio, già indicati come “forme a priori” da Kant e la cui assolutezza era stata affermata perfino da Newton, provocata da un tranquillo impiegato dell’ufficio brevetti di Berna di nome Albert Einstein. Nel 1905 egli pubblicò su di un unico numero della autorevolissima rivista Annalen der Physik tre articoli, uno sull’effetto fotoelettrico, uno sul moto browniano (che rendeva quasi tangibile l’esistenza degli atomi) ed il terzo “sull’elettrodinamica dei corpi in movimento”, ognuno dei quali da solo sarebbe bastato a farlo entrare nella storia del progresso scientifico... In questo articolo in particolare, Einstein “butta fuori dalla finestra” il concetto di etere, introdotto dai fisici alcuni decenni prima per spiegare la propagazione dei campi elettromagnetici, che stava creando molti problemi di difficile risoluzione, soprattutto in seguito a risultati inaspettati ottenuti da esperimenti come quello di Michelson e Morley.

 Il problema principale era fondamentalmente quello di mettere d’accordo la relatività galileiana con le leggi dei campi elettromagnetici, che erano espressi nelle quattro celeberrime equazioni formulate da Maxwell negli anni sessanta del XIX secolo. E’ possibile ottenere difatti da queste ultime il valore c della velocità di propagazione dei campi; tuttavia, una velocità deve venir espressa in relazione ad un sistema di riferimento e qui, di riferimenti, non ve n’è traccia alcuna! Uno degli espedienti per risolvere questa apparente contraddizione fu l’introduzione del concetto di etere, che, al pari di un mezzo meccanico, doveva permettere la propagazione della luce; tuttavia, con il passare degli anni, l’etere stava diventando un qualcosa di sempre più artificioso e complesso, comprendendo aspetti anche in palese contraddizione fra loro.  Se noi stiamo viaggiando in macchina di sera ad una certa velocità v, ci aspetteremmo intuitivamente che, incontrando un’altra macchina che viaggi in senso opposto con velocità v1, a causa della velocità relativa fra i due veicoli, la luce dei suoi fari ci venga incontro con una velocità c+v+v1, dove c rappresenta la velocità della luce. Partendo da un’idea simile, Michelson e Morley pensarono di misurare questa differenza con tecniche interferometriche molto accurate, scegliendo però al posto di un’automobile la terra, che compie il suo moto di rivoluzione attorno al sole con una velocità di 30 km/s, aspettandosi di trovare una sensibile differenza tra le velocità di propagazione di due fasci di luce, uno orientato in direzione del moto (rallentato dal moto terrestre), ed uno ad esso perpendicolare. I risultati tuttavia hanno rappresentato un vero enigma per i fisici della fine del XIX secolo: supponendo che la terra non sia ferma rispetto all’etere, non è difatti possibile determinare alcun moto della terra relativo a quest’ultimo...

Il lavoro di Einstein parte da due principi a prima vista innocui e da essi enuncia quella che verrà poi chiamata Relatività ristretta (o speciale), riferita ai sistemi di riferimento su cui non agiscano campi gravitazionali od accelerazioni:

Partendo da questi due semplici presupposti, egli smantellò dapprima il concetto di tempo assoluto e di contemporaneità ed introdusse una generalizzazione della relatività galileiana, utilizzando le trasformazioni di Lorenz, giustificate e dimostrate da un punto di vista fisico con semplici operazioni geometriche. Inoltre, stabilì una corrispondenza fra la massa e l’energia attraverso la sua celeberrima formula E=mc2 (il "2" è all'esponente!). Se, per la verità, la relatività ristretta era già nell’aria (Poincaré era difatti arrivato a conclusioni simili), lo stesso non si può dire a proposito della teoria generale formulata dallo stesso Einstein nel 1916; essa richiede infatti per la sua costruzione mezzi matematici (e soprattutto geometrici) molto più raffinati, come l’algebra tensoriale, da poco sviluppati da matematici quali Riemann e Levi-Civita ed ancora relativamente sconosciuti.

Il punto era giungere ad una generalizzazione ancora più spinta sulla scelta dei sistemi di riferimento che non indicasse come privilegiati quelli in moto relativo uniforme, ma che comprendesse i fenomeni gravitazionali e le accelerazioni.

Le conclusioni sono molto più raffinate del precedente lavoro e non furono comprese totalmente dai fisici di inizio secolo fino a diversi anni dopo, quando Einstein vinse il Nobel nel 1922 (per i fondamentali contributi a quella che diverrà la meccanica quantistica) e divenne improvvisamente popolarissimo anche in ambiti al di fuori di quello scientifico.

Dopo duecento anni, nasceva dunque una nuova teoria gravitazionale, che comprendeva quella newtoniana come caso particolare alla quale necessitava, per essere consistente, l’applicazione della congettura dell’inverso dei quadrati; il passo in avanti fu inconcepibilmente grande.

Una delle prime conferme sperimentali, dopo la spiegazione della precessione (od avanzamento)  del perielio di Mercurio ormai noto da parecchi decenni, ma non spiegabile con la teoria della gravitazione universale, venne nel 1919, con la misurazione della deviazione dei raggi luminosi di alcune stelle fotografate in prossimità del sole durante una eclisse. Anche se i risultati sperimentali si dimostrarono non proprio affidabili, la coerenza con la teoria appariva mirabile.

Molti anni dopo, nel 1979, fu osservato per la prima volta un effetto di lente gravitazionale, ossia un quasar doppio che appare tale solo perché la sua luce ci giunge deflessa dall’interazione gravitazionale dovuta ad una galassia frapposta lungo la visuale; oggi si conoscono diversi oggetti celesti che presentano questo fenomeno.

Fondamentalmente, Einstein introduceva il campo gravitazionale come una modificazione non euclidea dello spazio, che veniva incurvato dalla presenza di massa-energia. La pubblicazione della Relatività generale segnò la nascita della moderna cosmologia, che vide un’altra vera e propria rivoluzione con la scoperta negli anni venti da parte di Hubble della recessione delle galassie e del red-shift della radiazione elettromagnetica. Lo spazio, incurvato su se stesso assume la forma di una ipersfera (sfera quadridimensionale) che si espande continuamente a velocità immense, senza che vi sia un punto centrale rispetto a cui tale espansione avvenga. Ancora oggi, le questioni relative alla cosmologia non si sono esaurite e molti punti incerti devono essere chiariti, come la presenza di materia oscura, ossia non osservabile direttamente, ma i cui effetti gravitazionali si fanno sentire. Un’eventuale massa non nulla del neutrino, prevista da alcune teorie ed oggetto di indagini sperimentali che non hanno ancora fornito risultati conclusivi, potrebbe forse dare una spiegazione coerente a questo problema ed ad altri inerenti la struttura delle stelle (deficit di neutrini solari osservati).

Un’altra rivoluzione parallela a quella della relatività è, dapprima, la scoperta nel 1900 da parte di Max Plank del quanto d’azione e, successivamente, lo sviluppo della meccanica quantistica, che spiega con mirabile precisione il comportamento dei fenomeni che avvengono su scala atomica e subatomica. Poche scoperte sono state sofferte come quella di Plank il quale, di formazione classica, aveva dovuto ipotizzare la quantizzazione dell’energia in un fondamentale studio sulla radiazione di corpo nero, uno dei problemi contro cui da anni i fisici sbattevano il capo. Il quanto d’azione veniva introdotto da Plank quasi come un artificio matematico per eliminare degli infiniti ed ad esso il suo scopritore non osava quasi attribuire alcun significato fisico.

L’importanza di quella geniale intuizione crebbe quando l’impiegato dell’ufficio brevetti di cui ho parlato prima pubblicò il già citato articolo sull’effetto fotoelettrico prendendo molto sul serio tale concetto fino ad allora un po’ astruso.

La grandezza di Einstein mise in luce il duplice aspetto corpuscolare ed ondulatorio della luce. Egli postulò l’esistenza del quanto fondamentale dell’interazione elettromagnetica, il fotone.

La storia della fisica quantistica proseguì poi con i primi modelli atomici di Bohr e Sommerfeld, che introducevano l’ipotesi dei livelli energetici quantizzati e delle orbite elettroniche per sopperire ai problemi del precedente modello di Rutherford (lo scopritore del nucleo), il quale era manifestamente in contraddizione con le equazioni di Maxwell.

Negli anni venti compaiono due principi di importanza notevolissima anche da un punto di vista filosofico, che sono la natura ondulatoria della materia, messa in luce da un giovane aristocratico francese, Luis de Broglie, e l’indeterminazione intrinseca di ogni possibile misura fisica, formulata da W. Heisenberg. Soprattutto quest’ultima portava in sè la conseguenza della caduta del determinismo per l’avvento di un approccio probabilistico, aspetto peraltro non condiviso da molti fisici, fra i quali Einstein.

Fondamentali diventarono i lavori di Schrödinger che per primo trovò una equazione la quale descriveva non relativisticamente il comportamento dell’elettrone e di Dirac, il quale riuscì a generalizzare il lavoro di Scrödinger, rendendolo compatibile con la relatività ristretta.

Tuttavia, il lavoro di Dirac, oltre ad introdurre in maniera rigorosa il concetto di spin elettronico, presentava alcuni difetti apparenti, fra i quali il dare risultati fisicamente assurdi come affermare l’esistenza di particelle in tutto e per tutto simili a quelle ordinarie, ma aventi carica elettrica invertita di segno.

Tali risultati diventarono un trionfo con la prima osservazione dell’antimateria, effettuata da Anderson nel 1932 in una camera a nebbia studiando la radiazione cosmica (recentemente, presso il CERN di Ginevra sono stati sintetizzati alcuni atomi di anti-idrogeno. L’importanza scientifica e tecnologica è immensa). L’antimateria si presta a diverse interpretazioni; una di quelle più eleganti e suggestive è quella fornita da Richard Feynman, secondo cui un’antiparticella non sarebbe altro che una particella ordinaria risalente il tempo.

Un altro principio di importanza fondamentale fu introdotto da Pauli nel 1928: una particella di spin semintero (un fermione), non può occupare uno stato quantico già occupato da un’altra analoga particella. Su tale principio si basa l’interpretazione statistica di Fermi-Dirac, che si affianca e complementa la statistica di Bose-Einstein formulata per i bosoni, ovvero le particelle aventi spin intero.

Personaggio peculiare è poi quello di Enrico Fermi che, in uno storico lavoro sul decadimento beta introduce il concetto di neutrino, già ipotizzato da Pauli, per “far quadrare i conti” in uno dei processi fondamentali della radioattività.

Già, la radioattività... Essa è stata uno dei campi di indagine preponderanti della fisica della prima metà del XX secolo, su cui fondamentali sono stati gli studi di Becquerel, Marie e Pierre Curie, la figlia Irène ed il marito Fréderic Joliot (che affiancò al proprio il cognome della moglie) e fornì i primi proiettili per le reazioni nucleari per prime osservate da Rutherford.

La storia si complica dopo gli anni quaranta con la scoperta di un numero di nuove particelle ed una inevitabile frammentazione della fisica ed affinamento dei metodi sperimentali con l’utilizzo dei primi ciclotroni di dimensioni sempre crescenti che, lentamente ma inesorabilmente, soppianteranno lo studio dei raggi cosmici per i vantaggi innegabili di versatilità e di controllabilità.

Basti pensare ai moderni mezzi sperimentali, ai 27 Km di circonferenza di LEP/LHC presso il CERN a Ginevra, per rendersi conto dello sforzo e dei costi che la ricerca ha assunto in un campo così fondamentale come quello delle alte energie...

Una vera e propria rivoluzione arriva da un eclettico professore del CALTECH di Pasadena in California, Murray Gell-Mann che, verso la metà degli anni sessanta, propone la struttura a quark (misteriosa parola tratta da Finnegan’s Wake di Joyce) della materia. Oggi si sa che i quark sono sei, divisi in tre famiglie, e interagendo fra loro formano una nutrita famiglia di particelle denominata adroni, nella quale spiccano anche il protone ed il neutrone. In un certo senso potremmo dire di essere formati da un paio di quark e da elettroni (che fanno parte della famiglia dei leptoni), ma temo che sarebbe una descrizione un po’ riduttiva... Insomma, la meccanica quantistica presenta delle difficoltà notevolissime sia concettuali, sia di calcolo vero e proprio, per cui sono oggi necessari i più potenti calcolatori mai costruiti. Un sistema comodo di stenografia messo a punto per rappresentare le interazioni fra le particelle subnucleari attraverso diagrammi molto espressivi è quello formulato da Feynman e che porta il suo nome.

Uno sforzo immane si sta oggi compiendo per rendere omogenee le teorie quantistiche con l’altro pilastro della fisica contemporanea che è rappresentato dalla teoria della relatività generale. Messe insieme possono dare risultati inaspettati, come quello ottenuto nel 1974 da Stephen Hawking che scoprì la radiazione termica di un buco nero, che sarebbe misura della sua entropia; risultato notevolissimo se si pensa che un buco nero è, per definizione, un corpo di massa tale da cui neppure la luce può sfuggirvi! Tuttavia, manca ancora una teoria veramente unificata che comprenda i fenomeni dell’infinitamente piccolo unitamente a quelli dell’infinitamente grande.

Altra branca della fisica quantistica che ha assunto una rilevanza indipendente ed una importanza tecnologica di prim’ordine è la fisica dello stato solido, soprattutto sullo studio di fenomeni di superconduttività (scoperti da Karmelingh Onnes nel 1908) e sui semiconduttori, che sta alla base della scoperta  dell'effetto transistor avvenuta ai Bell labs nela vigilia di Natale dell 1947 da parte di Bardeen, Brattain e Shockley e sulla cui attuale importanza tecnologica non mi pare il caso di indugiare.

Naturalmente, anche se oggi sono stati compiuti molti passi in avanti, siamo ben lontani dall’aver formulato una teoria unificata che spieghi qualsiasi fenomeno su qualsiasi scala e molti sono convinti che non si troverà mai; tuttavia ci sono stati diversi tentativi più o meno riusciti volti in questa direzione. In tale teoria sarebbero riposte le domande che da sempre l’uomo si è posto, sulla natura dell’esistenza, sulla nascita dell’universo e sul proprio significato all’interno di esso. Attualmente un enorme sforzo è diretto all’unificazione dell’interazione elettrodebole (quest’ultima è l’unione dell’elettromagnetismo e dell’interazione debole, risultata dai lavori di Glashow, Salam e Weinberg) con quella nucleare forte per poi proseguire con quella gravitazionale. Un impianto teorico di tale portata sarebbe la continuazione di quello che già aveva fatto Maxwell nel XIX secolo con l’elettricità ed il magnetismo, ovvero maturare una nuova visione più aperta su problemi apparentemente differenti e dimostrare che essi non sono altro che aspetti diversi di un medesimo fenomeno fisico.

Non è facile tracciare una summa della situazione attuale; quel che è certo è che siamo ad anni luce di distanza da quel clima euforico ed ottimista che ha pervaso tutta la fine del XIX secolo. La scienza non può più essere vista ingenuamente come una soluzione a tutti i mali dell’uomo ed essa ha rivelato profondi lati oscuri. Può essere una cosa meravigliosa, ma non contiene le istruzioni per l'uso; essa oggi è uno strumento potentissimo che permette all’uomo di manipolare quel che gli sta intorno come mai prima d’ora avrebbe potuto sperare. Come tutti gli strumenti essa deve essere usata con una cautela estrema per evitare che si ripeta in futuro ciò che, purtroppo, è già avvenuto. Sono oggi aperti molti problemi, come quelli, particolarmente spinosi, legati alle biotecnologie la cui soluzione sarà trovata, se saremo fortunati, esclusivamente al termine di un lungo e difficile cammino. Solo il futuro ci rivelerà come potrà proseguire quella che è senza dubbio la più grande avventura del genere umano.