Il contributo è tratto da Storia della civiltà europea a cura di Umberto Eco, edizione in 75 ebook
I tre sviluppi più importanti della fisica dell’Ottocento comprendono l’affermarsi del concetto di campo come complementare a quello di particella (che avvenne con lo sviluppo dell’elettromagnetismo), la riduzione dei fenomeni termici alla meccanica, con la conseguente introduzione della statistica nella fisica, e il tentativo di unificare tutta la fisica sotto il concetto di energia, destinato a fallire con l’affermazione dell’atomismo nei primi del 900.
La tradizione della fisica newtoniana
Durante il Settecento la visione del mondo newtoniana (in base alla quale il mondo è composto da particelle soggette a forze che agiscono a distanza) viene enormemente raffinata da un punto di vista formale da grandi fisici-matematici quali Leonard Euler, Jean d’Alembert (1717-1783) e Joseph-Louis Lagrange. Pierre-Simone de Laplace porta avanti questa eredità matematizzante soprattutto nel campo della meccanica celeste e dell’astronomia. Proprio quest’ultima disciplina fornisce a Laplace il paradigma metodologico che le altre branche della fisica devono seguire, l’astronomia, infatti, può essere costruita come una scienza fortemente matematizzata riassumibile in poche leggi, dalle quali può essere dedotto tutto ciò che è osservabile. Il frequentemente citato determinismo laplaciano (che viene espresso in un trattato di probabilità) va collocato proprio in questo quadro teorico: se una supermente potesse conoscere tutte le forze che agiscono sulle particelle che compongono l’universo nel momento presente, e potesse misurarne posizione e velocità, potrebbe prevedere in modo completo il futuro (e retrodire il passato).
In ogni caso, e anche grazie ai fondamentali apporti dei succitati fisici, la teoria della gravitazione newtoniana raggiunge il suo apice a metà dell’Ottocento (1848), allorché si teorizza prima, e si scopre poi, un nuovo pianeta (Nettuno), la cui esistenza permette di eliminare alcune discrepanze tra l’orbita osservata di Urano e quella prevista sulla base della teoria gravitazionale newtoniana. L’influenza del meccanicismo newtoniano si fa comunque sentire per tutto il secolo: nella nona edizione della Enciclopedia Britannica (siamo nel 1870 circa), per il grande fisico James Maxwell, che pure fa moltissimo per l’affermazione del concetto di campo, lo scopo della fisica è ancora quello meccanicistico di Newton, ovvero spiegare tutti i fenomeni fisici a partire dalle leggi del moto della materia. Come vedremo, l’ottica e l’elettromagnetismo sono unificati nel 1862 proprio a opera di Maxwell, utilizzando le nozioni di onda e di campo come elementi accumunatori.
L’affermarsi della concezione ondulatoria della luce
Rispetto alla fisica gravitazionale e alla meccanica propriamente detta, all’inizio dell’Ottocento le altre branche della fisica (ottica, elettrologia, magnetismo, studio dei fenomeni del calore) sono in uno stato assai più arretrato, e sembrano del tutto indipendenti dalle prime. Nel corso dell’Ottocento, tuttavia, proprio queste discipline subiscono un progresso straordinario. Anzitutto, ricordiamo che nel corso della prima metà del secolo la teoria corpuscolare della luce difesa da Newton (secondo la quale la luce è composta da particelle che si muovono in linea retta) viene progressivamente abbandonata, allorché varie esperienze ne evidenziano il carattere ondulatorio. Quando facciamo passare la luce per un foro circolare molto più grande della sua lunghezza d’onda, sullo schermo posto dietro il foro vediamo proiettata un’immagine circolare. Ma se la luce passa per due fessure molto piccole e paragonabili alla sua lunghezza d’onda (esperienza delle due fenditure di Young), vediamo quei tipici fenomeni di interferenza delle onde, che sommano i loro effetti quando le creste delle onde si incontrano (allora sullo schermo posto dietro alle due fenditure vediamo regioni luminose) o annullano i loro effetti quando la cresta di un’onda si incontra con un avvallamento di un’altra (e allora sullo schermo vediamo regioni scure). Altri tipici effetti delle onde che sono associati alla luce sono la sua diffrazione, che è la sua proprietà di aggirare gli ostacoli curvandosi, una proprietà incompatibile con la propagazione rettilinea. Poiché la luce è un’onda, come si arriva a capire definitivamente a partire dagli anni Trenta del secolo, essa deve anche vibrare in un mezzo, “l’etere luminifero”, che rappresenta per la luce quel che l’aria rappresenta per le onde sonore. Per molta parte dell’Ottocento si continua a provare a spiegare in modo meccanico la generazione di onde luminose nell’etere (ovvero attraverso il moto di particelle di etere, come avviene con le onde sonore, dovute alla compressione e dilatazione di molecole di aria), e ciò avviene soprattutto in Inghilterra. Ma il fallimento di tali complicati tentativi basati sulla meccanica dell’etere, che viene sancito in modo definivo con la scoperta della relatività speciale nel 1905, sancisce anche un deciso ridimensionamento del programma meccanicistico nella fisica: non tutti i fenomeni fisici possono essere ridotti all’effetto di particelle in movimento.
Sebbene la scoperta del carattere ondulatorio della luce generalizzi e non falsifichi letteralmente il paradigma corpuscolare newtoniano (che diventa un caso particolare di quello ondulatorio, valido quando gli ostacoli che la luce incontra sono di dimensioni assai superiori alla lunghezza d’onda della luce), ne costituisce certamente un completamento, che verrà poi rafforzato dalle ulteriori scoperte delle relazioni tra elettricità e magnetismo.
L’elettromagnetismo e il concetto di campo
La prima scoperta che mostra un’importante connessione tra elettricità e magnetismo – i cui fenomeni, staticamente e separatamente intesi, si conoscevano fin dai tempi dei Greci, e venivano spiegati attraverso la postulazione di fluidi elettrici e magnetici – si deve al danese Hans Christian Øersted, che nota che un ago di una bussola inizialmente parallelo a un filo elettrico chiuso su una pila voltaica viene deviato dal passaggio della corrente, e in particolare ruotato di 90°: non solo il passaggio di corrente elettrica genera magnetismo, ma la forza che agisce sull’ago lo fa ruotare in modo che esca dalla pagina verso il lettore, se il piano di quest’ultima viene immaginato come coincidente con quello in cui giacciono inizialmente il circuito e l’ago. La rotazione dell’ago è dovuta al momento di una forza dai caratteri fino ad allora sconosciuti. Mentre le forze sino ad allora note agivano nella direzione della congiungente i corpi carichi gravitazionalmente, o elettricamente o magneticamente, ed erano attrattive o repulsive, la forza scoperta da Øersted genera appunto una rotazione perpendicolare al piano del circuito, che dipende non dalla distanza ma dalla velocità con cui si muove la carica e non è né attrattiva né repulsiva.
I fenomeni sperimentali che connettono elettricità e magnetismo conducono progressivamente alla postulazione della nozione di campo, che è una delle acquisizioni fondamentali della fisica dell’800. Già in uso dal secolo precedente nello studio della dinamica dei fluidi, un campo è un ente fisico che, a differenza di una particella, non è necessariamente localizzato, ma è definito in ogni punto dello spazio, anche dove non c’è materia, ed è caratterizzato in ognuno di questi punti dal modo dei vettori; esso possiede quindi un’intensità, una direzione e un verso. Per rappresentare i campi si utilizzano, a partire dall’opera di un altro padre fondatore dell’elettromagnetismo, Michael Faraday, le linee di forza, che sono linee rette o curve che attraversano tutto lo spazio come una ragnatela e rappresentano, con il loro numero, l’intensità di un campo di forze. La forza agente su una particella test nel campo è data dalla tangente alla linea di forza nel punto in cui si trova la particella, cosicché la linea di forza ha una definizione matematica precisa anche oggi. Il grande contributo delle linee di forza all’approfondimento della nozione di campo sta nel fatto che esse contribuiscono a spiegare qualunque interazione tra corpi elettricamente carichi, senza postulare azioni a distanza tra i corpi, che lo stesso Newton riteneva inaccettabili malgrado quel di cui veniva accusato dai fisici continentali eredi di Cartesio. Il paradigma della località, che poi viene messo in discussione dalla futura meccanica quantistica e che costituisce il nerbo del programma di ricerca di Einstein, è incardinato proprio nel concetto di campo: qualunque modifica in un luogo L dello spazio deve dipendere da regioni dello spazio che sono vicine a L e che sono temporalmente situate poco tempo prima, porzioni di campo, che trasmettono e veicolano appunto l’interazione tra le cariche. La scoperta dell’induzione elettromagnetica da parte di Faraday è basata sulla sua convinzione che non solo il passaggio di corrente deve generare un campo magnetico, come aveva scoperto Øersted, ma anche, per simmetria, il cambiamento di un campo magnetico deve generare un campo elettrico. È poi James C. Maxwell a dare veste matematica a queste scoperte sperimentali, con le sue famose equazioni che unificano non solo i fenomeni magnetici con quelli elettrici, ma rendono l’ottica una branca dell’elettromagnetismo: la luce visibile è un particolare fenomeno elettromagnetico, che nello spettro della radiazione elettromagnetica occupa una parte piccolissima, tra l’infrarosso, avente lunghezza d’onda maggiore del rosso ma frequenza minore, e l’ultravioletto, avente lunghezza d’onda minore del rosso ma frequenza maggiore. Le equazioni di Maxwell legano le variazioni nel tempo del campo magnetico e del campo elettrico al modo in cui variano nello spazio il campo elettrico e quello magnetico rispettivamente, chiarendo così che è il moto relativo di una carica (o di un magnete) a determinare rispettivamente un campo magnetico o un campo elettrico, mentre se le cariche elettriche o il magnete sono ferme rispetto al magnete o al circuito elettrico, non si genera nulla. Tali equazioni mostrano il carattere ondulatorio dei fenomeni elettromagnetici: il campo elettrico e quello magnetico oscillano in piani perpendicolari l’uno all’altro e con una differenza di fase di ¼, mentre la loro direzione di propagazione è ortogonale a tali due piani di oscillazione: come un tappo di sughero che immerso nell’acqua oscilla in su e in giù, le onde si propagano nella direzione della superficie dell’acqua e dunque in direzione perpendicolare a quella dell’oscillazione del tappo. Solo nel 1905 si scoprirà che le oscillazioni del campo elettromagnetico non hanno bisogno dell’etere, dato che si propagano anche nel vuoto: in un certo senso, la nozione di campo sostituisce quella di etere, una tendenza che si realizzerà pienamente con le due teorie della relatività. Le equazioni di Maxwell sono pubblicate nel 1864, e secondo Einstein e Infeld (L’evoluzione della fisica, 1965, p. 153) rappresentano “l’avvenimento più importante verificatosi in fisica dal tempo di Newton in poi”. Dall’anno della pubblicazione dei Principia di Newton (1687), sono passati poco meno di 200 anni e la nozione di campo elettromagnetico denota qualcosa di fisicamente reale, tanto quanto le particelle microscopiche. Il campo esiste e si propaga nello spazio vuoto ma non ha però le caratteristiche della materia (che è dotata di massa): la fisica si arricchisce di una nuova entità che trasporta energia al modo delle onde, come poi verificò il fisico tedesco Heinrich Hertz, e che obbedisce a leggi (le equazioni di Maxwell) deterministiche e temporalmente reversibili proprio come le equazioni fondamentali della meccanica di Newton. La velocità con cui si propagano tutte le onde elettromagnetiche (e quindi anche la luce) nel vuoto è 300.000 km/sec, e l’indipendenza di tale velocità dal moto della sorgente è uno dei due postulati proposti da Albert Einstein per costruire la relatività speciale.
Termodinamica e teoria cinetica dei gas
I due grandi principi della fisica che studia il calore sono noti con il nome di primo e secondo principio della termodinamica e si possono riassumere con le seguenti parole, dovute al fisico tedesco Rudolf Clausius: “l’energia dell’universo è costante”, “l’entropia del universo tende a un massimo”.
La scoperta del principio di conservazione dell’energia deve molto al medico Julius Mayer (1814-1878) e a James Joule: quest’ultimo, con un esperimento che genera calore in un contenitore a causa della caduta di pesi, mostra come l’energia meccanica o il lavoro (dato da una forza per uno spostamento) si può trasformare in calore (che non è un fluido ma appunto una forma di energia) e quest’ultimo in energia meccanica. Lo stesso dicasi per i circuiti elettrici, che a causa di attrito nel moto delle cariche, generano calore nel filo: l’energia di movimento della corrente si trasforma in parte in calore, in modo che, sommando il calore generato con l’energia cinetica degli elettroni, alla fine del processo si abbia la stessa energia che, ha messo in moto le cariche. Il primo principio della termodinamica afferma quindi che il bilancio energetico alla fine di ogni trasformazione fisica deve essere uguale all’energia che si aveva all’inizio: un sasso che cade all’inizio ha solo energia potenziale, questa si trasforma poi parte in energia cinetica e parte in calore generato dall’urto con l’aria: alla fine del processo la somma di energia cinetica e di calore generato deve essere uguale all’energia potenziale iniziale. La nozione di energia diventa quindi una chiave di unificazione di tutti i fenomeni fisici, da quelli meccanici a quelli termici a quelli elettromagnetici.
Il secondo principio della termodinamica deriva dall’asimmetria nella trasformazione tra lavoro e calore: la trasformazione del calore in lavoro conserva l’energia come l’inversa, ma comporta sempre una perdita, ovvero non ogni tipo di energia ha la stessa utilizzabilità. La grandezza entropia misura in modo inverso la disponibilità che ha un sistema fisico a compiere lavoro: maggiore è tale disponibilità, minore l’entropia, minore la disponibilità di energia, maggiore l’entropia. Se in una stanza abbiamo un gas freddo e un gas caldo separati, l’entropia complessiva è inferiore a quella relativa alla fase in cui i due gas vengono miscelati, perché la barriera che li separava viene rimossa: all’equilibrio termico, l’entropia è maggiore perché non possiamo più sfruttare la differenza di temperatura tra i due gas per compiere lavoro meccanico (far alzare il pistone di un cilindro per esempio). Il secondo principio afferma che l’entropia cresce in tutti i sistemi chiusi: se l’universo è un sistema chiuso, e ha senso attribuirgli un’entropia complessiva, allora tutto tende verso la diminuzione della possibilità di compiere lavoro, cosicché l’universo stesso tende alla sua morte termica (ovvero, all’egualizzazione del freddo interstellare con il caldo del nucleo delle stelle, da cui ora la vita terrestre dipende). Ecco perché alcuni storici della termodinamica (Stephen Brush) ritengono che nella seconda metà dell’800 la scoperta del secondo principio della termodinamica incrina in parte la fiducia nelle sorti progressive dell’umanità tipica dell’Inghilterra vittoriana.
La teoria cinetica dei gas, che deve molto al già nominato James Maxwell (nel saggio On the dynamical theory of gases, [Sulla teoria dinamica dei gas] del 1860), è un importante esempio di riduzione di una branca della fisica a un’altra (segnatamente, la termodinamica alla meccanica di Newton). Riduzione significa che proprietà macroscopiche dei gas, quali pressione, temperatura o l’energia interna, tipiche della termodinamica, si possono definire in termini di proprietà microscopiche dei gas stessi, in particolare legate (come dice la parola “cinetico”) alla velocità media delle molecole che lo compongono. La teoria cinetica dei gas permette per esempio di spiegare la pressione di un gas racchiuso in un cilindro chiuso da un pistone mobile con il bombardamento di miliardi di piccole sfere rigide, elastiche, non interagenti tra di loro se non attraverso urti (le molecole del gas, appunto), un’idea che vede una sua prima formulazione settecentesca già con Daniel Bernoulli. Anche la temperatura e l’energia interna del gas vengono ridotte alla velocità molecolare media, ragione per la quale la concezione atomistica della materia (e il meccanicismo basato sulle teorie di Newton) traggono nuova importante evidenza da questi studi. Per il trionfo definitivo della visione atomistica della materia, che alla fine del secolo conosce ancora molti oppositori tra i cosiddetti energetisti (tra cui il chimico lettone Wilhelm Ostwald) si devono aspettare i primi anni del Novecento, allorché l’accumularsi di varie (13) tecniche sperimentali indipendenti per il calcolo del numero di molecole in una mole di gas, tutte convergenti sul numero di Avogadro, sancisce l’esistenza di molecole (e atomi).
È quindi interessante notare che nel secolo nel quale, grazie all’elettromagnetismo, si afferma la nozione di campo come entità alternativa rispetto alla materia ponderabile, attraverso la teoria cinetica dei gas trova anche ulteriore conferma la visione corpuscolarista della materia, che risale almeno a Democrito. Vale forse la pena anticipare che la scoperta della meccanica quantistica nel Novecento vedrà un ulteriore complicazione dell’ontologia della fisica, dato che, da una parte, si scoprirà che sia i portatori della radiazione elettromagnetica (fotoni) sia le particelle materiali hanno natura sia corpuscolare sia ondulatoria, a seconda degli esperimenti cui le sottoponiamo (e dunque non sono né onde né particelle), dall’altra, attraverso la successiva teoria quantistica dei campi, la nozione di particella nella seconda metà dello scorso secolo finirà per essere considerata come meno fondamentale e derivata rispetto a quella di campo, che oggi è invece considerata l’entità fisica fondamentale.
La fondazione statistica dell’entropia e la freccia del tempo
Un altro modo per formulare il secondo principio della termodinamica è dovuto a William Thomson, Lord Kelvin, il quale afferma che non è possibile che un corpo freddo ceda spontaneamente calore a un corpo più caldo, dove “spontaneamente” significa senza che avvenga qualche altra trasformazione. Il processo inverso di passaggio del calore dal corpo caldo a quello freddo è invece ovviamente preferito dalla natura. Il secondo principio della termodinamica sottolinea e rende rigorosa l’intuizione comune che il mondo fisico è caratterizzato da processi irreversibili. Il contributo del grande fisico viennese Ludwig Boltzmann è quello di chiarire, attraverso un approccio statistico al secondo principio della termodinamica, in che modo la legge della crescita irreversibile dell’entropia, che è una grandezza macroscopica, può essere derivata da una teoria fisica, quale quella della meccanica di Newton, che non distingue passato da futuro. Si ricordi infatti che la teoria cinetica dei gas deriva le proprietà macroscopiche di un gas e le leggi della termodinamica da leggi in ultima analisi temporalmente reversibili. Se facciamo un film dell’urto di due molecole di un gas e poi lo proiettiamo al contrario, entrambi i processi appaiono compatibili con la nostra esperienza e, ciò che è più importante, con le leggi di Newton. Da dove deriva allora l’irreversibilità che caratterizza tutto ciò che ha a che fare con la temperatura? Perché non osserviamo mai un gas miscelato separarsi spontaneamente in una parte calda e una fredda? La spiegazione di Boltzmann è essenzialmente statistica: la stragrande maggioranza delle evoluzioni di un gas portano quest’ultimo al raggiungimento dell’equilibrio termico, anche se esiste una probabilità non nulla di ritorno del gas alle condizioni iniziali. Come dimostra il grande matematico francese Henri Poincaré nel cosiddetto teorema della ricorrenza, un qualunque sistema chiuso, che inizi in uno stato qualunque S (per esempio le molecole di profumo di una boccetta chiusa si sparpagliano per l’aria) in un tempo lunghissimo e superiore all’età dell’universo, deve tornare arbitrariamente vicino alle condizioni iniziali (il profumo primo o poi ritorna nella boccetta). Il problema di spiegare perché l’entropia cresce è dunque ricondotto da Boltzmann al prevalere di certe condizioni iniziali di bassa entropia: ciò ha condotto alcuni fisici a postulare che, andando sufficientemente a ritroso nel tempo, anche l’universo sia caratterizzato, al Big Bang, da condizioni di bassa entropia.