L'universo invisibile

Materie:Appunti
Categoria:Astronomia

Voto:

1.5 (2)
Download:223
Data:20.06.2000
Numero di pagine:35
Formato di file:.doc (Microsoft Word)
Download   Anteprima
universo-invisibile_1.zip (Dimensione: 30.97 Kb)
trucheck.it_l-universo-invisibile.doc     164.5 Kb
readme.txt     59 Bytes



Testo

RELAZIONE

TITOLO: L’universo invisibile (Atom) Storia dell’infinitamente piccolo dai filosofi greci ai quark Oscar saggi Mondatori

AUTORE: Isaac Asimov (Smolensk, 1920-New York 1992) docente di biochimica, scrittore e divulgatore scientifico. In questo saggio di fisica e chimica individua quelli che furono nel passato i problemi più discussi a livello teorico e di cui maggiore è stata l’influenza nel decorso storico incentrando su di essi la narrazione.

LA MATERIA
LA DIVISIONE DELLA MATERIA
Le diverse culture dell'origine cosmica sono assimilate e poi sviluppate in modo originale dai greci. Democrito e Leucippo possono essere considerati gli audaci progenitori della teoria cinetica. Gli atomi, sostengono, si muovono a caso nello spazio vuoto. I loro urti, casuali, danno origine alle diverse combinazioni. Per Democrito queste combinazioni sono possibili perché atomi diversi hanno una diversa geometria. Le teorie materialistiche, che hanno in Leucippo e Democrito il loro culmine, vengono inglobate, ma non abbandonate, dal pensiero di Platone e, poi, di Aristotele.
L’atomismo venne poi ripreso nel sec.IV da Epicuro che apporta alcune correzioni al pensiero di Democrito: gli atomi sono infiniti, ma le loro forme sono finite, hanno peso, cadono in linea retta e solo una deviazione casuale (il clinamen) fa sì che essi si incontrino e diano origine alle cose. L’epicureo più noto fu Tito Lucrezio Caro che nel suo poema De rerum natura espone la teoria atomistica di Epicuro.
Questa teoria venne poi ripresa nel corso del Seicento grazie a Gassendi che la ripropose come alternativa all’aristotelismo e cercò di riconciliarla con una visione religiosa del mondo. Anche se il pensiero di Aristotele resterà, per quasi due millenni, il fondamento di ogni teoria chimica.
Almeno fino al 1661, quando in Inghilterra Robert Boyle (1627-91) pubblicò The Sceptical Chymist, il chimico scettico. Boyle tentò di riscattare la chimica non solo dalla filosofia aristotelica, nonché dalle residue e resistenti tradizioni alchemiche, ma anche da tutte quelle interpretazioni esoteriche tuttora in voga tra i chimici medici. Boyle riscoprì l'atomismo di Democrito e Leucippo e si lasciò guidare da quella che egli stesso definisce la filosofia corpuscolare.
Inoltre nel suo scritto discusse anche tutte le opinioni correnti riguardo agli elementi.

GLI ELEMENTI
Lo ionico Talete di Mileto, cui la tradizione fa risalire l'origine del pensiero razionale greco, considera l'acqua l'elemento primigenio. L'acqua può diventare aria per evaporazione. E, continua Talete, può diventare un solido per congelamento. Tutti gli stati conosciuti della materia, conclude Talete, traggono origine dall'acqua.
I discepoli di Talete, primi tra tutti Anassimandro e Anassimene, daranno maggiore importanza alla cosmologia degli opposti. Che trova poi in Eraclito il suo più grande teorico. Mentre Anassagora introduce il concetto di "semi", minuscole particelle increate e indistruttibili. E ancora Empedocle di Agrigento li riduce a soli quattro atomi.
Sempre ne “Il chimico scettico” Boyle afferma che tutte le sostanze naturali devono essere formate da piccole particelle elementari: da atomi solidi e fisicamente indivisibili. Quanto alle proprietà delle sostanze naturali, sia fisiche che chimiche, sono dovute alla dimensione e alla forma delle aggregazioni in cui le particelle si riuniscono. Così è fatta la materia.

IL TRIONFO DELL’ATOMISMO
Gli elementi che si trovano sulla Terra sono quelle sostanze semplici che non possono in alcun modo essere decomposte e che se si combinano danno luogo ai composti. Ma qual è la quantità di elementi che possono esistere in un composto?
Nel 1794 il chimico Proust dimostrò che, quali siano le proporzioni di partenza degli elementi, essi sono contenuti sempre nelle medesime proporzioni nei prodotti ottenuti. Nel 1799 il chimico francese prova che rame e carbonato sono uniti nelle medesime proporzioni, a prescindere dal metodo usato per la preparazione del carbonato di rame. Poi dedica i nove anni successivi della sua vita a studiare altri composti per dare un carattere generale a questa sua legge. Scoprendo che effettivamente le proporzioni con cui gli elementi si associano in un dato composto sono sempre costanti.
Contro questa teoria si batté uno studioso francese Berthollet ritenendo che, facendo variare gradualmente le percentuali in peso degli elementi che si combinano in una reazione chimica, fosse possibile ottenere prodotti a composizione quantitativa via via differente. Nel 1804 però il chimico svedese Berzelius riuscì a confermare le idee di Proust con analisi scrupolose.
Studiando Attentamente la legge di Proust lo scienziato inglese John Dalton osservò a sua volta che talvolta due elementi possono combinarsi tra loro in due o più rapporti diversi: i prodotti ottenuti sono in realtà altrettante sostanze diverse, ciascuna delle quali possiede proprietà ben definite e obbedisce alla legge di Proust.

LA REALTÀ DEGLI ATOMI
Ma si poteva intuirne la presenza, avere una prova della loro esistenza? Di questo si occupò Brown nel 1827.
Osservò per la prima volta il tipo di movimento, che da lui prese il nome, studiando il moto di piccole particelle nel liquido delle cellule vegetali. Riconobbe che dallo stesso moto erano animati granelli di polline morto, vetro polverizzato e polvere. Questa era la prova dei loro effetti: gli atomi e le molecole si muovono e il loro movimento è incessante e violento. Il moto browniano venne poi spiegato nel 1902 da Svedberg e provato matematicamente da Einstein nel 1905; nel 1913 Perrin riuscì tramite queste equazioni a calcolare il diametro approssimativo di un atomo.
Una trentina di anni più tardi il matematico Maxwell riuscì per primo ad elaborare una teoria matematica che spiegava il movimento costante degli atomi e delle molecole. Maxwell, in particolare, dimostrò, che le molecole di un gas a temperatura uniforme non hanno tutte la stessa velocità, ma che alcune di esse vanno più lente, altre sono più veloci e, in generale, le loro velocità si distribuiscono in maniera casuale tra le diverse molecole. Ciò permise di comprendere meglio la temperatura (come misura della velocità media del moto degli atomi e delle molecole oltre che dei gas, anche dei solidi e dei liquidi).

LE DIFFERENZE TRA GLI ATOMI
Dalton aveva compreso che ogni atomo aveva una massa (peso atomico): prendendo come unità di misura il peso dell’idrogeno, nell’acqua si vede che l’ossigeno pesa sei volte di più. Sulla base di questa ipotesi Dalton costruisce nel 1803 la prima tabella dei pesi atomici. Ma era solo un ipotesi.
La conferma arrivò da un esperimento condotto dal chimico Nicholson nel 1800: dimostrò che idrogeno e ossigeno si combinano nell’acqua in rapporto di 2:1. Mentre altri dimostrarono che nell’ammoniaca il rapporto tra idrogeno e azoto è di 3:1.
Questi risultati non furono accettati da Dalton, geloso dei suoi rigidi postulati. Ma vengono ben presto usati dal chimico svedese Jöns Jacob Berzelius sia per confermare la legge delle proporzioni multiple che, soprattutto, per determinare con precisione i pesi atomici dei vari elementi. Colloca l’idrogeno a 1 e l’ossigeno a 16.
Oltre a questo lavoro, scopre nuovi elementi, come il silicio, il titanio e il selenio. E, infine, introduce i simboli chimici. Nel sistema simbolico di Berzelius ogni elemento è caratterizzato da una lettera maiuscola, la prima del suo nome latino. Seguita da una seconda lettera minuscola, in caso di confusione. Così il simbolo dell’idrogeno diventa H; quello del sodio, Na; del cloro, Cl; dell’ossigeno, O; dell’azoto, N.
Ma è il chimico italiano Amedeo Avogadro (1776-1856) a raggiungere i risultati teorici più interessanti. Già nel 1811 Avogadro riprende l’idea, avanzata e poi scartata da Dalton, che volumi uguali di gas diversi contengono il medesimo numero di particelle.
Ma non di atomi, precisa Avogadro. Bensì di molecole. Una molecola è una particella fondamentale dei gas, pur essendo combinazione di due o più atomi. Se si tiene conto di ciò, sostiene Avogadro, il rapporto tra la densità di due volumi uguali di gas fornisce in modo semplice e preciso il rapporto tra le masse dei loro atomi. In questo modo il chimico italiano calcola (con buona approssimazione) che il peso atomico dell’ossigeno è 15,074 volte quello dell’idrogeno e non 8 volte, come si crede.
La sua ipotesi, però, non viene accettata. In particolare dai due chimici più autorevoli del tempo: Berzelius, che proprio non riesce a immaginare come due atomi simili possano legarsi tra loro, e Dumas. Occorrerà attendere almeno mezzo secolo prima che i chimici rendano giustizia alle ipotesi di Avogadro.
Un altro chimico italiano, un profondo conoscitore e un acceso sostenitore delle idee di Avogadro, ritiene giunto il momento di rilanciarle, visto che proprio quelle idee possono costituire la base per spiegare buona parte dei risultati conseguiti in laboratorio negli ultimi anni. Questo lo fece, nel 1860, in un grande congresso che riunisce per la prima volta tutti i chimici del mondo.
Per dare maggiore forza a questa idea vincente, Cannizzaro presenta ai suoi colleghi una tavola sostanzialmente corretta dei pesi molecolari di un vasto numero di composti.
Tocca quindi al russo Mendeleev superare quella diffidenza. Egli ordina gli elementi in una tavola in base al peso atomico crescente. Ogni riga è formata da sette elementi. Ogni colonna raggruppa gli elementi con proprietà chimiche simili. Mendeleev è talmente sicuro dei suoi calcoli che si sente di predire non solo la collocazione, ma anche le proprietà chimiche di elementi non ancora scoperti (che si riveleranno poi esatti).

LA LUCE
PARTICELLE E ONDE
L’esistenza dei atomi era stata dimostrata, ora si voleva capire se anche la non materia fosse composta di atomi. Si partì esaminando la luce e in particolare la formazione dei colori.
Fu Newton (1642-1727) il primo a sostenere teoricamente e a dimostrare sperimentalmente che i colori prodotti da un prisma attraversato da un fascio di luce non sono “creati” dal prisma stesso, ma preesistevano “mescolati” all’interno della luce bianca, e che, quindi, la luce bianca è la somma di tutti i colori dello spettro.
Il mondo secondo Newton è essenzialmente costituito da atomi in movimento in uno spazio assoluto, che è prevalentemente vuoto. Gli atomi sono le particelle più piccole di materia e quindi la luce era anch’essa costituita da particelle.
Ma in Olanda Christiaan Huygens (1629-1695) espose vari argomenti per dimostrare che una serie di onde poteva viaggiare in linea retta come le particelle così divenendo uno dei primi sostenitori della teoria ondulatoria della luce. Già nel 1802 Thomas Young aveva iniziato a studiare sistematicamente i fenomeni d’interferenza prodotti dal passaggio della luce proveniente da un’unica sorgente attraverso due fori molto piccoli e molto vicini tra loro, concludendo le regioni di sovrapposizione consistevano di bande luminose e bande alternate. Con queste conclusioni non si poteva pensare a un’ipotesi corpuscolare.
Ma solo nel 1816 Augustin-Jean Fresnel effettua i primi esperimenti sull’interferenza e la diffrazione della luce, decisamente probanti a favore della teoria ondulatoria.
Ora, le difficoltà di questa teoria erano legate al fatto che si pensava che le onde luminose fossero analoghe alle onde acustiche, ossia fossero caratterizzate da oscillazioni longitudinali (che avvenivano cioè nella direzione della propagazione della luce). Fu Fresnel a immaginare che si potesse trattare di oscillazioni trasversali (ossia che avvenivano in direzione perpendicolare a quella di propagazione). L'idea di Fresnel, l’unica che fosse concepibile all’epoca, è che lo spazio interstellare non sia vuoto, ma contenga una materia sottilissima e impercettibile, capace di formare onde. Per dare un nome a questa materia la scelta non poteva che cadere su un termine antico: “etere”. Così, da Fresnel in poi (almeno fino a Einstein) lo spazio, tutto lo spazio, è pieno di un etere luminifero in cui si propaga, sotto forma di onde, la radiazione luminosa.

I QUATTRO FENOMENI
La “scoperta” dell’etere e lo studio delle azioni elettromagnetiche portò a prendere in seria considerazione l’idea che le presunte azioni a distanza non fossero altro che azioni trasmesse attraverso un mezzo, ossia azioni a contatto, e che lo spazio fosse pieno Il fenomeno in base al quale alcuni oggetti (soprattutto l’ambra), se strofinati, attirano altri oggetti (piume, polvere, ecc.) era noto fin dall’antichità.
Attratto da queste dimostrazioni, Benjamin Franklin (1706-1790) cominciò le sue ricerche che lo portarono a scoprire che i fulmini altro non sono che immani scariche elettriche. Ma l’importanza di Franklin per lo sviluppo dell’elettrologia sta soprattutto nel fatto che egli contribuì in modo decisivo (utilizzando la distinzione, già scoperta da Stephen Gray (1666-1737), tra conduttori e isolanti elettrici) all’idea che l’elettricità fosse un particolare tipo di materia fluida che poteva entrare o uscire dai corpi.
Charles-Augustin de Coulomb (1736-1806) dimostrò sperimentalmente che le cariche elettriche si attraggono o si respingono con una forza proporzionale all'inverso del quadrato della distanza, proprio come l’attrazione gravitazionale. Quindi il magnetismo comporta sia un’attrazione sia una repulsione di intensità uguale.
Il fisico sperimentale inglese Michael Faraday (1791-1867) , ispirandosi ai dubbi dello stesso Newton, non credeva comunque nell’azione a distanza. Le sue ricerche sui fenomeni di induzione elettromagnetica (ossia sulle correnti prodotte dallo spostamento di magneti vicino a circuiti elettrici o viceversa, oppure dalle variazioni di corrente nel circuito stesso o in un circuito a esso vicino) e sulle correlate azioni meccaniche tra circuiti e magneti lo portarono a immaginare che queste azioni non avvenissero a distanza. La sua idea era che lo spazio fosse pieno di linee di forza. Queste linee non erano un modo di rappresentare geometricamente forze a distanza, ma, secondo Faraday, corrispondevano a qualcosa di fisicamente reale presente nello spazio stesso. Un argomento che egli usava a favore di questa ipotesi era quello di far vedere che tali linee di forza erano quasi sempre linee curve e non linee rette.

LA COMBINAZIONE DEI FENOMENI
Il danese Hans Christian Oersted scoprì però nel 1820 un fenomeno che apparentemente non rientra nello schema. Un ago magnetizzato posto nelle vicinanze di un filo percorso da corrente non viene infatti né attratto né respinto dal filo, ma esegue una rotazione su se stesso tendendo a disporsi perpendicolarmente al filo. La scoperta è importante non solo perché non rientra nello schema delle attrazioni e repulsioni tra corpi dirette lungo la congiungente dei corpi stessi, ma perché indica che i fenomeni elettrici e quelli magnetici non sono così distinti come si pensava: nasce l’elettromagnetismo.
La grande trasformazione dell’interpretazione dei fenomeni elettromagnetici fu portata a compimento, nella seconda metà dell’Ottocento, da James Clerk Maxwell. Il suo metodo, basato su una profonda preparazione matematica, si traduceva in una continua costruzione di modelli di ciò che avrebbe potuto essere la realtà fisica, in modo da spiegare i fenomeni osservati.
Appunto seguendo questo metodo, Maxwell arrivò alla seconda grande scoperta del secolo scorso, quella del cosiddetto “campo elettromagnetico”. La sua idea riprendeva la tendenza di Faraday e di molti fisici dell’ambiente inglese a rifiutare l’azione a distanza. Cercando di individuare le proprietà di un’ipotetica sostanza che, riempiendo lo spazio tra corpi carichi, magneti e circuiti (il “campo” elettromagnetico), fosse responsabile delle azioni elettromagnetiche osservate, Maxwell pervenne nel 1861 a due risultati di estrema importanza. In primo luogo, le proprietà del “mezzo” che trasmette le azioni elettromagnetiche sono rappresentabili attraverso un sistema di equazioni (da allora in poi chiamate equazioni di Maxwell) che racchiudono tutti i risultati sperimentali fino allora conosciuti; in secondo luogo dalle proprietà dello stesso mezzo, e quindi dalle equazioni che rappresentavano il suo comportamento, era possibile dedurre che in esso si propagavano onde. Il fatto straordinario era che, calcolando teoricamente la velocità di queste onde, si otteneva un valore eccezionalmente prossimo a quello, ricavato sperimentalmente, della velocità della luce.
La conclusione di Maxwell fu immediata: la luce consisteva in una propagazione ondulatoria nello stesso “mezzo” (anche da lui chiamato etere) che era responsabile della trasmissione delle azioni elettriche e magnetiche. Nasceva la teoria elettromagnetica della luce.
Ma la tesi di Maxwell era solo un’ipotesi teorica. In fondo i fenomeni elettromagnetici potevano essere spiegati ugualmente bene da teorie basate sul concetto di azione a distanza. E della natura elettromagnetica della luce non c’era alcuna prova sperimentale.

L’ESTENSIONE DELLO SPETTRO
Nel1800 l’astronomo Herschel intuì che la luce e il calore del Sole non erano due cose separate. Usando un termometro misurò le varie temperature dello spettro e scoprì che la temperatura era più alta all’estremità del rosso. Oltre il rosso la temperatura saliva ancora di più. Herschel aveva scoperto i raggi infrarossi.
Ciò fu confermato dalle ricerche sul cosiddetto “calore radiante”. A queste ricerche contribuì in maniera decisiva l’italiano Macedonio Melloni (1798-1854), il quale dimostrò che il calore radiante (poi riconosciuto come radiazione infrarossa) si propagava in modo ondulatorio proprio come la luce. Quindi, il calore radiante era anch’esso, come la luce, una forma di movimento dell’etere.
Un altro chimico Ritter controllò l’altra estremità dello spettro così scoprendo i raggi ultravioletti.
Fu lo scienziato tedesco Heinrich Rudolf Hertz (1857-1894) a ottenere osservazioni sperimentali decisive. Egli cominciò a studiare l’influenza di materiali isolanti sull’azione elettrica tra circuiti quando questi materiali erano interposti fra tali circuiti e quando i circuiti erano percorsi da correnti oscillanti. A poco a poco si accorse che i suoi metodi di osservazione avrebbero permesso di rilevare se questa azione si propagava sotto forma di onde, che egli chiamò onde elettriche, anche quando tra i circuiti c’era solo l’aria. In pochi mesi, nel 1888, egli produsse la prova sperimentale che rivelava l’esistenza delle onde elettriche al di là di ogni ragionevole dubbio.
La teoria di Maxwell poteva ritenersi confermata; le onde elettriche altro non erano che forme di radiazione identiche alla radiazione luminosa, anche se di lunghezza d’onda più grande. Ormai era chiaro che la radiazione elettromagnetica si estendeva in un ampio spettro, al cui estremo delle lunghezze d’onda molto piccole c’era la radiazione ultravioletta, seguita, per lunghezze d’onda via via crescenti, dalla radiazione visibile (ossia la luce), poi dalla radiazione infrarossa (il cosiddetto calore radiante), fino alle onde elettriche (da allora chiamate onde hertziane e poi radioonde) che potevano avere lunghezze d’onda molto grandi.

LA DIVISIONE DELL’ENERGIA
Fu Hermann von Helmholtz (1821-1894) a dare una base teorica comune a tutte queste osservazioni. Egli postulò che esso fosse generalizzabile a tutti i fenomeni fisici, in quanto in ognuno di essi era identificabile una “forza di tensione” (quella che poi venne chiamata energia potenziale) e una “forza viva” (poi chiamata energia cinetica), la cui somma, considerando tutti i corpi che prendevano parte al fenomeno, rimaneva comunque costante. Il denominatore comune a tutti gli agenti naturali era dunque la loro capacità di produrre effetti utili. E’ una capacità che si conserva, anche se talvolta si trasferisce a movimenti che non sono osservabili a occhio nudo, ma riguardano le particelle microscopiche di cui sono fatti i corpi, e che si rivelano solo come aumento di temperatura dei corpi stessi. Questa capacità di produrre effetti utili o, come si diceva, capacità di produrre lavoro, fu in seguito chiamata universalmente energia.
Grazie a queste intuizioni nel 1769, l’ingegnere scozzese James Watt (1736-1819) realizza in pratica la prima moderna macchina a vapore.
In seguito nel 1851 Lord Kelvin, al secolo William Thomson enuncia il secondo principio della termodinamica concludendo che il calore è solo una forma di energia. Se si raffredda abbastanza un oggetto, l’energia cinetica raggiunge il minimo cioè lo zero assoluto di temperatura; nel 1879 il fisico austriaco Stefan accertò che ogni corpo che possiede una temperatura maggiore rispetto all’ambiente che lo circonda tende a perdere il calore tramite una radiazione aumentata alla quarta potenza della temperatura assoluta. In precedenza Kirchhoff aveva dimostrato che se una sostanza assorbe tutte le lunghezze d’onda della luce emetterà, se scaldata, tutte le lunghezze d’onda.
Ma una grossa scoperta si deve al fisico teorico Max Planck (1858-1947) .
Planck si occupava di termodinamica ed era interessato all'emissione e assorbimento della radiazione elettromagnetica da parte dei corpi riscaldati a una certa temperatura. Aumentando la temperatura di un corpo, esso emette radiazione di lunghezza d'onda sempre più piccola. Dalla luce emessa dal Sole è possibile dedurre che la sua superficie ha una temperatura di circa 6000 °C. Insomma, a temperature più elevate corrispondono radiazioni di frequenza più elevata (e quindi di minore lunghezza d'onda).
L'obiettivo di Planck era spiegare questo fenomeno in base all'ipotesi che la radiazione fosse emessa e assorbita dalle particelle elementari cariche che formavano gli atomi dei corpi. Planck suppose che, a mano a mano che aumentava la temperatura, l'energia del corpo si trasferisse a particelle la cui frequenza di oscillazione fosse via via crescente. L'unico modo di risolvere la questione era supporre che le particelle oscillanti potessero assumere solo valori discreti di energia. Se una particella oscillava con frequenza e, allora la sua energia doveva essere proporzionale a questa frequenza e, nello stesso tempo, un multiplo intero di un “quanto” elementare di energia, pari al valore di una costante fondamentale, che Planck designò con la lettera h ,moltiplicato per la frequenza di oscillazione v. La formula di Planck E = hv segna l'inizio, nel 1900, della fisica quantistica.
Le conseguenze di questa assunzione erano sconvolgenti. Implicavano infatti che ogni particella potesse variare la sua energia solo effettuando un “salto” da un valore. Andava perduta una delle caratteristiche essenziali della descrizione classica, ossia che le variazioni di energia potessero avvenire in maniera continua.

GLI ELETTRONI
LA DIVISIONE DELL’ELETTRICITÀ
Nel frattempo si sviluppavano i primi esperimenti sull’elettricità: ad esempio l’uso di potenti accumulatori di elettricità, come le cosiddette bottiglie di Leida.
Una svolta altrettanto importante fu prodotta dall’invenzione della pila elettrica da parte di Alessandro Volta (1745-1827). La pila di Volta segna infatti l’inizio dello studio della corrente elettrica (le scariche elettriche che si studiavano in precedenza erano fenomeni di durata brevissima) e dell’idea che i fenomeni chimici (la pila è un congegno in cui avvengono reazioni chimiche) sono fenomeni in cui l’elettricità gioca un ruolo essenziale.
Per produrre il vuoto in cui potevano muoversi le correnti elettriche Geissler inventò, nel 1855, una pompa pneumatica che grazie al mercurio asportava l’aria.
L'uso sistematico delle pompe per vuoto rese possibile indagare la natura della scarica che si verificava in un gas una volta che una differenza di potenziale sufficiente veniva prodotta tra il catodo (l’elettrodo negativo) e l’anodo (l’elettrodo positivo). I fenomeni osservati apparivano strani e pittoreschi. Si vedevano bande luminose alternarsi a spazi scuri, e queste configurazioni variavano con la pressione del gas. Ma un fenomeno particolarmente insolito si produceva allorché la pressione del gas diventava molto bassa: la scarica nel gas cessava di essere luminosa, ma una debole luminosità verdastra (come quella degli oggetti fosforescenti) si produceva, all'interno del tubo, nella parte opposta al catodo. Lo studio di questo fenomeno portò, già tra il 1870 e il 1880, a ritenere che il catodo emettesse una nuova forma di radiazione che, quando urtava il vetro del tubo a scarica, produceva effetti di fluorescenza. Erano stati scoperti i raggi catodici .
Si apriva una delicata questione: di che natura erano questi raggi?
L'inglese William Crookes (1832-1919) iniziò una serie sistematica di osservazioni in base alle quali si poteva supporre che i raggi catodici avessero una natura corpuscolare e fossero composti di una materia molto “sottile”, addirittura più fine di quella degli stessi gas. Il tedesco Philip Lenard (1862-1947), influenzato da Hertz, il quale non credeva nella natura corpuscolare dell'elettricità, sosteneva che invece si trattava di una nuova forma di radiazione, diversa da quella luminosa, che si propagava nell’etere. Inconsapevolmente, Lenard favorì un’altra scoperta importante. Volendo dimostrare che i raggi catodici potevano oltrepassare sottili lamine metalliche (e quindi non potevano essere “materiali”), si accorse che effettivamente una lamina metallica investita da raggi catodici emetteva una strana forma di radiazione, che egli ritenne essere costituita da raggi catodici “secondari”.
Fu l'inglese Joseph John Thomson (1856-1940) a risolvere la questione. Egli dimostrò che i raggi catodici trasportavano carica elettrica negativa e che venivano deflessi da campi elettrici e/o magnetici. Non si trattava di radiazione eterea, ma di vere e proprie particelle cariche. E Thomson giunse nel 1896 a misurare il rapporto tra la carica elettrica e la massa di questi corpuscoli, rapporto che mostrava come questi fossero circa duemila volte meno pesanti di un atomo di idrogeno. Thomson concluse di aver trovato lo stato più elementare della materia, le particelle più piccole che la possono comporre. Aveva scoperto l’elettrone.

I RAGGI X
Wilhelm Konrad Röntgen (1845-1923) Studiò anche egli i raggi catodici, ma in particolare del loro effetto su certe sostanze chimiche. Scoprì una radiazione di tipo particolare, con proprietà diverse dai raggi catodici, una delle quali era estremamente affascinante: era in grado di attraversare anche notevoli spessori di materia. Röntgen aveva scoperto i raggi X. Nel 1912 Laue tentò di far passare i raggi X nel cristallo di solfuro di zinco. E determinò che erano onde trasversali molto corte.
A questo punto due membri della famiglia Bragg ( padre e figlio) calcolarono che la lunghezza d’onda dei raggi X era fra 1/50 e 1/50000 di quella ella luce visibile.

ELETTRONI E ATOMI
Studiando in quali soluzioni potesse passare la corrente elettrica Faraday aveva scoperto che qualcosa presente nella soluzione portava le cariche in diverse direzioni. Chiamò ioni i portatori di carica.
Ma nel 1883 Svante Arrhenius sviluppò una nuova teoria: la teoria della dissociazione elettrolitica. Secondo cui un elettrolita messo in soluzione si scioglie, dissociandosi in due ioni di carica elettrica opposta. Questi ioni carichi sono sempre presenti in soluzione, muovendosi in modo disordinato. Quando la soluzione è attraversata da corrente elettrica, cioè quando ai due poli della cella elettrolitica viene creata una differenza di potenziale, gli ioni migrano verso il polo di carica opposta.
Quattro anni dopo Hertz scoprì l’effetto fotoelettrico, che consiste nell’emissione di elettroni (a quel tempo non ancora conosciuti) da parte di una superficie metallica investita da una radiazione elettromagnetica. Nel 1888 Hallwachs ipotizzò che tra gli atomi ci fossero come delle compensazioni di elettroni e che quindi venissero espulsi per rimediare alla mancanza.
La soluzione fu data da Einstein : ampliò la teoria di Planck affermando che, non solo i processi di assorbimento o emissione hanno luogo per quanti di energia definita, ma anche la radiazione stessa si propaga nello spazio, localizzata in granuli ( quanti di luce o fotoni). Così si spiega l’effetto fotoelettrico: quando un raggio di luce incide su una superficie metallica, i fotoni collidono con gli elettroni imprimendo loro un impulso che, se sufficientemente elevato, può farli uscire dall’atomo. La teoria degli elettroni di Thomson si verificò: gli elettroni non erano altro che le particelle fotoelettriche.

ELETTRONI E QUANTI
Lenard studiando l’effetto fotoelettrico scoprì che la lunghezza d’onda influenzava questo fenomeno (valore di soglia). Cioè la velocità degli elettroni dipende dalla lunghezza d’onda, mentre l’intensità della luce influisce il numero degli elettroni espulsi: il numero delle onde per secondo è chiamato frequenza ed è inversamente proporzionale alla lunghezza d’onda.
La teoria quantistica venne in seguito studiata ed esposta da Einstein (v.sopra)

ONDE E PARTICELLE
Il quanto di luce venne nominato fotone da Compton che aveva dimostrato che la radiazione agiva come una particella.Un anno dopo, nel 1925 Louis de Broglie ipotizzò che anche le particelle materiali, come gli elettroni, avessero una natura ondulatoria. Questa teoria venne verificata dal fisico Davidsson. Nel 1927 vennero osservati i primi effetti di diffrazione e interferenza anche in un fascio di elettroni. Dunque non solo la luce, ma tutta la materia aveva una natura duale. Tutte le particelle elementari si comportano come onde o come corpuscoli a seconda delle situazioni.

I NUCLEI
IL SONDAGGIO DELL’ATOMO
Nel 1898 J. J. Thomson fu il primo che suppose che l’atomo fosse formato da un certo numero di elettroni in continuo movimento all’interno di una sfera di elettricità positiva. Ma nel 1903, Lenard intuì che l’atomo fosse costituito da una nube di minuscole particelle una positiva e una negativa che ruotavano una intorno all’altra formando una coppia neutra. Nel 1904 Nagaoka formulò l’ipotesi che gli elettroni ruotassero attorno a una particella centrale carica di elettricità positiva. Ma come era possibile sondare l’interno dell’atomo?
Nel 1896 Henri Becquerel notò che una lastra fotografica si anneriva se posta nelle vicinanze di un minerale contenente composti dell’uranio. Questi composti dovevano emettere perciò radiazioni capaci di rilasciare energia all’interno delle lastre impressionandole. Nel 1899 Pierre Curie e sua moglie Marie Curie riuscirono a estrarre dal misterioso minerale la sostanza radioattiva responsabile dello strano fenomeno, che fu battezzata radio. Un anno dopo Ernest Rutherford classificò le radiazioni emesse dalle sostanze radioattive in tre gruppi: radiazioni alfa, beta e gamma. Rutherford osservò inoltre che gli atomi che emettono radiazioni si trasformano in atomi diversi, cioè dotati di proprietà chimiche diverse da quelle caratteristiche degli atomi di partenza. Molti esperimenti furono svolti negli anni successivi allo scopo di individuare la composizione dei tre tipi di radiazione. I loro risultati hanno portato a concludere che la radiazione alfa è costituita da nuclei di elio (due protoni e due neutroni), la radiazione beta da elettroni (o dalle loro antiparticelle, i positroni) mentre la radiazione gamma è una radiazione elettromagnetica (e quindi composta da fotoni) particolarmente energetica.
Nel 1911 Rutherford concepì il modello di atomo che porta il suo nome: un “nucleo” contenente la maggior parte della massa dell’atomo, carico di elettricità positiva e avente un raggio più piccolo di quello atomico; attorno al nucleo un certo numero di elettroni su orbite circolari.
Due anni dopo Niels Bohr presentò la sua teoria sulla struttura dell’atomo. Essa completava il modello di Rutherford e, soprattutto, spiegava i processi di emissione e di assorbimento di fotoni da parte degli atomi di idrogeno.
La struttura del nucleo divenne più chiara quando, nel 1932, James Chadwick scoprì il neutrone, una particella avente circa la stessa massa del protone ma con carica elettrica nulla. Si arrivò così all’ipotesi di Heisenberg (1901-1976) che i nuclei atomici consistessero di protoni e di neutroni. Furono invece escluse altre spiegazioni alternative, come quella secondo la quale i nuclei erano composti da protoni e elettroni.

LE PARTICELLE CON CARICA POSITIVA
Nel 1920 Rutherford suggerì che, all’interno del nucleo, un protone potesse fondersi con un elettrone in modo da formare un’unica particella neutra che egli chiamò neutrone. Questa idea forniva una soluzione al problema rappresentato dalla presenza di elettroni nel nucleo. Tuttavia fu subito chiaro che il neutrone non poteva essere considerato il prodotto dell’aggregazione di un protone e di un elettrone. In seguito alla scoperta dei neutroni, Heisenberg (nel 1932) ipotizzò che il nucleo fosse costituito da Z protoni e da N neutroni. Un'ipotesi, quella di Heisenberg, confermata da numerosi esperimenti. Anche se rimangono tuttora da sviluppare alcuni aspetti della teoria, le tecniche sperimentali sono così raffinate da aver fornito una grande quantità di informazioni sulla struttura dei nuclei.

I NUMERI ATOMICI
Elettroni e protoni sono dotati di carica elettrica; questa ha lo stesso valore per i due tipi di particelle ma è di segno opposto (negativa nei primi e positiva nei secondi). Il nucleo, in virtù della presenza dei protoni, risulta carico positivamente e per questo motivo attrae gli elettroni carichi di elettricità negativa. Poiché elettroni e protoni sono dotati della stessa quantità di carica, anche se di segno opposto, e poiché l’atomo nel suo complesso è elettricamente neutro, in ogni atomo ci deve essere un numero uguale di elettroni e protoni. La neutralità della carica elettrica dell’atomo rappresenta la situazione di normalità; tuttavia, particolari condizioni fisiche (per esempio quelle che si verificano all'interno delle stelle) possono alterare l’equilibrio. In tal caso, in un atomo il numero di elettroni differisce dal numero Z di protoni; l’atomo quindi non è più elettricamente neutro e prende il nome di ione.
I neutroni, come suggerisce il loro nome, hanno carica nulla e perciò non influiscono sul comportamento “elettrico” dell’atomo. Contribuiscono invece, e in modo rilevante, al suo peso. Infatti un neutrone, così come un protone, pesa quasi quanto duemila elettroni. Questo significa che tutto il peso dell’atomo è praticamente concentrato nel nucleo mentre il contributo degli elettroni risulta trascurabile.
La quantità di protoni presente nel nucleo di un atomo è indicata da un numero atomico. Negli atomi elettricamente neutri, questo numero rappresenta anche il numero di elettroni. Il numero atomico è fondamentale per la classificazione dei diversi elementi chimici: al suo crescere si passa da atomi semplici come l'idrogeno e l'elio (il cui numero atomico vale rispettivamente 1 e 2) ad atomi complessi e rari come il laurenzio (di numero atomico 103).
Per conoscere il peso di un atomo, oltre al numero di protoni, bisogna conoscere il numero di neutroni. La somma del numero di neutroni e del numero di protoni si chiama numero di massa; il quale indica quante particelle ci sono nel nucleo e quanto pesa l'atomo ( gli elettroni sono particelle di peso trascurabile rispetto agli altri costituenti dell'atomo).

LINEE SPETTRALI
Nel 1913 il fisico danese Niels Bohr (1885-1962) concepì un modello capace di conciliare il concetto di nucleo con la stabilità degli atomi. Era però un modello che sfidava il senso comune e le leggi dell’elettrodinamica.
Secondo il modello di Bohr, non tutte le orbite circolari sono permesse. Gli elettroni possono muoversi solo su quelle che hanno una distanza dal nucleo ben definita. Quando si muove lungo una di queste orbite, l’elettrone non emette onde elettromagnetiche e non perde quindi energia. A ogni orbita è associato un valore per l’energia dell’elettrone. Più grande è il raggio dell’orbita, maggiore è l’energia della particella che la percorre. Il passaggio da un’orbita a una di raggio maggiore può avvenire se l’elettrone assorbe una quantità discreta di energia (un quanto), pari alla differenza tra le energie delle due orbite. La quantità discreta di energia assorbita dall'elettrone si presenta sotto forma di fotone, la particella che “trasporta” la radiazione elettromagnetica. Viceversa, si ha l’emissione di un fotone se l’elettrone si trasferisce da un’orbita più esterna a una più interna.
Questo meccanismo proposto da Bohr era in grado di spiegare le caratteristiche principali delle righe spettrali (serie spettrali) dell'atomo di idrogeno e questo fatto contribuì al successo del modello. Si presentano allora fenomeni fisici interpretabili solo dalla teoria della relatività ristretta elaborata da Albert Einstein (1879-1955)

GLI ISOTOPI
L’ENERGIA NUCLEARE
Ma le scoperte riguardanti il mondo microscopico non finivano qui. Pochi mesi dopo la scoperta di Röntgen, Henri Becquerel (1852-1908) osservò le radiazioni emesse da composti dell'uranio. Marie Curie (1867-1934) e suo marito Pierre Curie (1859-1906) individuarono poco dopo altri elementi che emettevano forme di radiazione simili, il polonio e il radio (da cui il nome "radioattività").

VARIETA’ NUCLEARI
Nel susseguirsi del Novecento gli studiosi riuscirono a scoprire che purificando alcuni elementi che sembravano radioattivi si arrivava invece ad un elemento non radioattivo (disintegrazione radioattiva). Per esempio purificando elementi come l’uranio o il torio alla fine si ottenevano metalli non radioattivi che dopo qualche tempo riacquistavano la loro radioattività. Inseguito si scoprirono gli elementi intermedi delle disintegrazioni (come il polonio e il radio) e si poté costatare che dopo molti cambiamenti sia l’uranio sia il torio diventavano piombo non radioattivo.
Un chimico che aveva partecipato a queste scoperte, Soddy, nel 1902 pensò che nella tavola periodica dovevano apparire questi elementi: possedevano proprietà radioattive diverse, ma lo stesso numero atomico e le stesse proprietà chimiche. Li chiamò isotopi.

TEMPO DI DIMEZZAMENTO
Continuando gli studi si notò che alcuni elementi con il passare del tempo perdono le loro proprietà chimiche. Ad esempio il radio ha una semitrasformazione ogni 1620. Passa al radon che si muta in polonio; l’ultimo stadio è il piombo che non si muta ulteriormente .Questo fenomeno venne chiamato tempo di dimezzamento ed oggi ha trovato molte applicazioni soprattutto nel campo della datazione dei fossili.

I NEUTRONI
PROTONI ED ELETTRONI
Il fatto che alcuni nuclei atomici radioattivi emettano raggi alfa e beta, entrambi di natura corpuscolare, suggerisce l’idea che essi siano costituiti da particelle. Nel 1816 Prout aveva notato che tutti gli atomi allora conosciuti avevano un peso approssimativamente uguale a un numero intero di volte il peso atomico dell’idrogeno. Questo fatto suggerì l'ipotesi che tutti i nuclei fossero aggregati di nuclei di idrogeno. Ipotesi che venne scartata quando ci si accorse che esistevano pesi atomici frazionari, come quello del cloro (35,48) e del boro (10,81).
In realtà la maggior parte degli elementi chimici esistenti in natura è costituita da miscele di isotopi. Si spiegò così la presenza di pesi atomici frazionari.
Intorno al 1920 fu possibile accertare che non esisteva alcun componente nucleare di carica positiva che fosse più leggero del nucleo dell’idrogeno. Si arrivò allora alla conclusione che il costituente fondamentale dei nuclei atomici fosse il nucleo dell’idrogeno, che fu detto protone.
Per giustificare la neutralità elettrica degli atomi si suppose che in un atomo dotato di un certo numero di protoni dovessero esserci anche lo stesso numero di elettroni.
Il fallimento della ipotesi protone-elettrone fu dovuto alla scoperta di una proprietà del nucleo fino ad allora sconosciuta, lo spin. Lo spin è una caratteristica intrinseca delle particelle. La rotazione (spin) della carica elettrica genera un momento magnetico. Anche il nucleo, come l'elettrone, è dotato di spin. Ma il nucleo non è una particella elementare; è un aggregato di particelle e quindi il suo spin risulta essere la somma degli spin e dei momenti angolari orbitali dei suoi costituenti. Ebbene se davvero i nuclei fossero fatti di protoni e di elettroni i loro spin dovrebbero essere ben diversi da quelli che si misurano. Contro l'esistenza di elettroni nel nucleo intervengono anche considerazioni di meccanica quantistica relativistica che si ispirano al principio di indeterminazione di Heisenberg. Si può dimostrare infatti, in base a tale principio, che è impossibile costringere un elettrone a rimanere in una regione di spazio grande quanto il nucleo di un atomo.

LE REAZIONI NUCLEARI
Nel 1919 Rutherford inventò il contatore a scintillazione: quando le particelle urtano contro uno schermo, o penetrano in un serbatoio di liquido, emettono lampi di luce che possono venire captate e contate. Grazie a questo strumento ipotizzò che una particella alfa andando a collidere con un nucleo d’azoto riusciva a strappare un protone dal nucleo e causava la scintilla. Perciò Rutherford fu il primo a effettuare in laboratorio una reazione nucleare: era riuscito a produrre la trasformazione di un elemento in un altro (azoto in ossigeno).

GLI ISOTOPI ARTIFICIALI
Rutherford aveva dimostrato che i nuclei stabili possono essere spezzati.
Nel 1934 i fisici francesi Frédéric e Irène Joliot-Curie notarono che l’alluminio , quando è bombardato da particelle alfa, si trasforma in un nuovo isotopo del fosforo. Questo isotopo non si trova in natura ed è radioattivo. Tale scoperta dimostrò per la prima volta che è possibile trasformare un elemento stabile in un isotopo radioattivo, bombardandolo con particelle nucleari.
Questa tremenda applicazione tecnologica sarebbe stata il culmine della ricerca in fisica nucleare, iniziata nei primi anni Trenta. In questo campo si manifestarono appieno le geniali capacità di Enrico Fermi e del gruppo di giovani fisici che venne riunito presso l’università di Roma.
Nel 1932 James Chadwick risolve sperimentalmente la questione della struttura del nucleo atomico accertando l’esistenza di particelle neutre di massa all’incirca uguale a quella dei protoni, i neutroni. Da allora, Fermi e i suoi collaboratori Emilio Segrè, Franco Rasetti, Edoardo Amaldi, coadiuvati dal teorico Ettore Majorana, cominciano a lavorare sulla radioattività, vista come manifestazione di fenomeni nucleari. La loro scoperta fondamentale avviene nel 1934, quando essi riescono a rendere radioattive determinate sostanze, bombardandole con neutroni di bassa energia.
Il nucleo poteva essere reso instabile e addirittura modificato dall’uomo. Quest’ultimo aspetto sembrava realizzare il sogno degli antichi alchimisti: e infatti molti fisici, compresi gli italiani, si dedicarono alla produzione di elementi chimici “artificiali”.
Ma era l’instabilità l’aspetto più importante della ricerca. In effetti, nel 1938, Otto Hahn e Fritz Strassmann osservarono che un nucleo di uranio bombardato da neutroni si scinde in due nuclei di elementi più leggeri. Era stata scoperta la fissione nucleare. Peraltro, il processo comportava la liberazione di un’enorme quantità di energia. L'importanza, anche militare, della scoperta fu notata quasi subito, in particolare da Einstein. Fu così che, quando gli Stati Uniti entrarono in guerra, partì il progetto Manhattan che avrebbe portato alla scoperta dei metodi di utilizzazione dell’energia nucleare. In particolare, fu lo stesso Fermi, nel frattempo emigrato in America per motivi politici, a realizzare nel 1942 la prima pila atomica.

LE DISINTEGRAZIONI
LA FISSIONE NUCLEARE
L’energia liberata durante la fissione è dovuta alla trasformazione di parte della massa del nucleo iniziale; infatti i prodotti della reazione hanno una massa complessiva leggermente inferiore a quella del nucleo che è stato scisso. La parte mancante è liberata sotto forma di energia, secondo la relazione di Einstein E = mc2.(difetto di massa).
I nuclei vivono in una situazione di equilibrio dovuta alla contrapposizione tra le forze elettrostatiche repulsive che si esercitano tra i protoni e quelle (molto intense ma di breve raggio di azione) forze nucleari forti attrattive che si esercitano tra tutti i nucleoni. Se l’equilibrio è precario, come accade in alcuni nuclei pesanti, è sufficiente fornire dall’esterno un’opportuna quantità di energia per alterarlo e generare la rottura del nucleo in due o tre parti.
I nuclei caratterizzati da grandi valori del numero di massa sono costituiti da un numero di neutroni che supera di molto il numero di protoni. Quando avviene la loro fissione si originano nuclei più leggeri, nei quali sono ripartiti i protoni e i neutroni dei nuclei iniziali. I nuovi nuclei però, avendo un numero assai più basso, hanno bisogno di meno neutroni per essere stabili: contengono insomma una quantità di neutroni troppo elevata. Per questo motivo i prodotti delle fissioni risultano instabili. Tuttavia raggiungono la stabilità grazie a una serie di decadimenti beta che trasformano i neutroni in eccesso in protoni. La radioattività che si registra durante i processi di fissione deriva principalmente dalla trasformazione di neutroni in protoni e viceversa.
Può succedere che all'atto della scissione venga emesso qualcuno (2 o 3) dei neutroni in eccesso; è questo il fenomeno su cui si basano le reazioni a catena: si fa in modo che la fissione di un nucleo produca neutroni liberi, i quali a loro volta, urtando altri nuclei simili al primo, innescano ulteriori processi di fissione. Ogni fissione libera una quantità relativamente piccola di energia, ma una volta innescata la reazione a catena si sommano i contributi di miliardi di processi contemporanei.

FUSIONE
La fusione nucleare è un altro dei processi di trasformazione dei nuclei. E’’, tra l’altro, il processo che tiene in vita le stelle e quindi, indirettamente, tutti gli esseri viventi che beneficiano dell’energia irradiata dal Sole.
Due nuclei atomici si fondono se urtano uno contro l’altro avendo velocità sufficiente a vincere la repulsione elettrostatica che si esercita tra i protoni di cui sono composti. Per questo motivo è più probabile che la fusione avvenga tra nuclei leggeri, i cui pochi protoni si respingono con un’intensità relativamente bassa. Il risultato del processo è un nuovo nucleo, in genere più leggero della somma dei due nuclei di partenza. La massa mancante, anche in questo caso, si trasforma in energia e viene rilasciata sotto forma di raggi gamma e neutrini.
Spesso si parla di fusione termonucleare in quanto per poter innescare reazioni di questo tipo occorrono temperature elevatissime, spesso esistenti solo all'interno delle stelle.
Si deve considerare però che il combustibile usato (l'idrogeno) è uno degli elementi più abbondanti in natura. Inoltre, aspetto non secondario ai fini dello sfruttamento per la produzione di energia da parte dell'uomo, la fusione nucleare, al contrario della fissione, non dà luogo a scorie radioattive.
Per questi motivi la fusione nucleare è vista come la possibile e definitiva soluzione al problema dell'approvvigionamento energetico. Tuttavia le condizioni per ottenere la fusione sono assai più complesse da raggiungere rispetto a quelle caratteristiche della fissione. I nuclei candidati alla fusione devono muoversi con velocità tali da vincere le reciproche repulsioni elettrostatiche. Imprimere velocità elevate ai nuclei significa portare la materia in cui sono contenuti a temperature elevatissime.

L’ANTIMATERIA
LE ANTIPARTICELLE
La meccanica quantistica aveva teoricamente previsto, per ogni particella elementare, l’esistenza di un’antiparticella; sperimentalmente nel 1932 è stato scoperto l’antielettrone ( elettrone positivo o positrone) e soltanto nel 1956 l’antiprotone( cioè il protone con carica negativa). In pratica l’antiparticella consiste in una particella elementare avente massa uguale , ma altre caratteristiche proprie (per esempio la carica) opposte a quelle di particelle più comuni.
Nel nostro mondo fisico le particelle sono di gran lunga più numerose delle antiparticelle, e ci comporta che la vita media di queste ultime sia brevissima; infatti quando particella e antiparticella si incontrano, avviene il fenomeno dell’annichilazione, cioè entrambe scompaiono e l’energia corrispondente alla loro massa si manifesta sotto altra forma (per esempio con formazione di due fotoni nel caso dell’incontro elettrone-positrone).

I RAGGI COSMICI
La radiazione cosmica venne scoperta al livello del mare con un elettroscopio da V. Hess e studiata poi sia in quota, sia sott’acqua e in miniera.
I raggi cosmici fasci di particelle elementari di energia elevatissima, composti per il 2% di elettroni e positroni e per il 98% di nucleoni. Nonostante la densità dei raggi cosmici sia trascurabile rispetto a quella del gas interstellare, l’irraggiamento cosmico gioca un ruolo essenziale nel bilancio energetico della Galassia. Le grandi quantità di energia trasportate dai raggi cosmici sono paragonabili infatti a quelle irradiate dalle stelle.
Ma le sorprese non erano finite. Proprio analizzando il comportamento statistico degli elettroni, Dirac era giunto alla conclusione che non vi era nulla nella teoria che impedisse a tali particelle di occupare stati di energia negativa. Bisognava anzi pensare che tali stati, essendo di energia più bassa di quelli di energia positiva, fossero tutti già normalmente occupati. In realtà, secondo Dirac, noi rileviamo sperimentalmente solo gli elettroni che ricevono energia sufficiente a passare da uno stato di energia negativa a uno stato di energia positiva. Nel 1932 Carl David Anderson (1905-1991) rivelò una particella che aveva la stessa massa dell’elettrone, ma carica opposta. Era stato scoperto il positrone.

GLI ACCELERATORI DI PARTICELLE
Gli acceleratori di particelle sono uno strumento indispensabile per le ricerche sperimentali sulle reazioni nucleari, sulla struttura dei nuclei e per lo studio delle particelle elementari. Il primo acceleratore fu ideato nel 1929 da Cockcroft e Walton. In seguito ne furono creati di altri tipi come il ciclotrone, sempre più grandi e potenti. Grazie a questi nel 1955 Segrè riuscì ad individuare gli antiprotoni.
In un acceleratore le particelle accelerate producono energia, e sono dette proiettili; mentre gli atomi o i nuclei su cui si fanno convergere costituiscono il bersaglio. Le particelle cariche in uscita dall’acceleratore colpendo il bersaglio possono produrre particelle neutre, in particolare raggi gamma e neutroni; il bersaglio diventa in tal modo a sua volta, una sorgente di raggi gamma o di neutroni.

I BARIONI
Le particelle elementari possono essere raggruppati in tre classi: bosoni privi di massa che sono i quanti dei due campi ( gravitazionale ed elettromagnetico); leptoni cioè fermioni che hanno interazioni con i due campi e interazioni deboli, e che comprendono gli elettroni e i neutrini; adroni suddivisi in barioni, che comprendono protoni, neutroni e gli iperoni.

I NEUTRINI
AL SALVATAGGIO DELLE LEGGI DI CONSERVAZIONE
Nel 1920 la legge della conservazione dell’energia non sembrava più vera: non la soddisfava l’emissione di particelle beta. Nel 1930 Pauli salvò la situazione: scoprì il neutrone, una particella elettricamente neutra e pesante, capace di strappare i protoni dai nuclei. Anche Fermi studiò questa particella e la nominò neutrino.
Il decadimento beta è uno dei fenomeni più importanti nella fisica nucleare: corrisponde alla trasformazione di un neutrone in un protone oppure, e in tal caso si parla di decadimento beta inverso, alla trasformazione di un protone in un neutrone. Quando un neutrone si trasforma in un protone, il decadimento è accompagnato dalla emissione di un elettrone e di un antineutrino (l'antiparticella del neutrino); la presenza dell'elettrone garantisce che la carica elettrica del sistema rimanga inalterata prima e dopo il processo. Quando invece si ha la trasformazione di un protone in un neutrone, vengono emessi un neutrino e un positrone (un elettrone di carica positiva).

LEPTONI
i leptoni hanno una massa relativamente piccola. I leptoni si presentano come oggetti indivisibili, privi di struttura interna. Sono cioè particelle elementari. Hanno tutti spin 1/2 e rientrano perciò nella categoria dei fermioni. Inoltre possono avere carica elettrica o esserne privi. Il primo leptone a essere stato scoperto è l'elettrone.
Un secondo leptone è il neutrino. Il nome comunica immediatamente due sue caratteristiche importanti, la leggerezza e l'assenza di carica elettrica. I neutrini non sono soggetti all'interazione forte e all'interazione elettromagnetica, le interazioni che tengono insieme rispettivamente i nuclei e gli atomi. Ecco perché un neutrino può attraversare indisturbato spessi strati di materia. La massa del neutrino ha certamente un valore molto piccolo, se confrontato con quello delle altre particelle elementari. Un valore che non dovrebbe discostarsi di molto dallo zero.
I neutrini non sono tutti dello stesso tipo. Esistono il neutrino elettronico, il neutrino muonico e il neutrino tauonico. Pur essendo molto simili si presentano in situazioni diverse perché corrispondono ai tre diversi leptoni carichi. Così il neutrino elettronico compare quando, per esempio nel corso di un decadimento beta, viene generato un elettrone; analogamente gli altri tipi di neutrini accompagnano la creazione di muoni.
Un altro leptone è il mesone o muone. Assomiglia molto all’elettrone: ha la stessa carica elettrica, lo stesso spin ed è soggetto alle stesse interazioni. Ha però una massa maggiore ed è una particella instabile: la sua esistenza, quando è in quiete, dura solo due milionesimi di secondo. Trascorso questo intervallo di tempo si trasforma in un elettrone e in una coppia di neutrini.

LE PARTICELLE INSTABILI
Alcune particelle sono stabili e altre instabili. Le particelle stabili sono i protoni, i neutroni, gli elettroni, i neutrini, i fotoni. Le particelle instabili devono essere studiate entro breve tempo dalla loro produzione, realizzata per l’urto di una particella a energia elevata contro un’altra particella. In natura esistono particelle di elevata energia nei raggi cosmici, ma il loro flusso è basso e quindi la maggior parte delle ricerche viene svolta sulle particelle elementari prodotte negli acceleratori di particelle.

INTERAZIONI
L’INTERAZIONE FORTE
Le interazioni forti sono responsabili dell'esistenza dei nuclei atomici e pertanto, in ultima istanza, della materia di cui siamo costituiti.
Dalle fondamentali esperienze di Ernest Rutherford (1871-1937) sulla diffusione di particelle alfa, risultò l'evidenza empirica che all'interno dell'atomo si trova un nocciolo duro che prende il nome di nucleo. Lo stesso Rutherford presentò l'evidenza sperimentale che i nuclei atomici sono dotati di struttura interna.
A parte il nucleo dell'atomo di idrogeno, che contiene un solo protone, all'interno di tutti gli altri nuclei coesistono più protoni. Questo significa che essi devono essere tenuti insieme da forze attrattive di intensità più elevata della repulsione elettrostatica e di natura differente: le interazioni forti.
Per poter trasformare un elemento chimico in un altro dobbiamo cambiare la sua struttura nucleare, operazione che richiede, a causa della grande intensità delle interazioni forti, molta più energia di quanta sia necessaria per provocare una reazione chimica.
La meccanica quantistica associa a ogni campo di forze una particella. Questo fatto portò il fisico giapponese Hideki Yukawa (1907-1981) a ipotizzare l'esistenza di un quanto relativo alla propagazione delle forze nucleari. La massa di questa particella può venire dedotta dal raggio di azione delle forze nucleari e risulta essere intermedia tra quella del protone e quella dell'elettrone. Le fu pertanto assegnato il nome di mesone. Sono state scoperte numerose altre particelle che interagiscono con intensità e raggio d'azione paragonabili a quelle dell'interazione nucleare. A queste particelle è stato dato il nome generico di adroni.

INTERAZIONI DEBOLI
Come le interazioni forti, anche le interazioni deboli furono scoperte nello studio del nucleo atomico. Il loro nome deriva dal fatto che si tratta di interazioni di intensità molto bassa e quindi causano processi che si svolgono lentamente, sulla scala dei tempi caratteristici della microfisica. Esse furono osservate dapprima nei fenomeni radioattivi, in cui il numero atomico di un elemento può mutare spontaneamente, trasformando così un atomo di un elemento chimico in uno diverso.
Tale processo fu descritto da Enrico Fermi (1901-1954) tramite una famosa teoria che porta il suo nome (antineutrino elettronico). Tale particella partecipa essenzialmente solo alle interazioni) ed è dunque molto difficile da rilevare sperimentalmente. Infatti, data la sua debolissima interazione, essa attraversa facilmente grandi quantità di materia senza lasciare alcuna traccia. Per poter osservare i neutrini (o gli antineutrini) è necessario produrne una grande quantità, ciò che è possibile nei moderni acceleratori di particelle, facendoli poi passare attraverso grandi quantità di materia.
Facendo riferimento alla intensità relativa delle interazioni si nota la grande disparità tra deboli ed elettromagnetiche. Nel 1968, Sheldon Glashow (1933), Abdus Salam (1926) e Steven Weinberg (1933) proposero un modello che unificava questi tipi di interazioni, prevedendo, fra l'altro, l'esistenza di nuove particelle, molto pesanti, quali mediatori (campi) delle interazioni deboli. Le previsioni di questo modello unificato delle interazioni elettrodeboli sono state confermate sperimentalmente a grandi livelli di precisione, tanto che oggi il modello proposto da Weinberg e Salam ha assunto la denominazione di Modello Standard. Le nuove particelle, previste e osservate sperimentalmente sono denominate "bosoni intermedi".

I QUARK
Se si ordinano gli adroni noti in base alla loro massa, alla carica elettrica e allo spin, emergono simmetrie che lasciano intravedere l'esistenza di relazioni tra le varie particelle. Finché non è stata proposta una teoria secondo la quale ogni adrone è costituito da due oppure tre particelle più piccole: i quark.
Per giustificare l'esistenza di tanti adroni diversi furono introdotti tre tipi di quark: i quark su (u dall'inglese up), giù (d da down), strani (s da strange).
La struttura a quark degli adroni fa luce su molti fenomeni della fisica subnucleare. Per esempio è possibile descrivere il decadimento beta di un neutrone in termini di trasformazioni di quark. Ricordiamo che gli adroni, e dunque i quark che li compongono, si distinguono per essere soggetti all'interazione forte. Tuttavia sono sensibili anche all'interazione debole, quella responsabile del decadimento beta. In questo processo un neutrone si trasforma in un protone emettendo un elettrone e un antineutrino.

L’UNIVERSO
L'universo è oggetto di studio della cosmologia. La moderna cosmologia fa uso di telescopi sempre più sofisticati, di satelliti e antenne radio, che permettono di ricostruire la storia e la geografia dell’universo. Secondo le stime degli astronomi nell'universo ci sono almeno 100 miliardi di galassie, contenenti ciascuna centinaia di miliardi di stelle. Le galassie non sono distribuite a caso, ma raggruppate in ammassi e superammassi di galassie separati da enormi spazi vuoti. Le galassie lontane si stanno allontanando da noi: questo significa che l'universo si sta espandendo. Se si potesse tornare indietro nel tempo, le galassie si riavvicinerebbero, fino a sovrapporsi. L’universo, dunque, ha avuto un principio in cui tutta la materia era compressa.
Secondo gli scienziati questo momento risale ad almeno 15 miliardi di anni fa: tutto sarebbe iniziato con una grande esplosione, detta Big Bang. A quel tempo l’universo doveva essere una specie di “palla di fuoco” estremamente calda e densa, e quindi assomigliare all’interno di una stella. Da questa condizione iniziale l'universo ha iniziato a espandersi e a raffreddarsi. Solo un milione di anni dopo il Big Bang si sono formati i primi atomi e la materia che noi conosciamo ha cominciato ad aggregarsi sotto l'azione della gravità. Circa un miliardo di anni dopo sono nate le galassie, poi le stelle, i pianeti e il mondo che conosciamo.
Quanto è grande l’universo? Di quale materia è costituito? Quale sarà la sua fine?
A queste e ad altre domande tentano di rispondere gli scienziati che si occupano di cosmologia e che ancora oggi non sanno darci delle certezze.

Esempio



  



Come usare