La fisica

Materie:Appunti
Categoria:Fisica

Voto:

2.5 (2)
Download:325
Data:08.10.2001
Numero di pagine:45
Formato di file:.doc (Microsoft Word)
Download   Anteprima
fisica_9.zip (Dimensione: 17.54 Kb)
trucheck.it_la-fisica.doc     98.5 Kb
readme.txt     59 Bytes


Testo

FISICA

.
Caratteristiche fondamentali
La genesi delle diverse discipline dall'unica “filosofia naturale” degli antichi, che comprendeva tutto lo studio degli eventi della natura, è stata tale da lasciare in certa misura simili gli oggetti della fisica e della chimica. Tuttavia la diversificazione storica degli interessi delle due scienze e una permanente ragione pratica di suddivisione del lavoro portano a distinguere i fenomeni in due grandi classi: quelli in cui le proprietà del corpo in esame subiscono una sostanziale modificazione permanente e quelli in cui non la subiscono; nel primo caso si parla di fenomeno chimico, nel secondo di fenomeno fisico. Così, ad es., l'ossigeno e l'idrogeno, combinati in condizioni opportune, formano l'acqua e le proprietà di questo composto sono essenzialmente diverse da quelle degli elementi originari: lo studio del fenomeno rientra perciò nell'ambito della chimica. Ma quando l'acqua stessa viene raffreddata, e si trasforma in ghiaccio, la sua natura è rimasta inalterata: il cambiamento di stato è perciò un processo studiato dalla fisica.
Tuttavia, questa suddivisione è sempre meno netta, perché a fondamento di tutto il comportamento della materia si trovano i fenomeni atomici e nucleari e sempre più si sente l'esigenza di spiegare eventi, quali le reazioni di combinazione chimica degli elementi, attraverso le proprietà delle molecole, degli atomi, dei nuclei ecc. In questo caso lo sviluppo è stato possibile grazie all'elaborazione dei metodi matematici propri della fisica; ma negli ultimi anni è cresciuto anche l'interesse dei chimici per i problemi relativi alla struttura atomica della materia e il campo di lavoro comune alle due scienze è indagato ora sotto il nome nuovo di fisico-chimica.

Divisioni della fisica
Si possono distinguere due momenti essenzialmente separati nell'evoluzione della fisica: fisica classica e fisica moderna, caratterizzata quest'ultima dalle teorie della relatività e della meccanica quantistica elaborate nell'ultimo mezzo secolo, che hanno rivoluzionato il modo stesso di affrontare lo studio dei fenomeni. Nella fisica classica distinguiamo le seguenti discipline aventi oggetti separati: meccanica, termologia e termodinamica, elettrologia , ottica, acustica e fenomeni ondulatori; ciascuna di esse ha poi risentito della nuova impostazione sorta con la fisica moderna e ne è stata modificata. La fisica moderna è nata dall'elaborazione della teoria della relatività e della meccanica quantistica, e trova il suo massimo campo di studio nella fisica atomica e nucleare, nella fisica delle particelle elementari, nella fisica dello stato solido e nella fisica delle basse temperature.

Meccanica
Studia le condizioni di moto e di quiete dei corpi e si suddivide in cinematica, dinamica e statica a seconda del particolare aspetto del problema del moto che viene considerato. Nella cinematica il movimento è studiato indipendentemente dalle cause che lo producono: interessa determinare le caratteristiche geometriche della traiettoria del mobile e le grandezze di velocità e di accelerazione, che stabiliscono come la traiettoria stessa è percorsa durante un certo intervallo di tempo. La cinematica è legata quindi alla nozione di spazio e utilizza il tempo come un parametro atto a individuare la successione delle posizioni occupate dal mobile; a questo scopo si deve introdurre un sistema di riferimento spaziale, rispetto a cui descrivere il moto: occorre perciò anche precisare come le equazioni della traiettoria, la velocità e l'accelerazione del corpo dipendano dal sistema di riferimento che si considera. Nella cinematica classica intervengono trasformazioni tra sistemi di riferimento, dette trasformazioni di Galileo, rispetto a cui il tempo è un parametro invariante, universalmente definito; la teoria della relatività introduce invece nella cinematica un concetto di correlazione tra lo spazio e il tempo, che rende diverse le proprietà di trasformazione di velocità e accelerazione.
Nella dinamica si pongono in relazione le caratteristiche della traiettoria con le forze applicate al mobile: per la risoluzione del problema è fondamentale la legge di Newton, secondo cui l'accelerazione a impressa a un corpo è proporzionale alla forza F, cui esso è sottoposto (a = F/m). Si introduce così il concetto di massa m, costante di proporzionalità che nella teoria classica mantiene sempre lo stesso valore, caratteristico di un dato corpo qualunque sia la velocità con cui questo si muove. Anche qui occorre notare che l'espressione dell'equazione fondamentale dipende dal sistema di riferimento e che nella dinamica classica la legge di Newton risulta invariante per trasformazioni di Galilei tra sistemi in moto relativo di traslazione con velocità costante.
Infine, il caso particolare della dinamica, in cui le forze applicate si fanno equilibrio, è studiato dalla statica: l'interesse di questa parte della meccanica è reso anche più grande dal fatto che ogni problema dinamico può essere ricondotto a un problema statico, attraverso la definizione di opportune forze legate al moto; questa impostazione, introdotta con l'enunciazione del principio di d'Alembert, consente così di trasferire i metodi propri della statica, e i risultati conseguiti da questa, allo studio di ogni problema dinamico.
Se si considera la natura del corpo in movimento è necessario distinguere la meccanica in sezioni che differiscono per l'oggetto di cui si studia il moto: meccanica del punto materiale, che tratta un oggetto dotato di massa e di dimensioni spaziali trascurabili; meccanica dei sistemi rigidi, cioè degli insiemi di punti materiali le cui distanze reciproche restano invariate durante il movimento; meccanica dei corpi deformabili, le cui proprietà dipendono dal tipo di sollecitazione cui sono sottoposti. In particolare, rientra in quest'ultima sezione la meccanica dei fluidi (liquidi e aeriformi), che si è sviluppata fin dall'antichità come disciplina di grande interesse: le condizioni di equilibrio, studiate dall'idrostatica, sono state definite dall'enunciazione della legge di Archimede, della legge di Pascal e della legge di Stevino, mentre per il problema dell'idrodinamica i risultati più importanti sono contenuti nel teorema di Bernoulli (per il moto stazionario e senza attrito interno) e nella legge di Poiseuille (per il caso in cui occorre tener conto dell'attrito interno del liquido). Infine presenta un interesse autonomo, e soprattutto è importante perché consente di studiare il caso dei gas, la meccanica di un insieme costituito di un gran numero di particelle: su questo oggetto è stata elaborata la meccanica statistica, che riconduce il problema a concetti di grandezze medie e di distribuzioni di probabilità.

Termologia e termodinamica
Questa parte della fisica introduce i concetti di quantità di calore e di temperatura e studia i fenomeni connessi con gli scambi di calore e le variazioni di temperatura: dilatazione dei corpi, propagazione del calore (per conduzione, convezione o irraggiamento), cambiamenti di stato (fusione e solidificazione, vaporizzazione e liquefazione, sublimazione); le proprietà delle soluzioni, le trasformazioni in calore dell'energia meccanica, elettrica (effetto Joule), chimica (termochimica). Questi ultimi fenomeni, che dimostrano che il calore è una forma particolare di energia, sono oggetto di studio della termodinamica, che tratta le relazioni tra proprietà termiche e meccaniche; in essa si sono stabiliti due princìpi fondamentali: 1. vi è un'equivalenza tra energia termica e meccanica; 2. non tutta l'energia termica posseduta da un sistema può essere trasformata in energia meccanica, mentre può accadere il processo contrario. La spiegazione della relazione che collega il calore all'energia meccanica è data dalla teoria cinetica della materia e soprattutto per i gas essa è raggiunta per mezzo della meccanica statistica, che permette di ricondurre le proprietà termiche di un sistema (temperatura, quantità di calore, entropia, ecc.) ai valori medi delle variabili dinamiche di tutte le particelle del sistema.

Elettrologia
Ha per oggetto i fenomeni elettrici e magnetici e le interazioni tra essi: poiché l'esperienza dimostra che una carica elettrica in moto (quale, ad es., la corrente in un conduttore) equivale a un magnete, occorre distinguere i fenomeni connessi con particelle in quiete (elettrostatica e magnetostatica) oppure con cariche in movimento (elettrocinetica). Tutte le proprietà dell'elettromagnetismo possono essere dedotte dalle quattro equazioni di Maxwell, che determinano completamente il campo elettromagnetico generato da un'assegnata distribuzione di cariche e correnti. Le equazioni di Maxwell, diversamente dalla legge di Newton, non sono invarianti rispetto alle trasformazioni di Galileo. Proprio questa caratteristica delle equazioni di Maxwell è stata all'origine dell'elaborazione della teoria della relatività.

Ottica
Parte della fisica che ha per oggetto i fenomeni luminosi; benché ora sia noto che la luce non è altro che propagazione di onde elettromagnetiche, è ancora utile tuttavia considerarne lo studio come una disciplina a sé stante. Per ragioni storiche, e per le diverse caratteristiche fisiche dei fenomeni considerati, conviene distinguere l'ottica geometrica e l'ottica ondulatoria: nella prima, si considerano problemi in cui la lunghezza d'onda della radiazione luminosa è trascurabile rispetto alle dimensioni degli oggetti ch'essa incontra sul suo percorso; si può allora sostituire al concetto dell'onda che si propaga quello del raggio luminoso (direzione perpendicolare al fronte d'onda) e si studiano così i fenomeni di riflessione e rifrazione e la formazione delle immagini negli strumenti ottici (specchi, lenti, prismi). Molti fenomeni possono invece essere interpretati solo nell'ambito dell'ottica ondulatoria, che studia, ad es., le proprietà di diffrazione, di interferenza, di polarizzazione, di diffusione. Appartiene anche all'argomento dell'ottica la spettroscopia, che studia gli spettri di emissione e di assorbimento dei corpi.

Acustica e fenomeni ondulatori
La propagazione per onde è un fenomeno di grande interesse anche in altri campi della fisica; ogni volta che un mezzo elastico è sottoposto a una perturbazione, questa genera un movimento vibratorio che si propaga per onde: lo studio di queste vibrazioni rientra nel dominio della teoria dell'elasticità. In particolare la perturbazione può consistere in una produzione di rarefazioni e compressioni in un mezzo, e si genera allora un'onda che si propaga nello spazio circostante. Se la frequenza dell'onda è compresa nel campo di udibilità si ha un suono, considerato attualmente come l'insieme del fenomeno fisico della propagazione per onde e delle sensazioni fisiologiche prodotte nei soggetti viventi. Si usa peraltro ancora mantenere la distinzione fra lo studio dei fenomeni fisici connessi alla propagazione e al passaggio da un mezzo all'altro (attenuazione, assorbimento, riflessione, diffrazione, interferenza, diffusione), che viene chiamata acustica fisica, e lo studio delle proprietà fisiologiche del suono (sensazione sonora, altezza, timbro, ecc.) che unito ai fenomeni relativi (mascheramento, affaticamento, localizzazione spaziale, ecc.), alle modalità di emissione della voce umana (fonazione) e alle sue proprietà fisiche costituisce l'acustica fisiologica.
Lo studio delle proprietà e degli strumenti atti a generare quei particolari suoni complessi armonici chiamati musicali costituisce l'acustica musicale. A questa si affianca l'acustica ambientale, che studia i fenomeni acustici relativamente agli ambienti in cui sono prodotti.
L'elettroacustica è lo studio delle trasformazioni tra energia acustica ed energia elettrica e viceversa.
Il campo studiato dall'acustica si è esteso anche alle vibrazioni di frequenza inferiore o superiore a quella dei suoni percepibili dall'orecchio umano (infrasuoni e ultrasuoni) e ha fornito metodi di indagine utili anche in altri problemi inerenti i fenomeni elastici, quali ad es. la propagazione di onde attraverso il sottosuolo terrestre. La disciplina è importante anche per lo studio dell'inquinamento acustico e per la realizzazione di misure di prevenzione e controllo relative.

Teoria della relatività
Elaborata da Einstein, comprende la relatività ristretta e la relatività generale. La relatività ristretta si propone di formulare le leggi della fisica in modo che siano invarianti per trasformazioni tra sistemi di riferimento in moto relativo di traslazione con velocità costante, introducendo a questo scopo una definizione del tempo non più come parametro universale (quale è dato nella meccanica classica, v. sopra), ma come grandezza definita in un certo sistema di riferimento, in modo tale da soddisfare la proprietà (provata dall'esperienza di Michelson del 1889) che la velocità c della luce nel vuoto è costante e indipendente da ogni sistema di riferimento. Da questa impostazione si deducono nuove proprietà per i moti di corpi a grandi velocità, mentre per velocità trascurabili rispetto a quella della luce la meccanica relativistica si riduce al limite classico; una conseguenza particolarmente importante della teoria è la dipendenza della massa di un corpo dalla sua velocità, che è in contraddizione con il principio di costanza della massa ipotizzato dalla dinamica classica, e l'equivalenza tra massa m ed energia E: E=mc². La relatività generale enuncia le leggi fisiche in modo che siano invarianti rispetto a trasformazioni anche tra sistemi di riferimento in moto accelerato l'uno rispetto all'altro: secondo la teoria di Einstein ogni accelerazione è equivalente all'effetto di un campo gravitazionale, e alla gravitazione sono legate le proprietà geometriche dello spazio-tempo. La relatività generale è particolarmente importante per la comprensione del campo gravitazionale e delle proprietà dell'universo: anche qui, come per la relatività ristretta, il caso classico della teoria gravitazionale di Newton è un'approssimazione limite della relatività generale.
Il legame stretto che la teoria della relatività introduce fra gravitazione e geometria si estende, oltre che all'universo su grande scala, ai fenomeni su scale molto piccole: benché fra teoria della relatività e fisica quantistica vi siano differenze metodologiche significative, in tempi recenti si sono avuti molti punti di convergenza fra le due, e tecnologie raffinate hanno permesso di misurare direttamente gli effetti gravitazionali sulle particelle elementari.

Teoria dei quanti e meccanica quantistica
Originata dalla necessità di spiegare fenomeni fisici (quali l'effetto fotoelettrico, l'effetto Compton, l'emissione del corpo nero e tutti i fenomeni spettroscopici) non interpretabili mediante la meccanica classica di Newton e l'elettrodinamica classica di Maxwell, la teoria quantistica stabilisce sostanzialmente che la fisica classica non può essere applicata a sistemi dinamici microscopici (di dimensioni circa 10­8 cm, o inferiori a queste). Poiché la determinazione di una grandezza fisica richiede che avvenga un'interazione tra il dispositivo di misura e l'oggetto osservato, dobbiamo chiederci se l'interazione stessa non alteri in modo sostanziale la situazione fisica dell'oggetto, sì da rendere anche concettualmente impossibile la determinazione delle sue condizioni dinamiche: e questo processo avrà effetti certo più rilevanti per i sistemi microscopici che non per quelli macroscopici. Consideriamo, ad es., la determinazione della posizione di una particella; per poterla compiere è necessario illuminare la particella, ma illuminare significa inviare fotoni con un certo impulso e questi, incidendo sul corpuscolo, ne mutano la velocità in modo non trascurabile, a differenza del caso classico — cioè dei sistemi macroscopici — in cui l'ordine di grandezza delle dimensioni e dell'impulso dell'oggetto osservato è tale che in confronto a esso è lecito non tener conto dell'alterazione prodotta dall'apparato di misura. Dall'analisi di un processo del genere risulta che è impossibile determinare contemporaneamente con una precisione prefissata grandezze quali la posizione e l'impulso di una particella: l'equazione del moto della meccanica quantistica (equazione di Schrödinger) è perciò tale che la sua soluzione non dà la posizione (o l'impulso) del punto — o del sistema — in un certo istante, ma piuttosto la probabilità che il punto — o il sistema — si trovi in quell'istante in quella posizione (o abbia quel certo valore dell'impulso). Inoltre, l'energia del sistema che soddisfa a questa equazione non assume in genere valori continui, come nel caso classico, bensì discreti (o “quantizzati”): si ottiene così una spiegazione coerente dell'emissione e dell'assorbimento di radiazione da parte dei sistemi atomici, che avviene sempre per quantità discrete (quanti di energia). Il risultato fondamentale della teoria è quello di porre sullo stesso piano radiazione e materia: entrambe aspetti di una stessa realtà fisica, esse manifestano la natura di corpuscoli oppure di onde a seconda del tipo di interazione che avviene nel processo di osservazione.

Fisica atomica e fisica nucleare
Poiché studiano particelle e sistemi che hanno dimensioni microscopiche (inferiori a 10­8 cm circa) e sono dotati di velocità spesso confrontabili con la velocità della luce, queste sezioni della fisica moderna fanno uso della teoria quantistica e della teoria della relatività. La fisica atomica studia principalmente la struttura degli atomi e i loro livelli di energia, e la spettroscopia relativa alle transizioni di elettroni da un livello energetico a un altro, esaminando quindi in modo particolare le interazioni degli atomi con il campo elettromagnetico. L'oggetto della fisica nucleare comprende lo studio della struttura del nucleo atomico, l'analisi dei suoi livelli energetici, l'interpretazione dei possibili processi di interazione tra nuclei e altre particelle subatomiche o radiazioni (reazioni nucleari) e soprattutto la ricerca di una teoria soddisfacente delle forze nucleari.

Fisica delle alte energie
L'elemento più pesante (cioè avente numero atomico Z più elevato) esistente in natura finora noto è l'uranio, avente Z = 92. Tuttavia i fisici nucleari hanno teorizzato l'esistenza e la stabilità di elementi ancora più pesanti, aventi numero atomico fino intorno al 114. La possibilità di dimostrare l'esistenza di tali elementi è offerta dalla tecnica del bombardamento ad alta energia realizzabile negli acceleratori lineari. Con questa tecnica nel 1970 è stato “realizzato” un elemento con numero atomico 105, al quale è stato dato il nome di hanio, in ricordo di Otto Hahn, scopritore della fissione nucleare. Successivamente sono stati scoperti elementi aventi Z ancora maggiore, tuttavia tutti con vita media estremamente breve, cioè non stabili. Nel 1971 un gruppo di ricercatori inglesi accelerando protoni contro un bersaglio (target) di tungsteno, a una energia tale da impartire ad alcuni nuclei del tungsteno l'energia sufficiente per vincere le forze di repulsione coulombiana e fondersi con altri nuclei vicini, crearono nuovi nuclei, i quali, a loro volta, decaddero in uno stato energetico stabile, corrispondente a un elemento avente Z = 112. Tuttavia questo risultato fu accolto con molta cautela, e anzi alcuni fisici sostennero che la sezione d'urto di collisione che i protoni avevano nel colpire il bersaglio di tungsteno non poteva essere sufficiente a provocare i risultati riportati.

Fisica delle particelle elementari
Il numero delle particelle subatomiche scoperte sperimentalmente è aumentato con l'entrata in funzione di acceleratori di particelle sempre più potenti. Mettere ordine nel catalogo che ne è risultato è stato difficile (e non è detto che il compito sia stato assolto a pieno). Il “modello standard” adottato nel corso degli anni Novanta vede solo dodici particelle come fondamentali, divise in due famiglie: quella dei quark e quella dei leptoni. Della prima fanno parte i quart su (up, u), giù (down, d), strano (strange, s), incanto (charm, c), basso (bottom, b) e alto (top, t); della famiglia dei leptoni, invece, fanno parte l'elettrone, il muone, la particella tau e i relativi neutrini (elettronico, muonico e tauonico). Per ciascuna particella esiste poi l'antiparticella corrispondente. I quark e gli antiquark si combinano a formare particelle più complesse, che prendono il nome di adroni (inizialmente si pensava che adroni e leptoni fossero le due famiglie di particelle “elementari”). Gli adroni a loro volta si dividono in sottofamiglie, a seconda del tipo di composizione: ci sono quelli composti da tre quark, che prendono il nome di barioni, quelli formati da tre antiquark (antibarioni) e quelli formati da un quark e un antiquark (mesoni).
Le forze che agiscono fra particelle, d'altra parte, possono essere di quattro tipi: le classiche forze gravitazionale ed elettromagnetica, la forza forte (che agisce sui quark), la forza debole.
La ricerca in questo campo è focalizzata, sin dagli anni Sessanta, sulla formulazione di teorie in grado di “unificare” queste forze, cioè di fornirne un quadro unico e coerente. Una teoria soddisfacente che unificava la forza elettromagnetica e quella debole nell'ambito dell'elettrodinamica quantistica (QED, quantum electrodynamics) è stata formulata da A. Salam e S. Weinberg e nota con il nome di teoria elettrodebole. La teoria prevedeva l'esistenza di tre particelle (W+ W- e Z) portatrici dell'interazione debole, che sono state poi effettivamente scoperte. Teorie come quella elettrodebole si basano sul concetto delle simmetrie unitarie, secondo cui fra le varie particelle devono intercorrere relazioni di approssimata simmetria (relazioni che vengono matematicamente definite applicando le teorie dei gruppi).
Una teoria analoga all'elettrodinamica quantistica, basata a sua volta sul concetto di simmetria, ha permesso di trattare le interazioni forti, che risultano mediate da particelle denominate gluoni (dall'inglese glue, colla), perché sono quelle che tengono uniti i quark. I gluoni portano una carica (l'analogo della carica elettrica delle interazioni elettromagnetiche) denominata colore: la teoria nel suo complesso è stata chiamata cromodinamica quantistica(QCD, quantum chromodynamics).
Rimane da integrare in un'unica teoria di grande unificazione (GUT, great unification theory) la forza gravitazionale, ma i buoni risultati della QCD lasciano sperare che il compito non sia impossibile.

Fisica dello stato solido
Questo ramo della fisica, esistente già nel secolo scorso, subì un salto qualitativo verso il 1930, quando l'applicazione della meccanica quantistica e statistica allo studio dei solidi e dei cristalli permise di dare un'interpretazione quantistica coerente di molte delle loro principali proprietà a partire da quelle dei nuclei e degli elettroni che li costituiscono. La fisica dello stato solido, grazie alle sue sicure basi concettuali, ha ottenuto successi sia in campo teorico (nell'interpretazione della struttura e delle proprietà dei solidi), sia nelle applicazioni pratiche come, ad es., quelle relative al diodo a semiconduttore e al transistor. Da qualche tempo si preferisce parlare di fisica della materia condensata e far rientrare in questo ambito d'indagine le ricerche sui sistemi composti da un gran numero di elementi e in particolare sui semiconduttori e sulla superconduttività.

Fisica delle basse temperature. Superfluidità
L'applicazione della meccanica quantistica ai fenomeni che si manifestano nei metalli a bassa temperatura fu in grado di spiegare in modo soddisfacente la superfluidità riscontrata nell'isotopo normale dell'elio (He4) e la superconduttività in numerosi metalli. Gli stessi presupposti teorici fecero pensare all'esistenza di fenomeni analoghi anche nell'isotopo leggero dell'elio liquido (He³). Solo nel 1973, però, è stata conseguita una serie di risultati sperimentali che hanno confermato la fondatezza di quell'ipotesi. L'isotopo (He³) presenta un cambiamento di fase, tipico di una transizione da uno stato normale a uno superfluido al di sotto di 3 mK (10­3 K). In realtà, al di sotto di quella temperatura, davvero molto bassa, l'elio-3 possiede addirittura almeno tre fasi con proprietà radicalmente differenti da quelle della fase normale, che sono collettivamente chiamate “elio-3 superfluido”. Le applicazioni della superfluidità sono ancora poche (avvengono soprattutto nel raffreddamento di altri materiali), ma le proprietà di un materiale superfluido sono davvero affascinanti: fluisce senza attrito in capillari sottili, si arrampica sulle pareti del recipiente che lo contiene (il fenomeno è chiamato “pellicola strisciante”), riscaldato in determinate condizioni zampilla in modo spettacolare (fenomeno detto “effetto fontana”).

Superconduttività
Tra le applicazioni della superconduttività, quella relativa alla realizzazione di forti campi magnetici trova il proprio interesse in particolare nell'aver reso possibile un ulteriore avanzamento nella tecnologia costruttiva degli acceleratori nucleari. Come si sa, l'intensità di campo magnetico massima realizzabile con un magnete a materiale superconduttore è frutto di un compromesso con la temperatura critica di quel materiale, la quale tende ad abbassarsi drasticamente all'aumentare dell'intensità del campo.
Le ricerche si sono quindi orientate verso la realizzazione di materiali superconduttori che presentino una temperatura critica Tc a una intensità di campo magnetico critica Hc (al di sotto della quale non ci sono variazioni delle proprietà superconduttrici) sempre più elevate. Nel 1986 K. A. Muller e J. G. Bednorz hanno scoperto che ossidi a base di rame, lantanidi e metalli alcalino-terrosi presentavano caratteristiche di superconduttività a temperature superiori (28 K) a quelle note fino ad allora, ossia 23 K per le leghe di niobio e germanio. In seguito sono stati prodotti ossidi di ittrio, bario e rame che hanno una temperatura critica (90 K) superiore a quella dell'azoto liquido; ulteriori composti hanno permesso di rilevare il fenomeno della superconduttività anche al di sopra dei 125 K. Le proprietà di questi superconduttori ad alta temperatura, diverse da quelli a bassa temperatura, si spiegherebbero con la particolare struttura cristallina di questi composti.

Fisica del laser
La fisica del laser ha conosciuto negli ultimi anni notevoli progressi sia nella ricerca di base, con la sofisticazione di modelli già esistenti o la messa a punto di nuovi, sia in quella applicativa, con l'individuazione di numerosi campi nei quali l'impiego della luce laser si rivela particolarmente proficuo. L'attenzione dei ricercatori si è ultimamente rivolta in modo particolare al laser a gas (anidride carbonica, xeno, cripto, ecc.) che grazie all'elevata purezza e stabilità e alla bassa densità dei gas consente di ottenere una buona monocromaticità, direzionalità e stabilità con potenze elevate. Tuttavia notevole interesse continuano a suscitare fra gli altri i laser organici (o a coloranti, così chiamati appunto perché il materiale radiante è un colorante organico) e quelli al neodimio. I primi presentano i vantaggi di emettere in un qualsiasi punto del visibile, a seconda del colorante impiegato, e di poter essere accordati in modo tale da poter far variare la luce emessa con continuità all'interno di una certa gamma di lunghezze d'onda. I secondi offrono invece il vantaggio di rendimenti elevati con la conseguente possibilità di ottenere notevoli potenze del raggio emesso. Lo sforzo dei ricercatori per la messa a punto di laser in grado di offrire una potenza sempre maggiore si colloca all'interno di una prospettiva applicativa che, specialmente negli ultimi anni, è diventata centrale: la fusione termonucleare controllata. In particolare il raggio di luce laser avrebbe il compito di innescare la reazione fra due atomi di deuterio per la produzione di un neutrone energetico: D + D D He³ + n.

Onde gravitazionali
La rivelazione di onde gravitazionali, previste dalla teoria generale della relatività di Einstein, effettuata da Joseph Weber nel 1969, ha suscitato un notevole interesse dei ricercatori in questo campo. Tuttavia vari tentativi di ripetere l'esperienza di Weber hanno avuto finora risultati deludenti. Essi sono stati tutti basati sulla ricerca originale di Weber, centrata sulla teoria della rivelazione delle onde gravitazionali e sulla costruzione di rivelatori per la misura della curvatura dinamica dello spazio con una precisione ancora insuperata. Molte ipotesi sono state fatte sulle possibili fonti di radiazione gravitazionale, e sul valore possibile del flusso con il quale la radiazione dovrebbe essere rivelata sulla terra; stelle di neutroni, pulsar, supernovae, esplosioni in quasar e nuclei galattici sono ritenute le fonti principali. Tuttavia ogni futuro ampliamento delle conoscenze sulla fisica delle onde gravitazionali è strettamente legato al progresso nella tecnologia della rivelazione. Vari laboratori stanno tentando di realizzare rivelatori più sensibili di quelli di Weber, pur basati sullo stesso principio; un tipo di rivelatore diverso è l'interferometro laser, in cui un fascio laser viene diviso in due fasci, riflessi poi da specchi e fatti tornare al punto di partenza, dove interferiscono; il passaggio di un'onda gravitazionale dovrebbe far variare la lunghezza di uno dei due percorsi, generando quindi nel punto d'incontro dei due fasci riflessi figure di interferenza diverse.

Fisica sanitaria
Ai nostri giorni si evidenzia, nell'evoluzione della scienza medica, una crescita del ruolo assunto da metodiche di diagnosi e cura che sfruttano sofisticate apparecchiature, frutto del progresso scientifico e tecnologico: tomografia assiale computerizzata (TAC), tomografia a risonanza magnetica nucleare (RMN), tomografia a emissione di positroni (PET), laser, betatrone, acceleratore lineare (LINAC), e così via. Ai servizi di fisica sanitaria ospedalieri, in Italia come negli altri paesi più progrediti, competono dunque funzioni considerate ormai irrinunciabili in alcuni settori, come la radiologia e la medicina nucleare, mentre la loro collaborazione viene sempre più richiesta anche nell'ambito di altre specialità mediche, come la cardiologia, l'audiologia, l'oftalmologia, ecc. È noto che attualmente la “filosofia” della medicina tende a privilegiare la tutela della salute, e quindi l'aspetto preventivo dell'intervento sanitario rispetto a quello diagnostico-terapeutico. In tale contesto si colloca l'altro settore di attività, proprio della fisica sanitaria, costituito dalla radioprotezione, o protezione sanitaria contro i rischi derivanti dall'impiego delle radiazioni, ionizzanti e non ionizzanti.

Metodi della fisica
La fisica è essenzialmente una scienza sperimentale. Quando si studia un fenomeno bisogna in primo luogo osservarlo correttamente, cioè notare con esattezza tutti gli eventi che lo accompagnano; occorre in seguito saper distinguere, tra gli eventi, quello che è fondamentale da quello che non lo è, o che addirittura è senza rapporto con il fenomeno in esame. Per questa distinzione è indispensabile una serie numerosa di osservazioni: in tal modo gli eventi inessenziali che si accompagnano al fenomeno subiscono variazioni che possono essere apprezzate esattamente. Ma poiché nell'osservazione del fenomeno le variazioni degli eventi inessenziali avvengono per natura, è spesso difficile distinguerli da quelli importanti ai fini dell'osservazione del fenomeno. Perciò il fisico ricorre all'esperimento, nel corso del quale egli interviene attivamente per semplificare le condizioni in cui le esperienze vengono fatte, e all'analisi statistica dei risultati sperimentali. Nell'osservazione come nell'esperienza, i sensi dell'uomo, pur fondamentali, sono molto imprecisi, per cui è sempre più necessario, col progredire delle scienze, aumentarne la potenza con l'impiego di diversi strumenti. In certi casi si tratta di una semplice amplificazione di effetti che si producono a una scala inaccessibile direttamente ai nostri sensi, o comunque non sono misurabili da questi; ne sono esempi gli strumenti ottici e rispettivamente i microfoni. Spesso invece l'indagine realizzata dagli strumenti è tale che si apre all'osservazione un campo del tutto nuovo di fenomeni naturali: è il caso, per es., dei ricevitori di onde hertziane e dei contatori Geiger.
Le esperienze della fisica comportano misure che non sono fine a se stesse. Lo scopo del fisico è trovare le regole, nel senso più generale della parola, che siano in grado di coordinare un insieme di fatti già noti e nello stesso tempo guidino alla scoperta di fatti nuovi. Accade spesso che le cause di certi fenomeni restino a lungo sconosciute, e il fisico fa, riguardo a esse, un'ipotesi che egli ritiene ragionevole; tuttavia egli deve sempre considerare le sue ipotesi come un mezzo di lavoro e cercare attivamente di sottoporle a esperienze appropriate. Le ipotesi di lavoro, pertanto, possono essere comprovate o no dall'esperienza. Spiegare più fatti con una stessa ipotesi, o tutta una serie di fenomeni con un insieme di ipotesi, permette di collegare fatti a prima vista senza alcun nesso in una teoria (teoria cinetica dei gas, teoria elettromagnetica della luce, teoria dei quanti, ecc.). La teoria, per mezzo del ragionamento e del calcolo, può indicare l'esistenza di fenomeni diversi da quelli per la cui spiegazione si è costruita la teoria stessa: se l'esperienza ne verifica la realtà, la teoria è verificata a posteriori, e le ipotesi su cui essa è fondata sono corrette. Una teoria deve essere considerata valida finché permette d'interpretare tutti i fenomeni osservati; ma se si verifica un fenomeno nuovo ch'essa è inadeguata a spiegare, è necessario o sostituirla o modificare le ipotesi su cui si fonda. Tale è stato, per es., il caso della teoria dell'etere, per spiegare la propagazione della luce.

I princìpi
Alcune ipotesi, il cui enunciato è molto generale e molto semplice, investono problemi di capitale importanza. Queste ipotesi, controllate sperimentalmente soltanto in casi particolari, prendono il nome di princìpi quando si generalizzano a un'intera classe di fenomeni e se ne postula l'assoluta generalità e validità in ogni circostanza. Essi sono in genere semplici, coordinano un vasto insieme di fenomeni e, poiché sono di natura ipotetica, restano validi soltanto finché non si osservano fenomeni che li contraddicano. Un esempio di un principio fisico fondamentale nella fisica è quello della conservazione dell'energia: esso non è mai stato smentito fino ai nostri giorni, anche se una teoria cosmologica, quella della creazione continua dell'universo, potrebbe, se fondata su più solide basi sperimentali, inficiarlo radicalmente. Tuttavia nella storia della fisica è talora accaduto che alcuni princìpi che sembravano fondati siano stati abbandonati o almeno è stato ridimensionato il loro ambito di applicazione. Queste rivoluzioni concettuali della fisica hanno coinciso, in generale, con uno sviluppo delle conoscenza: un esempio notevole è l'abbandono del principio di equipartizione dell'energia nella teoria dell'irraggiamento, abbandono che ha condotto alla scoperta dei quanti. Tra i princìpi attualmente accettati, oltre a quello della conservazione dell'energia, si possono citare il principio di minima azione, il principio di relatività di Einstein, i due princìpi della termodinamica; una volta assunto un principio è possibile dedurne, applicando le regole della logica e i potenti mezzi del calcolo, numerose conseguenze, il cui corpo costituisce talvolta una disciplina autonoma, com'è il caso, per es., della termodinamica.
Il procedimento indicato sopra in modo schematico, che comincia con l'osservazione per dar luogo a un corpo di dottrina, si svolge secondo un certo numero di fasi importanti che conviene definire. La prima, che normalmente è la conseguenza di una serie di misure, consiste nello stabilire una legge. La legge fisica è l'espressione di una verità scientifica; essa traduce con una relazione i legami che la natura impone ai valori numerici. La legge è dunque d'origine strettamente sperimentale perché, a differenza del principio, si applica a un ristretto campo d'indagine. Esempi di leggi fisiche possono essere le leggi di Boyle-Mariotte, di Gay-Lussac, di Joule, di Ohm, ecc. La legge è la traduzione quantitativa di un fenomeno fisico, ed è l'esperienza che ne controlla la validità. I risultati sperimentali sono, per natura, soggetti a errori di cui è possibile conoscere il limite superiore. Pur migliorando le nostre tecniche per rendere quanto più basso è possibile il limite di questi errori, non si realizzerà mai una misura precisa. Perciò affermare che una legge è in accordo con l'esperienza significa dire che le misure dell'esperienza sono in accordo con la relazione espressa dalla legge, a meno di un errore, minore del limite superiore di cui si è detto. La relazione espressa da una legge non può essere definitiva perché può succedere che nuove misure più precise facciano intervenire differenze sistematiche tra i risultati sperimentali e la traduzione quantitativa dell'enunciato. In un gran numero di casi, tuttavia, i fisici hanno dovuto rinunciare alla speranza di tradurre in una forma semplice la complessità dei fenomeni della natura. Spesso, in mancanza di meglio, o per semplicità, si usa una legge che si sa già a priori non rigorosamente vera, ma di cui si sa valutare l'errore. In generale le leggi della fisica si traducono in relazioni matematiche; questa traduzione è talora semplicissima, ed è il caso, per es., delle leggi della riflessione e della rifrazione, o delle leggi delle correnti elettriche. Talora l'espressione matematica è invece complessa, e non può essere espressa nel linguaggio abituale: la si rappresenta allora con una curva. Così, per rappresentare le variazioni della pressione di un vapore saturo in funzione della temperatura, si costruisce una curva prendendo per ascisse le temperature e per ordinate le pressioni corrispondenti. Si può affermare che, con la maggior complessità dei fenomeni fisici da spiegare, maggiore è stato l'impiego della matematica nella fisica. Oggi la fisica soprattutto teorica ha molto dell'astrattezza formale della matematica, e usa algoritmi matematici assai complessi, come l'algebra formale, la teoria delle funzioni, il calcolo differenziale e integrale, il calcolo vettoriale e l'analisi tensoriale, il calcolo delle matrici, la teoria dei gruppi per lo studio delle simmetrie dei fenomeni fisici, il calcolo delle probabilità, ecc.
Succede spesso che insiemi di dati sperimentali siano rappresentabili in maniera soddisfacente con una legge che ammetta sì una formulazione matematica, ma non un fondamento teorico plausibile; si dice allora che si tratta di una “formula empirica”. Si esamini, per es., il fenomeno dell'irraggiamento termico della materia, e più particolarmente quello dello spettro energetico dell'irraggiamento prodotto da una cavità portata a una certa temperatura (irraggiamento del “corpo nero”). Dopo che sono state proposte diverse formule approssimate per rappresentare questo spettro energetico, una formula esatta, ma empirica, fu scoperta da Max Planck. Tuttavia una formula empirica, per quanto esatta, non è soddisfacente per il fisico, perché resta isolata, sterile, non implica nessi con altri fenomeni, finché non è stato possibile darne un'interpretazione teorica. Nell'esempio di cui sopra, lo stesso autore della formula empirica propose un'ipotesi teorica dalla quale la si poteva logicamente dedurre. Negli anni che seguirono, numerosi lavori, tanto sperimentali quanto tecnici, dimostrarono la fecondità dell'ipotesi di Planck, che ha costituito il punto di partenza di un corpo di dottrina, quello della fisica quantistica.

FISICA

.
Caratteristiche fondamentali
La genesi delle diverse discipline dall'unica “filosofia naturale” degli antichi, che comprendeva tutto lo studio degli eventi della natura, è stata tale da lasciare in certa misura simili gli oggetti della fisica e della chimica. Tuttavia la diversificazione storica degli interessi delle due scienze e una permanente ragione pratica di suddivisione del lavoro portano a distinguere i fenomeni in due grandi classi: quelli in cui le proprietà del corpo in esame subiscono una sostanziale modificazione permanente e quelli in cui non la subiscono; nel primo caso si parla di fenomeno chimico, nel secondo di fenomeno fisico. Così, ad es., l'ossigeno e l'idrogeno, combinati in condizioni opportune, formano l'acqua e le proprietà di questo composto sono essenzialmente diverse da quelle degli elementi originari: lo studio del fenomeno rientra perciò nell'ambito della chimica. Ma quando l'acqua stessa viene raffreddata, e si trasforma in ghiaccio, la sua natura è rimasta inalterata: il cambiamento di stato è perciò un processo studiato dalla fisica.
Tuttavia, questa suddivisione è sempre meno netta, perché a fondamento di tutto il comportamento della materia si trovano i fenomeni atomici e nucleari e sempre più si sente l'esigenza di spiegare eventi, quali le reazioni di combinazione chimica degli elementi, attraverso le proprietà delle molecole, degli atomi, dei nuclei ecc. In questo caso lo sviluppo è stato possibile grazie all'elaborazione dei metodi matematici propri della fisica; ma negli ultimi anni è cresciuto anche l'interesse dei chimici per i problemi relativi alla struttura atomica della materia e il campo di lavoro comune alle due scienze è indagato ora sotto il nome nuovo di fisico-chimica.

Divisioni della fisica
Si possono distinguere due momenti essenzialmente separati nell'evoluzione della fisica: fisica classica e fisica moderna, caratterizzata quest'ultima dalle teorie della relatività e della meccanica quantistica elaborate nell'ultimo mezzo secolo, che hanno rivoluzionato il modo stesso di affrontare lo studio dei fenomeni. Nella fisica classica distinguiamo le seguenti discipline aventi oggetti separati: meccanica, termologia e termodinamica, elettrologia , ottica, acustica e fenomeni ondulatori; ciascuna di esse ha poi risentito della nuova impostazione sorta con la fisica moderna e ne è stata modificata. La fisica moderna è nata dall'elaborazione della teoria della relatività e della meccanica quantistica, e trova il suo massimo campo di studio nella fisica atomica e nucleare, nella fisica delle particelle elementari, nella fisica dello stato solido e nella fisica delle basse temperature.

Meccanica
Studia le condizioni di moto e di quiete dei corpi e si suddivide in cinematica, dinamica e statica a seconda del particolare aspetto del problema del moto che viene considerato. Nella cinematica il movimento è studiato indipendentemente dalle cause che lo producono: interessa determinare le caratteristiche geometriche della traiettoria del mobile e le grandezze di velocità e di accelerazione, che stabiliscono come la traiettoria stessa è percorsa durante un certo intervallo di tempo. La cinematica è legata quindi alla nozione di spazio e utilizza il tempo come un parametro atto a individuare la successione delle posizioni occupate dal mobile; a questo scopo si deve introdurre un sistema di riferimento spaziale, rispetto a cui descrivere il moto: occorre perciò anche precisare come le equazioni della traiettoria, la velocità e l'accelerazione del corpo dipendano dal sistema di riferimento che si considera. Nella cinematica classica intervengono trasformazioni tra sistemi di riferimento, dette trasformazioni di Galileo, rispetto a cui il tempo è un parametro invariante, universalmente definito; la teoria della relatività introduce invece nella cinematica un concetto di correlazione tra lo spazio e il tempo, che rende diverse le proprietà di trasformazione di velocità e accelerazione.
Nella dinamica si pongono in relazione le caratteristiche della traiettoria con le forze applicate al mobile: per la risoluzione del problema è fondamentale la legge di Newton, secondo cui l'accelerazione a impressa a un corpo è proporzionale alla forza F, cui esso è sottoposto (a = F/m). Si introduce così il concetto di massa m, costante di proporzionalità che nella teoria classica mantiene sempre lo stesso valore, caratteristico di un dato corpo qualunque sia la velocità con cui questo si muove. Anche qui occorre notare che l'espressione dell'equazione fondamentale dipende dal sistema di riferimento e che nella dinamica classica la legge di Newton risulta invariante per trasformazioni di Galilei tra sistemi in moto relativo di traslazione con velocità costante.
Infine, il caso particolare della dinamica, in cui le forze applicate si fanno equilibrio, è studiato dalla statica: l'interesse di questa parte della meccanica è reso anche più grande dal fatto che ogni problema dinamico può essere ricondotto a un problema statico, attraverso la definizione di opportune forze legate al moto; questa impostazione, introdotta con l'enunciazione del principio di d'Alembert, consente così di trasferire i metodi propri della statica, e i risultati conseguiti da questa, allo studio di ogni problema dinamico.
Se si considera la natura del corpo in movimento è necessario distinguere la meccanica in sezioni che differiscono per l'oggetto di cui si studia il moto: meccanica del punto materiale, che tratta un oggetto dotato di massa e di dimensioni spaziali trascurabili; meccanica dei sistemi rigidi, cioè degli insiemi di punti materiali le cui distanze reciproche restano invariate durante il movimento; meccanica dei corpi deformabili, le cui proprietà dipendono dal tipo di sollecitazione cui sono sottoposti. In particolare, rientra in quest'ultima sezione la meccanica dei fluidi (liquidi e aeriformi), che si è sviluppata fin dall'antichità come disciplina di grande interesse: le condizioni di equilibrio, studiate dall'idrostatica, sono state definite dall'enunciazione della legge di Archimede, della legge di Pascal e della legge di Stevino, mentre per il problema dell'idrodinamica i risultati più importanti sono contenuti nel teorema di Bernoulli (per il moto stazionario e senza attrito interno) e nella legge di Poiseuille (per il caso in cui occorre tener conto dell'attrito interno del liquido). Infine presenta un interesse autonomo, e soprattutto è importante perché consente di studiare il caso dei gas, la meccanica di un insieme costituito di un gran numero di particelle: su questo oggetto è stata elaborata la meccanica statistica, che riconduce il problema a concetti di grandezze medie e di distribuzioni di probabilità.

Termologia e termodinamica
Questa parte della fisica introduce i concetti di quantità di calore e di temperatura e studia i fenomeni connessi con gli scambi di calore e le variazioni di temperatura: dilatazione dei corpi, propagazione del calore (per conduzione, convezione o irraggiamento), cambiamenti di stato (fusione e solidificazione, vaporizzazione e liquefazione, sublimazione); le proprietà delle soluzioni, le trasformazioni in calore dell'energia meccanica, elettrica (effetto Joule), chimica (termochimica). Questi ultimi fenomeni, che dimostrano che il calore è una forma particolare di energia, sono oggetto di studio della termodinamica, che tratta le relazioni tra proprietà termiche e meccaniche; in essa si sono stabiliti due princìpi fondamentali: 1. vi è un'equivalenza tra energia termica e meccanica; 2. non tutta l'energia termica posseduta da un sistema può essere trasformata in energia meccanica, mentre può accadere il processo contrario. La spiegazione della relazione che collega il calore all'energia meccanica è data dalla teoria cinetica della materia e soprattutto per i gas essa è raggiunta per mezzo della meccanica statistica, che permette di ricondurre le proprietà termiche di un sistema (temperatura, quantità di calore, entropia, ecc.) ai valori medi delle variabili dinamiche di tutte le particelle del sistema.

Elettrologia
Ha per oggetto i fenomeni elettrici e magnetici e le interazioni tra essi: poiché l'esperienza dimostra che una carica elettrica in moto (quale, ad es., la corrente in un conduttore) equivale a un magnete, occorre distinguere i fenomeni connessi con particelle in quiete (elettrostatica e magnetostatica) oppure con cariche in movimento (elettrocinetica). Tutte le proprietà dell'elettromagnetismo possono essere dedotte dalle quattro equazioni di Maxwell, che determinano completamente il campo elettromagnetico generato da un'assegnata distribuzione di cariche e correnti. Le equazioni di Maxwell, diversamente dalla legge di Newton, non sono invarianti rispetto alle trasformazioni di Galileo. Proprio questa caratteristica delle equazioni di Maxwell è stata all'origine dell'elaborazione della teoria della relatività.

Ottica
Parte della fisica che ha per oggetto i fenomeni luminosi; benché ora sia noto che la luce non è altro che propagazione di onde elettromagnetiche, è ancora utile tuttavia considerarne lo studio come una disciplina a sé stante. Per ragioni storiche, e per le diverse caratteristiche fisiche dei fenomeni considerati, conviene distinguere l'ottica geometrica e l'ottica ondulatoria: nella prima, si considerano problemi in cui la lunghezza d'onda della radiazione luminosa è trascurabile rispetto alle dimensioni degli oggetti ch'essa incontra sul suo percorso; si può allora sostituire al concetto dell'onda che si propaga quello del raggio luminoso (direzione perpendicolare al fronte d'onda) e si studiano così i fenomeni di riflessione e rifrazione e la formazione delle immagini negli strumenti ottici (specchi, lenti, prismi). Molti fenomeni possono invece essere interpretati solo nell'ambito dell'ottica ondulatoria, che studia, ad es., le proprietà di diffrazione, di interferenza, di polarizzazione, di diffusione. Appartiene anche all'argomento dell'ottica la spettroscopia, che studia gli spettri di emissione e di assorbimento dei corpi.

Acustica e fenomeni ondulatori
La propagazione per onde è un fenomeno di grande interesse anche in altri campi della fisica; ogni volta che un mezzo elastico è sottoposto a una perturbazione, questa genera un movimento vibratorio che si propaga per onde: lo studio di queste vibrazioni rientra nel dominio della teoria dell'elasticità. In particolare la perturbazione può consistere in una produzione di rarefazioni e compressioni in un mezzo, e si genera allora un'onda che si propaga nello spazio circostante. Se la frequenza dell'onda è compresa nel campo di udibilità si ha un suono, considerato attualmente come l'insieme del fenomeno fisico della propagazione per onde e delle sensazioni fisiologiche prodotte nei soggetti viventi. Si usa peraltro ancora mantenere la distinzione fra lo studio dei fenomeni fisici connessi alla propagazione e al passaggio da un mezzo all'altro (attenuazione, assorbimento, riflessione, diffrazione, interferenza, diffusione), che viene chiamata acustica fisica, e lo studio delle proprietà fisiologiche del suono (sensazione sonora, altezza, timbro, ecc.) che unito ai fenomeni relativi (mascheramento, affaticamento, localizzazione spaziale, ecc.), alle modalità di emissione della voce umana (fonazione) e alle sue proprietà fisiche costituisce l'acustica fisiologica.
Lo studio delle proprietà e degli strumenti atti a generare quei particolari suoni complessi armonici chiamati musicali costituisce l'acustica musicale. A questa si affianca l'acustica ambientale, che studia i fenomeni acustici relativamente agli ambienti in cui sono prodotti.
L'elettroacustica è lo studio delle trasformazioni tra energia acustica ed energia elettrica e viceversa.
Il campo studiato dall'acustica si è esteso anche alle vibrazioni di frequenza inferiore o superiore a quella dei suoni percepibili dall'orecchio umano (infrasuoni e ultrasuoni) e ha fornito metodi di indagine utili anche in altri problemi inerenti i fenomeni elastici, quali ad es. la propagazione di onde attraverso il sottosuolo terrestre. La disciplina è importante anche per lo studio dell'inquinamento acustico e per la realizzazione di misure di prevenzione e controllo relative.

Teoria della relatività
Elaborata da Einstein, comprende la relatività ristretta e la relatività generale. La relatività ristretta si propone di formulare le leggi della fisica in modo che siano invarianti per trasformazioni tra sistemi di riferimento in moto relativo di traslazione con velocità costante, introducendo a questo scopo una definizione del tempo non più come parametro universale (quale è dato nella meccanica classica, v. sopra), ma come grandezza definita in un certo sistema di riferimento, in modo tale da soddisfare la proprietà (provata dall'esperienza di Michelson del 1889) che la velocità c della luce nel vuoto è costante e indipendente da ogni sistema di riferimento. Da questa impostazione si deducono nuove proprietà per i moti di corpi a grandi velocità, mentre per velocità trascurabili rispetto a quella della luce la meccanica relativistica si riduce al limite classico; una conseguenza particolarmente importante della teoria è la dipendenza della massa di un corpo dalla sua velocità, che è in contraddizione con il principio di costanza della massa ipotizzato dalla dinamica classica, e l'equivalenza tra massa m ed energia E: E=mc². La relatività generale enuncia le leggi fisiche in modo che siano invarianti rispetto a trasformazioni anche tra sistemi di riferimento in moto accelerato l'uno rispetto all'altro: secondo la teoria di Einstein ogni accelerazione è equivalente all'effetto di un campo gravitazionale, e alla gravitazione sono legate le proprietà geometriche dello spazio-tempo. La relatività generale è particolarmente importante per la comprensione del campo gravitazionale e delle proprietà dell'universo: anche qui, come per la relatività ristretta, il caso classico della teoria gravitazionale di Newton è un'approssimazione limite della relatività generale.
Il legame stretto che la teoria della relatività introduce fra gravitazione e geometria si estende, oltre che all'universo su grande scala, ai fenomeni su scale molto piccole: benché fra teoria della relatività e fisica quantistica vi siano differenze metodologiche significative, in tempi recenti si sono avuti molti punti di convergenza fra le due, e tecnologie raffinate hanno permesso di misurare direttamente gli effetti gravitazionali sulle particelle elementari.

Teoria dei quanti e meccanica quantistica
Originata dalla necessità di spiegare fenomeni fisici (quali l'effetto fotoelettrico, l'effetto Compton, l'emissione del corpo nero e tutti i fenomeni spettroscopici) non interpretabili mediante la meccanica classica di Newton e l'elettrodinamica classica di Maxwell, la teoria quantistica stabilisce sostanzialmente che la fisica classica non può essere applicata a sistemi dinamici microscopici (di dimensioni circa 10­8 cm, o inferiori a queste). Poiché la determinazione di una grandezza fisica richiede che avvenga un'interazione tra il dispositivo di misura e l'oggetto osservato, dobbiamo chiederci se l'interazione stessa non alteri in modo sostanziale la situazione fisica dell'oggetto, sì da rendere anche concettualmente impossibile la determinazione delle sue condizioni dinamiche: e questo processo avrà effetti certo più rilevanti per i sistemi microscopici che non per quelli macroscopici. Consideriamo, ad es., la determinazione della posizione di una particella; per poterla compiere è necessario illuminare la particella, ma illuminare significa inviare fotoni con un certo impulso e questi, incidendo sul corpuscolo, ne mutano la velocità in modo non trascurabile, a differenza del caso classico — cioè dei sistemi macroscopici — in cui l'ordine di grandezza delle dimensioni e dell'impulso dell'oggetto osservato è tale che in confronto a esso è lecito non tener conto dell'alterazione prodotta dall'apparato di misura. Dall'analisi di un processo del genere risulta che è impossibile determinare contemporaneamente con una precisione prefissata grandezze quali la posizione e l'impulso di una particella: l'equazione del moto della meccanica quantistica (equazione di Schrödinger) è perciò tale che la sua soluzione non dà la posizione (o l'impulso) del punto — o del sistema — in un certo istante, ma piuttosto la probabilità che il punto — o il sistema — si trovi in quell'istante in quella posizione (o abbia quel certo valore dell'impulso). Inoltre, l'energia del sistema che soddisfa a questa equazione non assume in genere valori continui, come nel caso classico, bensì discreti (o “quantizzati”): si ottiene così una spiegazione coerente dell'emissione e dell'assorbimento di radiazione da parte dei sistemi atomici, che avviene sempre per quantità discrete (quanti di energia). Il risultato fondamentale della teoria è quello di porre sullo stesso piano radiazione e materia: entrambe aspetti di una stessa realtà fisica, esse manifestano la natura di corpuscoli oppure di onde a seconda del tipo di interazione che avviene nel processo di osservazione.

Fisica atomica e fisica nucleare
Poiché studiano particelle e sistemi che hanno dimensioni microscopiche (inferiori a 10­8 cm circa) e sono dotati di velocità spesso confrontabili con la velocità della luce, queste sezioni della fisica moderna fanno uso della teoria quantistica e della teoria della relatività. La fisica atomica studia principalmente la struttura degli atomi e i loro livelli di energia, e la spettroscopia relativa alle transizioni di elettroni da un livello energetico a un altro, esaminando quindi in modo particolare le interazioni degli atomi con il campo elettromagnetico. L'oggetto della fisica nucleare comprende lo studio della struttura del nucleo atomico, l'analisi dei suoi livelli energetici, l'interpretazione dei possibili processi di interazione tra nuclei e altre particelle subatomiche o radiazioni (reazioni nucleari) e soprattutto la ricerca di una teoria soddisfacente delle forze nucleari.

Fisica delle alte energie
L'elemento più pesante (cioè avente numero atomico Z più elevato) esistente in natura finora noto è l'uranio, avente Z = 92. Tuttavia i fisici nucleari hanno teorizzato l'esistenza e la stabilità di elementi ancora più pesanti, aventi numero atomico fino intorno al 114. La possibilità di dimostrare l'esistenza di tali elementi è offerta dalla tecnica del bombardamento ad alta energia realizzabile negli acceleratori lineari. Con questa tecnica nel 1970 è stato “realizzato” un elemento con numero atomico 105, al quale è stato dato il nome di hanio, in ricordo di Otto Hahn, scopritore della fissione nucleare. Successivamente sono stati scoperti elementi aventi Z ancora maggiore, tuttavia tutti con vita media estremamente breve, cioè non stabili. Nel 1971 un gruppo di ricercatori inglesi accelerando protoni contro un bersaglio (target) di tungsteno, a una energia tale da impartire ad alcuni nuclei del tungsteno l'energia sufficiente per vincere le forze di repulsione coulombiana e fondersi con altri nuclei vicini, crearono nuovi nuclei, i quali, a loro volta, decaddero in uno stato energetico stabile, corrispondente a un elemento avente Z = 112. Tuttavia questo risultato fu accolto con molta cautela, e anzi alcuni fisici sostennero che la sezione d'urto di collisione che i protoni avevano nel colpire il bersaglio di tungsteno non poteva essere sufficiente a provocare i risultati riportati.

Fisica delle particelle elementari
Il numero delle particelle subatomiche scoperte sperimentalmente è aumentato con l'entrata in funzione di acceleratori di particelle sempre più potenti. Mettere ordine nel catalogo che ne è risultato è stato difficile (e non è detto che il compito sia stato assolto a pieno). Il “modello standard” adottato nel corso degli anni Novanta vede solo dodici particelle come fondamentali, divise in due famiglie: quella dei quark e quella dei leptoni. Della prima fanno parte i quart su (up, u), giù (down, d), strano (strange, s), incanto (charm, c), basso (bottom, b) e alto (top, t); della famiglia dei leptoni, invece, fanno parte l'elettrone, il muone, la particella tau e i relativi neutrini (elettronico, muonico e tauonico). Per ciascuna particella esiste poi l'antiparticella corrispondente. I quark e gli antiquark si combinano a formare particelle più complesse, che prendono il nome di adroni (inizialmente si pensava che adroni e leptoni fossero le due famiglie di particelle “elementari”). Gli adroni a loro volta si dividono in sottofamiglie, a seconda del tipo di composizione: ci sono quelli composti da tre quark, che prendono il nome di barioni, quelli formati da tre antiquark (antibarioni) e quelli formati da un quark e un antiquark (mesoni).
Le forze che agiscono fra particelle, d'altra parte, possono essere di quattro tipi: le classiche forze gravitazionale ed elettromagnetica, la forza forte (che agisce sui quark), la forza debole.
La ricerca in questo campo è focalizzata, sin dagli anni Sessanta, sulla formulazione di teorie in grado di “unificare” queste forze, cioè di fornirne un quadro unico e coerente. Una teoria soddisfacente che unificava la forza elettromagnetica e quella debole nell'ambito dell'elettrodinamica quantistica (QED, quantum electrodynamics) è stata formulata da A. Salam e S. Weinberg e nota con il nome di teoria elettrodebole. La teoria prevedeva l'esistenza di tre particelle (W+ W- e Z) portatrici dell'interazione debole, che sono state poi effettivamente scoperte. Teorie come quella elettrodebole si basano sul concetto delle simmetrie unitarie, secondo cui fra le varie particelle devono intercorrere relazioni di approssimata simmetria (relazioni che vengono matematicamente definite applicando le teorie dei gruppi).
Una teoria analoga all'elettrodinamica quantistica, basata a sua volta sul concetto di simmetria, ha permesso di trattare le interazioni forti, che risultano mediate da particelle denominate gluoni (dall'inglese glue, colla), perché sono quelle che tengono uniti i quark. I gluoni portano una carica (l'analogo della carica elettrica delle interazioni elettromagnetiche) denominata colore: la teoria nel suo complesso è stata chiamata cromodinamica quantistica(QCD, quantum chromodynamics).
Rimane da integrare in un'unica teoria di grande unificazione (GUT, great unification theory) la forza gravitazionale, ma i buoni risultati della QCD lasciano sperare che il compito non sia impossibile.

Fisica dello stato solido
Questo ramo della fisica, esistente già nel secolo scorso, subì un salto qualitativo verso il 1930, quando l'applicazione della meccanica quantistica e statistica allo studio dei solidi e dei cristalli permise di dare un'interpretazione quantistica coerente di molte delle loro principali proprietà a partire da quelle dei nuclei e degli elettroni che li costituiscono. La fisica dello stato solido, grazie alle sue sicure basi concettuali, ha ottenuto successi sia in campo teorico (nell'interpretazione della struttura e delle proprietà dei solidi), sia nelle applicazioni pratiche come, ad es., quelle relative al diodo a semiconduttore e al transistor. Da qualche tempo si preferisce parlare di fisica della materia condensata e far rientrare in questo ambito d'indagine le ricerche sui sistemi composti da un gran numero di elementi e in particolare sui semiconduttori e sulla superconduttività.

Fisica delle basse temperature. Superfluidità
L'applicazione della meccanica quantistica ai fenomeni che si manifestano nei metalli a bassa temperatura fu in grado di spiegare in modo soddisfacente la superfluidità riscontrata nell'isotopo normale dell'elio (He4) e la superconduttività in numerosi metalli. Gli stessi presupposti teorici fecero pensare all'esistenza di fenomeni analoghi anche nell'isotopo leggero dell'elio liquido (He³). Solo nel 1973, però, è stata conseguita una serie di risultati sperimentali che hanno confermato la fondatezza di quell'ipotesi. L'isotopo (He³) presenta un cambiamento di fase, tipico di una transizione da uno stato normale a uno superfluido al di sotto di 3 mK (10­3 K). In realtà, al di sotto di quella temperatura, davvero molto bassa, l'elio-3 possiede addirittura almeno tre fasi con proprietà radicalmente differenti da quelle della fase normale, che sono collettivamente chiamate “elio-3 superfluido”. Le applicazioni della superfluidità sono ancora poche (avvengono soprattutto nel raffreddamento di altri materiali), ma le proprietà di un materiale superfluido sono davvero affascinanti: fluisce senza attrito in capillari sottili, si arrampica sulle pareti del recipiente che lo contiene (il fenomeno è chiamato “pellicola strisciante”), riscaldato in determinate condizioni zampilla in modo spettacolare (fenomeno detto “effetto fontana”).

Superconduttività
Tra le applicazioni della superconduttività, quella relativa alla realizzazione di forti campi magnetici trova il proprio interesse in particolare nell'aver reso possibile un ulteriore avanzamento nella tecnologia costruttiva degli acceleratori nucleari. Come si sa, l'intensità di campo magnetico massima realizzabile con un magnete a materiale superconduttore è frutto di un compromesso con la temperatura critica di quel materiale, la quale tende ad abbassarsi drasticamente all'aumentare dell'intensità del campo.
Le ricerche si sono quindi orientate verso la realizzazione di materiali superconduttori che presentino una temperatura critica Tc a una intensità di campo magnetico critica Hc (al di sotto della quale non ci sono variazioni delle proprietà superconduttrici) sempre più elevate. Nel 1986 K. A. Muller e J. G. Bednorz hanno scoperto che ossidi a base di rame, lantanidi e metalli alcalino-terrosi presentavano caratteristiche di superconduttività a temperature superiori (28 K) a quelle note fino ad allora, ossia 23 K per le leghe di niobio e germanio. In seguito sono stati prodotti ossidi di ittrio, bario e rame che hanno una temperatura critica (90 K) superiore a quella dell'azoto liquido; ulteriori composti hanno permesso di rilevare il fenomeno della superconduttività anche al di sopra dei 125 K. Le proprietà di questi superconduttori ad alta temperatura, diverse da quelli a bassa temperatura, si spiegherebbero con la particolare struttura cristallina di questi composti.

Fisica del laser
La fisica del laser ha conosciuto negli ultimi anni notevoli progressi sia nella ricerca di base, con la sofisticazione di modelli già esistenti o la messa a punto di nuovi, sia in quella applicativa, con l'individuazione di numerosi campi nei quali l'impiego della luce laser si rivela particolarmente proficuo. L'attenzione dei ricercatori si è ultimamente rivolta in modo particolare al laser a gas (anidride carbonica, xeno, cripto, ecc.) che grazie all'elevata purezza e stabilità e alla bassa densità dei gas consente di ottenere una buona monocromaticità, direzionalità e stabilità con potenze elevate. Tuttavia notevole interesse continuano a suscitare fra gli altri i laser organici (o a coloranti, così chiamati appunto perché il materiale radiante è un colorante organico) e quelli al neodimio. I primi presentano i vantaggi di emettere in un qualsiasi punto del visibile, a seconda del colorante impiegato, e di poter essere accordati in modo tale da poter far variare la luce emessa con continuità all'interno di una certa gamma di lunghezze d'onda. I secondi offrono invece il vantaggio di rendimenti elevati con la conseguente possibilità di ottenere notevoli potenze del raggio emesso. Lo sforzo dei ricercatori per la messa a punto di laser in grado di offrire una potenza sempre maggiore si colloca all'interno di una prospettiva applicativa che, specialmente negli ultimi anni, è diventata centrale: la fusione termonucleare controllata. In particolare il raggio di luce laser avrebbe il compito di innescare la reazione fra due atomi di deuterio per la produzione di un neutrone energetico: D + D D He³ + n.

Onde gravitazionali
La rivelazione di onde gravitazionali, previste dalla teoria generale della relatività di Einstein, effettuata da Joseph Weber nel 1969, ha suscitato un notevole interesse dei ricercatori in questo campo. Tuttavia vari tentativi di ripetere l'esperienza di Weber hanno avuto finora risultati deludenti. Essi sono stati tutti basati sulla ricerca originale di Weber, centrata sulla teoria della rivelazione delle onde gravitazionali e sulla costruzione di rivelatori per la misura della curvatura dinamica dello spazio con una precisione ancora insuperata. Molte ipotesi sono state fatte sulle possibili fonti di radiazione gravitazionale, e sul valore possibile del flusso con il quale la radiazione dovrebbe essere rivelata sulla terra; stelle di neutroni, pulsar, supernovae, esplosioni in quasar e nuclei galattici sono ritenute le fonti principali. Tuttavia ogni futuro ampliamento delle conoscenze sulla fisica delle onde gravitazionali è strettamente legato al progresso nella tecnologia della rivelazione. Vari laboratori stanno tentando di realizzare rivelatori più sensibili di quelli di Weber, pur basati sullo stesso principio; un tipo di rivelatore diverso è l'interferometro laser, in cui un fascio laser viene diviso in due fasci, riflessi poi da specchi e fatti tornare al punto di partenza, dove interferiscono; il passaggio di un'onda gravitazionale dovrebbe far variare la lunghezza di uno dei due percorsi, generando quindi nel punto d'incontro dei due fasci riflessi figure di interferenza diverse.

Fisica sanitaria
Ai nostri giorni si evidenzia, nell'evoluzione della scienza medica, una crescita del ruolo assunto da metodiche di diagnosi e cura che sfruttano sofisticate apparecchiature, frutto del progresso scientifico e tecnologico: tomografia assiale computerizzata (TAC), tomografia a risonanza magnetica nucleare (RMN), tomografia a emissione di positroni (PET), laser, betatrone, acceleratore lineare (LINAC), e così via. Ai servizi di fisica sanitaria ospedalieri, in Italia come negli altri paesi più progrediti, competono dunque funzioni considerate ormai irrinunciabili in alcuni settori, come la radiologia e la medicina nucleare, mentre la loro collaborazione viene sempre più richiesta anche nell'ambito di altre specialità mediche, come la cardiologia, l'audiologia, l'oftalmologia, ecc. È noto che attualmente la “filosofia” della medicina tende a privilegiare la tutela della salute, e quindi l'aspetto preventivo dell'intervento sanitario rispetto a quello diagnostico-terapeutico. In tale contesto si colloca l'altro settore di attività, proprio della fisica sanitaria, costituito dalla radioprotezione, o protezione sanitaria contro i rischi derivanti dall'impiego delle radiazioni, ionizzanti e non ionizzanti.

Metodi della fisica
La fisica è essenzialmente una scienza sperimentale. Quando si studia un fenomeno bisogna in primo luogo osservarlo correttamente, cioè notare con esattezza tutti gli eventi che lo accompagnano; occorre in seguito saper distinguere, tra gli eventi, quello che è fondamentale da quello che non lo è, o che addirittura è senza rapporto con il fenomeno in esame. Per questa distinzione è indispensabile una serie numerosa di osservazioni: in tal modo gli eventi inessenziali che si accompagnano al fenomeno subiscono variazioni che possono essere apprezzate esattamente. Ma poiché nell'osservazione del fenomeno le variazioni degli eventi inessenziali avvengono per natura, è spesso difficile distinguerli da quelli importanti ai fini dell'osservazione del fenomeno. Perciò il fisico ricorre all'esperimento, nel corso del quale egli interviene attivamente per semplificare le condizioni in cui le esperienze vengono fatte, e all'analisi statistica dei risultati sperimentali. Nell'osservazione come nell'esperienza, i sensi dell'uomo, pur fondamentali, sono molto imprecisi, per cui è sempre più necessario, col progredire delle scienze, aumentarne la potenza con l'impiego di diversi strumenti. In certi casi si tratta di una semplice amplificazione di effetti che si producono a una scala inaccessibile direttamente ai nostri sensi, o comunque non sono misurabili da questi; ne sono esempi gli strumenti ottici e rispettivamente i microfoni. Spesso invece l'indagine realizzata dagli strumenti è tale che si apre all'osservazione un campo del tutto nuovo di fenomeni naturali: è il caso, per es., dei ricevitori di onde hertziane e dei contatori Geiger.
Le esperienze della fisica comportano misure che non sono fine a se stesse. Lo scopo del fisico è trovare le regole, nel senso più generale della parola, che siano in grado di coordinare un insieme di fatti già noti e nello stesso tempo guidino alla scoperta di fatti nuovi. Accade spesso che le cause di certi fenomeni restino a lungo sconosciute, e il fisico fa, riguardo a esse, un'ipotesi che egli ritiene ragionevole; tuttavia egli deve sempre considerare le sue ipotesi come un mezzo di lavoro e cercare attivamente di sottoporle a esperienze appropriate. Le ipotesi di lavoro, pertanto, possono essere comprovate o no dall'esperienza. Spiegare più fatti con una stessa ipotesi, o tutta una serie di fenomeni con un insieme di ipotesi, permette di collegare fatti a prima vista senza alcun nesso in una teoria (teoria cinetica dei gas, teoria elettromagnetica della luce, teoria dei quanti, ecc.). La teoria, per mezzo del ragionamento e del calcolo, può indicare l'esistenza di fenomeni diversi da quelli per la cui spiegazione si è costruita la teoria stessa: se l'esperienza ne verifica la realtà, la teoria è verificata a posteriori, e le ipotesi su cui essa è fondata sono corrette. Una teoria deve essere considerata valida finché permette d'interpretare tutti i fenomeni osservati; ma se si verifica un fenomeno nuovo ch'essa è inadeguata a spiegare, è necessario o sostituirla o modificare le ipotesi su cui si fonda. Tale è stato, per es., il caso della teoria dell'etere, per spiegare la propagazione della luce.

I princìpi
Alcune ipotesi, il cui enunciato è molto generale e molto semplice, investono problemi di capitale importanza. Queste ipotesi, controllate sperimentalmente soltanto in casi particolari, prendono il nome di princìpi quando si generalizzano a un'intera classe di fenomeni e se ne postula l'assoluta generalità e validità in ogni circostanza. Essi sono in genere semplici, coordinano un vasto insieme di fenomeni e, poiché sono di natura ipotetica, restano validi soltanto finché non si osservano fenomeni che li contraddicano. Un esempio di un principio fisico fondamentale nella fisica è quello della conservazione dell'energia: esso non è mai stato smentito fino ai nostri giorni, anche se una teoria cosmologica, quella della creazione continua dell'universo, potrebbe, se fondata su più solide basi sperimentali, inficiarlo radicalmente. Tuttavia nella storia della fisica è talora accaduto che alcuni princìpi che sembravano fondati siano stati abbandonati o almeno è stato ridimensionato il loro ambito di applicazione. Queste rivoluzioni concettuali della fisica hanno coinciso, in generale, con uno sviluppo delle conoscenza: un esempio notevole è l'abbandono del principio di equipartizione dell'energia nella teoria dell'irraggiamento, abbandono che ha condotto alla scoperta dei quanti. Tra i princìpi attualmente accettati, oltre a quello della conservazione dell'energia, si possono citare il principio di minima azione, il principio di relatività di Einstein, i due princìpi della termodinamica; una volta assunto un principio è possibile dedurne, applicando le regole della logica e i potenti mezzi del calcolo, numerose conseguenze, il cui corpo costituisce talvolta una disciplina autonoma, com'è il caso, per es., della termodinamica.
Il procedimento indicato sopra in modo schematico, che comincia con l'osservazione per dar luogo a un corpo di dottrina, si svolge secondo un certo numero di fasi importanti che conviene definire. La prima, che normalmente è la conseguenza di una serie di misure, consiste nello stabilire una legge. La legge fisica è l'espressione di una verità scientifica; essa traduce con una relazione i legami che la natura impone ai valori numerici. La legge è dunque d'origine strettamente sperimentale perché, a differenza del principio, si applica a un ristretto campo d'indagine. Esempi di leggi fisiche possono essere le leggi di Boyle-Mariotte, di Gay-Lussac, di Joule, di Ohm, ecc. La legge è la traduzione quantitativa di un fenomeno fisico, ed è l'esperienza che ne controlla la validità. I risultati sperimentali sono, per natura, soggetti a errori di cui è possibile conoscere il limite superiore. Pur migliorando le nostre tecniche per rendere quanto più basso è possibile il limite di questi errori, non si realizzerà mai una misura precisa. Perciò affermare che una legge è in accordo con l'esperienza significa dire che le misure dell'esperienza sono in accordo con la relazione espressa dalla legge, a meno di un errore, minore del limite superiore di cui si è detto. La relazione espressa da una legge non può essere definitiva perché può succedere che nuove misure più precise facciano intervenire differenze sistematiche tra i risultati sperimentali e la traduzione quantitativa dell'enunciato. In un gran numero di casi, tuttavia, i fisici hanno dovuto rinunciare alla speranza di tradurre in una forma semplice la complessità dei fenomeni della natura. Spesso, in mancanza di meglio, o per semplicità, si usa una legge che si sa già a priori non rigorosamente vera, ma di cui si sa valutare l'errore. In generale le leggi della fisica si traducono in relazioni matematiche; questa traduzione è talora semplicissima, ed è il caso, per es., delle leggi della riflessione e della rifrazione, o delle leggi delle correnti elettriche. Talora l'espressione matematica è invece complessa, e non può essere espressa nel linguaggio abituale: la si rappresenta allora con una curva. Così, per rappresentare le variazioni della pressione di un vapore saturo in funzione della temperatura, si costruisce una curva prendendo per ascisse le temperature e per ordinate le pressioni corrispondenti. Si può affermare che, con la maggior complessità dei fenomeni fisici da spiegare, maggiore è stato l'impiego della matematica nella fisica. Oggi la fisica soprattutto teorica ha molto dell'astrattezza formale della matematica, e usa algoritmi matematici assai complessi, come l'algebra formale, la teoria delle funzioni, il calcolo differenziale e integrale, il calcolo vettoriale e l'analisi tensoriale, il calcolo delle matrici, la teoria dei gruppi per lo studio delle simmetrie dei fenomeni fisici, il calcolo delle probabilità, ecc.
Succede spesso che insiemi di dati sperimentali siano rappresentabili in maniera soddisfacente con una legge che ammetta sì una formulazione matematica, ma non un fondamento teorico plausibile; si dice allora che si tratta di una “formula empirica”. Si esamini, per es., il fenomeno dell'irraggiamento termico della materia, e più particolarmente quello dello spettro energetico dell'irraggiamento prodotto da una cavità portata a una certa temperatura (irraggiamento del “corpo nero”). Dopo che sono state proposte diverse formule approssimate per rappresentare questo spettro energetico, una formula esatta, ma empirica, fu scoperta da Max Planck. Tuttavia una formula empirica, per quanto esatta, non è soddisfacente per il fisico, perché resta isolata, sterile, non implica nessi con altri fenomeni, finché non è stato possibile darne un'interpretazione teorica. Nell'esempio di cui sopra, lo stesso autore della formula empirica propose un'ipotesi teorica dalla quale la si poteva logicamente dedurre. Negli anni che seguirono, numerosi lavori, tanto sperimentali quanto tecnici, dimostrarono la fecondità dell'ipotesi di Planck, che ha costituito il punto di partenza di un corpo di dottrina, quello della fisica quantistica.

Esempio