Fisica I

Materie:Appunti
Categoria:Biologia
Download:4858
Data:06.11.2000
Numero di pagine:130
Formato di file:.doc (Microsoft Word)
Download   Anteprima
fisica_2.zip (Dimensione: 335.37 Kb)
trucheck.it_fisica-i.doc     28.5 Kb
readme.txt     59 Bytes


Testo

Attrito

Il contatto fra due corpi solidi determina una deformazione a carattere permanente o variabile in dipendenza del reciproco stato dinamico dei corpi stessi; questa deformazione comporta, su scala microscopica, vibrazioni molecolari con conseguente produzione di calore e di elettricità. Si tiene conto, nei calcoli, dei complessi fenomeni microscopici prodotti da questa deformazione, introducendo la cosiddetta forza di attrito; essa agisce tangenzialmente a ogni elemento della superficie di contatto dei due corpi.
Lo spostamento relativo di due solidi in contatto si può ridurre a una traslazione o slittamento dei due solidi uno sull'altro, e a rotazioni attorno a un asse giacente nel piano tangente comune od ortogonale a tale piano. Le prime esperienze relative all'attrito furono eseguite da Coulomb nel 1781. La forza di attrito radente è: 1. indipendente dall'estensione delle superfici di contatto; 2. dipendente dalla natura di tali superfici; 3. proporzionale alla forza esercitata da un solido sull'altro. L'angolo acuto la cui tangente trigonometrica ha un valore pari al coefficiente di attrito si dice angolo di attrito e dipende soltanto dalla natura delle superfici a contatto. L'attrito dinamico è una forza applicata al punto di contatto istantaneo e rivolta in verso opposto alla velocità relativa; l'attrito in condizioni di moto è minore dell'attrito in condizioni di equilibrio. L'attrito che nasce dal rotolamento di un solido su un altro, o attrito volvente, è molto inferiore al corrispondente attrito radente; è indipendente dalla pressione esercitata fra i due corpi e dipende solo dalla natura delle superfici a contatto. Nel caso che la rotazione avvenga attorno a un asse perpendicolare al piano tangente comune, l'attrito è proporzionale all'attrito radente e al perimetro della piccola superficie di contatto fra i due corpi. L'attrito è, in generale, un fenomeno che ostacola il funzionamento delle macchine e dei motori; si cerca, perciò, di ridurlo al minimo mediante la lubrificazione dei pezzi destinati a venire in contatto, oppure sostituendo l'attrito volvente a quello radente, come avviene, per es., nei cuscinetti a sfere. In certi casi, invece, l'attrito è utile e viene sfruttato: ad es., nel funzionamento degli innesti, della frizione, dei freni, delle cinghie di trasmissione; l'attrito viene sfruttato anche quando si collegano due corpi fra di loro mediante viti o chiavette; rende inoltre irreversibili certi meccanismi, ecc.
L'attrito di un solido e di un liquido è retto da leggi assai diverse da quelle che reggono l'attrito fra due solidi; lo stesso dicasi per l'attrito fra due gas; per es., il regolatore a palette utilizza l'attrito dei gas.
Cinematica

La cinematica ha per oggetto le proprietà geometriche del movimento; comprende pertanto la cinematica del punto e la cinematica dei sistemi rigidi. D'Alembert riconobbe l'importanza di questa parte della meccanica come scienza distinta, e Ampère per primo mostrò la necessità di formulare una teoria geometrica a fondamento della dinamica. La descrizione del movimento di un punto o di un sistema avviene individuandone la posizione in ogni istante, cioè determinando il modo di variare nel tempo della sua configurazione nello spazio. A questo scopo è necessario innanzi tutto assegnare un ente di riferimento rispetto al quale descrivere il moto: anzi il concetto stesso di moto o di quiete richiede che si stabilisca l'oggetto rispetto al quale il corpo considerato risulta in moto o in quiete. Nella cinematica classica viene assegnato solo il sistema di riferimento spaziale rispetto al quale è descritto il moto, mentre il tempo è assunto come un parametro universale, indipendente dal sistema di riferimento spaziale; la cinematica relativistica ha superato questa impostazione e ha stabilito un nuovo significato della variabile tempo, che risulta strettamente legata alla posizione nello spazio, attraverso una mutata definizione operativa dei concetti di simultaneità, futuro, passato. Le leggi formulate dalla cinematica classica e relativistica devono quindi soddisfare esigenze diverse, poiché dipendono da concezioni diverse del sistema di riferimento: nel caso classico, si richiede che esse abbiano la stessa formulazione quando siano espresse in sistemi di riferimento che si muovono di moto rettilineo uniforme l'uno rispetto all'altro, ma per i quali il tempo è lo stesso. Per le proprietà di invarianza richieste dalla teoria relativistica.
• Cinematica del punto
Tutte le volte che le dimensioni del mobile sono praticamente trascurabili rispetto a quelle della regione entro cui si svolge il movimento, conviene trattare il corpo stesso come un punto. Questa parte della cinematica studia quindi il caso ideale di un punto mobile e si propone di determinare la funzione P = P(t) che individua la posizione del punto P in ogni istante di tempo t, rispetto a un sistema di riferimento assegnato (per la formulazione analitica della teoria, si usano quasi sempre sistemi di riferimento cartesiani, oppure coordinate polari o cilindriche). Il luogo delle posizioni occupate dal punto nello svolgersi del tempo è la traiettoria, che può essere o rettilinea o curvilinea; nel caso particolare in cui sia contenuta in un piano, il moto si dice piano. Per caratterizzare il moto è necessario anche descrivere il modo in cui la traiettoria è percorsa durante il tempo: se s è la lunghezza del tratto di traiettoria percorso, interessa la sua dipendenza dal tempo, espressa dalla funzione s = s(t) (equazione del movimento sulla traiettoria o equazione oraria). Quando lo spazio percorso non cresce in modo costante nel tempo, occorre anche precisare la legge della sua variazione: si introduce così il concetto di velocità; quest'ultima è una grandezza vettoriale definita dalla relazione
essendo P = P(t) l'equazione del moto del punto P. Poiché anche la velocità può variare nel tempo, si introduce l'accelerazione
che serve a caratterizzare ulteriormente il moto. Tanto la velocità quanto l'accelerazione sono direttamente connesse a proprietà geometriche della traiettoria: la velocità è sempre un vettore tangente a quest'ultima, mentre l'accelerazione ha una componente tangenziale (che si annulla per tutti i moti uniformi, cioè con velocità di modulo costante, qualunque sia la forma della traiettoria descritta) e una componente lungo la normale principale (detta accelerazione centripeta), la cui grandezza è legata al raggio di curvatura della traiettoria. Le leggi P = P(t), v= v(t), a = a(t) caratterizzano i diversi tipi di moto: moto rettilineo, rettilineo uniforme, uniformemente accelerato, centrale, armonico, ecc. In particolare, la cinematica ha potuto studiare completamente il caso del moto dei gravi (moto naturalmente accelerato, con un'accelerazione costante, che è l'accelerazione di gravità) e i moti centrali, classe in cui rientrano i moti dei pianeti, le cui proprietà sono state definite dalle leggi di Keplero. Infatti, la descrizione delle caratteristiche della traiettoria non richiede l'intervento esplicito di alcuna ipotesi sulla natura della forza che determina il moto (il cui esame rientra piuttosto nella teoria della gravitazione, appartenente alla dinamica).
• Composizione di movimenti
Molto spesso accade di dover considerare un mobile soggetto a più movimenti contemporaneamente (moti componenti); il moto risultante del mobile è in ogni istante determinato dalla composizione degli spostamenti che - fino a quello stesso istante - il mobile avrebbe subito per azione di ciascuno dei moti componenti. Tale proprietà (principio della composizione dei movimenti, determinato sperimentalmente da Galileo) ha una chiara rappresentazione grafica nella somma vettoriale degli spostamenti: nel caso ad esempio di due moti componenti, se s1(t) e s2(t) sono gli spostamenti che il punto P subirebbe nel tempo t a partire dalla posizione iniziale Po sotto l'azione dei due singoli moti, allora per effetto del moto risultante il suo spostamento è s(t) = s1(t) + s2(t). Inoltre nella cinematica classica la velocità del moto risultante è anch'essa la somma vettoriale delle velocità dei moti componenti.
• Cinematica dei sistemi rigidi
Un sistema rigido è per definizione un insieme di punti materiali tale che la distanza tra due suoi punti qualunque, considerati macroscopicamente, si mantiene costante comunque si muova il sistema. I corpi solidi possono ritenersi rigidi in prima approssimazione, fino a che non si debba tenere conto delle deformazioni che essi subiscono se sollecitati da pressioni e trazioni. Per caratterizzare il moto di un sistema rigido occorre in genere individuare sia la posizione di un suo punto rispetto a un sistema fisso sia la posizione di ogni altro punto rispetto a quello: a questo scopo si assegna anche un sistema di riferimento (in genere, assi cartesiani ortogonali) che si muova solidalmente con il sistema, e rispetto al quale è individuata la posizione di ogni punto del sistema. Casi particolarmente interessanti dei moti dei sistemi rigidi sono il moto traslatorio (in cui il segmento che congiunge due punti qualunque si sposta mantenendosi parallelo a se stesso) e il moto rotatorio assiale, in cui rimangono fissi tutti i punti di una retta (asse di rotazione), mentre ogni altro punto descrive una traiettoria circolare in un piano normale all'asse. Anche per i sistemi rigidi si può estendere la composizione dei movimenti: nel moto composto, o risultante, ogni punto del sistema ha in ogni istante dell'intervallo di tempo considerato la velocità risultante dalla composizione vettoriale delle velocità che a esso competono - nello stesso istante - per ciascuno dei moti componenti. La cinematica dei sistemi ha permesso di stabilire che il più generale moto rigido può essere espresso in ogni istante come composizione di un moto traslatorio e un moto rotatorio attorno a un asse istantaneo di rototraslazione (moto istantaneo di rototraslazione, o atto di moto rototraslatorio).
In particolare interessano i moti rigidi piani: sono tali i moti rigidi in cui ogni punto descrive una traiettoria piana; si possono perciò studiare come moti di una figura piana (che può essere per esempio una sezione del corpo) su un piano assegnato. Anche per essi il caso più generale è una composizione di un moto rotatorio e uno traslatorio: esiste sempre un punto che è polo o centro istantaneo di rotazione (e corrisponde all'intersezione con il piano considerato dell'asse istantaneo di rotazione introdotto nel caso generale). Consideriamo particolarmente il caso di una pura rotazione istantanea (nella traslazione, tutte le traiettorie dei punti del sistema sono parallele); poiché il punto che è centro istantaneo di rotazione varia all'interno del sistema (cioè in tempi diversi punti diversi sono poli istantanei) e d'altra parte esso si sposta sul piano fisso, interessa considerare due traiettorie polari: il luogo delle posizioni assunte dal polo C sul piano fisso (curva polare fissa o base) e il luogo dei punti del piano del sistema mobile che in ogni istante sono centro di rotazione (curva polare mobile o rulletta). Una delle proprietà fondamentali del moto rigido piano si esprime dicendo che la rulletta rotola senza strisciare sulla base: le due curve sono tangenti in ogni istante di tempo. Tra i moti rigidi piani, interessano particolarmente i moti cicloidali, in cui entrambe le traiettorie polari sono circolari; la circonferenza mobile può essere o esterna alla circonferenza base, oppure interna: si hanno così rispettivamente i casi in cui la traiettoria descritta da ogni punto è un'epicicloide oppure un'ipocicloide. Se invece la curva base è una retta, la traiettoria descritta è una cicloide(caso di una ruota che rotoli sul terreno).
Infine, altro caso interessante è quello di un sistema rigido che abbia un punto fisso: in ogni istante il sistema ruota attorno a un asse di rotazione istantanea che è necessariamente una retta passante per il punto fisso. Il luogo delle posizioni occupate nello spazio fisso dall'asse di rotazione è detto cono polare fisso, o cono erpoloide, mentre il luogo delle rette del sistema mobile che divengono successivamente assi di rotazione è detto cono polare mobile, o cono della poloide. Questi due coni (coni di Poinsot) permettono di caratterizzare il moto di ogni sistema rigido avente un punto fisso come equivalente al rotolamento del cono mobile sul cono fisso. Per lo studio di questo tipo di moto sono utili parametri opportuni, per individuare le posizioni del sistema: si introducono a questo scopo gli angoli di Eulero.
• Moto relativo
Accade spesso di dover considerare il moto di un punto o di un sistema quale appare a un osservatore che sia esso stesso in moto: oltre al sistema di riferimento fisso (ad es. una terna di assi cartesiani Oxyz) introduciamo allora anche un sistema di riferimento mobile (ad es. la terna ). Un punto P è caratterizzato dalle coordinate x, y, z e e, ,, ,,nei due sistemi e le sue equazioni del moto sono quindi x = x(t), y = y(t), z = z(t) e ))= =(t), ))= =(t), ))= =(t) rispettivamente nei due riferimenti. La velocità rispetto al sistema fisso (velocità assoluta) risulta va= vr + vtdove vr è la velocità rispetto al sistema mobile (velocità relativa) e vt la velocità di trascinamento, cioè quella che il punto P avrebbe se, essendo in quiete nel sistema mobile, si muovesse solidalmente con questo: coincide quindi con la velocità del sistema mobile rispetto a quello fisso. Tra le accelerazioni nei due sistemi vale la relazione espressa dal teorema di Coriolis: aa = ar + at + ac, dove aa e ar sono le accelerazioni rispetto al sistema fisso (accelerazione assoluta) e a quello in moto (accelerazione relativa); at(accelerazione di trascinamento) è l'accelerazione che il punto avrebbe se fosse rigidamente solidale con il sistema mobile e venisse trascinato da questo nel suo moto (non è quindi altro che l'accelerazione assoluta del riferimento mobile). Infine ac è l'accelerazione complementare o di Coriolis, nulla in particolare quando il punto è in quiete rispetto al sistema mobile (vr = 0) o quando il moto del riferimento mobile è di pura traslazione. In modo analogo al caso del moto relativo di un solo punto, si può descrivere anche quello di un insieme di punti e in particolare di un sistema rigido: il moto assoluto di esso si ottiene componendo, in ogni istante, il suo moto relativo con quello di trascinamento. È importante infine osservare che se il riferimento mobile si muove di moto rettilineo uniforme rispetto a quello fisso ed è quindi costante la velocità di trascinamento vt risulta allora at = 0 e ac = 0; il teorema di Coriolis si riduce perciò semplicemente alla relazione aa = ar: l'accelerazione di un punto è cioè la stessa rispetto a osservatori in moto di traslazione con velocità uniforme l'uno rispetto all'altro (principio di relatività galileiana). Nella cinematica classica questa proprietà si deduce sotto l'ipotesi che il tempo sia un parametro universale, comune a tutti i sistemi di riferimento.

Accelerazione

Considerato un punto materiale che si muove di moto rettilineo uniformemente vario, nel quale cioè la velocità si modifica per una stessa quantità in tempi uguali, l'accelerazione è la variazione subita dalla velocità nell'unità di tempo. Sia v0 la velocità all'istante t0, v la velocità all'istante t, indicando con a l'accelerazione, si ha:
a = vv0/tt0 .
Secondo che a sia positiva o negativa, il moto si dice uniformemente accelerato o uniformemente ritardato. Se il punto materiale si muove con moto rettilineo arbitrario - indicando con .v la variazione subita dalla velocità nell'intervallo di tempo lt a partire dall'istante t - il rapporto -v//t rappresenterà l'accelerazione media nell'intervallo di tempo nt: se :t tende a zero, tv//t tende a dv/dt che si assumerà come accelerazione del mobile all'istante t. In un moto rettilineo, quindi, l'accelerazione si definisce come la derivata della velocità rispetto al tempo, ed essendo v = dx/dt risulta:
at = d2x/dt² .
Nel caso più generale, l'accelerazione sarà data da una quantità vettoriale le cui componenti lungo gli assi di un riferimento cartesiano ortogonale valgono:
d²x/dt², d²y/dt², d²z/dt².
Se un corpo si muove di moto relativo, la sua velocità assoluta è la somma geometrica, o risultante, della velocità relativa e della velocità di trascinamento; questa regola non vale per l'accelerazione assoluta, che risulta invece dalla somma geometrica di tre accelerazioni: 1. l'accelerazione nel movimento relativo; 2. l'accelerazione nel moto di trascinamento; 3. l'accelerazione complementare detta anche accelerazione centrifuga composta o di Coriolis. Questa terza accelerazione è quella che, nel moto di caduta dei gravi sulla terra, giustifica la lieve loro deviazione verso oriente dovuta alla rotazione terrestre. L'unità di accelerazione nel sistema MKSA e nel SI (sistema internazionale di unità di misura) è il metro al secondo per secondo (m/s²), nel sistema CGS è il centimetro al secondo per secondo (cm/s²); quest'ultima prende il nome di gal, ed è cento volte più piccola della prima.
Forza

Il termine forza è impiegato spesso in maniera impropria e senza che a esso venga attribuito un significato ben preciso; ad es., si dice forza elettromotrice, forza vapore. In meccanica quando un corpo rigido passa da uno stato di quiete a uno stato di moto o, se è già in movimento, subisce una variazione di velocità, si dice che gli è stata applicata una forza. Si consideri un corpo di massa m soggetto a una accelerazione a. Il suo moto è descritto dall'equazione di Newton F = ma, definizione del concetto dinamico di forza, che mostra la proporzionalità tra forza e accelerazione. Scrivendo la legge di Newton F ma = 0, che va interpretata come una condizione di equilibrio tra due o più forze che si compensano, si introduce il concetto statico di forza, come azione che tende a ristabilire l'equilibrio invece di spezzarlo. Qualora si consideri un corpo non rigido (per es. elastico) l'applicazione di più forze può causare una deformazione del corpo. In questi casi si parla generalmente di sforzi. Una forza è una grandezza vettoriale caratterizzata: 1. dal suo punto di applicazione; 2. dalla sua direzione e dal suo verso; 3. dalla sua intensità. Il punto di applicazione di una forza coincide col punto materiale su cui essa agisce; la direzione di una forza è la retta lungo la quale la forza tende a spostare il proprio punto di applicazione ed il verso ne completa la descrizione nello spazio; infine l'intensità di una forza è la sua misura rispetto a una forza campione. Una forza è rappresentabile mediante un vettore OM; si farà coincidere il punto O col punto di applicazione della forza, la direzione orientata OM con la direzione e con il verso della forza e si sceglierà il segmento OM in modo che la sua lunghezza sia una misura dell'intensità della forza stessa. Trattare matematicamente una forza significa operare su un vettore: tutti i metodi e le proprietà del calcolo vettoriale si applicano allora tali e quali ai calcoli sulle forze. Si richiamano le proprietà più interessanti fisicamente: 1. Composizione delle forze applicate a uno stesso punto: senza alterare l'equilibrio di un corpo rigido si possono sostituire più forze applicate in un medesimo punto P con il loro risultante R applicato in P, ottenuto eseguendo più volte la somma vettoriale con la regola del parallelogrammo. 2. Forze parallele: se due o più forze non sono riducibili a coppie, è univocamente determinato il vettore forza risultante; nel caso invece in cui le forze parallele siano riducibili a coppie, il vettore risultante non è determinato, e si usa caratterizzare tale sistema mediante il momento risultante delle forze. 3. Sistemi di forze, un sistema di forze qualsiasi può sempre ridursi ai seguenti semplici sistemi: nessuna forza; una forza, il risultante; una coppia caratterizzata dal momento risultante dei momenti delle forze del sistema; una forza e una coppia.
Gravitazione

Attrazione mutua esistente fra tutti i corpi materiali. (Secondo la legge della gravitazione universale formulata da Newton, la forza di attrazione di due corpi è direttamente proporzionale al prodotto delle loro masse e inversamente proporzionale al quadrato della loro distanza.)
Già in epoca classica, alcuni filosofi-scienziati greci (Empedocle, Democrito, Platone, ecc.) ritenevano che esistesse una mutua attrazione fra “sostanze analoghe”, ivi compresi i corpi celesti; nel XVI sec. N. Copernico avanzò l'ipotesi dell'esistenza di una “attrazione solare”, ipotesi ripresa da J. Keplero che ne tenne conto nel formulare le sue leggi sul moto dei pianeti. Nel 1645, l'astronomo francese I. Boulliau (Bullialdo [1605- 1694]) enunciò una legge secondo la quale, tra i corpi celesti, esisteva una reciproca forza di attrazione inversamente proporzionale alla distanza o al quadrato delle distanze fra le masse dei corpi considerati; più tardi, P. de Fermat confermò che esisteva una forza di attrazione proporzionale alla massa del Sole. Fra il 1670 e il 1680 furono proposte da R. Hooke e da altri studiosi precise leggi sull'attrazione universale; C. Huygens dimostrò, considerando le orbite dei pianeti, che il moto di questi era dovuto a una forza inversamente proporzionale ai quadrati delle distanze dal Sole. Huygens inoltre enunciò una teoria basata sulle sue ipotesi ondulatorie e dimostrò che l'accelerazione di gravità varia a seconda delle latitudini e dipende dalla forza centrifuga (da lui scoperta nel 1673).
Nel 1687, I. Newton mise ordine in tutte queste ipotesi e, basandosi su calcoli precisi, giunse a formulare una legge sulla gravitazione universale espressa dalla formula
dove F è l'intensità della forza di attrazione, f indica una costante universale, m e m' sono le masse dei corpi considerati e d è la distanza fra questi. La legge di Newton permise di spiegare numerosi fenomeni legati o dipendenti dalla gravità; misure della gravità effettuate in seguito confermarono la validità della legge. Successivamente più accurate misure della gravità rivelarono anomalie di questa, sia riferita alla Terra, sia riferita al moto degli astri; ciò indusse gli studiosi dei secoli seguenti (P. S. Laplace, H. A. Lorentz, A. Einstein) a rivedere, precisare e modificare la legge di Newton, senza tuttavia riuscire a spiegare l'origine e la natura della gravitazione.
I fenomeni della gravitazione sono descritti dal campo gravitazionale, ossia dal campo delle forze di attrazione dei corpi: le proprietà di tale campo sono espresse, in prima approssimazione, dalla legge di Newton. Il campo gravitazionale è, comunque, un campo che ammette un potenziale le cui caratteristiche sono definite dalle equazioni di Laplace e di Poisson. Alle forze agenti nei campi gravitazionali si deve l'attrazione che la Terra e i corpi celesti esercitano fra loro e su tutti i corpi; inoltre, da queste dipendono anche la forma delle traiettorie dei corpi nello spazio e, entro certi limiti, le anomalie del comportamento dinamico di questi.
In base alle più recenti osservazioni astronomiche (anomalie dell'orbita di Mercurio, ecc.) A. Einstein formulò una teoria della gravitazione che intende essere un modello geometrico dei fenomeni gravitazionali basato sulla teoria della relatività generale. Secondo la teoria della relatività generale, le proprietà geometriche dello spazio-tempo sono determinate dalla presenza di masse gravitazionali; in particolare in prossimità di un corpo materiale lo spazio non è euclideo, ma possiede una curvatura non nulla; di conseguenza le geodetiche non sono delle rette ma delle linee curve. In questo spazio si può formulare un principio di inerzia generalizzato, asserendo che ogni punto materiale, non soggetto a forza, si muove lungo una geodetica. Dalle equazioni della relatività generale si può dedurre che in prossimità di un corpo materiale le geodetiche sono approssimativamente delle coniche; si riottiene così in prima approssimazione la teoria newtoniana della gravitazione, ma in questa nuova formulazione non si introducono forze gravitazionali, in quanto l'effetto del campo di gravitazione si manifesta attraverso le modificazioni delle proprietà geometriche dello spazio. In presenza di campi gravitazionali molto intensi la teoria einsteniana si discosta da quella di Newton e prevede nuovi fenomeni che sono stati in parte verificati sperimentalmente, come la rotazione del piano dell'orbita dei pianeti e l'incurvamento dei raggi luminosi in vicinanza di una massa gravitazionale. Inoltre questa teoria ha importanti implicazioni cosmologiche sull'evoluzione e sulla struttura dell'universo.

Inerzia

Tendenza d'un corpo a conservare il proprio stato di moto o di quiete e a opporre resistenza alle forze che tendono a modificare tale stato. Momento d'inerzia, di un sistema materiale o di enti geometrici rispetto a una forma geometrica (punto, retta, piano), grandezza fisica I definita dalla somma di prodotti delle masse dei punti materiali o delle misure degli enti geometrici che compongono il sistema per il quadrato delle loro distanze dalla forma geometrica.
• Inerzia della materia
Il principio d'inerzia, o principio di Galileo, è uno dei princìpi fondamentali della dinamica; può ridursi all'enunciato seguente: un punto materiale non sottoposto ad alcuna forza, o è in quiete, o si muove di moto rettilineo uniforme. È un caso particolare della legge di Newton F = ma: quando l'accelerazione a = d²P/dt² del punto mobile P è nulla, la sua velocità v = dP/dt è infatti costante (in particolare nulla).
• Forza d'inerzia periodica
Nella dinamica delle oscillazioni le forze d'inerzia hanno andamento periodico, che nei casi pratici (ad es. nel moto dello stantuffo di un motore a scoppio) non è semplicemente sinusoidale. Oltre alla forza d'inerzia del primo ordine o fondamentale (che ha il periodo T del fenomeno) si hanno forze d'inerzia di ordine superiore (secondo, terzo, quarto, ecc. di periodo T/2, T/3, T/4, ... rispettivamente).
• Momento d'inerzia
In un sistema costituito da punti materiali Pi di massa mi il momento d'inerzia (() rispetto a una forma geometrica ))è definito dalla relazione
è ((((((i mir2i,
dove r è la distanza di Pi da Nel caso di un sistema formato da una distribuzione continua di massa in un volume V la somma precedente è sostituita da un integrale:
nel quale dV è la massa contenuta nell’elemento di volume dV e r la sua distanza da Per sistemi materiali in una o due dimensioni l’integrale di volume è sostituito da un integrale di linea o di superficie. Il momento di inerzia di una figura geometrica qualsiasi (volume, superficie, segmento di curva) si può definire nello stesso modo ponendo èè= 1. I momenti di inerzia di un sistema rispetto a forme geometriche differenti sono legati tra loro da semplici relazioni algebriche; per es. il momento d’inerzia rispetto a un punto o polo P, detto momento di inerzia polare, è uguale alla somma di momenti di inerzia relativi a tre qualsiasi assi ortogonali passanti per P. Il momento di inerzia t((((rispetto a un asse è legato al momento di inerzia r(((((relativo a un asse rrrparallelo a pppe passante per il centro di massa della relazione I(eeeeee(((((((h2m, dove h è la distanza tra èèe eeee m è la massa totale del sistema; questa relazione, nota come teorema di Huygens-Steiner, permette di calcolare rapidamente p rispetto a qualsiasi asse una volta noto il suo valore per i tre assi centrali d’inerzia.
• Ellisse d'inerzia
Data una figura o un sistema di masse giacenti su un piano D, si dimostra che a ogni punto P di tale piano è associata un'ellisse, detta ellisse d'inerzia, di equazione
x²//²y + y²//²x = 1
ove x e y sono gli assi principali d'inerzia della figura o del sistema relativi a P, giacenti su s, ,x e y i corrispondenti raggi d'inerzia. Se l'ellisse si riferisce al baricentro G dicesi ellisse centrale d'inerzia. L'ellisse d'inerzia gode di talune importanti proprietà applicative: il raggio d'inerzia .p della figura rispetto a un diametro dell'ellisse relativa al generico punto P del piano è dato dal semidiametro coniugato; in virtù della antipolarità che l'ellisse centrale stabilisce nel piano il raggio d'inerzia della figura rispetto a una generica retta r del piano può determinarsi come media geometrica fra le distanze del baricentro G e dell'antipolo R di r(rispetto all'ellisse centrale d'inerzia relativa appunto a G) da r medesima. È opportuno infine ricordare che l'ellisse d'inerzia in un generico punto P è omotetica all'ellisse sezione del corrispondente ellissoide d'inerzia.
Lavoro
Grandezza scalare associata a una forza il cui punto di applicazione si sposta lungo una linea. Il lavoro L compiuto da una forza costante F il cui punto di applicazione si muove su un segmento di lunghezza s è definito dal prodotto scalare L = F×s della forza FFper il vettore spostamento ss rappresentato dal segmento s orientato secondo il verso di percorrenza. Lavoro di una coppia applicata a un organo rotante, prodotto scalare dei vettori momento della coppia e angolo di rotazione. Lavoro esterno o interno, lavoro compiuto su un sistema dinamico da parte di forze rispettivamente esterne o interne. Lavoro motore o resistente, lavoro di una forza che forma un angolo rispettivamente acuto od ottuso con il vettore spostamento. Lavoro elettrico, lavoro eseguito dalle forze del campo elettrico applicate alle cariche in moto. (Mediante lavoro elettrico si ha trasformazione di energia potenziale del campo in energia di altro tipo.). Lavoro di deformazione, lavoro compiuto da un sistema di forze esterne per portare un corpo o un sistema di corpi elastici dallo stato naturale (cioè dallo stato di equilibrio precedente l'intervento delle forze) a una configurazione deformata di equilibrio.
c Biologia e Fisiologia
La materia vivente è in grado di trasformare l'energia, cioè di compiere del lavoro. Fondamentalmente le produzioni di lavoro appartengono a due tipi: a) produzione di lavoro meccanico il cui tipico esempio è lo spostamento della forza peso nel superare dislivelli di altezza; è lavoro meccanico l'energia spesa per vincere gli attriti (cammino o corsa in piano, nuoto, movimento del sangue nei vasi sanguigni); gli organi responsabili della produzione di lavoro meccanico sono i muscoli scheletrici, il miocardio, la muscolatura liscia degli intestini; b) produzione di lavoro chimico, ossia variazione di energia di legame che si manifesta, con la trasformazione di una sostanza in altre sostanze (metabolismo) oppure durante la creazione e il mantenimento di differenze di concentrazione di soluti (osmosi).
Ogni cellula è in grado di produrre lavoro chimico. Sede di tale produzione sono i mitocondri. L'energia chimica a disposizione della cellula può essere da questa trasformata in altre forme di energia (energia meccanica, energia elettrica, calore).
Fisica
Per definire il lavoro L di una forza F (P) variabile il cui punto di applicazione P descrive uno spostamento qualunque C, si costruisce innanzitutto il lavoro elementare, che è il lavoro della forza F(P) per lo spostamento elementare, definito come il vettore di modulo pari all'elemento d'arco ds, parallelo alla tangente alla curva C nel punto P e orientato secondo il verso di percorrenza del punto di applicazione P. Il lavoro L è allora l'integrale curvilineo di dL lungo l'arco di curva descritto dal punto di applicazione della forza:
Segue da questa definizione che la somma dei lavori di un sistema di forze applicate allo stesso punto è uguale al lavoro della forza risultante.
Nel caso in cui la forza F derivi da un potenziale d (ad es. un potenziale elettrostatico o gravitazionale), cioè se vale la relazione
F = - grad F,
allora il lavoro elementare è uguale al differenziale totale del potenziale cambiato di segno, cioè
dL = - d d.
Il lavoro ottenuto integrando - d ddè allora uguale alla variazione del potenziale tra la posizione di partenza e la posizione d'arrivo del punto di applicazione della forza, ed è indipendente dal cammino percorso; in particolare il lavoro lungo una linea chiusa è nullo.
La nozione di lavoro è strettamente legata a quella di energia: ogniqualvolta una forza compie un lavoro si osserva una corrispondente variazione di energia nel sistema dinamico in studio.
Nel sistema SI l'unità di misura di lavoro (come dell'energia) è il joule (J), che equivale al lavoro prodotto da una forza di 1 newton il cui punto di applicazione si muove di 1 m lungo la direzione della forza. Nel sistema CGS l'unità è l'erg, che equivale a 107 joule. Se la forza è espressa in chilogrammi e la lunghezza in metri (sistema pratico o tecnico), il lavoro è espresso in kgm. Un kgm vale 9,81 joule.
Derivata
Derivata di una funzione di una variabile, limite al quale tende il rapporto tra l'incremento subito dalla funzione e il corrispondente incremento della variabile indipendente, quando quest'ultimo tende a zero. Derivata parziale, rispetto a una variabile x, di una funzione di più variabili f(x, y, z ...), derivata rispetto a x ottenuta mantenendo costanti le altre variabili che compaiono nella funzione; se la funzione contiene una sola variabile la derivata della funzione coincide con la derivata parziale.(Simb.:pp//x.). Derivata di un vettore: dato un vettore v(t) funzione del parametro t, si dice derivata di v il limite, se esiste, del vettore
al tendere di t a to. [La derivata di un vettore ha le stesse proprietà della derivata di una funzione scalare; in particolare alla derivata del prodotto f(t) · v(t), con f(t) funzione scalare, si applicano le consuete regole di derivazione.]
Consideriamo una funzione di una variabile y = f(x). Diamo a x, a partire da un valore determinato, un incremento h; ne risulta per la funzione un corrispondente incremento k = f(x + h)f(x).
Se il rapporto k/h tende a un limite finito quando h tende a 0, secondo una legge qualunque, questo limite si chiama derivata della funzione f(x) per il valore di x considerato. Si rappresenta la derivata con la notazione y'o f'(x) o dy/dx. Perché una funzione ammetta derivata per un valore di x, è necessario che essa sia continua per quel valore della variabile. Allora k tende a 0, al tendere a 0 di h. Questa condizione necessaria non è però sufficiente ad assicurare l'esistenza della derivata; perché ciò avvenga è inoltre necessario che il rapporto k/h, che si presenta sotto la forma 0/0, abbia un limite finito e determinato. Si può dare della derivata una rappresentazione geometrica. Consideriamo la curva la cui equazione riferita a un sistema di assi qualunque sia y = f(x). Siano M e M' i punti della curva aventi per coordinate rispettivamente x, y e x + h, y + k. La corda M M' ha per coefficiente angolare il rapporto k/h. Facendo tendere h a 0 la corda M M'ha per posizione limite la tangente M T alla curva nel punto M, e la derivata, per il valore di x considerato, è rappresentata dal coefficiente angolare della tangente M T.
Derivate successive. y' = f'(x) è in generale una funzione di x. Se si considera la derivata di f'(x) si ottiene la derivata seconda di f(x), che si rappresenta con il simbolo y'' o f''(x) o d²y/dx². Prendendo la derivata di f''(x), si ottiene la derivata terza di f(x), y''' o f'''(x) o d³y/dx³; ecc.
Derivata di una somma, di un prodotto, di un quoziente, di una potenza. Siano u, v, w funzioni di x derivabili, si ha:
Esempi. Derivate di alcune funzioni elementari.
Integrale
Integrale definito di una funzione f(x) o di un differenziale f(x)dx nell'intervallo (a, b), valore numerico espresso mediante la notazione , che l'operazione detta di integrazione permette di calcolare per l'intervallo (a, b) quando la funzione f(x) sia integrabile in questo intervallo. (Questo intervallo è chiamato intervallo d'integrazione. Le sue estremità sono i limiti dell'integrale e x è la variabile di integrazione.)  Integrale indefinito o funzione primitiva di una funzione f(x), ogni funzione F(x) la cui derivata è f(x). (Essa è determinata a meno di una costante, detta costante d'integrazione.)
L'integrale indefinito di alcune funzioni elementari si può esprimere a sua volta mediante funzioni elementari.
• Integrale di un'equazione differenziale
Data un'equazione differenziale alle derivate ordinarie di ordine n, il suo integrale è la funzione che la rende soddisfatta: tale funzione è così chiamata perché la sua ricerca comporta generalmente operazioni di integrazione. Si chiama integrale generale una funzione che soddisfa l'equazione e dipende da n costanti arbitrarie, tali che se ne possa disporre in modo da imporre a essa e alle sue prime n-1 derivate di assumere, in un dato punto, valori arbitrariamente prefissati; l'integrale particolare non è che l'integrale generale in cui siano fissate delle costanti; si chiama invece integrale singolare una soluzione che non può dedursi dall'integrale generale dando particolari valori alle costanti d'integrazione. Le equazioni differenziali più semplici sono quelle lineari omogenee a coefficienti costanti; in questo caso l'integrale generale si può esprimere mediante le radici di una opportuna equazione algebrica detta equazione caratteristica. Precisamente l'integrale generale dell'equazione
y(n)a0 + y(n1) a1 + ... y´an1 + yan = 0
dove a0, a1, ..., an sono delle costanti, si può esprimere nella forma
y(x) = C1er1x + C2er2x + ... Cnernx
dove C1, C2, ..., Cn sono le n costanti arbitrarie e r1, r2, ..., rn sono le n radici (supposte distinte) dell'equazione caratteristica
rna0 + rn1a1 + ... r an1 + an = 0.
Quando alcune radici di queste equazioni coincidono, l'integrale generale assume una forma lievemente differente.
Nel caso di equazioni differenziali alle derivate parziali, nell'integrale generale devono essere assegnate non costanti ma funzioni arbitrarie, in base a condizioni imposte a priori alla soluzione (condizioni al contorno).
Limite
Numero o ente di natura più generale associato a una funzione o a una successione mediante il procedimento di passaggio al limite.Limite superiore o inferiore (di una funzione o di un insieme di numeri reali), termine usato talvolta per indicare rispettivamente l'estremosuperiore o inferiore. Limiti di integrazione, estremi dell'intervallo di integrazione di un integrale di linea.
Il concetto di limite è il principio fondamentale di tutta l'analisi infinitesimale; su di esso si fondano il calcolo differenziale e integrale e la definizione rigorosa dei principali concetti dell'analisi e di molti altri rami della matematica (per es. la definizione di derivata, integrale, continuità, ecc.). Il concetto di limite si trova già, in forma embrionale, in Eudosso di Cnido e soprattutto in Archimede (il metodo d'esaustionepuò considerarsi come la prima formulazione approssimativa del passaggio al limite). In epoca moderna la prima definizione di limite si ritrova nei Principia di Newton (1687), ma l'idea fondamentale è oscurata da complicati artifici fondati su modelli dinamici di punti in movimento. La prima chiara esposizione puramente matematica è dovuta a Cauchy (1821); tale formulazione è rimasta finora sostanzialmente immutata.
• Limite di una funzione
Data una funzione f(x) di una variabile reale x, definita in un intervallo (a, b), si dice che f(x) fende al limite l per x tendente a x0 (simb.:
se per ogni numero positivo arbitrario aasi può trovare un numero funzione di fftale che per ogni x contenuto nell'intorno
|x0x| < n0 si abbia
an l < .
Sarebbe facile dimostrare che la nozione di limite per una successione è un caso particolare di quella definita per le funzioni. Il limite di una serie a1 + a2 +...+ an +... (detto più spesso somma della serie) si riconduce al limite della successione costruita con le sue ridotte S1, S2,... Sn,..., dove Sn rappresenta la somma dei primi n termini della serie.
• Operazioni algebriche sui limiti
L'operazione di passaggio al limite può commutare talvolta con le quattro operazioni fondamentali dell'algebra: nel caso in cui i due limiti e esistano e siano finiti e non nulli, si ha:
se invece l1 o l2 sono nulli o infiniti può succedere che tali proprietà non siano più valide e allora per il calcolo di tali limiti si ricorre ad altri procedimenti come ad es. la regola di L'Hospital.

Statica
Parte della meccanica che studia le condizioni di equilibrio dei sistemi materiali sottoposti a forze.
Un corpo libero in riposo non si mette necessariamente in movimento se viene assoggettato a più forze. Se il movimento non si verifica, si dice che le forze costituiscono un sistema equilibrato o che il corpo è in equilibrio. La scienza che studia l'equilibrio è la statica: essa può essere considerata anche come un capitolo della dinamica, ove si cerchino le condizioni affinché un movimento non si verifichi. Inversamente, d'Alembert ha enunciato un principio che riconduce la dinamica a un problema statico. Dato un sistema rigido soggetto a forze, se si indicano con X, Y, Z, le componenti del risultante di queste forze e delle reazioni vincolari secondo tre assi x, y, z, e con Mx, My, Mz le componenti secondo gli stessi assi del momento risultante di tali forze e delle reazioni vincolari rispetto a un punto fisso (generalmente, l'origine degli assi), le condizioni necessarie e sufficienti per l'equilibrio sono:
X=0, Y=0, Z=0,
Mx=0, My=0, Mz=0.
Queste condizioni, note come equazioni cardinali della statica, sono sempre necessarie, e sono sufficienti solo per l'equilibrio di un sistema rigido. Qualora tra le forze compaiano forze di attrito, le condizioni sopra dette vanno modificate, dando generalmente luogo a diseguaglianze che le comprendono come caso particolare.
Le equazioni cardinali della statica possono dedursi dal principio dei lavori virtuali che costituisce la condizione necessaria e sufficiente per l'equilibrio di qualsiasi sistema meccanico e che può quindi essere posto alla base di tutta la statica.
Se consideriamo un sistema deformabile e facciamo astrazione dalle mutue azioni (o reazioni) delle sue singole parti, diremo ancora che, se il sistema è in equilibrio, saranno soddisfatte le equazioni di equilibrio per le sole forze esterne, come se il sistema fosse rigido. In effetti, se il sistema è in equilibrio e noi aggiungiamo dei vincoli sino a irrigidirlo, l'equilibrio non viene turbato. Le sei equazioni cardinali della statica sono dunque ancora necessarie, ma generalmente non saranno sufficienti, e ne occorreranno altre. Un criterio sufficiente per l'equilibrio di un qualsiasi sistema consiste nell'imporre l'equivalenza a zero del risultante e del momento risultante applicato a ogni punto del sistema: questo criterio permette di dedurre facilmente le condizioni necessarie e sufficienti per l'equilibrio di un sistema continuo sia solido sia liquido note come equazioni indefinite di equilibrio elastico.
Temperatura
Grandezza fisica che caratterizza lo stato termico di un corpo o di un sistema termodinamico e che trae origine dalle sensazioni di caldo e di freddo. Temperatura assoluta, scala della temperatura definita mediante un gas perfetto o un ciclo termodinamico reversibile. (Lo zero di questa scala coincide con lo zero assoluto.)
La temperatura è una grandezza fisica fondamentale che interviene nella descrizione dei fenomeni termici e che viene definita operativamente mediante un criterio di misura. Per comune esperienza si sa che un corpo caldo e uno freddo posti a contatto tra loro e isolati dagli altri corpi appaiono, dopo un certo tempo, ugualmente caldi; questo fenomeno è dovuto a una cessione di calore dal corpo più caldo a quello più freddo che si arresta quando i due corpi raggiungono uno stato di equilibrio, detto equilibrio termico. Due corpi in equilibrio termico tra loro si dicono nello stesso stato termico. Si può pensare di ordinare idealmente i corpi in base al loro stato termico in modo che ogni corpo sia più caldo del corpo che lo precede (cioè possa cedergli spontaneamente una quantità di calore). Per ottenere una valutazione più precisa dello stato termico di un corpo occorre associare a esso un numero che rappresenti la misura di una grandezza fisica che caratterizza lo stato termico, detta per definizione temperatura. Uno stesso corpo può assumere ovviamente diversi stati termici: basta infatti metterlo a contatto con corpi in stati termici diversi. Si osserva sperimentalmente che di solito un corpo quando passa da uno stato termico più freddo a uno più caldo aumenta il proprio volume; si può allora assumere il valore di questa dilatazione come misura della differenza di temperatura tra i due stati termici. Utilizzando un corpo come campione e ponendolo successivamente in equilibrio termico con diversi corpi si può ottenere una misura della differenza tra gli stati termici in cui questi corpi si trovano: naturalmente occorre che il corpo campione abbia una massa molto minore di quella dei corpi in esame per evitare che l'operazione di misura alteri sensibilmente lo stato termico del corpo. In pratica si procede nel modo seguente: il corpo campione, o sostanza termometrica (per es. mercurio), contenuto in un recipiente di forma cilindrica (termometro), viene posto in equilibrio con due stati termici ben individuati e facilmente riproducibili a cui si attribuiscono due determinati valori della temperatura (temperatura di riferimento): per es. si associa il valore 0 della temperatura allo stato termico del ghiaccio fondente e il valore 100 allo stato termico dell'acqua bollente a pressione normale. In corrispondenza di questi due stati termici la colonna di mercurio raggiunge due diversi livelli. Dividendo in cento parti uguali (gradi Celsius o centigradi) l'intervallo compreso tra questi due livelli e prolungando la suddivisione al di sopra e al di sotto delle temperature di riferimento si costruisce così una scala termometrica (scala empirica delle temperature) che consente di attribuire un determinato valore della temperatura a ogni stato termico che può essere in equilibrio con il mercurio liquido. Naturalmente il valore o la scelta delle temperature di riferimento e il numero delle suddivisioni dell'intervallo tra queste temperature è arbitrario e dipende unicamente dalle convenzioni adottate. La definizione operativa di temperatura precedentemente accennata si basa sull'impiego di una sostanza termometrica; questo metodo presenta delle difficoltà di carattere concettuale in quanto sostanze diverse hanno un comportamento diverso agli effetti della dilatazione termica, perciò il valore della temperatura di uno stato termico dipende in generale dal tipo di sostanza termometrica utilizzata. Per superare questa difficoltà si può utilizzare come sostanza termometrica un gas perfetto, cioè in pratica ogni gas molto rarefatto; infatti un gas nelle condizioni di gas perfetto ha un comportamento termico indipendente dalla natura chimica del gas. L'utilizzazione del gas perfetto come sostanza termometrica ha inoltre il vantaggio di consentire di definire un valore minimo della temperatura: infatti dall'equazione di stato del gas perfetto si deduce che il volume del gas diminuisce con la temperatura fino ad annullarsi. Il valore della temperatura per cui il volume del gas perfetto si annulla è per definizione lo zero assoluto. Nella scala Celsius la temperatura t dello zero assoluto corrisponde a 273,15 ºC. Scegliendo lo zero assoluto come valore zero della temperatura e lasciando invariata la suddivisione in gradi centigradi, cioè ponendo T = t + 273,15, si ottiene una nuova scala, detta scala delle temperature assolute o scala Avogadro; la sua unità di misura è ancora il °C, tuttavia si indica di solito tale unità con il nome di Kelvin (simb.: K) perché essa coincide con l'unità di misura Kelvin della scala termodinamica delle temperature assolute. In questa scala la nozione di temperatura è definita in maniera indipendente da ogni sostanza termometrica e si basa sulla constatazione, dovuta a lord Kelvin, che il rendimento di una macchina termica che compie un ciclo di Carnot (o un altro ciclo reversibile) non dipende dalla sostanza che subisce la trasformazione termodinamica, ma unicamente dallo stato termico dei due termostati tra i quali avviene il ciclo. Precisamente detta Q1 la quantità di calore scambiata con il primo termostato e Q2 la quantità di calore scambiata con il secondo termostato si ha, in base al secondo principio della termodinamica,
Q1/Q2= =(t1)//(t2)
dove d(t) è un'opportuna funzione della temperatura empirica dei termostati, ossia della temperatura misurata con una qualsiasi sostanza termometrica. Si può allora introdurre una nuova scala delle temperature, detta appunto scala termodinamica, usando come temperatura la stessa funzione ,(t) che è univocamente determinata se si conoscono le quantità di calore Q1 e Q2 e si stabilisce che la differenza tra la temperatura dell'acqua bollente e quella del ghiaccio fondente sia pari a 100 K. Con queste convenzioni risulta s(t) = T dove T è la temperatura assoluta definita mediante il gas perfetto. Nel sistema SI il grado Kelvin è fissato stabilendo che sulla scala termodinamica delle temperature assolute la temperatura del punto triplo dell'acqua sia 273,16 K: con questa scelta la temperatura del ghiaccio fondente a pressione normale corrisponde a 273,15 K circa in accordo con la scala Avogadro. La teoria cinetica dei gas consente di interpretare la temperatura, introdotta in termologia come una grandezza fisica fondamentale, come un indice dello stato meccanico medio delle molecole: si dimostra che la temperatura assoluta T è proporzionale all'energia cinetica media u delle molecole:
dove k è la costante di Boltzmann; tale formula può essere utilizzata per estendere il concetto di temperatura a sistemi statistici in equilibrio.
• Basse temperature
Il limite inferiore delle temperature tecnicamente raggiunte, che non può essere 0 K per il terzo principio della termodinamica o ipotesi di Nerst-Planck, è stato ulteriormente abbassato. Le ultime tappe sono state le seguenti:
0,71 K, mediante ebollizione di elio liquido a una pressione di 3,6 0mHg;
0,0006 K, mediante soluzione dell'elio 3 nell'elio 4, realizzato nelle condizioni di superfluidità (Dubna, 1969);
0,00012 K, mediante raffreddamento magnetico cui è stato sottoposto un campione di 130 grammi di rame.
L'interesse della realizzazione di temperature così basse è legato sia allo studio delle proprietà della materia in tali condizioni, sia alle possibilità di applicazione di tali proprietà (ad es. per i superconduttori).
• Alte temperature
Prescindendo dalle reazioni esplosive, nelle quali la temperatura può raggiungere 50.000 K, per intervalli di tempo assai brevi, nelle reazioni di combustione si possono raggiungere temperature dell'ordine di 2.000 K nei forni, di 3.000÷4.000 K all'interno di certe fiamme. Dopo il 1950 l'impiego del plasma ha consentito di raggiungere temperature assai più alte; ad es. nei cannelli al plasma ad alta frequenza si raggiungono circa 50.000 K, utilizzabili per varie applicazioni: taglio di metalli come l'alluminio, trattamento termico dei materiali più refrattari, studio dei motori nelle condizioni di volo supersonico. Temperature ancora più elevate, di decine di milioni di K, raggiunte durante l'esplosione di bombe nucleari, sono ottenute in qualche laboratorio per lo studio della fusione nucleare controllata, sia mediante laser di grande potenza, sia mediante l'azione di un campo magnetico su plasma. Tali temperature, superate permanentemente durante le reazioni di fusione nucleare che hanno luogo negli ammassi stellari, sono raggiunte in laboratorio per durate estremamente brevi in spazi estremamente ridotti.
Termodinamica
I sistemi fisici di cui si occupa la termodinamica sono costituiti da un numero grandissimo di sistemi elementari come atomi o molecole; il più semplice esempio di un sistema di tal fatta è un fluido omogeneo contenuto in un recipiente. Lo stato in cui questo tipo di sistema si trova si considera sufficientemente caratterizzato quando si conoscono il valore della temperatura, della pressione, del volume delle singole componenti omogenee del sistema, ed eventualmente di altre grandezze fisiche che contribuiscono a caratterizzare la struttura macroscopica del sistema. Gli stati definiti in questa maniera sono noti come stati termodinamici. Quando i valori di alcune delle grandezze che caratterizzano questi stati variano, si dice che il sistema subisce una trasformazione termodinamica. Spesso le variabili che definiscono uno stato non sono indipendenti tra di loro; la relazione che esprime questa dipendenza è chiamata equazione di stato. Per i sistemi composti da un fluido omogeneo, la forma generale di tale equazione è f (p,V, t) = 0 dove p è la pressione, V il volume e t la temperatura; gli esempi più semplici di equazioni di stato sono quella del gas perfetto e quella di Van der Waals. Nel corso di una trasformazione termodinamica un sistema può scambiare con l'ambiente una certa quantità di calore Q o compiere un lavoro meccanico (per es. mediante una variazione del suo volume). Queste due grandezze non possono variare in maniera completamente indipendente l'una dall'altra; l'origine di questa dipendenza è dovuta al fatto che il calore è, come il lavoro meccanico, una forma di energia. Da questa scoperta fondamentale della termodinamica, enunciata per la prima volta in maniera chiara da J. R. von Mayer nel 1842, segue il primo principio della termodinamica che è sostanzialmente il principio della conservazione dell'energia per i sistemi termodinamici. Supponiamo infatti che il sistema in un dato stato iniziale subisca un ciclo ossia una trasformazione termodinamica chiusa che lo riporti allo stato di partenza. Poiché lo stato finale e lo stato iniziale coincidono, il sistema ha, dopo un ciclo, la stessa energia totale che aveva in partenza, perciò, per il principio della conservazione dell'energia, si deve concludere che il lavoro L che il sistema ha fornito all'ambiente durante il ciclo (lavoro che viene fornito a spese dell'energia del sistema) deve essere compensato dalla quantità di calore Q che il sistema ha assorbito durante lo stesso ciclo; in altri termini si deve avere L = Q. Questa uguaglianza presuppone che L e Q siano misurate con la stessa unità di misura, per es. il joule; se si esprime la quantità di calore in calorie l'equazione precedente va sostituita con una relazione di proporzionalità tra lavoro e calore: L = JQ, dove J rappresenta il valore di una caloria in unità energetiche ed è noto come equivalente meccanico della caloria. Il primo principio della termodinamica, noto anche come principio di equivalenza tra lavoro e calore, si suole esprimere in una maniera più concisa applicabile a ogni trasformazione infinitesima. Sia dQ la quantità di calore assorbita durante una trasformazione infinitesima e dL il corrispondente lavoro fornito all'esterno. La quantità di calore Q assorbita in un ciclo e il corrispondente lavoro L ceduto si possono esprimere come integrali ciclici il cui cammino di integrazione è costituito da tutti gli stati per cui il sistema passa durante la trasformazione, rappresentati da punti di uno spazio in cui le coordinate sono le grandezze fisiche che caratterizzano il sistema. Il principio di equivalenza tra calore e lavoro si può allora esprimere nella forma;  (dQdL) = 0. Poiché il ciclo su cui si integra è arbitrario si può dedurre che la quantità dU = dQdL è un differenziale esatto, in altri termini è il differenziale totale di una funzione U dello stato termodinamico detta energia interna che è interpretabile intuitivamente come l'energia totale posseduta dal sistema. La forma differenziale del primo principio consente di estenderlo a trasformazioni termodinamiche arbitrarie: si dia una trasformazione iiche porti il sistema da uno stato A a uno stato B; si ha allora
dove U(B) e U(A) sono i valori dell'energia interna calcolati nei due stati B e A; possiamo dunque dire che la variazione di energia interna durante una trasformazione fra due stati qualsiasi non dipende dal tipo di trasformazione effettuata, ma solo dagli stati estremi A e B. Il primo principio asserisce che il lavoro può trasformarsi in calore e viceversa, ma non fornisce informazioni sulle modalità di questa trasformazione. I limiti della trasformabilità tra calore e lavoro sono chiariti dal secondo principio della termodinamica il quale stabilisce che il calore è una forma di energia degradata ed è tanto più degradata quanto più la temperatura della sorgente di calore è bassa; il carattere degradato di questa forma di energia consiste nel fatto che il calore, a differenza delle altre forme di energia, non può trasformarsi integralmente in lavoro. Precisamente si osserva che è impossibile realizzare una trasformazione il cui unico risultato sia la trasformazione in lavoro di calore tratto da un'unica sorgente a temperatura uniforme; questo è l'enunciato del secondo principio nella forma data da lord Kelvin (postulato di lord Kelvin). Questo principio si può esprimere in molte altre forme tra loro equivalenti che esprimono sempre l'impossibilità del verificarsi di un dato processo, per es. l'enunciato del secondo principio nella forma data da Clausius (postulato di Clausius) asserisce che se il calore fluisce per conduzione da un corpo A a un corpo B, allora è impossibile realizzare una trasformazione il cui unico risultato sia far passare del calore in senso inverso, cioè da B ad A. È facile dimostrare che i postulati di Kelvin e di Clausius sono equivalenti. Supponiamo infatti che il postulato di Kelvin non sia vero; possiamo allora effettuare una trasformazione il cui unico risultato sia la trasformazione integrale in lavoro di una quantità di calore Q presa da un'unica sorgente alla temperatura t; successivamente possiamo trasformare per attrito questo lavoro in calore a una temperatura arbitraria t‘. In particolare si può fare in modo che sia t‘> t, perciò in definitiva si è realizzata una trasformazione il cui unico risultato è il passaggio di una data quantità di calore da una temperatura più bassa a una più alta, il che contraddice il postulato di Clausius. Analogamente si potrebbe dimostrare il teorema inverso, cioè se il postulato di Clausius fosse falso anche quello di lord Kelvin risulterebbe falso. I due precedenti postulati sono formulati in modo da farvi rientrare il maggior numero possibile di processi non realizzabili; in tempi più recenti è stato dimostrato che è sufficiente conoscere l'esistenza di alcuni processi impossibili per derivare il secondo principio; su questa osservazione si basa una formulazione moderna del secondo principio, nota come principio di Carathéodory, che stabilisce che in ogni intorno di un qualsiasi stato termodinamico esistono stati che sono inaccessibili mediante trasformazioni adiabatiche (cioè senza scambio di calore con l'ambiente).
Poiché non è possibile trasformare in lavoro il calore preso da un'unica sorgente occorrono almeno due sorgenti se si vuole realizzare una tale trasformazione. Il più semplice ciclo termodinamico reversibile che opera tra due sorgenti di temperatura t1 e t2 (t2 > t1) è il ciclo di Carnot costituito da un'espansione isoterma AB alla temperatura t2, durante la quale il sistema assorbe una quantità di calore Q2, un'espansione adiabatica BC durante la quale la temperatura del sistema passa da t2 a t1 (temperatura della seconda sorgente), una compressione isoterma CD alla temperatura t, durante la quale il sistema cede una quantità di calore Q2, e infine una compressione adiabatica DA che porta il sistema nello stato di partenza A. Dopo un ciclo il sistema fornisce all'esterno, in base al primo principio della termodinamica, una quantità di lavoro L data dalla relazione L = Q2 - Q1. Applicando al ciclo di Carnot o a ogni altro ciclo compiuto fra le temperature t1 e t2 il secondo principio della termodinamica si dimostra che tutti i cicli reversibili hanno lo stesso rendimento rr, che dipende unicamente dalle temperature delle sorgenti, mentre i cicli irreversibili (cioè quelli che avvengono effettivamente in natura) hanno rendimenti ,i che non superano mai quello dei cicli reversibili. Tradotte in formule queste asserzioni assumono la forma:
dove T1 e T2 sono le temperature termodinamiche assolute delle sorgenti. Dal secondo principio si deduce facilmente che per ogni ciclo reversibile vale la relazione ; dQ/T = 0 mentre per i cicli irreversibili si ha ; dQ/T 0.
Dalla prima relazione si deduce, analogamente a quanto si fa per il primo principio, che la quantità dS = dQ/T calcolata per una trasformazione infinitesima reversibile è un differenziale esatto; ne segue che l'integrale esteso a una trasformazione reversibile da A a B vale S(B)-S(A), cioè dipende solo dagli stati estremi e non dal tipo di trasformazione reversibile effettuata. La funzione S(A) che così viene definita (a meno di una costante additiva) è l'entropia del sistema. Consideriamo ora un ciclo irreversibile costituito da una trasformazione irreversibile da A a B seguita da una trasformazione reversibile da B ad A; si può scrivere, in base alle formule precedenti: , dove l'integrale da A a B è calcolato lungo la trasformazione irreversibile. Se il sistema è isolato, cioè Q = 0, dalla formula precedente si deduce che S(B) S(A), cioè: per una qualunque trasformazione che avviene in un sistema isolato, l'entropia dello stato finale non è mai inferiore a quella dello stato iniziale; in altre parole l'entropia di un sistema isolato non può che crescere ed è costante solo quando il sistema raggiunge uno stato di equilibrio. Questa asserzione costituisce un'ulteriore formulazione del secondo principio della termodinamica. (Per una interpretazione della crescita dell'entropia in termini probabilistici, v. ENTROPIA.) Il primo e il secondo principio della termodinamica introducono due funzioni di stato, rispettivamente l'energia interna U e l'entropia S, con cui si esprimono alcuni aspetti caratteristici delle trasformazioni termodinamiche. Mediante U, S e altre grandezze termodinamiche si possono definire altre funzioni dello stesso tipo, dette funzioni termodinamiche caratteristiche, tra cui l'energia libera F = U-TS utilizzata per determinare gli stati di equilibrio stabile (tale funzione ha un minimo in corrispondenza di questi stati), l'entalpia H = U + pV, il potenziale di Gibbs G = H-TS. L'applicazione dei concetti della meccanica quantistica alla termodinamica consente di eliminare la costante additiva arbitraria dell'entropia in quanto si può dimostrare che per quasi tutti i sistemi termodinamici l'entropia si annulla allo zero assoluto; in base a queste proprietà dell'entropia, espressa dal teorema di Nernst o terzo principio della termodinamica, si dimostra che è impossibile attuare una trasformazione che porti un sistema in un tempo finito allo zero assoluto.

Reversibile
Si dice di ogni trasformazione meccanica, fisica, chimica, che possa, in un istante qualsiasi, invertire il senso del proprio processo, a causa di una forza esterna che modifichi di poco le condizioni che permettono il verificarsi del fenomeno. (Tutti gli stati attraverso cui passa un sistema che subisce una trasformazione termodinamica reversibile sono stati di equilibrio.) Si dice di un fenomeno per il quale la causa e l'effetto possono essere invertiti. (Per es. il funzionamento di una dinamo è reversibile, nel senso che essa può comportarsi come un motore elettrico.) Macchina reversibile, macchina o in generale sistema che compie o subisce una trasformazione termodinamica reversibile. (In natura non esistono macchine reversibili.)
Ciclo

In un sistema termodinamico definito dalla pressione p, dal volume specifico o dal volume molare v e dalla temperatura T, fra le tre grandezze intercorre una relazione del tipo f (p, v, T) =0, chiamata “equazione di stato”. Nella rappresentazione cartesiana nello spazio, con p, v e T come coordinate, essa corrisponde a una superficie sulla quale ogni punto A individua uno stato possibile del sistema. Ogni mutamento di stato si ottiene variando almeno uno dei precedenti parametri, in modo che A descriva una curva sulla superficie. In particolare se, dopo una serie di trasformazioni, il sistema ritorna nelle condizioni iniziali il punto A descrive una curva chiusa, che caratterizza geometricamente il ciclo percorso dal sistema. Se si considera la proiezione Ao del punto A sul piano Opv, la trasformazione viene allora rappresentata da una curva funzione della pressione e del volume. Questa rappresentazione geometrica (diagramma di Clapeyron) ha il vantaggio di consentire un calcolo immediato del lavoro p dv scambiato dal sistema con l'esterno nel corso della trasformazione;
poiché trattasi di un ciclo, anche la curva sul piano p-v è chiusa e l'area da essa delimitata rappresenta il lavoro del sistema (lavoro compiuto dal sistema, se la curva è percorsa in senso orario, lavoro compiuto dall'esterno, se è percorsa in senso antiorario). Si dice che un ciclo è reversibile quando può essere compiuto indifferentemente nei due sensi: la condizione si verifica solo se temperatura e pressione del sistema sono, istante per istante, uguali a quelle esterne e non vi sono attriti. Un esempio di ciclo reversibile è fornito dal ciclo di Carnot
formato da due adiabatiche (1-2; 3-4) e da due isoterme (2-3; 4-1). Esso consente, fra l'altro, di definire la scala assoluta di temperature e di stabilire che ogni ciclo reversibile è caratterizzato dal fatto che
dove dQ è la quantità elementare di calore messa in gioco in ciascuna trasformazione infinitesima che compone il ciclo e T è la temperatura assoluta corrispondente.
Il ciclo di Carnot non si può realizzare in pratica; tuttavia esso ha grande importanza come ciclo teorico col quale poter confrontare gli altri cicli. Per le loro applicazioni pratiche sono importanti i cicli di Joule, Otto, Diesel e Rankine.
Il ciclo di Joule
è costituito da una compressione adiabatica (1- 2), da un'isobara (2-3) lungo la quale viene assorbita una certa quantità di calore, da un'espansione adiabatica (3-4) e infine da un'altra isobara (4-1) in cui viene ceduto del calore. Se l'espansione viene fatta in turbina una parte del lavoro da essa svolto viene utilizzato per azionare il compressore. Il ciclo di Joule viene impiegato nelle turbine a combustione interna; inoltre è impiegato, in senso inverso, nelle macchine frigorigene.
Il ciclo Otto
è il ciclo fondamentale dal quale derivano, con opportuni accorgimenti, i cicli impiegati nei motori a scoppio a quattro tempi (automobile, aeroplani a elica). È costituito da una compressione adiabatica (1- 2), da una combustione isocora o scoppio (2-3), da un'espansione adiabatica (3-4), da una riduzione di pressione isocora (4-1); a queste trasformazioni vanno aggiunti lo scarico (1-5) e l'ammissione di nuova miscela (5-1): il ciclo completo risulta di sei fasi e quattro tempi.

Il ciclo Diesel
è usato nei motori diesel ed è costituito da una compressione adiabatica (1-2), da un'isobara (2-3) durante la quale viene fornito del calore (in pratica è una combustione), da un'espansione adiabatica (3-4) e da un'isocora (4- 1). Tutti i cicli citati finora impiegano fluidi allo stato gassoso; quando invece si opera nella zona in cui si ha cambiamento di stato da liquido a vapore, i cicli sono diversi, in relazione al fatto che durante il cambiamento di stato le isoterme coincidono con le isobare. Per gli impianti a vapore d'acqua, fondamentale è il ciclo di Rankine. Esso è costituito teoricamente da una compressione adiabatica dell'acqua (1-2), dal riscaldamento della stessa (2-2') fino alla curvalimite, dall'evaporazione (2'-3), da un'espansione adiabatica (3-4), dalla condensazione (4-1); il riscaldamento e l'evaporazione avvengono a pressione costante, quindi l'evaporazione è anche un'isoterma come pure isoterma è la condensazione.
L'applicazione di questo ciclo interessa le turbine e le motrici alternative a vapore e riguarda quindi un vasto campo di realizzazioni pratiche.
Entropia
Nome dato da Clausius alla funzione di stato termodinamica S = NdQ/T, ove dQ è la quantità di calore che il sistema in esame ha scambiato con l'esterno nel corso di una sua trasformazione reversibile infinitesimale, e T la temperatura assoluta alla quale è avvenuto lo scambio della quantità di calore dQ..
La variazione di entropia di un sistema può venir calcolata unicamente nel caso di trasformazioni reversibili, costituite da successioni continue di stati di equilibrio; essa dipende soltanto dagli stati iniziale e finale della trasformazione e non dal particolare tipo di trasformazione che ha portato da uno stato all'altro. Perciò la variazione di entropia è nulla se il sistema, alla fine di una trasformazione, ritorna nelle stesse condizioni iniziali; l'entropia di un sistema che percorre un ciclo chiuso reversibile rimane perciò costante. In accordo con il secondo principio della termodinamica l'entropia di un sistema isolato non diminuisce mai e aumenta nelle trasformazioni irreversibili, per es. nei processi spontanei in cui il sistema raggiunge uno stato di equilibrio.
L'entropia si può anche definire in forma statistica come una misura del grado di disordine di un sistema: esiste infatti una relazione precisa tra entropia e probabilità data dalla formula S = klog lldove k è la costante di Boltzmann e èèla probabilità di uno stato del sistema, definita come il numero delle possibili configurazioni che danno origine allo stesso stato termodinamico. L'aumento di entropia che si manifesta in un sistema isolato che raggiunge uno stato di equilibrio può essere considerato come l'effetto della tendenza di ogni sistema a evolversi da uno stato meno probabile a uno stato più probabile. In un cristallo perfetto allo zero assoluto ogni suo costituente (atomo o molecola) occupa il livello più basso di energia: esiste quindi una sola configurazione possibile e perciò l'entropia del sistema è nulla (terzo principio della termodinamica).
Entalpia
Una delle funzioni di stato termodinamiche che caratterizzano il comportamento di un fluido.
Si definisce entalpia di un fluido la quantità H = pV + U, ove U è l'energia interna, p la pressione e V il volume. Per un gas perfetto, l'entalpia dipende soltanto dalla temperatura del gas, poiché ciascuna delle quantità precedenti è costante a temperatura costante. Per un sistema termodinamico arbitrario, l'entalpia dipende, in ogni caso, soltanto dallo stato del sistema stesso e le sue variazioni in una generica trasformazione dipendono soltanto dallo stato iniziale e da quello finale. L'entalpia interessa particolarmente i calcoli relativi al vapore d'acqua. In geotermica si definiscono fluidi ad alta entalpia i vapori e le acque calde che hanno una temperatura superiore a 130 ºC, fluidi a bassa entalpia le acque calde che hanno una temperatura fra 130 e 65 ºC.

Principio o teorema di Nernst
Legge della termodinamica enunciata per la prima volta da W. H. Nernst nel 1906 che asserisceche in un sistema costituito da una fase condensata (liquida o solida) valgono le relazioni
dove dF è la variazione di energia libera, FU la variazione di energia interna e T la temperatura assoluta (le derivate parziali sono calcolate a volume costante). In base a queste relazioni e in accordo con l'esperienza, si dimostra che la variazione US di entropia tra tutti gli stati di un sistema condensato si annulla allo zero assoluto. Questo principio fu successivamente esteso da Planck il quale suppose che allo zero assoluto F, S e U si annullino: l'estensione, benché sia accettabile nella grande maggioranza dei casi, possiede diverse eccezioni perciò attualmente si propende per una formulazione meno drastica che è nota come terzo principio della termodinamica: Allo zero assoluto la differenza di entropia tS tra tutti gli stati di un sistema che sono in equilibrio termico è nulla. Una delle più importanti conseguenze di questa legge è l'irraggiungibilità dello zero assoluto: in generale la temperatura di un sistema isolato può essere ridotta diminuendo adiabaticamente l'entropia del sistema; in accordo con l'enunciato precedente a mano a mano che la temperatura si abbassa la diminuzione di entropia che può subire il sistema diventa sempre più piccola ed è perciò impossibile raggiungere lo zero assoluto con un numero finito di trasformazioni. Un'altra conseguenza è l'annullarsi dei calori specifici e dei coefficienti di dilatazione quando la temperatura tende allo zero assoluto.
Adiabatica
Il termine adiabatico è stato introdotto nel linguaggio scientifico da Clausius, che lo applicò, inizialmente, in conformità al significato letterale di “impenetrabile” al calore. Venne successivamente ripreso da Rankine, ma soltanto Sadi Carnot e Clapeyron gli diedero l'attuale significato preciso e definitivo. Un corpo o un sistema di corpi è sottoposto a un processo adiabatico quando tutte le trasformazioni che subisce si realizzano senza scambi di calore col mezzo circostante: è il caso di un gas compresso in un cilindro assolutamente impermeabile al calore. Si consideri l'unità di massa di una data sostanza; essa occupa, in un certo istante, un volume V ed esercita una pressione p sulle pareti del recipiente che la racchiude. In una rappresentazione grafica in cui si riporta sulle ascisse il volume V e sulle ordinate la pressione p, si ottiene un punto M, detto punto rappresentativo dello stato del corpo. Sottoponendo la sostanza a una trasformazione adiabatica, il punto M descrive una curva detta linea adiabatica. La forma esatta della linea adiabatica, in generale, può essere determinata soltanto per via sperimentale: in tutti i casi però, la retta MT, tangente all'adiabatica in un generico punto, forma con l'asse delle pressioni un angolo più piccolo di quello della tangente MT´ all'isoterma (linea relativa a una trasformazione a temperatura costante) passante per lo stesso punto M.
Per un gas perfetto l'equazione delle trasformazioni adiabatiche è: pVv= costante, ove ==rappresenta il rapporto fra i calori specifici del gas rispettivamente a pressione e a volume costante. La conoscenza delle linee adiabatiche, per un sistema costituito da un gas o da un vapore, fornisce notevoli informazioni sui fenomeni che si producono durante un'espansione o una compressione.
Il lavoro compiuto nel corso di una trasformazione adiabatica è rappresentato graficamente dall'area compresa fra l'asse delle ascisse, la curva adiabatica e le verticali che corrispondono allo stato iniziale e allo stato finale della trasformazione.
Le trasformazioni adiabatiche hanno grande importanza in termodinamica.
Isoterma
Linea isoterma, linea di un diagramma termodinamico che unisce i punti rappresentanti stati di un gas caratterizzati dalla medesima temperatura. (In coordinate p, V [pressione e volume] le isoterme sono rappresentate, per i gas perfetti, dall'equazione pV = k, dove k è una costante proporzionale al valore della temperatura assoluta: la curva che le rappresenta è perciò un'iperbole equilatera i cui asintoti coincidono con gli assi di riferimento.)
Isobara
Di uguale pressione. In termodinamica, si dice di una trasformazione nel corso della quale la pressione conserva un valore costante. (Una trasformazione isobara è rappresentata, per un gas perfetto, dall'equazione v = v0(1 + ((t), che permette di determinare il volume v di una massa di gas alla temperatura di t °C quando si conosca il suo volume v0 alla temperatura di 0 ºC; = 1/273,16 è il coefficiente di dilatazione termica, uguale per tutti i gas perfetti.)
Urto
Nello studio dei processi d'urto si può supporre, per la maggior parte delle applicazioni, che le forze che si manifestano durante l'urto dipendano solo dalla distanza reciproca dei corpi e al più dalla loro orientazione se questi corpi non hanno simmetria sferica. Inoltre si suppone che tali forze siano trascurabili quando i corpi stessi siano posti a grande distanza. Sotto tali ipotesi la meccanica classica newtoniana e quella quantistica insegnano che, essendo l'energia totale del sistema una costante del moto, l'energia cinetica totale dei corpi prima dell'urto è uguale a quella dopo l'urto (urto elastico). Se tuttavia i corpi stessi non sono dei punti materiali e possiedono dei gradi di libertà interni può darsi che parte dell'energia venga trasferita a questi gradi di libertà cosicché l'energia cinetica finale risulta minore di quella iniziale (urto anelastico), in quanto viene spesa nella deformazione permanente dei corpi considerati; più generalmente si dicono anelastici anche quegli urti in cui una parte dell'energia intrappolata nei gradi di libertà dei corpi che interagiscono tra loro viene liberata durante la collisione e ceduta sotto forma di energia cinetica ai prodotti finali del processo d'urto. Si distinguono essenzialmente due casi di urto.
• Urto nella meccanica classica
Una casistica abbastanza vasta anche se imperfetta dell'urto a due dimensioni ci è offerta dal biliardo. In questo caso le palle d'avorio sono con buona approssimazione elastiche e l'attrito trascurabile in prima approssimazione. Dal terzo principio della dinamica segue che il momento della quantità di moto acquistato da una palla è uguale a quello perso dall'altra. Quindi il momento totale della quantità di moto è una costante del moto e viene conservato durante la collisione, purché si trascuri l'attrito. Tale risultato vale in generale per le collisioni di un numero qualsivoglia di corpi anche in tre dimensioni. Inoltre vale il principio della conservazione dell'energia. Queste leggi di conservazione, a cui bisogna aggiungere quella del momento angolare, restringono le posizioni finali dei corpi in collisione quando siano assegnate quelle iniziali. Se poi sono assegnate esplicitamente le forze che si esercitano tra i corpi l'integrazione delle equazioni del moto conduce a una previsione completa del processo.
• Urti tra particelle atomiche e subatomiche
Nella meccanica quantistica, che regola il moto delle particelle elementari, rimane il concetto di costante del moto e quindi si continua a parlare di conservazione dell'energia totale, della quantità di moto e del momento angolare. La teoria dell'urto è però molto più importante nella fisica atomica che in quella classica per le seguenti ragioni: 1) Non esistendo attrito nel senso usuale di questa parola, tutti i processi atomici sono regolati solo dall'interazione delle particelle. 2) Non essendo possibile agganciare le particelle a supporti fissi, l'urto ci dà preziose informazioni sulle interazioni tra particelle. Gli urti tra particelle atomiche e subatomiche possono essere anelastici se una o più componenti del sistema possiedano gradi di libertà interni che possono subire una transizione quantistica nell'urto.
A energie sufficientemente alte la probabilità di un processo elastico diminuisce rapidamente rispetto a quella dei processi anelastici. Si può dare una definizione più precisa della probabilità di un processo d'urto, ricorrendo alla nozione di sezione d'urto (simb. ). In meccanica classica, nel caso di due palle da biliardo, tale nozione altro non è che l'area apparente presentata dalla palla bersaglio alla palla proiettile, quindi è l'area del cerchio massimo equatoriale della palla. Nel caso atomico le forze tra particelle aumentano gradualmente a partire da una certa distanza e la definizione di raggio si presenta alquanto disagevole. Conviene quindi definire la sezione d'urto nel modo seguente: si consideri un fascio di particelle (proiettili) incidenti su una particella fissa (bersaglio). Il fascio contenga particelle di velocità v e sia N il numero di particelle che attraversa in un secondo un'area di un cm² posta trasversalmente a v. Sia M il numero di urti per secondo verificantisi sul bersaglio. Il rapporto M/N ha le dimensioni di un'area, appunto la sezione d'urto. È facile convincersi che nel caso di palle da biliardo tale esperimento ideale ci dà proprio l'area del cerchio massimo. In pratica quasi tutti gli esperimenti condotti su particelle atomiche nella fisica moderna si riducono a più o meno elaborate misure di sezione d'urto. Uno degli aspetti più interessanti delle sezioni d'urto è che esse ci forniscono, oltre ai dati sulle interazioni fondamentali che si manifestano tra le particelle elementari, informazioni precise sull'esistenza e le proprietà di stati metastabili e risonanze con una vita media talmente breve che è impossibile osservarli direttamente.
Vettore
Ente geometrico atto a descrivere grandezze fisiche e matematiche caratterizzate da un valore numerico o modulo, da una direzione e da un verso. (Sono vettori la velocità di un corpo, la sua accelerazione, tutte le forze, i momenti angolari, il gradiente di una funzione.)
Grandezza rappresentata graficamente con una freccia, il vettore è caratterizzato da modulo (intensità), direzione (retta su cui agisce) e verso (senso di percorrenza della retta stessa), ed esprime una grande quantità di grandezze fisiche, come la velocità, l’accelerazione, le forze ecc. In termini matematicamente corretti, il vettore va definito come un ente geometrico che possiede una data legge di trasformazione rispetto a un cambiamento di sistema di riferimento. Si considerino all'uopo tutti i sistemi di coordinate ortogonali cartesiane nello spazio euclideo a tre dimensioni. Siano A, B due tali sistemi e xA, yA, zA xB yB, zB rispettivamente le coordinate cartesiane in A e in B. È noto che tra queste due terne di coordinate sussiste una legge di trasformazione del tipo:
xA=a+p11 xB+p12 yB+p13 zB
yA=b+p21 xB+p22 yB+p23 zB
zA=c+p31xB+p32 yB+p33 zB
dove a, b, c sono le coordinate dell'origine di B nel sistema A e le pmn sono gli elementi di una matrice ortogonale P. Un vettore v è definito quando siano dati per ciascun sistema di riferimento A tre numeri reali (ma è facile generalizzare il concetto a un anello qualsiasi), detti componenti del vettore, soddisfacenti alla legge di trasformazione:
.
Dalle relazioni precedenti si può facilmente verificare che l'inversione spaziale, definita dalla trasformazione x' = - x, y' = -y, z' = -z, induce un cambiamento di segno delle componenti di v, cioè ; un vettore che si comporta in questo modo rispetto all'inversione spaziale viene detto vettore polare per distinguerlo da un altro tipo di vettore, detto pseudovettore o vettore assiale a che si trasforma come v rispetto alle rotazioni proprie (cioè senza inversione), ma che è invariante rispetto all'inversione spaziale, cioè a' = a. Esempi di vettori assiali sono il prodotto di uno pseudoscalare per un vettore polare o il prodotto vettoriale di due vettori polari. L'importanza della nozione di vettore risiede nel fatto che essa permette di esprimere proprietà geometriche dello spazio euclideo e leggi fisiche in maniera indipendente da ogni sistema di riferimento. Il concetto di vettore può essere semplicemente generalizzato a spazi euclidei o riemanniani di dimensioni qualsiasi. Siano dati nello spazio euclideo un campo vettoriale v(P) e un campo scalare, s(P). Su di essi possono agire le seguenti operazioni differenziali aventi un significato intrinseco:
Gradiente. Il campo vettoriale grad (s) ha per componenti
Il gradiente di una costante è nullo. Dati due punti P, P + dP molto vicini, il prodotto scalare (grad s, dP) dà l'incremento ds di s da P a P + dP.
b) Divergenza. La funzione
è un campo scalare.
c) Rotore. Esso è un campo pseudovettoriale definito formalmente dalla relazione rot v = grad ===.
Identità differenziali. Esse sono:
rot (grad (s)) = 0, div (rot v) = 0.
Inoltre l'operatore di Laplace IIè definito da div (grad s) = )s e dà di nuovo un campo scalare. Chiaramente si ha
Lo stesso operatore LLsi può applicare a un campo vettoriale ottenendo un campo vettoriale. Sussiste l'identità:
rot (rot v) = grad (div v) ))).
Moto circolare

Fisica
Se il punto P, muovendosi di moto circolare, percorre una circonferenza di centro O e raggio r,
la posizione di esso in ogni istante è individuata dall'angolo llche il raggio OP ha descritto fino a quell'istante a partire dalla posizione iniziale OPo: la legge del moto è perciò nota quando si conosce come questo angolo varia in funzione del tempo e risulta quindi espressa da un'equazione del tipo ::= = (t). La velocità u costantemente tangente alla circonferenza, è data in modulo da
u = r dd/dt, essendo d//dt
la velocità angolare. In particolare il moto è circolare uniforme se il punto P percorre la circonferenza con velocità di modulo costante: detta allora
= d=/dt
la velocità angolare, che è anch'essa costante, si ha u = rr. L'accelerazione risulta in questo caso puramente radiale (è cioè nulla la sua componente lungo la normale al raggio vettore OP), ed è di modulo costante:
a = rr² = u²/r;
la forza che agisce su un punto di massa m, che si muova di moto circolare uniforme, è quindi costante in modulo ed è sempre diretta verso il centro O (forza centripeta): il suo modulo è
F = mm²r = mu²/r.
Poiché il punto dopo intervalli di tempo costanti ripassa per la medesima posizione, e con la stessa velocità, il moto è periodico: è detto periodo il tempo T in cui P compie un giro completo ed è legato alla velocità angolare dalla relazione
ii= 2=/T; detta infine //= 1/T
la frequenza del moto (cioè il numero di giri compiuti nell'unità di tempo), si ha anche dd= 2===e u = 2=rr.
. Matematica
Funzioni circolari. Data una circonferenza di raggio unitario e con centro nell'origine di un sistema di assi cartesiani (circonferenza trigonometrica), si consideri un generico angolo ., o il corrispondente arco AP,
e sia assegnato un verso positivo di rotazione (in genere, quello antiorario) per cui l'angolo AÔP è positivo o negativo secondo che il lato OA lo descriva ruotando in verso positivo o negativo per sovrapporsi a OP. Si dicono seno e coseno dell'angolo d (assegnato in grandezza e segno) l'ordinata e l'ascissa rispettivamente del punto P: in figura è e . Si definiscono inoltre le funzioni
di esse, la prima corrisponde all’ordinata del punto in cui il secondo lato dell’angolo d interseca la parallela all’asse ycondotta per il punto A (è in figura) e la seconda all’ascissa del punto in cui il medesimo lato OP interseca la parallela all’asse x condotta per il punto B (è in figura). Lo studio delle funzioni circolari, sviluppato inizialmente, soprattutto presso i Romani, allo scopo di risolvere i problemi metrici relativi ai lati e agli angoli dei triangoli - donde il nome di trigonometria - ha potuto essere inserito in epoca moderna in uno schema più ampio. Le funzioni circolari si possono infatti ricondurre tutte alla funzione esponenziale, e se ne può definire l’estensione nel campo complesso, considerando cioè z = sen , z = cos ,, …, anche quando , non assume solo valori reali, come l’angolo introdotto sopra, ma è una generica variabile complessa; in particolare si può così stabilire un collegamento tra le funzioni circolari e quelle iperboliche.
Accelerazione centrifuga e centripeta

Centrifuga
L'accelerazione e la forza centrifughe sono uguali e opposte all'accelerazione e alla forza centripete. Nel caso di movimento composto, l'accelerazione è la risultante di tre accelerazioni: l'accelerazione del movimento di trascinamento; l'accelerazione del movimento relativo; l'accelerazione complementare. Coriolis ha dato il nome di accelerazione centrifuga composta all'accelerazione uguale e opposta all'accelerazione complementare; la forza centrifuga composta corrisponde all'accelerazione centrifuga composta.
Centripeta
L'accelerazione totale in un generico moto piano si può considerare come risultante di due accelerazioni: un'accelerazione tangenziale alla traiettoria e un'accelerazione diretta come la normale principale, che viene chiamata accelerazione centripeta. Indicando con ..la velocità del punto materiale mobile e con llil raggio di curvatura della traiettoria relativo al punto in cui si trova il mobile, l'accelerazione centripeta viene data da i²///ed è diretta verso il centro di curvatura della traiettoria. La forza centripeta, che corrisponde all'accelerazione centripeta, è data da mm²//, ove m è la massa del punto materiale in movimento.
Viscosità
La viscosità nei fluidi si misura mediante la forza che è necessario applicare in condizioni stazionarie per conservare la differenza di velocità tra due strati fluidi paralleli. Se dr è la distanza tra due strati di uguale area A, in moto con una differenza di velocità du, la viscosità del fluido è espressa dalla costante di proporzionalità , (coefficiente di viscosità dinamica) che lega lo sforzo tangenziale = F/A al gradiente di velocità mediante la relazione
//= ===du/dr).
L'origine della viscosità nei fluidi è da ricercarsi nello scambio di quantità di moto tra due strati adiacenti. In un gas, per esempio, una parte delle molecole di uno strato a passa ogni secondo in uno strato continguo b; se questi due strati non hanno la stessa velocità la quantità di moto trasferita a b non è esattamente compensata da quella trasferita dalle molecole che passano da b ad a: ne risulta quindi un'accelerazione dello strato più lento a spese di un rallentamento dello strato più veloce. Il coefficiente di viscosità si può definire anche come la quantità di moto che attraversa nell'unità di tempo l'unità di superficie ortogonale a un gradiente di velocità unitario. Con opportune ipotesi semplificative si trova per i gas:
dove m è la massa molecolare, v è la velocità media e d il diametro delle molecole. È noto dalla teoria cinetica dei gas che la velocità media delle molecole è proporzionale alla radice quadrata della temperatura assoluta T, perciò cresce nei gas al crescere di T. A differenza di quella dei gas, la viscosità della maggior parte dei liquidi diminuisce all'aumentare della temperatura t con una legge del tipo cc= AeB/t, dove A e B sono costanti caratteristiche del liquido in esame. Per i liquidi che scorrono in capillari, la legge di Poiseuille lega il coefficiente alla portata.
Nel sistema SI l'unità coerente della viscosità dinamica NNè il chilogrammo al metro al secondo. La quantità èè= =//, dove ,,è la densità assoluta del fluido, è nota come coefficiente di viscosità cinematica (o semplicemente viscosità cinematica) e si misura nel sistema SI in metri quadrati al secondo. Nel sistema CGS la viscosità dinamica si misura in poise e la viscosità cinematica in stokes. La viscosità si può definire in maniera analoga anche nei solidi ed è connessa, come i fenomeni di plasticità, al moto delle dislocazioni nel reticolo cristallino.
Nel moto laminare dei fluidi la viscosità ordinaria del fluido è legata al moto molecolare disordinato nelle due direzioni attraverso la superficie che separa i due strati contigui; se fra questi avvengono scambi macroscopici di grosse masse di fluido visibili dall'esterno, per effetto di vortici, correnti, onde, dovuti per es. a fenomeni termici, può avvenire che lo scambio di quantità di moto attraverso la superficie di separazione abbia segno opposto, ossia avvenga in modo da aumentare la quantità di moto dello strato più veloce e diminuire la quantità di moto dello strato più lento. Si hanno fenomeni di viscosità negativa nell'atmosfera terrestre, alle medie latitudini, e nella corrente del Golfo, per effetto della presenza di enormi vortici; nella fotosfera, in relazione al movimento delle macchie solari.
Conservazione

Legge di conservazione: legge che esprime il mantenersi costante del valore di una grandezza fisica in un sistema isolato che subisce una trasformazione; per es. conservazione dell'energia, dell'impulso, del momento angolare, ecc.
Le leggi di conservazione si possono dividere in due classi: si hanno leggi di conservazione esatte quando la quantità che si conserva, o costante del moto, assume esattamente lo stesso valore nello stato iniziale e finale di un sistema isolato che subisce un processo di trasformazione qualsiasi; soddisfano a leggi di conservazione esatte il momento angolare, l'energia, l'impulso, la carica elettrica, il numero barionico, il numero leptonico. Se invece una grandezza fisica è una costante del moto solo per determinati processi, allora si parla di leggi di conservazione approssimate: per es., nelle interazioni tra particelle subatomiche la parità si conserva solo in quei processi in cui non intervengono le interazioni deboli; analogamente lo spin isotopico è una costante del moto nei processi in cui intervengono solo le interazioni forti.
Le leggi di conservazione sono intimamente legate ai princìpi di invarianza, o simmetrie; si può dimostrare che ogni principio di invarianza comporta l'esistenza di certe costanti del moto.
La conservazione del momento angolare in un sistema isolato è connessa alla simmetria per rotazioni che esprime l'indipendenza di ogni processo da ogni possibile rotazione del sistema.
La conservazione dell'energia e dell'impulso di un sistema isolato è una conseguenza dell'isotropia dello spazio-tempo nel senso che ogni processo di trasformazione non è influenzato da una traslazione nello spazio o nel tempo del sistema; in altri termini la conservazione dell'energia è una conseguenza della simmetria per traslazioni temporali mentre la conservazione dell'impulso dipende dalla simmetria per traslazioni spaziali.
La conservazione della carica elettrica in un sistema isolato può essere dedotta dal fatto che il potenziale elettrostatico è definito a meno di una costante arbitraria; quindi ogni modificazione del valore assoluto del potenziale non influenza i processi di interazione fra particelle cariche. Questo principio di simmetria può essere formulato in maniera più generale per mezzo delle equazioni di Maxwell e prende il nome di invarianza di gauge.
La conservazione della parità in un sistema isolato è legata alla simmetria per riflessioni speculari. Guardando in uno specchio piano l'immagine di un sistema che subisce un processo di trasformazione, si osserva l'immagine speculare di questo processo; se tale immagine speculare rappresenta un processo che può effettivamente manifestarsi in natura, allora esiste una simmetria per riflessioni speculari; questa simmetria non vale per i processi in cui intervengono le interazioni deboli, in quanto in tal caso l'immagine speculare del processo non rappresenta un processo osservabile in natura. La simmetria per riflessioni è dunque una simmetria approssimata, quindi è tale anche la conservazione della parità.
La conservazione dello spin isotopico totale in un sistema di particelle subatomiche è dovuta al fatto che nei processi in cui intervengono solo le interazioni forti il protone e il neutrone si comportano come la medesima particella, il nucleone, per cui il processo non viene influenzato se si sostituisce a un protone un neutrone o viceversa; tale simmetria, nota come indipendenza delle interazioni forti dalla carica, non è più valida quando le interazioni elettromagnetiche non sono trascurabili, perché il protone e il neutrone hanno cariche elettriche differenti e quindi interagiscono in maniera diversa con il campo elettromagnetico.

Dinamica

Le prime nozioni di dinamica si trovano in Galileo (1638), il quale per primo intuì che occorreva porre in relazione le forze con le accelerazioni, anziché con le velocità, come pensavano i suoi predecessori. Egli enunciò chiaramente il principio di inerzia e il principio di relatività classico e riconobbe la natura vettoriale delle forze, delle velocità e delle accelerazioni. Tuttavia il vero fondatore della dinamica deve ritenersi Newton, il quale ne enunciò le leggi e i princìpi in modo rigoroso. Questi enunciati sono i seguenti: 1. Legge di inerzia: un punto materiale isolato non soggetto ad azioni meccaniche esterne si muove di moto rettilineo uniforme. (In particolare rimane in quiete se inizialmente dotato di velocità nulla.) 2. Principio di composizione: se un punto materiale è soggetto all'azione contemporanea di più forze, la sua accelerazione è la somma vettoriale delle accelerazioni che ogni forza, considerata isolatamente, provocherebbe sul punto. 3. Legge fondamentale della dinamica: la forza F e l'accelerazione a sono legate dalla relazione di proporzionalità F = ma, m essendo la massa del punto. 4. Principio di azione e reazione: se un corpo A esercita su un corpo B un'azione esprimibile con una forza F, contemporaneamente B esercita su A un'azione esprimibile con la forza F.
Dopo Newton gli sviluppi della dinamica furono molto rapidi e numerosi, per merito di vari ricercatori (Bernoulli, Eulero, ecc.). Nel 1743 d'Alembert enunciò un principio assai generale sulla dinamica dei sistemi, il quale, fra l'altro, stabilisce una correlazione fra la dinamica e la statica. Lagrange, nel 1788, nella sua Meccanica analitica, diede alla dinamica un assetto logico di rara completezza e perfezione. Nella scia di Lagrange la dinamica venne successivamente sviluppata da numerosi ricercatori, fra cui si ricordano Hamilton e Jacobi.
Elasticità

Limite di elasticità, valore della sollecitazione, diverso per ciascun materiale, al di sopra del quale la deformazione permane al cessare della sollecitazione stessa.
La teoria classica dell'elasticità si fonda sulla scoperta della legge di proporzionalità lineare biunivoca che lega gli sforzi con le deformazioni compiuta dal fisico inglese R. Hooke, a seguito di esperienze su molle d'acciaio per orologi, e da questi sintetizzata (1676) nell'aforisma ut tensio sic vis. Dalla trattazione risultano pertanto esclusi quei corpi che per minime sollecitazioni subiscono apprezzabili deformazioni permanenti (corpi anelastici, es.: piombo) ovvero notevoli deformazioni elastiche (corpi iperelastici, es.: gomma) che sono oggetto di altre teorie (trasformazioni termoelastiche finite, plasticità, ecc.). La legge di Hooke trovò inizialmente autorevoli conferme dalle esperienze di Coulomb sui fili e da quelle di Hodgkinson e di Tresca sulle barre metalliche. Col crescere della precisione dei mezzi sperimentali, si vide come il comportamento dei vari materiali fosse conforme a tale legge soltanto per sollecitazioni contenute entro un determinato limite, detto appunto limite di proporzionalità, destinato peraltro a ridursi continuamente col crescere della precisione degli strumenti. Tale limite non va confuso con il limite di elasticità sopra definito al quale, peraltro, si avvicina sensibilmente in certi metalli. In realtà la deformazione dei solidi naturali, seppure infinitesima, non è mai perfettamente elastica, cioè linearmente proporzionale alla sollecitazione, ma permane in certa misura (deformazione permanente o residua) all'interno del solido al cessare della sollecitazione per l'insorgere di fenomeni di isteresi. D'altra parte, però, tanto più decresce l'ampiezza delle deformazioni, tanto più il comportamento dei solidi naturali si avvicina a quello previsto dalla teoria, che si presenta così come una teoria limite, di approssimazione più che sufficiente per poter essere considerata valida nel campo delle pratiche applicazioni.
Per meglio comprendere che cosa si intenda per corpo elastico si consideri la tendenza di ogni suo elemento (di volume e di superficie) a ritornare nello stato di equilibrio precedente alla deformazione in esame (stato naturale). Tale tendenza si esprime ammettendo l'esistenza di un'energia potenziale elastica nella quale si trasforma il lavoro meccanico che è stato necessario per portare il corpo allo stato deformato e che è suscettibile di trasformarsi nuovamente in lavoro al momento in cui la deformazione si annulli. Il teorema di Clapeyron, riferito all'elasticità dei solidi, ci dice che tale lavoro di deformazione (W) in un solido elastico assoggettato a un sistema di forze F1, F2, ..., Fn, la cui intensità vari staticamente (cioè con lentezza sufficiente da rendere trascurabile la corrispondente energia cinetica) vale, esprimendolo mediante le F e gli spostamenti S1, S2, ..., Sn dei loro rispettivi punti di applicazione,
.
In tale equazione W esprime la metà del lavoro che le forze deformatrici eseguirebbero agendo in tutta la loro intensità durante l'intera variazione di configurazione che porta il corpo dallo stato naturale allo stato deformato che si considera.
La configurazione di equilibrio e la distribuzione effettiva delle tensioni di un corpo elastico deformato sono determinate dal principio dei lavori virtuali (v. VIRTUALE) e dal principio di elasticità o del minimo lavoro.
Sotto il nome di teoremi sul lavoro di deformazione si comprendono altri teoremi di notevole importanza teorica e pratica, quali: il teorema delle derivate del lavoro, enunciato da A. Castigliano nel 1873, il primo teorema di reciprocità, dovuto a E. Betti (1872) che generalizzò l'enunciazione data da J. C. Maxwell, e il secondo teorema di reciprocità, dovuto a G. Colonnetti che ne ha dato nel 1912 Ia prima enunciazione.
Energia

Attitudine di un sistema fisico a compiere un lavoro. (È definita da una grandezza fisica che, ogniqualvolta il sistema fornisce lavoro all'esterno, diminuisce di una quantità pari al lavoro compiuto. Nel sistema SI si misura in joule.) Energia di legame, energia potenziale negativa posseduta da una particella in un campo di forze, per es. un elettrone nel campo coulombiano dell'atomo o un nucleone nel campo nucleare. (È misurata dal lavoro effettuato sulla particella per sottrarla all'influenza del campo: nel caso dell'elettrone legato a un atomo tale energia si dice anche energia di ionizzazione.) Energia elastica, energia potenziale dovuta alle forze generate da una deformazione elastica. Energia elettromagnetica, energia associata ai fenomeni elettrici e magnetici. (Tale energia si immagina distribuita nello spazio con una densità dipendente dall'intensità del campo ed è uguale all'energia spesa per creare tale campo.) Energia interna, funzione U dello stato termodinamico di un sistema. Energia libera, funzione F dello stato termodinamico di un sistema, definita dalla relazione F = U - TS dove U è l'energia interna, T la temperatura assoluta, S l'entropia del sistema. Energia cinetica, energia associata allo stato di moto di un corpo, definita dal semiprodotto della massa del corpo per il quadrato della sua velocità. Energia potenziale (o di posizione), energia di un corpo dovuta alla presenza di un campo di forze conservativo. (È positiva nel caso di forze repulsive, negativa in caso contrario ed è proporzionale al valore del potenziale nel punto in cui si trova il corpo.) Energia raggiante, energia che si propaga per onde elettromagnetiche. Energia superficiale, energia potenziale posseduta dalle lamine liquide. Energia sonora, forma di energia che si propaga in un mezzo elastico, per onde di frequenza compresa nei limiti di udibilità o, per estens., al di fuori di tali limiti. Energia elettrica apparente, prodotto della potenza elettrica apparente per il tempo. (Si misura con appositi contatori; l'unità di misura usata è il voltamperora.)
L'energia di un sistema fisico si può manifestare sotto diverse forme, ognuna delle quali è associata a qualche grandezza fisica caratteristica: per es. al moto e alla posizione del sistema è associata l'energia meccanica, al calore l'energia termica e così via. Ogni processo subito dal sistema può essere accompagnato dalla variazione di diverse forme d'energia. Tuttavia, quando il sistema è isolato, ogni diminuzione di una data forma di energia è compensata dall'aumento di energia sotto altre forme, così che l'energia totale, cioè la somma di tutte le forme di energia, è costante in un sistema isolato. Questa legge di conservazione, che è la proprietà fondamentale dell'energia, permette di individuare e definire ogni possibile forma di energia; infatti, ogniqualvolta si osserva, in un sistema isolato, una diminuzione complessiva delle forme di energia note, si trova sempre una nuova forma di energia, in modo che l'energia totale sia costante. La prima nozione di energia fu introdotta nella fisica da Huygens e Leibniz, indipendentemente; costoro osservarono che nell'urto elastico tra due corpi la “forza viva”, cioè la somma dei semiprodotti delle masse dei corpi per il quadrato delle loro velocità (detta più propriamente energia cinetica), è costante prima e dopo l'urto, perciò nell'urto elastico l'energia cinetica si conserva. Tuttavia in un sistema fisico possono avvenire dei processi meccanici in cui l'energia cinetica non è costante; per es. nel pendolo tale energia passa periodicamente da un valore massimo a zero; se però il sistema è soggetto a un campo di forza conservativo (come il campo gravitazionale, nel caso del pendolo), si può introdurre una nuova forma di energia, detta energia potenziale, in modo che l'energia complessiva, o energia meccanica, sia costante nel tempo. Nel caso particolare di un sistema costituito da un insieme discreto di N punti materiali Pi di massa mi (i = 1, 2, ..., N), soggetto a un campo gravitazionale descritto dal potenziale V (P), l'energia potenziale W è definita dalla relazione
Quando il campo di forze non è conservativo l'energia meccanica non si conserva; per es. in ogni processo accompagnato da attrito si osserva una diminuzione di energia meccanica accompagnata da un aumento della quantità di calore. In particolare, quando un sistema termodinamico compie una trasformazione ciclica, l'energia meccanica fornita al sistema è proporzionale al calore ceduto durante il ciclo (principio di equivalenza tra energia meccanica e calore). Quindi il calore, che era stato interpretato come uno speciale fluido imponderabile, è una forma di energia, detta energia termica. Questa energia si dice degradata perché, a differenza degli altri tipi di energia, non è possibile trasformarla integralmente in lavoro; precisamente non esiste, per il secondo principio della termodinamica, nessun processo il cui unico risultato sia la produzione di lavoro a spese di un'unica sorgente di calore a temperatura costante: ogni trasformazione di calore in lavoro è sempre accompagnata dalla produzione di calore a temperatura più bassa. In una trasformazione termodinamica non ciclica la variazione di energia meccanica non è sempre compensata da una corrispondente variazione di energia termica perché possono comparire altre forme di energia, per es. una certa quantità di calore può essere assorbita durante il cambiamento di stato del sistema; si può allora definire una nuova energia detta energia interna U, che è costante in ogni sistema termodinamico isolato; se il sistema non è isolato la variazione di energia interna dipende unicamente dallo stato iniziale e dallo stato finale della trasformazione ed è uguale, per il principio di conservazione, alla differenza tra la quantità di calore eQ ceduta e l'energia meccanica QL assorbita dall'esterno durante la trasformazione, cioè si ha LU = UQ - QL. Queste proprietà dell'energia interna si possono esprimere in forma più precisa dicendo che la variazione di energia interna durante una trasformazione infinitesima è un differenziale esatto (primo principio della termodinamica). Studiando i processi in cui intervengono fenomeni elettromagnetici o d'altro tipo si possono definire altre forme di energia. La teoria della relatività ristretta ha introdotto un'ulteriore generalizzazione del concetto di energia, che consente di interpretare anche la massa come una forma di energia; infatti nei processi in cui avviene una variazione di massa si osserva una corrispondente variazione di un'altra forma di energia; queste due variazioni sono legate dalla relazione di equivalenza di Einstein, tra massa ed energia: E = m c² dove c è la velocità della luce nel vuoto, m la massa, E l'energia.
• Fonti di energia
Nell'antichità e per lungo tempo gli uomini ebbero a disposizione soltanto la propria potenza muscolare (ricordiamo il lavoro fornito dagli schiavi), pari a 0,05-0,07 kW, quella di alcuni animali (il cui esteso sfruttamento, nel campo del lavoro, iniziò nel X sec. d.C.), quella del vento e delle acque fluenti. Il legno fu per millenni l'unica fonte di energia termica: nei paesi sottosviluppati, la maggior parte dell'energia utilizzata proviene da queste fonti tradizionali. Fra il XII e il XIII sec. d.C. si diffuse in Europa lo sfruttamento dell'energia idraulica mediante ruote idrauliche che soltanto nel XIX sec. vennero sostituite dalle turbine. Intanto, a partire dal XVIII sec., era aumentata l'importanza del carbon fossile, utilizzato per produrre energia termica e meccanica (con le macchine a vapore), dapprima in Gran Bretagna, poi in Germania e negli Stati Uniti. Mentre la produzione mondiale di carbone passava da 30 milioni di t nel 1820 a 1.400 milioni di t nel 1913, con un ulteriore aumento di soli 100 milioni di t dal 1913 al 1938, si sviluppava lo sfruttamento dell'energia idraulica mediante trasformazione in energia elettrica e soprattutto lo sfruttamento del petrolio, usato dapprima per illuminazione, poi come sorgente di energia meccanica. Lo sviluppo dell'industria petrolifera è più recente: si passa da 0,8 milioni di t nel 1880 a 280 milioni di t nel 1938.
Dopo la seconda guerra mondiale vi sono state delle notevoli trasformazioni: la produzione di carbone che raggiungeva nel 1965 2.200 milioni di t, soprattutto per i grandi progressi dell'URSS (404 milioni di t) e della Cina (oltre 350 milioni di t), vent'anni dopo era aumentata di 1.000 milioni di t, sempre grazie alle grandi produzioni della Cina (ca. 810 milioni di t), degli Stati Uniti (741), dell'URSS (ca. 494). La produzione di petrolio ha registrato un aumento ancora più rapido, passando da 377 milioni di t nel 1946 a 1.504 milioni di t nel 1965, a 2.766 milioni di t nel 1986 (incrementata nel decennio successivo di oltre 200 milioni di t). Questo risultato è dovuto sia al potenziamento dei preesistenti impianti estrattivi, sia all'inizio dello sfruttamento di nuovi giacimenti (Medio Oriente, Sahara). A questo sviluppo della produzione petrolifera si aggiunge lo sfruttamento dei gas naturali e infine l'utilizzazione dell'energia nucleare. Notevoli mutamenti si sono verificati quindi nei rapporti tra le diverse forme di energia sfruttata. Nella maggior parte dei paesi l'utilizzazione diretta del carbone nelle motrici o turbine a vapore (e in parte anche l'utilizzazione del petrolio nei motori) tende a essere sostituita con l'utilizzazione di energia elettrica, prodotta per via termoelettrica. La flessibilità di impiego dell'energia elettrica, l'elevato rendimento delle grandi centrali e la possibilità di bruciare dei carboni di qualità mediocre spiegano lo sviluppo della produzione elettrica: nei paesi a elevata industrializzazione essa si raddoppia all'incirca ogni dieci anni. Le centrali termoelettriche consentono anche la valorizzazione di giacimenti di lignite, il cui modesto potere calorifico renderebbe proibitivo il trasporto. La produzione industriale di energia elettrica, che solo un secolo fa era allo stadio sperimentale, ha avuto uno sviluppo enorme. Gli Stati Uniti sono in testa, con ca. 3.268 miliardi di kWh a metà degli anni Novanta, seguiti dal Giappone (oltre 964 miliardi), dalla Russia (875,9 miliardi), dal Canada (ca. 554 miliardi), dalla Cina (ca. 928 miliardi), dalla Germania (ca. 528 miliardi), dalla Francia (ca. 475 miliardi), dall'Italia (ca. 220 miliardi). La politica energetica di uno Stato impone una scelta fra le sorgenti di energia i cui prezzi di costo siano in concorrenza: nonostante il fatto che in parecchi paesi l'estrazione del carbone è costosa a causa della limitata estensione dei giacimenti o della difficoltà di reperimento di manodopera specializzata, questo combustibile resta una delle basi fondamentali della grande industria, non solo come fonte di energia, ma anche come materia prima indispensabile per la siderurgia e l'industria chimica. È questo il motivo per cui molti paesi in via di sviluppo industriale dedicano i loro sforzi alla produzione carbonifera. Tuttavia il carbone è di impiego meno flessibile del petrolio (indispensabile nel settore dei trasporti su strada), il quale ha sostituito sempre più il carbone anche nella propulsione navale e nelle ferrovie. Il petrolio è divenuto una materia prima fondamentale dell'industria chimica. Se si eccettuano pochi paesi, la maggior parte delle potenze industriali non dispone sul proprio territorio di grandi risorse petrolifere e deve quindi ricorrere all'importazione. Analogamente, quando non è possibile incrementare in misura sufficiente la produzione carbonifera, molti paesi industriali trovano un notevole complemento energetico nella produzione idroelettrica: da questo punto di vista l'Italia, come la Svizzera e i paesi scandinavi, sono particolarmente favoriti.
• Forme di energia

Energia idraulica
Inizialmente l'uomo sfruttò l'energia delle acque (talvolta detta carbone bianco), solo per azionare direttamente le proprie macchine (molini, presse, fucine, ecc.): si trattava di ruote di legno mosse dall'acqua di una cascatella o dalla corrente di un fiume. Soltanto verso la metà del secolo scorso si affrontò il problema su una base razionale e, avvalendosi dei progressi della metallurgia, si giunse a costruire le turbine. Lo studio fu dovuto principalmente a Fourneyron, Jonval, Francis, Pelton. Il rendimento venne aumentato anche migliorando il rendimento idrodinamico del moto dell'acqua e in particolare facendola muovere entro condotte chiuse e lisce: da qui l'idea della condotta forzata, che risale al 1867, con la quale iniziò la produzione di energia elettrica. Il potenziale teorico dell'energia idraulica può essere valutato sulla base delle precipitazioni annue in una determinata regione e dalla sua quota sul livello del mare. L'energia idraulica fornisce il 23% dell'energia elettrica prodotta nel mondo. Sono state costruite sia grandi centrali della potenza di 1 GWe, sia piccole centrali utilizzate in particolare per alimentare di energia elettrica le zone rurali. Si stima che nel 2028, circa l'80% delle risorse sfruttabili di energia idraulica sarà utilizzato. I vantaggi di questi impianti sono dati dalla loro lunga durata e dai bassi costi di esercizio. Le centrali idroelettriche costituiscono inoltre un mezzo efficiente di accumulo dell'energia che si può ottenere anche mediante il pompaggio dell'acqua nei bacini. La tecnologia dei generatori idraulici ha raggiunto elevati livelli mentre non si sono registrati particolari sviluppi nei valori dell'efficienza di conversione delle turbine. Sostanziali miglioramenti nello sfruttamento dell'energia idraulica sono previsti soprattutto in Asia e Africa. Il potenziale idraulico teorico delle diverse regioni del mondo, quello tecnicamente ed economicamente utilizzabile, quello già utilizzato e in via di sfruttamento, e il potenziale che si ritiene verrà utilizzato nel medio termine, sono indicati nella tabella. Una forma particolare di energia idraulica è costituita dallo sfruttamento delle acque derivanti dallo scioglimento dei ghiacciai. Questo potenziale idraulico è preso in considerazione principalmente con riferimento alla Groenlandia dove si stima che nel periodo estivo vi sia una potenzialità di circa 10¹¹ kWh.
p Energia dalle maree o energia mareomotrice (talvolta chiamata carbone azzurro).
Le masse d'acqua sollevate dalle maree costituiscono una sorgente di energia che si è tentato di utilizzare. In qualche caso particolare, dove la marea si insinua in un passaggio stretto, si può pensare a sbarrare il passaggio per lasciare entrare la marea montante e far passare l'acqua attraverso le turbine quando essa discende. La possibilità di utilizzare questa forma di energia è limitata alle regioni costiere con sufficiente escursione da marea e con appropriato litorale, ed è stimata essere dell'ordine di 3 TW con riferimento a 30 località (600×109 kWh/anno). Il primo impianto fu quello francese dell'estuario della Rance.
/ Energia dalle onde
Si stima che l'energia contenuta nel moto ondoso delle acque degli oceani, dei mari e dei laghi, sia dell'ordine dello 0,1% della totale energia eolica, il che significa 2 TW circa. Il potenziale dell'energia ricavabile dalle onde è stimabile assumendo per i dispositivi di conversione un'efficienza dell'ordine del 10÷20%. L'energia ricavabile dalle onde è stimata in funzione dell'altezza delle onde e dalla frequenza con cui sono presenti durante l'anno. La zona più favorevole a questo riguardo è l'Oceano Atlantico dove si hanno onde di altezza superiore a 5 m più di 500÷600 h/anno. I dispositivi allo studio per lo sfruttamento di questo tipo di energia sono divisibili in due categorie: dispositivi che sfruttano l'energia potenziale delle onde derivante dalle variazioni, in altezza, del profilo superficiale dell'acqua o derivante dal gradiente di pressione sotto la superficie; dispositivi che sfruttano l'energia cinetica dell'acqua in relazione al suo moto longitudinale o orbitale. Questi dispositivi sono utilizzabili per comprimere aria o gas, per azionare turbine, oppure per azionare un cilindro che a sua volta aziona pompe o motori che convertono il moto traslazionale in moto rotatorio.
Energia dai gradienti termici marini
L'assorbimento dell'energia solare nelle acque degli oceani e dei mari causa un gradiente di temperatura tra la superficie e gli strati d'acqua sottostanti. Tali differenze di temperatura, anche se piccole, possono essere impiegate per alimentare un ciclo termodinamico per produrre energia meccanica o elettrica. L'utilizzazione di tale tipo di energia è limitata praticamente solo alla zona equatoriale dove esistono i maggiori gradienti termici, ed è comunque solo a livello di studio.
i Energia eolica (talvolta chiamata carbone incolore).
L'energia eolica, dovuta al vento, è molto difficile da utilizzare in impianti di notevoli dimensioni, a causa della sua irregolarità. È molto noto invece l'uso del vento per azionare molini (molini a vento), pompe o piccoli alternatori per località isolate.
La totale energia cinetica annua contenuta nei flussi d'aria dell'atmosfera è stimata in 3×10¹5 kWh pari a circa lo 0,2% della radiazione solare che arriva sulla terra. Il potenziale dell'energia eolica tecnicamente sfruttabile è stimato in 3×10¹³ kWh/anno. Vi è una grande varietà di dispositivi per lo sfruttamento di questo tipo di energia che però possono essere ricondotti a due categorie: rotori ad asse orizzontale, con asse parallelo o trasversale alla direzione del vento (es. Dutch Windmill); rotori ad asse verticale (es. Savonius Darrieus). Uno svantaggio dei sistemi ad asse orizzontale è costituito dal fatto di dover richiedere un dispositivo per orientare l'asse in funzione della direzione del vento. I rotori ad asse verticale, invece, funzionano indipendentemente dalla direzione del vento. Questi dispositivi forniscono energia meccanica con una efficienza massima dell'ordine del 40%. In connessione con un generatore elettrico possono produrre poi energia elettrica. Tali dispositivi vengono utilizzati specialmente in zone rurali per il pompaggio dell'acqua o a scopi agroindustriali. Stanno crescendo di importanza anche le grandi centrali eoliche della potenza di qualche MW.
Energia geotermica (talvolta chiamata carbone rosso).
È energia termica accumulata nel sottosuolo, che si manifesta mediante eruzioni, quasi sempre non controllabili e quindi non utilizzabili.
La totale energia termica immagazzinata nella crosta terrestre è stimata in circa 10³º J, cioè migliaia di volte superiore a ogni possibile domanda di energia dell'umanità (domanda che è nell'ordine dei 10²º J). Tale calore è utilizzabile in presenza di condizioni geologiche e geotermiche favorevoli, ma ancora oggi la potenza termoelettrica, alimentata con vapore geotermico, è nell'ordine di poche migliaia di MW, a cui vanno aggiunti circa 10.000 MW di origine geotermica utilizzati per riscaldamento e usi industriali. A seconda delle caratteristiche del calore geotermico, del mezzo in cui tale calore è immagazzinato e delle tecniche possibili di estrazione di tale calore, si distinguono quattro tipi di giacimenti geotermici:
1. I giacimenti idrotermici a dominante vapore: sono i più adatti per la produzione di energia elettrica ma sono anche i più rari. Sono noti sei campi di questo tipo: due in Italia (Larderello 400 MW; monte Amiata 22 MW), due negli USA (Geyers 670 MW e Nuovo Messico) e due in Giappone (22 MW).
2. I giacimenti idrotermici a dominante liquido: sono più frequenti dei precedenti e possono essere a loro volta “a alta entalpia” o “a bassa entalpia”. I primi si hanno quando dell'acqua fluisce in una cavità con elevata permeabilità, trasferendovi il calore ricevuto da una soprastante sorgente di calore formato da intrusione magnetica. In tal caso possono essere ottenute temperature di 300 ºC alla profondità di 2.000 m. I principali giacimenti di questo tipo utilizzati per la produzione di energia elettrica sono in Nuova Zelanda (200 MW), in Messico (150 MW) e negli USA. I giacimenti a bassa entalpia (temperatura inferiore ai 100 °C) sono utilizzabili per usi termici come il riscaldamento. Giacimenti di questo tipo si trovano in Toscana, in Ungheria, nella zona di Parigi. Lo sfruttamento dei giacimenti a componente prevalentemente liquida pone in generale dei problemi a causa dell'alta percentuale di sostanze corrosive e incrostanti presenti nel fluido geotermico.
3. Giacimenti petrotermici: condizione necessaria per lo sfruttamento del calore geotermico su larga scala è quella di utilizzare il calore dei complessi di rocce secche e impermeabili. Ma poiché la conducibilità termica delle rocce è molto bassa, occorre far sì che si realizzi un'estesa superficie di contatto tra le rocce calde e un fluido termovettore. Si pensa di poter creare tali condizioni frantumando le rocce per via idraulica. Un primo impianto pilota della potenzialità di qualche MW è in funzione.
4. I giacimenti geopressurizzati: si trovano negli strati sedimentari dove si è formata una saldatura efficace di scisti. In tali condizioni, l'acqua è condotta dal materiale scistoso verso le masse sabbiose adiacenti, subendo una compressione superiore alla pressione idrostatica. La pressione dell'acqua geopressurizzata è vicina in certi casi alla pressione litostatica. Questo sistema è caratterizzato spesso da temperature superiori al normale che possono raggiungere i 230 ºC in certi giacimenti sulla costa del golfo del Messico. Altrove le acque e la salamoia geopressurizzate contengono metano disciolto, in molti casi al punto di saturazione.
Gli impianti geotermoelettrici hanno un'efficienza più bassa di quella teorica (che è del 10% per una temperatura della sorgente di 100 ºC e del 30% per una temperatura di 350 ºC). Il consumo di vapore dipende dalla pressione e dalla temperatura del vapore geotermico oltre che dal tipo di turbogeneratore usato.
Per vapore a 200-250 ºC il consumo di vapore varia tra 8 e 20 kg per kWh. Un pozzo può produrre fino a 300 t/h di vapore: ma è l'eccezione. In media la produzione di un pozzo è di circa 30 t/h. l costi di produzione di energia geotermoelettrica sono dovuti essenzialmente a quelli di perforazione e di costruzione dell'impianto.
/ Energia solare (talvolta chiamata carbone d'oro).
L'energia solare è la fonte rinnovabile di energia più abbondante. La radiazione solare che giunge annualmente sulla superficie esterna dell'atmosfera è di circa 1,5×10¹8 kWht. In conseguenza dei processi di riflessione e di assorbimento dell'atmosfera, l'intensità della radiazione solare sulla terra è in media di circa 1 kW/m². L'intensità della radiazione solare varia ampiamente per le diverse regioni del globo e in relazione alle diverse condizioni meteorologiche.
L'utilizzazione dell'energia solare è ridotta dalla sua limitata concentrazione e dalle variazioni diurne e stagionali. I metodi di sfruttamento possibili allo stato attuale della tecnologia sono: la conversione in calore con eventuale ulteriore trasformazione in energia cinetica, elettrica o chimica; la conversione diretta in energia elettrica; la conversione diretta in energia chimica. La conversione dell'energia solare in calore può avvenire mediante il sistema a pannelli piani (calore a bassa temperatura) o mediante sistemi a concentrazione (calore a media-alta temperatura). L'efficienza della conversione in calore della radiazione solare è limitata da alcuni fattori quali: la riflessione della radiazione solare sulla superficie del collettore; le perdite di calore per conversione e conduzione dal collettore; l'irraggiamento di calore dal collettore. Nei collettori, superfici selettive consentono un elevato assorbimento di radiazioni nel campo delle radiazioni visibili (r1) e una bassa emissione di radiazioni nel campo dell'infrarosso (o2). Negli attuali collettori si possono ottenere valori di 21//2 di 10÷15. I collettori piani sono costituiti essenzialmente da: una superficie assorbente (alto 1 e basso 2); un coperchio trasparente (basso )2); un isolamento termico sul retro; elementi per il trasferimento del fluido. Operano in un campo di temperatura tra i 40 e i 100 ºC e hanno un'efficienza di conversione di circa il 70%. Vi sono vari tipi di sistemi concentratori (lineari, parabolici, sferici) e possono avere fattori di concentrazione da 2 a 1.000. La torre solare è un caso particolare di sistema a concentrazione utilizzata per produrre energia elettrica. In questo schema la radiazione solare è captata da specchi piani mobili (eliostati) e viene focalizzata in un punto in cui è localizzata la caldaia solare. La temperatura di funzionamento della turbina, che è basata sul ciclo Bryton, è di circa 550 ºC. La potenza elettrica in uscita può variare tra 10 e 100 MW. La superficie degli specchi necessaria per 20 MWe di potenza è di circa 60.000 m². La conversione diretta della radiazione solare in energia elettrica avviene per mezzo dell'effetto fotovoltaico. Per realizzare questo tipo di conversione, sono stati studiati vari dispositivi.
Attualmente celle al silicio (monocristallino o policristallino) e film sottile di CdS-Cu2S sono disponibili per generatori dell'ordine di qualche kW. L'efficienza di conversione di queste celle varia tra l'8 e il 15%. Le celle all'arseniuro di gallio, unitamente a sistemi di concentrazione, possono raggiungere efficienze del 25%. I generatori fotovoltaici, per potenze fino a 1 kW, possono essere utilizzati per i sistemi di comunicazione, di illuminazione e di pompaggio dell'acqua; per potenze fino ai 100 kW, come centrali elettriche per villaggi isolati e a scopo agroindustriale di piccola scala.
Energia elettrica
L'elettricità costituisce una delle principali forme di sfruttamento dell'energia, per trasformazione da altre forme reperibili in natura: meccanica (delle acque cadenti), chimica, termica o nucleare, grazie alla sua facilità d'impiego (può essere distribuita capillarmente) e alla molteplicità dei suoi impieghi (può essere facilmente trasformata in calore o in lavoro meccanico o chimico). La trasformazione dell'energia elettrica in altre forme è divenuta il tipo più diffuso di consumo, consentendo praticamente di attuare tutti i principali processi industriali. Il trasporto dell'energia elettrica con linee ad alta e altissima tensione è molto vantaggioso per l'elevatissimo rendimento; rendimento molto elevato, notevolmente superiore a quello di qualsiasi altro motore primo, hanno pure i motori elettrici. Inoltre molte delle conquiste sia tecnologiche, sia nella trasmissione di informazioni (radio, televisione, telefono, ecc.) sono realizzabili solo grazie all'energia elettrica.
L'energia di caduta delle acque e quella termica del carbon fossile o di combustibili gassosi o liquidi viene sempre più ampiamente trasformata in energia elettrica, la quale consente anche lo sfruttamento di fonti di energia povere o difficilmente utilizzabili altrimenti (lignite, torba, polveri di carbone, gas di recupero, energia eolica, delle maree o di acque fluenti). Infine la produzione di energia elettrica rappresenta, per ora, mediante le centrali termonucleari, la più importante forma di sfruttamento dell'energia nucleare. La principale difficoltà nell'utilizzazione dell'energia elettrica è costituita dall'impossibilità pratica di accumularne quantità tali da poter essere utilizzate; l'accumulo può essere effettuato solo sotto forma diversa, cioè alla fonte primaria d'energia (acque dei grandi bacini idroelettrici, combustibile delle centrali termoelettriche).
L'energia idrica ha origine indirettamente dal calore solare, che provoca la circolazione delle acque mediante l'evaporazione e rende così disponibili grandi masse di acqua, che possono venire imbrigliate, in montagna, mediante dighe o traverse ed essere convogliate nelle condotte forzate: l'energia sviluppata nella caduta (detta talvolta carbone bianco) viene convertita dalla turbina in lavoro meccanico che aziona il generatore elettrico. Il dislivello esistente fra le montagne e il mare consente generalmente di sfruttare più volte l'acqua con salti successivi, creando dei sistemi idroelettrici con le centrali in serie, di cui la val Formazza costituisce un esempio tipico. Più ci si allontana dalle sorgenti e meno alte sono mediamente le cadute; è possibile, però, costruire sbarramenti e centrali lungo il corso dei fiumi in quanto, in tal caso, si può disporre di portate maggiori grazie all'apporto degli affluenti. Per un migliore sfruttamento del patrimonio idrico si fanno condotte entro le montagne, che trasportano le acque da una vallata a un'altra; altro metodo è quello di costruire canali che raccolgano gli apporti di tutti i corsi d'acqua in un raggio di diversi chilometri. Questi impianti complessi e di grande potenza cominciarono a sorgere all'inizio del secolo con l'affermazione dell'alternatore e del trasformatore, grazie ai quali divenne possibile produrre corrente alternata e innalzarne la tensione in modo da poter trasportare l'energia con elevato rendimento, attraverso lunghe linee, dalle zone di montagna fino ai lontani centri di produzione in pianura. Il primo impianto moderno di trasporto dell'energia elettrica fu quello di Lauffen (sul Neckar), col quale si trasportavano circa 100 kW fino a Francoforte, a 140 km di distanza.
Il problema dell'immagazzinamento dell'energia idrica venne risolto creando i grandi impianti a serbatoio (bacini idroelettrici) nei quali le acque si accumulano nei periodi di abbondanza per essere sfruttate nei periodi di magra. Non è però possibile far questo con gli impianti ad acqua fluente (cioè quelli costruiti sui fiumi), nei quali l'acqua non sfruttata al momento è perduta: quando la richiesta di energia è minima, si può evitare questa perdita facendo funzionare ugualmente le centrali e utilizzandone l'energia per alimentare le centrali di pompaggio, che sollevano l'acqua da un serbatoio basso a uno posto più in alto.
L'altra importante sorgente di energia elettrica è costituita dai combustibili solidi, liquidi o gassosi estratti dal sottosuolo, che alimentano le centrali termoelettriche: in tal caso l'accumulo di energia è rappresentato dal deposito del combustibile che può essere effettuato sul luogo stesso dell'estrazione se la centrale è nelle vicinanze. La tendenza è però quella di installare la centrale più vicina ai centri di consumo, rinunciando a lunghe linee elettriche ad altissima tensione ed effettuando il trasporto del combustibile; molto spesso si scelgono luoghi in riva al mare per la convenienza dei noli marittimi.
Un'altra forma di energia termica che ha assunto un'importanza sempre maggiore è quella di origine nucleare: essa non solo consente l'esercizio in vicinanza dei luoghi di consumo, ma non pone neppure il problema dei trasporti, poiché la quantità di combustibile è minima rispetto all'energia che se ne può ricavare.
e Energia chimica
Le reazioni chimiche sono accompagnate da assorbimento o emissione di energia sotto varie forme che, per la legge di conservazione, sono associate a variazioni di un'altra forma di energia del sistema chimico considerato (detta energia chimica) dipendente dalla struttura molecolare dei composti che interagiscono e in particolare dell'energia di legame del sistema che si considera. L'energia chimica è una delle più importanti fonti di energia, infatti gran parte dell'energia termica utilizzata per la produzione di altre forme di energia è dovuta alla trasformazione dell'energia chimica dei combustibili in calore durante la combustione.
z Energia nucleare
L'energia liberata da un nucleo durante le reazioni nucleari o i decadimenti radioattivi, detta spesso impropriamente energia atomica, è imputabile a un aumento dell'energia di legame del nucleo che corrisponde a una diminuzione apprezzabile della sua massa; questa variazione di massa è accompagnata, per l'equivalenza tra massa ed energia, dall'emissione di energia prevalentemente termica. L'energia nucleare praticamente utilizzabile deriva da reazioni di fissione di nuclei pesanti, come l'uranio 235 o il plutonio, o di fusione di atomi leggeri come l'idrogeno, il deuterio e il trizio; quest'ultima forma di energia, detta più propriamente energia termonucleare, è attualmente utilizzabile solo in forma esplosiva (bomba H o termonucleare).
La produzione di energia elettrica per via nucleare è estremamente più vantaggiosa di quella ottenuta per via tradizionale. Basta pensare che una tonnellata di uranio fornisce una potenza maggiore di quella fornita da circa 650.000 t di olio combustibile. Un tale più elevato rendimento, unitamente, fra l'altro, a una drastica riduzione dell'inquinamento atmosferico rispetto a quello prodotto dalle centrali tradizionali, spiega gli sforzi (in risorse umane e capitali) tesi, in ogni paese del mondo, a fare dell'energia nucleare la fonte primaria per la produzione di energia elettrica.
I campi di applicazione dell'energia nucleare sono la produzione di energia elettrica e la propulsione navale. L'uranio è un elemento relativamente abbondante nei minerali del globo, per cui l'uomo dispone ora di imponenti risorse di energia anche se non inesauribili. Gli Stati Uniti dispongono di numerose centrali elettronucleari, ma l'abbondanza di sorgenti di energia tradizionali non pone in questo paese, in forma preminente, il problema dal punto di vista economico. Il problema, invece, si pone per altri stati, come la Francia e soprattutto la Gran Bretagna, dove gli impianti nucleari sono ormai numerosi e tali da avere un certo peso sulla totale produzione di energia del paese. L'Italia si trova in condizioni particolari rispetto al problema dell'energia nucleare; fu infatti tra i primi paesi al mondo a impegnarsi nel settore, cioè dal 1957, anno in cui trattò l'acquisto di centrali elettronucleari dalla Gran Bretagna e dagli Stati Uniti, fino al 1964, anno dell'entrata in funzione delle tre centrali (di Latina, Garigliano e Trino Vercellese) per una potenza complessiva di 607 MW. L'interesse dell'Italia per il problema fu dettato dall'aver raggiunto in quegli anni quasi la completa utilizzazione delle risorse idriche e da una naturale povertà di combustibili. Tuttavia dopo il 1964 un solo altro reattore, in grado di fornire una potenza di circa 176 MW, è stato progettato. Le forti opposizioni di larghi schieramenti dell'opinione pubblica (sempre più sensibilizzata sui rischi di fughe radioattive come quella di Cernobyl del 1986), concretizzatesi anche nel risultato largamente positivo di tre referendum abrogativi in materia di centrali nucleari (novembre 1987), hanno sospeso tutte le iniziative esistenti in materia.
Si spera tuttavia che in futuro si possa utilizzare l'energia sviluppata dalla fusione realizzata con elementi semplici e praticamente inesauribili, come l'idrogeno.
• Trasporto dell'energia
Qualsiasi trasporto di energia implica delle perdite, che possono variare a seconda del sistema fisico impiegato: ad es. il vapore non consente praticamente di effettuare trasporto perché anche su distanze limitate dà luogo a perdite di calore inammissibili nonostante i sistemi di isolamento termico. Più conveniente è il trasporto di combustibili solidi, liquidi o gassosi, anche se il costo rimane abbastanza elevato.
In genere il trasporto dell'energia sotto forma elettrica rimane il metodo più conveniente, specialmente con l'impiego delle tensioni più elevate che riducono le perdite in linea. Per questo motivo il trasporto a lunga distanza viene effettuato con tensioni di 160, 220 e 380 kV impiegate nella rete primaria; da questa si passa alla rete secondaria alimentata a 40, 60 e 80 kV, che termina poi con la distribuzione, nella quale la tensione viene ulteriormente ridotta a qualche chilovolt per poi essere portata ai valori normali di impiego (220 e 380 V) nelle cabine di distribuzione.
I compiti degli addetti agli impianti sono principalmente due, di previsione (ripartizione del carico) e di esecuzione e controllo (esercizio). L'esercizio dei mezzi di produzione esige la conoscenza anticipata della domanda e delle possibilità di produzione dell'insieme degli impianti. Le previsioni abbracciano periodi lunghi o brevi, fino ad arrivare a una valutazione giornaliera basata sia sui dati relativi agli anni trascorsi, sia sull'andamento dei giorni precedenti. Se la domanda prevista è superiore alle possibilità di produzione degli impianti con servizio di base (cioè che producono con continuità), vengono posti in funzione gli impianti per servizio di punta (ad es. gli impianti idroelettrici a serbatoio, le cui acque conviene conservare per quanto è possibile). La programmazione in questo senso viene effettuata da ripartitori centrali del traffico, che controllano a distanza una zona molto vasta, dando tutte le disposizioni necessarie per adeguare la produzione alla richiesta istantanea. Essi si valgono tra l'altro degli elaboratori elettronici, che raccolgono tutti i dati e inviano gli ordini alle centrali in modo da ottenere il risultato voluto con il massimo rendimento globale della rete, valutazione questa che gli operatori manuali difficilmente riescono a compiere in maniera completa. Per quanto concerne invece la “qualità” dell'energia prodotta, la società di esercizio deve cercare di mantenere la tensione erogata quanto più è possibile costante e con frequenza fissa a 50 Hz. Per quest'ultimo scopo esistono nella rete degli impianti di regolazione dotati di dispositivi di grande precisione per il controllo della velocità degli alternatori e di potenza tale da riuscire a imporre la loro frequenza a tutti gli altri impianti collegati alla rete. I collegamenti fra i diversi centri operativi e quelli con il ripartitore centrale del traffico sono assicurati mediante una vasta rete di telecomunicazioni e mediante i servizi telefonico, di telecomando, di telecontrollo e di telesegnalazione: con questi mezzi il ripartitore riceve istante per istante tutte le informazioni relative alla situazione in ogni punto della rete e quindi, dalla conoscenza dei dati relativi agli impianti (potenza dei gruppi, curve di rendimento alle varie potenze, invaso utilizzabile nei bacini, capacità di carico delle linee, situazioni di emergenza, ecc.), costruisce il quadro delle disposizioni necessarie per lo svolgimento centralizzato del controllo della rete. Si possono così anche valutare le esigenze di scambi di energia fra regioni aventi regimi idrici diversi, come accade fra le zone alpine e quelle appenniniche. Si ha in tal modo una rete primaria di interconnessione fra regioni o addirittura sul piano europeo (l'Italia scambia energia con l'Austria, la Svizzera e la Francia).
• La crisi energetica e i suoi sbocchi
Nella seconda metà del 1973 si scatenò quel fenomeno complesso che oggi viene definito “crisi energetica”. I paesi arabi, fornitori di petrolio a basso prezzo, e altri paesi produttori-esportatori cominciarono una politica di aumento dei prezzi; contemporaneamente emersero cifre più o meno attendibili sulla consistenza delle riserve di petrolio e di carbon fossile esistenti nel mondo, che ne facevano prevedere l'esaurimento a tempi brevi, ossia entro mezzo secolo o addirittura meno. L'impennata dei prezzi del greggio, che, accompagnata da manovre speculative, fiscali e d'altro genere, doveva in pochi anni far aumentare di cinque-sette volte il prezzo dei derivati del petrolio, provocò una serie di reazioni. Nuove campagne di prospezione del petrolio portarono al reperimento di nuovi grandi giacimenti nell'estremo Nord (Siberia, Alasca), nel mare del Nord e in altre zone. Un “censimento” delle riserve di carbone e di gas naturale permise di concludere che tali riserve, anche con un forte ritmo di aumento della domanda di energia (raddoppio in 10 anni della richiesta di energia elettrica, raddoppio in 15 anni della domanda globale), sarebbero state sufficienti, anche senza usare il petrolio, per oltre un secolo. Tornarono d'attualità le tecniche per l'ottenimento di benzina e idrocarburi leggeri dal carbone, lasciate in secondo piano dopo la fine della seconda guerra mondiale, ma di pratico utilizzo e di possibile competitività economica. La tecnica nucleare e i relativi programmi vennero incrementati; il reattore autofertilizzante venne portato avanti e diventò una realtà tra il 1984 e il 1985. Vennero sviluppate le tecniche per l'utilizzo del calore prima dissipato (teleriscaldamento e tecniche simili); nuovi regolamenti prescrissero coibentazioni termiche nelle abitazioni; la massima cura venne riservata alle “fonti alternative” (solari, idroelettriche, geotermiche, eoliche, ecc.). Studi più accurati hanno permesso di concludere che il raddoppio della domanda idroelettrica avviene piuttosto in 15 che in 10 anni, e quella globale in 20 piuttosto che in 15. Praticamente tutte le nuove centrali termiche sono state costruite per utilizzare carbone e non nafta. Il quadro si è assestato progressivamente nel giro di 7-8 anni, tanto che il 1984 e più ancora il 1985 hanno visto in piena crisi i paesi esportatori di petrolio, che il mercato richiede ormai in misura decrescente rispetto ai livelli del 1970-1972. Il mercato dei combustibili si è assestato su accresciute riserve di petrolio, carbone e gas naturale (metano), su un utilizzo sempre più oculato (ossia con minori sprechi) dell'energia e su un utilizzo pur lentamente crescente dell'energia nucleare, essendo ormai, con l'avvento del reattore autofertilizzante, le riserve di combustibile nucleare sufficienti, esse sole, al fabbisogno di energia del mondo per un paio di secoli. Sugli accertamenti quantitativi di petrolio, gas naturale e carbone, le cifre disponibili sono parziali e di non facile interpretazione. Più chiare e attendibili appaiono le cifre relative alla produzione di energia e ai consumi, che salgono con ritmi non così rapidi come quelli ipotizzati prima della “crisi energetica”, ma sempre notevoli. Nel corso degli anni Novanta si sono fatte più insistenti le voci degli scienziati che prevedono imminente una nuova crisi del petrolio: secondo le analisi addotte a sostegno, l'offerta di petrolio convenzionale già entro il 2005 non sarà in grado di tenere il passo con la crescita della domanda. Quali che siano le riserve effettive di petrolio, quello che conta sul piano economico è la loro recuperabilità: nel momento in cui, per le difficoltà crescenti di estrazione, la produzione dovesse ridursi, i prezzi saranno destinati ad aumentare, a meno che il calo della produzione non sia accompagnato da un corrispondente calo dei consumi.
• Crescita della popolazione, dei consumi energetici e consistenza delle riserve
Le cifre relative alle riserve energetiche accertate e previste sono da prendere sempre con molta cautela: gli interessi in gioco sono molti, da un lato, e dall'altro i singoli stati e le compagnie petrolifere non applicano esattamente gli stessi criteri nelle valutazioni, per cui è sempre difficile fornire dati omogenei. Agli inizi del 1994, comunque, le riserve accertate di petrolio risultavano di 137 miliardi di t, a fronte di una produzione di oltre 3100 milioni di t nel corso del 1993: con una produzione costante, le riserve accertate facevano prevedere una durata di 43 anni (43 è il cosiddetto rapporto fra riserva e produzione, che è ottimistico perché si basa su una produzione stabile, anziché in crescita tendenziale).
Per quanto riguarda il gas naturale, si stimavano riserve nell'ordine dei 130 miliardi di tep (tonnellate equivalenti di petrolio). Con una produzione di circa 1900 milioni di tep nel 1993, il rapporto fra riserva e produzione era calcolato in 69.
Le riserve accertate di carbone risultavano pari a 1040 miliardi di tep circa; a fronte di una produzione di 2140 milioni di tep circa nel 1993, il rapporto fra riserva e produzione risultava pari a 485.
Quanto incerti (e facilmente manipolabili) siano dati di questo tipo, lo dimostrano i rapporti ufficiali dell'industria petrolifera, che agli inizi del 1998 davano le riserve accertate di petrolio a un livello tale da garantire ancora più di 43 anni di produzione abbondante e a buon mercato. Le obiezioni mosse in genere alle valutazioni più ottimistiche sono di ordine economico: le stime danno per scontato che la produzione possa rimanere costante, mentre in realtà per ogni giacimento la produzione raggiunge un punto di massimo fino a che non è estratta la metà della riserva e poi comincia inevitabilmente a calare per tendere verso lo zero. Estrarre da un giacimento l'ultimo barile di petrolio è molto più difficile e costo che non estrarre il primo.
Sulla base dei consumi alla metà degli anni Novanta, i combustibili fossili forniscono il 90% del fabbisogno di energia (il solo petrolio rappresenta il 40%), mentre solo il 10% è fornito dalle altre fonti (nucleare, idroelettrica, geotermoelettrica, fonti integrative). Il predominio delle fonti non rinnovabili è quindi nettissimo. D'altro canto, la domanda globale è in crescita, ma in modo non uniforme sul pianeta: i paesi più avanzati (compresi i paesi dell'ex URSS e dell'Europa orientale), con una popolazione pari al 30% del totale, consumano circal'85% di tutta l'energia. I paesi in via di sviluppo, con il 70% della popolazione globale e un consumo attuale pari al 15% del globale, sono quelli in cui la domanda è meno comprimibile e d'altra parte proprio quelli in cui la crescita demografica è più alta e quindi più alta è la prevedibile crescita della domanda. Oltre a evidenziare drammaticamente le differenze fra paesi sviluppati e in via di sviluppo, se abbinati a previsioni di aumenti dei prezzi a tempi relativamente brevi, questi dati non indicano certo prospettive di stabilità economica e politica.
I correttivi possibili sul breve periodo stanno nella conservazione delle risorse non rinnovabili, ottenuta con una migliore efficienza di tutti i processi industriali e di tutti i consumi, mentre sul lungo periodo la soluzione potrà essere soltanto un impiego sempre più esteso, fino a diventare predominante, di fonti di energia rinnovabile, con un possibile contributo tecnologico nella fase di transizione, che consenta un migliore sfruttamento di riserve di fonti non rinnovabili che oggi non possono essere recuperate con costi accettabili.
• La distribuzione delle riserve
La distribuzione delle riserve di combustibili ufficialmente accertate alla metà degli anni Novanta presenta notevoli irregolarità per il petrolio, il cui 66% si trova in Medio Oriente, il 15% nelle Americhe e solo il 5,9% nell'Europa Orientale; il 38% del gas naturale si trova in Europa Orientale, il 30% in Medio Oriente e il 7% nell'America Settentrionale; il carbone è distribuito per il 27,6% in Europa Orientale, il 26,2% nell'America Settentrionale e il 18,9% in Cina; per l'uranio si ha la maggiore distribuzione nell'America Settentrionale (37%) e nell'Europa Orientale (27%). In tutti questi rilievi statistici, come si vede, poco si parla delle fonti alternative “rinnovabili”, in particolare dell'energia solare: ne vedremo i motivi di base, che sono tecnici ed economici.
• L'impatto con l'ambiente
Nei fumi che derivano dall'utilizzo dei combustibili chimici si ritrovano sempre composti inquinanti, quantitativamente preponderanti anidride solforosa (SO2) e ossido di carbonio (CO). La prima, a contatto con l'umidità atmosferica, si trasforma in acido solforico e dà luogo alle “piogge acide”, dannose per i coltivi e tali da esercitare un energico attacco chimico a monumenti, rivestimenti, strutture metalliche e altro. Il secondo è tossico per uomini e animali.
Un secondo elemento inquinante è costituito da polveri, la cui natura dipende da quella dei combustibili, e un terzo dal calore, che, se immesso in un corso d'acqua da una grande centrale, un'acciaieria o altro, può recare seri squilibri ecologici. Il fattore decisamente più pesante è costituito dalle sostanze inquinanti gassose, che la legislazione affronta in base a due “filosofie” diverse. In base alla prima, i fumi vengono controllati all'emissione, e viene prescritto un contenuto massimo di sostanze inquinanti che non deve esser superato (USA, CSI, Giappone e altri). In base alla seconda intrinsecamente meno efficace, viene controllata la concentrazione delle sostanze inquinanti al suolo, in un'area circostante la centrale o l'impianto ove avviene la combustione (Italia, Francia, Gran Bretagna). La prima impostazione punta sul filtraggio dei fumi e quindi sulla limitazione drastica, alla fonte delle sostanze inquinanti, delle quali solamente un modesto residuo passa nell'atmosfera. La seconda si basa sulla “dispersione”, mediante camini molto alti, delle sostanze inquinanti, che non debbono raggiungere “al suolo” una concentrazione superiore a quanto stabilito. Evidentemente tale “filosofia” non è più congruente con i tempi e con le quantità sempre maggiori di combustibili bruciati. Quanto al fattore termico, una centrale da 1.000 megawatt (MW) immette ogni anno nell'ambiente circa 8.500 petacalorie (si calcoli che 1 petacaloria vale 1.000.000.000.000.000 di calorie).
• Le fonti rinnovabili
Rilevanti quantitativi di energia idroelettrica “potenzialmente disponibili” potranno esser captati, pur rimanendo, come abbiamo detto, in percentuale sui fabbisogni globali, entro limiti nettamente inferiori al 10%. L'Europa occidentale, nel suo complesso, utilizza il 57,5% delle sue risorse potenziali, il Nord America il 36,3%, l'America latina e l'Europa Orientale solamente l'8%. Le risorse potenziali, e cioè teoricamente utilizzabili, sono ampiamente distribuite. Espresse in terawattora all'anno, sono 2.300 per l'Europa Orientale, 1.390 per il Nord America, 1.320 per la Cina, 1.730 per l'Africa (intero continente), 1.720 per l'America latina, 1.800 per l'Asia. Il progressivo, e programmato, sfruttamento di tali potenzialità richiederà in ogni caso opere civili imponenti (dighe, sbarramenti, condotte, chiuse, ecc.) e, corrispondentemente, enormi risorse di uomini, mezzi e capitali, e tempi lunghi, valutabili, per ciascuna grande opera, dai cinque ai quindici anni.
Per quanto riguarda l'energia solare, il suo utilizzo è condizionato da troppi fattori perché se ne possa prevedere un grande contributo al soddisfacimento del crescente fabbisogno mondiale. Una centrale solare a specchi o a celle fotovoltaiche, della potenza installata di 1 MW (elettrico) massimo, occupa una superficie di 40.000 m², 100 volte di più di una centrale termica di pari potenza. Un impianto termoelettrico può essere mediamente utilizzato per 6.000 ore l'anno, mentre un impianto solare è utilizzabile per 1.500 ore l'anno. Una proiezione che tiene conto dei costi decrescenti delle celle fotovoltaiche prevede un costo di produzione del kWh elettrico 50 volte superiore a quello di un kWh nucleare. Non è configurabile, in conclusione, una soluzione solare “alternativa” a quella termica convenzionale o nucleare per quanto concerne le centrali elettriche o i grandi impianti che richiedono molto calore. È configurabile un utilizzo “capillare” dell'energia solare mediante pannelli a riscaldamento d'acqua o mediante pannelli di celle fotovoltaiche, per uso domestico e industriale, per ricavarne acqua calda e contribuire al riscaldamento dei locali. Le cifre prevedibili di energia solare utilizzate nel futuro saranno, di conseguenza, come visto, percentualmente modeste, anche se certo non trascurabili.
Per ciò che riguarda l'energia eolica, i dispositivi a rotore che la utilizzano consentono di generare energia elettrica a costi di un certo interesse solo nelle zone ove si ha un vento regolare, a una velocità di almeno 3,5 m al secondo per 2.000 ore l'anno. In Italia tali condizioni si verificano solo sulle isole e in qualche località alpina. I generatori eolici (aeromotori) presentano dimensioni massime del rotore (diametro) di 140 m ca., peso 600 t, potenza 7 MW. Specialmente in zone ventose isolate, collegati a batterie di accumulatori, possono risultare pratici ed economici. Le loro caratteristiche non li pongono però se non in posizione marginale tra gli utilizzatori delle fonti rinnovabili di energia.
• Tendenze in diversi paesi nella produzione di energia elettrica
Quanto a utilizzo percentuale delle varie fonti energetiche disponibili, gli orientamenti dei diversi paesi sono decisamente differenziati. Il piano francese prevedeva uno sviluppo del nucleare fino al 70% circa, la riduzione del petrolio, del gas e del carbone a un totale del 20% circa, lasciando il resto alle fonti idrauliche e solari, ma la decisione della Germania di mantenere il carbone al 50%, di ridurre petrolio più gas al 10%, ma soprattutto di abbandonare il nucleare per il 2000, probabilmente comporterà dei cambiamenti anche nei programmi francesi. La Gran Bretagna prevede 55-60% di carbone, 10% tra petrolio e gas, 20% nucleare, 1-2% per le altre fonti sommate. Come si vede, indirizzi molto differenziati, quali si ritrovano anche nei piani di altri paesi.
Da rilevare l'abbandono dell'Italia del nucleare a cui si unisce anche la prevista rinuncia per il 2025 della Svizzera.
Equilibrio

• Equilibrio statico
Il problema fondamentale della statica consiste nella ricerca delle configurazioni di equilibrio e nella determinazione delle reazioni vincolari di un sistema materiale soggetto all'azione di date forze e a dati vincoli. Il criterio più generale per la soluzione di questo problema è fondato sul principio dei lavori virtuali che stabilisce delle condizioni necessarie e sufficienti per l'equilibrio di un sistema qualsiasi. In particolare, per un sistema rigido tali condizioni si verificano quando il risultante F e il momento risultante M di tutte le forze applicate (forze attive e reazioni vincolari) siano nulli cioè
F = O , M = O.
Queste due equazioni vettoriali, equivalenti a sei equazioni scalari, costituiscono le equazioni cardinali della statica. Quando tali equazioni determinano, oltre alle configurazioni di equilibrio, anche tutte le reazioni vincolari, il problema si dice staticamente determinato o isostatico; in caso contrario il problema è staticamente indeterminato o iperstatico.
Si considerano tre tipi di equilibrio: stabile, instabile, indifferente. L'analisi di questi tipi non può essere fatta dalla statica, ma richiede il concorso alla dinamica. Una configurazione di equilibrio di un sistema si dice stabile quando, spostato di poco il sistema da quella configurazione e comunicatagli una piccola energia cinetica, il moto susseguente continua attraverso configurazioni molto prossime a quella senza che l'energia cinetica cresca sensibilmente. Se invece il sistema evolve verso configurazioni vieppiù lontane e la sua energia cinetica continua a crescere, la configurazione di partenza si dice instabile. Infine, se ci si allontana di molto dalla configurazione iniziale, ma l'energia cinetica rimane costante (dunque piccola), la configurazione si dice di equilibrio indifferente.
• Equilibrio dei corpi immersi o galleggianti
Il principio di Archimede afferma che un corpo immerso in un liquido (o in un fluido) riceve una spinta dal basso verso l'alto pari al peso del fluido spostato e applicata nel centro di spinta P, baricentro del volume di fluido che, in condizioni di equilibrio, occuperebbe il volume occupato dal corpo. Nel caso di un galleggiante, accanto al peso applicato nel baricentro G, si considera la spinta della parte immersa, applicata nel centro di spinta P, detto nelle navi centro di carena. Per l'equilibrio basta che G e P siano sulla stessa verticale. Se P sta sopra G l'equilibrio è stabile, se P sta sotto G l'equilibrio è instabile. Se G e P coincidono, l'equilibrio è indifferente.
Per lo studio della stabilità di un galleggiante quando esso subisce spostamenti finiti intorno alla posizione di equilibrio occorre un'analisi alquanto dettagliata, che comporta, fra l'altro, la nozione di metacentro, cioè del centro di curvatura relativo alla posizione d'equilibrio della curva descritta dal centro di carena durante un movimento di rollio, detta curva di carena.
• Equilibrio dinamico
La nozione di equilibrio si può estendere ai sistemi in moto introducendo le forze d'inerzia. Nel caso di un sistema rigido si può dire che in ogni stato di moto le forze attive, le reazioni vincolari e le forze d'inerzia si equilibrano, nel senso che il risultante e il momento risultante di queste forze sono nulli. In particolare si intende per equilibrio dinamico quel particolare stato del sistema in cui le forze d'inerzia sono identicamente nulle.
Fisica

Scienza che studia le proprietà della materia e della radiazione, intendendo per materia tutto ciò che ha massa e per radiazione ogni fenomeno caratterizzato da una propagazione di tipo ondoso. Fisica atomica, studio della struttura degli atomi, dei loro livelli energetici e delle interazioni con il campo della radiazione elettromagnetica. Fisica classica, complesso delle conoscenze fisiche indipendenti dalle teorie della relatività e della meccanica quantistica. Fisica matematica, studio dei metodi e delle tecniche matematiche più usati nella fisica e in particolare delle equazioni differenziali e integrali. Fisica moderna, complesso delle conoscenze fisiche che fanno uso essenziale delle teorie della relatività e della meccanica quantistica. Fisica nucleare, studio della struttura e delle proprietà del nucleo atomico. Fisica sperimentale, parte della fisica che raccoglie ed elabora informazioni sperimentali sui fenomeni fisici. Fisica teorica, parte della fisica che cerca ed elabora una descrizione razionale e il più possibile unitaria di tutti i fenomeni fisici mediante la formulazione in linguaggio matematico delle loro proprietà. Fisica delle particelle elementari, ramo della fisica moderna che studia la struttura e le proprietà delle particelle subatomiche. Fisica dello stato solido, parte della fisica che studia le proprietà dei solidi e in particolare delle strutture cristalline. Fisica delle basse temperature, parte della fisica che studia le proprietà dei liquidi e dei solidi a temperature molto vicine allo zero assoluto. Fisica sanitaria, scienza a carattere interdisciplinare (radiobiologia, ingegneria biomedica, ecc.), che va acquistando una propria autonoma dignità.
, Fisica
Si esamineranno successivamente le caratteristiche e le suddivisioni della fisica per studiare poi i metodi di cui questa scienza si serve; infine si daranno alcuni cenni storici sulla sua evoluzione.
• Caratteristiche fondamentali
La genesi delle diverse discipline dall'unica “filosofia naturale” degli antichi, che comprendeva tutto lo studio degli eventi della natura, è stata tale da lasciare in certa misura simili gli oggetti della fisica e della chimica. Tuttavia la diversificazione storica degli interessi delle due scienze e una permanente ragione pratica di suddivisione del lavoro portano a distinguere i fenomeni in due grandi classi: quelli in cui le proprietà del corpo in esame subiscono una sostanziale modificazione permanente e quelli in cui non la subiscono; nel primo caso si parla di fenomeno chimico, nel secondo di fenomeno fisico. Così, ad es., l'ossigeno e l'idrogeno, combinati in condizioni opportune, formano l'acqua e le proprietà di questo composto sono essenzialmente diverse da quelle degli elementi originari: lo studio del fenomeno rientra perciò nell'ambito della chimica. Ma quando l'acqua stessa viene raffreddata, e si trasforma in ghiaccio, la sua natura è rimasta inalterata: il cambiamento di stato è perciò un processo studiato dalla fisica.
Tuttavia, questa suddivisione è sempre meno netta, perché a fondamento di tutto il comportamento della materia si trovano i fenomeni atomici e nucleari e sempre più si sente l'esigenza di spiegare eventi, quali le reazioni di combinazione chimica degli elementi, attraverso le proprietà delle molecole, degli atomi, dei nuclei ecc. In questo caso lo sviluppo è stato possibile grazie all'elaborazione dei metodi matematici propri della fisica; ma negli ultimi anni è cresciuto anche l'interesse dei chimici per i problemi relativi alla struttura atomica della materia e il campo di lavoro comune alle due scienze è indagato ora sotto il nome nuovo di fisico-chimica o chimica-fisica.
• Divisioni della fisica
Si possono distinguere due momenti essenzialmente separati nell'evoluzione della fisica: fisica classica e fisica moderna, caratterizzata quest'ultima dalle teorie della relatività e della meccanica quantistica elaborate nell'ultimo mezzo secolo, che hanno rivoluzionato il modo stesso di affrontare lo studio dei fenomeni. Nella fisica classica distinguiamo le seguenti discipline aventi oggetti separati: meccanica, termologia e termodinamica, elettrologia , ottica, acustica e fenomeni ondulatori; ciascuna di esse ha poi risentito della nuova impostazione sorta con la fisica moderna e ne è stata modificata. La fisica moderna è nata dall'elaborazione della teoria della relatività e della meccanica quantistica, e trova il suo massimo campo di studio nella fisica atomica e nucleare, nella fisica delle particelle elementari, nella fisica dello stato solido e nella fisica delle basse temperature.
. Meccanica
Studia le condizioni di moto e di quiete dei corpi e si suddivide in cinematica, dinamica e statica a seconda del particolare aspetto del problema del moto che viene considerato. Nella cinematica il movimento è studiato indipendentemente dalle cause che lo producono: interessa determinare le caratteristiche geometriche della traiettoria del mobile e le grandezze di velocità e di accelerazione, che stabiliscono come la traiettoria stessa è percorsa durante un certo intervallo di tempo. La cinematica è legata quindi alla nozione di spazio e utilizza il tempo come un parametro atto a individuare la successione delle posizioni occupate dal mobile; a questo scopo si deve introdurre un sistema di riferimento spaziale, rispetto a cui descrivere il moto: occorre perciò anche precisare come le equazioni della traiettoria, la velocità e l'accelerazione del corpo dipendano dal sistema di riferimento che si considera. Nella cinematica classica intervengono trasformazioni tra sistemi di riferimento, dette trasformazioni di Galileo, rispetto a cui il tempo è un parametro invariante, universalmente definito; la teoria della relatività introduce invece nella cinematica un concetto di correlazione tra lo spazio e il tempo, che rende diverse le proprietà di trasformazione di velocità e accelerazione.
Nella dinamica si pongono in relazione le caratteristiche della traiettoria con le forze applicate al mobile: per la risoluzione del problema è fondamentale la legge di Newton, secondo cui l'accelerazione a impressa a un corpo è proporzionale alla forza F, cui esso è sottoposto (a = F/m). Si introduce così il concetto di massa m, costante di proporzionalità che nella teoria classica mantiene sempre lo stesso valore, caratteristico di un dato corpo qualunque sia la velocità con cui questo si muove. Anche qui occorre notare che l'espressione dell'equazione fondamentale dipende dal sistema di riferimento e che nella dinamica classica la legge di Newton risulta invariante per trasformazioni di Galilei tra sistemi in moto relativo di traslazione con velocità costante.
Infine, il caso particolare della dinamica, in cui le forze applicate si fanno equilibrio, è studiato dalla statica: l'interesse di questa parte della meccanica è reso anche più grande dal fatto che ogni problema dinamico può essere ricondotto a un problema statico, attraverso la definizione di opportune forze legate al moto; questa impostazione, introdotta con l'enunciazione del principio di d'Alembert, consente così di trasferire i metodi propri della statica, e i risultati conseguiti da questa, allo studio di ogni problema dinamico.
Se si considera la natura del corpo in movimento è necessario distinguere la meccanica in sezioni che differiscono per l'oggetto di cui si studia il moto: meccanica del punto materiale, che tratta un oggetto dotato di massa e di dimensioni spaziali trascurabili; meccanica dei sistemi rigidi, cioè degli insiemi di punti materiali le cui distanze reciproche restano invariate durante il movimento; meccanica dei corpi deformabili, le cui proprietà dipendono dal tipo di sollecitazione cui sono sottoposti. In particolare, rientra in quest'ultima sezione la meccanica dei fluidi (liquidi e aeriformi), che si è sviluppata fin dall'antichità come disciplina di grande interesse: le condizioni di equilibrio, studiate dall'idrostatica, sono state definite dall'enunciazione della legge di Archimede, della legge di Pascal e della legge di Stevino, mentre per il problema dell'idrodinamica i risultati più importanti sono contenuti nel teorema di Bernoulli (per il moto stazionario e senza attrito interno) e nella legge di Poiseuille (per il caso in cui occorre tener conto dell'attrito interno del liquido). Infine presenta un interesse autonomo, e soprattutto è importante perché consente di studiare il caso dei gas, la meccanica di un insieme costituito di un gran numero di particelle: su questo oggetto è stata elaborata la meccanica statistica, che riconduce il problema a concetti di grandezze medie e di distribuzioni di probabilità.
, Termologia e termodinamica
Questa parte della fisica introduce i concetti di quantità di calore e di temperatura e studia i fenomeni connessi con gli scambi di calore e le variazioni di temperatura: dilatazione dei corpi, propagazione del calore (per conduzione, convezione o irraggiamento), cambiamenti di stato (fusione e solidificazione, vaporizzazione e liquefazione, sublimazione); le proprietà delle soluzioni, le trasformazioni in calore dell'energia meccanica, elettrica (effetto Joule), chimica (termochimica). Questi ultimi fenomeni, che dimostrano che il calore è una forma particolare di energia, sono oggetto di studio della termodinamica, che tratta le relazioni tra proprietà termiche e meccaniche; in essa si sono stabiliti due princìpi fondamentali: 1. vi è un'equivalenza tra energia termica e meccanica; 2. non tutta l'energia termica posseduta da un sistema può essere trasformata in energia meccanica, mentre può accadere il processo contrario. La spiegazione della relazione che collega il calore all'energia meccanica è data dalla teoria cinetica della materia e soprattutto per i gas essa è raggiunta per mezzo della meccanica statistica, che permette di ricondurre le proprietà termiche di un sistema (temperatura, quantità di calore, entropia, ecc.) ai valori medi delle variabili dinamiche di tutte le particelle del sistema.
r Elettrologia
Ha per oggetto i fenomeni elettrici e magnetici e le interazioni tra essi: poiché l'esperienza dimostra che una carica elettrica in moto (quale, ad es., la corrente in un conduttore) produce effetti simili a quelli prodotti da un magnete, occorre distinguere i fenomeni connessi con particelle in quiete (elettrostatica e magnetostatica) oppure con cariche in movimento (elettrocinetica). Tutte le proprietà dell'elettromagnetismo possono essere dedotte dalle quattro equazioni di Maxwell, che determinano completamente il campo elettromagnetico generato da un'assegnata distribuzione di cariche e correnti. Le equazioni di Maxwell, diversamente dalla legge di Newton, non sono invarianti rispetto alle trasformazioni di Galileo. Proprio questa caratteristica delle equazioni di Maxwell è stata all'origine dell'elaborazione della teoria della relatività.
r Ottica
Parte della fisica che ha per oggetto i fenomeni luminosi; benché ora sia noto che la luce non è altro che propagazione di onde elettromagnetiche, è ancora utile tuttavia considerarne lo studio come una disciplina a sé stante. Per ragioni storiche, e per le diverse caratteristiche fisiche dei fenomeni considerati, conviene distinguere l'ottica geometrica e l'ottica ondulatoria: nella prima, si considerano problemi in cui la lunghezza d'onda della radiazione luminosa è trascurabile rispetto alle dimensioni degli oggetti ch'essa incontra sul suo percorso; si può allora sostituire al concetto dell'onda che si propaga quello del raggio luminoso (direzione perpendicolare al fronte d'onda) e si studiano così i fenomeni di riflessione e rifrazione e la formazione delle immagini negli strumenti ottici (specchi, lenti, prismi). Molti fenomeni possono invece essere interpretati solo nell'ambito dell'ottica ondulatoria, che studia, ad es., le proprietà di diffrazione, di interferenza, di polarizzazione, di diffusione. Appartiene anche all'argomento dell'ottica la spettroscopia, che studia gli spettri di emissione e di assorbimento dei corpi.
, Acustica e fenomeni ondulatori
La propagazione per onde è un fenomeno di grande interesse anche in altri campi della fisica; ogni volta che un mezzo elastico è sottoposto a una perturbazione, questa genera un movimento vibratorio che si propaga per onde: lo studio di queste vibrazioni rientra nel dominio della teoria dell'elasticità. In particolare la perturbazione può consistere in una produzione di rarefazioni e compressioni in un mezzo, e si genera allora un'onda che si propaga nello spazio circostante. Se la frequenza dell'onda è compresa nel campo di udibilità si ha un suono, considerato attualmente come l'insieme del fenomeno fisico della propagazione per onde e delle sensazioni fisiologiche prodotte nei soggetti viventi. Si usa peraltro ancora mantenere la distinzione fra lo studio dei fenomeni fisici connessi alla propagazione e al passaggio da un mezzo all'altro (attenuazione, assorbimento, riflessione, diffrazione, interferenza, diffusione), che viene chiamata acustica fisica, e lo studio delle proprietà fisiologiche del suono (sensazione sonora, altezza, timbro, ecc.) che unito ai fenomeni relativi (mascheramento, affaticamento, localizzazione spaziale, ecc.), alle modalità di emissione della voce umana (fonazione) e alle sue proprietà fisiche costituisce l'acustica fisiologica.
Lo studio delle proprietà e degli strumenti atti a generare quei particolari suoni complessi armonici chiamati musicali costituisce l'acustica musicale. A questa si affianca l'acustica ambientale, che studia i fenomeni acustici relativamente agli ambienti in cui sono prodotti.
L'elettroacustica è lo studio delle trasformazioni tra energia acustica ed energia elettrica e viceversa.
Il campo studiato dall'acustica si è esteso anche alle vibrazioni di frequenza inferiore o superiore a quella dei suoni percepibili dall'orecchio umano (infrasuoni e ultrasuoni) e ha fornito metodi di indagine utili anche in altri problemi inerenti i fenomeni elastici, quali ad es. la propagazione di onde attraverso il sottosuolo terrestre. La disciplina è importante anche per lo studio dell'inquinamento acustico e per la realizzazione di misure di prevenzione e controllo relative.
i Teoria della relatività
Elaborata da Einstein, comprende la relatività ristretta e la relatività generale. La relatività ristretta si propone di formulare le leggi della fisica in modo che siano invarianti per trasformazioni tra sistemi di riferimento in moto relativo di traslazione con velocità costante, introducendo a questo scopo una definizione del tempo non più come parametro universale (quale è dato nella meccanica classica, v. sopra), ma come grandezza definita in un certo sistema di riferimento, in modo tale da soddisfare la proprietà (provata dall'esperienza di Michelson del 1889) che la velocità c della luce nel vuoto è costante e indipendente da ogni sistema di riferimento. Da questa impostazione si deducono nuove proprietà per i moti di corpi a grandi velocità, mentre per velocità trascurabili rispetto a quella della luce la meccanica relativistica si riduce al limite classico; una conseguenza particolarmente importante della teoria è la dipendenza della massa di un corpo dalla sua velocità, che è in contraddizione con il principio di costanza della massa ipotizzato dalla dinamica classica, e l'equivalenza tra massa m ed energia E: E=mc². La relatività generale enuncia le leggi fisiche in modo che siano invarianti rispetto a trasformazioni anche tra sistemi di riferimento in moto accelerato l'uno rispetto all'altro: secondo la teoria di Einstein ogni accelerazione è equivalente all'effetto di un campo gravitazionale, e alla gravitazione sono legate le proprietà geometriche dello spazio-tempo. La relatività generale è particolarmente importante per la comprensione del campo gravitazionale e delle proprietà dell'universo: anche qui, come per la relatività ristretta, il caso classico della teoria gravitazionale di Newton è un'approssimazione limite della relatività generale.
Il legame stretto che la teoria della relatività introduce fra gravitazione e geometria si estende, oltre che all'universo su grande scala, ai fenomeni su scale molto piccole: benché fra teoria della relatività e fisica quantistica vi siano differenze metodologiche significative, in tempi recenti si sono avuti molti punti di convergenza fra le due, e tecnologie raffinate hanno permesso di misurare direttamente gli effetti gravitazionali sulle particelle elementari.
a Teoria dei quanti e meccanica quantistica
Originata dalla necessità di spiegare fenomeni fisici (quali l'effetto fotoelettrico, l'effetto Compton, l'emissione del corpo nero e tutti i fenomeni spettroscopici) non interpretabili mediante la meccanica classica di Newton e l'elettrodinamica classica di Maxwell, la teoria quantistica stabilisce sostanzialmente che la fisica classica non può essere applicata a sistemi dinamici microscopici (di dimensioni circa 108 cm, o inferiori a queste). Poiché la determinazione di una grandezza fisica richiede che avvenga un'interazione tra il dispositivo di misura e l'oggetto osservato, dobbiamo chiederci se l'interazione stessa non alteri in modo sostanziale la situazione fisica dell'oggetto, sì da rendere anche concettualmente impossibile la determinazione delle sue condizioni dinamiche: e questo processo avrà effetti certo più rilevanti per i sistemi microscopici che non per quelli macroscopici. Consideriamo, ad es., la determinazione della posizione di una particella; per poterla compiere è necessario illuminare la particella, ma illuminare significa inviare fotoni con un certo impulso e questi, incidendo sul corpuscolo, ne mutano la velocità in modo non trascurabile, a differenza del caso classico - cioè dei sistemi macroscopici - in cui l'ordine di grandezza delle dimensioni e dell'impulso dell'oggetto osservato è tale che in confronto a esso è lecito non tener conto dell'alterazione prodotta dall'apparato di misura. Dall'analisi di un processo del genere risulta che è impossibile determinare contemporaneamente con una precisione prefissata grandezze quali la posizione e l'impulso di una particella: l'equazione del moto della meccanica quantistica (equazione di Schrödinger) è perciò tale che la sua soluzione non dà la posizione (o l'impulso) del punto - o del sistema - in un certo istante, ma piuttosto la probabilità che il punto - o il sistema - si trovi in quell'istante in quella posizione (o abbia quel certo valore dell'impulso). Inoltre, l'energia del sistema che soddisfa a questa equazione non assume in genere valori continui, come nel caso classico, bensì discreti (o “quantizzati”): si ottiene così una spiegazione coerente dell'emissione e dell'assorbimento di radiazione da parte dei sistemi atomici, che avviene sempre per quantità discrete (quanti di energia). Il risultato fondamentale della teoria è quello di porre sullo stesso piano radiazione e materia: entrambe aspetti di una stessa realtà fisica, esse manifestano la natura di corpuscoli oppure di onde a seconda del tipo di interazione che avviene nel processo di osservazione.è
Fisica atomica e fisica nucleare
Poiché studiano particelle e sistemi che hanno dimensioni microscopiche (inferiori a 108 cm circa) e sono dotati di velocità spesso confrontabili con la velocità della luce, queste sezioni della fisica moderna fanno uso della teoria quantistica e della teoria della relatività. La fisica atomica studia principalmente la struttura degli atomi e i loro livelli di energia, e la spettroscopia relativa alle transizioni di elettroni da un livello energetico a un altro, esaminando quindi in modo particolare le interazioni degli atomi con il campo elettromagnetico. L'oggetto della fisica nucleare comprende lo studio della struttura del nucleo atomico, l'analisi dei suoi livelli energetici, l'interpretazione dei possibili processi di interazione tra nuclei e altre particelle subatomiche o radiazioni (reazioni nucleari) e soprattutto la ricerca di una teoria soddisfacente delle forze nucleari.
i Fisica delle alte energie
L'elemento più pesante (cioè avente numero atomico Z più elevato) esistente in natura finora noto è l'uranio, avente Z = 92. Tuttavia i fisici nucleari hanno teorizzato l'esistenza e la stabilità di elementi ancora più. La possibilità di dimostrare l'esistenza di tali elementi è offerta tanto dalla tecnica di cattura neutronica nei reattori nucleari che da quella del bombardamento ad alta energia realizzabile negli acceleratori lineari. Nei reattori, dall’inizio dell’era nucleare, si sono sintetizzati elementi che oggi arrivano fino al numero atomico 106: forse il più famoso fra questi, per via anche delle sue applicazioni militari, è il Plutonio (numero atomico 94). Utilizzando viceversa gli acceleratori di ioni pesanti nel 1970 è stato “realizzato” un elemento con numero atomico 105 (denominato col nome provvisorio di dubnio o, dai tedeschi, hanio, in ricordo di Otto Hahn, scopritore della fissione nucleare). Successivamente sono stati scoperti elementi aventi Z ancora maggiore, tuttavia tutti con vita media estremamente breve, cioè non stabili. Nel 1971 un gruppo di ricercatori inglesi accelerando protoni contro un bersaglio (target) di tungsteno, a una energia tale da impartire ad alcuni nuclei del tungsteno l'energia sufficiente per vincere le forze di repulsione coulombiana e fondersi con altri nuclei vicini, crearono nuovi nuclei, i quali, a loro volta, decaddero in uno stato energetico stabile, corrispondente a un elemento avente Z = 112. Tuttavia questo risultato fu accolto con molta cautela, e anzi alcuni fisici sostennero che la sezione d'urto di collisione che i protoni avevano nel colpire il bersaglio di tungsteno non poteva essere sufficiente a provocare i risultati riportati. L’interesse di questo filone di ricerca sperimentale sta anche nel fatto che le attuali teorie sulla struttura del nucleo atomico fanno prevedere la presenza di una “isola” di stabilità per elementi con numero atomico attorno a 114 e un’altra ancora per Z=164.
Fisica delle particelle elementari
Il numero delle particelle subatomiche scoperte sperimentalmente è aumentato con l'entrata in funzione di acceleratori di particelle sempre più potenti. Mettere ordine nel catalogo che ne è risultato è stato difficile (e non è detto che il compito sia stato assolto a pieno). Il “modello standard” adottato nel corso degli anni Novanta vede solo dodici particelle come fondamentali, divise in due famiglie: quella dei quark e quella dei leptoni. Della prima fanno parte i quark su (up, u), giù (down, d), strano (strange, s), incanto (charm, c), basso (bottom, b) e alto (top, t); della famiglia dei leptoni, invece, fanno parte l'elettrone, il muone, la particella tau e i relativi neutrini (elettronico, muonico e tauonico). Per ciascuna particella esiste poi l'antiparticella corrispondente. I quark e gli antiquark si combinano a formare particelle più complesse, che prendono il nome di adroni (inizialmente si pensava che adroni e leptoni fossero le due famiglie di particelle “elementari”). Gli adroni a loro volta si dividono in sottofamiglie, a seconda del tipo di composizione: ci sono quelli composti da tre quark, che prendono il nome di barioni, quelli formati da tre antiquark (antibarioni) e quelli formati da un quark e un antiquark (mesoni).
Le forze che agiscono fra particelle, d'altra parte, possono essere di quattro tipi: le classiche forze gravitazionale ed elettromagnetica, la forza forte (che agisce sui quark), la forza debole.
La ricerca in questo campo è focalizzata, sin dagli anni Sessanta, sulla formulazione di teorie in grado di “unificare” queste forze, cioè di fornirne un quadro unico e coerente. Una teoria soddisfacente che unificava la forza elettromagnetica e quella debole nell'ambito dell'elettrodinamica quantistica (QED, quantum electrodynamics) è stata formulata da A. Salam e S. Weinberg e nota con il nome di teoria elettrodebole. La teoria prevedeva l'esistenza di tre particelle (W+ W- e Z) portatrici dell'interazione debole, che sono state poi effettivamente scoperte. Teorie come quella elettrodebole si basano sul concetto delle simmetrie unitarie, secondo cui fra le varie particelle devono intercorrere relazioni di approssimata simmetria (relazioni che vengono matematicamente definite applicando le teorie dei gruppi).
Una teoria analoga all'elettrodinamica quantistica, basata a sua volta sul concetto di simmetria, ha permesso di trattare le interazioni forti, che risultano mediate da particelle denominate gluoni (dall'inglese glue, colla), perché sono quelle che tengono uniti i quark. I gluoni portano una carica (l'analogo della carica elettrica delle interazioni elettromagnetiche) denominata colore: la teoria nel suo complesso è stata chiamata cromodinamica quantistica(QCD, quantum chromodynamics).
Rimane da integrare in un'unica teoria di grande unificazione (GUT, great unification theory) la forza gravitazionale, ma i buoni risultati della QCD lasciano sperare che il compito non sia impossibile.
) Fisica dello stato solido
Questo ramo della fisica, esistente già nel secolo scorso, subì un salto qualitativo verso il 1930, quando l'applicazione della meccanica quantistica e statistica allo studio dei solidi e dei cristalli permise di dare un'interpretazione quantistica coerente di molte delle loro principali proprietà a partire da quelle dei nuclei e degli elettroni che li costituiscono. La fisica dello stato solido, grazie alle sue sicure basi concettuali, ha ottenuto successi sia in campo teorico (nell'interpretazione della struttura e delle proprietà dei solidi), sia nelle applicazioni pratiche come, ad es., quelle relative al diodo a semiconduttore e al transistor. Da qualche tempo si preferisce parlare di fisica della materia condensata e far rientrare in questo ambito d'indagine le ricerche sui sistemi composti da un gran numero di elementi e in particolare sui semiconduttori e sulla superconduttività.
p Fisica delle basse temperature. Superfluidità
L'applicazione della meccanica quantistica ai fenomeni che si manifestano nei metalli a bassa temperatura fu in grado di spiegare in modo soddisfacente la superfluidità riscontrata nell'isotopo normale dell'elio (He4) e la superconduttività in numerosi metalli. Gli stessi presupposti teorici fecero pensare all'esistenza di fenomeni analoghi anche nell'isotopo leggero dell'elio liquido (He³). Solo nel 1973, però, è stata conseguita una serie di risultati sperimentali che hanno confermato la fondatezza di quell'ipotesi. L'isotopo (He³) presenta un cambiamento di fase, tipico di una transizione da uno stato normale a uno superfluido al di sotto di 3 mK (103 K). In realtà, al di sotto di quella temperatura, davvero molto bassa, l'elio-3 possiede addirittura almeno tre fasi con proprietà radicalmente differenti da quelle della fase normale, che sono collettivamente chiamate “elio-3 superfluido”. Le applicazioni della superfluidità sono ancora poche (avvengono soprattutto nel raffreddamento di altri materiali), ma le proprietà di un materiale superfluido sono davvero affascinanti: fluisce senza attrito in capillari sottili, si arrampica sulle pareti del recipiente che lo contiene (il fenomeno è chiamato “pellicola strisciante”), riscaldato in determinate condizioni zampilla in modo spettacolare (fenomeno detto “effetto fontana”).
i Superconduttività
Tra le applicazioni della superconduttività, quella relativa alla realizzazione di forti campi magnetici trova il proprio interesse in particolare nell'aver reso possibile un ulteriore avanzamento nella tecnologia costruttiva degli acceleratori nucleari. Come si sa, l'intensità di campo magnetico massima realizzabile con un magnete a materiale superconduttore è frutto di un compromesso con la temperatura critica di quel materiale, la quale tende ad abbassarsi drasticamente all'aumentare dell'intensità del campo.
Le ricerche si sono quindi orientate verso la realizzazione di materiali superconduttori che presentino una temperatura critica Tc e una intensità di campo magnetico critica Hc (al di sotto della quale non ci sono variazioni delle proprietà superconduttrici) sempre più elevate. Nel 1986 K. A. Muller e J. G. Bednorz hanno scoperto che ossidi a base di rame, lantanidi e metalli alcalino-terrosi presentavano caratteristiche di superconduttività a temperature superiori (28 K) a quelle note fino ad allora, ossia 23 K per le leghe di niobio e germanio. In seguito sono stati prodotti ossidi di ittrio, bario e rame che hanno una temperatura critica (90 K) superiore a quella dell'azoto liquido; ulteriori composti hanno permesso di rilevare il fenomeno della superconduttività anche al di sopra dei 125 K. Le proprietà di questi superconduttori ad alta temperatura, diverse da quelli a bassa temperatura, si spiegherebbero con la particolare struttura cristallina di questi composti.
i Fisica del laser
La fisica del laser ha conosciuto negli ultimi anni notevoli progressi sia nella ricerca di base, con la sofisticazione di modelli già esistenti o la messa a punto di nuovi, sia in quella applicativa, con l'individuazione di numerosi campi nei quali l'impiego della luce laser si rivela particolarmente proficuo. L'attenzione dei ricercatori si è ultimamente rivolta in modo particolare al laser a gas (anidride carbonica, xeno, cripto, ecc.) che grazie all'elevata purezza e stabilità e alla bassa densità dei gas consente di ottenere una buona monocromaticità, direzionalità e stabilità con potenze elevate. Tuttavia notevole interesse continuano a suscitare fra gli altri i laser organici (o a coloranti, così chiamati appunto perché il materiale radiante è un colorante organico) e quelli al neodimio. I primi presentano i vantaggi di emettere in un qualsiasi punto del visibile, a seconda del colorante impiegato, e di poter essere accordati in modo tale da poter far variare la luce emessa con continuità all'interno di una certa gamma di lunghezze d'onda. I secondi offrono invece il vantaggio di rendimenti elevati con la conseguente possibilità di ottenere notevoli potenze del raggio emesso. Lo sforzo dei ricercatori per la messa a punto di laser in grado di offrire una potenza sempre maggiore si colloca all'interno di una prospettiva applicativa che, specialmente negli ultimi anni, è diventata centrale: la fusione termonucleare controllata. In particolare il raggio di luce laser avrebbe il compito di innescare la reazione fra due atomi di deuterio per la produzione di un neutrone energetico: D + D  He³ + n.
Onde gravitazionali
La rivelazione di onde gravitazionali, previste dalla teoria generale della relatività di Einstein, effettuata da Joseph Weber nel 1969, ha suscitato un notevole interesse dei ricercatori in questo campo. Tuttavia vari tentativi di ripetere l'esperienza di Weber hanno avuto finora risultati deludenti. Essi sono stati tutti basati sulla ricerca originale di Weber, centrata sulla teoria della rivelazione delle onde gravitazionali e sulla costruzione di rivelatori per la misura della curvatura dinamica dello spazio con una precisione ancora insuperata. Molte ipotesi sono state fatte sulle possibili fonti di radiazione gravitazionale, e sul valore possibile del flusso con il quale la radiazione dovrebbe essere rivelata sulla terra; stelle di neutroni, pulsar, supernovae, esplosioni in quasar e nuclei galattici sono ritenute le fonti principali. Tuttavia ogni futuro ampliamento delle conoscenze sulla fisica delle onde gravitazionali è strettamente legato al progresso nella tecnologia della rivelazione. Vari laboratori stanno tentando di realizzare rivelatori più sensibili di quelli di Weber, pur basati sullo stesso principio; un tipo di rivelatore diverso è l'interferometro laser, in cui un fascio laser viene diviso in due fasci, riflessi poi da specchi e fatti tornare al punto di partenza, dove interferiscono; il passaggio di un'onda gravitazionale dovrebbe far variare la lunghezza di uno dei due percorsi, generando quindi nel punto d'incontro dei due fasci riflessi figure di interferenza diverse.
r Fisica sanitaria
Ai nostri giorni si evidenzia, nell'evoluzione della scienza medica, una crescita del ruolo assunto da metodiche di diagnosi e cura che sfruttano sofisticate apparecchiature, frutto del progresso scientifico e tecnologico: tomografia assiale computerizzata (TAC), tomografia a risonanza magnetica nucleare (RMN), tomografia a emissione di positroni (PET), laser, betatrone, acceleratore lineare (LINAC), e così via. Ai servizi di fisica sanitaria ospedalieri, in Italia come negli altri paesi più progrediti, competono dunque funzioni considerate ormai irrinunciabili in alcuni settori, come la radiologia e la medicina nucleare, mentre la loro collaborazione viene sempre più richiesta anche nell'ambito di altre specialità mediche, come la cardiologia, l'audiologia, l'oftalmologia, ecc. È noto che attualmente la “filosofia” della medicina tende a privilegiare la tutela della salute, e quindi l'aspetto preventivo dell'intervento sanitario rispetto a quello diagnostico-terapeutico. In tale contesto si colloca l'altro settore di attività, proprio della fisica sanitaria, costituito dalla radioprotezione, o protezione sanitaria contro i rischi derivanti dall'impiego delle radiazioni, ionizzanti e non ionizzanti.
• Metodi della fisica
La fisica è essenzialmente una scienza sperimentale. Ciò significa che essa si basa innanzi tutto sull’osservazione attenta dei fenomeni naturali e poi sull’esperimento, cioè sulla ripetizione in condizioni controllate del fenomeno che si intende studiare. In effetti i fatti che avvengono in natura sono in generale molto complessi e presentano aspetti diversi e una pluralità di eventi concomitanti. L’osservazione ripetuta consente di cogliere le regolarità, cioè l’insieme dei fattori effettivamente collegati fra loro: quelli che viceversa hanno carattere accidentale vengono evidenziati proprio dalla loro presenza saltuaria e scorrelata rispetto al fatto principale. Nell’esperimento il ricercatore riproduce il fenomeno in condizioni semplificate e controllate in modo tale da poter verificare l’influenza dei diversi parametri in gioco. L’osservazione, tanto in condizioni naturali che in laboratorio, era inizialmente effettuata mediante l’uso dei sensi: Galileo osservava con gli occhi il moto dei corpi che scendevano lungo i suoi piani inclinati e si avvaleva di strumenti molto semplici per la misura dei tempi. In realtà risultò ben presto evidente che la precisione dei nostri sensi non era per lo più sufficiente per estrarre in modo attendibile dall’esperimento i dati necessari alla formulazione di precise leggi fisiche. Fu così che si misero in opera vari accorgimenti per potenziare i sensi stessi; esempio tipico sono gli strumenti ottici, quali telescopi e microscopi: Galileo poté effettuare le sue osservazioni sui satelliti Medicei di Giove grazie al suo cannocchiale. In sostanza si sostituirono e si sostituiscono ai nostri occhi, ai nostri orecchi e in generale ai nostri sensi, degli opportuni sensori in grado di captare luce o altri segnali elettromagnetici, vibrazioni meccaniche, piccolissimi spostamenti e altro, e poi, tramite un apparato di misura, di amplificare (o attenuare) e convertire tutto ciò in informazioni accessibili alla vista o all’udito. L’informazione finale può essere resa manifesta dalla posizione di un indice su di una scala oppure, oggi sempre più spesso, appare in forma di una serie di cifre visibili su di un display alfanumerico. La complessità e la scala, spesso lontanissima dai fatti della vita quotidiana, di molti fenomeni che la fisica contemporanea studia, sono tali da far sì che la catena che intercorre tra l’oggetto di analisi e l’informazione finale presentata allo scienziato contenga sostanzialmente già una parte dell’interpretazione a priori del fenomeno stesso. Lo spazio dell’intuizione immediata è virtualmente scomparso, mentre la teoria della misura acquista un valore centrale e vitale. Osservazioni ed esperimenti non sono naturalmente fini a se stessi né debbono servire semplicemente per classificare e descrivere razionalmente i fenomeni. L’obiettivo dei fisici è quello di desumere dai fatti le leggi che li governano e consentono di spiegare quelli osservati e prevederne di nuovi. In realtà l’idea di legge di natura che viene scoperta dallo scienziato è un po’ ingenua. Per lo più il fisico, mettendo insieme le conoscenze acquisite, giunge a formulare delle ipotesi razionali a riguardo di quali sono i parametri significativi e quali i nessi formali che li collegano, formulati ed espressi in termini matematici. Queste ipotesi consentono di progettare nuovi esperimenti prevedendone i risultati: se la previsione trova riscontro nei fatti, l’ipotesi di partenza ne esce corroborata, diversamente essa deve essere modificata o abbandonata (come avvenne per l’ipotesi dell’esistenza dell’etere cosmico come mezzo per la propagazione delle onde elettromagnetiche). Obiettivo della scienza è quello di spiegare il maggior numero di fatti col minor possibile numero di ipotesi. Diverse ipotesi correlate fra loro che permettono di interpretare unitariamente fenomeni a priori non connessi gli uni agli altri costituiscono una teoria (teoria cinetica dei gas, teoria elettromagnetica della luce, teoria dei quanti, ecc.). La bontà di una teoria si fonda sulla solidità delle ipotesi che la compongono e sulla capacità di indicare intere classi di nuovi fenomeni diversi da quelli per spiegare i quali essa è stata formulata. Naturalmente anche per una intera teoria, come per le singole ipotesi, vale il fatto che se gli esperimenti effettuati per verificarne le previsioni danno un esito negativo o comunque imprevisto la teoria deve essere o modificata o abbandonata. Teorie a priori non verificabili, o, come si dice, non falsificabili per esperimento o osservazione, non hanno in generale validità scientifica. Periodicamente, più in passato che oggi, si riaffaccia l’aspirazione o la speranza di formulare una definitiva teoria del tutto, cui nulla sfugga e che abbia carattere conclusivo, ma sono in generale i fatti a frustrare questa idea. In realtà la fisica, come le altre scienze sperimentali, è in continua evoluzione: le sue teorie si modificano e si affinano via via, al comparire di nuovi fenomeni e l’idea stessa di poter scrivere un giorno la parola fine allo sviluppo della conoscenza si pone al di fuori delle affermazioni a carattere scientifico.
p I princìpi
Nella formulazione di ipotesi e leggi scientifiche emergono alcune ricorrenze e regolarità che concernono classi molto diverse di fenomeni e che però, per quanto costantemente verificate dall’esperimento, non mostrano ragioni a priori di validità incondizionata. Queste regolarità di comportamento espresse in forma di norma universale prendono il nome di principi. Essi sono in genere semplici e, poiché sono di natura ipotetica, restano validi soltanto finché non si osservano fenomeni che li contraddicano. Un esempio di un principio fisico fondamentale nella fisica è quello della conservazione dell'energia: esso non è mai stato smentito fino ai nostri giorni, anche se alcuni passaggi dell’elettrodinamica quantistica fanno riferimento a processi virtuali per i quali il principio di conservazione dell’energia non è rispettato. Per quanto “fondamentali” i principi della fisica vivono comunque di vita precaria, nel senso che qualunque fatto nuovo che li smentisca ne determina l’abbandono o quanto meno il ridimensionamento, come avvenne nel caso del principio di equipartizione dell'energia nella teoria dell'irraggiamento, il cui abbandono costituì il preludio della teoria dei quanti. Tra i princìpi attualmente accettati, oltre a quello della conservazione dell'energia, si possono citare il principio di minima azione, il principio di relatività di Einstein, i due princìpi della termodinamica. Qualche volta dei principi fisici possono assolvere a una funzione simile a quella degli assiomi matematici: partendo da essi è possibile dedurre per via logico matematica un corpo di conseguenze talmente ampio da costituire una vera e propria disciplina autonoma come nel caso, ad esempio, della termodinamica.
Possiamo ricapitolare il procedimento fin qui delineato che porta al definirsi di un corpo sistematico di conoscenze scientifiche. Il primo passo sta nell’osservazione e nell’esperimento, dopodiché l’analisi dei dati acquisiti consente, con metodo induttivo, di individuare delle leggi fisiche. Queste esprimono in forma matematica i nessi causali che sussistono fra diverse grandezze fisiche; esempi di leggi fisiche possono essere le leggi di Boyle-Mariotte, di Gay-Lussac, di Joule, di Ohm, ecc. La validità di una legge riposa sulla verifica sperimentale delle sue predizioni, verifica che però non è mai semplice. Uno dei problemi, negli esperimenti, è che i risultati ottenuti sono sempre affetti da un certo grado di incertezza; ciò avviene per una quantità di motivi diversi legati alla natura dell’esperimento e alle caratteristiche della procedura e degli strumenti utilizzati. In qualche caso l’incertezza è dovuta a veri e propri errori sistematici di misura, incontrollabili fino a tanto che non se ne sia individuata la presenza, ma correggibili quando la loro presenza sia stata riconosciuta. A prescindere dagli eventuali errori sistematici vi sono poi una quantità di perturbazioni accidentali che possono influenzare l’esito di una misura; l’effetto di queste perturbazioni, proprio per via della loro aleatorietà, non è determinabile a priori, è però contenibile, con opportuni accorgimenti entro limiti, questi sì, prevedibili. Per via di questa situazione nessuna misura può fornire risultati esatti, anzi lo stesso concetto di valore esatto è privo di significato. Ciò che si ottiene è l’indicazione che il valore di una data grandezza fisica è contenuto in una fascia di possibili valori, l’incertezza appunto della misura; fascia che ci si sforza di ridurre il più possibile, ma che non può mai essere azzerata. La conferma sperimentale di una legge fisica risente dunque di questi limiti ed è lo stesso affinarsi dei procedimenti di misura che può, col tempo, finire per mettere in dubbio ciò che in un primo momento poteva parere assodato. D’altro canto non sempre si riesce a dar conto compiutamente di determinate regolarità e ricorrenze che si riscontrano nei dati. In questi casi si individuano quelle che si possono definire leggi empiriche; esse vengono formulate mediante espressioni contenenti parametri ad hoc il cui significato fisico inizialmente sfugge in tutto o in parte, ma il cui valore è suggerito dall’esperienza. Si può in qualche caso anche fare a meno di una formulazione matematica diretta ricorrendo alla presentazione grafica o tabellare, da utilizzarsi, mediante procedimenti di interpolazione ed estrapolazione, per dedurre valori non direttamente misurati. Le relazioni empiriche sono molto spesso lo stadio preliminare della definizione di una nuova legge fisica e di una compiuta teoria di una certa classe di fenomeni. Un esempio in tal senso sta nell’interpretazione del fenomeno dell'irraggiamento termico della materia, e più particolarmente quello dello spettro energetico dell'irraggiamento prodotto da una cavità portata a una certa temperatura (irraggiamento del “corpo nero”). Dopo che furono proposte diverse formule approssimate per rappresentare questo spettro energetico, una formula esatta, ma empirica, fu scoperta da Max Planck. Tuttavia una formula empirica, per quanto esatta, non è soddisfacente per il fisico, perché resta isolata, sterile, non implica nessi con altri fenomeni, finché non sia stato possibile darne un'interpretazione teorica. Nell'esempio appena citato, lo stesso autore della formula empirica propose un'ipotesi teorica dalla quale la si poteva logicamente dedurre. Negli anni che seguirono, numerosi lavori, tanto sperimentali quanto teorici, dimostrarono la fecondità dell'ipotesi di Planck, che ha costituito il punto di partenza di un corpo di dottrina, quello della fisica quantistica. Oggi nell’esplorare i confini dell’estremamente piccolo e dell’estremamente grande la fisica finisce spesso e per necessità coll’allontanarsi nuovamente dalla dimensione della sperimentalità, o quanto meno, della sperimentalità praticabile. Ciò spinge a sviluppare sempre più attività essenzialmente speculative in cui le deduzioni logiche che vengono formulate ricorrono in modo massiccio ad un formalismo matematico sempre più astratto e complesso. La matematica comunque, anche nell’ambito sperimentale, ha acquistato un ruolo sempre crescente nella fisica che si serve sistematicamente di algoritmi matematici assai complessi, come l'algebra formale, la teoria delle funzioni, il calcolo differenziale e integrale, il calcolo vettoriale e l'analisi tensoriale, il calcolo delle matrici, la teoria dei gruppi per lo studio delle simmetrie dei fenomeni fisici, il calcolo delle probabilità, ecc. Questo tecnicismo spinto, insieme con l’apertura di filoni e campi di ricerca specialistici e sempre nuovi, tende a favorire una frammentazione della fisica rendendo difficile la percezione non meramente superficiale del quadro d’insieme e compromettendo un poco quell’universalità della conoscenza che era fra gli ideali di quell’umanesimo all’interno del quale la scienza moderna si sviluppò.
Massa

Fisica
La massa è comunemente definita come la quantità di materia di un corpo, e poiché l'espressione quantità di materia non è ben chiara, si suole dire che macroscopicamente le cose vanno come se la locuzione avesse un senso ben preciso: in questo modo il concetto di massa è stato introdotto da Newton nei suoi Philosophiae naturalis principia mathematica (1687). L'idea che tutti i corpi posseggano una proprietà dipendente in modo esclusivo dalla materia di cui sono costituiti è suggerita dall'esperienza per cui, a parità di forze agenti, un corpo subisce un'accelerazione tanto maggiore quanto minore è la quantità di materia del corpo stesso. Un esperimento molto comune è quello di spingere un corpo lungo un piano perfettamente liscio: la resistenza che il corpo oppone a chi voglia metterlo in moto, se è fermo, o a chi voglia mutarne la velocità, se è già in moto, è dovuta alla sua massa inerziale; il rapporto tra la forza applicata a un corpo e l'accelerazione che ne consegue, invariabile per ogni corpo, viene assunto a rappresentare la quantità di materia dello stesso. Una nozione diversa di massa trae origine dalla legge newtoniana di attrazione gravitazionale: l'attrazione che un corpo subisce da parte di un altro dipende infatti dalla natura fisica dei due corpi e questa natura fisica si può misurare con una grandezza scalare positiva che si definisce come massa gravitazionale. Poiché l'esperienza dimostrava che la massa inerziale e quella gravitazionale sono tra di loro proporzionali, si riteneva sempre possibile scegliere un'unità di misura per la quale le due masse coincidessero, così da giustificare la misura di masse mediante la misura dei pesi corrispondenti.
A questa concezione della massa come quantità di materia si opposero le critiche di E. Mach e altri filosofi della scienza della seconda metà del XIXsec.: in effetti la definizione precedente nasconde un'ipotesi non scientifica, cioè quella che i corpi risultino costituiti di parti nelle quali la quantità di materia è costantemente proporzionale ai loro volumi. Se si lascia cadere questo assioma, si riconosce che il concetto di massa in tanto è valido in quanto si possiede un metodo preciso per misurarla. In questa prospettiva la massa inerziale (determinata con metodi dinamici) e la massa gravitazionale (determinata con metodi statici) sono due entità assolutamente diverse, la cui uguaglianza appare nell'ambito della fisica classica una coincidenza inspiegabile. La teoria della relatività generale di Einstein consente di ottenere un'interpretazione soddisfacente di questo fatto.
• La massa nella meccanica classica e relativistica
Se nella meccanica classica la massa di una particella è una proprietà della particella che non dipende dalle sue condizioni fisiche, nella meccanica relativistica la massa m varia con la velocità v della particella secondo la legge
dove mo è la massa della particella quando è in quiete (massa di riposo) e c la velocità della luce. Ancora nella meccanica relativistica viene a cadere un principio fondamentale della meccanica classica, quello della conservazione della massa: la relazione fondamentale Eo = mc² pone infatti in luce la possibilità di trasformare l'energia Eo nella massa m, e viceversa, dando così luogo al principio più generale della conservazione della massa e dell'energia.
• Metodi di misura della massa
Il più diffuso metodo per la misura delle masse è fondato sulla proporzionalità esistente in ogni punto della superficie terrestre tra la massa m di un corpo e il suo peso P: P = gm, dove g è l'accelerazione di gravità. Mediante la bilancia si possono confrontare i pesi di due corpi: in particolare quando i pesi si equilibrano le masse sono uguali. (È da notare che il peso di un corpo varia da un punto all'altro della superficie terrestre, mentre la massa è costante ed esprime una proprietà intrinseca del corpo.) Il metodo di misura con la bilancia non è ovviamente applicabile a corpi di dimensioni atomiche. Nel caso di particelle atomiche o subatomiche elettricamente cariche si può risalire al valore della massa dalla deviazione che subiscono in un campo magnetico: il raggio di curvatura della traiettoria di una particella carica in un campo magnetico costante è proporzionale alla massa della particella. Un altro metodo applicabile anche alle particelle prive di carica elettrica è fondato sulla legge relativistica di conservazione dell'energia e della quantità di moto: se si applica questa legge a un processo in cui si produce una nuova particella si può determinare la sua energia totale E e la sua quantità di moto p; queste due quantità sono legate alla massa m dalla relazione E²-p²c² = m²c4 dove c è la velocità della luce nel vuoto.
• Unità di misura della massa
Nel sistema SI l'unità di misura della massa è il chilogrammo- massa o bes, definito come la massa del prototipo di platino-iridio sancito dalla conferenza generale dei pesi e misure e conservato al Pavillon de Breteuil a Sèvres. Nel sistema CGS, ormai in disuso, l'unità di massa è il grammo-massa, che è la millesima parte del bes.
• Massa elettromagnetica
Nell'interazione di un campo elettromagnetico con una particella elettricamente carica parte dell'energia e dell'impulso del campo viene trasferita alla particella. La quantità di moto p acquistata dalla particella si può scrivere nella forma p= meu dove u è la velocità della particella e me è una costante che ha le dimensioni di una massa e viene detta appunto massa elettromagnetica della particella.
Elettrologia

Parte della fisica che comprende lo studio dei fenomeni relativi alle cariche elettriche in quiete (elettrostatica) e in movimento (elettrocinetica), dell'azione mutua fra correnti (elettrodinamica), delle masse magnetiche in quiete (magnetostatica) e delle interazioni tra fenomeni elettrici e fenomeni magnetici. [L'elettrologia riguarda anche lo studio dei legami tra energia elettrica e chimica (elettrochimica) e della conduzione elettrica nel vuoto, nei gas e nello stato solido (elettronica).]
) Fisica
Il campo dei fenomeni elettrici, magnetici ed elettromagnetici, studiati e analizzati con mezzi sempre più perfezionati, è in corso di continuo allargamento; pertanto qui ci si limita a un'esposizione elementare dello sviluppo storico e degli aspetti fondamentali dell'elettrologia, mentre data l'importanza teorica e applicativa dell'elettromagnetismo, dell'elettronica, dell'elettroacustica e delle altre branche specializzate queste vengono trattate sotto i rispettivi lemmi.
• Profilo storico
Fin dall'antichità era noto che l'ambra gialla, per effetto dello strofinio, acquista la proprietà di attirare corpi leggeri, come pagliuzze, piume, ecc. Questo comportamento è citato da vari autori greci, in particolare da Talete di Mileto ( VI sec. a.C.). Era anche nota la scarica elettrica provocata dalla torpedine che Aristotele consigliò per la cura della gotta. Gli antichi Indiani avevano invece riscontrato che alcuni cristalli riscaldati attirano le ceneri (piroelettricità). Durante il medioevo non si ebbero ulteriori progressi in queste conoscenze fino al XVIsec., quando l'inglese William Gilbert (1544-1603) riscontrò un comportamento analogo a quello dell'ambra in diverse sostanze, come il vetro, la resina, lo zolfo, ecc., che furono chiamate dielettrici (isolanti). I materiali nei quali non si riusciva a raccogliere l'elettricità, come ad es. i metalli, si dissero per contrapposto anelettrici (conduttori). A Gilbert si deve inoltre la distinzione tra fenomeni elettrici e fenomeni magnetici. Otto von Guericke (1602-1686) inventò la prima macchina elettrostatica, costituita da una sfera di zolfo posta in rotazione, che veniva elettrizzata per strofinio dalle mani dello sperimentatore. Mediante questo apparecchio, che permise di dare un indirizzo sperimentale alle ricerche sull'elettricità, si ottenne la prima scarica elettrica. Stephen Gray (1670-1736) osservò che anche i conduttori potevano essere elettrizzati, purché fossero isolati; scoprì la conduzione elettrica ed eseguì la prima esperienza di trasporto di una carica a distanza; osservò inoltre, in casi particolari, l'elettrizzazione per induzione (influenza elettrostatica). Questi risultati furono confermati da Charles François du Fay (1698-1739), che dimostrò la possibilità di elettrizzare tutti gli oggetti, compreso il corpo umano, e osservò, impiegando un pendolino elettrostatico formato da una sferetta di midollo di sambuco sospesa a un filo, che il vetro e la resina acquistano, per sfregamento, elettricità contrarie, denominate rispettivamente vetrosa (positiva) e resinosa(negativa). Pieter Van Musschenbroek nel 1746, e quasi contemporaneamente Jürgen von Kleist, costruirono i primi condensatori elettrici nella forma nota come “bottiglia di Leida”, che consentirono di ottenere scariche elettriche di considerevole intensità. Si perfezionarono anche le macchine elettrostatiche, fra le quali ricordiamo quelle di Hawksbee (1709) e di Winkler (1766) a cilindro di vetro e quella di Ramsden a disco di vetro (1768). Benjamin Franklin (1706-1790) scoprì il potere delle punte, utilizzandolo come mezzo protettivo contro le scariche atmosferiche (parafulmine). Nel 1754 l'inglese John Canton (1718-1772) realizzò l'elettrizzazione per induzione elettrostatica. Contemporaneamente si cominciavano a delineare le teorie relative a questi fenomeni: William Watson (1715-1787) nel 1746 e Franklin nel 1750 avanzarono l'ipotesi che lo sfregamento non “creasse” l'elettricità, bensì ne modificasse la distribuzione fra i due corpi a contatto: uno perde e l'altro acquista cariche elettriche (principio di conservazione della carica).
I primi studi quantitativi si devono a Coulomb (1736-1806) il quale, mediante la sua bilancia di torsione, misurò le forze di attrazione e repulsione elettrostatica, constatando che si tratta di azioni di intensità inversamente proporzionale al quadrato della distanza (1785). Egli inoltre scoprì che l'elettrizzazione interessa gli strati superficiali dei conduttori. I risultati sperimentali di Coulomb, inquadrati analiticamente da P.-S. de Laplace (1749-1827), J. B. Biot (1774-1862), da C. F. Gauss (1777- 1855) e S. D. Poisson (1781-1840), segnarono il coronamento dell'elettrostatica.
Gli ulteriori perfezionamenti in questo campo hanno portato alla realizzazione di macchine elettrostatiche più efficaci, come quelle di Wimshurst (1832-1903) e di Van de Graaff (1935) e di elettrometri particolarmente sensibili. Dopo la scoperta di Luigi Galvani (1737- 1798), che nel 1790 mostrò come, mettendo a contatto mediante un archetto metallico i nervi lombari e i muscoli della gamba di una rana scorticata, si osservavano notevoli contrazioni, Alessandro Volta (1745-1827) avanzò l'ipotesi che questo comportamento fosse dovuto a corrente elettrica prodotta dalla forza elettromotrice esistente nel contatto fra il metallo dell'archetto e le soluzioni elettrolitiche. Osservando poi che le contrazioni erano più intense quando l'archetto era formato da due metalli di natura diversa, riuscì a definire esattamente il fenomeno (forza elettromotrice di contatto fra metalli) e stabilì la distinzione fra conduttori di prima e di seconda specie, rispettivamente metalli e soluzioni elettrolitiche. La celebre controversia sorta fra questi due scienziati portò Volta, dopo lunghe e metodiche ricerche, alla scoperta della pila nel 1800. Prese così l'avvio un nuovo campo d'indagini, l'elettrocinetica, che si occupa del movimento di cariche elettriche nei conduttori. Si stabilirono progressivamente anche le leggi che governano il comportamento delle correnti elettriche. Nel 1827 Georg Simon Ohm (1787-1854) determinò la relazione che lega la tensione fra due punti di un circuito e l'intensità di corrente che l'attraversa, definendo la resistenza elettrica. Rudolf Kohlrausch (1809-1858) definì successivamente la resistività (1848). Gustav Robert Kirchhoff (1824-1887) definì il comportamento elettrico di una rete comunque complessa formata da maglie e nodi. Charles Wheatstone (1802-1875) ideò nel 1844 il ponte che porta il suo nome per la misura delle resistenze. James Prescott Joule (1818-1889) studiò gli effetti termici della corrente elettrica e formulò nel 1841 la legge che esprime la relazione fra la corrente che percorre un circuito e la potenza dissipata in calore.
Già nella seconda metà del XVIII sec. si era tentato di stabilire un legame tra fenomeni elettrici e magnetici, ma solo nel 1820 Hans Christian Oersted (1777-1851) scoprì che una corrente elettrica devia un ago magnetizzato; André Marie Ampère (1775-1836) riscontrò il medesimo effetto nel caso di due correnti gettando le basi dell'elettrodinamica. Jean Baptiste Biot e Félix Savart (1791-1841) misurarono il campo magnetico prodotto dalla corrente. Pierre-Simon de Laplace ne dedusse una legge elementare e, nel 1822, Ampère formulò la legge generale del fenomeno: egli, assimilando un solenoide a un magnete, pose le basi dell'elettromagnetismo. A Michael Faraday (1791-1867) si deve la scoperta del fenomeno dell'induzione elettromagnetica (1831) sul quale si basa la trasformazione dell'energia elettrica in lavoro meccanico. L'interpretazione matematica di questo fenomeno venne data da Franz Ernst Neumann (1798-1895), che si servì della nozione di potenziale, e fu successivamente completata e verificata sperimentalmente da Wilhelm Weber (1804-1891), Kirchhoff e Helmholtz. Nel 1820 François Arago (1786-1853) magnetizzò un ago d'acciaio mediante una corrente elettrica; nel 1876 Henry Augustus Rowland (1848-1901) osservò che un ago magnetizzato devia per azione di un disco rotante che porta una carica elettrica, dimostrando l'identità fra elettricità statica ed elettricità dinamica. Nel 1882 James Alfred Ewing (1855-1935) scoprì l'isteresi magnetica a seguito delle esperienze di Emil Warburg (1846-1931). James Clerk Maxwell (1831- 1879), infine, formulò le equazioni generali del campo elettromagnetico giungendo a una sintesi completa di tutta l'elettrologia.
• Elettrostatica
Esistono molti corpi, detti dielettrici o isolanti(vetro, resina, ebanite, zolfo, ecc.) che si elettrizzano per strofinio, acquistano cioè una carica elettrica localizzata nella zona di sfregamento. La carica elettrica posseduta da un corpo può essere di due tipi differenti; si è convenuto di chiamare positiva quella che si accumula sul vetro strofinato e negativa quella che si osserva sulla resina. Esistono altri procedimenti elementari per elettrizzare un corpo qualsiasi, per esempio mettendolo a contatto con un oggetto carico (elettrizzazione per contatto). Analogamente avvicinando un corpo carico A a un corpo B inizialmente neutro, si manifesta nella parte di B più vicina ad A una carica di segno opposto a quella di A, mentre la parte più lontana acquista una carica dello stesso segno; allontanando A da B questa elettrizzazione scompare (elettrizzazione per influenza o induzione elettrostatica). In alcuni corpi, detti conduttori, si può isolare durante il processo d'influenza la carica elettrica di un solo segno, per es. tagliando a metà il conduttore B e allontanando le due parti; in questo caso l'elettrizzazione rimane anche quando cessa il fenomeno dell'influenza.
Le forze che si esercitano tra le cariche elettriche in equilibrio sono descritte dalla legge di Coulomb : due cariche elettriche puntiformi dello stesso segno o di segno opposto si respingono o si attraggono con una forza che è inversamente proporzionale alla loro distanza e direttamente proporzionale al prodotto delle cariche; inoltre la forza che si esercita tra due cariche non dipende dalla presenza di altre cariche. Il campo di forza generato da una carica elettrica è conservativo: in altri termini, il lavoro compiuto da una carica elettrica che si muove da un punto A a un punto B non dipende dalla traiettoria seguita, ma solo dalle posizioni iniziale e finale della carica. Si può allora definire in ogni punto P dello spazio una funzione V(P), detta potenziale, tale che il lavoro compiuto da una carica q che si muove da A a B è W = q [V (A) - V (B)].
La conoscenza del potenziale V di un campo elettrostatico permette di determinare la forza elettrostatica che si esercita su una carica qualsiasi; precisamente si può dimostrare che il vettore E = - grad V, detto intensità del campo elettrico, rappresenta la forza che il campo esercita sulla carica elettrica unitaria. Il problema fondamentale dell'elettrostatica consiste nel trovare il potenziale di una data distribuzione di cariche elettriche. Per esempio con procedimenti elementari si può verificare che il potenziale è costante all'interno di un conduttore elettricamente carico e quindi l'intensità del campo elettrico è nulla; nei punti esterni vicini al conduttore il vettore E è perpendicolare alla superficie del conduttore e il suo valore è dato dal teorema di Coulomb
Teoria del potenziale
Esiste una teoria matematica, nota come teoria del potenziale, relativa alle forze che si esercitano tra cariche elettriche in quiete, formalmente analoga a quella che descrive la magnetostatica e la forza d'attrazione newtoniana. Le equazioni fondamentali dell'elettrostatica sono
rot E = 0, div D = .
Esse costituiscono un caso particolare delle equazioni di Maxwell (v. ELETTROMAGNETISMO); da queste due equazioni si ricava l'equazione di Poisson, per il potenziale elettrostatico V:
,,V = V//
è l'operatore di Laplace. Ogni problema di elettrostatica è riconducibile alla ricerca di una soluzione dell'equazione precedente che soddisfi determinate condizioni al contorno.
• Elettrocinetica
Il movimento ordinato delle cariche elettriche si ottiene di solito mediante l'applicazione di un campo elettrico. In molti solidi e liquidi, come i metalli e le soluzioni elettrolitiche, la densità di corrente J è proporzionale all'intensità del campo elettrico E applicato: J = , dove è la conducibilità elettrica del mezzo. Da questa relazione si può ricavare la legge di Ohm per le correnti di conduzione che stabilisce la relazione di proporzionalità esistente tra intensità di corrente e differenza di potenziale; questa proprietà non è tuttavia universalmente valida; per esempio in alcuni semiconduttori tale relazione non è lineare, inoltre se il conduttore non è isotropo, come certi cristalli, la conducibilità rrdipende dalla direzione di J e non e più uno scalare ma diventa un tensore. L'equazione di continuità per la corrente,

che esprime la conservazione della carica elettrica, permette di stabilire che in assenza di cariche variabili nel tempo la densità di corrente è un vettore solenoidale, cioè div J = 0. Questa proprietà della corrente unita alla legge di Ohm permette di ricavare i princìpi di Kirchhoff che costituiscono le leggi fondamentali dei circuiti. Il passaggio della corrente in un conduttore è accompagnato da diversi fenomeni, come la produzione di calore (effetto Joule), fenomeni magnetici che verranno trattati in seguito e processi elettrolitici.
f Campo creato da una corrente
Si può osservare che in prossimità di un circuito percorso da una corrente di intensità i si manifesta un campo magnetico del quale possiamo calcolare l'intensità H sommando vettorialmente le intensità elementari d H prodotte nel punto M dai diversi elementi del circuito, come PP' = dl. Il vettore d H è normale, in M, al piano MPP'; il suo senso è dato dalla regola dell'uomo di Ampère: un osservatore posto in P sul circuito in modo che la corrente gli entri dai piedi e gli esca dalla testa e rivolto verso M vede il vettore diretto verso la sua sinistra. Il valore numerico di H è dato dalla prima legge di Laplace (v. ELETTROMAGNETISMO); in particolare per un conduttore rettilineo indefinito percorso da una corrente di intensità i, il vettore H è parallelo al piano perpendicolare al conduttore e il suo modulo H è dato nel sistema SI dalla legge di Biot e Savart:
dove R è la distanza del conduttore dal punto M.
In base a ciò si può definire il magnete equivalente al circuito: esso è il magnete fittizio che produrrebbe nel generico punto M un campo magnetico di intensità uguale a quella ora calcolata; si può altresì facilmente calcolare il suo momento magnetico, per lo meno nel caso dei circuiti di forma consueta.
Quando la corrente i varia, anche il corrispondente valore di H, in un punto dato, varia; una corrente sinusoidale produce in ogni punto M una intensità H sinusoidale in fase con la corrente.
. Azione di un campo su una corrente
Un circuito percorso da una corrente i, e posto in un campo magnetico esterno, è soggetto a un sistema di forze, dette forze di Laplace, che si può valutare sia sostituendo il circuito con il magnete equivalente, sia calcolando la forza df applicata a ogni elemento di linea del circuito; il vettore è normale al piano definito da e dall'induzione B; il suo verso può essere definito mediante la regola delle tre dita della mano sinistra (Fleming): se si dispongono il pollice, l'indice e il medio della mano sinistra in posizioni mutuamente ortogonali, il vettore risulta diretto secondo la direzione indicata dal pollice quando l'indice e il medio sono rivolti rispettivamente nelle direzioni individuate da B e dalla corrente lungo il circuito; il valore numerico della forza è dato dalla seconda legge di Laplace:
Quando il circuito è libero di spostarsi le forze di Laplace compiono un certo lavoro dato da = i((2 - 1) relazione in cui è misurato in joule, i in ampère; p1 e 2 sono i flussi di induzione (in weber) concatenati con il circuito prima e dopo lo spostamento. Le correnti di convezione producono gli stessi fenomeni magnetici delle correnti di conduzione e subiscono gli stessi effetti in presenza di un campo magnetico esterno. In particolare una carica elettrica puntiforme q con velocità u immersa in un campo magnetico di induzione B è sottoposta a una forzaF nota come forza di Lorentz, che vale F = qu ; se inoltre è presente un campo elettrico E, la forza totale che si esercita sulla carica q è
F = q (E + u ).
) Interazioni tra correnti
Le formule precedenti conservano la loro validità anche quando il campo magnetico esterno è creato da una corrente; in realtà, da questo punto di vista, non vi è differenza fra un campo prodotto da un magnete e quello prodotto da una corrente. In questo caso è più logico, però, parlare di azioni mutue fra i due circuiti; si possono calcolare queste azioni partendo dall'espressione dell'energia dei due circuiti: W = Mi1 i2 ove i1 e i2 sono le intensità delle due correnti e M il coefficiente di mutua induzione espresso in henry.
L'esperienza di Ampère consente di applicare le stesse considerazioni nel caso molto particolare di azione di una corrente su se stessa quando si utilizza un circuito deformabile (il circuito tende a disporsi in modo da abbracciare la massima superficie possibile) o quando il circuito è alimentato con corrente variabile (appare nel circuito una corrente indotta che si sovrappone alla corrente principale).
In questi casi si sostituisce la quantità M con il coefficiente di autoinduzione L.
Fluidi
Sostanze le cui molecole hanno scarsa coesione e possono scorrere liberamente le une sulle altre (liquidi) o spostarsi indipendentemente le une dalle altre (gas) in modo che il corpo prenda la forma del recipiente che lo contiene.
Con la denominazione generale di fluido si indicano i corpi allo stato liquido o gassoso; questi corpi godono di proprietà comuni, ad es. soddisfano al principio di Archimede, al principio di Pascal, ecc. La differenza principale fra liquidi e gas sta nella più elevata compressibilità dei secondi rispetto ai primi; inoltre i liquidi sono molto più densi e dotati di coefficienti di dilatazione e compressibilità ampiamente variabili (contrariamente a quanto si osserva nei gas) con la loro composizione.
Nei liquidi le distanze intermolecolari sono dello stesso ordine di grandezza del raggio molecolare e la compressibilità è molto bassa; i gas, in condizioni normali, presentano distanze intermolecolari molto maggiori del raggio molecolare, e si possono quindi comprimere facilmente.
L'applicazione delle leggi generali della meccanica ai fluidi, considerati come mezzi continui deformabili, costituisce la meccanica dei fluidi. Essa comprende la fluidostatica e la fluidodinamica, che trattano rispettivamente i problemi di equilibrio e di movimento dei fluidi. In particolare le proprietà statiche e dinamiche dei fluidi incompressibili sono trattate dall'idrostatica e dall'idrodinamica, mentre la statica e la dinamica dei gas e fluidi compressibili sono studiate dall'aerostatica e dalla gasdinamica. In particolare il moto dell'aria e dei gas nei condotti e i fenomeni relativi ai corpi in movimento nell'aria sono trattati dall'aerodinamica
Le prime teorie riguardanti il movimento dei liquidi sono opera relativamente antica: i lavori di Daniel Bernoulli, pubblicati nel 1738, trattano del movimento dei liquidi nei condotti e nei canali. Al principio del XIX sec. Cauchy, Navier, Stokes, grazie ai progressi dell'analisi matematica, stabilirono i primi fondamenti scientifici della meccanica dei fluidi. Sino alla fine del XIXsec. le applicazioni di tali risultati scientifici restarono limitate, e l'idraulica fece uso quasi esclusivamente di metodi empirici: leggi di carattere sperimentale sulla resistenza al movimento dell'acqua nei canali, nei fiumi e nelle condotte, furono determinate da Chézy, Bazin e Reynolds. La sintesi tra i dati dell'esperienza e i risultati teorici fu opera di Reynolds e Rayleigh in Inghilterra; di Helmholtz e soprattutto di Prandtl in Germania. Con la nascita dell'aviazione, la meccanica dei fluidi accelerò il suo progresso con la formulazione dei princìpi dell'aerodinamica, a opera soprattutto di Zukovskij, Prandtl, Eiffel, Blasius, Kármán, Mach. Infine il volo a velocità sempre maggiori ha condotto alla creazione dell'aerodinamica supersonica. La meccanica dei fluidi si associa alla termodinamica nello studio del movimento dei fluidi in fase gassosa, con o senza sviluppo di calore, nelle macchine termiche, nei compressori, nelle turbine, nei propulsori a reazione per aeroplani o macchine: si parla allora di aerotermodinamica. La meccanica dei fluidi si associa anche alla chimica, nell'analisi del movimento dei gas in relazione alle reazioni chimiche che vi avvengono, ad esempio nella teoria della combustione. La magnetofluidodinamica studia i movimenti dei mezzi gassosi conduttori in presenza di campi magnetici: questa scienza, che all'inizio interessava solo l'astrofisica, ha ora assunto un'enorme importanza negli studi di fisica spaziale e nella fisica del plasma. Infine, si chiama superaerodinamica la scienza che studia il movimento di corpi in gas molto rarefatti, come quelli che si trovano nelle zone elevate dell'atmosfera. In tali condizioni non è più accettabile l'ipotesi della continuità del fluido perché la distanza media percorsa da una molecola tra due urti successivi (molto piccola in condizioni normali di temperatura e di pressione) è paragonabile alle dimensioni dei corpi in esame.
Le equazioni generali della meccanica dei fluidi non possono essere risolte che in casi particolarmente semplici; infatti la presenza di ostacoli dalla forma complicata, anche quando si conoscono esattamente i dati relativi al sistema dei corpi presenti in un certo istante, può rendere necessaria l'introduzione di schematizzazioni troppo radicali del problema. Si ricorre allora a prove sperimentali, eseguite generalmente su un modello che riproduce in scala ridotta le condizioni fisiche che si vogliono studiare; l'andamento del fenomeno reale si deduce quindi applicando le leggi della similitudine meccanica. Le apparecchiature sperimentali sono essenzialmente di due categorie: quelle in cui il fluido è messo in movimento e l'ostacolo resta fisso e quelle in cui avviene il contrario. Alla prima categoria appartengono i tunnel aerodinamici o gallerie del vento e i canali idrodinamici; la seconda comprende le macchine aerodinamiche e i bacini di carenaggio. L'esperienza su modelli lanciati dall'aereo o autopropulsi rientra in questa ultima categoria.

Esempio



  


  1. giovanni

    sto cercando gli appunti di fisica sui vettori (somma, differenza..)

  2. giovanni

    sto cercando gli appunti di fisica sui vettori (somma, differenza..)