Log In Iscriviti
StudySmarter - The all-in-one study app.
4.8 • +11k Ratings
More than 3 Million Downloads
Free
|
|

All-in-one learning app

  • Flashcards
  • NotesNotes
  • ExplanationsExplanations
  • Study Planner
  • Textbook solutions
Start studying

Entropia

Save Salva
Print Stampa
Edit Modifica
Iscriviti gratis per sbloccare tutte le funzioni. Iscriviti ora

Immagina che due gas diversi si trovino in un contenitore, divisi da una parete. Cosa avviene se si rimuove la parete? È esperienza comune che i gas si espanderanno mescolandosi fino a raggiungere una miscela omogenea. Il processo inverso, ovvero, quello in cui i due gas si separano, non avviene spontaneamente. Infatti, sarebbe improbabile osservare una separazione spontanea dei componenti di una miscela!

I processi che avvengono spontanemente in natura hanno una particolare direzione, in altre parole, sono irreversibili.

Tuttavia, questi processi che non osserviamo non violano il primo principio della termodinamica. Infatti, il primo principio non ci dice nulla circa la direzione che seguono i processi spontanei. Questa limitazione del primo principio ha portato all'elaborazione del secondo principio della termodinamica e all'introduzione di una funzione chiamata entropia.

In questo articolo esploreremo il significato dell'entropia e analizzeremo le sue definizioni nell'ambito della termodinamica e della statistica.

Entropia: significato

Il fatto che il primo principio non tenga conto del fatto che alcuni processi (ad esempio, il passaggio spontaneo di calore da un corpo freddo a uno caldo o la separazione spontanea di due gas) non avvengono spontaneamente ha portato all'elaborazione del secondo principio della termodinamica.

Il secondo principio, nella sua formulazione in termini di entropia, afferma che

l'entropia di un sistema isolato non decresce nel tempo, ovvero \( \frac {dS}{dt} \ge 0\).

In altre parole, a ogni sistema termodinamico è associata una funzione chiamata entropia tale che il suo valore aumenta sempre nelle trasformazioni spontanee. Quindi, quando il suo valore è massimo, il sistema non subisce più trasformazioni spontanee.

Entropia freccia del tempo StudySmarter

Fig. 1 - È molto improbabile che tutti i costituenti del soluto siano concentrati in una parte del bicchiere. La freccia del tempo punta quindi da sinistra a destra e ci permette di dire che l'immagine a sinistra precede quella a destra.

Le trasformazioni avvengono spontaneamente in una precisa direzione, quella verso il maggior disordine. L'entropia è quindi interpretata come una misura del disordine di un sistema: un aumento del disordine del sistema corrpisponde a un aumento di entropia.

Torniamo per un momento all'esempio dei due gas per farci un'idea di cosa significa passare a uno stato "più disordinato". Più avanti vedremo, in maniera più rigorosa, cosa si intende per disordine. Due gas che si mescolano quando la parete che li separa viene rimossa è un classico esempio di aumento del disordine. Il processo inverso, ovvero il passaggio da uno stato più "disordinato" in cui i due gas sono mescolati a uno stato in cui i gas sono perfettamente separati in pratica non avviene mai poiché lo stato "più disordinato" è il più probabile.

Entropia: definizione

Il concetto di entropia, inteso come misura del disordine di un sistema, è esteso a vari ambiti, inclusa la teoria dell'informazione.

L'entropia è una misura del disordine di un sistema.

In questo articolo ci concentreremo sulla definizione di entropia nell'ambito della termodinamica e della statistica.

Entropia: definizione termodinamica

Nell’ambito della termodinamica, l'entropia è definita come una funzione di stato di un sistema che è in equilibrio termodinamico.

Una funzione di stato è una funzione la cui variazione tra due stati del sistema dipende solo dalle condizioni assunte dal sistema nello stato finale ed iniziale e non dalla trasformazione eseguita.

La variazione di entropia associata alla trasformazione dallo stato termodinamico A allo stato termodinamico B è data dall’integrale del rapporto tra calore scambiato e temperatura:

\[ \Delta S = S_B - S_A = \int_A^B \frac {dQ}{T} \]

Da questa formula si può facilmente vedere che l'unità di misura dell'entropia nel SI è J K-1.

La variazione di entropia \(\Delta S\) non dipende dalla particolare trasformazione termodinamica eseguita.

L'entropia di uno stato termodinamico è quindi definita a meno di una costante:

\[ S_B = S_A + \int_A^B \frac {dQ}{T} \]

Se la temperatura non dipende dallo scambio di calore durante la trasformazione dallo stato A allo stato B, possiamo portare \(T\) fuori dall'integrale e, quindi, la variazione di entropia sarà data dalla semplice relazione

\[ \Delta S = \frac{\Delta Q}{T}\]

dove \(\Delta Q\) è il calore scambiato nella trasformazione e può essere positivo se assorbito o negativo se ceduto.

Entropia: definizione statistica

Cosa si intende, scientificamente, per "disordine"? Adottando un punto di vista microscopico, possiamo dare una descrizione più rigorosa di questo disordine.

Variabili come pressione, volume e temperatura descrivono lo stato macroscopico di un sistema. A questo stato macroscopico è associato un certo numero di configurazioni in cui gli atomi e molecole che costituiscono il sistema possono trovarsi. Queste configurazioni sono chiamate microstati.

I microstati associati a un determinato macrostato dipendono dalla posizione, velocità ed energia potenziale di tutti gli atomi e molecole che costituiscono il sistema. Se pensi che in un centimetro cubo di aria ci sono circa \( 2,7 \cdot 10^{19}\) (ovvero, 27 miliardi di miliardi) di molecole, immagina quante configurazioni possono realizzare un macrostato caratterizzato da una certa pressione, volume e temperatura!

Siamo ora pronti per definire l'entropia dal punto di vista statistico utilizzando la formula di Boltzmann:

\[ S = k_B \ln(\Omega) \]

dove \(k_B\) è la costante di Boltzmann e \(\Omega\) è il numero di microstati.

Da questa formula possiamo vedere come l'entropia cresca all'aumentare del numero di microstati \(\Omega\).

\( \Omega\) è una misura dell'insieme di tutte le possibili disposizioni e rappresenta quindi il numero di microstati totali accessibili al sistema che si trova a una determinata temperatura.

Diminuendo la temperatura, il numero di configurazioni \( \Omega\) non può che diminuire poiché al decrescere della temperatura diminuisce l'energia di atomi e molecole.

Se, portando il sistema allo zero assoluto, vi è un solo microstato possibile (\( \Omega = 1\)), dalla formula troviamo che l'entropia residua sarà pari a zero (\(\ln (1) = 0\)).

Un cristallo puro è un esempio di materiale che ha un'entropia residua pari a zero, poiché a \(T = 0K \) esiste una sola struttura cristallina valida che gli atomi possono adottare.

Questo, se ti ricordi, ci riporta al terzo principio della termodinamica:

l'entropia di un cristallo perfetto allo zero assoluto è uguale a 0.

Entropia e secondo principio della termodinamica

Il secondo principio della termodinamica completa il primo principio perché tiene conto della direzione in cui avvengono i processi spontanei.

Questo principio può essere espresso in diversi modi. In termini della funzione entropia (S), il secondo principio è formulato come segue:

l'entropia di un sistema isolato non decresce nel tempo, ovvero \( \frac {dS}{dt} \ge 0\).

lIn altre parole, l'entropia può solo aumentare, o al più rimanere costante (\( \frac {dS}{dt} = 0\) ) nel caso di trasformazioni cicliche reversibili.

La tendenza dell'entropia ad aumentare nelle trasformazioni spontanee è quindi la tendenza a raggiungere uno stato che può essere realizzato con il numero massimo di configurazioni microscopiche, ovvero uno stato molto più probabile degli altri.

Tornando all'esempio dei due gas, il sistema tende a uno stato dove i gas sono mescolati perché questo è lo stato realizzato con il massimo numero di configurazioni microscopiche e, quindi, più probabile.

Il secondo principio della termodinamica assume quindi un valore probabilistico che, nell'esperienza quotidiana, si traduce in certezza.

Entropia - Key takeaways

  • L'entropia è una misura del disordine di un sistema.
  • L'entropia ci fornisce informazioni sull'evoluzione spontanea di un qualunque sistema, poiché i sistemi evolvono spontaneamente dagli stati con minore entropia a quelli con maggiore entropia.
  • L'entropia di un sistema isolato è una funzione non decrescente del tempo: \(\frac {dS}{dt} \ge 0\).
  • Dal punto di vista statistico, l'entropia è definita dalla formula di Boltzmann: \( S = k_B \ln(\Omega) \), dove \(k_B\) è la costante di Boltzmann e \(\Omega\) è il numero di microstati associati a un determinato macrostato.

References

  1. Fig. 1 - Mischentropie.jpg (https://commons.wikimedia.org/wiki/File:Mischentropie.jpg?uselang=it) by Anton is licenced by CC BY-SA 3.0 (https://creativecommons.org/licenses/by-sa/3.0/)

Domande frequenti riguardo Entropia

L'entropia è interpretata come una misura del disordine di un sistema.

Il concetto di entropia fu introdotto per descrivere la seguente osservazione empirica: i processi avvengono spontaneamente in una direzione, quella verso il maggior disordine. 

SCOPRI DI PIÙ RIGUARDO Entropia
60%

degli utenti non supera il quiz di Entropia! Tu lo passeresti?

INIZIA IL QUIZ

Scopri i migliori contenuti per le tue materie

Iscriviti per sottolineare e prendere appunti. É tutto gratis.