Entropia

De Viquipèdia
Dreceres ràpides: navegació, cerca
Per a informació sobre el grup musical, vegeu Entropia (grup musical).
Rudolf Clausius.

L'entropia és una magnitud termodinàmica definida originàriament com a criteri per predir l'evolució dels sistemes termodinàmics. Des de la seva introducció per Rudolf Clausius l'any 1865,[1] han aparegut diverses definicions d'entropia, la més rellevant de les quals (elaborada per Ludwig Boltzmann) va relacionar el concepte d'entropia amb el grau de desordre d'un sistema.[2] Aquesta nova perspectiva de l'entropia va permetre estendre el concepte a diferents camps, com ara a la teoria de la informació, la intel·ligència artificial, la vida o el temps.

En física[modifica | modifica el codi]

En física l'entropia és la magnitud termodinàmica que permet calcular la part de l'energia calorífica que pot utilitzar-se per a produir treball si el procés és reversible. L'entropia física, en la seva forma clàssica és definida per l'equació

dS = dQ / T\,

o més simplement, si la temperatura es manté constant en el procés 1→2 (procés isotèrmic):

S_2-S_1 = \frac{Q_2-Q_1}{T}

on S és l'entropia, Q la quantitat de calor i T la temperatura. Els nombres 1 i 2 es refereixen als estats inicials i finals d'un sistema termodinàmic. El significat d'aquesta equació és el següent: Quan un sistema termodinàmic passa de l'estat 1 a l'estat 2, el canvi en la seva entropia és igual al canvi en la seva quantitat de calor dividit per la seva temperatura.

Així, si un cos calent a temperatura T_1 perd una quantitat de calor Q_1 la seva entropia disminueix en \frac{Q_1}{T_1}, si cedeix aquesta calor a un cos fred a temperatura T_2 < T_1 l'entropia del cos fred augmenta més del que ha disminuït l'entropia del cos calent perquè \frac{Q_1}{T_1}<\frac{Q_1}{T_2}. Una màquina reversible pot, per tant, transformar en treball una part d'aquesta energia calorífica, però no tota. Si l'entropia que perd el cos calent és igual a l'entropia que guanya el cos fred es té que la quantitat de calor que es pot transformar en treball és:

\frac{Q_2}{T_2}= \frac{Q_1}{T_1}

Q_2=Q_1\frac{T_2}{T_1}

W=Q_1 - Q_2 = Q_1-Q_1\frac{T_2}{T_1}

W=Q_1\left(1-\frac{T_2}{T_1}\right)=Q_1\frac{T_1 - T_2}{T_1}

Per tant, el rendiment que dóna la màquina reversible (que és el màxim que pot donar qualsevol màquina) és:

\eta = \frac{W}{Q_1}

\eta = \frac{T_1 - T_2}{T_1}

Perquè tota l'energia calorífica es pogués transformar en treball caldria que, o bé el focus calent es trobés a una temperatura infinita, o bé que el focus fred estigués a zero kelvin; en qualsevol altre cas, el rendiment termodinàmic de la màquina reversible és inferior a 1.

L'expressió de l'entropia és conseqüència lògica del segon principi de la termodinàmica i de la forma en què es mesura la temperatura.

El segon principi de la termodinàmica diu que, si no es consumeix treball, la calor va dels cossos calents als cossos freds, tant si és directament per conducció com si es fa a través de qualsevol màquina.

La temperatura cal mesurar-la en una escala termodinàmica; altrament, l'expressió de l'entropia no és tan elegant i depén de la substància termomètrica que s'empra per a construir el termòmetre. En definir l'escala termodinàmica de temperatura hi ha un grau de llibertat que es pot escollir arbitràriament. Si s'imposa que entre la temperatura d'ebullició i la de congelació de l'aigua hi hagi 100 graus s'obté l'escala Kelvin i resulta que la temperatura de congelació de l'aigua ha de ser 273 K.


En els anys 1890-1900 el físic austríac Ludwig Boltzmann i altres desenvoluparen les idees del que avui en dia es coneix com a mecànica estadística, teoria que permet interpretar el significat de temperatura i d'entropia. Segons aquestes idees, l'entropia queda definida per l'equació:[3]

\,S = k \ln(W)

on S és l'entropia, k la constant de Boltzmann, ln és la funció de logaritme natural i W el nombre de microestats possibles per al sistema. L'equació està gravada sobre la làpida de la tomba de Boltzmann al Zentralfriedhof de Viena. Boltzmann es va suïcidar el 1906 profundament deprimit per la poca acceptació de les seves teories en el món acadèmic de l'època. El significat literal de l'equació és el següent: la quantitat d'entropia d'un sistema és proporcional al logaritme natural del seu nombre de microestats. Ara bé, el seu significat final és encara matèria de discussió en la física teòrica, donat l'abast que té.

Una possible interpretació és aquella que postula: El temps com nosaltres el coneixem és la direcció en què l'entropia creix.

En la teoria de la informació[modifica | modifica el codi]

Article principal: Entropia de Shannon

En la teoria de la informació, l'entropia, coneguda com a entropia de Shannon en aquest àmbit, és la magnitud que mesura la informació continguda en un flux de dades, és a dir, el que ens aporta sobre una dada o fet concret. Per exemple, que ens diguin que els carrers són molls, sabent que acaba de ploure, ens aporta poca informació, ja que això és l'habitual. Però si ens diuen que els carrers són molls i sabem que no ha plogut, això aporta molta informació (ja que no els reguen cada dia). Noteu que, en l'exemple anterior, la quantitat d'informació és diferent, malgrat que es tracta del mateix missatge: "els carrers són molls". En això es basen les tècniques de compressió de dades, que permeten comprimir la mateixa informació en missatges més curts. La mesura de l'entropia pot aplicar-se a informació de qualsevol naturalesa, i permet codificar-la adequadament, perquè indica els elements de codi necessaris per a transmetre-la i elimina tota redundància. Per exemple, per a indicar el resultat d'una cursa de cavalls, només cal transmetre el codi associat al cavall guanyador, no fa falta indicar que es tracta d'una cursa de cavalls, i molt menys com ha anat la cursa. L'entropia indica el límit teòric per a la compressió de dades.

Donada una variable aleatòria discreta X que pren valors x sobre l'alfabet \mathcal{X} amb una distribució de probabilitat {p(x)}, on p(x) és la probabilitat que X tingui el valor x, l'entropia H(X) de la variable aleatòria es defineix com:

H(X) = -\sum_{x \in \mathcal{X}} p(x) \log p(x)

Habitualment s'utilitza el logaritme en base 2, i llavors l'entropia es mesura en bits. Se segueix la convenció 0 log 0 = 0.

Exemple: el llançament d'una moneda a l'aire per veure si surt cara o creu (dos estats amb probabilitat igual a 0.5) té una entropia:

\begin{align}
H(\mathit{Moneda}) &= -p(\mathit{cara}) \log_2 p(\mathit{cara}) - p(\mathit{creu}) \log_2 p(\mathit{creu}) \\
                   &= -0.5 \log_2 0.5 - 0.5 \log_2 0.5 = 0.5 + 0.5 = 1 \text{bit}
\end{align}

A partir d'aquesta definició bàsica es poden definir altres entropies.

Relació entre ambdues[modifica | modifica el codi]

La relació entre ambdues és evident i sorgeix directament d'aplicar el segon principi de la termodinàmica al dimoni de Maxwell.

El dimoni de Maxwell és un ésser imaginari que pot obrir o tancar una comporta que uneix dos recipients plens del mateix gas a la mateixa temperatura. La comporta és prou petita perquè en obrir-la només passi una molècula de gas d'un cantó a l'altre. Si en apropar-se una molècula a la comporta el dimoni tingués la informació de si la seva velocitat és superior o inferior a la velocitat quadràtica mitjana de les molècules dels recipients, podria obrir i tancar la comporta selectivament, de forma que les molècules ràpides passessin al recipient calent i les lentes al recipient fred. En fer això, la calor passaria del recipient fred al calent i l'entropia del conjunt format pels dos recipients disminuiria, però com que per poder-ho fer ha de tenir la informació de la velocitat i com que segons el segon principi de la termodinàmica l'entropia de tot sistema tancat (considerant el mecanisme que permet captar la informació) ha d'augmentar, resulta que per aconseguir la informació cal fer augmentar l'entropia exactament en la mateixa quantitat en què es pot fer disminuir en emprar aquesta informació. Plantejant les equacions que resulten d'aquestes idees s'arriba a la formulació de l'entropia que s'empra en teoria de la informació.

Referències[modifica | modifica el codi]

A Wikimedia Commons hi ha contingut multimèdia relatiu a: Entropia Modifica l'enllaç a Wikidata
  1. Clausius, R. (1865), "Über die Wärmeleitung gasförmiger Körper", Annalen der Physik 125: 353–400
  2. Brillas E, Bastida RM, Centellas F, Domènech X. Fonaments de termodinàmica electroquímica i cinètica. Ed Barcanova, 1992 (Publicacions Universitat de Barcelona)
  3. Thomas S. Kuhn, La teoría del cuerpo negro y la discontinuidad cuántica 1894-1912. Alianza Universidad 1980. ISBN 84-206-2262-1

Lectures recomanades[modifica | modifica el codi]

Claudi Mans, 2004. ENTROPÒLEGS. Notícies per a Químics nº 421. Inclòs al llibre "La truita cremada". (Enllaç al document pdf)