Entropia

De la Viquipèdia, l'enciclopèdia lliure
Per a informació sobre el grup musical, vegeu Entropia (grup musical).
Rudolf Clausius

L'entropia és una magnitud termodinàmica definida originàriament com a criteri per a predir l'evolució dels sistemes termodinàmics.[1]

Des de la seva introducció per Rudolf Clausius l'any 1865,[2] n'han aparegut diverses definicions, la més rellevant de les quals (elaborada per Ludwig Boltzmann) va relacionar el concepte d'entropia amb el grau de desordre d'un sistema.[3] Aquesta nova perspectiva de l'entropia va permetre estendre el concepte a diferents camps, com ara a la teoria de la informació, la intel·ligència artificial, la vida o el temps.

En física[modifica]

En física i química, l'entropia és la magnitud termodinàmica que permet calcular la part de l'energia calorífica que no pot utilitzar-se per a produir treball si el procés és reversible. L'entropia física, en la seva forma clàssica, és definida per l'equació

o més simplement, si la temperatura es manté constant en el procés 1→2 (procés isotèrmic):

Així, si un cos calent a temperatura perd una quantitat de calor , la seva entropia disminueix en , si cedeix aquesta calor a un cos fred a temperatura , l'entropia del cos fred augmenta més del que ha disminuït l'entropia del cos calent perquè . Una màquina reversible pot, per tant, transformar en treball una part d'aquesta energia calorífica, però no tota. Si l'entropia que perd el cos calent és igual a l'entropia que guanya el cos fred passa que la quantitat de calor que es pot transformar en treball és:

Per tant, el rendiment que dona la màquina reversible (que és el màxim que pot donar qualsevol màquina) és:

Perquè tota l'energia calorífica es pogués transformar en treball caldria que, o bé el focus calent es trobés a una temperatura infinita, o bé que el focus fred estigués a zero kelvin; en qualsevol altre cas, el rendiment termodinàmic de la màquina reversible és inferior a 1.

L'expressió de l'entropia és conseqüència lògica del segon principi de la termodinàmica i de la manera en què es mesura la temperatura.

El segon principi de la termodinàmica diu que, si no es consumeix treball, la calor va dels cossos calents als cossos freds, tant si és directament per conducció com si es fa a través de qualsevol màquina.

La temperatura cal mesurar-la en una escala termodinàmica; altrament, l'expressió de l'entropia no és tan elegant i depèn de la substància termomètrica que s'empra per a construir el termòmetre. En definir l'escala termodinàmica de temperatura, hi ha un grau de llibertat que es pot escollir arbitràriament. Si s'imposa que entre la temperatura d'ebullició i la de congelació de l'aigua hi hagi 100 graus, s'obté l'escala kelvin i resulta que la temperatura de congelació de l'aigua ha de ser 273 K.

En els anys 1890-1900, el físic austríac Ludwig Boltzmann i d'altres desenvoluparen les idees del que avui en dia es coneix com a mecànica estadística, teoria que permet interpretar el significat de temperatura i d'entropia. Segons aquestes idees, l'entropia queda definida per l'equació:[4]

en què S és l'entropia, k la constant de Boltzmann, ln és la funció de logaritme natural i W el nombre de microestats possibles per al sistema. L'equació està gravada sobre la làpida de la tomba de Boltzmann al Zentralfriedhof de Viena. Boltzmann es va suïcidar el 1906 profundament deprimit per la poca acceptació de les seves teories en el món acadèmic de l'època. El significat literal de l'equació és el següent: la quantitat d'entropia d'un sistema és proporcional al logaritme natural del seu nombre de microestats. Ara bé, el seu significat final és encara matèria de discussió en la física teòrica, per l'abast que té.

Una possible interpretació és aquella que postula: el temps com nosaltres el coneixem és la direcció en què l'entropia creix.

En la teoria de la informació[modifica]

En la teoria de la informació, l'entropia, coneguda com a entropia de Shannon en aquest àmbit, és la magnitud que mesura la informació continguda en un flux de dades, és a dir, el que ens aporta sobre una dada o fet concret. Per exemple, que ens diguin que els carrers són molls, sabent que acaba de ploure, ens aporta poca informació, ja que això és l'habitual. Però si ens diuen que els carrers són molls i sabem que no ha plogut, això aporta molta informació (ja que no els reguen cada dia). Noteu que, en l'exemple anterior, la quantitat d'informació és diferent, malgrat que es tracta del mateix missatge: "els carrers són molls". En això es basen les tècniques de compressió de dades, que permeten comprimir la mateixa informació en missatges més curts. La mesura de l'entropia pot aplicar-se a informació de qualsevol naturalesa, i permet codificar-la adequadament, perquè indica els elements de codi necessaris per a transmetre-la i elimina tota redundància. Per exemple, per a indicar el resultat d'una cursa de cavalls, només cal transmetre el codi associat al cavall guanyador, no cal indicar que es tracta d'una cursa de cavalls, i molt menys com ha anat la cursa. L'entropia indica el límit teòric per a la compressió de dades.

Donada una variable aleatòria discreta X que pren valors x sobre l'alfabet amb una distribució de probabilitat {p(x)}, en què p(x) és la probabilitat que X tingui el valor x, l'entropia H(X) de la variable aleatòria es defineix com:

Habitualment, s'utilitza el logaritme en base 2, i llavors l'entropia es mesura en bits. Se segueix la convenció 0 log 0 = 0.

Exemple: el llançament d'una moneda a l'aire per veure si surt cara o creu (dos estats amb probabilitat igual a 0.5) té una entropia:

A partir d'aquesta definició bàsica es poden definir altres entropies.

Relació entre ambdues[modifica]

La relació entre ambdues és evident i sorgeix directament d'aplicar el segon principi de la termodinàmica al dimoni de Maxwell.

El dimoni de Maxwell és un ésser imaginari que pot obrir o tancar una comporta que uneix dos recipients plens del mateix gas a la mateixa temperatura. La comporta és prou petita perquè en obrir-la només passi una molècula de gas d'un cantó a l'altre. Si en apropar-se una molècula a la comporta el dimoni tingués la informació de si la seva velocitat és superior o inferior a la velocitat quadràtica mitjana de les molècules dels recipients, podria obrir i tancar la comporta selectivament, de manera que les molècules ràpides passessin al recipient calent i les lentes al recipient fred. En fer això, la calor passaria del recipient fred al calent i l'entropia del conjunt format pels dos recipients disminuiria, però com que per poder-ho fer ha de tenir la informació de la velocitat i com que segons el segon principi de la termodinàmica l'entropia de tot sistema tancat (considerant el mecanisme que permet captar la informació) ha d'augmentar, resulta que per aconseguir la informació cal fer augmentar l'entropia exactament en la mateixa quantitat en què es pot fer disminuir en emprar aquesta informació. Plantejant les equacions que resulten d'aquestes idees, s'arriba a la formulació de l'entropia que s'empra en teoria de la informació.

Referències[modifica]

  1. «entropia». Gran Enciclopèdia Catalana. Grup Enciclopèdia. [Consulta: 5 gener 2023].
  2. Clausius, R. «Ueber die Wärmeleitung gasförmiger Körper» (en alemany). Annalen der Physik und Chemie, 191, 1, 1862, pàg. 1–56. DOI: 10.1002/andp.18621910102.
  3. Bastida, Rosa M.; Brillas Coso, Enric; Centellas, F.; Domenech, X. Fonaments de termodinàmica, electroquímica i cinètica. Barcelona: Publicacions Universitat de Barcelona, 1992, p. 432. ISBN 84-475-0160-4. 
  4. Kuhn, Thomas S. La teoría del cuerpo negro y la discontinuidad cuántica, 1894-1912 (en castellà). Madrid: Alianza, 1980. ISBN 84-206-2262-1. 

Bibliografia addicional[modifica]

Vegeu també[modifica]

A Wikimedia Commons hi ha contingut multimèdia relatiu a: Entropia