En termodinámica , la entropía es una cantidad numérica que muestra que muchos procesos físicos pueden ir en una sola dirección en el tiempo. Por ejemplo, la crema y el café se pueden mezclar, pero no se pueden "desmezclar"; un trozo de madera se puede quemar, pero no se puede "desquemar". La palabra "entropía" ha entrado en el uso popular para referirse a una falta de orden o previsibilidad, o a un declive gradual hacia el desorden. [1] Una interpretación más física de la entropía termodinámica se refiere a la propagación de energía o materia, o a la extensión y diversidad del movimiento microscópico.
Si una película en la que se muestra cómo se mezcla café o cómo se quema madera se proyecta al revés, se mostrarían procesos que son altamente improbables en la realidad. Mezclar café y quemar madera son "irreversibles". La irreversibilidad se describe mediante una ley de la naturaleza conocida como la segunda ley de la termodinámica , que establece que en un sistema aislado (un sistema no conectado a ningún otro sistema) que está experimentando cambios, la entropía aumenta con el tiempo. [2]
La entropía no aumenta indefinidamente. Un cuerpo de materia y radiación alcanzará eventualmente un estado inmutable, sin flujos detectables, y entonces se dice que está en un estado de equilibrio termodinámico . La entropía termodinámica tiene un valor definido para tal cuerpo y está en su valor máximo. Cuando los cuerpos de materia o radiación, inicialmente en sus propios estados de equilibrio termodinámico interno, se juntan de modo que interactúan íntimamente y alcanzan un nuevo equilibrio conjunto, entonces su entropía total aumenta. Por ejemplo, un vaso de agua tibia con un cubito de hielo en su interior tendrá una entropía menor que ese mismo sistema algún tiempo después, cuando el hielo se haya derretido dejando un vaso de agua fría. Tales procesos son irreversibles: un vaso de agua fría no se convertirá espontáneamente en un vaso de agua tibia con un cubito de hielo en su interior. Algunos procesos en la naturaleza son casi reversibles. Por ejemplo, la órbita de los planetas alrededor del Sol puede considerarse prácticamente reversible: una película de los planetas orbitando alrededor del Sol que se ejecute en reversa no parecería ser imposible.
Aunque la segunda ley, y la termodinámica en general, predicen con precisión las interacciones íntimas de los sistemas físicos complejos, los científicos no se conforman con saber simplemente cómo se comporta un sistema, sino que también quieren saber por qué se comporta de la manera en que lo hace. La pregunta de por qué aumenta la entropía hasta que se alcanza el equilibrio fue respondida en 1877 por el físico Ludwig Boltzmann . La teoría desarrollada por Boltzmann y otros se conoce como mecánica estadística . La mecánica estadística explica la termodinámica en términos del comportamiento estadístico de los átomos y moléculas que componen el sistema. La teoría no solo explica la termodinámica, sino también una serie de otros fenómenos que están fuera del alcance de la termodinámica.
Explicación
Entropía termodinámica
El concepto de entropía termodinámica surge de la segunda ley de la termodinámica . Esta ley del aumento de la entropía cuantifica la reducción de la capacidad de un sistema termodinámico compuesto aislado para realizar trabajo termodinámico sobre su entorno, o indica si puede ocurrir un proceso termodinámico. Por ejemplo, siempre que exista una vía adecuada, el calor fluye espontáneamente de un cuerpo más caliente a uno más frío.
La entropía termodinámica se mide como un cambio en la entropía ( ) de un sistema que contiene un subsistema que experimenta transferencia de calor a su entorno (dentro del sistema de interés). Se basa en la relación macroscópica entre el flujo de calor hacia el subsistema y la temperatura a la que se produce sumada sobre el límite de ese subsistema.
Siguiendo el formalismo de Clausius , el cálculo básico puede enunciarse matemáticamente como: [3]
donde es el aumento o disminución de la entropía, es el calor añadido al sistema o sustraído de él, y es la temperatura. El signo "igual" y el símbolo implican que la transferencia de calor debe ser tan pequeña y lenta que apenas cambie la temperatura .
Si se permite que la temperatura varíe, la ecuación debe integrarse sobre la trayectoria de temperatura. Este cálculo del cambio de entropía no permite la determinación del valor absoluto, solo diferencias. En este contexto, la Segunda Ley de la Termodinámica puede afirmarse que para el calor transferido a través de cualquier proceso válido para cualquier sistema, ya sea aislado o no,
Según la primera ley de la termodinámica , que trata de la conservación de la energía , la pérdida de calor dará como resultado una disminución de la energía interna del sistema termodinámico . La entropía termodinámica proporciona una medida comparativa de la cantidad de disminución de la energía interna y el aumento correspondiente de la energía interna de los alrededores a una temperatura dada. En muchos casos, una visualización de la segunda ley es que la energía de todos los tipos cambia de estar localizada a dispersarse o extenderse, si no se le impide hacerlo. Cuando corresponde, el aumento de la entropía es la medida cuantitativa de ese tipo de proceso espontáneo: cuánta energía se ha perdido efectivamente o se ha vuelto indisponible, al dispersarse o extenderse, según se evalúa a una temperatura específica. Para esta evaluación, cuando la temperatura es más alta, la cantidad de energía dispersada se evalúa como "que cuesta" proporcionalmente menos. Esto se debe a que un cuerpo más caliente generalmente es más capaz de realizar trabajo termodinámico, siendo iguales otros factores, como la energía interna. Es por eso que una máquina de vapor tiene una caja de fuego caliente.
La segunda ley de la termodinámica se ocupa únicamente de los cambios de entropía ( ). La entropía absoluta (S) de un sistema se puede determinar utilizando la tercera ley de la termodinámica , que especifica que la entropía de todas las sustancias perfectamente cristalinas es cero en el cero absoluto de temperatura. [4] La entropía a otra temperatura es entonces igual al aumento de entropía al calentar el sistema de manera reversible desde el cero absoluto a la temperatura de interés. [5]
Mecánica estadística y entropía de la información
La entropía termodinámica guarda una estrecha relación con el concepto de entropía de la información ( H ). La entropía de la información es una medida de la "dispersión" de una función de densidad de probabilidad o de masa de probabilidad. La termodinámica no hace suposiciones sobre la naturaleza atomística de la materia, pero cuando se considera la materia de esta manera, como una colección de partículas en constante movimiento e intercambio de energía entre sí, y que puede describirse de manera probabilística, la teoría de la información puede aplicarse con éxito para explicar los resultados de la termodinámica. La teoría resultante se conoce como mecánica estadística .
Un concepto importante en mecánica estadística es la idea del microestado y el macroestado de un sistema. Si tenemos un recipiente con gas, por ejemplo, y conocemos la posición y la velocidad de cada molécula en ese sistema, entonces conocemos el microestado de ese sistema. Si solo conocemos la descripción termodinámica de ese sistema, la presión, el volumen, la temperatura y/o la entropía, entonces conocemos el macroestado de ese sistema. Boltzmann se dio cuenta de que hay muchos microestados diferentes que pueden producir el mismo macroestado y, como las partículas chocan entre sí y cambian sus velocidades y posiciones, el microestado del gas siempre está cambiando. Pero si el gas está en equilibrio, no parece haber cambios en su comportamiento macroscópico: no hay cambios en la presión, la temperatura, etc. La mecánica estadística relaciona la entropía termodinámica de un macroestado con el número de microestados que podrían producir ese macroestado. En mecánica estadística, la entropía del sistema está dada por la ecuación de Ludwig Boltzmann:
donde S es la entropía termodinámica, W es el número de microestados que pueden dar lugar al macroestado y es la constante de Boltzmann . El logaritmo natural del número de microestados ( ) se conoce como la entropía de información del sistema. Esto se puede ilustrar con un ejemplo sencillo:
Si lanzas dos monedas, puedes tener cuatro resultados diferentes. Si H es cara y T es cruz, podemos tener ( H , H ), ( H , T ), ( T , H ) y ( T , T ). Podemos llamar a cada uno de estos un "microestado" para el cual conocemos exactamente los resultados del proceso. Pero ¿qué pasa si tenemos menos información? Supongamos que solo conocemos el número total de caras. Este puede ser 0, 1 o 2. Podemos llamarlos "macroestados". Solo el microestado ( T , T ) dará el macroestado cero, ( H , T ) y ( T , H ) darán el macroestado 1, y solo ( H , H ) dará el macroestado 2. Por lo tanto, podemos decir que la entropía de información de los macroestados 0 y 2 es ln(1), que es cero, pero la entropía de información del macroestado 1 es ln(2), que es aproximadamente 0,69. De todos los microestados, el macroestado 1 representa la mitad de ellos.
Resulta que si lanzas una gran cantidad de monedas, los macroestados que tienen la mitad de caras y la otra mitad de cruces o cerca de ellas representan casi todos los microestados. En otras palabras, para un millón de monedas, puedes estar bastante seguro de que aproximadamente la mitad serán caras y la otra mitad cruces. Los macroestados que tengan una proporción de 50-50 entre caras y cruces serán el macroestado de "equilibrio". Un sistema físico real en equilibrio tiene una enorme cantidad de microestados posibles y casi todos ellos son el macroestado de equilibrio, y ese es el macroestado que casi con certeza verás si esperas lo suficiente. En el ejemplo de la moneda, si comienzas con un macroestado muy improbable (como todas las caras, por ejemplo con entropía cero) y comienzas a lanzar una moneda a la vez, la entropía del macroestado comenzará a aumentar, tal como lo hace la entropía termodinámica, y después de un tiempo, las monedas probablemente estarán en o cerca de ese macroestado 50-50, que tiene la mayor entropía de información: la entropía de equilibrio.
El macroestado de un sistema es lo que conocemos acerca del sistema, por ejemplo, la temperatura , la presión y el volumen de un gas en una caja. Para cada conjunto de valores de temperatura, presión y volumen, existen muchas disposiciones de moléculas que dan como resultado esos valores. La cantidad de disposiciones de moléculas que podrían dar como resultado los mismos valores de temperatura, presión y volumen es la cantidad de microestados.
El concepto de entropía de la información se ha desarrollado para describir varios fenómenos, según el campo y el contexto en el que se utilice. Cuando se aplica al problema de una gran cantidad de partículas que interactúan, junto con algunas otras restricciones, como la conservación de la energía y el supuesto de que todos los microestados son igualmente probables, la teoría resultante de la mecánica estadística es extremadamente exitosa para explicar las leyes de la termodinámica .
Ejemplo de aumento de entropía
El derretimiento del hielo proporciona un ejemplo en el que la entropía aumenta en un sistema pequeño, un sistema termodinámico que consiste en los alrededores (la habitación caliente) y la entidad del recipiente de vidrio, hielo y agua que se ha dejado alcanzar el equilibrio termodinámico a la temperatura de fusión del hielo. En este sistema, algo de calor ( δQ ) del entorno más cálido a 298 K (25 °C; 77 °F) se transfiere al sistema más frío de hielo y agua a su temperatura constante ( T ) de 273 K (0 °C; 32 °F), la temperatura de fusión del hielo. La entropía del sistema, que es delta Q/yo , aumenta en delta Q/273 mil . El calor δ Q para este proceso es la energía requerida para cambiar el agua del estado sólido al estado líquido, y se llama entalpía de fusión , es decir, Δ H para la fusión del hielo.
La entropía de la habitación circundante disminuye menos que la entropía del hielo y el agua aumenta: la temperatura ambiente de 298 K es mayor que 273 K y, por lo tanto, la relación (cambio de entropía) dedelta Q/298 kilógramos para el entorno es menor que la relación (cambio de entropía), de delta Q/273 mil para el sistema de hielo y agua. Esto siempre es cierto en eventos espontáneos en un sistema termodinámico y muestra la importancia predictiva de la entropía: la entropía neta final después de tal evento siempre es mayor que la entropía inicial.
A medida que la temperatura del agua fría aumenta hasta la de la habitación y la habitación se enfría aún más imperceptiblemente, la suma de lasdelta Q/yo En el rango continuo, "en muchos incrementos", desde el agua inicialmente fría hasta la finalmente cálida, se puede encontrar mediante cálculo. Todo el "universo" en miniatura, es decir, este sistema termodinámico, ha aumentado en entropía. La energía se ha vuelto espontáneamente más dispersa y extendida en ese "universo" que cuando se introdujo el vaso de hielo y agua y se convirtió en un "sistema" dentro de él.
Orígenes y usos
Originalmente, la entropía se denominó así para describir el "calor residual", o más precisamente, la pérdida de energía, de los motores térmicos y otros dispositivos mecánicos que nunca podrían funcionar con una eficiencia del 100% en la conversión de energía en trabajo. Más tarde, el término adquirió varias descripciones adicionales, a medida que se comprendía más sobre el comportamiento de las moléculas a nivel microscópico. A fines del siglo XIX, Ludwig Boltzmann utilizó la palabra "desorden" para desarrollar puntos de vista estadísticos sobre la entropía utilizando la teoría de la probabilidad para describir el aumento del movimiento molecular a nivel microscópico. Eso fue antes de que Werner Heisenberg y los que lo siguieron comprendieran mejor el comportamiento cuántico . Las descripciones de la entropía termodinámica (calor) a nivel microscópico se encuentran en la termodinámica estadística y la mecánica estadística .
Durante la mayor parte del siglo XX, los libros de texto tendían a describir la entropía como "desorden", siguiendo la conceptualización temprana de Boltzmann de la energía "movimiento" (es decir, cinética) de las moléculas. Más recientemente, ha habido una tendencia en los libros de texto de química y física a describir la entropía como dispersión de energía . [6] La entropía también puede implicar la dispersión de partículas, que son energéticas en sí mismas. Por lo tanto, hay casos en los que tanto las partículas como la energía se dispersan a diferentes velocidades cuando se mezclan sustancias.
Se ha comprobado que las matemáticas desarrolladas en la termodinámica estadística son aplicables en otras disciplinas. En particular, las ciencias de la información desarrollaron el concepto de entropía de la información , que carece de la constante de Boltzmann inherente a la entropía termodinámica.
Cálculo clásico de la entropía
Cuando se definió y utilizó por primera vez la palabra "entropía" en 1865, la existencia misma de los átomos todavía era controvertida, aunque durante mucho tiempo se había especulado que la temperatura se debía al movimiento de constituyentes microscópicos y que el "calor" era la transferencia de ese movimiento de un lugar a otro. El cambio de entropía, , se describía en términos macroscópicos que podían medirse directamente, como el volumen, la temperatura o la presión. Sin embargo, hoy en día la ecuación clásica de la entropía, , se puede explicar, parte por parte, en términos modernos que describen cómo las moléculas son responsables de lo que está sucediendo:
es el cambio en la entropía de un sistema (alguna sustancia física de interés) después de que moléculas que se mueven rápidamente le hayan transferido cierta energía de movimiento ("calor"). Por lo tanto, .
Entonces, , el cociente de la energía de movimiento ("calor") q que se transfiere "reversiblemente" (rev) al sistema desde el entorno (o desde otro sistema en contacto con el primer sistema) dividido por T, la temperatura absoluta a la que ocurre la transferencia.
"Reversible" o "reversiblemente" (rev) significa simplemente que T, la temperatura del sistema, tiene que permanecer (casi) exactamente igual mientras se transfiere energía hacia o desde él. Esto es fácil en el caso de cambios de fase, donde el sistema debe permanecer absolutamente en forma sólida o líquida hasta que se le dé suficiente energía para romper los enlaces entre las moléculas antes de poder cambiar a líquido o gas. Por ejemplo, en la fusión del hielo a 273,15 K, sin importar la temperatura del entorno (desde 273,20 K hasta 500 K o incluso más), la temperatura del hielo permanecerá en 273,15 K hasta que las últimas moléculas del hielo se transformen en agua líquida, es decir, hasta que se rompan todos los enlaces de hidrógeno entre las moléculas de agua del hielo y se formen nuevos enlaces de hidrógeno menos exactamente fijados entre las moléculas de agua líquida. Se ha descubierto que la cantidad de energía necesaria para la fusión del hielo por mol es de 6008 julios a 273 K. Por lo tanto, el cambio de entropía por mol es o 22 J/K.
Cuando la temperatura no está en el punto de fusión o ebullición de una sustancia, no es posible la ruptura de enlaces intermoleculares, y por lo tanto cualquier energía molecular en movimiento ("calor") del entorno transferida a un sistema aumenta su temperatura, haciendo que sus moléculas se muevan cada vez más rápido. Como la temperatura aumenta constantemente, ya no hay un valor particular de "T" en el que se transfiere energía. Sin embargo, una transferencia de energía "reversible" se puede medir con un aumento de temperatura muy pequeño, y se puede encontrar un total acumulativo sumando cada uno de muchos intervalos o incrementos pequeños de temperatura. Por ejemplo, para encontrar el cambio de entropía de 300 K a 310 K, mida la cantidad de energía transferida en docenas o cientos de incrementos de temperatura, digamos de 300,00 K a 300,01 K y luego de 300,01 a 300,02 y así sucesivamente, dividiendo q por cada T y, finalmente, sumándolos todos.
Se puede utilizar el cálculo para facilitar este cálculo si el efecto de la entrada de energía al sistema depende linealmente del cambio de temperatura, como en el caso del calentamiento simple de un sistema a temperaturas moderadas o relativamente altas. Por lo tanto, la energía que se transfiere "por cambio incremental de temperatura" (la capacidad térmica, ), multiplicada por la integral de de a , está dada directamente por .
Explicaciones alternativas de la entropía
Entropía termodinámica
Una medida de energía no disponible para el trabajo : Esta es una frase que se repite a menudo y que, aunque es cierta, requiere una aclaración considerable para ser entendida. Solo es cierta para procesos cíclicos reversibles y, en este sentido, es engañosa. Por "trabajo" se entiende mover un objeto, por ejemplo, levantar un peso, o hacer que un volante alcance la velocidad adecuada, o llevar una carga cuesta arriba. Para convertir calor en trabajo, utilizando una máquina de vapor que queme carbón, por ejemplo, uno debe tener dos sistemas a diferentes temperaturas, y la cantidad de trabajo que se puede extraer depende de cuán grande sea la diferencia de temperatura y cuán grandes sean los sistemas. Si uno de los sistemas está a temperatura ambiente y el otro sistema es mucho más grande y está cerca de la temperatura del cero absoluto, entonces casi TODA la energía del sistema a temperatura ambiente se puede convertir en trabajo. Si ambos están a la misma temperatura ambiente, entonces NINGUNA de la energía del sistema a temperatura ambiente se puede convertir en trabajo. La entropía es entonces una medida de cuánta energía no se puede convertir en trabajo, dadas estas condiciones. Más precisamente, para un sistema aislado que comprende dos sistemas cerrados a diferentes temperaturas, en el proceso de alcanzar el equilibrio, la cantidad de entropía perdida por el sistema caliente, multiplicada por la temperatura del sistema caliente, es la cantidad de energía que no se puede convertir en trabajo.
Un indicador de irreversibilidad : la interpretación de la "falta de disponibilidad de energía" se ajusta estrechamente a la interpretación de la "irreversibilidad". Los procesos termodinámicos espontáneos son irreversibles, en el sentido de que no se deshacen espontáneamente. Los procesos termodinámicos impuestos artificialmente por agentes en el entorno de un cuerpo también tienen efectos irreversibles en el cuerpo. Por ejemplo, cuando James Prescott Joule utilizó un dispositivo que suministraba una cantidad medida de trabajo mecánico desde el entorno a través de una paleta que agitaba una masa de agua, la energía transferida fue recibida por el agua en forma de calor. Hubo poca expansión del agua que realizara trabajo termodinámico de vuelta sobre el entorno. La masa de agua no mostró signos de devolver la energía al agitar la paleta en sentido inverso. La transferencia de trabajo apareció como calor y no fue recuperable sin un depósito adecuadamente frío en el entorno. La entropía da una explicación precisa de tal irreversibilidad.
Dispersión : Edward A. Guggenheim propuso una interpretación en lenguaje corriente de la entropía que puede traducirse como "dispersión de modos de movimiento microscópico en todo su rango accesible". [7] [8] Más tarde, junto con una crítica de la idea de la entropía como "desorden", la interpretación de la dispersión fue defendida por Frank L. Lambert , [6] [9] y se utiliza en algunos libros de texto para estudiantes. [10]
La interpretación se refiere propiamente a la dispersión en espacios abstractos de microestados, pero puede visualizarse vagamente en algunos ejemplos simples de propagación espacial de materia o energía. Si se elimina una partición entre dos gases diferentes, las moléculas de cada gas se dispersan espontáneamente lo más ampliamente posible en sus respectivos volúmenes recién accesibles; esto puede considerarse como una mezcla. Si se elimina una partición, que bloquea la transferencia de calor entre dos cuerpos de diferentes temperaturas, para que el calor pueda pasar entre los cuerpos, entonces la energía se dispersa o se propaga espontáneamente como calor del más caliente al más frío.
Más allá de estas visualizaciones vagas, en un proceso termodinámico general, considerado microscópicamente, la dispersión espontánea ocurre en un espacio de fases microscópico abstracto. De acuerdo con las leyes de Newton y otras leyes del movimiento, el espacio de fases proporciona un esquema sistemático para la descripción de la diversidad del movimiento microscópico que ocurre en cuerpos de materia y radiación. La segunda ley de la termodinámica puede considerarse como una explicación cuantitativa de las interacciones íntimas, la dispersión o la mezcla de tales movimientos microscópicos. En otras palabras, la entropía puede considerarse como una medida del grado de diversidad de movimientos de los constituyentes microscópicos de los cuerpos de materia y radiación en sus propios estados de equilibrio termodinámico interno.
Entropía de la información y mecánica estadística
Como medida del desorden : Tradicionalmente, los libros de texto del siglo XX han introducido la entropía como orden y desorden de modo que proporcione "una medida del desorden o aleatoriedad de un sistema". Se ha argumentado que las ambigüedades y las interpretaciones arbitrarias de los términos utilizados (como "desorden" y "caos") contribuyen a una confusión generalizada y pueden dificultar la comprensión de la entropía para la mayoría de los estudiantes. Por otro lado, en una interpretación conveniente aunque arbitraria, el "desorden" puede definirse claramente como la entropía de Shannon de la distribución de probabilidad de microestados dado un macroestado particular, [11] : 379 en cuyo caso la conexión del "desorden" con la entropía termodinámica es sencilla, pero arbitraria y no inmediatamente obvia para cualquiera que no esté familiarizado con la teoría de la información.
Información faltante : La idea de que la entropía de la información es una medida de cuánto uno no sabe sobre un sistema es bastante útil.
Si, en lugar de utilizar el logaritmo natural para definir la entropía de la información, utilizamos el logaritmo de base 2, entonces la entropía de la información es aproximadamente igual al número promedio de preguntas de sí/no (cuidadosamente elegidas [12] ) que deberían hacerse para obtener información completa sobre el sistema en estudio. En el ejemplo introductorio de dos monedas lanzadas, la entropía de información para el macroestado que contiene una cara y una cruz, solo se necesitaría una pregunta para determinar su estado exacto (por ejemplo, ¿la primera es cara?") y en lugar de expresar la entropía como ln(2) se podría decir, de manera equivalente, que es log 2 (2) que es igual al número de preguntas binarias que necesitaríamos hacer: Uno. Cuando se mide la entropía utilizando el logaritmo natural (ln), la unidad de entropía de información se llama "nat", pero cuando se mide utilizando el logaritmo de base 2, la unidad de entropía de información se llama "shannon" (alternativamente, "bit"). Esta es solo una diferencia en unidades, muy similar a la diferencia entre pulgadas y centímetros. (1 nat = log 2 e shannons). La entropía termodinámica es igual a la constante de Boltzmann multiplicada por la entropía de información expresada en nats. La entropía de información expresada con la unidad shannon (Sh) es igual al número de Preguntas de sí o no que deben responderse para determinar el microestado del macroestado.
Los conceptos de "desorden" y "extensión" pueden analizarse teniendo presente este concepto de entropía de la información. Por ejemplo, si sacamos una baraja nueva de la caja y está dispuesta en "orden perfecto" (picas, corazones, diamantes, tréboles, cada palo comenzando con el as y terminando con el rey), podemos decir que tenemos una baraja "ordenada" con una entropía de información de cero. Si barajamos a fondo la baraja, la entropía de información será de aproximadamente 225,6 shannons: necesitaremos hacer unas 225,6 preguntas, en promedio, para determinar el orden exacto de la baraja barajada. También podemos decir que la baraja barajada se ha vuelto completamente "desordenada" o que las cartas ordenadas se han "extendido" por toda la baraja. Pero la entropía de la información no dice que la baraja deba ordenarse de ninguna manera en particular. Si tomamos nuestra baraja barajada y escribimos los nombres de las cartas, en orden, entonces la entropía de información se vuelve cero. Si barajamos de nuevo la baraja, la entropía de información sería de nuevo de unos 225,6 shannons, incluso si por algún milagro volviera a barajarse en el mismo orden en que salió de la caja, porque incluso si lo hiciera, no lo sabríamos. Así que el concepto de "desorden" es útil si, por orden, entendemos el conocimiento máximo y por desorden entendemos la falta máxima de conocimiento. El concepto de "extensión" es útil porque da una idea de lo que les sucede a las cartas cuando se barajan. La probabilidad de que una carta esté en un lugar particular en una baraja ordenada es 0 o 1, en una baraja barajada es 1/52. La probabilidad se ha "extendido" por toda la baraja. Análogamente, en un sistema físico, la entropía se asocia generalmente con una "extesión" de masa o energía.
La relación entre la entropía termodinámica y la entropía de la información se da mediante la ecuación de Boltzmann, que dice que S = k B ln W . Si tomamos el logaritmo en base 2 de W , obtendremos el número promedio de preguntas que debemos hacer sobre el microestado del sistema físico para determinar su macroestado. [13]
^ "Definición de entropía en inglés". Lexico Powered By Oxford . Archivado desde el original el 11 de julio de 2019. Consultado el 18 de noviembre de 2020 .
^ En teoría, el café se puede "desmezclar" y la madera se puede "desquemar", pero para ello se necesitaría una "máquina" que generara más entropía que la que se perdió en el proceso original. Por eso la segunda ley sólo se cumple en sistemas aislados, lo que significa que no se pueden conectar a ninguna "máquina" externa.
^ I. Klotz, R. Rosenberg, Termodinámica química: conceptos y métodos básicos , 7.ª ed., Wiley (2008), pág. 125
^ Atkins, Peter; de Paula, Julio (2006). Química física de Atkins (8.ª ed.). WH Freeman. pp. 92–94. ISBN0-7167-8759-8.
^ Laidler, Keith J.; Meiser, John H. (1982). Química física . Benjamin/Cummings. pág. 110. ISBN0-8053-5682-7Las entropías pueden entonces determinarse a otras temperaturas, considerando una serie de procesos reversibles mediante los cuales la temperatura se eleva desde el cero absoluto hasta la temperatura en cuestión .
^ ab Sitios de entropía: una guía Contenido seleccionado por Frank L. Lambert
^ Dugdale, JS (1996). Entropía y su significado físico , Taylor & Francis, Londres, ISBN 0748405682 , Dugdale cita únicamente a Guggenheim, en la página 101.
^ Guggenheim, EA (1949), Base estadística de la termodinámica, Investigación: una revista de ciencia y sus aplicaciones , 2 , Butterworths, Londres, págs. 450–454; pág. 453, "Si en lugar de entropía se lee número de estados accesibles, o dispersión, el significado físico se vuelve claro".
^ Kozliak, Evguenii I.; Lambert, Frank L. (2005). "¿"Orden a desorden" para el cambio de entropía? ¡Consideremos los números!" (PDF) . Chem. Educator . 10 : 24–25.
^ Por ejemplo: Atkins, PW, de Paula J. Atkins' Physical Chemistry, 2006, WH Freeman and Company, 8.ª edición, ISBN 9780716787594. Brown, TL, HE LeMay, BE Bursten, CJ Murphy, P. Woodward, ME Stoltzfus 2017. Chemistry: The Central Science, 10.ª ed. Prentice Hall, 1248pp, ISBN 9780134414232. Ebbing, DD y SD Gammon, 2017. General Chemistry, 11.ª ed. Centage Learning 1190pp, ISBN 9781305580343 . Petrucci, Herring, Madura, Bissonnette 2011 Química general: principios y aplicaciones modernas, 10.ª edición, 1426 páginas, Pearson Canadá ISBN 9780132064521 .
^ Callen, Herbert B. (1985). Termodinámica e introducción a la termoestadística (2.ª ed.). Nueva York: John Wiley & Sons. ISBN0-471-86256-8.
^ El número mínimo de preguntas se logra cuando cada pregunta da una respuesta con certeza o reduce la incertidumbre restante a la mitad. Por ejemplo, si tuviéramos una función de probabilidad asociada con una variable , entonces el modo óptimo de cuestionamiento sería preguntar primero "¿x es igual a x 2 ?" Si la respuesta es "sí", entonces x es ciertamente igual a x 2 después de hacer solo una pregunta, y la probabilidad de que esto suceda es P 2 = 1/2. Si la respuesta es "no", entonces la siguiente pregunta sería "¿ x es igual a x 4 ?" Si la respuesta es sí, entonces x es ciertamente igual a x 4 después de hacer dos preguntas, y la probabilidad de que esto suceda es P 4 = 1/4. Si la respuesta es "no", finalmente podemos preguntar "¿ x es igual a x 1 ?". Si la respuesta es sí, entonces x es ciertamente igual a x 1 y si no, entonces x es ciertamente igual a x 3 , y la probabilidad de requerir tres preguntas es P 1 + P 3 = 1/4. El número promedio de preguntas binarias realizadas es entonces Q = (1/2)(1)+(1/4)(2)+(1/4)(3) = 7/4. Calculando la entropía de información de Shannon:
Ella
lo cual concuerda con el procedimiento paso a paso. En la mayoría de los casos, no está claro cómo dividir continuamente las opciones restantes por la mitad con cada pregunta, por lo que el concepto es estrictamente aplicable solo para casos especiales y se vuelve más preciso a medida que aumenta el número de resultados posibles. Sin embargo, la expresión de Shannon para Q es válida incluso en estos casos.
^ En la mecánica clásica, las velocidades y las posiciones son números reales y existe un continuo de un número infinito de microestados. Esto significaría que habría que plantear un número infinito de preguntas para determinar un macroestado. En la mecánica cuántica, los microestados están "cuantizados" y hay un número finito de ellos para una energía dada, por lo que el número de preguntas es finito. Boltzmann desarrolló su teoría antes de la llegada de la mecánica cuántica y, sin embargo, es digno de elogio que haya sido capaz de desarrollar una teoría que se ocupaba de un número teóricamente infinito de microestados.
Lectura adicional
Goldstein, Martin e Inge F. (1993). El refrigerador y el universo: comprensión de las leyes de la energía. Harvard Univ. Press. ISBN9780674753259.Los capítulos 4 a 12 abordan la entropía.