Relación termodinámica fundamental

En termodinámica , la relación termodinámica fundamental son cuatro ecuaciones fundamentales que demuestran cómo cuatro cantidades termodinámicas importantes dependen de variables que pueden controlarse y medirse experimentalmente. Por lo tanto, son esencialmente ecuaciones de estado y, utilizando las ecuaciones fundamentales, se pueden utilizar datos experimentales para determinar cantidades buscadas como G ( energía libre de Gibbs ) o H ( entalpía ). [1] La relación se expresa generalmente como un cambio microscópico en la energía interna en términos de cambios microscópicos en la entropía y el volumen para un sistema cerrado en equilibrio térmico de la siguiente manera.

d U = T d S P d V {\displaystyle \mathrm {d} U=T\,\mathrm {d} S-P\,\mathrm {d} V\,}

Aquí, U es energía interna , T es temperatura absoluta , S es entropía , P es presión y V es volumen .

Esta es sólo una expresión de la relación termodinámica fundamental. Puede expresarse de otras maneras, utilizando diferentes variables (por ejemplo, utilizando potenciales termodinámicos ). Por ejemplo, la relación fundamental puede expresarse en términos de la entalpía H como

d H = T d S + V d P {\displaystyle \mathrm {d} H=T\,\mathrm {d} S+V\,\mathrm {d} P\,}

en términos de la energía libre de Helmholtz F como

d F = S d T P d V {\displaystyle \mathrm {d} F=-S\,\mathrm {d} T-P\,\mathrm {d} V\,}

y en términos de la energía libre de Gibbs G como

d G = S d T + V d P {\displaystyle \mathrm {d} G=-S\,\mathrm {d} T+V\,\mathrm {d} P\,} .

La primera y segunda ley de la termodinámica

La primera ley de la termodinámica establece que:

d U = δ Q δ W {\displaystyle \mathrm {d} U=\delta Q-\delta W\,}

donde y son cantidades infinitesimales de calor suministradas al sistema por su entorno y trabajo realizado por el sistema sobre su entorno, respectivamente. δ Q {\displaystyle \delta Q} δ W {\displaystyle \delta W}

Según la segunda ley de la termodinámica tenemos para un proceso reversible:

d S = δ Q T {\displaystyle \mathrm {d} S={\frac {\delta Q}{T}}\,}

Por eso:

δ Q = T d S {\displaystyle \delta Q=T\,\mathrm {d} S\,}

Sustituyendo esto en la primera ley, tenemos:

d U = T d S δ W {\displaystyle \mathrm {d} U=T\,\mathrm {d} S-\delta W\,}

Sea trabajo presión-volumen reversible realizado por el sistema sobre su entorno, δ W {\displaystyle \delta W}

δ W   = P d V {\displaystyle \delta W\ =P\mathrm {d} V\,}

tenemos:

d U = T d S P d V {\displaystyle \mathrm {d} U=T\,\mathrm {d} S-P\,\mathrm {d} V\,}

Esta ecuación se ha derivado en el caso de cambios reversibles. Sin embargo, dado que U , S y V son funciones de estado termodinámicas que dependen únicamente de los estados inicial y final de un proceso termodinámico, la relación anterior se cumple también para cambios no reversibles. Si la composición, es decir, las cantidades de los componentes químicos, en un sistema de temperatura y presión uniformes también pueden cambiar, por ejemplo debido a una reacción química, la relación termodinámica fundamental se generaliza a: n i {\displaystyle n_{i}}

d U = T d S P d V   + i μ i d n i {\displaystyle \mathrm {d} U=T\,\mathrm {d} S-P\,\mathrm {d} V\ +\sum _{i}\mu _{i}\,\mathrm {d} n_{i}\,}

Son los potenciales químicos correspondientes a partículas de tipo . μ i {\displaystyle \mu _{i}} i {\displaystyle i}

Si el sistema tiene más parámetros externos que sólo el volumen que pueden cambiar, la relación termodinámica fundamental se generaliza a

d U = T d S + j X j d x j + i μ i d n i {\displaystyle \mathrm {d} U=T\,\mathrm {d} S+\sum _{j}X_{j}\,\mathrm {d} x_{j}+\sum _{i}\mu _{i}\,\mathrm {d} n_{i}\,}

Aquí se muestran las fuerzas generalizadas correspondientes a los parámetros externos . (El signo negativo utilizado con la presión es inusual y surge porque la presión representa una tensión de compresión que tiende a disminuir el volumen. Otras fuerzas generalizadas tienden a aumentar sus desplazamientos conjugados). X j {\displaystyle X_{j}} x j {\displaystyle x_{j}}

Relación con la mecánica estadística

La relación termodinámica fundamental y los principios mecánicos estadísticos pueden derivarse uno de otro.

Derivación de principios mecánico-estadísticos

La derivación anterior utiliza la primera y la segunda ley de la termodinámica. La primera ley de la termodinámica es esencialmente una definición del calor , es decir, el calor es el cambio en la energía interna de un sistema que no es causado por un cambio en los parámetros externos del sistema.

Sin embargo, la segunda ley de la termodinámica no es una relación definitoria de la entropía. La definición fundamental de la entropía de un sistema aislado que contiene una cantidad de energía es: E {\displaystyle E}

S = k log [ Ω ( E ) ] {\displaystyle S=k\log \left[\Omega \left(E\right)\right]\,}

donde es el número de estados cuánticos en un pequeño intervalo entre y . Aquí hay un intervalo de energía macroscópicamente pequeño que se mantiene fijo. Estrictamente hablando, esto significa que la entropía depende de la elección de . Sin embargo, en el límite termodinámico (es decir, en el límite de un tamaño de sistema infinitamente grande), la entropía específica (entropía por unidad de volumen o por unidad de masa) no depende de . La entropía es, por lo tanto, una medida de la incertidumbre acerca de exactamente en qué estado cuántico se encuentra el sistema, dado que sabemos que su energía está en algún intervalo de tamaño . Ω ( E ) {\displaystyle \Omega \left(E\right)} E {\displaystyle E} E + δ E {\displaystyle E+\delta E} δ E {\displaystyle \delta E} δ E {\displaystyle \delta E} δ E {\displaystyle \delta E} δ E {\displaystyle \delta E}

Derivar la relación termodinámica fundamental a partir de los primeros principios equivale entonces a demostrar que la definición anterior de entropía implica que para los procesos reversibles tenemos:

d S = δ Q T {\displaystyle dS={\frac {\delta Q}{T}}}

El supuesto fundamental de la mecánica estadística es que todos los estados a una determinada energía tienen la misma probabilidad. Esto nos permite extraer todas las magnitudes termodinámicas de interés. La temperatura se define como: Ω ( E ) {\displaystyle \Omega \left(E\right)}

1 k T β d log [ Ω ( E ) ] d E {\displaystyle {\frac {1}{kT}}\equiv \beta \equiv {\frac {d\log \left[\Omega \left(E\right)\right]}{dE}}\,}

Esta definición se puede derivar del conjunto microcanónico , que es un sistema de un número constante de partículas, un volumen constante y que no intercambia energía con su entorno. Supóngase que el sistema tiene algún parámetro externo, x, que puede cambiarse. En general, los estados propios de energía del sistema dependerán de  x . Según el teorema adiabático de la mecánica cuántica, en el límite de un cambio infinitamente lento del hamiltoniano del sistema, el sistema permanecerá en el mismo estado propio de energía y, por lo tanto, cambiará su energía de acuerdo con el cambio de energía del estado propio de energía en el que se encuentra.

La fuerza generalizada, X , correspondiente al parámetro externo x se define de manera que sea el trabajo realizado por el sistema si x se incrementa en una cantidad  dx . Por ejemplo, si x es el volumen, entonces X es la presión. La fuerza generalizada para un sistema que se sabe que está en estado propio de energía viene dada por: X d x {\displaystyle Xdx} E r {\displaystyle E_{r}}

X = d E r d x {\displaystyle X=-{\frac {dE_{r}}{dx}}}

Dado que el sistema puede estar en cualquier estado propio de energía dentro de un intervalo de , definimos la fuerza generalizada para el sistema como el valor esperado de la expresión anterior: δ E {\displaystyle \delta E}

X = d E r d x {\displaystyle X=-\left\langle {\frac {dE_{r}}{dx}}\right\rangle \,}

Para evaluar el promedio, dividimos los estados propios de energía contando cuántos de ellos tienen un valor para dentro de un rango entre y . Llamando a este número , tenemos: Ω ( E ) {\displaystyle \Omega (E)} d E r d x {\displaystyle {\frac {dE_{r}}{dx}}} Y {\displaystyle Y} Y + δ Y {\displaystyle Y+\delta Y} Ω Y ( E ) {\displaystyle \Omega _{Y}\left(E\right)}

Ω ( E ) = Y Ω Y ( E ) {\displaystyle \Omega (E)=\sum _{Y}\Omega _{Y}(E)\,}

El promedio que define la fuerza generalizada ahora se puede escribir:

X = 1 Ω ( E ) Y Y Ω Y ( E ) {\displaystyle X=-{\frac {1}{\Omega (E)}}\sum _{Y}Y\Omega _{Y}(E)\,}

Podemos relacionar esto con la derivada de la entropía con respecto a x a energía constante E de la siguiente manera. Supongamos que cambiamos x a x  +  dx . Entonces cambiará porque los estados propios de energía dependen de x, lo que hace que los estados propios de energía se muevan dentro o fuera del rango entre y . Centrémonos de nuevo en los estados propios de energía para los que se encuentra dentro del rango entre y . Dado que estos estados propios de energía aumentan en energía en Y dx , todos los estados propios de energía que están en el intervalo que va desde E  −  Y dx a E se mueven desde debajo de E a encima de E . Hay Ω ( E ) {\displaystyle \Omega \left(E\right)} E {\displaystyle E} E + δ E {\displaystyle E+\delta E} d E r d x {\displaystyle {\frac {dE_{r}}{dx}}} Y {\displaystyle Y} Y + δ Y {\displaystyle Y+\delta Y}  

N Y ( E ) = Ω Y ( E ) δ E Y d x {\displaystyle N_{Y}(E)={\frac {\Omega _{Y}(E)}{\delta E}}Y\,dx}

tales estados propios de energía. Si , todos estos estados propios de energía se moverán dentro del rango entre y y contribuirán a un aumento en . El número de estados propios de energía que se mueven de abajo hacia arriba está dado, por supuesto, por . La diferencia Y d x δ E {\displaystyle Ydx\leq \delta E} E {\displaystyle E} E + δ E {\displaystyle E+\delta E} Ω {\displaystyle \Omega } E + δ E {\displaystyle E+\delta E} E + δ E {\displaystyle E+\delta E} N Y ( E + δ E ) {\displaystyle N_{Y}\left(E+\delta E\right)}

N Y ( E ) N Y ( E + δ E ) {\displaystyle N_{Y}(E)-N_{Y}(E+\delta E)\,}

es por lo tanto la contribución neta al aumento de . Nótese que si Y dx es mayor que habrá estados propios de energía que se moverán desde abajo hacia arriba de . Se cuentan tanto en como , por lo tanto, la expresión anterior también es válida en ese caso. Ω {\displaystyle \Omega } δ E {\displaystyle \delta E} E {\displaystyle E} E + δ E {\displaystyle E+\delta E} N Y ( E ) {\displaystyle N_{Y}(E)} N Y ( E + δ E ) {\displaystyle N_{Y}(E+\delta E)}

Expresando la expresión anterior como derivada con respecto a E y sumando sobre Y se obtiene la expresión:

( Ω x ) E = Y Y ( Ω Y E ) x = ( ( Ω X ) E ) x {\displaystyle \left({\frac {\partial \Omega }{\partial x}}\right)_{E}=-\sum _{Y}Y\left({\frac {\partial \Omega _{Y}}{\partial E}}\right)_{x}=\left({\frac {\partial (\Omega X)}{\partial E}}\right)_{x}\,}

La derivada logarítmica de con respecto a x viene dada por: Ω {\displaystyle \Omega }

( log ( Ω ) x ) E = β X + ( X E ) x {\displaystyle \left({\frac {\partial \log \left(\Omega \right)}{\partial x}}\right)_{E}=\beta X+\left({\frac {\partial X}{\partial E}}\right)_{x}\,}

El primer término es intensivo, es decir, no escala con el tamaño del sistema. Por el contrario, el último término escala con el tamaño inverso del sistema y, por lo tanto, se anula en el límite termodinámico. Por lo tanto, hemos encontrado que:

( S x ) E = X T {\displaystyle \left({\frac {\partial S}{\partial x}}\right)_{E}={\frac {X}{T}}\,}

Combinando esto con

( S E ) x = 1 T {\displaystyle \left({\frac {\partial S}{\partial E}}\right)_{x}={\frac {1}{T}}\,}

Da:

d S = ( S E ) x d E + ( S x ) E d x = d E T + X T d x {\displaystyle dS=\left({\frac {\partial S}{\partial E}}\right)_{x}\,dE+\left({\frac {\partial S}{\partial x}}\right)_{E}\,dx={\frac {dE}{T}}+{\frac {X}{T}}\,dx\,}

Lo cual podemos escribir como:

d E = T d S X d x {\displaystyle dE=T\,dS-X\,dx}

Derivación de principios mecánicos estadísticos a partir de la relación termodinámica fundamental

Se ha demostrado que la relación termodinámica fundamental junto con los tres postulados siguientes [2]

  1. La función de densidad de probabilidad es proporcional a alguna función de los parámetros del conjunto y las variables aleatorias.
  2. Las funciones de estado termodinámicas se describen mediante promedios de conjuntos de variables aleatorias.
  3. La entropía tal como se define en la fórmula de entropía de Gibbs coincide con la entropía tal como se define en la termodinámica clásica .

Es suficiente construir la teoría de la mecánica estadística sin el postulado de probabilidad igual a priori.

Por ejemplo, para derivar la distribución de Boltzmann , suponemos que la densidad de probabilidad del microestado i satisface . Por lo tanto, el factor de normalización (función de partición) es Pr ( i ) f ( E i , T ) {\textstyle \Pr(i)\propto f(E_{i},T)}

Z = i f ( E i , T ) . {\displaystyle Z=\sum _{i}f(E_{i},T).}

La entropía por tanto viene dada por

S = k B i f ( E i , T ) Z log ( f ( E i , T ) Z ) . {\displaystyle S=k_{B}\sum _{i}{\frac {f(E_{i},T)}{Z}}\log \left({\frac {f(E_{i},T)}{Z}}\right).}

Si cambiamos la temperatura T por dT mientras mantenemos constante el volumen del sistema, el cambio de entropía satisface

d S = ( S T ) V d T {\displaystyle dS=\left({\frac {\partial S}{\partial T}}\right)_{V}dT}

dónde

( S T ) V = k B i Z f ( E i , T ) T log f ( E i , T ) Z T f ( E i , T ) log f ( E i , T ) Z 2 = k B i T ( f ( E i , T ) Z ) log f ( E i , T ) {\displaystyle \left({\frac {\partial S}{\partial T}}\right)_{V}=-k_{B}\sum _{i}{\frac {Z\cdot {\frac {\partial f(E_{i},T)}{\partial T}}\cdot \log f(E_{i},T)-{\frac {\partial Z}{\partial T}}\cdot f(E_{i},T)\cdot \log f(E_{i},T)}{Z^{2}}}=-k_{B}\sum _{i}{\frac {\partial }{\partial T}}\left({\frac {f(E_{i},T)}{Z}}\right)\cdot \log f(E_{i},T)}

Considerando que

E = i f ( E i , T ) Z E i {\displaystyle \left\langle E\right\rangle =\sum _{i}{\frac {f(E_{i},T)}{Z}}\cdot E_{i}}

tenemos

d E = i T ( f ( E i , T ) Z ) E i d T {\displaystyle d\left\langle E\right\rangle =\sum _{i}{\frac {\partial }{\partial T}}\left({\frac {f(E_{i},T)}{Z}}\right)\cdot E_{i}\cdot dT}

De la relación termodinámica fundamental, tenemos

d S k B + d E k B T + P k B T d V = 0 {\displaystyle -{\frac {dS}{k_{B}}}+{\frac {d\left\langle E\right\rangle }{k_{B}T}}+{\frac {P}{k_{B}T}}dV=0}

Como mantuvimos V constante al perturbar T , tenemos . Combinando las ecuaciones anteriores, tenemos d V = 0 {\textstyle dV=0}

i T ( f ( E i , T ) Z ) [ log f ( E i , T ) + E i k B T ] d T = 0 {\displaystyle \sum _{i}{\frac {\partial }{\partial T}}\left({\frac {f(E_{i},T)}{Z}}\right)\cdot \left[\log f(E_{i},T)+{\frac {E_{i}}{k_{B}T}}\right]\cdot dT=0}

Las leyes de la física deberían ser universales, es decir, la ecuación anterior debe cumplirse para sistemas arbitrarios, y la única forma de que esto suceda es

log f ( E i , T ) + E i k B T = 0 {\displaystyle \log f(E_{i},T)+{\frac {E_{i}}{k_{B}T}}=0}

Eso es

f ( E i , T ) = exp ( E i k B T ) . {\displaystyle f(E_{i},T)=\exp \left(-{\frac {E_{i}}{k_{B}T}}\right).}

Se ha demostrado que el tercer postulado del formalismo anterior puede sustituirse por el siguiente: [3]

  1. A temperatura infinita, todos los microestados tienen la misma probabilidad.

Sin embargo, la derivación matemática será mucho más complicada.

Referencias

  1. ^ "Formas diferenciales de ecuaciones fundamentales". Chemistry LibreTexts . 2 de octubre de 2013.
  2. ^ Gao, Xiang; Gallicchio, Emilio; Roitberg, Adrian (2019). "La distribución de Boltzmann generalizada es la única distribución en la que la entropía de Gibbs-Shannon es igual a la entropía termodinámica". The Journal of Chemical Physics . 151 (3): 034113. arXiv : 1903.02121 . Bibcode :2019JChPh.151c4113G. doi :10.1063/1.5111333. PMID  31325924. S2CID  118981017.
  3. ^ Gao, Xiang (marzo de 2022). "Las matemáticas de la teoría de conjuntos". Resultados en Física . 34 : 105230. arXiv : 2006.00485 . Código Bibliográfico :2022ResPh..3405230G. doi : 10.1016/j.rinp.2022.105230 . S2CID  221978379.
  • La relación termodinámica fundamental
Retrieved from "https://en.wikipedia.org/w/index.php?title=Fundamental_thermodynamic_relation&oldid=1193511445"