Estadísticas de Maxwell-Boltzmann

Distribución estadística utilizada en mecánica de múltiples partículas
Las estadísticas de Maxwell-Boltzmann se pueden utilizar para derivar la distribución de Maxwell-Boltzmann de velocidades de partículas en un gas ideal . Se muestra: distribución de velocidades para 10 6 moléculas de oxígeno a -100, 20 y 600 °C.

En mecánica estadística , la estadística de Maxwell-Boltzmann describe la distribución de partículas materiales clásicas en varios estados de energía en equilibrio térmico . Es aplicable cuando la temperatura es lo suficientemente alta o la densidad de partículas es lo suficientemente baja como para que los efectos cuánticos sean insignificantes.

El número esperado de partículas con energía para las estadísticas de Maxwell-Boltzmann es ε i {\displaystyle \varepsilon _{i}}

N i = g i e ( ε i μ ) / k T = N Z g i e ε i / k T , {\displaystyle \langle N_{i}\rangle ={\frac {g_{i}}{e^{(\varepsilon _{i}-\mu )/kT}}}={\frac {N}{Z}}\,g_{i}e^{-\varepsilon _{i}/kT},}

dónde:

  • ε i {\displaystyle \varepsilon _{i}} es la energía del i -ésimo nivel de energía ,
  • N i {\displaystyle \langle N_{i}\rangle } es el número promedio de partículas en el conjunto de estados con energía , ε i {\displaystyle \varepsilon _{i}}
  • g i {\displaystyle g_{i}} es la degeneración del nivel de energía i , es decir, el número de estados con energía que, sin embargo, pueden distinguirse entre sí por algún otro medio, [nb 1] ε i {\displaystyle \varepsilon _{i}}
  • μ es el potencial químico ,
  • k es la constante de Boltzmann ,
  • T es la temperatura absoluta ,
  • N es el número total de partículas: N = i N i , {\displaystyle N=\sum _{i}N_{i},}
  • Z es la función de partición : Z = i g i e ε i / k T , {\displaystyle Z=\sum _{i}g_{i}e^{-\varepsilon _{i}/kT},}
  • e es el número de Euler

De manera equivalente, el número de partículas a veces se expresa como

N i = 1 e ( ε i μ ) / k T = N Z e ε i / k T , {\displaystyle \langle N_{i}\rangle ={\frac {1}{e^{(\varepsilon _{i}-\mu )/kT}}}={\frac {N}{Z}}\,e^{-\varepsilon _{i}/kT},}

donde el índice i ahora especifica un estado particular en lugar del conjunto de todos los estados con energía , y . ε i {\displaystyle \varepsilon _{i}} Z = i e ε i / k T {\textstyle Z=\sum _{i}e^{-\varepsilon _{i}/kT}}

Historia

Las estadísticas de Maxwell-Boltzmann surgieron de la distribución de Maxwell-Boltzmann, probablemente como una destilación de la técnica subyacente. [ dudosodiscutir ] La distribución fue derivada por primera vez por Maxwell en 1860 sobre bases heurísticas. Más tarde, en la década de 1870, Boltzmann llevó a cabo importantes investigaciones sobre los orígenes físicos de esta distribución. La distribución puede derivarse sobre la base de que maximiza la entropía del sistema.

Aplicabilidad

Distribuciones térmicas de equilibrio para partículas con espín entero (bosones), espín semientero (fermiones) y partículas clásicas (sin espín). Se muestra la ocupación promedio en función de la energía relativa al potencial químico del sistema , donde es la temperatura del sistema y es la constante de Boltzmann. n {\displaystyle \langle n\rangle } ϵ {\displaystyle \epsilon } μ {\displaystyle \mu } T {\displaystyle T} k B {\displaystyle k_{B}}

La estadística de Maxwell-Boltzmann se utiliza para derivar la distribución de Maxwell-Boltzmann de un gas ideal. Sin embargo, también se puede utilizar para extender esa distribución a partículas con una relación energía-momento diferente , como partículas relativistas (lo que da como resultado la distribución de Maxwell-Jüttner ) y a espacios que no sean tridimensionales.

La estadística de Maxwell-Boltzmann se describe a menudo como la estadística de partículas clásicas "distinguibles". En otras palabras, la configuración de la partícula A en el estado 1 y la partícula B en el estado 2 es diferente del caso en el que la partícula B está en el estado 1 y la partícula A está en el estado 2. Esta suposición conduce a la estadística (de Boltzmann) adecuada de las partículas en los estados de energía, pero produce resultados no físicos para la entropía, como se materializa en la paradoja de Gibbs .

Al mismo tiempo, no existen partículas reales que tengan las características requeridas por las estadísticas de Maxwell-Boltzmann. De hecho, la paradoja de Gibbs se resuelve si tratamos a todas las partículas de un cierto tipo (por ejemplo, electrones, protones, fotones, etc.) como si fueran básicamente indistinguibles. Una vez que se hace esta suposición, las estadísticas de partículas cambian. El cambio de entropía en el ejemplo de la entropía de la mezcla puede verse como un ejemplo de una entropía no extensiva resultante de la distinguibilidad de los dos tipos de partículas que se mezclan.

Las partículas cuánticas son bosones (siguiendo la estadística de Bose-Einstein ) o fermiones (sujetos al principio de exclusión de Pauli , siguiendo en cambio la estadística de Fermi-Dirac ). Ambas estadísticas cuánticas se aproximan a las estadísticas de Maxwell-Boltzmann en el límite de alta temperatura y baja densidad de partículas.

Derivaciones

Las estadísticas de Maxwell-Boltzmann se pueden derivar en varios conjuntos termodinámicos mecánicos estadísticos : [1]

En cada caso es necesario suponer que las partículas no interactúan y que múltiples partículas pueden ocupar el mismo estado y hacerlo independientemente.

Derivación del conjunto microcanónico

Supongamos que tenemos un recipiente con una gran cantidad de partículas muy pequeñas, todas con características físicas idénticas (como masa, carga, etc.). Llamemos a esto el sistema . Supongamos que, aunque las partículas tienen propiedades idénticas, son distinguibles. Por ejemplo, podríamos identificar cada partícula observando continuamente sus trayectorias o colocando una marca en cada una, por ejemplo, dibujando un número diferente en cada una como se hace con las bolas de lotería .

Las partículas se mueven dentro de ese recipiente en todas direcciones a gran velocidad. Debido a que las partículas se mueven a gran velocidad, poseen cierta energía. La distribución de Maxwell-Boltzmann es una función matemática que describe aproximadamente cuántas partículas en el recipiente tienen una cierta energía. Más precisamente, la distribución de Maxwell-Boltzmann da la probabilidad no normalizada (esto significa que las probabilidades no suman 1) de que el estado correspondiente a una energía particular esté ocupado.

En general, puede haber muchas partículas con la misma cantidad de energía . Sea el número de partículas con la misma energía , el número de partículas que poseen otra energía sea , y así sucesivamente para todas las energías posibles. Para describir esta situación, decimos que es el número de ocupación del nivel de energía Si conocemos todos los números de ocupación , entonces conocemos la energía total del sistema. Sin embargo, debido a que podemos distinguir entre qué partículas ocupan cada nivel de energía, el conjunto de números de ocupación no describe completamente el estado del sistema. Para describir completamente el estado del sistema, o el microestado , debemos especificar exactamente qué partículas están en cada nivel de energía. Por lo tanto, cuando contamos el número de estados posibles del sistema, debemos contar todos y cada uno de los microestados, y no solo los posibles conjuntos de números de ocupación. ε {\displaystyle \varepsilon } ε 1 {\displaystyle \varepsilon _{1}} N 1 {\displaystyle N_{1}} ε 2 {\displaystyle \varepsilon _{2}} N 2 {\displaystyle N_{2}} { ε i i = 1 , 2 , 3 , } . {\displaystyle \{\varepsilon _{i}\mid i=1,2,3,\ldots \}.} N i {\displaystyle N_{i}} i . {\displaystyle i.} { N i i = 1 , 2 , 3 , } , {\displaystyle \{N_{i}\mid i=1,2,3,\ldots \},} { N i i = 1 , 2 , 3 , } {\displaystyle \{N_{i}\mid i=1,2,3,\ldots \}}

Para empezar, supongamos que solo hay un estado en cada nivel de energía (no hay degeneración). Lo que sigue a continuación es un poco de pensamiento combinatorio que tiene poco que ver con la descripción precisa del reservorio de partículas. Por ejemplo, digamos que hay un total de cajas etiquetadas . Con el concepto de combinación , podríamos calcular cuántas formas hay de organizarlas en el conjunto de cajas, donde no se rastrea el orden de las bolas dentro de cada caja. Primero, seleccionamos bolas de un total de bolas para colocarlas en la caja , y continuamos seleccionando para cada caja de las bolas restantes, asegurándonos de que cada bola se coloque en una de las cajas. El número total de formas en que se pueden organizar las bolas es i {\displaystyle i} k {\displaystyle k} a , b , , k {\displaystyle a,b,\ldots ,k} N {\displaystyle N} N a {\displaystyle N_{a}} N {\displaystyle N} a {\displaystyle a}

W = N ! N a ! ( N N a ) ! × ( N N a ) ! N b ! ( N N a N b ) ! × ( N N a N b ) ! N c ! ( N N a N b N c ) ! × × ( N N ) ! N k ! ( N N N k ) ! = N ! N a ! N b ! N c ! N k ! ( N N a N N k ) ! {\displaystyle {\begin{aligned}W&={\frac {N!}{N_{a}!{\cancel {(N-N_{a})!}}}}\times {\frac {\cancel {(N-N_{a})!}}{N_{b}!{\cancel {(N-N_{a}-N_{b})!}}}}\times {\frac {\cancel {(N-N_{a}-N_{b})!}}{N_{c}!{\cancel {(N-N_{a}-N_{b}-N_{c})!}}}}\times \cdots \times {\frac {\cancel {(N-\cdots -N_{\ell })!}}{N_{k}!(N-\cdots -N_{\ell }-N_{k})!}}\\[8pt]&={\frac {N!}{N_{a}!N_{b}!N_{c}!\cdots N_{k}!(N-N_{a}-\cdots -N_{\ell }-N_{k})!}}\end{aligned}}}

Como cada bola ha sido colocada en una caja , y simplificamos la expresión como ( N N a N b N k ) ! = 0 ! = 1 {\displaystyle (N-N_{a}-N_{b}-\cdots -N_{k})!=0!=1}

W = N ! = a , b , k 1 N ! {\displaystyle W=N!\prod _{\ell =a,b,\ldots }^{k}{\frac {1}{N_{\ell }!}}}

Este es solo el coeficiente multinomial , el número de formas de organizar N elementos en k cajas, la caja l -ésima contiene N l elementos, ignorando la permutación de elementos en cada caja.

Ahora, considere el caso en el que hay más de una manera de poner partículas en la caja (es decir, tomando en consideración el problema de la degeneración). Si la -ésima caja tiene una "degeneración" de , es decir, tiene "subcajas" ( cajas con la misma energía . Estos estados/cajas con la misma energía se llaman estados degenerados), de modo que cualquier manera de llenar la -ésima caja donde se cambia el número en las subcajas es una manera distinta de llenar la caja, entonces el número de maneras de llenar la i -ésima caja debe incrementarse por el número de maneras de distribuir los objetos en las "subcajas". El número de maneras de colocar objetos distinguibles en "subcajas" es (el primer objeto puede ir en cualquiera de las cajas, el segundo objeto también puede ir en cualquiera de las cajas, y así sucesivamente). Por lo tanto, el número de maneras en que un total de partículas se pueden clasificar en niveles de energía de acuerdo con sus energías, mientras que cada nivel tiene estados distintos de modo que el i -ésimo nivel acomoda partículas es: N i {\displaystyle N_{i}} i {\displaystyle i} i {\displaystyle i} g i {\displaystyle g_{i}} g i {\displaystyle g_{i}} g i {\displaystyle g_{i}} ε i {\displaystyle \varepsilon _{i}} i {\displaystyle i} N i {\displaystyle N_{i}} g i {\displaystyle g_{i}} N i {\displaystyle N_{i}} g i {\displaystyle g_{i}} g i N i {\displaystyle g_{i}^{N_{i}}} g i {\displaystyle g_{i}} g i {\displaystyle g_{i}} W {\displaystyle W} N {\displaystyle N} i {\displaystyle i} g i {\displaystyle g_{i}} N i {\displaystyle N_{i}}

W = N ! i g i N i N i ! {\displaystyle W=N!\prod _{i}{\frac {g_{i}^{N_{i}}}{N_{i}!}}}

Esta es la forma para W derivada por primera vez por Boltzmann . La ecuación fundamental de Boltzmann relaciona la entropía termodinámica S con el número de microestados W , donde k es la constante de Boltzmann . Sin embargo, Gibbs señaló que la expresión anterior para W no produce una entropía extensiva y, por lo tanto, es errónea. Este problema se conoce como la paradoja de Gibbs . El problema es que las partículas consideradas por la ecuación anterior no son indistinguibles . En otras palabras, para dos partículas ( A y B ) en dos subniveles de energía, la población representada por [A,B] se considera distinta de la población [B,A] mientras que para partículas indistinguibles, no lo son. Si llevamos a cabo el argumento para partículas indistinguibles, llegamos a la expresión de Bose-Einstein para W : S = k ln W {\displaystyle S=k\,\ln W}

W = i ( N i + g i 1 ) ! N i ! ( g i 1 ) ! {\displaystyle W=\prod _{i}{\frac {(N_{i}+g_{i}-1)!}{N_{i}!(g_{i}-1)!}}}

La distribución de Maxwell-Boltzmann se deriva de esta distribución de Bose-Einstein para temperaturas muy superiores al cero absoluto, lo que implica que . La distribución de Maxwell-Boltzmann también requiere una densidad baja, lo que implica que . En estas condiciones, podemos utilizar la aproximación de Stirling para el factorial: g i 1 {\displaystyle g_{i}\gg 1} g i N i {\displaystyle g_{i}\gg N_{i}}

N ! N N e N , {\displaystyle N!\approx N^{N}e^{-N},}

escribir:

W i ( N i + g i ) N i + g i N i N i g i g i i g i N i ( 1 + N i / g i ) g i N i N i {\displaystyle W\approx \prod _{i}{\frac {(N_{i}+g_{i})^{N_{i}+g_{i}}}{N_{i}^{N_{i}}g_{i}^{g_{i}}}}\approx \prod _{i}{\frac {g_{i}^{N_{i}}(1+N_{i}/g_{i})^{g_{i}}}{N_{i}^{N_{i}}}}}

Utilizando el hecho de que para podemos utilizar nuevamente la aproximación de Stirling para escribir: ( 1 + N i / g i ) g i e N i {\displaystyle (1+N_{i}/g_{i})^{g_{i}}\approx e^{N_{i}}} g i N i {\displaystyle g_{i}\gg N_{i}}

W i g i N i N i ! {\displaystyle W\approx \prod _{i}{\frac {g_{i}^{N_{i}}}{N_{i}!}}}

Esto es esencialmente una división por N ! de la expresión original de Boltzmann para W , y esta corrección se conoce comoconteo correcto de Boltzmann .

Queremos encontrar el para el cual la función se maximiza, considerando la restricción de que hay un número fijo de partículas y una energía fija en el contenedor. Los máximos de y se logran con los mismos valores de y , ya que es más fácil de lograr matemáticamente, maximizaremos la última función en su lugar. Restringimos nuestra solución usando multiplicadores de Lagrange que forman la función: N i {\displaystyle N_{i}} W {\displaystyle W} ( N = N i ) {\textstyle \left(N=\sum N_{i}\right)} ( E = N i ε i ) {\textstyle \left(E=\sum N_{i}\varepsilon _{i}\right)} W {\displaystyle W} ln ( W ) {\displaystyle \ln(W)} N i {\displaystyle N_{i}}

f ( N 1 , N 2 , , N n ) = ln ( W ) + α ( N N i ) + β ( E N i ε i ) {\displaystyle f(N_{1},N_{2},\ldots ,N_{n})=\textstyle \ln(W)+\alpha (N-\sum N_{i})+\beta (E-\sum N_{i}\varepsilon _{i})}
ln W = ln [ i = 1 n g i N i N i ! ] i = 1 n ( N i ln g i N i ln N i + N i ) {\displaystyle \ln W=\ln \left[\prod _{i=1}^{n}{\frac {g_{i}^{N_{i}}}{N_{i}!}}\right]\approx \sum _{i=1}^{n}\left(N_{i}\ln g_{i}-N_{i}\ln N_{i}+N_{i}\right)}

Finalmente

f ( N 1 , N 2 , , N n ) = α N + β E + i = 1 n ( N i ln g i N i ln N i + N i ( α + β ε i ) N i ) {\displaystyle f(N_{1},N_{2},\ldots ,N_{n})=\alpha N+\beta E+\sum _{i=1}^{n}\left(N_{i}\ln g_{i}-N_{i}\ln N_{i}+N_{i}-(\alpha +\beta \varepsilon _{i})N_{i}\right)}

Para maximizar la expresión anterior aplicamos el teorema de Fermat (puntos estacionarios) , según el cual los extremos locales, si existen, deben estar en puntos críticos (las derivadas parciales se anulan):

f N i = ln g i ln N i ( α + β ε i ) = 0 {\displaystyle {\frac {\partial f}{\partial N_{i}}}=\ln g_{i}-\ln N_{i}-(\alpha +\beta \varepsilon _{i})=0}

Resolviendo las ecuaciones anteriores ( ) llegamos a una expresión para : i = 1 n {\displaystyle i=1\ldots n} N i {\displaystyle N_{i}}

N i = g i e α + β ε i {\displaystyle N_{i}={\frac {g_{i}}{e^{\alpha +\beta \varepsilon _{i}}}}}

Sustituyendo esta expresión en la ecuación y asumiendo que se obtiene: N i {\displaystyle N_{i}} ln W {\displaystyle \ln W} N 1 {\displaystyle N\gg 1}

ln W = ( α + 1 ) N + β E {\displaystyle \ln W=(\alpha +1)N+\beta E\,}

o, reordenando:

E = ln W β N β α N β {\displaystyle E={\frac {\ln W}{\beta }}-{\frac {N}{\beta }}-{\frac {\alpha N}{\beta }}}

Boltzmann se dio cuenta de que esto es sólo una expresión de la ecuación fundamental de la termodinámica integrada de Euler . Al identificar E como la energía interna, la ecuación fundamental integrada de Euler establece que:

E = T S P V + μ N {\displaystyle E=TS-PV+\mu N}

donde T es la temperatura , P es la presión, V es el volumen y μ es el potencial químico . La ecuación de Boltzmann es la constatación de que la entropía es proporcional a siendo la constante de proporcionalidad la constante de Boltzmann . Utilizando la ecuación de estado de los gases ideales ( PV  =  NkT ), se deduce inmediatamente que y de modo que las poblaciones ahora pueden escribirse: S = k ln W {\displaystyle S=k\ln W} ln W {\displaystyle \ln W} β = 1 / k T {\displaystyle \beta =1/kT} α = μ / k T {\displaystyle \alpha =-\mu /kT}

N i = g i e ( ε i μ ) / ( k T ) {\displaystyle N_{i}={\frac {g_{i}}{e^{(\varepsilon _{i}-\mu )/(kT)}}}}

Tenga en cuenta que la fórmula anterior a veces se escribe:

N i = g i e ε i / k T / z {\displaystyle N_{i}={\frac {g_{i}}{e^{\varepsilon _{i}/kT}/z}}}

¿Dónde está la actividad absoluta ? z = exp ( μ / k T ) {\displaystyle z=\exp(\mu /kT)}

Alternativamente, podemos utilizar el hecho de que

i N i = N {\displaystyle \sum _{i}N_{i}=N}

para obtener los números de población como

N i = N g i e ε i / k T Z {\displaystyle N_{i}=N{\frac {g_{i}e^{-\varepsilon _{i}/kT}}{Z}}}

donde Z es la función de partición definida por:

Z = i g i e ε i / k T {\displaystyle Z=\sum _{i}g_{i}e^{-\varepsilon _{i}/kT}}

En una aproximación donde ε i se considera una variable continua, la aproximación de Thomas-Fermi produce una degeneración continua g proporcional a de modo que: ε {\displaystyle {\sqrt {\varepsilon }}}

ε e ε / k T 0 ε e ε / k T = ε e ε / k T π 2 ( k T ) 3 / 2 = 2 ε e ε / k T π ( k T ) 3 {\displaystyle {\frac {{\sqrt {\varepsilon }}\,e^{-\varepsilon /kT}}{\int _{0}^{\infty }{\sqrt {\varepsilon }}\,e^{-\varepsilon /kT}}}={\frac {{\sqrt {\varepsilon }}\,e^{-\varepsilon /kT}}{{\frac {\sqrt {\pi }}{2}}(kT)^{3/2}}}={\frac {2{\sqrt {\varepsilon }}\,e^{-\varepsilon /kT}}{\sqrt {\pi (kT)^{3}}}}}

que es simplemente la distribución de Maxwell-Boltzmann para la energía.

Derivación del conjunto canónico

En la discusión anterior, la función de distribución de Boltzmann se obtuvo mediante el análisis directo de las multiplicidades de un sistema. Alternativamente, se puede hacer uso del conjunto canónico . En un conjunto canónico, un sistema está en contacto térmico con un depósito. Si bien la energía puede fluir libremente entre el sistema y el depósito, se cree que el depósito tiene una capacidad térmica infinitamente grande como para mantener una temperatura constante, T , para el sistema combinado.

En el presente contexto, se supone que nuestro sistema tiene niveles de energía con degeneraciones . Como antes, nos gustaría calcular la probabilidad de que nuestro sistema tenga energía . ε i {\displaystyle \varepsilon _{i}} g i {\displaystyle g_{i}} ε i {\displaystyle \varepsilon _{i}}

Si nuestro sistema está en el estado , entonces habría un número correspondiente de microestados disponibles para el reservorio. Llamemos a este número . Por suposición, el sistema combinado (del sistema que nos interesa y el reservorio) está aislado, por lo que todos los microestados son igualmente probables. Por lo tanto, por ejemplo, si , podemos concluir que nuestro sistema tiene el doble de probabilidades de estar en el estado que . En general, si es la probabilidad de que nuestro sistema esté en el estado , s 1 {\displaystyle \;s_{1}} Ω R ( s 1 ) {\displaystyle \;\Omega _{R}(s_{1})} Ω R ( s 1 ) = 2 Ω R ( s 2 ) {\displaystyle \;\Omega _{R}(s_{1})=2\;\Omega _{R}(s_{2})} s 1 {\displaystyle \;s_{1}} s 2 {\displaystyle \;s_{2}} P ( s i ) {\displaystyle \;P(s_{i})} s i {\displaystyle \;s_{i}}

P ( s 1 ) P ( s 2 ) = Ω R ( s 1 ) Ω R ( s 2 ) . {\displaystyle {\frac {P(s_{1})}{P(s_{2})}}={\frac {\Omega _{R}(s_{1})}{\Omega _{R}(s_{2})}}.}

Dado que la entropía del yacimiento , lo anterior se convierte en S R = k ln Ω R {\displaystyle \;S_{R}=k\ln \Omega _{R}}

P ( s 1 ) P ( s 2 ) = e S R ( s 1 ) / k e S R ( s 2 ) / k = e ( S R ( s 1 ) S R ( s 2 ) ) / k . {\displaystyle {\frac {P(s_{1})}{P(s_{2})}}={\frac {e^{S_{R}(s_{1})/k}}{e^{S_{R}(s_{2})/k}}}=e^{(S_{R}(s_{1})-S_{R}(s_{2}))/k}.}

A continuación recordamos la identidad termodinámica (de la primera ley de la termodinámica ):

d S R = 1 T ( d U R + P d V R μ d N R ) . {\displaystyle dS_{R}={\frac {1}{T}}(dU_{R}+P\,dV_{R}-\mu \,dN_{R}).}

En un conjunto canónico no hay intercambio de partículas, por lo que el término es cero. De manera similar, esto da d N R {\displaystyle dN_{R}} d V R = 0. {\displaystyle dV_{R}=0.}

S R ( s 1 ) S R ( s 2 ) = 1 T ( U R ( s 1 ) U R ( s 2 ) ) = 1 T ( E ( s 1 ) E ( s 2 ) ) , {\displaystyle S_{R}(s_{1})-S_{R}(s_{2})={\frac {1}{T}}(U_{R}(s_{1})-U_{R}(s_{2}))=-{\frac {1}{T}}(E(s_{1})-E(s_{2})),}

donde y denotan las energías del depósito y del sistema en , respectivamente. Para la segunda igualdad hemos utilizado la conservación de la energía. Sustituyendo en la primera ecuación que relaciona : U R ( s i ) {\displaystyle U_{R}(s_{i})} E ( s i ) {\displaystyle E(s_{i})} s i {\displaystyle s_{i}} P ( s 1 ) , P ( s 2 ) {\displaystyle P(s_{1}),\;P(s_{2})}

P ( s 1 ) P ( s 2 ) = e E ( s 1 ) / k T e E ( s 2 ) / k T , {\displaystyle {\frac {P(s_{1})}{P(s_{2})}}={\frac {e^{-E(s_{1})/kT}}{e^{-E(s_{2})/kT}}},}

lo que implica, para cualquier estado del sistema

P ( s ) = 1 Z e E ( s ) / k T , {\displaystyle P(s)={\frac {1}{Z}}e^{-E(s)/kT},}

donde Z es una "constante" elegida apropiadamente para hacer que la probabilidad total sea 1. ( Z es constante siempre que la temperatura T sea invariante).

Z = s e E ( s ) / k T , {\displaystyle Z=\sum _{s}e^{-E(s)/kT},}

donde el índice s recorre todos los microestados del sistema. A veces, Z se denomina suma de Boltzmann sobre los estados (o "Zustandssumme" en el original alemán). Si indexamos la suma a través de los valores propios de la energía en lugar de todos los estados posibles, se debe tener en cuenta la degeneración. La probabilidad de que nuestro sistema tenga energía es simplemente la suma de las probabilidades de todos los microestados correspondientes: ε i {\displaystyle \varepsilon _{i}}

P ( ε i ) = 1 Z g i e ε i / k T {\displaystyle P(\varepsilon _{i})={\frac {1}{Z}}g_{i}e^{-\varepsilon _{i}/kT}}

donde, con obvia modificación,

Z = j g j e ε j / k T , {\displaystyle Z=\sum _{j}g_{j}e^{-\varepsilon _{j}/kT},}

Este es el mismo resultado que antes.

Comentarios sobre esta derivación:

  • Obsérvese que en esta formulación se prescinde de la suposición inicial "... supongamos que el sistema tiene un total de N partículas ...". De hecho, el número de partículas que posee el sistema no desempeña ningún papel a la hora de llegar a la distribución. Más bien, la cantidad de partículas que ocuparían estados con energía se deduce fácilmente como consecuencia. ε i {\displaystyle \varepsilon _{i}}
  • Lo que se ha presentado anteriormente es esencialmente una derivación de la función de partición canónica. Como se puede ver al comparar las definiciones, la suma de Boltzmann sobre los estados es igual a la función de partición canónica.
  • Se puede utilizar exactamente el mismo enfoque para derivar las estadísticas de Fermi-Dirac y Bose-Einstein . Sin embargo, en estos casos se reemplazaría el conjunto canónico por el gran conjunto canónico , ya que hay intercambio de partículas entre el sistema y el reservorio. Además, el sistema que se considera en esos casos es un estado de partícula única , no una partícula. (En la discusión anterior, podríamos haber asumido que nuestro sistema era un solo átomo).

Véase también

Notas

  1. ^ Por ejemplo, dos partículas puntuales simples pueden tener la misma energía, pero diferentes vectores de momento. Se pueden distinguir entre sí sobre esta base, y la degeneración será el número de formas posibles en que se pueden distinguir de esa manera.

Referencias

  1. ^ Tolman, RC (1938). Los principios de la mecánica estadística . Publicaciones de Dover . ISBN. 9780486638966.

Bibliografía

  • Carter, Ashley H., "Termodinámica clásica y estadística", Prentice–Hall, Inc., 2001, Nueva Jersey.
  • Raj Pathria , "Mecánica estadística", Butterworth–Heinemann, 1996.
Retrieved from "https://en.wikipedia.org/w/index.php?title=Maxwell–Boltzmann_statistics&oldid=1250616879"