( T ) ³ g ( T 1,0) g ( T 2,0). Recordemos que la entropía se define por s = ln g ( T ), por lo que esta conclusión conduce a la ley de aumento de entropía s final³s < sub> inicial (4,3) Supongamos que d T es la incertidumbre en T . Podemos mirar a la densidad de estados en un sistema dado. Deja que D ( T ) será el número de estados por intervalo de unidad de energía. Entonces g ( T ) = D ( T ) d T y s ( T ) = ln D ( T ) + ln d T En muchos casos, nos encontramos con que el número total de estados es proporcional a 2 N. Si el número total de estados es de orden N tiempos algunos de energía medio de partículas, D, entonces. Para este caso, vemos que s ( T ) = N ln (2) - ln ( N ) - ln (D ) + ln (d T ) En la mayoría de los otros casos, nos encontramos con que el número total de estados en un sistema es proporcional a T N d T . Así que la entropía se puede escribir como s ( T ) = N ln ( T ) + ln (d U ) (4,4) Por lo general, la incertidumbre en T será inferior a 1. Por lo tanto, vemos que en ambos casos, el primer término, N ln ( T ) o N ln (2), dominarán la entropía. Ahora estamos listos para definir las tres leyes de la termodinámica: Cero ley Si Un está en equilibrio térmico con B y B es en equilibrio térmico con C , a continuación, Un está en equilibrio térmico con C . Esto se hace evidente al ver matemáticamente: Primera ley El calor es una forma de energía. Esto es simplemente una declaración de la conservación de la energía. Derecho Segundo Si un sistema cerrado está en una configuración que no es la configuración de equilibrio, la consecuencia más probable será que la entropía del sistema aumentará monotónicamente en instantes sucesivos de tiempo. Otra formulación de esta ley es la formulación clásica de Kelvin-Planck "Es imposible para cualquier proceso cíclico que se produzca cuyo único efecto es la extracción de calor de un depósito y el desempeño de
Las Tres Leyes de la Termodinámica
Boltzmann Distribución de Conferencia Física Térmica Notes