Diferencia entre revisiones de «Entropía»

(Enlaces Externos)
(Etiqueta: nuestro-nuestra)
(Etiqueta: nuestro-nuestra)
Línea 1: Línea 1:
{{Definición|nombre=Entropía |imagen=entropia.jpeg|tamaño=|concepto= Es una [[magnitud física]] que permite, mediante cálculo, determinar la parte de la [[energía]] que no puede utilizarse para producir [[trabajo]].}}'''Entropía:''' Es una [[función de estado]] de carácter [[extensivo]] y su valor, en un [[sistema aislado]], crece en el transcurso de un proceso que se dé de forma natural. La entropía describe lo irreversible de los sistemas [[termodinámicos]]. La palabra entropía procede del [[griego]] (ἐντροπία) y significa evolución o transformación. Fue [[Rudolf Clausius]] quien le dio nombre y la desarrolló durante la década de 1850. Y [[Ludwig Boltzmann]] quien encontró la manera de expresar matemáticamente este concepto, desde el punto de vista de la probabilidad.<br>
+
{{Normalizar|motivo=sintetizar párrafo introductorio (idea breve y concisa); estructurar las Fuentes adecuadamente; destacar enlaces internos relevantes (eliminar los innecesarios); redactar en tercera persona; eliminar el uso de abreviaturas}} 
 
+
{{Definición|nombre=Entropía |imagen=entropia.jpeg|tamaño=|concepto= Es una [[magnitud física]] que permite, mediante cálculo, determinar la parte de la [[energía]] que no puede utilizarse para producir [[trabajo]].}}'''Entropía'''. Es una función de estado de carácter extensivo y su valor, en un sistema aislado, crece en el transcurso de un proceso que se dé de forma natural. La entropía describe lo irreversible de los [[sistemas termodinámicos]]. La palabra entropía procede del griego (ἐντροπία) y significa evolución o transformación. Fue [[Rudolf Clausius]] quien le dio nombre y la desarrolló durante la década de [[1850]]. [[Ludwig Boltzmann]] quien encontró la manera de expresar matemáticamente este concepto, desde el punto de vista de la probabilidad.
 
== Definiciones de entropía ==  
 
== Definiciones de entropía ==  
 
+
* f. fís. Función termodinámica que es una medida de la parte no utilizable de la energía contenida en un sistema o materia.         
* f. fís. Función termodinámica que es una medida de la parte no utilizable de la energía contenida en un sistema o [[materia]].         
 
 
* inform. Medida de la duda que se produce ante un conjunto de mensajes del cual se va a recibir uno solo.         
 
* inform. Medida de la duda que se produce ante un conjunto de mensajes del cual se va a recibir uno solo.         
* mec. Medida del [[desorden molecular]] de una materia o sustancia:
+
* mec. Medida del desorden molecular de una materia o sustancia:
 
los fluidos tienen más entropía que los sólidos.         
 
los fluidos tienen más entropía que los sólidos.         
 
* Desorden, caos.
 
* Desorden, caos.
 
 
== Historia de la entropía ==
 
== Historia de la entropía ==
 
+
El concepto de entropía desarrollado en respuesta a la observación de que una cierta cantidad de energía liberada de funcionales [[reacciones de combustión]]Siempre se pierde debido a la disipación o la fricción y por lo tanto no se transforma en trabajo útil . Los primeros motores de calor como [[Thomas Savery]](1698), el [[Newcomen motor]] (1712) y el Cugnot de vapor de tres ruedas (1769) eran ineficientes, la conversión de menos de dos por ciento de la energía de entrada en producción de trabajo útil; una gran cantidad de energía útil se disipa o se pierde en lo que parecía un estado de aleatoriedad inconmensurable. Durante los próximos dos siglos, los físicos investigaron este enigma de la energía perdida, el resultado fue el concepto de entropía.  
El concepto de entropía desarrollado en respuesta a la observación de que una cierta cantidad de energía liberada de funcionales [[reacciones de combustión]]Siempre se pierde debido a la disipación o la fricción y por lo tanto no se transforma en trabajo útil . Los primeros motores de calor como [[Thomas Savery]](1698), el [[Newcomen motor]] (1712) y el Cugnot de vapor de tres ruedas (1769) eran ineficientes, la conversión de menos de dos por ciento de la energía de entrada en producción de trabajo útil; una gran cantidad de energía útil se disipa o se pierde en lo que parecía un estado de aleatoriedad inconmensurable. Durante los próximos dos siglos, los físicos investigaron este enigma de la energía perdida, el resultado fue el concepto de entropía. <br>
+
En la década de 1850, [[Rudolf Clausius]] estableció el concepto de [[sistema termodinámico]] y postula la tesis de que en cualquier proceso irreversible una pequeña cantidad de energía térmica δQ se disipa gradualmente a través de la frontera del sistema. Clausius siguió desarrollando sus ideas de la energía perdida, y acuñó el término "entropía". Durante el próximo medio siglo se llevó a cabo un mayor desarrollo, y más recientemente el concepto de entropía ha encontrado aplicación en el campo análogo de pérdida de datos en los sistemas de transmisión de información.
En la década de 1850, [[Rudolf Clausius]] establecido el concepto de [[sistema termodinámico]] y postula la tesis de que en cualquier proceso irreversible una pequeña cantidad de energía térmica δQ se disipa gradualmente a través de la frontera del sistema. Clausius siguió desarrollando sus ideas de la energía perdida, y acuñó el término "entropía". Durante el próximo medio siglo se llevó a cabo un mayor desarrollo, y más recientemente el concepto de entropía ha encontrado aplicación en el campo análogo de pérdida de datos en los sistemas de transmisión de información.
+
== Entropía y las leyes de la termodinámica==
 
 
== La entropía y las leyes de la termodinámica==
 
 
La termodinámica basa sus análisis en algunas [[leyes]]: La Ley "cero", referente al concepto de [[temperatura]], la Primera Ley de la termodinámica, que nos habla de el principio de conservación de la energía, la Segunda Ley de la termodinámica, que nos define a la entropía.  
 
La termodinámica basa sus análisis en algunas [[leyes]]: La Ley "cero", referente al concepto de [[temperatura]], la Primera Ley de la termodinámica, que nos habla de el principio de conservación de la energía, la Segunda Ley de la termodinámica, que nos define a la entropía.  
===La Ley cero===
+
===Ley cero===
 
La Ley cero de la termodinámica nos dice que si tenemos dos cuerpos llamados A y B, con diferente temperatura uno de otro, y los ponemos en contacto, en un [[tiempo]] determinado t, estos alcanzarán la misma temperatura, es decir, tendrán ambos la misma temperatura. Si luego un tercer cuerpo, que llamaremos C se pone en contacto con A y B, también alcanzará la misma temperatura y, por lo tanto, A, B y C tendrán la misma temperatura mientras estén en contacto.
 
La Ley cero de la termodinámica nos dice que si tenemos dos cuerpos llamados A y B, con diferente temperatura uno de otro, y los ponemos en contacto, en un [[tiempo]] determinado t, estos alcanzarán la misma temperatura, es decir, tendrán ambos la misma temperatura. Si luego un tercer cuerpo, que llamaremos C se pone en contacto con A y B, también alcanzará la misma temperatura y, por lo tanto, A, B y C tendrán la misma temperatura mientras estén en contacto.
 
De este principio podemos inducir el de temperatura, la cual es una condición que cada cuerpo tiene y que el hombre ha aprendido a medir mediante sistemas arbitrarios y escalas de referencia (escalas termométricas).
 
De este principio podemos inducir el de temperatura, la cual es una condición que cada cuerpo tiene y que el hombre ha aprendido a medir mediante sistemas arbitrarios y escalas de referencia (escalas termométricas).
===La Primera Ley===
+
===Primera ley===
 
La Primera ley de la termodinámica se refiere al concepto de energía interna, trabajo y calor. Nos dice que si sobre un sistema con una determinada energía interna, se realiza un trabajo mediante un [[proceso]], la energía interna del sistema variará. A la diferencia de la energía interna del sistema y a la cantidad de trabajo le denominamos calor. El calor es la energía transferida al sistema por medios no mecánicos. Pensemos que nuestro sistema es un recipiente metálico con [[agua]]; podemos elevar la temperatura del agua por fricción con una cuchara o por calentamiento directo en un mechero; en el primer caso, estamos haciendo un trabajo sobre el sistema y en el segundo le transmitimos calor.
 
La Primera ley de la termodinámica se refiere al concepto de energía interna, trabajo y calor. Nos dice que si sobre un sistema con una determinada energía interna, se realiza un trabajo mediante un [[proceso]], la energía interna del sistema variará. A la diferencia de la energía interna del sistema y a la cantidad de trabajo le denominamos calor. El calor es la energía transferida al sistema por medios no mecánicos. Pensemos que nuestro sistema es un recipiente metálico con [[agua]]; podemos elevar la temperatura del agua por fricción con una cuchara o por calentamiento directo en un mechero; en el primer caso, estamos haciendo un trabajo sobre el sistema y en el segundo le transmitimos calor.
 
Cabe aclarar que la energía interna de un sistema, el trabajo y el calor no son más que diferentes manifestaciones de energía. Es por eso que la energía no se crea ni se destruye, sino que, durante un proceso solamente se transforma en sus diversas manifestaciones.
 
Cabe aclarar que la energía interna de un sistema, el trabajo y el calor no son más que diferentes manifestaciones de energía. Es por eso que la energía no se crea ni se destruye, sino que, durante un proceso solamente se transforma en sus diversas manifestaciones.
===La Segunda Ley===
+
===Segunda ley===
"No existe un proceso cuyo único resultado sea la absorción de calor de una fuente y la conversión íntegra de este calor en trabajo". Este principio (Principio de Kelvin-Planck) nació del estudio del rendimiento de máquinas y mejoramiento tecnológico de las mismas. Si este principio no fuera cierto, se podría hacer funcionar una central térmica tomando el calor del medio ambiente; aparentemente no habría ninguna contradicción, pues el [[medio ambiente]] contiene una cierta cantidad de energía interna, pero debemos señalar dos cosas: primero, la segunda ley de la termodinámica no es una consecuencia de la primera, sino una ley independiente; segundo, la segunda ley nos habla de las restricciones que existen al utilizar la energía en diferentes procesos, en nuestro caso, en una central térmica. No existe una máquina que utilice energía interna de una sola fuente de calor.<br>
+
"No existe un proceso cuyo único resultado sea la absorción de calor de una fuente y la conversión íntegra de este calor en trabajo". Este principio (Principio de Kelvin-Planck) nació del estudio del rendimiento de máquinas y mejoramiento tecnológico de las mismas. Si este principio no fuera cierto, se podría hacer funcionar una central térmica tomando el calor del medio ambiente; aparentemente no habría ninguna contradicción, pues el [[medio ambiente]] contiene una cierta cantidad de energía interna, pero debemos señalar dos cosas: primero, la segunda ley de la termodinámica no es una consecuencia de la primera, sino una ley independiente; segundo, la segunda ley nos habla de las restricciones que existen al utilizar la energía en diferentes procesos, en nuestro caso, en una central térmica. No existe una máquina que utilice energía interna de una sola fuente de calor.
El concepto de entropía fue introducido por primera vez por R. J. Clausius a mediados del siglo XIX. Clausius, ingeniero francés, también formuló un principio para la Segunda ley: "No es posible proceso alguno cuyo único resultado sea la transferencia de calor desde un cuerpo frío a otro más caliente". En base a este principio, Clausius introdujo el concepto de entropía, la cual es una medición de la cantidad de restricciones que existen para que un proceso se lleve a cabo y nos determina también la dirección de dicho proceso.<br>
+
El concepto de entropía fue introducido por primera vez por R. J. Clausius a mediados del siglo XIX. Clausius, ingeniero francés, también formuló un principio para la Segunda ley: "No es posible proceso alguno cuyo único resultado sea la transferencia de calor desde un cuerpo frío a otro más caliente". En base a este principio, Clausius introdujo el concepto de entropía, la cual es una medición de la cantidad de restricciones que existen para que un proceso se lleve a cabo y nos determina también la dirección de dicho proceso.
La entropía física, en su forma clásica, está definida por la ecuación siguiente:<br>
+
La entropía física, en su forma clásica, está definida por la ecuación siguiente:
 
 
 
[[Archivo:ecuacionclasicaentropia.png]]
 
[[Archivo:ecuacionclasicaentropia.png]]
 
+
Donde:S es la entropía, dQ la cantidad de [[calor]] intercambiado entre el sistema y el entorno y T la temperatura absoluta en kelvin).
Donde:<br>
+
==Entropía, el desorden y el grado de organización==
S es la entropía, dQ la cantidad de [[calor]] intercambiado entre el sistema y el entorno y T la temperatura absoluta en kelvin).
+
Vamos a imaginar que tenemos una caja con tres divisiones; dentro de la caja y en cada división se encuentran tres tipos diferentes de canicas: azules, amarillas y rojas, respectivamente. Las divisiones son movibles así que me decido a quitar la primera de ellas, la que separa a las canicas azules de las amarillas. Lo que estoy haciendo dentro del punto de vista de la entropía es quitar un grado o índice de restricción a mi sistema; antes de que yo quitara la primera división, las canicas se encontraban separadas y ordenadas en colores: en la primera división las azules, en la segunda las amarillas y en la tercera las rojas, estaban restringidas a un cierto orden.
 
+
Al quitar la segunda división, estoy quitando también otro grado de restricción. Las canicas se han mezclados unas con otras de tal manera que ahora no las puedo tener ordenas pues las barreras que les restringían han sido quitadas.
==La entropía, el desorden y el grado de organización.==
+
La entropía de este sistema ha aumentado al ir quitando las restricciones pues inicialmente había un orden establecido y al final del proceso (el proceso es en este caso el quitar las divisiones de la caja) no existe orden alguno dentro de la caja.
Vamos a imaginar que tenemos una caja con tres divisiones; dentro de la caja y en cada división se encuentran tres tipos diferentes de canicas: azules, amarillas y rojas, respectivamente. Las divisiones son movibles así que me decido a quitar la primera de ellas, la que separa a las canicas azules de las amarillas. Lo que estoy haciendo dentro del punto de vista de la entropía es quitar un grado o índice de restricción a mi sistema; antes de que yo quitara la primera división, las canicas se encontraban separadas y ordenadas en colores: en la primera división las azules, en la segunda las amarillas y en la tercera las rojas, estaban restringidas a un cierto orden. <br>
+
La entropía es en este caso una medida del orden (o desorden) de un sistema o de la falta de grados de restricción; la manera de utilizarla es medirla en nuestro sistema inicial, es decir, antes de remover alguna restricción, y volverla a medir al final del proceso que sufrió el sistema.  
Al quitar la segunda división, estoy quitando también otro grado de restricción. Las canicas se han mezclados unas con otras de tal manera que ahora no las puedo tener ordenas pues las barreras que les restringían han sido quitadas. <br>
+
Es importante señalar que la entropía no está definida como una cantidad absoluta S (símbolo de la entropía), sino lo que se puede medir es la diferencia entre la entropía inicial de un sistema Si y la entropía final del mismo Sf. No tiene sentido hablar de entropía sino en términos de un [[cambio]] en las condiciones de un sistema.
La entropía de este sistema ha aumentado al ir quitando las restricciones pues inicialmente había un orden establecido y al final del proceso (el proceso es en este caso el quitar las divisiones de la caja) no existe orden alguno dentro de la caja. <br>
 
La entropía es en este caso una medida del orden (o desorden) de un sistema o de la falta de grados de restricción; la manera de utilizarla es medirla en nuestro sistema inicial, es decir, antes de remover alguna restricción, y volverla a medir al final del proceso que sufrió el sistema. <br>
 
Es importante señalar que la entropía no está definida como una cantidad absoluta S (símbolo de la entropía), sino lo que se puede medir es la diferencia entre la entropía inicial de un sistema Si y la entropía final del mismo Sf. No tiene sentido hablar de entropía sino en términos de un [[cambio]] en las condiciones de un sistema. <br>
 
 
 
 
==Entropía y reversibilidad==
 
==Entropía y reversibilidad==
 
 
La entropía global del sistema es la entropía del sistema considerado más la entropía de los alrededores. También se puede decir que la variación de entropía del universo, para un proceso dado, es igual a su variación en el sistema más la de los alrededores:
 
La entropía global del sistema es la entropía del sistema considerado más la entropía de los alrededores. También se puede decir que la variación de entropía del universo, para un proceso dado, es igual a su variación en el sistema más la de los alrededores:
 
 
[[Archivo:entropiareversibilidad.png]]
 
[[Archivo:entropiareversibilidad.png]]
 
 
Si se trata de un proceso reversible, ΔS (universo) es cero pues el calor que el sistema absorbe o desprende es igual al trabajo realizado. Pero esto es una situación ideal, ya que para que esto ocurra los procesos han de ser extraordinariamente lentos, y esta circunstancia no se da en la naturaleza. Por ejemplo, en la expansión isotérmica (proceso isotérmico) de un gas, considerando el proceso como reversible, todo el calor absorbido del medio se transforma en trabajo y Q=W. Pero en la práctica real el trabajo es menor, ya que hay pérdidas por rozamientos, por lo tanto, los procesos son irreversibles. <br>
 
Si se trata de un proceso reversible, ΔS (universo) es cero pues el calor que el sistema absorbe o desprende es igual al trabajo realizado. Pero esto es una situación ideal, ya que para que esto ocurra los procesos han de ser extraordinariamente lentos, y esta circunstancia no se da en la naturaleza. Por ejemplo, en la expansión isotérmica (proceso isotérmico) de un gas, considerando el proceso como reversible, todo el calor absorbido del medio se transforma en trabajo y Q=W. Pero en la práctica real el trabajo es menor, ya que hay pérdidas por rozamientos, por lo tanto, los procesos son irreversibles. <br>
Para llevar al sistema, de nuevo, a su estado original hay que aplicarle un trabajo mayor que el producido por el gas, lo que da como resultado una transferencia de calor hacia el entorno, con un aumento de la entropía global. <br>
+
Para llevar al sistema, de nuevo, a su estado original hay que aplicarle un trabajo mayor que el producido por el gas, lo que da como resultado una transferencia de calor hacia el entorno, con un aumento de la entropía global.  
Como los procesos reales son siempre irreversibles, siempre aumentará la entropía. Así como "la energía no puede crearse ni destruirse", la entropía puede crearse pero no destruirse. Podemos decir entonces que "como el Universo es un sistema aislado, su entropía crece constantemente con el tiempo". Esto marca un sentido a la evolución del mundo físico, que llamamos principio de evolución. <br>
+
Como los procesos reales son siempre irreversibles, siempre aumentará la entropía. Así como "la energía no puede crearse ni destruirse", la entropía puede crearse pero no destruirse. Podemos decir entonces que "como el Universo es un sistema aislado, su entropía crece constantemente con el tiempo". Esto marca un sentido a la evolución del mundo físico, que llamamos principio de evolución.
 
Cuando la entropía sea máxima en el Universo, esto es, exista un equilibrio entre todas las temperaturas y presiones, llegará la muerte térmica del Universo (enunciado por [[Clausius]]).
 
Cuando la entropía sea máxima en el Universo, esto es, exista un equilibrio entre todas las temperaturas y presiones, llegará la muerte térmica del Universo (enunciado por [[Clausius]]).
 
En el caso de sistemas cuyas dimensiones sean comparables a las dimensiones de las moléculas, la diferencia entre calor y trabajo desaparece, y por tanto, los parámetros termodinámicos como la entropía, temperatura, etc. no tienen significado. Esto conduce a la afirmación de que el segundo principio de la termodinámica no es aplicable a tales microsistemas, porque realmente no son sistemas termodinámicos. Se cree que existe también un límite superior de aplicación del segundo principio, de tal modo que no se puede afirmar su cumplimiento en sistemas infinitos como el Universo, lo que pone en controversia la afirmación de Clausius sobre la muerte térmica del Universo.
 
En el caso de sistemas cuyas dimensiones sean comparables a las dimensiones de las moléculas, la diferencia entre calor y trabajo desaparece, y por tanto, los parámetros termodinámicos como la entropía, temperatura, etc. no tienen significado. Esto conduce a la afirmación de que el segundo principio de la termodinámica no es aplicable a tales microsistemas, porque realmente no son sistemas termodinámicos. Se cree que existe también un límite superior de aplicación del segundo principio, de tal modo que no se puede afirmar su cumplimiento en sistemas infinitos como el Universo, lo que pone en controversia la afirmación de Clausius sobre la muerte térmica del Universo.
 
 
==Interpretación estadística de la entropía==
 
==Interpretación estadística de la entropía==
En los años [[1890]] - [[1900]] el físico austríaco [[Ludwig Boltzmann]] y otros desarrollaron las ideas de lo que hoy se conoce como [[mecánica estadística]], teoría profundamente influenciada por el concepto de entropía. <br>
+
En los años [[1890]] - [[1900]] el físico austríaco [[Ludwig Boltzmann]] y otros desarrollaron las ideas de lo que hoy se conoce como [[mecánica estadística]], teoría profundamente influenciada por el concepto de entropía.  
Una de las teorías termodinámicas estadísticas (la [[teoría de Maxwell-Boltzmann]]) establece la siguiente relación entre la entropía y la probabilidad termodinámica: <br>
+
Una de las teorías termodinámicas estadísticas (la [[teoría de Maxwell-Boltzmann]]) establece la siguiente relación entre la entropía y la probabilidad termodinámica:  
 
 
 
[[Archivo:Interpretacionestadisticaentropia.png]]
 
[[Archivo:Interpretacionestadisticaentropia.png]]
 
 
Donde S es la entropía, k la[[constante de Boltzmann]]y Ω el número de microestados posibles para el sistema (ln es la función [[logaritmo neperiano]]). La ecuación anterior es válida porque se asume que todos los microestados tienen la misma probabilidad de aparecer. <br>
 
Donde S es la entropía, k la[[constante de Boltzmann]]y Ω el número de microestados posibles para el sistema (ln es la función [[logaritmo neperiano]]). La ecuación anterior es válida porque se asume que todos los microestados tienen la misma probabilidad de aparecer. <br>
 
La célebre ecuación se encuentra grabada sobre la lápida de la tumba de Ludwig Boltzmann en el [[Zentralfriedhof]] (el cementerio central) de [[Viena]]. Boltzmann se suicidó en [[1906]], profundamente deprimido por la poca aceptación de sus teorías en el mundo académico de la época.
 
La célebre ecuación se encuentra grabada sobre la lápida de la tumba de Ludwig Boltzmann en el [[Zentralfriedhof]] (el cementerio central) de [[Viena]]. Boltzmann se suicidó en [[1906]], profundamente deprimido por la poca aceptación de sus teorías en el mundo académico de la época.
El significado de la ecuación es el siguiente: <br>
+
El significado de la ecuación es el siguiente:  
''La cantidad de entropía de un sistema es proporcional al logaritmo natural del número de microestados posibles.'' <br>
+
''La cantidad de entropía de un sistema es proporcional al logaritmo natural del número de microestados posibles.''
Uno de los aspectos más importantes que describe esta ecuación es la posibilidad de dar una definición absoluta al concepto de la entropía. En la descripción clásica de la termodinámica, carece de sentido hablar del valor de la entropía de un sistema, pues sólo los cambios en la misma son relevantes. En cambio, la teoría estadística permite definir la entropía absoluta de un sistema. <br>
+
Uno de los aspectos más importantes que describe esta ecuación es la posibilidad de dar una definición absoluta al concepto de la entropía. En la descripción clásica de la termodinámica, carece de sentido hablar del valor de la entropía de un sistema, pues sólo los cambios en la misma son relevantes. En cambio, la teoría estadística permite definir la entropía absoluta de un sistema. Boltzmann dijo:
“Cuando la energía es degradada, dijo Boltzmann, se debe a que los átomos asumen un estado más desordenado. Y la entropía es un parámetro del desorden: ésa es la concepción profunda que se desprende de la nueva interpretación de Boltzmann. Por extraño que parezca, se puede crear una medida para el desorden; es la probabilidad de un estado particular, definido aquí como el número de formas en que se puede armar a partir de sus átomos” <br>
+
{{Sistema|Cita:“Cuando la energía es degradada, se debe a que los átomos asumen un estado más desordenado. Y la entropía es un parámetro del desorden: ésa es la concepción profunda que se desprende de la nueva interpretación de Boltzmann. Por extraño que parezca, se puede crear una medida para el desorden; es la probabilidad de un estado particular, definido aquí como el número de formas en que se puede armar a partir de sus átomos”}}
Jacob Bronowski, El ascenso del hombre, Bogotá, Fondo Educativo Interamericano, 1979, "Un mundo dentro del mundo".
 
  
 
== Fuentes ==
 
== Fuentes ==
 
+
*[http://www.monografias.com/trabajos/termoyentropia/termoyentropia.shtml La termodinámica y el concepto de Entropía.]  
* [http://www.monografias.com/trabajos/termoyentropia/termoyentropia.shtml La termodinámica y el concepto de Entropía.]  
+
*[http://www.profesorenlinea.cl/Ciencias/entropia.htm. Entropía]  
* [http://www.profesorenlinea.cl/Ciencias/entropia.htm. Entropía]  
+
*[http://www.ucm.es/info/eurotheo/diccionario/E/entropia.htm Entropía. Diccionario de la lengua española © 2005 Espasa-Calpe.]       
* [http://www.ucm.es/info/eurotheo/diccionario/E/entropia.htm Entropía. Diccionario de la lengua española © 2005 Espasa-Calpe.]       
+
*[http://www.wordreference.com/definicion/entrop%C3%ADa Entropía. WordReference.com Diccionario de la lengua española.]         
* [http://www.wordreference.com/definicion/entrop%C3%ADa Entropía. WordReference.com Diccionario de la lengua española.]         
+
*[http://www.grupoelron.org/fisicaastronomia/entropia.htm La verdad sobre la Entropía. Horacio Velmont.]
* [http://www.grupoelron.org/fisicaastronomia/entropia.htm La verdad sobre la Entropía. Horacio Velmont.]
 
  
 
[[Categoría:Física]][[Category:Termodinámica]]
 
[[Categoría:Física]][[Category:Termodinámica]]

Revisión del 15:50 13 sep 2011

Entropía
Información sobre la plantilla
Entropia.jpeg
Concepto:Es una magnitud física que permite, mediante cálculo, determinar la parte de la energía que no puede utilizarse para producir trabajo.

Entropía. Es una función de estado de carácter extensivo y su valor, en un sistema aislado, crece en el transcurso de un proceso que se dé de forma natural. La entropía describe lo irreversible de los sistemas termodinámicos. La palabra entropía procede del griego (ἐντροπία) y significa evolución o transformación. Fue Rudolf Clausius quien le dio nombre y la desarrolló durante la década de 1850. Ludwig Boltzmann quien encontró la manera de expresar matemáticamente este concepto, desde el punto de vista de la probabilidad.

Definiciones de entropía

  • f. fís. Función termodinámica que es una medida de la parte no utilizable de la energía contenida en un sistema o materia.
  • inform. Medida de la duda que se produce ante un conjunto de mensajes del cual se va a recibir uno solo.
  • mec. Medida del desorden molecular de una materia o sustancia:

los fluidos tienen más entropía que los sólidos.

  • Desorden, caos.

Historia de la entropía

El concepto de entropía desarrollado en respuesta a la observación de que una cierta cantidad de energía liberada de funcionales reacciones de combustiónSiempre se pierde debido a la disipación o la fricción y por lo tanto no se transforma en trabajo útil . Los primeros motores de calor como Thomas Savery(1698), el Newcomen motor (1712) y el Cugnot de vapor de tres ruedas (1769) eran ineficientes, la conversión de menos de dos por ciento de la energía de entrada en producción de trabajo útil; una gran cantidad de energía útil se disipa o se pierde en lo que parecía un estado de aleatoriedad inconmensurable. Durante los próximos dos siglos, los físicos investigaron este enigma de la energía perdida, el resultado fue el concepto de entropía. En la década de 1850, Rudolf Clausius estableció el concepto de sistema termodinámico y postula la tesis de que en cualquier proceso irreversible una pequeña cantidad de energía térmica δQ se disipa gradualmente a través de la frontera del sistema. Clausius siguió desarrollando sus ideas de la energía perdida, y acuñó el término "entropía". Durante el próximo medio siglo se llevó a cabo un mayor desarrollo, y más recientemente el concepto de entropía ha encontrado aplicación en el campo análogo de pérdida de datos en los sistemas de transmisión de información.

Entropía y las leyes de la termodinámica

La termodinámica basa sus análisis en algunas leyes: La Ley "cero", referente al concepto de temperatura, la Primera Ley de la termodinámica, que nos habla de el principio de conservación de la energía, la Segunda Ley de la termodinámica, que nos define a la entropía.

Ley cero

La Ley cero de la termodinámica nos dice que si tenemos dos cuerpos llamados A y B, con diferente temperatura uno de otro, y los ponemos en contacto, en un tiempo determinado t, estos alcanzarán la misma temperatura, es decir, tendrán ambos la misma temperatura. Si luego un tercer cuerpo, que llamaremos C se pone en contacto con A y B, también alcanzará la misma temperatura y, por lo tanto, A, B y C tendrán la misma temperatura mientras estén en contacto. De este principio podemos inducir el de temperatura, la cual es una condición que cada cuerpo tiene y que el hombre ha aprendido a medir mediante sistemas arbitrarios y escalas de referencia (escalas termométricas).

Primera ley

La Primera ley de la termodinámica se refiere al concepto de energía interna, trabajo y calor. Nos dice que si sobre un sistema con una determinada energía interna, se realiza un trabajo mediante un proceso, la energía interna del sistema variará. A la diferencia de la energía interna del sistema y a la cantidad de trabajo le denominamos calor. El calor es la energía transferida al sistema por medios no mecánicos. Pensemos que nuestro sistema es un recipiente metálico con agua; podemos elevar la temperatura del agua por fricción con una cuchara o por calentamiento directo en un mechero; en el primer caso, estamos haciendo un trabajo sobre el sistema y en el segundo le transmitimos calor. Cabe aclarar que la energía interna de un sistema, el trabajo y el calor no son más que diferentes manifestaciones de energía. Es por eso que la energía no se crea ni se destruye, sino que, durante un proceso solamente se transforma en sus diversas manifestaciones.

Segunda ley

"No existe un proceso cuyo único resultado sea la absorción de calor de una fuente y la conversión íntegra de este calor en trabajo". Este principio (Principio de Kelvin-Planck) nació del estudio del rendimiento de máquinas y mejoramiento tecnológico de las mismas. Si este principio no fuera cierto, se podría hacer funcionar una central térmica tomando el calor del medio ambiente; aparentemente no habría ninguna contradicción, pues el medio ambiente contiene una cierta cantidad de energía interna, pero debemos señalar dos cosas: primero, la segunda ley de la termodinámica no es una consecuencia de la primera, sino una ley independiente; segundo, la segunda ley nos habla de las restricciones que existen al utilizar la energía en diferentes procesos, en nuestro caso, en una central térmica. No existe una máquina que utilice energía interna de una sola fuente de calor. El concepto de entropía fue introducido por primera vez por R. J. Clausius a mediados del siglo XIX. Clausius, ingeniero francés, también formuló un principio para la Segunda ley: "No es posible proceso alguno cuyo único resultado sea la transferencia de calor desde un cuerpo frío a otro más caliente". En base a este principio, Clausius introdujo el concepto de entropía, la cual es una medición de la cantidad de restricciones que existen para que un proceso se lleve a cabo y nos determina también la dirección de dicho proceso. La entropía física, en su forma clásica, está definida por la ecuación siguiente: Ecuacionclasicaentropia.png Donde:S es la entropía, dQ la cantidad de calor intercambiado entre el sistema y el entorno y T la temperatura absoluta en kelvin).

Entropía, el desorden y el grado de organización

Vamos a imaginar que tenemos una caja con tres divisiones; dentro de la caja y en cada división se encuentran tres tipos diferentes de canicas: azules, amarillas y rojas, respectivamente. Las divisiones son movibles así que me decido a quitar la primera de ellas, la que separa a las canicas azules de las amarillas. Lo que estoy haciendo dentro del punto de vista de la entropía es quitar un grado o índice de restricción a mi sistema; antes de que yo quitara la primera división, las canicas se encontraban separadas y ordenadas en colores: en la primera división las azules, en la segunda las amarillas y en la tercera las rojas, estaban restringidas a un cierto orden. Al quitar la segunda división, estoy quitando también otro grado de restricción. Las canicas se han mezclados unas con otras de tal manera que ahora no las puedo tener ordenas pues las barreras que les restringían han sido quitadas. La entropía de este sistema ha aumentado al ir quitando las restricciones pues inicialmente había un orden establecido y al final del proceso (el proceso es en este caso el quitar las divisiones de la caja) no existe orden alguno dentro de la caja. La entropía es en este caso una medida del orden (o desorden) de un sistema o de la falta de grados de restricción; la manera de utilizarla es medirla en nuestro sistema inicial, es decir, antes de remover alguna restricción, y volverla a medir al final del proceso que sufrió el sistema. Es importante señalar que la entropía no está definida como una cantidad absoluta S (símbolo de la entropía), sino lo que se puede medir es la diferencia entre la entropía inicial de un sistema Si y la entropía final del mismo Sf. No tiene sentido hablar de entropía sino en términos de un cambio en las condiciones de un sistema.

Entropía y reversibilidad

La entropía global del sistema es la entropía del sistema considerado más la entropía de los alrededores. También se puede decir que la variación de entropía del universo, para un proceso dado, es igual a su variación en el sistema más la de los alrededores: Entropiareversibilidad.png Si se trata de un proceso reversible, ΔS (universo) es cero pues el calor que el sistema absorbe o desprende es igual al trabajo realizado. Pero esto es una situación ideal, ya que para que esto ocurra los procesos han de ser extraordinariamente lentos, y esta circunstancia no se da en la naturaleza. Por ejemplo, en la expansión isotérmica (proceso isotérmico) de un gas, considerando el proceso como reversible, todo el calor absorbido del medio se transforma en trabajo y Q=W. Pero en la práctica real el trabajo es menor, ya que hay pérdidas por rozamientos, por lo tanto, los procesos son irreversibles.
Para llevar al sistema, de nuevo, a su estado original hay que aplicarle un trabajo mayor que el producido por el gas, lo que da como resultado una transferencia de calor hacia el entorno, con un aumento de la entropía global. Como los procesos reales son siempre irreversibles, siempre aumentará la entropía. Así como "la energía no puede crearse ni destruirse", la entropía puede crearse pero no destruirse. Podemos decir entonces que "como el Universo es un sistema aislado, su entropía crece constantemente con el tiempo". Esto marca un sentido a la evolución del mundo físico, que llamamos principio de evolución. Cuando la entropía sea máxima en el Universo, esto es, exista un equilibrio entre todas las temperaturas y presiones, llegará la muerte térmica del Universo (enunciado por Clausius). En el caso de sistemas cuyas dimensiones sean comparables a las dimensiones de las moléculas, la diferencia entre calor y trabajo desaparece, y por tanto, los parámetros termodinámicos como la entropía, temperatura, etc. no tienen significado. Esto conduce a la afirmación de que el segundo principio de la termodinámica no es aplicable a tales microsistemas, porque realmente no son sistemas termodinámicos. Se cree que existe también un límite superior de aplicación del segundo principio, de tal modo que no se puede afirmar su cumplimiento en sistemas infinitos como el Universo, lo que pone en controversia la afirmación de Clausius sobre la muerte térmica del Universo.

Interpretación estadística de la entropía

En los años 1890 - 1900 el físico austríaco Ludwig Boltzmann y otros desarrollaron las ideas de lo que hoy se conoce como mecánica estadística, teoría profundamente influenciada por el concepto de entropía. Una de las teorías termodinámicas estadísticas (la teoría de Maxwell-Boltzmann) establece la siguiente relación entre la entropía y la probabilidad termodinámica: Interpretacionestadisticaentropia.png Donde S es la entropía, k laconstante de Boltzmanny Ω el número de microestados posibles para el sistema (ln es la función logaritmo neperiano). La ecuación anterior es válida porque se asume que todos los microestados tienen la misma probabilidad de aparecer.
La célebre ecuación se encuentra grabada sobre la lápida de la tumba de Ludwig Boltzmann en el Zentralfriedhof (el cementerio central) de Viena. Boltzmann se suicidó en 1906, profundamente deprimido por la poca aceptación de sus teorías en el mundo académico de la época. El significado de la ecuación es el siguiente: La cantidad de entropía de un sistema es proporcional al logaritmo natural del número de microestados posibles. Uno de los aspectos más importantes que describe esta ecuación es la posibilidad de dar una definición absoluta al concepto de la entropía. En la descripción clásica de la termodinámica, carece de sentido hablar del valor de la entropía de un sistema, pues sólo los cambios en la misma son relevantes. En cambio, la teoría estadística permite definir la entropía absoluta de un sistema. Boltzmann dijo: Plantilla:Sistema

Fuentes