Existen una amplia variedad de términos científicos que puedes escuchar en algunas ocasiones y que influyen en tu vida de diferentes maneras. Uno de los términos más conocidos es “entropía”, el cual es de vital importancia en muchas áreas.
Aprende todo lo esencial de la entropía y descubre por qué es de suma importancia para el mundo moderno.
¿Qué es la entropía?
En física, la entropía, normalmente expresada por la letra S, se refiere al grado de equilibrio de un sistema termodinámico o al grado en que el sistema es propenso al desorden, lo que se conoce como cambio de entropía.
Cuando la entropía fluctúa en sentido positivo, los componentes del sistema se encuentran en un estado más desordenado que cuando la entropía fluctúa en sentido negativo.
La entropía es un concepto clave de la segunda ley de la termodinámica, que establece que «la entropía del universo aumenta con el tiempo».
En otras palabras, durante un periodo de tiempo suficientemente largo, el sistema se desordena. Cuanto más cerca esté el sistema del equilibrio, mayor será la probabilidad de desorden.
También se puede decir que la entropía es un cálculo de la energía interna de un sistema que no puede utilizarse para realizar trabajo, pero que puede utilizarse y almacenarse en el sistema, es decir, es el exceso de energía disponible.
Cuando un sistema experimenta un proceso isotérmico, a la misma temperatura, el cambio de entropía, representado como S2 – S1, es igual al calor intercambiado entre el sistema y el entorno, representado como Q1→ Q2, dividido por la temperatura del sistema.
Entropía negativa
La entropía negativa, también conocida como sincronización de entropía, es la entropía liberada o elegida por un sistema para mantener un nivel bajo de desorden y caso. El físico Erwin Schrödinger utilizó por primera vez esta definición en 1943.
Este intercambio de entropía sólo es posible en los sistemas abiertos, que pueden mantener su entropía natural con la contribución de otros subsistemas conectados a ellos.
En estos casos, la entropía negativa representa la estabilidad del sistema abierto mantenida por el subsistema y permite al sistema principal recuperar el equilibrio. En cambio, en los sistemas cerrados, el proceso de entropía no puede detenerse.
¿Qué significa el desorden en la entropía?
La definición de desorden dentro de la entropía es diferente de lo que se piensa. Se trata más bien de la cantidad de posibles permutaciones de desorden que pueden ocurrir dentro de un sistema.
En otras palabras, la entropía se enfoca más en los estados de desorden que son posibles, que por el propio desorden que existe en un sistema.
De igual manera, considera diversos factores que influyen directamente en el posible desorden del sistema, como la cantidad de agentes o el espacio disponible, por ejemplo.
En el universo, la entropía continúa en crecimiento constante porque hay un mayor espacio, esto provoca que existan más estados potenciales de desorden que pueden definir a los átomos.
Historia de la entropía
El término entropía se acuñó tras la observación de que en una reacción de combustión se libera cierta cantidad de energía y que ésta se pierde por disipación o fricción sin realizar ningún trabajo útil.
En 1850, Rudolf Clausius introdujo el concepto de termodinámica y la teoría de que una cantidad muy pequeña de energía térmica podía disiparse gradualmente en cualquier proceso irreversible.
En la década de 1890, varios físicos desarrollaron la mecánica estadística, una teoría muy influida por el concepto de entropía. Con los años, el concepto ha evolucionado y ahora se aplica en muchos campos.
Propiedades de la entropía
La entropía cuenta con varias propiedades que la caracterizan, dando sentido a su concepto.
La entropía aumenta cada vez que se añade calor, independientemente de que cambie la temperatura. También disminuye cuando se retira el calor, tanto si se añade calor como si no.
Además, durante los procesos adiabáticos, la entropía es siempre constante y puede tener en cuenta la cantidad de cosas que hay en la propiedad. Por otro lado, la entropía depende de la distribución de las cosas y cuando cambia la definición de un objeto, puede generalizar valores contradictorios.
¿Cuáles son las aplicaciones de la entropía?
Existen muchas áreas donde la entropía se aplica para cubrir diferentes necesidades y alcanzar determinados objetivos.
En química, la entropía se refiere al desorden observado en la formación de un compuesto. En este contexto, la entropía mínima se refiere a la presencia de átomos en una sustancia perfectamente ordenada que forma una estructura cristalina ideal.
También se aplica en la psicología. En este caso se refiere a un sistema social en el que las personas son a la vez diferentes e iguales, y es necesario proteger las diferencias para maximizar las oportunidades.
Dentro de la informática, la entropía es el grado de incertidumbre que precede a una secuencia de mensajes de la que finalmente sólo se recibe uno. Es una medida de información utilizada para eliminar o reducir la incertidumbre.
En el ámbito lingüístico, el término se refiere a la forma en que se organiza y transmite toda la información de un discurso para analizar en profundidad el proceso de comunicación.
Además, se aplica en la teoría de la información, haciendo referencia al grado de incertidumbre asociado a un determinado conjunto de datos.