Significado de entropía

  • Entropía es una noción que procede de un vocablo griego que puede traducirse como “vuelta” o “transformación” (utilizado en sentidos figurados). Se trata de un concepto que se utiliza en la física, la química, la informática, la matemática y la lingüística, entre otros ámbitos.

    La entropía puede ser la magnitud física termodinámica que permite medir la parte no utilizable de la energía contenida en un sistema. Esto quiere decir que dicha parte de la energía no puede usarse para producir un trabajo.

    Se entiende por entropía también a la medida del desorden de un sistema. La entropía, en este sentido, está asociada a un grado de homogeneidad.

    La entropía de formación de un compuesto químico es la diferencia de entropía en el proceso formativo a partir de los elementos constituyentes. A mayor entropía de formación, más favorable será su formación.

    En la teoría de la información, la entropía es la medida de la incertidumbre que existe ante un conjunto de mensajes (de los cuales sólo se recibirá uno solo). Se trata de una medida de la información que es necesaria para reducir o eliminar la incertidumbre.

    Otra manera de entender la entropía es como la cantidad media de información que contienen los símbolos transmitidos. Palabras como “el” o “que” son los símbolos más frecuentes en un texto pero, sin embargo, son los que aportan menos información. El mensaje tendrá información relevante y máxima entropía cuando todos los símbolos son igualmente probables.

    La lingüística, por lo tanto, considera a la entropía como el grado de información discursiva ponderado según la cantidad de lexemas.