Entropie ist definiert als das quantitative Maß für Unordnung oder Zufälligkeit in einem System. Das Konzept stammt aus der Thermodynamik, die sich mit der Übertragung von Wärmeenergie innerhalb eines Systems befasst. Anstatt von irgendeiner Form der "absoluten Entropie" zu sprechen, diskutieren Physiker im Allgemeinen die Änderung der Entropie, die in einem bestimmten thermodynamischen Prozess stattfindet.
In einem isothermen Prozess wird die Änderung der Entropie (delta-S) ist die Änderung der Wärme (Q.) dividiert durch die absolute Temperatur (T):
Delta-S = Q./T
In jedem reversiblen thermodynamischen Prozess kann er im Kalkül als das Integral vom Anfangszustand eines Prozesses bis zu seinem Endzustand von dargestellt werden dQ/T. Im allgemeineren Sinne ist Entropie ein Maß für die Wahrscheinlichkeit und die molekulare Störung eines makroskopischen Systems. In einem System, das durch Variablen beschrieben werden kann, können diese Variablen eine bestimmte Anzahl von Konfigurationen annehmen. Ist jede Konfiguration gleich wahrscheinlich, so ist die Entropie der natürliche Logarithmus der Anzahl der Konfigurationen multipliziert mit der Boltzmannschen Konstante:
S = kB ln W
wo S Entropie ist, kB ist die Boltzmannsche Konstante, in ist der natürliche Logarithmus und W steht für die Anzahl der möglichen Zustände. Die Boltzmann-Konstante beträgt 1,38065 × 10−23 J / K.
Die Entropie wird als umfassende Eigenschaft der Materie betrachtet, die in Energie geteilt durch die Temperatur ausgedrückt wird. Die SI-Einheiten der Entropie sind J / K (Joule / Grad Kelvin).
Eine Möglichkeit, den zweiten Hauptsatz der Thermodynamik zu formulieren, ist folgende: In jedem geschlossenen System bleibt die Entropie des Systems entweder konstant oder nimmt zu.
Sie können dies folgendermaßen anzeigen: Wenn Sie einem System Wärme hinzufügen, beschleunigen sich die Moleküle und Atome. Es kann möglich sein (wenn auch schwierig), den Prozess in einem geschlossenen System umzukehren, ohne irgendwo anders Energie zu entnehmen oder freizusetzen, um den Ausgangszustand zu erreichen. Sie können niemals das gesamte System "weniger energisch" machen als zu Beginn. Die Energie hat keinen Ort, an den sie gehen kann. Bei irreversiblen Prozessen nimmt die kombinierte Entropie des Systems und seiner Umgebung immer zu.
Diese Ansicht des zweiten Hauptsatzes der Thermodynamik ist sehr populär und wurde missbraucht. Einige argumentieren, dass der zweite Hauptsatz der Thermodynamik dazu führt, dass ein System nie geordneter werden kann. Das ist falsch. Es bedeutet nur, dass Sie, um geordneter zu werden (damit die Entropie abnimmt), Energie von einem Ort außerhalb des Systems übertragen müssen, z. Dies steht in vollem Einklang mit den Bestimmungen des zweiten Gesetzes.
Entropie wird auch als Unordnung, Chaos und Zufälligkeit bezeichnet, obwohl alle drei Synonyme ungenau sind.
Ein verwandter Begriff ist "absolute Entropie", die mit bezeichnet wird S eher, als ΔS. Die absolute Entropie wird nach dem dritten Hauptsatz der Thermodynamik definiert. Hier wird eine Konstante angewendet, die bewirkt, dass die Entropie bei absolutem Nullpunkt als Null definiert wird.