Mass der "Unordnung", d.h. der Zustandswahrscheinlichkeit eines Systems. Die Entropiefunktion geht zurück auf Ludwig Boltzmann (1896) und steht in engem Zusammenhang mit dem Zweiten Hauptsatz der Thermodynamik. Dieser besagt, dass ein geschlossenes System das Bestreben zeigt, in den Zustand grösster Wahrscheinlichkeit oder grösster "Unordnung" zu gelangen. Offene Systeme dagegen können ihre Entropie unverändert halten oder sie sogar vermindern und so in Zustände höherer Ordnung gelangen. Die Entropie verändert sich nur bei irreversiblen Vorgängen, indem sie zunimmt; bei reversiblen bleibt sie erhalten. Beim absoluten Nullpunkt der Temperatur z.B. besitzt die Entropie den Wert Null; ihre Masseinheit ist Joule/Kelvin. Davon abzugrenzen ist die Entropie einer Information (mittlerer Informationsgehalt), einem Begriff aus der Informationstheorie, der das Mass der Ordnung der statistischen Struktur einer Nachrichtenquelle zum Ausdruck bringt. Er ist dimensionslos und faktisch keine Entropie im Sinne Boltzmanns.
(Negentropie): Der Begriff stammt aus der Thermodynamik und ist dort eine Größe, die das Mass der Irreversibilität physikalischer Prozesse angibt. In der Informationstheorie ist Entropie das Mass der durchschnittlichen Information der Zeichen eines Repertoires, d.h. der von einer Quelle ausgesendeten Zeichen. Sie ist so zugleich ein Mass des Aufwandes, der erforderlich ist, um eine Nachricht unter Verwendung der Zeichen eines Repertoires zu senden. Für die Entropie eines Repertoires ergibt sich die Formel:
wobei pi die relative Häufigkeit der Verwendung der Zeichen des Repertoires, n die Zahl der verfügbaren Zeichen des Systems und Id den logarithmus dualis bezeichnet. Die Entropie ist auch ein für den Vergleich der Leistungsfähigkeit unterschiedlicher Repertoires von Zeichen oder unterschiedlicher Formulierungen geeignetes Instrument.
Vorhergehender Fachbegriff: Entrepreneurship | Nächster Fachbegriff: Entry limit pricing
Diesen Artikel der Redaktion als fehlerhaft melden & zur Bearbeitung vormerken
|