Entropie (Informationstheorie)

Entropie (nach dem Kunstwort ἐντροπία)[1] ist in der Informationstheorie:

  • einfach gesagt: die durchschnittliche Anzahl von Entscheidungen (Bits), die benötigt werden, um ein Zeichen aus einer Zeichenmenge zu identifizieren oder zu isolieren,
  • anders gesagt: ein Maß, welches für eine Nachrichtenquelle den mittleren Informationsgehalt ausgegebener Nachrichten angibt.

Der Begriff ist eng verwandt mit der Entropie in der Thermodynamik und statistischen Mechanik.

Das informationstheoretische Verständnis des Begriffes Entropie geht auf Claude E. Shannon zurück und existiert seit etwa 1948. In diesem Jahr veröffentlichte Shannon seine fundamentale Arbeit A Mathematical Theory of Communication[2] und prägte damit die moderne Informationstheorie.

Die Entropie wird üblicherweise mit einem großen Eta () bezeichnet.[1]

  1. a b Kulturgeschichte der Physik, Károly Simonyi, Urania-Verlag, Leipzig 1990, ISBN 3-332-00254-6, S. 372.
  2. C. E. Shannon: A Mathematical Theory of Communication. In: Bell System Technical Journal. Band 27, Nr. 3, 1948, S. 379–423, doi:10.1002/j.1538-7305.1948.tb01338.x (PDF).

From Wikipedia, the free encyclopedia · View on Wikipedia

Developed by razib.in