Transinformation

Transinformation oder gegenseitige Information (engl. mutual information) ist eine Größe aus der Informationstheorie, die die Stärke des statistischen Zusammenhangs zweier Zufallsgrößen angibt. Die Transinformation wird auch als Synentropie bezeichnet. Im Gegensatz zur Synentropie einer Markov-Quelle erster Ordnung, welche die Redundanz einer Quelle zum Ausdruck bringt und somit minimal sein soll, stellt die Synentropie eines Kanals den mittleren Informationsgehalt dar, der vom Sender zum Empfänger gelangt und somit maximal sein soll.

Gelegentlich wird auch die Bezeichnung relative Entropie verwendet, da die Transinformation ein Spezialfall der Kullback-Leibler-Divergenz ist.

Die Transinformation steht in einem engen Zusammenhang zur Entropie und zur bedingten Entropie.


From Wikipedia, the free encyclopedia · View on Wikipedia

Developed by Tubidy