Beschreibung

In der Informationstheorie oder der Stochastik beschreibt Entropie die Menge an Ungewissheit in einem System.

Haben wir beispielsweise ein Zufallsexperiment mit möglichen Ergebnissen, so ist das Zufallsexperiment viel “gewisser” als ein Experiment mit möglichen Ergebnissen. Um das zu formalisieren, führen wir den Begriff der Entropie ein.

Definition

Die Entropie errechnet sich aus der erwarteten erhaltenen Information. Sie ist also:

Entropie des Binären Experiments

Ein Bernoulli-Experiment taucht so häufig auf, dass es sinnvoll ist, die Entropie-Schreibweise zu vereinfachen. Statt dem schreiben wir die Trefferwahrscheinlichkeit :

Bedingte Entropie

In einem Experiment zu Bedingte Wahrscheinlichkeit (Didaktik) kann man ebenfalls die Entropie berechnen. Dies ist einfach die Entropie des Experiments unter der Bedingung, dass ein Ereignis eingetreten ist.

Eigenschaften

Logarithmuseigenschaft

So wie die Information hat auch die Entropie eine Logarithmuseigenschaft für unabhängige Ereignisse:

Additive Ungleichung

Würfelt man mit zwei Würfeln eine und wir wissen nicht, mit welchen Würfeln das passiert ist, ist Information verloren gegangen. Die Entropie wird nach diesem Prinzip bei Summen von Zufallsvariablen kleiner

Beispiele

Beispiel mit unendlicher Entropie

Betrachte die Wahrscheinlichkeitsverteilung wobei der normierende Faktor ist.

Die Entropie der Verteilung ist unendlich groß.

mmingArtProbability2018]]