Beschreibung
In der Informationstheorie oder der Stochastik beschreibt Entropie die Menge an Ungewissheit in einem System.
Haben wir beispielsweise ein Zufallsexperiment mit möglichen Ergebnissen, so ist das Zufallsexperiment viel “gewisser” als ein Experiment mit möglichen Ergebnissen. Um das zu formalisieren, führen wir den Begriff der Entropie ein.
Definition
Die Entropie errechnet sich aus der erwarteten erhaltenen Information. Sie ist also:
Entropie des Binären Experiments
Ein Bernoulli-Experiment taucht so häufig auf, dass es sinnvoll ist, die Entropie-Schreibweise zu vereinfachen. Statt dem schreiben wir die Trefferwahrscheinlichkeit :
Bedingte Entropie
In einem Experiment zu Bedingte Wahrscheinlichkeit (Didaktik) kann man ebenfalls die Entropie berechnen. Dies ist einfach die Entropie des Experiments unter der Bedingung, dass ein Ereignis eingetreten ist.
Eigenschaften
Logarithmuseigenschaft
So wie die Information hat auch die Entropie eine Logarithmuseigenschaft für unabhängige Ereignisse:
Additive Ungleichung
Würfelt man mit zwei Würfeln eine und wir wissen nicht, mit welchen Würfeln das passiert ist, ist Information verloren gegangen. Die Entropie wird nach diesem Prinzip bei Summen von Zufallsvariablen kleiner
Beispiele
Beispiel mit unendlicher Entropie
Betrachte die Wahrscheinlichkeitsverteilung wobei der normierende Faktor ist.
Die Entropie der Verteilung ist unendlich groß.
mmingArtProbability2018]]