Bayessche Statistik
aus Wikipedia, der freien Enzyklopädie
Unter Bayesscher Statistik versteht man einen besonderen Zweig der modernen Statistik. Sie beruht auf dem Satz von Bayes. Eine mögliche Anwendung besteht z.B. im Testen einer Nullhypothese:
- H0 ist die Nullhypothese.
- E ist das beobachtete Ereignis.
- P(H0) ist die A-priori-Wahrscheinlichkeit von H0.
- P(E | H0) ist die bedingte Wahrscheinlichkeit von E, unter der Bedingung dass die Nullhypothese H0 wahr ist; als Funktion von H0 nennt man sie die Likelihood-Funktion.
- P(E) ist die unbedingte Wahrscheinlichkeit von E. Es handelt sich um eine normierende Konstante, welche manchmal als Evidenz bezeichnet wird. Die unbedingte Wahrscheinlichkeit kann mit dem Satz von der totalen Wahrscheinlichkeit als Erwartungswert der bedingten Wahrscheinlichkeiten P(E | H0) und P(E | H1) berechnet werden, wobei H1 die Alternativhypothese (also die Gegenhypothese zu H0) darstellt.
- P(H0 | E) ist die A-Posteriori-Wahrscheinlichkeit von H0 gegeben E.
Falls P(H0 | E) unter einen vorgegebenen Schwellenwert (die Fehlerwahrscheinlichkeit 1. Art) fällt, wird die Nullhypothese verworfen. In praxi wird die A-Posteriori-Wahrscheinlichkeit oft mittels Monte-Carlo-Simulationen berechnet.
Während die Festlegung eines statistischen Modells P(E | H0) im Allgemeinen noch objektiv begründet werden kann, ist die Wahl der A-Priori-Wahrscheinlichkeit P(H0) einer gewissen Willkür unterworfen.