F-Test
aus Wikipedia, der freien Enzyklopädie
Der F-Test ist ein Statistischer Test, mithilfe dessen mit einer gewissen Konfidenz entschieden werden kann, ob zwei Stichproben aus unterschiedlichen Populationen sich hinsichtlich ihrer Varianz statistisch signifikant unterscheiden. Er dient damit unter anderem zur generellen Überprüfung von Unterschieden zwischen zwei statistischen Populationen.
Der Test geht zurück auf einen der bekanntesten Mathematiker und Statistiker, Ronald Aylmer Fisher (1890-1962). Als Prüfwert des F-Tests wird der F-Wert berechnet, welcher unter der Nullhypothese einer F-Verteilung (s. auch Chi-Quadrat-Verteilung) mit n1 und n2 Freiheitsgraden gehorcht.
Inhaltsverzeichnis |
[Bearbeiten] F-Test für zwei Stichproben
Beim F-Test zweier Stichproben lautet die Null-Hypothese:
Formal berechnet sich der F-Wert der Stichprobe dann als der Quotient der geschätzten Varianzen der beiden Stichproben:
Wird die Untersuchung unter einer einseitigen Alternativhypothese betrachtet, schreibt man den größeren Varianzwert in den Zähler. Die Varianzen werden dabei jeweils durch die Varianzen der Messwerte der entsprechenden Stichprobe geschätzt.
Der theoretische F-Wert kann nun unter Berücksichtigung der Freiheitsgrade der Verteilung und einer angenommenen Irrtumswahrscheinlichkeit α aus der F-Verteilung gewonnen werden. Dies geschieht am einfachsten unter Zuhilfenahme einer F-Wert-Tabelle.
Ist FStichprobe größer als der theoretische F-Wert für die Irrtumswahrscheinlichkeit α, dann gilt mit der Wahrscheinlichkeit 1 − α: Die Varianz der einen Stichprobe unterscheidet sich von der Varianz der anderen Stichprobe signifikant.
Wenn sich zwei Stichproben schon in ihren Varianzen unterscheiden, dann unterscheiden sie sich allgemein natürlich auch.
Beispiel: Ein Unternehmen will vor dem Kauf einer neuen Anwendung prüfen, welche von zwei konkurrierenden Anwendungen die bessere ist. Unter anderem wird die Zufriedenheit der Benutzer gemessen. Die Ergebnisse eines Zufriedenheitsfragebogens zeigen bei den 120 Benutzern der Anwendung A eine Varianz von 95. Die Werte der 100 Benutzer der Anwendung B haben eine Varianz von 80. Die Präferenz des Unternehmens geht eindeutig zur Anwendung A, aus diesem Grunde wird eine einseitige Überprüfung vorgeschlagen:
Für diesen F-Wert liefert die F-Verteilung eine Irrtumswahrscheinlichkeit von 18,4%. Das heißt also: Mit der Wahrscheinlichkeit 81,6% unterscheiden sich die Varianzen der beiden Stichproben signifikant.
In der Regel geht man aber von einer Irrtumswahrscheinlichkeit aus. Wir können die Nullhypothese also nicht mit genügender Sicherheit ablehnen, müssen also in Kauf nehmen, dass sich die Varianzen der beiden Stichproben nicht signifikant voneinander unterscheiden.
[Bearbeiten] F-Test für mehrere Stichprobenvergleiche
Der einfaktoriellen Varianzanalyse liegt ebenfalls der F-Test zugrunde. Hier werden die Treatment- und Fehler-Varianzen einander gegenüber gestellt.
[Bearbeiten] F-Test des Bestimmtheitsmaßes eines Regressionsansatzes
Hier wird getestet, ob das Bestimmtheitsmaß des Regressionsansatzes Null ist. Wenn diese Hypothese abgelehnt wird, kann man vermuten, dass das gewählte Regressionsmodell einen Erklärungswert für den Regressand y besitzt. Beispielsweise wird getestet, ob mehrere Variablen zusammen einen signifikanten Einfluss auf den Regressanden haben. Es kann somit auch der Fall eintreten, dass der t-Test zu den üblichen Signifikanzniveaus keinen signifikanten Einfluss der einzelnen Regressoren festgestellt hat, der F-Test allerdings die Signifikanz des Gesamtmodells feststellt. Die Wahrscheinlichkeit, dass F-Test und t-Test unterschiedliche Ergebnisse liefern, steigt mit der Anzahl der Freiheitsgrade.
[Bearbeiten] Einordnung
- F-Tests sind in der Regel Beispiele für Likelihood-Quotienten-Tests.
[Bearbeiten] Literatur
- Bortz, J. (1977): Statistik für Sozialwissenschaftler, Springer: Berlin.
- Sachs, L. (2003): Angewandte Statistik - Anwendung statistischer Methoden, Springer: Berlin