New Immissions/Updates:
boundless - educate - edutalab - empatico - es-ebooks - es16 - fr16 - fsfiles - hesperian - solidaria - wikipediaforschools
- wikipediaforschoolses - wikipediaforschoolsfr - wikipediaforschoolspt - worldmap -

See also: Liber Liber - Libro Parlato - Liber Musica  - Manuzio -  Liber Liber ISO Files - Alphabetical Order - Multivolume ZIP Complete Archive - PDF Files - OGG Music Files -

PROJECT GUTENBERG HTML: Volume I - Volume II - Volume III - Volume IV - Volume V - Volume VI - Volume VII - Volume VIII - Volume IX

Ascolta ""Volevo solo fare un audiolibro"" su Spreaker.
CLASSICISTRANIERI HOME PAGE - YOUTUBE CHANNEL
Privacy Policy Cookie Policy Terms and Conditions
Statistischer Test - Wikipedia

Statistischer Test

aus Wikipedia, der freien Enzyklopädie

Wikipedia:Redundanz
Redundanz
Die Artikel Statistischer Test und Signifikanztest überschneiden sich thematisch. Hilf mit, die Artikel besser voneinander abzugrenzen oder zu vereinigen. Die Diskussion über diese Überschneidungen findet hier statt. Bitte äußere dich dort, bevor du den Baustein entfernst. Falk Lieder 15:03, 13. Aug 2006 (CEST)

Ein statistischer Test dient in der mathematischen Statistik dazu, anhand vorliegender Beobachtungen eine begründete Entscheidung über die Gültigkeit oder Ungültigkeit einer Hypothese zu treffen. Formal ist ein Test also eine mathematische Funktion. Da die vorhandenen Daten Realisationen von Zufallsvariablen sind, lässt sich niemals mit Sicherheit sagen, ob eine Hypothese stimmt oder nicht. Man versucht daher, die Wahrscheinlichkeiten für Fehlentscheidungen zu kontrollieren, was einem Test zu einem vorgegebenen Signifikanzniveau entspricht. Wir sprechen daher auch von einem Hypothesentest oder auch Signifikanztest.

Inhaltsverzeichnis

[Bearbeiten] Interpretation eines statistischen Tests

Ein statistisches Testverfahren lässt sich im Prinzip mit einem Gerichtsverfahren vergleichen. Es wird immer von der Unschuld eines Verdächtigen ausgegangen, und so lange große Zweifel an den Belegen für ein tatsächliches Vergehen bestehen, wird ein Angeklagter freigesprochen. Nur wenn die Indizien für die Schuld eines Angeklagten deutlich überwiegen, kommt es zu einer Verurteilung.

Es gibt demnach zu Beginn des Verfahrens die beiden Hypothesen H0 "der Verdächtige ist unschuldig" und H1 "der Verdächtige ist schuldig". Erstere nennt man Nullhypothese, von ihr wird vorläufig ausgegangen. Die zweite nennt man Alternativhypothese. Sie ist diejenige, die zu "beweisen" versucht wird.

Um einen Unschuldigen nicht zu schnell zu verurteilen, wird die Hypothese der Unschuld erst dann verworfen, wenn ein Irrtum sehr unwahrscheinlich ist. Man spricht auch davon, die Wahrscheinlichkeit für einen Fehler erster Art (also das Verurteilen eines Unschuldigen) zu kontrollieren. Naturgemäß wird durch dieses unsymmetrische Vorgehen die Wahrscheinlichkeit für einen Fehler zweiter Art (also das Freisprechen eines Schuldigen) "groß". Aufgrund der stochastischen Struktur des Testproblems lassen sich wie in einem Gerichtsverfahren Fehlentscheidungen grundsätzlich nicht vermeiden. Man versucht in der Statistik allerdings, optimale Tests in der Hinsicht zu konstruieren, dass sie die Fehlerwahrscheinlichkeiten minimieren.

[Bearbeiten] Ein einführendes Beispiel

Es soll versucht werden, einen Test auf Hellsehfähigkeiten zu entwickeln.

Wir werden unserer Testperson 25 mal die Rückseite einer rein zufällig gewählten Spielkarte zeigen und sie danach fragen, zu welcher der vier Farben (Kreuz, Pik, Herz, Karo) die Karte gehört. Die Anzahl der Treffer nennen wir X.

Da die Hellsehfähigkeiten der Person getestet werden sollen, gehen wir vorläufig von der Nullhypothese aus, die Testperson sei nicht hellsehend. Die Alternativhypothese lautet entsprechend: Die Testperson ist mehr oder weniger hellseherisch begabt.

Was bedeutet das für unseren Test? Wenn die Nullhypothese richtig ist, wird die Testperson nur versuchen können, die jeweilige Farbe zu erraten. Für jede Karte gibt es natürlich eine Wahrscheinlichkeit von 1/4, richtig zu antworten. Ist die Alternativhypothese richtig, hat die Person für jede Karte eine größere Wahrscheinlichkeit als 1/4. Wir nennen die Wahrscheinlichkeit einer richtigen Vorhersage p.

Die Hypothesen lauten dann:

H_0: p=\frac 14

und

H_1: p>\frac 14.

Wenn die Testperson alle 25 Karten richtig benennt, werden wir sie als Hellseher betrachten und natürlich die Nullhypothese ablehnen. Und mit 24 oder 23 Treffern auch. Andererseits gibt es bei nur 5 oder 6 Treffern keinen Grund dazu. Aber was wäre mit 12 Treffern? Was ist mit 17 Treffern? Wo liegt die kritische Anzahl an Treffern c, von der an wir nicht mehr glauben können, es seien reine Zufallstreffer?

Wie bestimmen wir also den kritischen Wert c? Man sieht leicht ein, dass man mit c = 25 (also dass wir nur hellseherische Fähigkeiten erkennen wollen, wenn alle Karten richtig erkannt worden sind) deutlich kritischer ist als mit c = 10. Im ersten Fall wird man kaum eine Person als Hellseher ansehen, im zweiten Fall einige mehr.

In der Praxis kommt es also darauf an, wie kritisch man genau sein will, also wie oft man eine Fehlentscheidung erster Art zulässt. Mit c = 25 ist die Wahrscheinlichkeit einer solchen Fehlentscheidung:

P(H_0 \mbox{ ablehnen}| H_0  \mbox{ ist richtig}) = P(X \ge 25|p=1/4)=\left(\frac 14\right)^{25}\approx10^{-15},

also sehr klein. Es ist die Wahrscheinlichkeit, dass die Testperson rein zufällig 25 mal richtig geraten hat.

Weniger kritisch, mit c = 10, erhalten wir mit

P(H_0 \mbox{ ablehnen}| H_0  \mbox{ ist richtig}) = P(X \ge 10|p=1/4) \approx 0{,}07,

eine wesentlich größere Wahrscheinlichkeit.

Man sollte sich immer vor einem Test überlegen, wie kritisch man sein will, und eine entsprechende Wahrscheinlichkeit für den Fehler erster Art festsetzen. Typisch sind Werte zwischen 0,1% und 5%. Abhängig davon lässt sich (hier im Falle eines Signifikanzniveaus von 1%) dann c so bestimmen, dass

P(H_0 \mbox{ ablehnen}| H_0  \mbox{ ist richtig}) = P(X \ge c|p=1/4) \le 0{,}01,

gilt. Unter allen Zahlen c, die diese Eigenschaft erfüllen, wird man zuletzt c als die kleinste Zahl wählen, die diese Eigenschaft erfüllt, um die Wahrscheinlichkeit für den Fehler zweiter Art klein zu halten. In diesem konkreten Beispiel folgt: c = 12.

[Bearbeiten] Mögliche Fehlentscheidungen

Auch wenn es wünschenswert ist, dass der Test aufgrund der vorliegenden Daten "richtig" entscheidet, besteht die Möglichkeit von Fehlentscheidungen. Im mathematischen Modell bedeutet dies, dass man bei richtiger Hypothese und Entscheidung für die Alternative einen Fehler 1. Art (α-Fehler) begangen hat. Falls man die Hypothese bestätigt sieht, obwohl sie nicht stimmt, begeht man einen Fehler 2. Art (β-Fehler).

In der statistischen Praxis macht man aus diesem vordergründig symmetrischen Problem ein unsymmetrisches: Man legt ein Signifikanzniveau α fest, das eine obere Schranke für die Wahrscheinlichkeit eines Fehlers erster Art liefert. Tests mit dieser Eigenschaft heißen Test zum Niveau α. Im Anschluss daran versucht man, einen optimalen Test zum vorgegebenen Niveau dadurch zu erhalten, dass man unter allen Tests zum Niveau α einen sucht, der die geringste Wahrscheinlichkeit für einen Fehler 2. Art aufweist.

[Bearbeiten] Die formale Vorgehensweise

Generell geht man bei der Konstruktion eines Tests in folgenden Schritten vor:

  1. Formulierung einer Nullhypothese H0 und ihrer Alternativhypothese H1
  2. Berechnung einer Testgröße oder Teststatistik T aus der Stichprobe (je nach Testverfahren z.B. den t-Wert oder U oder H oder χ2...).
  3. Bestimmung des kritischen Bereiches K zum Signifikanzniveau α, das vor Realisation der Stichprobe feststehen muss. Der kritische Bereich wird aus den unter der Nullhypothese nur mit geringer Wahrscheinlichkeit auftretenden Werten der Teststatistik gebildet.
  4. Treffen der Testentscheidung:
    • Liegt T nicht in K, so wird H0 beibehalten.
    • Liegt T in K, so lehnt man H0 zugunsten von H1 ab.

[Bearbeiten] Neyman-Pearson-Tests

Optimale Tests existieren in parametrischen Modellen nur für bestimmte Hypothesen. Im einfachsten Fall zweier Punkthypothesen H0:θ = θ0 und H1:θ = θ1 wählt man als Test einen Likelihood-Quotienten-Test, der die Nullhypothese ablehnt, falls

\Lambda(x)=\frac{ f_{\theta _{0}} (x)}{ f_{\theta _{1}}(x)} \leq k \mbox{ mit } P_{H_0}(\Lambda(X)\leq k)=\alpha

gilt. Dieser Test ist gleichmäßig bester Test zum Niveau α.

Neyman-Pearson-Tests lassen sich auf einseitige Hypothesen der Form H_0: \theta \leq \theta_0 und H1:θ > θ0 ausdehnen, falls die Verteilungsfamilie einen monotonen Dichtequotienten besitzt.

[Bearbeiten] Asymptotisches Verhalten des Tests

In den meisten Fällen ist die exakte Wahrscheinlichkeitsverteilung der Teststatistik unter der Nullhypothese nicht bekannt. Man steht also vor dem Problem, dass kein kritischer Bereich zum vorgegebenen Niveau festgelegt werden kann. In diesen Fällen erweitert man die Klasse der zulässigen Tests auf solche, die asymptotisch das richtige Niveau besitzen. Formal bedeutet dies, dass man den Bereich K so wählt, dass für alle \theta \in H_0 die Bedingung

\limsup_{n \to \infty} P_{\theta}(T(X) \in K) \leq \alpha

erfüllt ist. In der Regel erhält man solche asymptotischen Tests via Normalapproximation, man versucht also, die Teststatistik so zu transformieren, dass sie gegen eine Normalverteilung konvergiert.

Eine wichtige weitere Anforderung an einen guten Test ist, dass er bei wachsendem Stichprobenumfang empfindlicher wird. In statistischen Termini bedeutet dies, dass bei Vorliegen einer konsistenten Teststatistik die Wahrscheinlichkeit dafür steigt, dass die Nullhypothese auch tatsächlich zu Gunsten der Alternative verworfen wird, falls sie nicht stimmt. Speziell wenn der Unterschied zwischen dem tatsächlichen Verhalten der Zufallsvariablen und der Hypothese sehr gering ist, wird er erst bei einem entsprechend großen Stichprobenumfang entdeckt. Ob diese Abweichungen jedoch von praktischer Bedeutung sind und überhaupt den Aufwand einer großen Stichprobe rechtfertigen, hängt von dem zu untersuchenden Aspekt ab.

[Bearbeiten] Problem der Modellwahl

Alle mathematischen Resultate beruhen auf Annahmen, die bezüglich bestimmter Eigenschaften der beobachteten Zufallsvariablen gemacht werden. Je nach Situation werden verschiedene Teststatistiken gewählt, deren (asymptotische) Eigenschaften massiv von den Forderungen an die zu Grunde liegende Verteilungsfamilie abhängen. In der Regel müssen diese Modellannahmen zuvor empirisch überprüft werden, um überhaupt angewendet werden zu können. Kritisch ist dabei vor allem, dass die typischen Testverfahren strengen Voraussetzungen unterworfen sind, die in der Praxis selten erfüllt sind.

[Bearbeiten] Parametrische und Nicht-parametrische Tests

Man unterscheidet parametrische und nicht-parametrische (parameterfreie) Tests

[Bearbeiten] Parametrische Tests (parametrisches Prüfverfahren)

Beim Parametertests interessieren konkrete Werte wie Varianz oder Mittelwert. Ein parametrisches Prüfverfahren macht also Aussagen über Grundgesamtheitsparameter bzw. die in der Verteilungsfunktion einer Untersuchungsvariablen auftretenden Konstanten. Dazu müssen alle Parameter der GG bekannt sein (was oft nicht gegeben ist). Bei einem Parametertest hat jede der denkbaren Stichproben die gleiche Realisationschance. Parametrische Tests gehen davon aus, dass die beobachteten Stichprobendaten einer Grundgesamtheit entstammen, in der die Variablen bzw. Merkmale ein bestimmtes Skalenniveau und eine bestimmte Wahrscheinlichkeitsverteilung aufweisen, häufig Intervallskalenniveau und Normalverteilung. In diesen Fällen ist man also daran interessiert, Hypothesen über bestimmte Parameter der Verteilung zu testen.

Sofern die gemachten Verteilungannahmen nicht stimmen, sind die Ergebnisse des Tests in den meisten Fällen unbrauchbar. Speziell lässt sich die Wahrscheinlichkeit für einen Fehler zweiter Art nicht mehr sinnvoll minimieren. Man spricht dann davon, dass für viele Alternativen die power sinkt.

[Bearbeiten] Nicht-parametrische Tests

Bei parameterfreien Tests (auch nichtparametrische Tests bzw. Verteilungstests genannt) wird der Typ der Zufallsverteilung überprüft: Man entscheidet, ob eine aus n Beobachtungen bestehende Häufigkeitsverteilungen bestehende Nullhypothese, die man aus einer Zufallsstichprobe gezogen hat, mit einer Null-Hypothese vereinbar ist, die man über die Verteilung in der Grundgesamtheit aufgestellt hat. Nicht-parametrische Tests kommen also mit anderen Vorannahmen aus, die Menge der für Hypothese und Alternative zugelassenen Verteilungen lässt sich nicht durch einen Parameter beschreiben.

Typische Beispiele sind Tests auf eine bestimmte Verteilungsfunktion wie der Kolmogorow-Smirnow-Test oder der Wilcoxon-Test zum Vergleich der Mediane zweier Stichproben.

Da jedoch parametrische Tests trotz Verletzung ihrer Annahmen häufig eine bessere Power bieten als nicht-parametrische, kommen letztere eher selten zum Einsatz.

[Bearbeiten] Wichtige Tests

  • Anpassungstest oder Verteilungstest: Hier wird geprüft, ob vorliegende Daten einer bestimmten Verteilung entstammen. Anpassungstests prüfen Hypothesen über die Verteilung einer Zufallsvariablen z.B. H0: F(x)=F0(X), sie vergleichen beobachtete Verteilungen in einer Stichprobe mit einer erwarteten Verteilung. Der Anpassungstest prüft also, mit welcher Wahrscheinlichkeit eine Stichprobe aus einer Grundgesamtheit stammen kann, für die die erwartete Verteilung gilt. Die einfachste Form ist der Binominaltest.

Besondere Formen dieser Tests sind:

  • Multipler Test: Verwendet man z.B. anstelle eines H-Tests mit mehr als zwei unabhängigen Stichproben mehrere U-Tests als Einzeltests, so werden diese Einzeltests als multipler Test angesehen. Zu beachten ist hierbei besonders, dass bei den hintereinandergeschalteten Einzeltests sich die Wahrscheinlichkeit des Fehlers 1. Art mit der Anzahl des Tests vergrößert. Bei einem Vergleich muss dies unbedingt berücksichtigt werden.
  • Konservativer Test: Bei einem konservativen Test ist die Prüfvariable diskret verteilt (z.B. U-Test). Es gibt für ein vorgegebenes Signifikanzniveau keine Werte zum Beispiel für ur, die die Gleichung P(uur)=5% erfüllen, deshalb ersetzt man die Gleichung durch die Ungleichung P(uur)%. Man wählt also generell als Rückweisungspunkt jenen Wert, der zu einem Signifikanzniveau von höchsten  führt. Das vorgegebene Signifikanzniveau kann also praktisch erheblich unterschritten werden.  Man verhält sich konservativ und begünstigt die Annahme der Nullhypothese.
  • Exakter Test: Ein exakter Test ist ein Test, der für die zu testende Prüfvariable die exakt zuständige Stichprobenverteilung verwendet. Ein exakter Test approximiert also nicht. Exakte Test sind z.B. der Fisher-Test, der Binomial-Test, der McNemar-Test. Nicht exakt arbeitet zum Beispiel ein Test, bei dem man nach dem Zentralen Grenzwert-Theorem die Normalverteilung approximativ für eine Binomialverteilung verwendet.
  • Sequentieller Test: Bei einem sequentiellen Test ist der Stichprobenumfang nicht vorgegeben. Vielmehr wird bei der laufenden Datenerfassung für jede neue Beobachtung ein Test durchgeführt, ob man aufgrund der bereits erhobenen Daten eine Entscheidung für oder gegen die Nullhypothese treffen kann (siehe Sequential Probability Ratio Test).
Tests Kurzbeschreibung
Verteilungsanpassungstests
χ2-Anpassungstest Test einer Stichprobe auf Zugehörigkeit zu einer Verteilung
Kolmogorow-Smirnow-Test Test einer Stichprobe auf Zugehörigkeit zu einer Verteilung
Shapiro-Wilk-Test Test einer Stichprobe auf Zugehörigkeit zur Normalverteilung
Parametrische Tests
t-Tests (einfach, doppelt, doppelt mit gepaarten (=verbundenen,abhängigen) Stichproben) Test auf Erwartungswert; Vergleich zweier Erwartungswerte; Test auf Korrelation; Signifikanztest von Regressionskoeffizienten
Korrelationstest (letztlich ein t-Test, s.o.) Test auf linearen Zusammenhang zweier metrischer Variablen
F-Test Vergleich zweier Varianzen; Modelltest der Regressionsanalyse
chi2-Test von Bartlett Vergleich von mehr als zwei Varianzen
Test von Levene Test auf Homogenität von Varianzen zwischen Gruppen
Verteilungsfreie (nichtparametrische) Tests
χ2Unabhängigkeitstest Prüfung der Unabhängigkeit zweier Merkmale
Test von Cochran/Cochrans Q Test auf Gleichverteilung mehrerer verbundener dichotomer Variablen
Kendalls Konkordanzkoeffizient/Kendalls W Test auf Korrelation von Rangreihen
Wilcoxon-Rangsummentest Test auf Gleichheit des Lageparameters, bei unbekannter aber identischer Verteilung im 2-Stichprobenfall
Mann-Whitney-U-Test äquivalent zum Wilcoxon-Rangsummentest
Kruskal-Wallis-Test Test auf Gleichheit des Lageparameters, bei unbekannter aber identischer Verteilung im c-Stichprobenfall
Run(s)-Test Prüfung einer Reihe von Werten (z. B. Zeitreihe) auf Stationarität
Wald-Wolfowitz-Run(s)-Test Test auf Gleichheit zweier kontinuierlicher Verteilungen

Auswahl des Signifikanztestverfahrens

abhängig: Zwei Stichproben A und B hängen voneinander im Bezug auf Störgrößen und Einflussgrößen ab (z.B. Vorher-Nachher-Vergleiche, Medikament A und B werden an je einem Patienten gleichzeitig gegeben...)

METRISCH
NOMINAL ORDINAL nicht normalverteilt,
aber ähnlich
normalverteilt
unabhängig abhängig unabhängig abhängig unabhängig abhängig unabhängig abhängig

χ2
für:
k x l -Felder
2 x 2 Felder

χ2
McNemar-Test für:
2 x 2 Felder

Mann-Whitney

Wilcoxon

Mann-Whitney

Wilcoxon

F-Test
(Varianzquotiententest)
entscheidet über:

t-Test
für verbundene
Stichproben
Varianz-
homogenität

t-Test
Varianz-
heterogenität

Welch-Test
nichtparametrische Testverfahren parametrische Testverfahren

[Bearbeiten] Wichtige Verteilungen

Weibullverteilung
Normalverteilung
Students t-Verteilung
Chi-Quadrat-Verteilung
F-Verteilung
Betaverteilung
Gammaverteilung
Gleichverteilung
Dreiecksverteilung
logarithmische Normalverteilung
Exponentialverteilung
Erlang-Verteilung
Poissonverteilung
Bernoulliverteilung
Binomialverteilung
negative Binomialverteilung
Geometrische Verteilung
Hypergeometrische Verteilung

[Bearbeiten] Weblinks

Static Wikipedia (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - en - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu -

Static Wikipedia 2007 (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - en - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu -

Static Wikipedia 2006 (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu

Static Wikipedia February 2008 (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - en - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu