Static Wikipedia February 2008 (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - en - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu

Web Analytics
Cookie Policy Terms and Conditions Diskussion:Varianz - Wikipedia

Diskussion:Varianz

aus Wikipedia, der freien Enzyklopädie

Hallo Leute, müsste es bei Varianz einer Summe nicht - 2 mal die Kovarianz heißen? Jedenfalls dachte ich bisher immer das das so sein müßte.



Bitte nicht mißverstehen, aber ich verstehe aus dem Artikel so gut wie nichts! Schlägt man unter dem Begriff "Standardabweichung" nach so wird diese durch die Varianz erklärt; schlägt man unter den Begriff "Varianz" nach, so wird die Varianz mit der Standardabweichung erklärt... also dreht man sich im Kreis:( Vergleichbare Aussage wäre: Anisotrop ist der Gegensatz zu Isotrop. Isotrop ist der Gegensatz von Anisotrop. Ps. Es wäre schon eine große Hilfe, wenn man zum Anfang erwähnen würde, daß die Varianz ein Maß für die Streuung um den Mittelwert ist und die Standardabweichung die durchnittliche mittlere Abweichung der Zufallsvariablen ist. Sehr schön könnte man es z.B. mit einen praktischen Versuch erklären um es verständlich zu machen.


Vielleicht könnte man im Text noch einen Hinweis darauf geben, was E(X-a)^r und Med(X) sind. Ich habe sie hier im Zusammenhang mit E(X) und Var(X) in meinen Unterlagen. 82.82.120.218 21:17, 9. Jan 2004 (CET)

Wieso ist "a" in der Definition nicht erklärt? R.sponsel

Inhaltsverzeichnis

[Bearbeiten] Änderung des Artikels

Neben einigen Ergänzungen habe ich den folgenden Absatz rausgenommen.

Nach dem Gesetz der großen Zahl läßt sich die Varianz aus einer hinreichend großen Menge von N Merkmalsausprägungen x_1, x_2 \ldots x_N annähernd berechnen als

V[X] = \frac{1}{N} \sum_{i=1}^N{(x_i-E[X])^2}

Begründung: Wenn es sich um die Varianz der Grundgesamtheit mit bekanntem N handelt, ist kein Gesetz der großen Zahl notwendig. Bei einer Stichprobenvarianz ist aber i.a. EX unbekannt. Möglicherweise hat der Autor auf die Varianz in der Stichprobentheorie abgezielt. Um den Absatz gegebenenfalls möglichst schmerzlos wieder einfügen zu können, habe ich ihn hier deponiert. --Philipendula 11:01, 13. Jun 2004 (CEST)

[Bearbeiten] Weblink

Ein Beweis, warum die Formel für die Varianz in einem speziellen Fall richtig ist, hilft für das Verständnis des Begriffes "Varianz" hier nicht weiter. Wenn, dann gehört das zur Binomialverteilung. Allerdings ist die Darstellung in dem verlinkten Artikel auch nicht der einfachste und übersichtlichste Beweis.--Gunther 17:48, 24. Apr 2005 (CEST)

P.S. Es gibt ein Wikibook zur Binomialverteilung, da könnte man den Beweis einarbeiten.--Gunther 17:51, 24. Apr 2005 (CEST)

--- Im Gegenteil, sogar sehr einfache Darstellung, äußerst ausführlich. Was bedeutet schon "Verständnis"? Ich finde, in einem Artikel zum Thema Varianz, in dem die Varianzdarstellung unter BinomVerteilung erwähnt wird, sollte man einen Beweis dieser Darstellung nicht zensieren. Man kann Inhalt ja auch in Wikipedia reinkopieren, falls dich stört, dass es ein Link unten gibt. --IP

Wie man diese Formeln nachrechnet, ist unerheblich für die Bedeutung der Varianz. Der beste Platz für die Rechnung wäre hier.--Gunther 18:22, 24. Apr 2005 (CEST)

--- Bei diesem Artikel könnte man sich nach dem entsprechen Beweis fragen, da passt der Link super. Das tolle an dieser Definition der Varianz ist doch gerade auch, dass sich die Varianz um ein Vielfaches unter BinomVerteilung vereinfacht, das sollte man erwähnen. In dem von dir verlinkten Artikel passt der Link und der Beweis doch gar nicht, weder Varianz, noch Erwartungswert kommen darin vor, da wäre er Fehl am Platz. Eine Frage noch (ich bin Neuling in Wiki): Wie kann man hier vernünftig einen Diskussionsbeitrag schreiben, wie du es gemacht hast? Ich editiere dazu diese Seite, aber das scheint mir nicht ganz optimal zu sein, muss ich mich dafür hier in Wiki anmelden? Diese Frage kann natürlich nach antwort gelöscht werden. danke schonmal!

Im Wikibook-Artikel finden sich die Formeln am Ende des Abschnittes "Formale Darstellung". Im Wikibook sind Beweise explizit erwünscht, von daher wäre es da eine sinnvolle Ergänzung.
Zum Beweis selbst: Ich wünsche mir von einem Beweis, dass ich hinterher nicht nur weiß, dass die Behauptung wahr ist, sondern auch, warum. Und genau diese Frage wird durch die Rechnung nicht wirklich beantwortet. Warum ist der Erwartungswert proportional zu n, warum proportional zu p?
Zu den Diskussionsseiten: diese Seite zu bearbeiten, ist genau richtig. Alternativ kannst Du auch nur den Abschnitt bearbeiten, neben der Überschrift gibt es rechts einen Link. Du kannst Deine Beiträge noch mit Zeit und Unterschrift versehen, indem Du --~~~~ am Ende anfügst. Fragen oder andere Beiträge zu löschen ist unüblich.--Gunther 20:49, 24. Apr 2005 (CEST)


Ok, von Wikibook wusste ich nichts, muss mich erst in den Sinn dieser Abteilung einlesen. Inhaltlich passt es da jedenfalls, in der jetzigen Artikelform, nicht hinein. Zum Beweis: Die Frage nach dem "Warum", welche über eine Herleitung hinaus geht, habe ich mir auch oft gestellt. Sie ist jedoch tatsächlich nicht so berechtigt, wie sie scheint. Induktionsbeweise oder Widerspruchsbeweise sind viel weniger schlüssig in dieser Frage. Der Fehler in diesem Gedanken liegt jedoch nicht darin, dass Beweise an sich unschön wären, dass sich daraus ein "Warum" nicht gewinnen ließe, sondern vielmehr darin, dass eine Anschauung nicht immer Teil einer Beweisführung ist. Tatsächlich ist sie das in den wenigsten Fällen (diese Beweis gelten dann zugegebenerweise als sehr schön).
Man könnte natürlich noch zum Beispiel "Erwartungswert" veranschaulichende Anmerkungen bzgl. der Proportionalität machen. Aber ein "warum" ist in diesem Sinne nur eine Anschauung. Vielleicht lässt sich dies in Form von Gegenfragen klar machen: Warum gibt es unendlich viele Primzahlen? Warum ist sqrt(2) irrational? Was ist mit einem Versuch der Veranschaulichung von Banach-Tarski? Tatsächlich ist es sehr reizvoll und naheliegend nach Antworten zu suchen, die über den Beweis hinausgehen, aber oft unmöglich. Kennst du welche?
Wir sollten den Weg des Formalismus in diesen Fragen beschreiten, denn oft kommen wir dadurch zu Ergebnissen, die wir durch das ständige Grübeln über Anschauungen nicht gewinnen würden.

--85.16.10.3 23:48, 24. Apr 2005 (CEST)

Ich denke, dass es in der Mathematik im wesentlichen um dieses Warum geht. Natürlich ist man auch am "ob" interessiert, aber wenn man keine konkrete Anwendung im Sinn hat, ist das Hauptziel, die richtige Sichtweise und die Zusammenhänge zu erkennen. Irgendwer hat das mal in die Form gebracht, dass Mathematik darin besteht, so lange Begriffe einzuführen, bis die Behauptung trivial wird.
Eine Herleitung für die zur Diskussion stehenden Formeln, bei der es zumindest nicht so überraschend ist, dass explizite Formeln dabei herauskommen, beruht auf
\sum_{k=0}^n{n\choose k}k^ap^kq^{n-k}=\left(p\frac\partial{\partial p}\right)^a\sum_{k=0}^n{n\choose k}p^kq^{n-k}=\left(p\frac\partial{\partial p}\right)^a(p+q)^n
für a = 1,2. Die von mir oben genannten Fragen werden davon auch nicht beantwortet, und es ist auch nicht klar, warum man gerade so vorgehen sollte, aber ich halte diesen Ansatz trotzdem für übersichtlicher.
Ich denke, Euklid hat in etwa die richtige Antwort auf die Frage nach der Unendlichkeit der Primzahlen gefunden: Produkte endlich vieler Primzahlen liegen nicht dicht genug. Wurzel aus 2 ist irrational, weil rationale Zahlen ungleich Null so etwas wie unendliche Vektoren mit ganzzahligen Einträgen zusammen mit einem Vorzeichen sind, und der Vektor (+,1,0,0,\ldots) ist nicht das Doppelte eines anderen Vektors. Banach-Tarski halte ich persönlich für ziemlich irrelevant, ich glaube nicht, dass es viel Mathematik gibt, die damit zusammenhängt.--Gunther 00:38, 25. Apr 2005 (CEST)
Ich halte den Ansatz für weniger geeignet, er ist weniger elementar (als das einfache Ausmultiplizieren). Von "gut" oder "nicht gut" will ich nicht anfangen, sind es doch letztlich nur subjektive Wertungen.
Ich denke, dass das Warum im tiefsten Sinne von der Mathematik überhaupt nicht beantwortet wird. Dass Produkte endlich vieler Primzahlen nicht dicht genug liegen...nungut, das wissen wir durch den Widerspruchsbeweis + Primfaktorenzerlegung. Aber es ist doch keine Antwort, bestenfalls eine Umformulierung. Die eigentliche Frage kann man dann eben formulieren, warum denn diese Produkte nicht dicht genug liegen, ein gefundenes Fressen übrigens für Zahlenmystiker und "Hobbyzahlentheoretiker", böse Zungen reden auch von Scharlatenen. Ein Warum auf diese Fragen ist mir nicht bekannt, ich vermute, es gibt einfach keine Antwort, die nicht wieder nur eine Umformulierung ist. Für die Vektorenveranschaulichung trifft genau dasselbe zu, auch wenn das Beispiel mit den Primzahlen sicher reizvoller ist. BanachTarski ist genauso relevant in der Frage des Warums, wie die anderen Beispiele. Aber es stimmt: Wenn die Mathematik auf immer tiefere "Warums" eine echte Antwort (weg vom Tautologischen) hätte, dann wäre das phantastisch!
--85.16.10.239 13:47, 26. Apr 2005 (CEST)
Elementar ja, aber wer an einem Beweis wirklich interessiert ist und nicht einfach nur die Formel glauben will, der bringt auch die nötige Energie auf, den o.a. Beweis zu verstehen. Und auch wenn die elementare Rechnung vollkommen richtig ist, erklärt sie doch nichts. Genausogut kann man die Binet-Formel für die Fibonacci-Zahlen per Induktion beweisen, das ist ähnlich unbefriedigend.
Dass Produkte endlich vieler Primzahlen nicht dicht genug liegen, äußert sich noch an anderen Stellen, beispielsweise ist die Summe der Kehrwerte endlich, oder ihre Dichte
\lim_{n\to\infty}\frac1n\#\{x\in A\mid x\leq n\}
ist Null. Ich denke, dass man an diesen Punkten ein wenig vom Wesen der Primzahlen begreifen kann. Das steht natürlich nicht explizit in Euklids Beweis, aber er beruht auf diesem Aspekt.
Die Vektorendarstellung der multiplikativen Gruppe von \mathbb Q ist ein Beispiel dafür, dass die Begrifflichkeit so weit entwickelt wurde, dass das gegebene Problem (Irrationalität von Wurzel aus 2) trivial wird. Es gibt noch andere Sichtweisen, die i.w. eine Umformulierung darstellen (z.B. müsste die 2-adische Bewertung einer Wurzel gleich 1/2 sein), aber all das ist viel klarer als die Beweise, die von gekürzten Darstellungen und geraden oder ungeraden Quadratzahlen reden.
Das sind alles natürlich nur Annäherungen an das Warum oder an die richtige Vorstellung von einem Begriff, aber ich sehe darin den Sinn der Mathematik, sobald sie über anwendungsbezogene Fragen hinausgeht.--Gunther 14:51, 26. Apr 2005 (CEST)

Ok, der "richtige" Beweis der Formeln für Erwartungswert und Varianz der Binomialverteilung ist der folgende: Die Binomialverteilung entsteht als n-malige Hintereinanderausführung eines Zufallsexperimentes mit den Ergebnissen 1 bzw. 0 mit Wahrscheinlichkeit p bzw. q. Da diese voneinander unabhängig sind, sind Erwartungswert und Varianz das jeweils n-fache von Erwartungswert und Varianz des einfachen Experimentes, welche p bzw. pq sind. Q.E.D.--Gunther 12:07, 1. Mai 2005 (CEST)

[Bearbeiten] Ein anschauliches Beispiel

Ich bin ein Nicht-Mathematiker und kann mit dem Artikel leider nichts anfangen. Wie wäre es mit einem Anschaulichen Beispiel? Ich wüsste gerne, wie man die Abweichung der Werte in der Reihe (1,2,3,1,2,3,1,2,3,100) als einen Wert angeben kann. Hat das was mit Varianz zu tun? Ich finde, ein enzyklopädischer Artikel kann auch ruhig Einstiegschanchen für Nichtfachleute des jeweiligen Gebietes bieten, man liest doch nach, weil man es noch nicht weiß. Und ich befürchte, wenn ich irgendwann die Kryptographie der Mathematiker mühselig erlernt habe, wird sich rausstellen, dass Varianz etwas pupeinfaches ist. Doing, doing, doing...--Kangaroo 18:03, 1. Jun 2005 (CEST)

[Bearbeiten] Warum Quadrat

Warum hat man die Varianz mit dem Quadrat angesetzt? Warum nicht Betrag oder Hoch-4?


Außerdem: bei mir im Script steht auch was von dem Schätzwert der Varianz. Er lautet

s^2 = {1 \over n - 1} \cdot \sum_{i=1}^n (x_i - \bar x)^2

Wie kommt's, dass da das 1/(n-1) als Vorfaktor steht?

Danke, --Abdull 00:30, 13. Jul 2005 (CEST)

Beim Quadrieren werden kleine Abweichungen wenig und große stark gewichtet. Das Quadrat hat zudem den Vorteil, dass die erste Ableitung eine lineare Funktion ist, was bei Optimierungsüberlegungen von Vorteil ist. Außerdem hat das Quadrat noch weitere wünschenswerte Eigenschaften wie die Streuungszerlegung, Verschiebungssatz etc.
Man teilt durch n-1, weil dann s*2 erwartungstreu ist, d.h. der Erwartungswert dieser Schätzfunktion ist gleich der Varianz in der Grundgesamtheit. Wenn man durch n teilte, würde man die Varianz systematisch unterschätzen, man hätte also eieine Verzerrung in der Schätzung. --Philipendula 12:05, 13. Jul 2005 (CEST)


Oder anders: bei der Schätzung ist der Erwartungswert unbekannt, d.h. der Freiheitsgrad verringert sich um Eins. Wenn du in der Ausgleichungsrechnung r unbekannte Größen hast, dann steht dort im Übrigen allgemein 1 / (n - r). Siehe auch Artikel "Fehlerfortpflanzung" (http://de.wikipedia.org/wiki/Fehlerfortpflanzung) unter Abschnitt Messabweichungen.

[Bearbeiten] Neues Bild

Ich habe ein neues Bild eingefügt, das alte sah zwar toll aus, erklärte aber nichts. Ein Anfänger konnte mit dem alten wenig anfangen. Die Varianz eindeutig als Maß für die Breite der Normalverteilung ist am neuen Bild (Matlab) besser zu sehen. Biolippi, 12.5.06 00:24 MEZ

Static Wikipedia 2008 (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - en - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu -

Static Wikipedia 2007 (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - en - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu -

Static Wikipedia 2006 (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu