New Immissions/Updates:
boundless - educate - edutalab - empatico - es-ebooks - es16 - fr16 - fsfiles - hesperian - solidaria - wikipediaforschools
- wikipediaforschoolses - wikipediaforschoolsfr - wikipediaforschoolspt - worldmap -

See also: Liber Liber - Libro Parlato - Liber Musica  - Manuzio -  Liber Liber ISO Files - Alphabetical Order - Multivolume ZIP Complete Archive - PDF Files - OGG Music Files -

PROJECT GUTENBERG HTML: Volume I - Volume II - Volume III - Volume IV - Volume V - Volume VI - Volume VII - Volume VIII - Volume IX

Ascolta ""Volevo solo fare un audiolibro"" su Spreaker.
CLASSICISTRANIERI HOME PAGE - YOUTUBE CHANNEL
Privacy Policy Cookie Policy Terms and Conditions
Benutzer Diskussion:Arno Matthias - Wikipedia

Benutzer Diskussion:Arno Matthias

aus Wikipedia, der freien Enzyklopädie

Inhaltsverzeichnis

[Bearbeiten] Unabhängig oder nicht ?

Zwei Münzwürfe sind stochastisch unabhängig. Das Ergebnis des zweiten Wurfes ist also unabhängig vom Ergebnis des ersten. Beim ersten Münzwurf ist die Wahrscheinlichkeit von "Kopf" 1/2. Beim zweiten Wurf ist ist sie wieder 1/2. Die Wahrscheinlichkeit, 2mal hintereinander "Kopf" zu haben ist 1/4, oder ? Wenn ich soweit richtig liege, wie ist es dann, wenn ich definiere, dass "Kopf" gewinnt. Wenn ich dann beim ersten mal gewinne, sollte ich dann nochmal spielen, oder nicht ? Einerseits ist beim 2. mal die Wahrscheinlichkeit zu gewinnen ja wieder 1/2, andererseits ist die Wahrscheinlichkeit 2mal hintereinander zu gewinnen 1/4 ?! Ähnlich ist es bei mLotto spielen:--Arno Matthias 23:58, 8. Feb. 2007 (CET) Wenn ich jetzt beim Lotto etwas gewinne. Ist es dann für mich schwerer, nochmal zu gewinnen ? Sollte es ja eigentlich nicht, ich habe jedesmal die selbe Wahrscheinlichkeit, aber die Wahrscheinlichkeit, 2mal beim Lotto zu gewinnen ist doch geringer, oder ?! Ich kapier's nich ;) Wäre nett, wenn mir hier jemand vom Schlauch helfen könnte.

Wo ist Dein Problem - stimmt doch alles, was Du schreibst. Wenn Du mehrmals hintereinander auf "Kopf oder Zahl" wettest, ist die Wkt. zu gewinnen jedes einzelne Mal 1/2. Wettest Du jedoch, "zweimal hintereinander Kopf" zu werfen, ist die Wkt. zu gewinnen 1/4. Die Lottokugeln "merken" sich auch nicht, ob Du schonmal im Lotto gewonnen hast. Schlauch weg? --Arno Matthias 13:38, 6. Jan. 2007 (CET)
Leider noch nicht so ganz :(
besser vielleicht zu erklären mit einem "schlechteren" Beispiel: bei nem Würfel hab ich die Chance auf "Meine Zahl" 1/6. Ich tippe also auf 3 und habe eine 1/6 Chance, dass die 3 kommt. Wenn ich nun aber sage, ich würfel 2 mal, erst setze ich auf die 3, dann setze ich auf die 6, dann ist die chance dass beide Zahlen kommen ja nur noch 1/36. Wenn nun also beim ersten mal die 3 kommt, ist dann die Chance, beim zweiten mal zu gewinnen kleiner ? Eigentlich kann das ja nicht sein, aber ich verstehe nicht, wie VOR dem Würfeln die Chance schlechter sein kann, als nach dem ersten Wurf :(

Vielleicht hilft Dir die LaPlace'sche Definition übern Berg:

Mit einem Würfel kann man 6 verschiedene Ergebnisse erzielen. Wettest Du auf genau eines dieser Ereignisse (z.B. die Zahl 3), ist deren Wkt. 1/6 (1 von 6). Du könntest z.B. auch auf "gerade Zahl" wetten, dann wäre die Wkt. 3/6.

Mit zwei Würfel-Würfen (genauso gut kannst Du auch mit zwei Würfeln gleichzeitig werfen) kann man 36 verschiedene Ergebnisse erzielen. Wettest Du auf genau eines dieser Ergebnisse (z.B. "erst die 3 UND dann die 6"), ist dessen Wkt. 1/36. Das logische UND ist hier wichtig; Deine Wette bezieht sich ja auf eine bestimmte Kombination von erstem und zweitem Wurfergebnis. Die Wkt. 1/36 gilt also für das Gesamtereignis, nicht für den zweiten Wurf.

Hallo
Danke erstmal, dass Du Dich meiner annimmst ;) Irgendwie hab ich das gefühl, ich hab da irgendeine Art Blockade im Kopf ;)
Dass mit den 1/36, wenn ich auf beide Würfe tippe, leuchtet mir ja ein. Die Chance, zweimal zu gewinnen ist also 1/36. Aber es kommt mir so vor, dass die Wkt. beim zweiten Wurf zu gewinnen, wenn ich beim ersten schon gewonnen habe schlechter ist, als wenn ich beim ersten nicht gewonnen habe. Aber das darf doch eigentlich nicht sein, weil der zweite Wurf ja nicht weiss, dass ich schonmal gewonnen habe ;) sprich, die Wkt. ist ja wieder 1/6
Ne, also "Dass mit den 1/36, wenn ich auf beide Würfe tippe" stimmt so nicht, ebenso "Die Chance, zweimal zu gewinnen ist also 1/36"; es ist (eigentlich) ja nur EIN Wurf mit 2 Würfeln. Es geht um EIN Ereignis (hier: Wurfergebnis). Du machst Dir das Problem dadurch schwer, dass Du unbedingt mit einem Würfel zweimal hintereinander werfen willst. Aber ok: stell Dir mal die Tabelle mit den 36 Möglichkeiten vor. Für den ersten Wurf gibt es 6 Möglichkeiten, also Wkt. 1/6, die richtige Zahl zu treffen. NACH dem ersten Wurf fallen 30 weg, 6 bleiben übrig, Chance: 1/6. Die RICHTIGE KOMBINATION von erstem und zweitem Wurf (deren Einzelwkt. jeweils 1/6 waren) ist eine der 36 Kombinations-Möglichkeiten.
Hmmm, das ist schon ein komisches Gefühl. Manchmal meine ich, ich hätte es verstanden, dnan freu ich mich schon, dass es "klick" gemacht hat, und dann stimmt plötzlich wieder irgendwas nicht... Um beim Würfel zu bleiben: ist denn die Wahrscheinlichkeit, dass bei 6 mal Würfeln 6mal die 1 kommt genauso hoch, wie jede andere Kombination auch ? Also 111111 genauso wahrscheinlich wie 163524 ? Sollte eigentlich so sein, oder ?
Genau so ist es.
Ok, also vielen Dank für Deine Hilfe ! Es liegt wohl wirklich am Hirn. Irgendwie erscheint mir (oder ist das allgemein ?) die Kombination 111111 viel unwahrscheinlicher als 163524. Ich (man) meint irgendwie, 111111 hätte eine Ordnung. Und es ist dann also egal, ob man schon im Lotto gewonnen hat, oder nicht, die Wahrscheinlichkeit, im Lotto zu gewinnen ist immer gleich hoch, egal ob man schon gewonnen hat, oder nicht.

Gewiss haben viele Mitmenschen das Empfinden, 111111 sei viel unwahrscheinlicher als 163524. Das ist aber eine Frage der Ästhetik, etwas, was Lottokugeln und Würfel nicht kennen.

Noch eine Buchempfehlung: "Das Einmaleins der Skepsis" von Gerd Gigerenzer hat mir sehr geholfen, den Wahrscheinlichkeits-Begriff besser zu verstehen.

[Bearbeiten] Tipps

Ich habe gesehen, dass du vor kurzem angefangen hast, dich an der Wikipedia zu beteiligen. Weil deine Diskussionsseite aber noch leer ist, möchte ich dich kurz begrüßen.

Für den Einstieg empfehle ich dir das Tutorial und Wie schreibe ich gute Artikel. Wenn du neue Artikel anlegen willst, kannst du dich an anderen des selben Themenbereichs orientieren. Ganz wichtig sind dabei stets Quellenangaben welche deine Bearbeitung belegen. Wenn du erstmal etwas ausprobieren willst, ist hier Platz dafür. Bitte beachte, dass Wikipedia ausschließlich der Erstellung einer Enzyklopädie dient und zur Zusammenarbeit ein freundlicher Umgangston notwendig ist.

Fragen stellst du am besten hier, aber die meisten Wikipedianer und auch ich helfen dir gerne. Solltest du bestimmte Wörter oder Abkürzungen nicht auf Anhieb verstehen, schaue mal ins Glossar.

Wenn du Bilder hochladen möchtest, achte bitte auf die korrekte Lizenzierung und schau mal, ob du dich nicht auch in Commons anmelden möchtest, um die Bilder dort zugleich auch den Schwesterprojekten zur Verfügung zu stellen.

Ein Tipp für deinen Einstieg in die Wikipedia: Sei mutig, aber respektiere die Leistungen anderer Benutzer! Herzlich willkommen! Und keine Angst vor Fragen aller Art. --Rhaessner 17:34, 22. Aug 2006 (CEST)


[Bearbeiten] Synergologie

Hallo Arno Matthias, Du hast einen Löschantrag auf die Artikelseite gesetzt, aber den Artikel nicht in die Liste der Löschkandidaten aufgenommen. Soll das jetzt ein Löschantrag sein oder nicht? --Wiegand 14:34, 4. Dez. 2006 (CET)

Hallo Wiegand, Dein Beitrag in der QS-Diskussion hat mich verunsichert. Bei allen Webseiten, die ich gesichtet habe, leuchtete mir immer das "Registered Trademark"-Zeichen entgegen - falls es aber auch ein nicht-kommerzielles Verfahren sein sollte (ich spreche kein Französisch), wäre Löschen wohl nicht gerechtfertigt. --Arno Matthias 01:17, 5. Dez. 2006 (CET)

[Bearbeiten] Diagramm Signalentdeckungstheorie

Fortsetzung der Diskussion wie gewünscht hier:
Der von Dir eingeführte Link hat meinen Wissensdurst nicht gestillt. Auch ich weiß, daß Mathematiker die Wahrscheinlichkeitskurve symmetrisch konstruieren und die Ordinate nicht zur benennen brauchen, weil die Fläche unter ihr genormt ist und ja auch der 1r und 2r-Intervalldefinition dient usw. ...
Aber die Abszisse ist bei der Diagramm-Darstellung (!) im WP-Artikel Signalentdeckungstheorie durch den Text definiert und dennoch nicht im Diagramm benannt: Die im Text gegebene Erklärung zum Diagramm, daß ein Signal sich addiert, also aus dem Rauschen abhebt, zwingt mich, eine eine Addition in Abszissenrichtung zu postulieren, nehmen wir an nach dem oberen unteren Diagramm in Richtung rechts. Nur deshalb ist die Verteilung des Signals nicht weiterhin symmetrisch und das Signal kann durch richtige Interpretation und statistische Methoden überhaupt entdeckt werden. In der vektorieller Richtung des Signals gibt es natürlich unendlich viele Möglichkeiten in Abhängigkeit von der Stärke des Signals und des Grundrauschens und der subjektiven Fehlinterpretation (Kurvenhöhe), aber nur in einer (!) Richtung. Da es aber im Sinne der Entdeckung keine negativen Signale gibt, kann es keine Kurvenverschiebung zur Gegenseite (angenommen links) geben, wie im unteren oberen Diagramm gezeigt. Bei Untergang des Signals im Rauschen ist die Kurve nämlich wieder symmetrisch. Wäre eine Verschiebung zur Gegenseite des Signals und noch in gleicher Größe möglich, könnte ohnehin kein statistisches Verfahren der Welt das Signal entdecken (Kompensation)!--Wikipit 19:03, 8. Feb. 2007 (CET)

Das meiste was Du sagst stimmt. Allerdings beschreibt die Signalentdeckungstheorie die Entdeckungsleistung von Menschen (und Maschinen), nicht die Signalentdeckung durch statistische Methoden.
Die untere Kurve im Diagramm ist mit der oberen völlig identisch (insbesondere sind beide symmetrisch), lediglich nach rechts verschoben (weil der Mittelwert nach rechts verschoben ist). Richtig ist, dass eine Verschiebung nur nach rechts möglich ist. --Arno Matthias 23:58, 8. Feb. 2007 (CET)
Also habe ich die Kurve durch mein Wissen (mit sprachlichen Fehlern, die ich berichtigt habe) richtig interpretiert. Für Leute ohne Kenntnis ist die Darstellung aber nicht einfach verständlich, zumal auch noch die Zahlenwerte 23 und 77 vertauscht werden ohne jedwede Erklärung, warum sie überhaupt gleich sein sollen (denn das kann ja nur Zufall im Beispiel sein). Einen Hinweis, daß die FP und die FN gleich groß sein sollen und wie das erreicht wird, steht doch hier nirgends oder hab ich was überlesen. Mit Gruß.--Wikipit 00:40, 9. Feb. 2007 (CET)
Noch eine lästige Bemerkung: Man muß noch immer beide Achsen beschriften! Auch Wahrscheinlichkeiten oder Differentiale von irgendetwas verdienen eine Nennung.--Wikipit 10:11, 9. Feb. 2007 (CET)
Die im Diagramm "Quote" genannten relativen Häufigkeiten müssen sich horizontal und vertikal zu 1 addieren. Alle Ja-Antworten (in beiden Kurven rechts vom Kriteriumsbalken) setzen sich zusammen aus Treffern (77%) und Fehlalarmen (23%). Alle Antworten während kein Signal vorhanden war (obere Kurve) setzen sich zusammen aus korrekten Zurückweisungen (77%) und Fehlalarmen (23%). Das ist ja gerade die gegenseitige Abhängigkeit vom Fehler 1. und 2. Art: ein sehr empfindlich eingestellter Rauchmelder (oder Aids-Test) liefert viele Hits, wenig Verpasser, viele Fehlalarme und wenig korrekte Zurückweisungen, bei einem unempfindlicheren (konservativen) Test ist es genau umgekehrt. Siehe dazu auch Kontingenztafel und Beurteilung eines Klassifikators. --Arno Matthias 15:06, 9. Feb. 2007 (CET)
Danke! Wie Du unschwer feststellen kannst, habe ich "Beurteilung eines Klassifikators" und die Erstfassung "ROC" geschrieben. Also weiß ich das. Meine Frage bezog sich auf nicht darauf, daß 23 und 77 = 1 sind, sondern daß
  1. im Diagramm eine Zahlensymmetrie oben und unten erzeugt wurde, was auch immer das aussagen sollte
  2. das Diagramm unter Signalentdeckungstheorie ebenso wie unter ROC ganz oben unklar bleibt. Was repräsentiert es, wie sind die Achsenbezeichungen. Selbst bei Streuungen kann man angeben, was da streut. Ich bin kein Statistiker und Mathematiker, will es aber begreifen können. Dinge, die man nicht erklären kann, hat man nicht verstanden.--Wikipit 18:07, 9. Feb. 2007 (CET)

[Bearbeiten] Frage zum Ellsberg-Paradoxon

ersteinmal guten tag!
im abschnitt -Das Ellsberg-Experiment- heißt es: Ellsberg erklärt dieses Ergebnis mit der Unterscheidung zwischen Risiko und Unsicherheit (im Original ambiguity): beim Risiko sind die Wahrscheinlichkeiten bekannt (Beispiele: klassische Zufallsexperimente wie Würfeln, Roulette usw.), bei Unsicherheit nicht.
wenn man sich nun den artikel -Entscheidung unter Unsicherheit- anschaut, wird diese unterschieden in 1. Entscheidung unter Risiko und 2. Entscheidung unter Ungewissheit.
müsste es nicht im Das Ellsberg-Experiment-Text heißen: Ellsberg erklärt dieses Ergebnis mit der Unterscheidung zwischen Risiko und Ungewissheit?
nichts für ungut, falls ich was missverstanden habe! --88.74.9.208 15:50, 19. Mär. 2007 (CET)

ps:Unsicherheit --88.74.9.208 15:58, 19. Mär. 2007 (CET)
Auch guten Tag!

Begriffe wie Unsicherheit, Risiko und Ungewissheit sind ja nunmal leider (?) nicht genormt, und Ellsberg schrieb auf Englisch ("ambiguity" wird häufig auch mit Uneindeutigkeit übersetzt). Wichtig ist, den unterschiedlichen Sinn zu verstehen. --Arno Matthias 19:54, 19. Mär. 2007 (CET)

danke --88.73.107.190 21:21, 21. Mär. 2007 (CET)

Static Wikipedia (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - en - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu -

Static Wikipedia 2007 (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - en - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu -

Static Wikipedia 2006 (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu

Static Wikipedia February 2008 (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - en - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu