![]() |
---|
Hallo :-) Ich habe ein paar Verständnisprobleme bei der Wahrscheinlichkeitsrechnung und hoffe, dass ihr mir behilflich sein könnt. Ich hoffe, man kann meine Fragen verstehen und es ist nicht allzu wirr... Frage 1: Es gab eine repräsentative, politische Umfrage mit 40% haben gesagt, sie würden Partei A wählen. Wir wollen das Konfidenzintervall (prozentual) bestimmen mit einer Irrtumswahrscheinlichkeit von . (also , da beiseitig). Würden wir dann IMMER die Normalverteilung mit zugrunde legen (bzw. Standardfehler mit ) oder ist es besser/genauer, die Binomialverteilung zu nutzen - auch, wenn es nur mit einem Computer ausrechenbar ist? Wir nutzen doch hier die Normalverteilung als Näherung für die Binomialverteilung oder irre ich mich da? Frage 2: Wenn ich das richtig verstanden habe und wir die Normalverteilung lediglich als Näherung nutzen, um den Fehler der Umfrage zu bestimmen, wieso brauchen wir dann keine Stetigkeitskorrektur?! (Man sieht: Ich bin verwirrt) Frage 3: Die -Verteilung nutzen wir ja, wenn und/oder nur die Stichprobenvarianz bekannt ist. Würde es sich im obigen Beispiel bei nicht um die Stichprobenstandardabweichung handeln? Oder gehen wir davon aus, dass das obige die Standardabweichung der Population ist, weil die Umfrage ja repräsentativ ist? Würde das dann heißen, dass wir - wenn wir die Kriterien " und/oder nur die Stichprobenvarianz bekannt" zugrunde legen - bei einem rein zufällig, nicht zwangsläufig repräsentativem Sample die -Verteilung verwenden müssten? Oder ist das bei einem so großem , also , generell überflüssig, da die -Verteilung sich in dem Fall schon "zu sehr" der Normalverteilung ähnelt? Ich habe das jetzt "in etwa" so verstanden: Normalverteilung als Näherung für die Binomialverteilung. Keine -Verteilung, da die Umfrage repräsentativ ist. (Oder ist das Schwachsinn, da die -Verteilung bei diskreten Wahrscheinlichkeitsverteilungen eh nicht genutzt wird?!) Stetigkeitskorrektur??!! Berechnung des Standardfehlers: ~ . Da ~ Also liegt der Prozentwert der Partei A - Wähler mit 95%iger Sicherheitswahrscheinlichkeit in dem Intervall . Per Binomialverteilung: (Als Rechner genutzt (Liste): www.ingo-bartling.de/mathe/klasse12/html/stochastik/binomial/tables.html?name=Binomialverteilung&n=1000&p=0.4&k=100 Unter Ausnutzung der Symmetrie folgt, dass das Konfidenzintervall bzw. in Prozent ist. Es ergibt sich: absolute Abweichung von 3,10: 0,06; relative Abweichung: knapp 2 % Diese ist dann durch die Stetigkeit der Normalverteilung zu erklären? DANKE schonmal für eure Antworten. Für alle, die mir helfen möchten (automatisch von OnlineMathe generiert): "Ich möchte die Lösung in Zusammenarbeit mit anderen erstellen." |
Hierzu passend bei OnlineMathe: Online-Übungen (Übungsaufgaben) bei unterricht.de: |
![]() |
![]() |
Hallo, zu Frage 1: Ja, die Verwendung der Normalverteilung ist nur eine Approximation. Dafür gibt es EINE Tabelle, bei der man die Werte nachschauen kann. Bei der Binomialverteilung gibt es ja für jedes n verschiedene Tabellen. Da muss man erst einmal die richtige Tabelle zu Verfügung haben. zu Frage 2: Das ist die interessante(re) Frage. Vorweg: Man kann die Stegigkeitskorrektur verwenden um das Intervall noch genauer zu bestimmen. Der Ausgangpunkt ist ist in der Tat die geschätzte Standardabweichung. Siehe wiki: de.wikipedia.org/wiki/Konfidenzintervall#Beschreibung_des_Verfahrens Die linke Seite nach auflösen Um den Anteilswert zu erhalten muss noch durch n geteilt werden. Dabei ist Das Dach drückt aus, dass es sich um geschätzte Werte handelt. In deinem Fall würde sich das intervall rechts um verschieben. Das würde in diesem Fall die rechte Intervallgrenze von auf hinausschieben. Das sieht doch schon einmal sehr gut aus. Gruß pivot |
![]() |
Danke schonmal für deine Antwort! Vielleicht als Anmerkung: Es handelt sich nicht um eine Übungsaufgabe oder Ähnliches - ich möchte nur das "große Ganze" besser verstehen, also mich privat weiterbilden. Und manchmal trifft man da auf eine Sackgasse. Zu deinen Ausführungen: Es ist , oder? Aber es ist hier ja , oder nicht? Also, das ist unsere Schätzung. Hätten wir den Mittelwert des Samples und (!) das "echte" in der Bevölkerung, dann müssten wir nicht abschätzen, oder? Sonst kann ich deine Ausführungen zur Stetigkeitskorrektur soweit nachvollziehen. Aber es wäre dann doch, vorausgesetzt, wir bezeichnen hier die Stichprobenstandardabweichung als , und , oder? (mit und ) Lässt sich sagen: Das Vorgehen mit Binomialverteilung bzw. auch die Nutzung der Stetigkeitskorrektur ist in diesem konkreten Fall, nämlich Wahlumfragen, genauer bzw. besser? Auch, wenn das keine "mathematische" Seite ist: www.wahlrecht.de/lexikon/studie.html Die bekannte "Wahlumfragensammelseite" verweist lediglich auf die Nutzung des Standardfehlers ohne Stetigkeitskorrektur. Daher (leider) noch eine weitere Frage: Was benutzen bekannte und renommierte Umfrageinstitute, um den Fehler zu berechnen? Die müssen ja auch Statistiker in den Reihen haben, die Interesse daran haben, den Fehler so exakt wie möglich zu bestimmen. Wieso also die Wahl eines womöglich ungenaueren Verfahrens, wenn wir doch Computer haben und eigtl. gar keine Tabelle brauchen/nutzen müssen? Mich wundert das Ganze mit der Stetigkeitskorrektur und dem Vorgehen über Normalverteilung insgesamt, da Genauigkeit doch stets Vorrang haben sollte und nicht Einfachheit bzw. "Schönheit"? Deshalb wohl auch meine banal wirkende "Frage 1" - dieses Vorgehen verwirrt mich, weil es einfach nicht logisch erscheint. Und dann bräuchte ich noch eine Belehrung zur Studentschen -Verteilung :-P) und zwar, ob sie hier eigtl. angewendet werden müsste. Die Kriterien, wann die t-Verteilung zu verwenden ist, habe ich von der Seite: http//www.statisticshowto.com/probability-and-statistics/hypothesis-testing/t-score-vs-z-score/ _______________________________________ The general rule of thumb for when to use a t score is when your sample: - Has a sample size below 30, - Has an unknown population standard deviation. You must know the standard deviation of the population your sample size should be above 30 in order for you to be able to use the z-score. Otherwise, use the t-score. _______________________________________ Und unsere Standardabweichung ist ja unbekannt, auch wenn unser mit recht groß ist. Lässt sich evtl. sogar bestimmen, um wie viel besser die Schätzung ist, wenn wir ein repräsentatives Sample haben und unser Sample gegebenenfalls in Gruppen aufteilen und verschieden gewichten? Z.B.: Wir sehen, dass Männer unterrepräsentiert sind - durch Zufall bedingt, und rechnen uns auf 50% "hoch", unter der Voraussetzung, dass Männer und Frauen gleich häufig wählen gehen. Lässt sich die Auswirkung von "repräsentativen Abänderungen", also verschiedener Gewichtung, auf den Standardfehler irgendwie mathematisch bestimmen? Ich weiß, dass mein Topic eher eine Art Diskussion und keine Bearbeitung einer Übungsaufgabe darstellt - ich hoffe mal, dass das nicht weiter schlimm ist. |
![]() |
Zu deinen Ausführungen: Es ist p^=X‾n, oder? Aber es ist hier ja X‾=µ, oder nicht? Also, das ist unsere Schätzung. Ja. *** Hätten wir den Mittelwert des Samples und (!) das "echte" µ in der Bevölkerung, dann müssten wir X‾ nicht abschätzen, oder? Genau, und wir bräuchten auch kein Konfidenzintervall. ***Sonst kann ich deine Ausführungen zur Stetigkeitskorrektur soweit nachvollziehen. Aber es wäre dann doch, vorausgesetzt, wir bezeichnen hier die Stichprobenstandardabweichung als s, s=p^⋅q^⋅n und σ=p⋅q⋅n, oder? (mit q^:=(1-p^) und q:=(1-p)) Genau. ***Lässt sich sagen: Das Vorgehen mit Binomialverteilung bzw. auch die Nutzung der Stetigkeitskorrektur ist in diesem konkreten Fall, nämlich Wahlumfragen, genauer bzw. besser? Ja, wobei praktische Aspekte bestimmt eine viel größere Rolle spielen wie z.B. ob es eine echte Zufallsauswahl ist. Diese Nach-Nachkommastellen (ich meine es so) sind nicht das eigentliche Problem. ***Daher (leider) noch eine weitere Frage: Was benutzen bekannte und renommierte Umfrageinstitute, um den Fehler zu berechnen? Keine Ahnung. Am besten dort mal nachfragen. ***Die müssen ja auch Statistiker in den Reihen haben, die Interesse daran haben, den Fehler so exakt wie möglich zu bestimmen. Die haben bestimmt Statistiker. Wie gesagt die Mathematik/Statistik in Bezug auf die Stetigkeitskorrektur bzw. Normal-/Binomialverteilung ist nicht das Problem. Eine viel größere Rolle spielt z.B. auch die Fragetechnik und viele andere Aspekte. ***Wieso also die Wahl eines womöglich ungenaueren Verfahrens, wenn wir doch Computer haben und eigtl. gar keine Tabelle brauchen/nutzen müssen? Im Prinzip läuft die Anwendung beider Verteilung (wie gesehen) auf das gleiche Ergbenis hinaus. Ich schreibe es gerne nochmal. Andere Aspekte wie z.B. Suggestivfragen oder nicht spielen eine viel größere Rolle. |