Korrektur: Aussagen zu Wahrscheinlichkeit und Statistik
Eingeordnet in Mathematik
Geschrieben am in
Deutsch mit einer Größe von 13,01 KB
Korrigierte Aussagen zur Wahrscheinlichkeitstheorie
Wahrscheinlichkeitstheorie und Grundbegriffe
1.V Das Binomialmodell ist durch dichotome Ergebnisse gekennzeichnet. (There - FAILURE)
2.F Die Normalverteilung ist bezüglich des Mittelwerts symmetrisch. (abhängig von der Definition)
3.F Die Wahrscheinlichkeitstheorie befasst sich mit probabilistischen Experimenten (nicht deterministischen). (RAND probabilistische)
4.X Die Wahrscheinlichkeitstheorie ermöglicht es, ein Modell für Zufallsexperimente zu entwickeln.
5.F Das Standardmodell basiert auf den reellen Zahlen (häufig betrachtet man positive reelle Zahlen). (Negativ-positiv)
6.X Entscheidungen in der Wahrscheinlichkeitstheorie basieren auf Wahrscheinlichkeiten.
7.F Ein zufälliges Experiment ist ein Prozess zur Gewinnung von Informationen über ein Ereignis, das ein Ergebnis zeigt, wenn es mehrfach wiederholt wird. (Zufallsstichproben)
8.X Die Wahrscheinlichkeitstheorie liefert Verfahren zur Berechnung der Ergebnisse randomisierter Studien.
9.F In einem randomisierten Experiment kann man eine Reihe möglicher Ergebnisse definieren.
10.F Die Menge der möglichen Ergebnisse eines Experiments wird als Probenraum (Ergebnisraum) bezeichnet.
11.F Beim Binomialmodell werden Ereignisse oft unter bestimmten Annahmen (z. B. Unabhängigkeit) betrachtet. (parteilos)
12.V Wenn der Versuch aus drei Münzwürfen besteht, beträgt die Anzahl der möglichen Ergebnisse 8.
13.V Ein Ereignis ist eine Teilmenge des Probenraums.
14.V Die leere Menge wird als leeres Ereignis bezeichnet.
15.V Wenn die Wahrscheinlichkeit eines Ereignisses gegen 1 geht, ist das Ereignis sehr wahrscheinlich.
16.F Der Probenraum wird als ein sichereres Ereignis angesehen (wahrscheinlich).
17.V Wahrscheinlichkeiten können z. B. frequentistisch oder subjektiv definiert werden.
18.V Eine bayessche Wahrscheinlichkeit ist der Grad an Gewissheit, den Menschen einem Ereignis beimessen.
19.F Das Gegenteil ist der Fall, dass alle Elemente aus ...
20.V ... aufgenommen werden, mit dem Probenraum.
21.F Ein Probenraum ist endlich bzw. abzählbar, wenn er eine endliche oder abzählbare Anzahl von Elementen besitzt (nicht nur reale Zahlen gehören).
22.V Die Wahrscheinlichkeit des gesamten Probenraums beträgt 1 (Erfolg vs. Misserfolg bezieht sich auf Einzelereignisse).
23.F Die Wahrscheinlichkeit einer Teilmenge entspricht ihrer relativen Größe gegenüber dem Ganzen (je nach Modell).
24.V Die Wahrscheinlichkeit einer Teilmenge von n ist die relative Größe zum Gesamtumfang.
25.V Sei A ⊂ E, dann gilt P(A^c) = 1 - P(A).
26.F Seien A1, A2 ⊂ E, so dass für Ereignisse gilt: P(A1 ∩ A2) = P(A1 ∪ A2) (diese Gleichheit ist im Allgemeinen falsch).
27.V Die Wahrscheinlichkeit eines Ereignisses A kann berechnet werden als P(A) = #A / #E (bei gleichgewichteten Ergebnissen).
28.V Die Vereinigung ist das Ereignis, das aus den Ergebnissen besteht, die in A oder in B oder in beiden liegen.
29.V Zur Berechnung einer bedingten Wahrscheinlichkeit betrachtet man die Wahrscheinlichkeit des Schnitts der beiden Ereignisse im Verhältnis zum bedingenden Ereignis.
30.V Das Gaußsche Modell (Normalverteilung) hat eine glockenförmige Kurve.
31.F Die subjektive Wahrscheinlichkeit ist nicht notwendigerweise die relative Häufigkeit; sie drückt das persönliche Vertrauen in das Eintreten eines Ereignisses aus.
32.F Ein System ist umfassend und abgeschlossen, wenn die Vereinigung bestimmter Ereignisse dem Probenraum entspricht und ihre Schnittmenge das leere Ereignis sein kann.
33.V Zwei Ereignisse sind unabhängig, wenn das Eintreten des einen keine Information über das Eintreten des anderen liefert.
34.V Der Satz von Bayes berechnet die bedingte Wahrscheinlichkeit eines Ereignisses Ai (i = 1,2,...,n) einer Partition des Probenraums, gegeben ein Ereignis B.
35.F Die Spezifität wird durch die Wahrscheinlichkeit wahrer Negativer bestimmt (nicht durch wahre Positive).
36.V Die Prävalenz ist der Anteil der Bevölkerung, der eine bestimmte Krankheit hat.
37.V P(D|+) ist der positive prädiktive Wert (positive Vorhersagewert).
38.V Eine Zufallsvariable ist eine Funktion, die jedem Ergebnis eines Zufallsexperiments eine Zahl zuordnet.
39.F Zufallsvariablen können als diskret oder stetig (nicht „diskontinuierlich“) beschrieben werden.
40.V Eine Dichtefunktion ist eine nichtnegative Funktion, deren Integral über den gesamten Bereich eins ergibt.
41.F Die Inzidenz ist nicht einfach der Anteil der Fälle in einer Population; sie bezeichnet die Rate neuer Fälle in einem bestimmten Zeitraum.
42.V Wahrscheinlichkeitsdichtefunktionen beschreiben die Wahrscheinlichkeit, dass eine Zufallsvariable in einem bestimmten Intervall liegt.
43.F Der Erwartungswert ist nicht notwendigerweise gleich dem Median (nur bei symmetrischen Verteilungen).
44.F Die Sensitivität wird durch die Wahrscheinlichkeit wahrer Positiver bestimmt (nicht durch wahre Negative).
45.F Die Parameter des Normalmodells sind der Mittelwert und die Standardabweichung (nicht „Proportion“).
46.V In einem Normalmodell bestimmt der Mittelwert die Lage der Kurve.
47.V Die Gaußsche Kurve wird durch ihre Parameter (Mittelwert und Standardabweichung) bestimmt.
48.F P(D^c | -) ist der negative prädiktive Wert (NPV), nicht P(III / -).
49.V Das Normalmodell liefert die Form der Kurve, die durch die Standardabweichung mitbestimmt wird.
50.F Die Vereinigung (A ∪ B) ist die Menge der Elemente, die in A oder in B sind.
Normalverteilung, Stichproben und Tests
1.V Der SPSS-Normalitätstest prüft üblicherweise H0: Die Variable ist normalverteilt, gegen H1: Die Variable ist nicht normalverteilt.
2.X Das Normalmodell wird durch den Mittelwert und die Standardabweichung bestimmt.
3.V Beim gaußschen Modell liegen etwa 68 % der Werte innerhalb einer Standardabweichung um den Mittelwert.
4.X Die Dichtefunktion der Normalverteilung ist symmetrisch.
5.X Zur Schätzung der Parameter des linearen Regressionsmodells verwendet man Schätzverfahren wie die kleinsten Quadrate und schätzt die Fehlerterme.
6.X Eine Normalverteilung mit Erwartungswert 0 und Standardabweichung 1 heißt Standardnormalverteilung.
7.V Für eine normale Zufallsvariable X gilt: Durch Standardisierung Z = (X - μ)/σ erhält man die Standardnormalverteilung mit gleichen Wahrscheinlichkeiten für entsprechende Z-Werte.
8.X Der Mittelwert im Normalmodell ist ein Lageparameter (Translationsfaktor).
9.X Die Standardabweichung bestimmt die Breite bzw. Form der Normalverteilungskurve.
10.V Wenn P(Z < 1,85) ≈ 0,968, dann ist P(Z > 1,85) ≈ 0,032.
11. Die Wahrscheinlichkeit P(Z < 0) = 0,5.
12. Auch wenn einzelne Messwerte nicht normalverteilt sind, sorgt der zentrale Grenzwertsatz dafür, dass Stichprobenmittel bei großen Stichproben annähernd normalverteilt sind.
13. Die Standardabweichung misst die durchschnittliche Abweichung der Werte vom Mittelwert.
14. Der Stichprobenmittelwert ist bei ausreichend großer Stichprobe annähernd normalverteilt.
15.F Durch Standardisierung (Tipifizierung) kann man verschiedene Messreihen aus Normalmodellen vergleichen.
16.V Für hinreichend große Stichproben (z. B. n > 20) ist der Mittelwert oft näherungsweise normalverteilt.
17.F Die Chi-Quadrat-Verteilung ist rechtsschief (nicht symmetrisch).
18.F Die Student-t-Verteilung ähnelt der Normalverteilung, insbesondere bei großen Freiheitsgraden.
19.V Das Gaußsche Modell wird häufig bei Messfehlern angewendet.
20. Bei großen n und geeigneten Voraussetzungen (z. B. np > 5) kann die Binomialverteilung durch passende Näherungen (Poisson oder Normalverteilung) approximiert werden.
21.V Die F-Verteilung hängt von zwei Freiheitsgraden ab.
22.V Die Population, die für eine Untersuchung relevant ist, nennt man Zielpopulation.
23.V Der Chi-Quadrat-Test wird angewandt, um die Unabhängigkeit kategorialer Variablen zu prüfen.
24.F Eine Gruppe (Stichprobe) ist nicht gleichbedeutend mit der gesamten Zielpopulation; man muss die Stichprobe sorgfältig definieren.
25.V Bei probabilistischer Stichprobenahme sind die Auswahlwahrscheinlichkeiten der Individuen bekannt.
26.F Probabilistische Stichproben sind nicht automatisch frei von Verzerrungen.
27. Statistische Schlüsse setzen voraus, dass die Stichprobe möglichst zufällig und repräsentativ ausgewählt wurde.
28.V Um Verzerrungen zu vermeiden, verwendet man zufällige Auswahlverfahren.
29.V Die Cluster-Stichprobe wird angewendet, wenn es schwer ist, eine vollständige Liste aller Personen der Population zu erhalten.
30.F Ein Schätzer ist eine Funktion der Stichprobe zur Schätzung eines Populationsparameters; er ist nicht automatisch eine „gute“ Repräsentation ohne weitere Eigenschaften (z. B. Unverzerrtheit, Konsistenz).
31.F Der Standardfehler des Stichprobenmittelwerts ist σ/√n (geschätzt durch s/√n).
32. Selektionsbias entsteht durch systematische Unterschiede zwischen Population und untersuchter Stichprobe.
33. Ein Punktschätzer ohne Konfidenzintervall gibt keine Information über die Unsicherheit der Schätzung.
34. Statistische Inferenz umfasst Verfahren zur Schätzung und zum Testen von Populationsparametern anhand einer Stichprobe.
35. Ein statistischer Test ist ein Verfahren zur Entscheidungsfindung bezüglich einer Hypothese über Zufallsvariablen in einem Modell.
36.V Die Kovarianz misst Richtung und Stärke des linearen Zusammenhangs zwischen zwei Variablen.
37.V Der Pearson-Korrelationskoeffizient r liegt zwischen -1 und 1.
38.V Der Korrelationskoeffizient r ist dimensionslos.
39.V Die Regressionsanalyse dient dazu, die Abhängigkeit einer Zielvariable von einer oder mehreren unabhängigen Variablen zu modellieren und Vorhersagen zu treffen.
40.F In Hypothesentests ist H1 die Alternativhypothese, die durch Daten gestützt werden kann; die Formulierung muss präzise erfolgen.
41.F Die Nullhypothese H0 wird beibehalten, wenn keine ausreichenden Beweise gegen sie vorliegen; sie wird nicht „akzeptiert“ im absoluten Sinne, sondern nicht verworfen.
42.V Bei einem Konfidenzniveau von 90 % beträgt das Signifikanzniveau α = 0,10.
43.V Das Bestimmtheitsmaß R² gibt den Anteil der Varianz der abhängigen Variable an, der durch das Modell erklärt wird.
44.V Das Streudiagramm (Dispersion) ist ein Diagramm, das die Beziehung zwischen zwei Variablengraphisch darstellt.
45.F Wenn p < α, wird H0 zugunsten von H1 abgelehnt (nicht: wenn p > H1).
46.V Ein Test ist nicht signifikant, wenn p > α.
47.V Ein Typ-II-Fehler (β) bedeutet, dass H0 fälschlicherweise nicht verworfen wird, obwohl sie falsch ist.
48. Der Mann-Whitney-Test ist ein nichtparametrischer Test, um Unterschiede zwischen zwei unabhängigen Stichproben zu prüfen (Vergleich der Lage).
49.F Der p-Wert ist erst nach der Datenauswertung bekannt; er kann nicht vor dem Experiment bestimmt werden.
50. Der Wilcoxon-Test ist ein nichtparametrischer Test, um die Lage (z. B. Mediane) zwischen zwei verbundenen oder gepaarten Stichproben zu vergleichen.