Der Standardfehler gibt an, wie stark sich eine Schätzung aus einer Stichprobe normalerweise von einer zufälligen Stichprobe zur nächsten verändert. Auf dieser Seite ist diese Schätzung der Stichprobenmittelwert. Er misst die typische Stichprobenvariation des Mittelwerts, nicht die Streuung der Rohdaten.

Für den Stichprobenmittelwert gilt der Standardfehler

SE(xˉ)=σnSE(\bar{x}) = \frac{\sigma}{\sqrt{n}}

wenn die Populationsstandardabweichung σ\sigma bekannt ist. In der Praxis ist σ\sigma oft unbekannt, daher schätzt man sie mit der Stichprobenstandardabweichung ss:

SE(xˉ)snSE(\bar{x}) \approx \frac{s}{\sqrt{n}}

Diese Formel gilt für den Mittelwert im üblichen Fall: Die Beobachtungen werden als unabhängige Zufallsstichprobe behandelt, und es geht um die Genauigkeit des Stichprobenmittelwerts. Ein kleinerer Standardfehler bedeutet eine präzisere Schätzung.

Was der Standardfehler tatsächlich misst

Der Standardfehler bezieht sich auf eine Schätzung, nicht auf einzelne Beobachtungen. Wenn du immer wieder neue Stichproben derselben Größe aus derselben Grundgesamtheit ziehen würdest, würde sich der Stichprobenmittelwert verändern. Der Standardfehler beschreibt die typische Größe dieser Veränderung.

Deshalb wird der Standardfehler kleiner, wenn nn größer wird. Das Mitteln über mehr Beobachtungen macht den Stichprobenmittelwert von Stichprobe zu Stichprobe meist stabiler, vorausgesetzt der Datenerhebungsprozess bleibt vergleichbar.

Standardfehler vs Standardabweichung

Genau dieser Unterschied sorgt für die meiste Verwirrung. Die Standardabweichung beschreibt, wie stark die Datenwerte innerhalb eines Datensatzes streuen. Der Standardfehler beschreibt, wie stark eine Kennzahl, etwa der Stichprobenmittelwert, über viele wiederholte Stichproben hinweg streuen würde.

Für den Mittelwert sind beide verbunden durch

SE(xˉ)snSE(\bar{x}) \approx \frac{s}{\sqrt{n}}

wenn du aus einer Stichprobe schätzt. Der Standardfehler verwendet also die Standardabweichung, aber beide beantworten unterschiedliche Fragen.

Nutze diese Merkhilfe:

  1. Die Standardabweichung fragt: „Wie stark streuen die Datenwerte?“
  2. Der Standardfehler fragt: „Wie präzise ist mein Stichprobenmittelwert als Schätzung?“

Ein durchgerechnetes Beispiel zum Standardfehler

Angenommen, eine Stichprobe von n=25n = 25 Schülern hat einen mittleren Testergebniswert von 7878 und eine Stichprobenstandardabweichung von 1010.

Der geschätzte Standardfehler des Mittelwerts ist

SE(xˉ)sn=1025=105=2SE(\bar{x}) \approx \frac{s}{\sqrt{n}} = \frac{10}{\sqrt{25}} = \frac{10}{5} = 2

Der entscheidende Punkt ist die Interpretation. Der Wert 22 bedeutet nicht, dass die meisten Schüler innerhalb von 22 Punkten um 7878 liegen. Das würde den Standardfehler mit der Standardabweichung verwechseln.

Stattdessen bedeutet er, dass der Stichprobenmittelwert bei wiederholten ähnlichen Zufallsstichproben von 2525 Schülern aus derselben Grundgesamtheit typischerweise um etwa 22 Punkte von Stichprobe zu Stichprobe schwanken würde.

Warum die Formel n\sqrt{n} verwendet

Das n\sqrt{n} im Nenner erklärt, warum größere Stichproben präzisere Schätzungen des Mittelwerts liefern. Wenn der Stichprobenumfang wächst, wächst der Nenner, also wird der Standardfehler kleiner.

Die Veränderung ist aber nicht linear. Um den Standardfehler zu halbieren, braucht man normalerweise etwa die vierfache Stichprobengröße, denn

14n=12n\frac{1}{\sqrt{4n}} = \frac{1}{2\sqrt{n}}

Häufige Fehler beim Standardfehler

  1. Standardfehler und Standardabweichung so zu verwenden, als wären sie austauschbar.
  2. Zu sagen, ein kleiner Standardfehler bedeute, dass die Rohdaten nur wenig streuen. Diese Schlussfolgerung folgt nicht, es sei denn, du weißt auch, dass die Standardabweichung klein ist.
  3. Zu vergessen, dass die Formel SE(xˉ)s/nSE(\bar{x}) \approx s/\sqrt{n} hier speziell für den Stichprobenmittelwert gilt.
  4. Anzunehmen, dass eine größere Stichprobe Verzerrung immer beseitigt. Ein größeres nn verringert die zufällige Stichprobenvariation, korrigiert aber nicht automatisch eine verzerrte Stichprobe.

Wann der Standardfehler verwendet wird

Der Standardfehler ist wichtig, wenn du beurteilen willst, wie präzise eine Schätzung ist. Er taucht in Konfidenzintervallen, Hypothesentests, Regressionsausgaben und Umfrageergebnissen auf.

In jedem Fall ist die Grundidee dieselbe: Der Standardfehler hilft dabei, eine einzelne Stichprobe mit der Unsicherheit der Schätzung zu verknüpfen, die aus dieser Stichprobe stammt.

Probiere eine ähnliche Aufgabe

Probiere eine eigene Variante mit s=12s = 12 und n=36n = 36. Berechne den Standardfehler des Mittelwerts und vergleiche ihn dann mit dem Fall n=144n = 144. So siehst du schnell, wie sich die Stichprobengröße auf die Präzision auswirkt. Wenn du noch weitergehen willst, schau dir als Nächstes ein Konfidenzintervall an und sieh, wie der Standardfehler seine Breite beeinflusst.

Brauchst du Hilfe bei einer Aufgabe?

Lade deine Frage hoch und erhalte in Sekunden eine verifizierte Schritt-für-Schritt-Lösung.

GPAI Solver öffnen →