„Stichproben-Regressionsfunktion“ – Versionsunterschied

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen
[gesichtete Version][gesichtete Version]
Inhalt gelöscht Inhalt hinzugefügt
KKeine Bearbeitungszusammenfassung
erg.
Zeile 16: Zeile 16:
Durch diese Darstellung kann man erkennen, dass der Kleinste-Quadrate-Schätzer für die Steigung wiedergibt, wie stark sich die Zielgröße <math>y</math> verändert, wenn sich die Einflussgröße <math>x</math> um eine Einheit erhöht.<ref>Jeffrey Marc Wooldridge: ''Introductory econometrics: A modern approach.'' 5. Auflage. Nelson Education, 2013, S.&nbsp;31.</ref>
Durch diese Darstellung kann man erkennen, dass der Kleinste-Quadrate-Schätzer für die Steigung wiedergibt, wie stark sich die Zielgröße <math>y</math> verändert, wenn sich die Einflussgröße <math>x</math> um eine Einheit erhöht.<ref>Jeffrey Marc Wooldridge: ''Introductory econometrics: A modern approach.'' 5. Auflage. Nelson Education, 2013, S.&nbsp;31.</ref>


== Multiple lineare Regression ==
Gegeben ein typisches [[Multiple lineare Regression|multiples lineares Regressionsmodell]] <math>\mathbf y = \mathbf X \boldsymbol{\beta} + \boldsymbol \varepsilon</math>, mit <math>\boldsymbol\beta</math> dem <math>p \times 1</math> Vektor der unbekannten [[Regressionsparameter]], der <math>n \times p</math> [[Versuchsplanmatrix]] <math>\mathbf{X}</math>, dem <math>n \times 1</math> Vektor der abhängigen Variablen <math>\mathbf{y}</math> und dem <math>n \times 1</math> Vektor der [[Störgröße und Residuum|Störgrößen]] <math>\boldsymbol \varepsilon</math>. Dann ist die KQ-Stichproben-Regressionsfunktion <math>\hat{\mathbf{y}}</math> gegeben durch

:<math>\hat{\mathbf{y}} = \mathbf{X}\hat{\boldsymbol \beta }=\underbrace{\mathbf{X}\left( \mathbf{X}^{\top} \mathbf{X} \right)^{-1} \mathbf{X}^{\top}}_{=\mathbf{P}} \mathbf{y}=\mathbf{P} \mathbf{y}</math>,

wobei <math>\boldsymbol P</math> die [[Prädiktionsmatrix]] darstellt.
== Einzelnachweise ==
== Einzelnachweise ==

Version vom 11. Juni 2019, 21:49 Uhr

In der Statistik bezeichnet eine Stichproben-Regressionsfunktion, auch empirische Regressionsfunktion (englisch sample regression function, kurz: SRF) die geschätzte Version der Regressionsfunktion der Grundgesamtheit. Die Stichprobenregressionsfunktion ist fix, aber in der Grundgesamtheit unbekannt. Handelt es sich bei der Regressionsfunktion um eine Gerade, dann ist auch von einer Stichproben-Regressionsgerade, oder empirischen Regressionsgerade die Rede. Die Stichproben-Regressionsgerade wird als Kleinste-Quadrate-Regressionsgerade (kurz: KQ-Regressionsgerade) aus Beobachtungspaaren, die Datenpunkte repräsentieren, gewonnen. Sie stellt laut dem Kleinste-Quadrate-Kriterium die bestmögliche Anpassung an die Daten dar.

Einfache lineare Regression

Wenn man mittels der Kleinste-Quadrate-Schätzung den Kleinste-Quadrate-Schätzer für die Steigung und den Kleinste-Quadrate-Schätzer für das Absolutglied ermittelt, dann erhält man die folgende KQ-Regressionsgerade

.

Diese wird auch Stichprobenregressionsfunktion genannt, da sie eine geschätzte Variante der (theoretischen) Regressionsfunktion der Grundgesamtheit

ist.[1] Die Parameter und werden auch empirische Regressionskoeffizienten genannt.[2] Da die Stichprobenregressionsfunktion durch eine gegebene Stichprobe gewonnen wird, liefert eine neue Stichprobe einen neuen Anstieg und ein neues Absolutglied . In den meisten Fällen kann man den Kleinste-Quadrate-Schätzer für die Steigung darstellen als

Durch diese Darstellung kann man erkennen, dass der Kleinste-Quadrate-Schätzer für die Steigung wiedergibt, wie stark sich die Zielgröße verändert, wenn sich die Einflussgröße um eine Einheit erhöht.[3]

Multiple lineare Regression

Gegeben ein typisches multiples lineares Regressionsmodell , mit dem Vektor der unbekannten Regressionsparameter, der Versuchsplanmatrix , dem Vektor der abhängigen Variablen und dem Vektor der Störgrößen . Dann ist die KQ-Stichproben-Regressionsfunktion gegeben durch

,

wobei die Prädiktionsmatrix darstellt.

Einzelnachweise

  1. Jeffrey Marc Wooldridge: Introductory econometrics: A modern approach. 5. Auflage. Nelson Education, 2013, S. 31.
  2. Otfried Beyer, Horst Hackel: Wahrscheinlichkeitsrechnung und mathematische Statistik. 1976, S. 185.
  3. Jeffrey Marc Wooldridge: Introductory econometrics: A modern approach. 5. Auflage. Nelson Education, 2013, S. 31.