(lineares Bestimmtheitsmass, r2) Koeffizient, der die Stärke des linearen Zusammenhanges zwischen einer abhängigen Variablen Y und einer oder mehreren unabhängigen Variablen Xj beschreiben soll (Regressionsanalyse). Bezeichnet man mit yj (i = 1,..., n) die beobachteten Werte der abhängigen Variablen und mit yi die aufgrund der Regressionsfunktion geschätzten Werte der abhängigen Variablen, dann ist r2 als Quotient der durch die Regressionsfunktion erklärten Abweichungsquadratsumme SQE = S (yj - y)2 1=1 und der gesamten zu erklärenden Abweichungsquadratsumme der abhängigen Variablen definiert; y ist hierbei das arithmetische Mittel der abhängigen Variablen; es gilt also: r2 kann Werte zwischen 0 und 1 annehmen. Für r2 = 1 liegt eine vollständige Erklärung der yi durch die Regressionsfunktion vor. Für r2 = 0 wird durch die Regressionsfunktion kein linearer Erklärungsbeitrag geleistet. Im Fall der linearen Einfachregression wird r2 auch als einfaches Bestimmtheitsmass, im Fall der linearen Mehrfachregression als multiples Bestimmtheitsmass bezeichnet. Weiterhin lässt sich zeigen, dass im Fall der linearen Einfachregression (Regressionsanalyse) die Quadratwurzel aus dem Bestimmtheitsmass, also r, dem Betrage nach mit dem Korrelationskoeffizienten nach Bravais-Pearson übereinstimmt (Korrelationsanalyse). Betrachtet man eine lineare Mehrfachregression mit (k — 1) unabhängigen Variablen Xj (j = 2, 3, ..., k), dann gibt das lineare partielle Bestimmtheitsmass an, in welchem Umfang die durch den gewählten Regressionsansatz nicht erklärte Abweichungsquadratsumme durch die Hinzufügung einer weiteren unabhängigen Variablen Xk+1 erklärt wird.
Siehe auch Regressionsanalyse, Heteroskedastizität.
Literatur: Bleymüller, J./Gehlert, G./Gülicher, H., Statistik für Wirtschaftswissenschaftler, 8. Aufl., München 1992.
- Bewertungsmaße
Vorhergehender Fachbegriff: Besteuerungsverfahren | Nächster Fachbegriff: Bestimmungskauf
Diesen Artikel der Redaktion als fehlerhaft melden & zur Bearbeitung vormerken
|