liegt dann vor, wenn zwischen den erklärenden Variablen lineare Abhängigkeiten bestehen. Soll das Eingleichungsmodell der Form mit Hilfe der Methode der kleinsten Quadrate geschätzt werden, so ergeben sich folgende Bestimmungsgleichungen für die Regressionskoeffizienten b: mit Sind starke lineare Abhängigkeiten in X gegeben, so ist die Determinante X\'X nahe Null. In der Bestimmungsgleichung treten daher bei der Inversion von X\'X hohe Rundungsfehler und damit grosse Schätzfehler auf. Zur Vermeidung von Multikollinearität werden verschiedene Verfahren vorgeschlagen. (1) Elimination von Regressoren: Hochkorrelierte Regressoren (erklärende Variablen) werden weggelassen. (2) Bereinigungsverfahren: Alle Variablen des Ansatzes, auch der Regressand (zu erklärende Variable), werden vom Einfluss eines oder mehrerer der korrelierenden Regressoren bereinigt, z.B. durch Trendbereinigung. (3) Bildung erster Differenzen: Es werden die ersten Differenzen aufeinanderfolgender Beobachtungswerte gebildet und damit die Schätzung durchgeführt, z. B. geschätzt wird.
(4) Verwendung externer Informationen: Berücksichtigung von A-priori-Restriktionen, z.B. aus der Theorie oder aus Querschnittsanalysen.
Literatur: Schneeweiss, H., Ökonometrie, 4. Aufl., Heidelberg 1990.
siehe Ökonometrie.
unerwünschter linearer Zusammenhang zwischen den exogenen Variablen eines linearen Modells (Regressionsanalyse). Tritt als graduelles Problem bei der Schätzung von multiplen Regressionsmodellen auf. Variablen, besonders in Zeitreihen, sind fast immer mehr oder weniger kollinear. Exakte Multikollinearität führt dazu, dass die Matrix X’X singulär wird und nicht mehr invertierbar ist. Für die Kleinste-Quadrate- Schätzung heißt dies, dass (X’X)"1 nicht existiert. Graduelle Multikollinearität führt zur Aufblähung der Standardabweichungen der Regressionskoeffizienten. Die Schätzung verliert so an Zuverlässigkeit, es können inkonsistente Vorzeichen auftreten. Eine Testmethode auf Multikollinearität liefern/\'errar und Glauher (1967). Daneben ist die Ermittlung von koliinearen Variablen über einen F-Test möglich. Die Bildung von Varia blenkombinationen, die Elimination von Variablen oder der Einsatz anderer Schätzmethoden, z.B. Ridge Regression, bieten geeignete Lösungsmöglichkeiten.
Literatur: Ferrar, D. E.; Glauher,K. R., Multicolli- nearity in Regression Analysis: The Problem Revi- sited, in: Review of Economics and Statistics, Vol. 49(1967), S. 92-107.
Phänomen der Interkorrelation zwischen den erklärenden Variablen eines ökonometrischen Modells. Zu unterscheiden ist zwischen a) vollständiger Multikollinearität: Sie liegt vor, wenn eine exakte lineare Abhängigkeit zwischen zwei oder mehreren vorherbestimmten Variablen besteht; b) einem hohen Grad an Multikollinearität: es besteht eine stochastische Abhängigkeit zwischen exogenen Variablen. Der erste Fall, der allerdings weniger praktische Relevanz besitzt und letztlich nur bei falscher Spezifikation des Modells zustande kommen kann, bewirkt, dass sich die Koeffizienten der exakt linear abhängigen exogenen Variablen mit der üblichen Methode der kleinsten Quadrate (OLS) nicht schätzen lassen, da in der Schätzfunktion für 13 = (X\'X)-1X\'y aus dem linearen Modell y = X13 + u mit y als Vektor der endogenen Variablen, X als Matrix der exogenen Variablen, 13 als Parametervektor, u als Störgrößenvektor die Matrix X\'X singulär ist, so dass sich die Schätzfunktion 13 = (X\'X)-1X\'y nicht bilden läßt, da X\'X nicht invertiert werden kann. Der zweite Fall (stochastisch lineare Abhängigkeit) verhindert zwar nicht die Schätzung von Koeffizienten der betroffenen Variablen nach OLS, führt aber zu hohen Schätzfehlern. Zwischen exogenen Variablen besteht dann eine hohe Kovarianz. Es wird schwierig bzw. unmöglich, den relativen Einfluss verschiedener Variablen zu bestimmen; die Koeffizientenschätzungen reagieren sehr empfindlich auf Änderungen von Beobachtungsdaten; die zufällige Überschätzung eines Koeffizienten führt automatisch zu der Unterschätzung von Koeffizienten der Variablen, die starke Multikollinearität zu der entsprechenden ersten Variablen aufweisen. Indizien für eine hohe Multikollinearität können sein: großer Standardfehler einiger Parameterschätzfunktionen, hohe Korrelationskoeffizienten zwischen exogenen Variablen, geringe Änderungen des multiplen Bestimmtheitsmaßes bei Hinzufügen neuer wichtiger Variablen. Eigenwerte und sog. Varianzinflationsfaktoren sind geeignete Indikatoren, um Multikollinearität festzustellen. Versuche, die auf Überwindung der Multikollinearität durch Variablenunterdrükkung, lineare Variablentransformation, Variablenbereinigung (insbes. Trendbereinigung), Differenzenbildung abzielen, können kaum befriedigen, bzw. sie bleiben z.T. sogar ergebnislos. Erfolgreicher ist die Verwendung von A-priori-Kenntnissen über die Parameter von multikollinear verbundenen Variablen. Außerdem wird versucht, durch alternative Schätzer (z.B. RIDGE-Schätzer) die Schätzfehler zu verringern. Dabei handelt man sich allerdings verzerrte Schätzer ein. Insgesamt kann sich aber durchaus ein Vorteil ergeben. Literatur: Schneeweiß, H. (1990). Hübler, O. (1989). Kmenta, J. (1986)
Vorhergehender Fachbegriff: Multikanalvertrieb | Nächster Fachbegriff: multikriterielles Optimierungsmodell
Diesen Artikel der Redaktion als fehlerhaft melden & zur Bearbeitung vormerken
|
|