statistisches Verfahren zur Untersuchung stochastischer (zufallsabhängiger) Zusammenhänge.
Im Rahmen der Regressionsanalyse wird der Zusammenhang von Zufallsgrößen in Form einer funktionalen Beziehung auf der Grundlage einer Stichprobe dargestellt. Im Falle einer linearen Einfachregression kann der Zusammenhang mit Hilfe einer Regressionsgeraden (Characteristic Line) dargestellt werden.
Die Regressionanalyse ist ein statistisches Prognoseverfahren, bei dem die Beziehungen einer Zielvariablen und einer erklärenden Variablen untersucht werden. Die erklärende Variable stellt nicht die Zeit dar, sondern eine ökonomische Größe, die in einem ursächlichen Zusammenhang zu der Zielvariablen steht. Eine derartige Beziehung kann zwischen dem Absatz von Küchen und dem Auftragsvolumen der Bauwirtschaft bestehen, wobei die Höhe des Absatzes prognostiziert werden soll. Die Verfahren der Regressionsanalyse sind von der Struktur der Beziehungen zwischen der Zielvariablen und der Anzahl der erklärenden Variablen abhängig. Man unterscheidet die lineare Einfachregression, die lineare Mehrfachregression sowie die nichtlineare Regression.
Das Ziel der Regressionsanalyse ist, die Abhängigkeit einer metrischen Variablen y von mehreren anderen (metrischen) Variablen zu unterslichen. Es wird also getestet, ob die verschiedenen unabhängigen Variablen einen Einfluß auf die abhängige Variable y haben und wie stark dieser Einfluß ist. Ein einfaches Beispiel soll die Funktionsweise verdeutlichen. Ein Produktmanager möchte wissen, inwieweit das Einkommen und das Alter den Absatz seines Produktes beeinflussen. Die Regressionsanalyse berechnet die sog. Regressionsgerade, mit deren Hilfe folgende Fragestellungen beantwortet werden können:
1. Untersuchung des Zusammenhanges.
Mit Hilfe des sog. Bestimmtheitsmaßes (R2) kann die Stärke des Zusammenhanges von Alter und Einkommen auf den Absatz des Produktes angegeben werden. Durch einen Vergleich der standardisierten Regressionskoeffizienten (sog. Beta-Gewichte) kann man auf die relative Bedeutung der unabhängigen Variablen schließen. Es läßt sich somit feststellen, daß beispielsweise das Einkommen einen doppelt so starken Einfluß wie das Alter besitzt.
2. Prognose der abhängigen Variablen.
Man kann einerseits berechnen, um wieviel Stück der Absatz des Produktes höchstwahrscheinlich steigen wird, wenn sich das Einkommen um 100 Einheiten erhöht. Andererseits läßt sich für jede Person, von der das Alter und das Einkommen bekannt ist, der Konsum des Produktes schätzen. In der Literatur findet man die Regressionsanalyse daher häufig auf Absatzprognosen im weitesten Sinne angewandt. Leider kann im Marketing nicht immer von einer linearen Funktionalbeziehung ausgegangen werden. Man behilft sich dann damit, daß durch geeignete Transformationen (zum Beispiel logarithmieren) eine linearisierte Beziehung erzielt und auf diese die Regressionsanalyse angewandt wird.
Die gebräuchlichste Form der Regressionsanalyse ist die multiple lineare Regressionsanalyse. Weitere Sonderformen sind:
Die schrittweise multiple Regressionsanalyse.
Bei dieser wird von einer linearen Einfachregression ausgegangen. Schrittweise wird eine Variable nach der anderen in den multiplen Ansatz hinzugefügt, bis schließlich die maximale Bestimmtheit (R2) erreicht ist. Die Dummy Regression.
Diese Sonderform gestattet es auch nicht, metrische Variable, wie zum Beispiel den Beruf, in die Regression miteinzubeziehen. Der Artige Variable werden in sog. Dummy-Variable zerlegt und darauf die Regressionsanalyse angewandt.
[s.a. Datenanalyse; Kanonische Analyse; Pfadanalyse] Während die Korrelationsanalyse die Strenge des Zusammenhangs zwischen Variablen untersucht, misst die Regressionsanalyse die Art des Zusammenhangs zwischen einer abhängigen Variablen und einer oder mehreren unabhängigen Variablen. Im letzteren Fall spricht man von multipler Regression; bei nur einer unabhängigen Variablen dagegen von einfacher Regression.
Die Regressionsanalyse setzt metrisch skalierte Variablen (Skalenniveau) voraus, deren Einteilung in abhängige und unabhängige vor der Analyse nach sachlogischen Gesichtspunkten zu erfolgen hat. Dies bedeutet, dass die Richtung des Zusammenhangs bekannt sein muss (vgl. Hammann/Erichson, 2000, S. 297ff.). Nach der Art des Zusammenhangs wird zwischen linearer und nicht-linearer Regression unterschieden. Im linearen Fall kennzeichnet eine Gerade die funktionale Beziehung zwischen den Variablen. Mit Hilfe der Methode der kleinsten Quadrate werden die Parameter der Regressionsfunktion so bestimmt, dass die Summe der (quadrierten) Abweichungen der Beobachtungswerte von den korrespondierenden Schätzwerten minimiert wird. Typische Fragestellungen der Regressionsanalyse (vgl. Backhaus u.a., 2000, S. 4) sind bspw.:
- Wie wirkt eine Preiserhöhung um x Prozent auf die Absatzmenge, wenn gleichzeitig die Werbeausgaben um y Prozent erhöht werden?
- Hängt die Höhe des Verkäuferumsatzes von der Anzahl der Kundenbesuche pro Verkäufer ab?
wichtiges Verfahren der —multivariaten Analyse, das die Untersuchung einer Abhängigkeit zwischen einer metrisch skalierten Variablen Y (abhängige Variable, Regressand) und einer (einfache Regressionsanalyse) oder mehreren (multiple Regressionsanalyse) metrisch skalierten Variablen Xj (unabhängige Variablen, Regressoren) zum Ziel hat. Einfachstes Modell ist die lineare Einfachregression, bei der die lineare Abhängigkeit der abhängigen Variablen Y von einer einzigen unabhängigen Variablen X untersucht wird: Aus n Beobachtungspaaren (xi, yi) (i = 1, 2, ..., n) sind die Regressionskoeffizienten b1 und b2 der gesuchten linearen Regressionsfunktion zu bestimmen. Bei Anwendung der Methode der kleinsten Quadrate wird die Regressions-gerade so durch die Punktewolke der Beobachtungspaare gelegt, dass die Summe der Abweichungsquadrate ein Minimum annimmt. Man erhält als Bestimmungsgleichungen für die Regressionskoeffizienten Lassen sich die n Beobachtungspaare als Stichprobe aus einer übergeordneten Grundgesamtheit auffassen, in der zwischen der abhängigen Variablen Y und der unabhängigen Variablen X ein linearer Zusammenhang vermutet wird, dann kann man aus den Ergebnissen der Stichprobenregressionsfunktion - unter gewissen zusätzlichen Modellannahmen und unter Verwendung geeigneter statistischer Testverfahren - auch Aussagen über die Signifikanz des Zusammenhangs in der Grundgesamtheit machen. Weiterhin lassen sich auch Konfidenzintervalle Schätzverfahren) für die Regressionskoeffizienten angeben. Das Modell der linearen Einfachregression lässt sich durch Hinzufügung weiterer unabhängiger Variablen Xi zur linearen Mehrfachregression (multiple Regressionsanalyse) erweitern. Betrachtet man allgemein (k 1) erklärende Variablen X2, X3, . Xk, dann gilt es, aus n Beobachtungstupeln (x2i, x3i, xki, yi) (i = 1, n) die Regressionskoeffizienten der Regressionsfunktion zu schätzen. Die Methode der kleinsten Quadrate liefert hierfür folgendes lineares Gleichungssystem (vgl. Formel im Kasten). Auch im Modell der linearen Mehrfachregression lassen sich unter gewissen zusätzlichen Modellannahmen Konfidenzintervalle für die Regressionskoeffizienten der Grundgesamtheit ermitteln oder Signifikanztests (statistische Testverfahren) für die gefundenen Stichprobenregressionskoeffizienten b; (j =1, k) durchführen. Zur praktischen Durchführung von Regressionsanalysen empfiehlt sich wegen des hohen Rechenaufwandes der Einsatz von EDV-Anlagen. Von grossem Nutzen ist dabei, dass viele statistische Programmpakete (z. B. SAS, SPS und STATGRAPHICS) umfangreiche Prozeduren zur Lösung regressionsanalytischer Probleme anbieten. Literatur: Bleymüller, J.IGehlert, G./Gülicher, H., Statistik für Wirtschaftswissenschaftler, 8. Aufl., München 1992. Draper, N. R./Smith, H., Applied Regression Analysis, 2. Aufl., New York 1981. Neter, J./Wasserman, W.IKutner, M. H., Applied Linear Regressions Models, 2. Aufl., Homewood, III. 1988.
Vorhergehender Fachbegriff: Regression, logistische | Nächster Fachbegriff: Regressionsanalyse, multiple
Diesen Artikel der Redaktion als fehlerhaft melden & zur Bearbeitung vormerken
|
|