Das GARCH-Modell (Generalized Autoregressive Conditional Heteroskedasticity) ist ein statistisches Modell, das häufig zur Analyse und Vorhersage von Zeitreihen mit variabler Volatilität verwendet wird, insbesondere in der Finanzwirtschaft. Es wurde entwickelt, um die Heteroskedastizität zu berücksichtigen, d.h. die Tatsache, dass die Varianz der Fehlerterme in einem Zeitreihenmodell nicht konstant ist, sondern sich über die Zeit ändert.
Das GARCH-Modell beschreibt die bedingte Varianz einer Zeitreihe als Funktion ihrer vorherigen Werte. Die allgemeine Form des GARCH(1,1)-Modells wird durch die Gleichung
definiert, wobei die bedingte Varianz zum Zeitpunkt , den vorherigen Fehlerterm und die vorherige bedingte Varianz darstellt. Die Parameter , und müssen positiv sein und erfüllen die Bedingung $ \alpha_1
Starte dein personalisiertes Lernelebnis mit acemate. Melde dich kostenlos an und finde Zusammenfassungen und Altklausuren für deine Universität.