Random Forest ist ein leistungsfähiges und vielseitiges Ensemble-Lernverfahren, das für Klassifikations- und Regressionsaufgaben eingesetzt wird. Es basiert auf der Idee, mehrere Entscheidungsbäume zu kombinieren, um die Vorhersagegenauigkeit zu erhöhen und Überanpassung (Overfitting) zu reduzieren. Der Algorithmus erstellt viele zufällige Teilmengen der Trainingsdaten und trainiert auf jeder dieser Teilmengen einen Entscheidungsbaum. Dabei werden die Bäume durch zwei Hauptprozesse erstellt:
Die endgültige Vorhersage des Random Forest wird durch die Aggregation der Vorhersagen aller Bäume getroffen, wobei im Fall der Klassifikation das Mehrheitsvotum und im Fall der Regression der Durchschnitt der Vorhersagen verwendet wird. Dadurch sind Random Forest-Modelle oft robuster und weniger anfällig für Ausreißer im Vergleich zu einzelnen Entscheidungsbäumen.
Starte dein personalisiertes Lernelebnis mit acemate. Melde dich kostenlos an und finde Zusammenfassungen und Altklausuren für deine Universität.