Adaboost, kurz für "Adaptive Boosting", ist ein populärer Ensemble-Lernalgorithmus, der darauf abzielt, die Genauigkeit von Klassifikatoren zu verbessern. Der Ansatz basiert auf der Idee, mehrere schwache Klassifikatoren, die nur geringfügig besser als Zufall sind, zu einem starken Klassifikator zu kombinieren. Dies geschieht durch die iterative Schulung von Klassifikatoren, wobei jeder nachfolgende Klassifikator sich auf die Fehler der vorhergehenden konzentriert.
Die Gewichtung der Trainingsbeispiele wird dabei angepasst: Beispiele, die falsch klassifiziert wurden, erhalten höhere Gewichte, sodass der nächste Klassifikator diese Beispiele besser erkennen kann. Mathematisch kann die Gewichtung durch die Formel
ausgedrückt werden, wobei das Gewicht des -ten Beispiels nach der -ten Iteration, die Gewichtung des -ten Klassifikators, das wahre Label und die Vorhersage des Klassifikators ist. Am Ende werden die Vorhersagen der einzelnen Klassifikatoren gewichtet und aggregiert, um die finale Entscheidung zu
Starte dein personalisiertes Lernelebnis mit acemate. Melde dich kostenlos an und finde Zusammenfassungen und Altklausuren für deine Universität.