AdaBoost

AdaBoost – podstawowy algorytm do boostingu

AdaBoost to kluczowy algorytm wykorzystywany w metodzie boostingu, który pozwala na połączenie wielu słabych klasyfikatorów w jeden silniejszy. Jego twórcami są Yoav Freund oraz Robert Schapire.

Zasada działania

Algorytm AdaBoost funkcjonuje poprzez iteracyjne trenowanie i ocenianie błędów wszystkich dostępnych słabych klasyfikatorów. W każdej kolejnej iteracji zwiększa się „ważność” błędnie sklasyfikowanych obserwacji, co sprawia, że klasyfikatory zwracają na nie większą uwagę. Nad rozwojem AdaBoost pracowali dwaj profesorowie z Uniwersytetu Princeton, Robert Schapire i Yoav Freund, którzy za swoje osiągnięcia zostali uhonorowani nagrodą Gödla w 2003 roku oraz Nagrodą Parisa Kanellakisa w 2004 roku. Po raz pierwszy technika ta została zaprezentowana w 1997 roku.

Przypisy