AdaBoost (forkortelse for Adaptive Boosting ) er en maskinlæringsalgoritme foreslået af Yoav Freund og Robert Shapire [ . Denne algoritme kan bruges sammen med flere klassifikationsalgoritmer for at forbedre deres ydeevne. Algoritmen styrker klassifikatorerne ved at kombinere dem til en "komité" ( ensemble ). AdaBoost er adaptiv i den forstand, at hver næste klassificeringskomité er bygget på objekter, der var forkert klassificeret af tidligere udvalg. AdaBoost er følsom over for datastøj og afvigelser . Den er dog mindre tilbøjelig til overfittingsammenlignet med andre maskinlæringsalgoritmer.
AdaBoost kalder svage klassifikatorer i en løkke . Efter hvert opkald opdateres fordelingen af vægte , som svarer til vigtigheden af hvert af objekterne i træningssættet for klassificering. Ved hver iteration øges vægten af hvert forkert klassificeret objekt, så den nye klassificeringskomité "fokuserer sin opmærksomhed" på disse objekter.
Givet: hvor
Initialiser
For hver :
Vi bygger den resulterende klassifikator:
Distributionsopdateringsudtrykket skal være konstrueret på en sådan måde, at følgende betingelse er sand:
Efter at have valgt den optimale klassifikator til fordelingen har objekter , som klassificereren korrekt identificerer, vægte mindre end dem, der er identificeret forkert. Derfor, når algoritmen tester klassifikatorer på distributionen , vil den vælge den klassifikator, der er bedre til at identificere objekter, der er forkert genkendt af den forrige klassifikator.
Machine learning og data mining | |
---|---|
Opgaver | |
At lære med en lærer | |
klyngeanalyse | |
Dimensionalitetsreduktion | |
Strukturel prognose | |
Anomali detektion | |
Grafer sandsynlighedsmodeller | |
Neurale netværk | |
Forstærkende læring |
|
Teori | |
Tidsskrifter og konferencer |
|