Adaboost

Den aktuelle version af siden er endnu ikke blevet gennemgået af erfarne bidragydere og kan afvige væsentligt fra den version , der blev gennemgået den 2. august 2019; checks kræver 3 redigeringer .

AdaBoost (forkortelse for Adaptive Boosting ) er en maskinlæringsalgoritme foreslået af Yoav Freund og Robert Shapire [ . Denne algoritme kan bruges sammen med flere klassifikationsalgoritmer for at forbedre deres ydeevne. Algoritmen styrker klassifikatorerne ved at kombinere dem til en "komité" ( ensemble ). AdaBoost er adaptiv i den forstand, at hver næste klassificeringskomité er bygget på objekter, der var forkert klassificeret af tidligere udvalg. AdaBoost er følsom over for datastøj og afvigelser . Den er dog mindre tilbøjelig til overfittingsammenlignet med andre maskinlæringsalgoritmer.

AdaBoost kalder svage klassifikatorer i en løkke . Efter hvert opkald opdateres fordelingen af ​​vægte , som svarer til vigtigheden af ​​hvert af objekterne i træningssættet for klassificering. Ved hver iteration øges vægten af ​​hvert forkert klassificeret objekt, så den nye klassificeringskomité "fokuserer sin opmærksomhed" på disse objekter.

Algoritme til problemet med at konstruere en binær klassifikator

Givet: hvor

Initialiser

For hver :


hvor er en normaliserende parameter (valgt til at være en sandsynlighedsfordeling , dvs. ).

Vi bygger den resulterende klassifikator:

Distributionsopdateringsudtrykket skal være konstrueret på en sådan måde, at følgende betingelse er sand:

Efter at have valgt den optimale klassifikator til fordelingen har objekter , som klassificereren korrekt identificerer, vægte mindre end dem, der er identificeret forkert. Derfor, når algoritmen tester klassifikatorer på distributionen , vil den vælge den klassifikator, der er bedre til at identificere objekter, der er forkert genkendt af den forrige klassifikator.

Links