Sandsynligvis Approximately Correct Learning ( PAC - læring ) er et maskinlæringsskema , der bruger begreberne asymptotisk pålidelighed og beregningsmæssig kompleksitet . Foreslået i 1984 af Leslie Valiant [1] .
I dette skema modtager læreren prøver og skal vælge en generaliserende funktion (kaldet en hypotese ) fra en bestemt klasse af mulige funktioner. Målet er en funktion, der med stor sandsynlighed (derfor "sandsynligvis" i navnet) har en lav generaliseringsfejl (derfor "omtrent korrekt" i navnet). Læreren bør være i stand til at undervise i et koncept [2] der giver en vilkårlig tilnærmelsesfaktor, sandsynlighed for succes eller stikprøvefordeling .
Modellen blev senere udvidet til at håndtere støj (forkert klassificerede prøver).
En vigtig nyskabelse af MIC-ordningen er brugen af konceptet om den beregningsmæssige kompleksitet af maskinlæring. Især forventes læreren at finde effektive funktioner (som er begrænset i køretid og plads, der kræves af et polynomium af stikprøvestørrelsen), og læreren skal implementere en effektiv procedure (ved at bede om en eksempelstørrelse begrænset af et polynomium af konceptstørrelse, modificeret ved tilnærmelse og sandsynlighedsgrænser ).
Til en formel definition bruges et givet sæt , kaldet feature space eller kodningen af alle samples. For eksempel, i problemet med optisk tegngenkendelse er trækrummet , og i problemet med at finde et interval (korrekt klassificering af punkter inde i intervallet som positive og uden for intervallet som negative), er trækrummet mængden af alle afgrænsede intervaller i .
Et andet begreb, der bruges i ordningen, er begrebet - en delmængde . For eksempel er sættet af alle bitsekvenser, der koder for mønsteret af bogstavet "P" et af begreberne i OCR-problemet. Et eksempel på et koncept for problemet med at finde et interval er sættet af åbne intervaller , som hver kun indeholder positive punkter. Klassen af begreber er et sæt af begreber over . Dette kan være sættet af alle undersæt af frameworket 4-forbundne array af bits (skrifttypebredden er 1).
Lad være en procedure, der genererer et eksempel ved hjælp af en sandsynlighedsfordeling og giver den korrekte etiket , som er 1 hvis og 0 ellers. Nu, givet , antag, at der er en algoritme og et polynomium fra (og andre relevante klasseparametre ) sådan, at givet en stikprøve af størrelse , tegnet i henhold til , så med sandsynlighed er mindst outputtet af algoritmen hypotesen , som har middelværdi fejl, mindre end eller lig med for samme fordeling . Ydermere, hvis sætningen ovenfor for algoritmen er sand for ethvert koncept og for enhver distribution over og for alle , så er den (effektivt) VPK-lærbar (eller distributionsfri VPK-lærbar ). I dette tilfælde anses det for at være VPK-indlæringsalgoritmen for .
Under visse regelmæssighedsbetingelser er disse tre betingelser ækvivalente:
Machine learning og data mining | |
---|---|
Opgaver | |
At lære med en lærer | |
klyngeanalyse | |
Dimensionalitetsreduktion | |
Strukturel prognose | |
Anomali detektion | |
Grafer sandsynlighedsmodeller | |
Neurale netværk | |
Forstærkende læring |
|
Teori | |
Tidsskrifter og konferencer |
|