Regularisering i statistik , maskinlæring , omvendt problemteori er en metode til at tilføje nogle yderligere begrænsninger til en tilstand for at løse et dårligt stillet problem eller forhindre overfitting . Disse oplysninger kommer ofte i form af en straf for kompleksiteten af modellen. For eksempel kan disse være begrænsninger på glatheden af den resulterende funktion eller begrænsninger på vektorrumsnormen .
Fra et Bayesiansk synspunkt svarer mange regulariseringsmetoder til at tilføje nogle tidligere distributioner til modelparametrene.
Nogle former for regularisering:
Overtilpasning viser sig i de fleste tilfælde ved, at de resulterende polynomier har for store koefficienter. Derfor er det nødvendigt at tilføje en straf for for store koefficienter til den objektive funktion .
Der er ingen løsning til multi-kriterie optimering eller optimering, hvor domænet af den objektive funktion er et rum, hvor der ikke er nogen lineær rækkefølge , eller det er svært at introducere det. Næsten altid er der punkter i domænet af den funktion, der optimeres, og som opfylder begrænsningerne, men værdierne ved punkterne er uforlignelige. For at finde alle punkter på Pareto-kurven skal du bruge skalarisering [1] . I optimering er regularisering en generel skalariseringsteknik for et to-kriterie optimeringsproblem [2] . Ved at variere lambda-parameteren - elementet, der skal være større end nul i den dobbelte kegle, som rækkefølgen er defineret for - kan du få forskellige punkter på Pareto-kurven .
Machine learning og data mining | |
---|---|
Opgaver | |
At lære med en lærer | |
klyngeanalyse | |
Dimensionalitetsreduktion | |
Strukturel prognose | |
Anomali detektion | |
Grafer sandsynlighedsmodeller | |
Neurale netværk | |
Forstærkende læring |
|
Teori | |
Tidsskrifter og konferencer |
|