Regularisering (matematik)

Regularisering i statistik , maskinlæring , omvendt problemteori  er en metode til at tilføje nogle yderligere begrænsninger til en tilstand for at løse et dårligt stillet problem eller forhindre overfitting . Disse oplysninger kommer ofte i form af en straf for kompleksiteten af ​​modellen. For eksempel kan disse være begrænsninger på glatheden af ​​den resulterende funktion eller begrænsninger på vektorrumsnormen .

Fra et Bayesiansk synspunkt svarer mange regulariseringsmetoder til at tilføje nogle tidligere distributioner til modelparametrene.

Nogle former for regularisering:

Overtilpasning viser sig i de fleste tilfælde ved, at de resulterende polynomier har for store koefficienter. Derfor er det nødvendigt at tilføje en straf for for store koefficienter til den objektive funktion .

Der er ingen løsning til multi-kriterie optimering eller optimering, hvor domænet af den objektive funktion er et rum, hvor der ikke er nogen lineær rækkefølge , eller det er svært at introducere det. Næsten altid er der punkter i domænet af den funktion, der optimeres, og som opfylder begrænsningerne, men værdierne ved punkterne er uforlignelige. For at finde alle punkter på Pareto-kurven skal du bruge skalarisering [1] . I optimering er regularisering en generel skalariseringsteknik for et to-kriterie optimeringsproblem [2] . Ved at variere lambda-parameteren - elementet, der skal være større end nul i den dobbelte kegle, som rækkefølgen er defineret for - kan du få forskellige punkter på Pareto-kurven .

Noter

  1. Boyd og Vandenberghe 2004 , s. 178.
  2. Boyd og Vandenberghe 2004 , s. 306.

Litteratur