Dimensionens forbandelse

Den aktuelle version af siden er endnu ikke blevet gennemgået af erfarne bidragydere og kan afvige væsentligt fra den version , der blev gennemgået den 28. april 2021; checks kræver 4 redigeringer .

Dimensionalitetens forbandelse (CU) er et udtryk, der bruges i relation til en række egenskaber ved højdimensionelle rum og kombinatoriske problemer . Først og fremmest vedrører dette den eksponentielle vækst af de nødvendige eksperimentelle data afhængigt af rummets dimension ved løsning af problemer med probabilistisk-statistisk mønstergenkendelse , maskinlæring , klassificering og diskriminantanalyse . Dette gælder også for den eksponentielle vækst i antallet af muligheder i kombinatoriske problemer afhængigt af størrelsen af ​​de indledende data, hvilket fører til en tilsvarende stigning i kompleksiteten af ​​opregningsalgoritmer. "Forbandelsen" påvirker også kontinuerlige optimeringsmetoder på grund af kompleksiteten af ​​den multidimensionelle objektivfunktion. I en bredere forstand anvendes udtrykket på alle de "ubehagelige" eller usædvanlige egenskaber ved højdimensionelle rum og på vanskelighederne ved deres undersøgelse. I kombinatorik betyder de ofte ikke rummets dimension, men størrelsen af ​​de oprindelige data. Især i problemer med Ramsey-teori ville det være mere præcist at tale om '''størrelsesforbandelsen''' af de indledende data, selv i tilfælde af problemer med minimal dimension - antallet af parametre, der definerer problemet. Udtrykket blev først introduceret af Richard Bellman i relation til det generelle problem med dynamisk programmering [1] [2] . Dette udtryk bliver fortsat brugt i værker om teknisk kybernetik, maskinlæring og analyse af komplekse systemer, herunder i titlerne på videnskabelige artikler [3] .

Typiske eksempler

Problemer med genkendelse

I probabilistiske genkendelsesproblemer er der to situationer, hvor dimensionalitetens forbandelse kan overvindes ved hjælp af generelle tilgange.

  1. En situation er mulig, når fordelingen af ​​en vektor af indbyrdes afhængige stokastiske variable er koncentreret i et underrum med lavere dimension, det vil sige, at vektoren godt kan tilnærmes ved en lineær funktion af et mindre antal variable. I dette tilfælde tillader hovedkomponentmetoden at reducere dimensionen. Yderligere kan de opstillede opgaver med anerkendelse (diskrimination) løses allerede i et rum af lav dimension.
  2. En situation er mulig, når de tilfældige variable for de undersøgte vektorer er uafhængige eller mere realistisk svagt indbyrdes afhængige. I dette tilfælde kan man genoprette endimensionelle fordelinger af stokastiske variable og konstruere multivariate fordelinger som deres produkter. Yderligere kan man ved at bruge den samme træningsprøve i glidende eksamenstilstand genoprette den endimensionelle fordeling af forholdet mellem sandsynlighedsfunktionerne i differentiable klasser, hvilket eliminerer skævheden forbundet med indbyrdes afhængighed i beslutningsreglen.

Normalt, til analyse af multidimensionelle data, foreslås det at bruge den metriske nærmeste nabo-metode [4] [5] . Fordelen ved metoden er, at den formelt kan anvendes på prøver af enhver størrelse, uanset dimensionen af ​​vektorerne. Men det grundlæggende anvendte problem med PR er, at der i et begrænset udsnit af data ikke er nok information om et objekt beskrevet af et stort antal væsentlige parametre. Og hvis denne beskrivelse er virkelig kompleks og multidimensionel, og løsningen af ​​problemet kræver en analyse af hele komplekset af parametre, så viser problemet sig at være vanskeligt og kan ikke løses med generelle metoder.

Optimeringsproblemer

I optimeringsproblemer findes der også metoder, der letter løsningen af ​​store problemer.

Alle disse kampmetoder løser ikke problemet med PR radikalt og er kun effektive i særlige tilfælde.

I Ramseys teori

Selvom Ramsey-teoriproblemer normalt tillader multidimensionelle generaliseringer, er de vanskelige selv med minimale dimensioner og små inputdatastørrelser.

I kombinatorisk geometri

I kombinatorisk geometri er der flere vanskelige strengt matematiske problemer direkte relateret til rummets dimension.

Nogle "usædvanlige" egenskaber ved multidimensionelle rum

Noter

  1. Richard Ernest Bellman; rand selskab. Dynamisk programmering  (ubestemt) . - Princeton University Press , 1957. - ISBN 978-0-691-07951-6 . ,
    Genudgivet: Richard Ernest Bellman. Dynamisk programmering  (ubestemt) . — Courier Dover Publications , 2003. — ISBN 978-0-486-42809-3 .
  2. Richard Ernest Bellman. Adaptive kontrolprocesser : en guidet tur  . — Princeton University Press , 1961.
  3. Powell, Warren B. 2007. Approximate Dynamic Programming: Solving the Curses of Dimensionality. Wiley, ISBN 0-470-17155-3 .
  4. Marimont, R. B.; Shapiro, MB Nearest Neighbor Searches and the Curse of Dimensionality  // IMA J Appl  Math : journal. - 1979. - Bd. 24 , nr. 1 . - S. 59-70 . - doi : 10.1093/imamat/24.1.59 .
  5. Radovanovic, Miloš; Nanopoulos, Alexandros; Ivanovic, Mirjana. Hubs i rummet: Populære nærmeste naboer i højdimensionelle data  //  Journal of Machine Learning Research  : tidsskrift. - 2010. - Bd. 11 . - P. 2487-2531 .
  6. KEND INTUIT | Foredrag | Den stejleste nedstigningsmetode. Davidon-Fletcher-Powell metode. Kløften problem. Problemet med multi-ekstremalitet . Hentet 26. april 2022. Arkiveret fra originalen 27. december 2016.
  7. Joel H. Spencer (1994), Ten Lectures on the Probabilistic Method , SIAM , s. 4, ISBN 978-0-89871-325-1 
  8. Aubrey D.N.J. D.E. Grey. Flyets kromatiske tal er mindst 5  // math.CO. — 2018. Arkiveret den 12. juli 2018.