K-betyder metode

k - means - metoden er den mest populære klyngemetode .  Det blev opfundet i 1950'erne af matematikeren Hugo Steinhaus [1] og næsten samtidigt af Stuart Lloyd [2] . Han opnåede særlig popularitet efter McQueens arbejde [3] .

Algoritmens handling er sådan, at den søger at minimere den totale kvadratiske afvigelse af klyngepunkter fra centrene af disse klynger:

hvor  er antallet af klynger,  er de resulterende klynger, og  er massecentrene for alle vektorer fra klyngen .

I analogi med principalkomponenternes metode kaldes klyngernes centre også principalpunkter , og selve metoden kaldes princippernes metode [4] og er inkluderet i den generelle teori om principielle objekter , der giver den bedste tilnærmelse af data [5] .

Algoritme

Algoritmen er en version af EM - algoritmen , der også bruges til at adskille en blanding af gaussere . Den opdeler sættet af elementer i vektorrummet i et forudkendt antal klynger k .

Hovedideen er, at ved hver iteration genberegnes massecentret for hver klynge opnået i det foregående trin, derefter opdeles vektorerne i klynger igen i overensstemmelse med hvilket af de nye centre, der viste sig at være tættere på i henhold til den valgte metrik.

Algoritmen afsluttes, når der ikke er nogen ændring i intracluster-afstanden ved en eller anden iteration. Dette sker i et endeligt antal iterationer, da antallet af mulige partitioner i en endelig mængde er endeligt, og for hvert trin falder den totale kvadratiske afvigelse V , så looping er umulig.

Som vist af David Arthur og Sergey Vasilvitsky, på nogle klasser af sæt , er kompleksiteten af ​​algoritmen med hensyn til den tid, der kræves til konvergens, [6] .

Demonstration af algoritmen

Algoritmens handling i det todimensionelle tilfælde. Udgangspunkter vælges tilfældigt.

Problemer med k-means

Udvidelser og variationer

Den neurale netværksimplementering af K-means er almindeligt kendt og brugt - et netværk af vektorkvantisering af signaler (en af ​​versionerne af Kohonens neurale netværk ).

Der er en udvidelse k-means++ , som er rettet mod det optimale valg af startværdier for klyngecentre.


Ansøgninger til deep learning og machine vision

I deep learning - algoritmer bruges k-means-metoden nogle gange ikke til dets tilsigtede formål (klassificering ved clustering), men til at skabe såkaldte filtre (convolution kerner, ordbøger). For eksempel, til billedgenkendelse, bliver k-middel-algoritmen fodret med små tilfældige stykker af træningsprøvebilleder, f.eks. 16x16 i størrelse, som en lineær vektor, hvor hvert element koder lysstyrken af ​​dets punkt. Antallet af klynger k er sat stort, for eksempel 256. Den trænede k-betyder metode, under visse betingelser, producerer klyngecentre (centroider), som er praktiske baser, hvori ethvert inputbillede kan dekomponeres. Sådanne "trænede" centroider bruges yderligere som filtre, for eksempel for et foldningsneuralt netværk som foldningskerner eller andre lignende maskinsynssystemer [8] . Således udføres uovervåget læring ved hjælp af k-middel metoden.

Links

  1. Steinhaus H. (1956). Sur la division des corps materiels en parties. Tyr. Acad. Polon. Sc., Cl. III bind IV: 801-804.
  2. Lloyd S. (1957). Mindste kvadratisk kvantisering i PCM'er. Bell Telephone Laboratories papir.
  3. MacQueen J. (1967). Nogle metoder til klassificering og analyse af multivariate observationer. I Proc. 5. Berkeley Symp. på matematik. Statistik og sandsynlighed, side 281-297.
  4. Flury B. (1990). hovedpunkter. Biometrika, 77, 33-41.
  5. Gorban AN, Zinovyev AY (2009). Principal Graphs and Manifolds , Ch. 2 i: Handbook of Research on Machine Learning Applications and Trends: Algoritms, Methods and Techniques, Emilio Soria Olivas et al. (red), IGI Global, Hershey, PA, USA, pp. 28-59.
  6. David Arthur & Sergei Vassilvitskii (2006). "Hvor langsom er k-betydningsmetoden?" (PDF) . Proceedings of the 2006 Symposium on Computational Geometry (SoCG) . Arkiveret (PDF) fra originalen 2009-01-24 . Hentet 2008-04-20 . Forældet parameter brugt |deadlink=( hjælp )
  7. EM Mirkes, K-means og K-medoids applet Arkiveret 29. maj 2013 på Wayback Machine . University of Leicester, 2011.
  8. Adam Coates og Andrew Y. Ng. Læringsfunktionsrepræsentationer med K-means Arkiveret 21. juni 2015 på Wayback Machine , Stanford University, 2012

Demonstration og visualisering