Netflix-prisen er en åben konkurrence om den bedste algoritme til at forudsige den vurdering, som en seer vil give en film, baseret på tidligere vurderinger fra den seer og andre seere. Konkurrencen var afholdt af Netflix , et stort dvd- udlejningsfirma . Med få undtagelser [1] kunne alle deltage. Hovedpræmien var $1.000.000. For at få det var det nødvendigt at forbedre Netflix-algoritmen med 10%. [2]
Prisen blev givet til BellKors Pragmatic Chaos-hold den 21. september 2009.
Netflix er et DVD-udlejningsfirma til $996 millioner (2006) grundlagt i 1997. Kunder bestiller DVD'er online og modtager (og sender tilbage) med posten. Kunder kan bedømme film på en skala fra 1 til 5. Gennem årene har Netflix opbygget en massiv database med over en milliard kundevurderinger [3] af film. Baseret på denne database anbefaler Netflix film, som kunderne sandsynligvis vil nyde. Algoritmen, der forudsiger, hvor meget en klient vil kunne lide en bestemt film, er baseret på lineær regression [3] og kaldes Cinematch.
En triviel algoritme, der tildeler hver film dens gennemsnitlige score, giver en standardafvigelse (RMS) på 1,0540. Cinematch-algoritmen, ved hjælp af de data, der er tilgængelige for deltagerne, giver en RMS på 0,9525 på testsættet, det vil sige, at den er omkring 10 % bedre end den trivielle algoritme. Firmaet vil betale toppræmien til det hold, der kan forbedre resultatet med yderligere 10 %.
Alle deltagere (og generelt alle) kunne downloade følgende 4 filer:
Der er ingen kundeoplysninger i databasen.
For at beskytte kundernes privatliv er "nogle af uddannelses- og kvalifikationsdataene bevidst forkert repræsenteret på en eller flere af følgende måder: sletning af karakterer; indsættelse af alternative skøn og datoer; dato ændring. [2]
Hver deltager skal indsende en fil med scoreforudsigelser fra det kvalificerende datasæt. Forudsigelser kan også være reelle. Som svar rapporteres standardafvigelsen (RMS) af forudsigelserne, afrundet til 4. decimal. Listen over CKO over de bedste deltagere er også lagt på hjemmesiden. Selve forudsigelserne holdes hemmelige.
En deltager kan ikke sende forudsigelser mere end én gang om dagen. Det bedste sæt forudsigelser fra hver deltager tages i betragtning.
For at forhindre deltageren i at bruge RMSD til at gætte karaktererne, er det kvalificerende datasæt opdelt i to. Deltagerne får udleveret resultaterne af en af halvdelene, kaldet quizsættet, men for at modtage en præmie (enhver), tages der hensyn til resultaterne fra den anden halvdel, testsættet. Deltagerne ved ikke, hvilken af posterne, der hører til hvilken halvdel.
Der har været uenighed om valget af metrik. Hjælper det virkelig brugerne at reducere fejl med 10 %? Ifølge en af deltagerne i konkurrencen vil en forbedring af fejlen selv med 0,01 ændre listen over 10 anbefalede film markant. [7] .
Cinematch, der kun bruger de data, der er tilgængelige for deltagerne, opnår et SD på 0,9514 på quizsættet og 0,9525 på testsættet. Dette er omkring 10 % bedre end den trivielle algoritme, der giver hver film sin gennemsnitlige vurdering. For at få hovedpræmien på $1 million skal du forbedre RMS'en med yderligere 10% og få 0,8572 på testsættet. (Denne forbedring svarer til en SD på 0,8563 på quizsættet.)
Indtil toppræmien er vundet, vil topholdet blive tildelt en fremskridtspræmie på $50.000 hvert år. Men for at modtage denne præmie skal holdet forbedre RMS med mindst 1 % i forhold til den tidligere præmievinder (i det første år - sammenlignet med Cinematch).
For at modtage en præmie skal holdet levere kildekoden til algoritmen, dens beskrivelse og en ikke-eksklusiv licens til at bruge dens algoritme til Netflix inden for en uge. Kildekode og beskrivelse kontrolleres. Netflix udgiver beskrivelsen, men ikke kildekoden. Selve forudsigelserne forbliver også hemmelige. Holdet kan afvise præmien for at holde deres algoritme hemmelig. Så går præmien til det næste hold, hvis deres RMS er god nok.
Efter at et af holdene formår at forbedre RMS med 10 % eller mere, giver juryen alle deltagere yderligere 30 dage til at sende deres resultater. Det hold, der indsendte det bedste sæt forudsigelser, bliver derefter bedt om en beskrivelse af algoritmen, kildekoden og en ikke-eksklusiv licens, og hvis det lykkes, erklæres holdet som vinder og modtager hovedpræmien. Hermed afsluttes konkurrencen.
Konkurrencen startede den 2. oktober 2006 . Allerede den 8. oktober overgik WXYZConsulting-holdet resultaterne fra Cinematch. [8] Den 15. oktober var der allerede 3 virksomheder med bedre resultater end Cinematch. En af dem overgik Cinematch med 1,06 %, nok til at vinde fremskridtsprisen. [9] I juni 2007 havde over 20.000 hold fra over 150 lande tilmeldt sig til at konkurrere. 2000 hold sendte 13 tusind sæt forudsigelser.
I det første år af konkurrencen var lederne af løbet følgende hold:
Den 12. august 2007 var mange deltagere samlet til konferencen "KDD Cup og Workshop 2007". [10] i San Jose , Californien . På konferencen præsenterede alle fire ledende grupper deres teknikker.
Den 2. september 2007 var deltagerne 30 dage fra at blive tildelt 2007 Fremskridtsprisen. I begyndelsen af denne periode havde BellKor det bedste resultat med sin RMSD på 0,8728 (en forbedring på 8,26%), efterfulgt af Dinosaur Planet (RMS=0,8769; en forbedring på 7,83%) og Gravity (RMS=0,8785; en forbedring på 8,26% 7,66%. I den sidste time før prisen blev uddelt tog KorBell førstepladsen. Som det viste sig, er dette et andet navn for BellKor-teamet.
Den 13. november 2007 blev KorBell annonceret som vinderen af $50.000 Progress Award. [11] med SD 0,8712 (forbedring med 8,43%). Holdet bestod af tre AT&T -forskere : Yehuda Koren, Robert Bell og Chris Volinsky. [12] Som krævet af reglerne offentliggjorde de en beskrivelse af deres algoritme. [13]
BellCor er gået sammen med BigChaos. Det kombinerede BellKor i BigChaos-team opnåede en forbedring på 9,44% (RMS=0,8616) og modtog en fremskridtspris. [14] Teammedlemmer offentliggjorde en beskrivelse af den anvendte algoritme. [15] [16]
Den 26. juni opnåede BellKors Pragmatic Chaos, dannet ved sammenlægningen af BellKor i BigChaos og Pragmatic Theory, en forbedring på 10,05% (RMS=0,8558) i forhold til Cinematch [17] , og dermed rykkede konkurrencen ind i slutfasen. Fra det tidspunkt havde alle deltagere 30 dage til at indsende deres endelige beslutninger.
Den 25. juli, dagen før afslutningen af konkurrencen, udkonkurrerede The Ensemble, dannet ved sammenlægningen af Grand Prize Team og Opera Solutions og Vandelay United, BellKors Pragmatic Chaos og opnåede en forbedring på 10,09 % (RMS=0,8554). [atten]
Den 26. juli 2009 kl. 18:42:37 UTC blev beslutninger lukket. På dette tidspunkt så toppen af resultattavlen således ud: [19]
Ingen. | Hold | SKO | % forbedring | Afsendelsestid |
---|---|---|---|---|
en | Ensemblet | 0,8553 | 10.10 | 26-07-2009 18:38:22 |
2 | BellKors pragmatiske kaos | 0,8554 | 10.09 | 26-07-2009 18:18:28 |
Ifølge oplysninger fra holdmedlemmer på konkurrenceforummet [20] og den østrigske avis "Kurier" [21] , på den hemmelige halvdel af dataene, var BellKor-holdets algoritme overlegen i forhold til The Ensembles algoritme, så det var forventede, at vinderen ville blive officielt anerkendt som BellKors pragmatiske team.
Ifølge reglerne skulle vinderholdets deltagere give Netflix beskrivelser af de anvendte algoritmer og kildekoden, og først derefter annoncerede Netflix officielt vinderen af konkurrencen. Det viste sig virkelig at være BellKors Pragmatic Chaos-hold. Den officielle offentliggørelse af resultaterne og prisuddelingen fandt sted den 21. september 2009. Samme dag blev hemmelige partiturer frigivet. [22]
Som det viste sig, forbedrede begge hold deres resultater med 10,06 % i den hemmelige halvdel af dataene, men BellKors Pragmatic Chaos-hold sendte deres resultater 20 minutter tidligere (se tabel).
![]() | |
---|---|
Filmografi |
|
Tilknyttede virksomheder |
|
Andet |
Anbefalingssystemer | |
---|---|
Begreber |
|
Metoder og spørgsmål |
|
Implementeringer |
|
Forskning |
|