Undtagelse (neurale netværk)

Den aktuelle version af siden er endnu ikke blevet gennemgået af erfarne bidragydere og kan afvige væsentligt fra den version , der blev gennemgået den 31. januar 2020; checks kræver 5 redigeringer .

Undtagelse eller dropout (fra engelsk  dropout ) - en metode til regularisering af kunstige neurale netværk , designet til at reducere netværksomdannelse ved at forhindre kompleks samtilpasning af individuelle neuroner på træningsdata under træning. [en]

Udtrykket "dropout" (knock-out, ejektion) karakteriserer udelukkelsen af ​​en vis procentdel (for eksempel 30%) af tilfældige neuroner (placeret i både skjulte og synlige lag) ved forskellige iterationer (epoker) under træning af neurale netværk. Dette er en meget effektiv måde at beregne et gennemsnit af modeller inden for et neuralt netværk. Som et resultat får flere trænede neuroner mere vægt i netværket. [2] [3] Denne teknik øger indlæringshastigheden, kvaliteten af ​​træning på træningsdata markant og forbedrer også kvaliteten af ​​modelforudsigelser på nye testdata. [en]

Se også

Link

Noter

  1. 1 2 Hinton, Geoffrey E.; Srivastava, Nitish; Krizhevsky, Alex; Sutskever, Ilya & Salakhutdinov, Ruslan R. (2012), Forbedring af neurale netværk ved at forhindre co-adaptation af funktionsdetektorer, arΧiv : 1207.0580 [cs.NE]. 
  2. Frafald: En enkel måde at forhindre neurale netværk i at overtilpasse . Hentet 26. juli 2015. Arkiveret fra originalen 5. december 2019.
  3. Warde-Farley, David; Goodfellow, Ian J.; Courville, Aaron & Bengio, Yoshua (2013-12-20), En empirisk analyse af frafald i stykkevis lineære netværk, arΧiv : 1312.6197 [stat.ML].