Autoencoder

Den aktuelle version af siden er endnu ikke blevet gennemgået af erfarne bidragydere og kan afvige væsentligt fra den version , der blev gennemgået den 25. maj 2022; verifikation kræver 1 redigering .

Autoencoder ( engelsk  autoencoder , også - autoassociator ) [1]  - en speciel arkitektur af kunstige neurale netværk , der giver dig mulighed for at anvende uovervåget læring [2] , når du bruger tilbagepropageringsmetoden . Den enkleste autoencoder-arkitektur er et feed-forward-netværk uden feedback, mest ligner en perceptron og indeholder et inputlag, et mellemlag og et outputlag. I modsætning til en perceptron skal outputlaget af en autoencoder indeholde lige så mange neuroner som inputlaget.

Hovedprincippet for drift og træning af autoencoder-netværket er at få en respons på det outputlag, der er tættest på inputlaget. For at forhindre løsningen i at være triviel, pålægges der restriktioner på det mellemliggende lag af autoencoderen: Mellemlaget skal enten være af en mindre dimension end input- og outputlagene, eller antallet af samtidigt aktive mellemlagsneuroner er kunstigt begrænset - sparsomt aktivering . Disse begrænsninger tvinger det neurale netværk til at lede efter generaliseringer og korrelationer i inputdataene og udføre deres komprimering. Således trænes det neurale netværk automatisk til at udtrække fællestræk fra inputdataene, som er indkodet i vægtværdierne af det kunstige neurale netværk. Så når du træner et netværk på et sæt af forskellige inputbilleder, kan det neurale netværk uafhængigt lære at genkende linjer og striber i forskellige vinkler.

Oftest bruges autoencodere i kaskade til at træne dybe (flerlags) netværk . Autoencodere bruges til uovervåget fortræning af det dybe netværk . For at gøre dette trænes lagene efter hinanden, startende fra den første. Et ekstra outputlag er forbundet til hvert nyt utrænet lag for træningsperioden, hvilket supplerer netværket til autoencoder-arkitekturen, hvorefter et datasæt til træning føres til netværksinputtet. Vægten af ​​det utrænede lag og det ekstra lag af autoencoderen trænes ved hjælp af tilbagepropageringsmetoden. Derefter deaktiveres autoencoder-laget, og der oprettes et nyt svarende til det næste utrænede netværkslag. Det samme datasæt føres igen til netværksinputtet, de trænede første lag af netværket forbliver uændrede og fungerer som input til den næste trænede lag auto-encoder. Så træningen fortsætter for alle lag af netværket undtagen de sidste. De sidste lag af netværket trænes normalt uden brug af en autoencoder ved hjælp af den samme backpropagation-metode og mærkede data (supervised learning).

Applikationer af autoencoder

For nylig er autoencodere blevet brugt lidt til den beskrevne "grådige" lagdelte fortræning af dybe neurale netværk. Efter at denne metode blev foreslået i 2006 af Jeffrey Hinton og Ruslan Salakhutdinov [3] [4] , viste det sig hurtigt, at nye metoder til initialisering med tilfældige vægte er tilstrækkelige til videre træning af dybe netværk [5] . Batchnormaliseringen foreslået i 2014 [6] gjorde det muligt at træne endnu dybere netværk, mens den resterende læringsmetode foreslået i slutningen af ​​2015 [7] gjorde det muligt at træne netværk af vilkårlig dybde [5] .

De vigtigste praktiske anvendelser af autoencodere forbliver reduktionen af ​​støj i data, såvel som reduktionen af ​​dimensionaliteten af ​​højdimensionelle data til visualisering. Med visse forbehold vedrørende datadimensionalitet og sparsomhed kan autoenkodere gøre det muligt at opnå projektioner af multidimensionelle data, der viser sig at være bedre end dem, der er givet af principal komponent metoden eller en anden klassisk metode [5] .

Udvalget af mulige anvendelser af autoencodere er dog på ingen måde begrænset til dette. Så de kan bruges til at detektere anomalier [8] [9] [10] [11] [12] , da modellen lærer at gendanne inputdata i overensstemmelse med de mest karakteristiske træk, og i nærvær af afvigelser, gendannelsen nøjagtigheden falder. I 2019 blev den vellykkede anvendelse af autoencoderen i lægemiddeldesign også demonstreret [13] [14] .

Noter

  1. Autoencoder for Words, Liou, C.-Y., Cheng, C.-W., Liou, J.-W. og Liou, D.-R., Neurocomputing, bind 139, 84-96 (2014), doi : 10.1016/j.neucom.2013.09.055
  2. Træning af en sparsom auto-encoder med flere lag på billeder i stor skala, Khurshudov A. A., Bulletin of Computer and Information Technologies 02.2014 doi : 10.14489/vkit.2014.02.pp.027-030
  3. G. E. Hinton, R. R. Salakhutdinov. Reduktion af datas dimensionalitet med neurale netværk   // Videnskab . — 2006-07-28. — Bd. 313 , udg. 5786 . — S. 504–507 . — ISSN 1095-9203 0036-8075, 1095-9203 . - doi : 10.1126/science.1127647 . Arkiveret fra originalen den 23. december 2015.
  4. Hvorfor hjælper uovervåget fortræning dyb læring? . Arkiveret fra originalen den 13. december 2016.
  5. ↑ 1 2 3 Bygning af autoencodere i Keras . blog.keras.io. Hentet 25. juni 2016. Arkiveret fra originalen 23. juni 2016.
  6. Sergey Ioffe, Christian Szegedy. Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift  // arXiv:1502.03167 [cs]. — 2015-02-10. Arkiveret fra originalen den 3. juli 2016.
  7. Kaiming He, Xiangyu Zhang, Shaoqing Ren, Jian Sun. Deep Residual Learning til  billedgenkendelse // arXiv:1512.03385 [cs]. — 2015-12-10. Arkiveret fra originalen den 3. september 2016.
  8. Morales-Forero A., Bassetto S. Case Study: A Semi-Supervised Methodology for Anomaly Detection and Diagnosis  // 2019 IEEE International Conference on Industrial Engineering and Engineering Management (IEEM). — Macao, Macao: IEEE, 2019-12. — S. 1031–1037 . - ISBN 978-1-7281-3804-6 . - doi : 10.1109/IEEM44572.2019.8978509 .
  9. Sakurada Mayu, Yairi Takehisa. Anomalidetektion ved hjælp af autoindkodere med ikke-lineær dimensionsreduktion  //  Proceedings of the MLSDA 2014 2nd Workshop on Machine Learning for Sensory Data Analysis - MLSDA'14. — Gold Coast, Australien QLD, Australien: ACM Press, 2014. — S. 4–11 . — ISBN 978-1-4503-3159-3 . doi : 10.1145 / 2689746.2689747 .
  10. Jinwon An, Sungzoon Cho. [ http://dm.snu.ac.kr/static/docs/TR/SNUDM-TR-2015-03.pdf Variational Autoencoder-baseret anomalidetektion ved hjælp af rekonstruktionssandsynlighed] // Speciel forelæsning om IE. - 2015. - Nr. 2 . - S. 1-18 .
  11. Chong Zhou, Randy C. Paffenroth. Anomalidetektion med robuste dybe autoenkodere  //  Proceedings of the 23rd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. — Halifax NS Canada: ACM, 2017-08-04. — S. 665–674 . — ISBN 978-1-4503-4887-4 . - doi : 10.1145/3097983.3098052 .
  12. Manassés Ribeiro, André Eugênio Lazzaretti, Heitor Silvério Lopes. En undersøgelse af dybe foldede auto-indkodere til registrering af anomalier i videoer  //  Mønstergenkendelsesbreve. – 2018-04. — Bd. 105 . — S. 13–22 . - doi : 10.1016/j.patrec.2017.07.016 .
  13. Alex Zhavoronkov, Yan A. Ivanenkov, Alex Aliper, Mark S. Veselov, Vladimir A. Aladinskiy. Dyb læring muliggør hurtig identifikation af potente DDR1-kinasehæmmere  //  Nature Biotechnology. – 2019-09. — Bd. 37 , udg. 9 . — S. 1038–1040 . - ISSN 1546-1696 1087-0156, 1546-1696 . - doi : 10.1038/s41587-019-0224-x .
  14. Gregory Barber. Et molekyle designet af AI udviser 'Druglike' egenskaber   // Wired . — ISSN 1059-1028 .

Links