Maskinelæring
Machine learning ( eng. machine learning , ML) er en klasse af kunstig intelligens -metoder , hvor et karakteristisk træk ikke er en direkte løsning på et problem, men læring ved at anvende løsninger på mange lignende problemer. Til konstruktionen af sådanne metoder anvendes matematisk statistik , numeriske metoder , matematisk analyse , optimeringsmetoder , sandsynlighedsteori , grafteori , forskellige teknikker til at arbejde med data i digital form .
Der er to typer træning:
- Case learning , eller induktiv læring , er baseret på at opdage empiriske mønstre i data .
- Deduktiv læring involverer formalisering af eksperters viden og deres overførsel til en computer i form af en videnbase .
Deduktiv læring omtales normalt til feltet ekspertsystemer , så begreberne maskinlæring og caselæring kan betragtes som synonyme.
Mange induktive læringsmetoder er blevet udviklet som et alternativ til klassiske statistiske tilgange. Mange metoder er tæt forbundet med informationsudvinding ( engelsk information extraction , information retrieval ), data mining ( data mining ).
Generel redegørelse for problemet med læring efter præcedenser
Der er mange objekter (situationer) og mange mulige svar (svar, reaktioner). Der er en vis afhængighed mellem svar og objekter, men det er ukendt. Kun et begrænset sæt præcedenser er kendt - par "objekt, respons", kaldet træningsprøven . Baseret på disse data er det nødvendigt at genoprette den implicitte afhængighed, det vil sige at bygge en algoritme, der er i stand til at producere et tilstrækkeligt præcist klassificeringssvar for ethvert muligt inputobjekt. Denne afhængighed udtrykkes ikke nødvendigvis analytisk, og her implementerer neurale netværk princippet om en empirisk dannet løsning. Et vigtigt træk i dette tilfælde er læringssystemets evne til at generalisere, det vil sige at reagere tilstrækkeligt på data, der går ud over grænserne for den eksisterende træningsprøve. For at måle nøjagtigheden af svarene introduceres en estimeret kvalitetsfunktion .
Denne formulering er en generalisering af de klassiske problemer med funktionstilnærmelse . I klassiske tilnærmelsesproblemer er objekterne reelle tal eller vektorer. I reelle anvendte problemer kan inputdata om objekter være ufuldstændige, unøjagtige, ikke-numeriske, heterogene. Disse funktioner fører til en bred vifte af maskinlæringsmetoder.
Maskinlæringsmetoder
Sektionen for maskinlæring blev på den ene side dannet som et resultat af opdelingen af videnskaben om neurale netværk i metoder til træning af netværk og typer af topologier i deres arkitektur, på den anden side absorberede den metoderne til matematisk statistik [a] . De maskinlæringsmetoder, der er anført nedenfor, er baseret på brugen af neurale netværk, selvom der er andre metoder baseret på træningsprøven, for eksempel diskriminantanalyse, som opererer på den generaliserede varians og kovarians af de observerede statistikker, eller Bayesianske klassifikatorer. Grundlæggende typer af neurale netværk, såsom perceptron og flerlagsperceptron (såvel som deres modifikationer), kan trænes både med en lærer og uden en lærer, med forstærkning og selvorganisering. Men nogle neurale netværk og de fleste statistiske metoder kan kun tilskrives én af indlæringsmetoderne. Derfor, hvis du har brug for at klassificere maskinlæringsmetoder afhængigt af indlæringsmetoden, så ville det være forkert at tilskrive neurale netværk til en bestemt type, det ville være mere korrekt at skrive neurale netværksindlæringsalgoritmer.
- Overvåget læring - for hver use case er et par "situation, nødvendig løsning" indstillet:
- Kunstigt neuralt netværk
- Dyb læring
- Fejlretningsmetode
- Rygformeringsmetode
- Support vektor maskine
- Uovervåget læring - for hver use case er kun en "situation" specificeret, det er påkrævet at gruppere objekter i klynger ved hjælp af data om parvise ligheder mellem objekter og/eller reducere datadimensionen:
- Alpha forstærkningssystem
- Gamma forstærkningssystem
- Nærmeste nabo metode
- Genetisk algoritme .
- Aktiv læring er anderledes ved, at læringsalgoritmen har evnen til selvstændigt at tildele følgende situation under undersøgelse, hvor det korrekte svar bliver kendt:
- Semi-superviseret læring - i nogle tilfælde indstilles et par "situation, påkrævet løsning", og for nogle - kun " situation "
- Transduktiv læring - læring med delvis inddragelse af læreren, når prognosen kun skal laves for præcedenser fra prøveeksemplet
- Multi-task learning ( eng. multi-task learning ) - samtidig indlæring af en gruppe af indbyrdes forbundne opgaver, for hver af dem er deres egne par af "situation, påkrævet løsning" indstillet
- Multiple-instance learning er læring , når præcedenser kan kombineres i grupper, i hver af hvilke der er en "situation" for alle præcedenser, men kun for en af dem (det vides desuden ikke hvilken) der er et par " situation ,
- Boosting er en procedure til sekventielt at konstruere en sammensætning af maskinlæringsalgoritmer, når hver næste algoritme søger at kompensere for manglerne ved sammensætningen af alle tidligere algoritmer.
- Bayesiansk netværk
Klassiske problemer løst med maskinlæring
Typer af træningsinput
- En attributbeskrivelse af objekter eller en matrix af objektattributter er det mest almindelige tilfælde. Hvert objekt er beskrevet af et sæt funktioner.
- Afstandsmatrix mellem objekter. Hvert objekt er beskrevet ved afstande til alle andre objekter i træningsprøven, oftest ved parvise lighedsrelationer.
- Tidsserie eller signal . Sekvensen af målinger i tid, som kan repræsenteres af et tal, en vektor, og i det generelle tilfælde - en vejledende beskrivelse på et givet tidspunkt.
- Billed- eller videosekvens .
- almindelig tekst ved hjælp af Natural Language Processing .
Typer af kvalitetsfunktioner
- Når man lærer med en lærer , kan kvalitetsfunktionen defineres som den gennemsnitlige fejl i svarene. Det antages, at den ønskede algoritme skal minimere den. For at forhindre overfitting tilføjes en regularizer ofte eksplicit eller implicit til kvalitetsfunktionen, der skal minimeres.
- I uovervåget læring kan kvalitetsfunktioner defineres på forskellige måder, for eksempel som forholdet mellem gennemsnitlige inter-klynge- og intra-cluster-afstande.
- I forstærkende læring er kvalitetsfunktionerne bestemt af de fysiske omgivelser, som viser kvaliteten af agentens tilpasning.
Praktiske applikationer
Formålet med maskinlæring er den delvise eller fuldstændige automatisering af løsning af komplekse professionelle problemer inden for forskellige områder af menneskelig aktivitet.
Machine learning har en bred vifte af applikationer :
Omfanget af maskinlæring udvides konstant. Den udbredte informatisering fører til akkumulering af enorme mængder data inden for videnskab, produktion, forretning, transport og sundhedsvæsen. Problemerne med prognoser, kontrol og beslutningstagning, der opstår i dette tilfælde, er ofte reduceret til læring af præcedenser. Tidligere, hvor sådanne data ikke var tilgængelige, var disse opgaver enten slet ikke sat, eller blev løst med helt andre metoder.
Se også
Noter
Kommentarer
- ↑ Ifølge den kendte maskinlæringsspecialist Jan LeCun er maskinlæring reproduktion af tænkning baseret på kunstige neurale netværk [1]
Fodnoter
- ↑ LeCun, 2021 , s. 78.
Litteratur
- Ayvazyan S. A. , Enyukov I. S., Meshalkin L. D. Anvendt statistik: grundlæggende modellering og primær databehandling. - M .: Finans og statistik, 1983.
- Ayvazyan S. A., Enyukov I. S., Meshalkin L. D. Anvendt statistik: studiet af afhængigheder. - M .: Finans og statistik, 1985.
- Ayvazyan S. A., Buchstaber V. M. , Enyukov I. S., Meshalkin L. D. Anvendt statistik: klassificering og dimensionalitetsreduktion. - M .: Finans og statistik, 1989.
- Vapnik VN Rekonstruktion af afhængigheder baseret på empiriske data. — M.: Nauka , 1979.
- Zhuravlev Yu. I ., Ryazanov V. V., Senko O. V. "Anerkendelse". Matematiske metoder. Software system. Praktiske anvendelser. — M.: Fazis, 2006. ISBN 5-7036-0108-8 .
- Zagoruiko NG Anvendte metoder til data- og videnanalyse. - Novosibirsk: IM SO RAN, 1999. ISBN 5-86134-060-9 .
- Flach P. Machine learning. - M. : DMK Press, 2015. - 400 s. — ISBN 978-5-97060-273-7 .
- Shlesinger M., Glavach V. Ti forelæsninger om statistisk og strukturel genkendelse. - Kiev: Naukova Dumka , 2004. ISBN 966-00-0341-2 .
- Hastie, T., Tibshirani R., Friedman J. Elementerne i statistisk læring: Data Mining, Inferens og Forudsigelse . — 2. udg. - Springer-Verlag, 2009. - 746 s. - ISBN 978-0-387-84857-0 . .
- Mitchell T. Machine Learning. — McGraw-Hill Science/Engineering/Math, 1997. ISBN 0-07-042807-7 .
- Ryszard S. Michalski, Jaime G. Carbonell, Tom M. Mitchell (1983), Machine Learning: An Artificial Intelligence Approach , Tioga Publishing Company, ISBN 0-935382-05-4 ( Machine Learning: An Artificial Intelligence Approach in Google Books " ).
- Vapnik V. N. Statistisk læringsteori. — NY: John Wiley & Sons, Inc., 1998. [1]
- Bernhard Schölkopf , Alexander J. Smola Læring med kerner. Support Vector Machines, Regularization, Optimization, and Beyond. - MIT Press , Cambridge, MA, 2002 ISBN 978-0-262-19475-4 [2]
- I. H. Witten , E. Frank Data Mining: Praktiske maskinlæringsværktøjer og -teknikker (anden udgave). — Morgan Kaufmann, 2005 ISBN 0-12-088407-0 [3]
- Liang Wang, Li Cheng, Guoying Zhao. Machine Learning til menneskelig bevægelsesanalyse. - IGI Global, 2009. - 318 s. - ISBN 978-1-60566-900-7 .
- Jan LeCun . Hvordan en maskine lærer. En revolution inden for neurale netværk og dyb læring. (Sber Bibliotek: Kunstig Intelligens). - M . : Alpina faglitteratur, 2021. - ISBN 978-5-907394-29-2 .
Links
Ordbøger og encyklopædier |
|
---|
I bibliografiske kataloger |
|
---|