Perceptron , eller perceptron [nb 1] ( eng. perceptron fra lat. perceptio - perception ; germ . Perzeptron ) - en matematisk eller computermodel for informationsopfattelse af hjernen ( cybernetic model of the brain ), foreslået af Frank Rosenblatt i 1958 og først implementeret i form af elektronisk maskine "Mark-1" [nb 2] i 1960 . Perceptronen blev en af de første modeller af neurale netværk , og Mark-1 blev verdens første neurocomputer .
Perceptronen består af tre typer elementer, nemlig: de signaler, der kommer fra sensorerne , transmitteres til de associative elementer og derefter til de reagerende elementer. Således giver perceptroner dig mulighed for at skabe et sæt "associationer" mellem inputstimuli og det ønskede outputrespons. I biologiske termer svarer dette til transformationen af for eksempel visuel information til en fysiologisk respons fra motoriske neuroner . Ifølge moderne terminologi kan perceptroner klassificeres som kunstige neurale netværk:
På baggrund af neurale netværks voksende popularitet i 1969 blev der udgivet en bog af Marvin Minsky og Seymour Papert , som viste de grundlæggende begrænsninger af perceptroner. Dette har ført til et skift i interessen for kunstig intelligens -forskere inden for symbolsk computing , modsat neurale netværk [nb 4] . På grund af kompleksiteten af den matematiske undersøgelse af perceptroner samt manglen på almindeligt accepteret terminologi er der desuden opstået forskellige unøjagtigheder og misforståelser .
Efterfølgende genoptog interessen for neurale netværk, og især Rosenblatts arbejde. Så for eksempel er biocomputing i hastig udvikling , som i sit teoretiske beregningsgrundlag blandt andet er baseret på neurale netværk, og perceptronen gengives på basis af bakteriohodopsin-holdige film .
I 1943 foreslog Warren McCulloch og Walter Pitts konceptet om et kunstigt neuralt netværk i deres papir "A logical calculus of ideas relating to neural activity" [1] . Især foreslog de en kunstig neuronmodel . Donald Hebb beskrev i sit papir fra 1949 "Organisation of Behavior" [2] de grundlæggende principper for neuronindlæring.
Disse ideer blev udviklet et par år senere af den amerikanske neurofysiolog Frank Rosenblatt . Han foreslog et skema for en enhed, der simulerede processen med menneskelig perception , og kaldte det en "perceptron". Perceptronen transmitterede signaler fra fotoceller , som var et sansefelt, til blokke af elektromekaniske hukommelsesceller. Disse celler var tilfældigt forbundet med hinanden i overensstemmelse med principperne for konnektivisme . I 1957, på Cornell Aeronautics Laboratory, blev en simulering af driften af en perceptron på en IBM 704 -computer gennemført med succes , og to år senere, den 23. juni 1960, på Cornell University , blev den første neurocomputer demonstreret - Mark-1 , som var i stand til at genkende nogle bogstaver i det engelske alfabet [3] [4] .
For at "lære" perceptronen at klassificere billeder blev der udviklet en speciel iterativ trial and error læringsmetode, der minder om processen med menneskelig læring - fejlkorrektionsmetoden [5] . Derudover kunne perceptronen, når den genkendte et bestemt bogstav, fremhæve bogstavets karakteristiske træk, som statistisk set var mere almindelige end ubetydelige forskelle i individuelle tilfælde. Således var perceptronen i stand til at generalisere bogstaver skrevet på forskellige måder (håndskrift) til ét generaliseret billede. Perceptronens muligheder var imidlertid begrænsede: Maskinen kunne ikke pålideligt genkende delvist lukkede bogstaver, såvel som bogstaver af en anden størrelse, placeret med et skift eller rotation, end dem, der blev brugt i træningsstadiet [6] .
Rapporten om de første resultater udkom tilbage i 1958 - derefter publicerede Rosenblatt artiklen "Perceptron: A probabilistic model for storage and organizing information in the brain" [7] . Men han beskriver sine teorier og antagelser vedrørende perceptions- og perceptronprocesser mere detaljeret i 1962 i bogen "Principles of Neurodynamics: Perceptrons and the Theory of Brain Mechanisms". I bogen betragter han ikke kun færdige perceptronmodeller med ét skjult lag, men også flerlagsperceptroner med krydsforbindelser (tredje kapitel) og omvendte (fjerde kapitel). Bogen introducerer også en række vigtige ideer og teoremer, for eksempel er perceptronkonvergenssætningen [8] bevist .
En elementær perceptron består af tre typer elementer: S-elementer, A-elementer og et R-element. S-elementer er et lag af sensorer eller receptorer. I en fysisk udførelsesform svarer de til for eksempel lysfølsomme celler i øjets nethinde eller fotomodstande i et kameraarray. Hver receptor kan være i en af to tilstande - hvile eller excitation , og kun i sidstnævnte tilfælde sender den et enkelt signal til det næste lag, til associative elementer.
A-elementer kaldes associative, fordi hvert sådant element som regel svarer til et helt sæt (association) af S-elementer. A-elementet aktiveres, så snart antallet af signaler fra S-elementerne ved dets indgang overstiger en vis værdi [nb 5] . Således, hvis et sæt af tilsvarende S-elementer er placeret på sansefeltet i form af bogstavet "D", aktiveres A-elementet, hvis et tilstrækkeligt antal receptorer har rapporteret udseendet af en "hvid lysplet" i deres nærhed, dvs. A-elementet vil så at sige være forbundet med tilstedeværelsen/fraværet af bogstavet "D" i et eller andet område.
Signalerne fra de exciterede A-elementer transmitteres til gengæld til adderen R, og signalet fra det i-te associative element transmitteres med en koefficient [9] . Denne koefficient kaldes vægten af A-R-bindingen.
Ligesom A-elementerne beregner R-elementet summen af værdierne af inputsignalerne ganget med vægtene ( lineær form ). R-elementet, og med det den elementære perceptron, udsender "1", hvis den lineære form overskrider tærsklen , ellers vil outputtet være "-1". Matematisk kan funktionen implementeret af R-elementet skrives som følger:
Træningen af en elementær perceptron består i at ændre vægtkoefficienterne for A–R-bindingerne. Vægten af S–A-forbindelserne (som kan tage værdierne {−1; 0; +1}) og tærskelværdierne for A-elementerne er valgt tilfældigt i begyndelsen og ændres derefter ikke. (Se nedenfor for en beskrivelse af algoritmen .)
Efter træning er perceptronen klar til at arbejde i genkendelsestilstand [10] eller generaliseringstilstand [11] . I denne tilstand præsenteres perceptronen for hidtil ukendte objekter, og perceptronen skal bestemme, hvilken klasse de tilhører. Perceptronens arbejde er som følger: når et objekt præsenteres, sender de exciterede A-elementer et signal til R-elementet, lig med summen af de tilsvarende koefficienter . Hvis denne sum er positiv, så besluttes det, at det givne objekt tilhører den første klasse, og hvis det er negativt, så til den anden [12] .
Seriøst kendskab til teorien om perceptroner kræver viden om grundlæggende definitioner og teoremer, hvis helhed er grundlaget for alle efterfølgende typer af kunstige neurale netværk . Men i det mindste er det nødvendigt at forstå i det mindste fra signalteoriens synspunkt , som er original, det vil sige beskrevet af forfatteren af perceptronen F. Rosenblatt.
Lad os først definere de konstituerende elementer i perceptronen, som er specielle tilfælde af en kunstig neuron med en tærskeloverførselsfunktion .
Hvis vi ved udgangen af et element får 1, så siger vi, at elementet er aktivt eller exciteret .
Alle betragtede elementer kaldes simple , da de implementerer springfunktioner . Rosenblatt hævdede også, at andre typer funktioner, såsom lineære [14] , kan være nødvendige for at løse mere komplekse problemer .
Som et resultat introducerede Rosenblatt følgende definitioner:
Derudover kan du pege på følgende begreber foreslået i bogen og senere udviklet inden for rammerne af teorien om neurale netværk:
Marvin Minsky studerede egenskaberne ved parallel computing , hvoraf perceptronen var et særligt tilfælde på det tidspunkt. For at analysere dens egenskaber måtte han genindsætte teorien om perceptroner på prædikatsproget . Essensen af tilgangen var som følger: [nb 6] [19]
Som anvendt på den "visuelle" perceptron symboliserede variablen X billedet af en eller anden geometrisk figur ( stimulus ). Et privat prædikat tillod hver at "genkende" sin egen figur. Prædikatet ψ betød situationen, hvor den lineære kombination ( — transmissionskoefficienter) overskred en vis tærskel θ.
Forskere har identificeret 5 familier af perceptroner, der efter deres mening har interessante egenskaber: [20]
Selvom et sådant matematisk apparat gjorde det muligt kun at anvende analysen på den elementære Rosenblatt-perceptron, afslørede det mange grundlæggende begrænsninger for parallel computing, som ingen type moderne kunstige neurale netværk er fri for.
Begrebet en perceptron har en interessant, men lidet misundelsesværdig historie. Som et resultat af de seneste års uudviklede terminologi for neurale netværk, hård kritik og misforståelse af perceptronforskningens opgaver, og nogle gange falsk pressedækning, er den oprindelige betydning af dette begreb blevet forvrænget. Ved at sammenligne udviklingen af Rosenblatt og moderne anmeldelser og artikler kan vi skelne mellem 4 ret isolerede klasser af perceptroner:
Perceptron med ét skjult lag Dette er den klassiske perceptron, som det meste af Rosenblatts bog er viet til, og som overvejes i denne artikel: den har et lag af S-, A- og R-elementer. Enkeltlags perceptron Dette er en model, hvor input-elementerne er direkte forbundet med output-elementerne ved hjælp af et vægtsystem. Det er det enkleste feed-forward-netværk - en lineær klassifikator og et specialtilfælde af den klassiske perceptron, hvor hvert S-element entydigt svarer til et A-element, S-A-links har en vægt på +1, og alle A-elementer har en tærskelværdi θ = 1. Enkeltlagsperceptroner er faktisk formelle neuroner , dvs. McCulloch-Pitts tærskelelementer. De har mange begrænsninger, især kan de ikke identificere situationen, når forskellige signaler påføres deres input ("XOR-opgave", se nedenfor ). Flerlagsperceptron (ifølge Rosenblatt) Dette er en perceptron med yderligere lag af A-elementer. Rosenblatt analyserede det i tredje del af sin bog. Flerlagsperceptron (ifølge Rumelhart ) Dette er en perceptron, hvori der er yderligere lag af A-elementer, desuden udføres træningen af et sådant netværk i overensstemmelse med metoden til fejltilbagespredning , og alle lag af perceptronen (inklusive S-A) trænes. Det er et særligt tilfælde af Rosenblatts flerlagsperceptron.I øjeblikket er udtrykket "perceptron" i litteraturen oftest forstået som en enkeltlagsperceptron ( engelsk Single-layer perceptron ), desuden er der en almindelig misforståelse, at det var denne simpleste type model foreslået af Rosenblatt. I modsætning til en enkeltlags sætter de en "flerlagsperceptron" ( eng. Multilayer perceptron ), igen, hvilket oftest betyder Rumelharts flerlagsperceptron, ikke Rosenblatts. Den klassiske perceptron i en sådan dikotomi omtales som multilag.
En vigtig egenskab ved ethvert neuralt netværk er evnen til at lære . Læringsprocessen er en procedure til justering af vægte og tærskler for at reducere forskellen mellem den ønskede (mål) og den resulterende outputvektor. I sin bog forsøgte Rosenblatt at klassificere forskellige perceptronlæringsalgoritmer og kaldte dem forstærkningssystemer.
Et belønningssystem er ethvert sæt regler baseret på hvilke interaktionsmatrixen (eller hukommelsestilstanden) for en perceptron kan ændres over tid [21] .Rosenblatt beskrev disse forstærkningssystemer og specificerede deres mulige typer, og baseret på D. Hebbs ideer om læring foreslået af ham i 1949 [2] , som kan omformuleres til følgende todelte regel:
Den klassiske metode til træning af en perceptron er fejlkorrektionsmetoden [8] . Det er en form for overvåget læring , hvor vægten af forbindelsen ikke ændrer sig, så længe perceptronens aktuelle reaktion forbliver korrekt. Når der opstår en forkert reaktion, ændres vægten med én, og tegnet (+/-) bestemmes modsat fortegn for fejlen.
Antag, at vi ønsker at træne perceptronen til at adskille to klasser af objekter, således at når objekter af den første klasse præsenteres, er outputtet af perceptronen positiv (+1), og når objekter af den anden klasse præsenteres, er den negativ ( −1). For at gøre dette vil vi udføre følgende algoritme: [5]
Perceptronkonvergenssætningen [8] , beskrevet og bevist af F. Rosenblatt (med deltagelse af Block, Joseph, Kesten og andre forskere, der arbejdede med ham), viser, at en elementær perceptron trænes i henhold til en sådan algoritme, uanset initialen tilstanden af vægtkoefficienterne og rækkefølgen, vil fremkomsten af incitamenter altid føre til opnåelse af en løsning i en begrænset periode.
Ud over den klassiske perceptronlæringsmetode introducerede Rosenblatt også begrebet uovervåget læring og foreslog følgende læringsmetode:
Alfaforstærkningssystemet er et forstærkningssystem, hvor vægten af alle aktive forbindelser, der fører til elementet, ændres med samme mængde r, og vægten af inaktive forbindelser ikke ændres i løbet af denne tid [23] .Derefter, med udviklingen af konceptet om en flerlagsperceptron , blev alfasystemet modificeret, og det blev kendt som deltareglen . Modifikationen blev udført for at gøre indlæringsfunktionen differentierbar (for eksempel sigmoid ), hvilket igen er nødvendigt for at anvende gradient descent- metoden , på grund af hvilken mere end et lag kan trænes.
For at træne flerlagsnetværk foreslog en række videnskabsmænd, herunder D. Rumelhart , en overvåget gradientindlæringsalgoritme , der udfører et fejlsignal beregnet af perceptronens output til dens input , lag for lag. Dette er nu den mest populære metode til træning af flerlagsperceptroner. Dens fordel er, at den kan træne alle lag af det neurale netværk, og det er nemt at beregne det lokalt. Denne metode er imidlertid meget tidskrævende, og for dens anvendelse er det desuden nødvendigt, at neuronernes overførselsfunktion er differentierbar. Samtidig var det i perceptroner nødvendigt at opgive det binære signal og bruge kontinuerlige værdier ved indgangen [24] .
Som et resultat af populariseringen af kunstige neurale netværk af journalister og marketingfolk blev der lavet en række unøjagtigheder, som med utilstrækkelig undersøgelse af originale værker om dette emne blev fejlfortolket af unge (på det tidspunkt) videnskabsmænd. Som følge heraf kan man den dag i dag møde en utilstrækkelig dyb fortolkning af perceptronens funktionalitet sammenlignet med andre neurale netværk udviklet i de efterfølgende år.[ hvornår? ]
Den mest almindelige terminologifejl er at definere en perceptron som et neuralt netværk uden skjulte lag (enkeltlagsperceptron, se ovenfor ). Denne fejl skyldes utilstrækkeligt udviklet terminologi inden for neurale netværk på et tidligt stadium af deres udvikling. F. Wasserman gjorde et forsøg på at klassificere forskellige typer af neurale netværk på en bestemt måde:
Som det fremgår af publikationerne, er der ingen almindeligt accepteret måde at tælle antallet af lag i netværket på. Et flerlagsnetværk består af skiftende sæt neuroner og vægte. Inputlaget udfører ikke summering. Disse neuroner tjener kun som grene til det første sæt vægte og påvirker ikke netværkets beregningsevne. Af denne grund tages det første lag ikke i betragtning ved optælling af lag, og netværket betragtes som to-lag, da kun to lag udfører beregninger. Endvidere anses lagets vægte for at være forbundet med neuronerne, der følger dem. Derfor består laget af et sæt vægte efterfulgt af neuroner, der summerer de vægtede signaler [25] .
Som et resultat af denne repræsentation faldt perceptronen under definitionen af et "enkeltlags neuralt netværk". Dette er til dels rigtigt, fordi det ikke har skjulte lag af lærende neuroner (hvis vægte tilpasser sig opgaven). Og derfor kan hele sættet af faste forbindelser i systemet fra S-til A-elementer logisk erstattes af et sæt (modificeret i henhold til en streng regel) af nye inputsignaler, der kommer umiddelbart til A-elementer (og dermed eliminerer det første lag af forbindelser i det hele taget). Men her tager de bare ikke højde for, at en sådan modifikation gør den ikke-lineære repræsentation af problemet til en lineær.
Derfor kan du blot ignorere ikke-trænbare lag med faste forbindelser (i en elementær perceptron er disse S-A-forbindelser) dig til at drage forkerte konklusioner om det neurale netværks muligheder. Så Minsky handlede meget korrekt og omformulerede A-elementet som et prædikat (det vil sige en funktion); tværtimod har Wasserman allerede mistet denne idé og har et A-element - blot et input (nærmest svarende til et S-element). Med en sådan terminologisk forvirring overses det faktum, at perceptronen kortlægger det receptive felt af S-elementer til det associative felt af A-elementer, som et resultat af hvilket ethvert lineært uadskilleligt problem transformeres til et lineært adskilleligt.
De fleste funktionelle misforståelser bunder i den formodede umulighed at løse et lineært uadskilleligt problem med en perceptron. Men der er mange variationer af dette tema, lad os overveje de vigtigste.
XOR problemMisforståelse: Perceptronen er ikke i stand til at løse " XOR-problemet ".
En meget almindelig misforståelse. Billedet til højre viser en perceptron-løsning på dette problem. Denne misforståelse opstår for det første på grund af det faktum, at Minskys definition af en perceptron er forkert fortolket (se ovenfor ), nemlig prædikater, der umiddelbart sidestiller input, selvom Minskys prædikat er en funktion, der identificerer et helt sæt af inputværdier [nb 7 ] . For det andet på grund af det faktum, at den klassiske Rosenblatt-perceptron forveksles med en enkeltlagsperceptron (på grund af den ovenfor beskrevne terminologiske unøjagtighed).Der bør lægges særlig vægt på, at "enkeltlagsperceptron" i moderne terminologi og "enkeltlagsperceptron" i Wassermans terminologi er forskellige objekter. Og objektet afbildet i illustrationen, i Wassermans terminologi, er en to-lags perceptron.
Lærbarhed for lineært uadskillelige problemerMisforståelse: ved at vælge tilfældige vægte kan læring opnås for lineært uadskillelige (generelt set alle) opgaver, men kun hvis du er heldig , og i nye variabler (output af A-neuroner) viser opgaven sig at være lineært adskillelig. Men du er måske ikke heldig.
Perceptronkonvergenssætningen [8] beviser, at der ikke er og ikke kan være nogen "måske ikke være heldig"; når A-elementerne er lig med antallet af stimuli og den ikke-specielle G-matrix , er sandsynligheden for løsningen 100%. Det vil sige, at når receptorfeltet afbildes på et associativt felt, der er større med én dimension, af en tilfældig (ikke-lineær) operator, bliver det ikke-lineære problem til et lineært adskilleligt. Og det næste lag, der kan trænes, finder allerede en lineær løsning i et andet inputrum. For eksempel udføres træning af en perceptron til at løse "XOR-problemet" (se illustrationen) i følgende trin:Vægte | Gentagelser | ||||||||
---|---|---|---|---|---|---|---|---|---|
en | 2 | 3 | fire | 5 | |||||
w1 | 0 | en | en | en | en | 2 | 2 | 2 | 2 |
w2 | 0 | 0 | en | en | en | en | en | 2 | 2 |
w3 | −1 | 0 | en | 0 | −1 | 0 | −1 | 0 | −1 |
Indgangssignaler (x, y) | elleve | 0, 1 | ti | elleve | elleve | 0, 1 | elleve | ti | elleve |
Misforståelse: hvis dimensionen af input i et problem er ret høj, og der er få træningseksempler, så i et sådant "svagt fyldt" rum, viser antallet af succeser sig måske ikke at være lille. Dette indikerer kun et bestemt tilfælde af perceptronets egnethed og ikke dets universalitet.
Dette argument kan let testes på et testproblem kaldet "skakbræt" eller "svamp med vand" [26] [nb 8] :Givet en kæde på 2· N enere eller nuller, der fødes parallelt med perceptronens input. Hvis denne kæde er spejlsymmetrisk omkring midten, er outputtet +1, ellers 0. Træningseksempler er alle (dette er vigtigt) kæder. |
Lad os tage et sort-hvidt billede med en størrelse på 256×256 elementer ( pixels ). Indgangsdata for perceptronen vil være punktets koordinater (8 bits + 8 bits, i alt 16 S-elementer er nødvendige), ved udgangen vil vi kræve punktets farve. Vi træner perceptronen for alle punkter (hele billedet). Som et resultat har vi 65.536 forskellige stimulus-respons-par. Lær uden fejl. |
Misforståelse: Rosenblatts perceptron har lige så mange A-elementer, som der er input. Og konvergensen ifølge Rosenblatt er stabiliseringen af vægtene.
I Rosenblatt læser vi:
Hvis antallet af stimuli i rummet W er lig med n > N (det vil sige mere end antallet af A-elementer i den elementære perceptron), så er der en eller anden klassifikation C(W) , som der ikke er nogen løsning på [28 ] .
Heraf følger, at:Misforståelse: hvis vægtkoefficienterne for elementerne i det skjulte lag (A-elementer) er faste, er det nødvendigt, at antallet af elementer i det skjulte lag (eller deres kompleksitet) øges eksponentielt med en stigning i problemets dimension (antallet af receptorer). Således går deres største fordel tabt - evnen til at løse problemer med vilkårlig kompleksitet ved hjælp af enkle elementer.
Rosenblatt viste, at antallet af A-elementer kun afhænger af antallet af stimuli, der skal genkendes (se det foregående afsnit eller perceptronkonvergenssætningen ). Således, med en stigning i antallet af receptorer, hvis antallet af A-elementer er fast, afhænger perceptronens evne til at løse problemer med vilkårlig kompleksitet ikke direkte. Denne misforståelse kommer fra følgende sætning af Minsky:
Når vi undersøgte paritetsprædikatet, så vi, at koefficienterne kan vokse med |R| (antal punkter i billedet) eksponentielt [29] .
Derudover udforskede Minsky andre prædikater, såsom "ligestilling". Men alle disse prædikater repræsenterer en ret specifik opgave til generalisering og ikke til anerkendelse eller forudsigelse. Så for at perceptronen for eksempel kan opfylde "paritets"-prædikatet, skal den sige, om antallet af sorte prikker i et sort-hvidt billede er lige eller ej; og for at opfylde prædikatet "lighed" skal du sige, om højre side af billedet er lig med venstre side. Det er klart, at sådanne opgaver går ud over rækkevidden af genkendelses- og forudsigelsesopgaver og er opgaver til generalisering eller blot til at beregne bestemte karakteristika. Dette blev overbevisende vist af Minsky og er en begrænsning ikke kun for perceptroner, men også for alle parallelle algoritmer , som ikke er i stand til at beregne sådanne prædikater hurtigere end sekventielle algoritmer. Derfor begrænser sådanne opgaver mulighederne for alle neurale netværk og perceptroner i særdeleshed, men dette har intet at gøre med de faste forbindelser i det første lag; da det for det første handlede om værdien af forbindelseskoefficienterne for det andet lag, og for det andet er spørgsmålet kun i effektivitet og ikke i princippet. Det vil sige, at perceptronen også kan trænes til denne opgave, men hukommelseskapaciteten og indlæringshastigheden, der kræves hertil, vil være større end ved brug af en simpel sekventiel algoritme. Indførelsen af træningsbare vægte i det første lag vil kun forværre situationen, fordi det vil kræve mere træningstid, fordi forholdsvariablerne mellem S og A hindrer snarere end bidrager til indlæringsprocessen [30] . Når man forbereder en perceptron til opgaven med at genkende stimuli af en speciel type, for at opretholde effektiviteten, vil der desuden kræves særlige betingelser for stokastisk læring [31] , hvilket blev vist af Rosenblatt i forsøg med en perceptron med variable S-A-bindinger .Rosenblatt selv betragtede perceptronen primært som det næste vigtige skridt mod undersøgelse og brug af neurale netværk, og ikke som en færdig version af en " maskine, der er i stand til at tænke " [nb 9] . Selv i forordet til sin bog bemærkede han som svar på kritik, at "perceptronforskningsprogrammet hovedsageligt ikke er forbundet med opfindelsen af enheder med "kunstig intelligens", men med studiet af fysiske strukturer og neurodynamiske principper" [32] .
Rosenblatt foreslog en række psykologiske tests for at bestemme neurale netværks muligheder: eksperimenter med diskrimination , generalisering , sekvensgenkendelse , dannelsen af abstrakte begreber , dannelsen og egenskaberne ved " selvbevidsthed ", kreativ fantasi og andre [33] . Nogle af disse eksperimenter er langt fra perceptronernes nuværende muligheder, så deres udvikling er mere filosofisk i retning af konnektivisme . Ikke desto mindre er der for perceptroner blevet etableret to vigtige fakta, der finder anvendelse i praktiske problemer: muligheden for at klassificere (objekter) og muligheden for tilnærmelse (grænser for klasser og funktioner) [34] .
En vigtig egenskab ved perceptroner er deres evne til at lære, desuden ifølge en ret simpel og effektiv algoritme (se ovenfor ).
Rosenblatt identificerede selv to grundlæggende begrænsninger for trelagsperceptroner (bestående af et S-lag, et A-lag og R-lag): deres manglende evne til at generalisere deres karakteristika til nye stimuli eller nye situationer og deres manglende evne til at analysere komplekse situationer i det ydre miljø ved at opdele dem i simplere [17] .
I 1969 udgav Marvin Minsky og Seymour Papert bogen Perceptrons, hvor de matematisk viste, at perceptroner som Rosenblatts grundlæggende ikke var i stand til at udføre mange af de funktioner, de ønskede fra perceptroner. Derudover var teorien om parallel computing på det tidspunkt dårligt udviklet, og perceptronen var fuldt ud i overensstemmelse med principperne for sådanne beregninger. I det store og hele viste Minsky fordelen ved sekventiel beregning frem for parallel i visse klasser af problemer forbundet med en invariant repræsentation. Hans kritik kan opdeles i tre temaer:
Bogen af Minsky og Papert påvirkede markant udviklingen af videnskaben om kunstig intelligens, da den flyttede videnskabelig interesse og subsidier fra amerikanske regeringsorganisationer til en anden forskningsretning - den symbolske tilgang til AI .
Her vil kun det grundlæggende i den praktiske anvendelse af perceptronen på to forskellige opgaver blive vist. Forudsigelsesproblemet ( og dets tilsvarende mønstergenkendelsesproblem ) kræver høj nøjagtighed, mens agentkontrolproblemet kræver en høj indlæringshastighed. I betragtning af disse opgaver kan man derfor fuldt ud sætte sig ind i perceptronens muligheder, men dette er langt fra at udtømme mulighederne for dets brug.
I praktiske problemer vil perceptronen skulle kunne vælge mellem mere end to muligheder, hvilket betyder, at den skal have mere end et R-element ved udgangen. Som vist af Rosenblatt adskiller sådanne systemer sig ikke væsentligt fra karakteristikaene for en elementær perceptron [40] .
Forudsigelse og mønstergenkendelseI disse opgaver er perceptronen forpligtet til at bestemme, om et objekt tilhører en klasse ved dens parametre (for eksempel efter udseende, form, silhuet). Desuden vil genkendelsens nøjagtighed i høj grad afhænge af repræsentationen af perceptronens outputreaktioner. Tre typer kodning er mulige her: konfiguration , positionel og hybrid. Positionskodning, når hver klasse har sit eget R-element, giver mere nøjagtige resultater end andre typer. Denne type bruges for eksempel i arbejdet af E. Kussul et al. "Rosenblatt Perceptrons for Recognizing Handwritten Digits". Den er dog ikke anvendelig i tilfælde, hvor antallet af klasser er betydeligt, for eksempel flere hundrede. I sådanne tilfælde kan hybrid konfiguration-positionel kodning bruges, som det blev gjort i arbejdet med S. Yakovlev "Et system til genkendelse af bevægelige objekter baseret på kunstige neurale netværk."
AgentstyringInden for kunstig intelligens overvejes ofte læringsmidler (miljøtilpasning ) . Samtidig bliver det under usikkerhedsforhold vigtigt at analysere ikke kun aktuel information, men også den generelle kontekst af den situation, hvor agenten er faldet, derfor bruges feedback-perceptroner her [41] . Derudover bliver det i nogle opgaver vigtigt at øge indlæringshastigheden af perceptronen, for eksempel ved hjælp af refraktær modellering [42] .
Efter en periode kendt som " Vinteren for kunstig intelligens ", genoplivede interessen for kybernetiske modeller i 1980'erne , da symbolske AI-fortalere ikke formåede at komme tæt på problemerne "Forståelse" og "Mening", hvilket forårsagede maskinoversættelse og teknisk mønstergenkendelse stadig har fatale mangler. Minsky selv udtrykte offentligt beklagelse over, at hans tale beskadigede begrebet perceptroner, selvom bogen kun viste manglerne ved en enkelt enhed og nogle af dens variationer. Men generelt er AI blevet synonymt med den symbolske tilgang, som kommer til udtryk i skabelsen af stadig mere komplekse programmer til computere, der simulerer den menneskelige hjernes komplekse aktiviteter.
Typer af kunstige neurale netværk | |
---|---|
|
Machine learning og data mining | |
---|---|
Opgaver | |
At lære med en lærer | |
klyngeanalyse | |
Dimensionalitetsreduktion | |
Strukturel prognose | |
Anomali detektion | |
Grafer sandsynlighedsmodeller | |
Neurale netværk | |
Forstærkende læring |
|
Teori | |
Tidsskrifter og konferencer |
|