Neuralt netværk Cosco

Den aktuelle version af siden er endnu ikke blevet gennemgået af erfarne bidragydere og kan afvige væsentligt fra den version , der blev gennemgået den 23. februar 2017; checks kræver 3 redigeringer .

Kosko's Neural Network , Bidirectional Associative Memory ( BDA ) er et neuralt netværk udviklet af Bart Kosko . Dette er et feedback neuralt netværk baseret på to ideer: Stefan Grosbergs adaptive resonans teori og autoassociative hukommelse .

DAP er heteroassociativ : en inputvektor tilføres et sæt neuroner, og en tilsvarende outputvektor produceres på et andet sæt neuroner. Ligesom Hopfield-netværket er DAP i stand til at generalisere og producere korrekte svar på trods af forvrængede input. Derudover kan adaptive versioner af DAP implementeres, der uddrager referencebilledet fra støjende tilfælde. Disse egenskaber minder stærkt om den menneskelige tænknings proces og tillader kunstige neurale netværk at tage et skridt hen imod hjernesimulering.

Synkron DAP

Netværket består af to lag af elementer, mellem hvilke der er tovejsforbindelser forbundet med elementerne efter princippet om alt med alt. Derfor kan en vægtmatrix bruges til at beskrive netværket. I det tilfælde, hvor denne matrix er kvadratisk og symmetrisk, bliver DAP'en til et autoassociativt Hopfield-netværk.

Når et støjende signal påføres netværkets input, tager transmissionen af ​​signaler inden for DAP'en så lang tid, indtil netværket finder den nærmeste standard (association), som netværket tidligere var trænet i. Denne proces kan tolkes som erindring og hukommelsesstabilisering.

Kontinuerlig DAP

Kontinuerlige asynkrone DAP'er afviser synkronicitet og diskontinuitet, men fungerer stort set på samme måde som diskrete versioner.

I en synkron DAP er de formelle neuroner i lag 1 og 2 synkrone, det vil sige, at hver neuron har en hukommelse, og alle neuroner skifter tilstand samtidigt. I et asynkront system er enhver neuron fri til at ændre tilstand hver gang dens input instruerer den om at gøre det.

Ved bestemmelse af aktiveringsfunktionen af ​​en neuron blev der brugt en simpel tærskel, hvorved der dannedes en diskontinuitet i neuronernes overførselsfunktion. På dette tidspunkt bliver tilbagepropageringsmetoden kendt, så det bliver muligt at skabe en kontinuerlig modifikation af DAP. Sigmoid har vist sig at være i stand til at forstærke signaler på lavt niveau, mens det komprimerer det dynamiske område af neuroner. En kontinuerlig DAP kan have en sigmoidal funktion med en værdi på l tæt på én og dermed danne neuroner med en jævn og kontinuerlig respons.

Adaptiv DAP

En adaptiv DAP ændrer sin vægt under drift. Dette betyder, at tilførslen af ​​et træningssæt af inputvektorer til netværksinputtet får det til at ændre energitilstanden, indtil der opnås resonans. Gradvist forvandles korttidshukommelsen til langtidshukommelse, og tuner netværket som et resultat af dets funktion. Under indlæringsprocessen føres vektorer til lag A og tilhørende vektorer til lag B. En af dem eller begge vektorer kan være støjende versioner af skabelonen; netværket trænes på de originale vektorer fri for støj. I dette tilfælde udtrækker det essensen af ​​associationer ved at lære af standarder, selvom det kun "så" støjende tilnærmelser.

Rival DAP

I mange konkurrerende neuronale systemer observeres en eller anden form for konkurrence mellem neuroner. I neuroner, der behandler signaler fra nethinden, fører lateral hæmning til en stigning i outputtet af de mest aktive neuroner på bekostning af naboerne. Sådanne systemer øger kontrasten ved at hæve aktivitetsniveauet af neuroner forbundet til det lyse område af nethinden, mens de samtidig yderligere dæmper udgangene fra neuroner forbundet til mørke områder.

I DAP realiseres konkurrence ved gensidig forbindelse af neuroner inden for hvert lag gennem yderligere forbindelser. Vægtene af disse links danner en anden vægtmatrix med positive værdier af elementerne i hoveddiagonalen og negative værdier af de resterende elementer.

Se også

Litteratur