Rekursive neurale netværk ( eng. Rekursive neurale netværk ; RvNN ) er en type neurale netværk , der arbejder med data af variabel længde. Rekursive netværksmodeller bruger hierarkiske mønsterstrukturer i træning. For eksempel billeder sammensat af scener, der kombinerer underscener, der omfatter mange objekter. At afsløre scenestrukturen og dens dekonstruktion er ikke en triviel opgave. I dette tilfælde er det nødvendigt både at identificere individuelle objekter og hele scenens struktur.
I rekursive netværk aktiveres neuroner med samme vægt rekursivt i henhold til netværkets struktur. Under driften af det rekursive netværk udvikles en model til at forudsige strukturer med variabel dimension og skalære strukturer gennem aktivering af strukturen i overensstemmelse med topologien. RvNN'er er med succes blevet brugt til at træne sekventielle strukturer og træer i naturlig sprogbehandling , hvor sætninger og sætninger er modelleret gennem ordvektorrepræsentationer . RvNN'er dukkede oprindeligt op for den distribuerede repræsentation af strukturer ved hjælp af prædikater af matematisk logik . [1] Udviklingen af rekursive netværk og de første modeller begyndte i midten af 1990'erne. [2][3]
I den enkleste arkitektur konvergerer netværkets knudepunkter til forældrene gennem en skjult lagvægtmatrix, der bruges gentagne gange i hele netværket, og en ikke-lineær aktiveringsfunktion af typen hyperbolsk tangent . Hvis c 1 og c 2 er n - dimensionelle repræsentationer af netværksknuder, så er deres forældre også n - dimensionelle vektorer, beregnet som
Her er W den trænede vægtmatrix .
Denne arkitektur, med en vis forbedring, bruges til sekventiel afkodning af naturlige billedscener eller til strukturering af naturlige sprogsætninger. [fire]
Rekursiv vandfaldskorrelation RecCC er en tilgang til at konstruere rekursive netværk, der opererer med tre domæner [2] , de første applikationer af denne art dukkede op i kemien [5] , og udvidelsen danner en rettet acyklisk graf . [6]
I 2004 blev der foreslået et uovervåget rekursivt netværkslæringssystem . [7] [8]
Tensor rekursive netværk bruger én tensorfunktion for alle træknuder. [9]
Stokastisk gradientnedstigning (SGD) bruges normalt til træning . Gradienten er defineret gennem end-to-end error backpropagation framework (BPTS), denne metode er en modifikation af tidsserie backpropagation brugt til at træne tilbagevendende neurale netværk .
Litteraturen bekræfter evnen til universel tilnærmelse af tilbagevendende netværk over træ-type netværk. [10] [11]
Et recurrent neuralt netværk er et rekursivt netværk med en bestemt struktur – i form af en lineær kæde. Rekursive netværk opererer på strukturer af en generel type, herunder et hierarki, tilbagevendende netværk opererer udelukkende på en lineær progression i tid, der forbinder det forrige tidspunkt med det næste gennem et skjult neuralt lag.
Træekko-netværket er et effektivt eksempel på rekursive neurale netværk [12] ved hjælp af Reservoir computing-paradigmet.
Udvidelse af strukturen til grafer producerer et grafisk neuralt netværk (GNN), [13] , et neuralt netværk for grafer (NN4G), [14] og nyere foldende neurale netværk til grafer.
Typer af kunstige neurale netværk | |
---|---|
|
Machine learning og data mining | |
---|---|
Opgaver | |
At lære med en lærer | |
klyngeanalyse | |
Dimensionalitetsreduktion | |
Strukturel prognose | |
Anomali detektion | |
Grafer sandsynlighedsmodeller | |
Neurale netværk | |
Forstærkende læring |
|
Teori | |
Tidsskrifter og konferencer |
|