Kontrolleret tilbagevendende blokering

Gated Recurrent Units ( GRU ) er en  portmekanisme til tilbagevendende neurale netværk introduceret i 2014. Det blev fundet, at dets effektivitet til at løse problemer med modellering af musik- og talesignaler er sammenlignelig med brugen af ​​langtidshukommelsen (LSTM) . [1] Sammenlignet med LSTM har denne mekanisme færre parametre, pga der er ingen udløbsventil. [2]

Arkitektur

betegner Hadamard-produktet . .

Variabler

Aktiveringsfunktioner

Se også

Noter

  1. Chung, Junyoung; Gulcehre, Caglar; Cho, KyungHyun & Bengio, Yoshua (2014), Empirisk evaluering af lukkede tilbagevendende neurale netværk på sekvensmodellering, arΧiv : 1412.3555 [cs.NE]. 
  2. Gentagende Neural Network Tutorial, Del 4 - Implementering af en GRU/LSTM RNN med Python og Theano - WildML . Hentet 18. maj 2016. Arkiveret fra originalen 27. oktober 2015.