Main Content

La traduzione di questa pagina non è aggiornata. Fai clic qui per vedere l'ultima versione in inglese.

layrecnet

Rete neurale ricorrente a livelli

Descrizione

esempio

layrecnet(layerDelays,hiddenSizes,trainFcn) considera questi argomenti:

  • Vettore di riga dei ritardi crescenti di 0 o positivi, layerDelays

  • Vettore di riga di una o più dimensioni del livello nascosto, hiddenSizes

  • Funzione di addestramento in retropropagazione trainFcn

e restituisce una rete neurale ricorrente a livelli.

Le reti neurali ricorrenti a livelli sono simili alle reti feed-forward, tranne per il fatto che ciascun livello ha una connessione ricorrente a cui è associato un ritardo di intercettazione. Questo consente alla rete di avere una risposta dinamica infinita ai dati di input delle serie temporali. Questa rete è simile alle reti neurali a ritardo temporale (timedelaynet) e a ritardo distribuito (distdelaynet) che hanno risposte di input finite.

Esempi

comprimi tutto

Questo esempio mostra come utilizzare una rete neurale ricorrente a livelli per risolvere un semplice problema di serie temporali.

[X,T] = simpleseries_dataset;
net = layrecnet(1:2,10);
[Xs,Xi,Ai,Ts] = preparets(net,X,T);
net = train(net,Xs,Ts,Xi,Ai);

Figure Neural Network Training (23-Mar-2023 10:45:16) contains an object of type uigridlayout.

view(net)

Y = net(Xs,Xi,Ai);
perf = perform(net,Y,Ts)
perf = 6.1239e-11

Argomenti di input

comprimi tutto

Ritardi di input nulli o positivi, specificati come un vettore di riga crescente.

Dimensioni dei livelli nascosti, specificate come un vettore di riga di uno più elementi.

Nome della funzione di addestramento, specificato come uno dei seguenti.

Funzione di addestramentoAlgoritmo
'trainlm'

Levenberg-Marquardt

'trainbr'

Regolarizzazione bayesiana

'trainbfg'

Quasi-Newton BFGS

'trainrp'

Retropropagazione resiliente

'trainscg'

Gradiente coniugato scalato

'traincgb'

Gradiente coniugato con ripartenze Powell/Beale

'traincgf'

Gradiente coniugato di Fletcher-Powell

'traincgp'

Gradiente coniugato di Polak-Ribiére

'trainoss'

Secante a un passaggio

'traingdx'

Velocità di apprendimento variabile a discesa del gradiente

'traingdm'

Discesa del gradiente con momento

'traingd'

Discesa del gradiente

Esempio Ad esempio, è possibile specificare l'algoritmo di discesa del gradiente della velocità di apprendimento variabile come algoritmo di addestramento, come segue: 'traingdx'

Per ulteriori informazioni sulle funzioni di addestramento, vedere Train and Apply Multilayer Shallow Neural Networks e Choose a Multilayer Neural Network Training Function.

Tipi di dati: char

Cronologia versioni

Introdotto in R2010b