R神经网络(amore)

newff(AMORE)
newff()所属R语言包:AMORE

                                        Create a Multilayer Feedforward Neural Network
                                         创建一个多层前馈神经网络

                                         译者:生物统计家园网 机器人LoveR

描述----------Description----------

Creates a feedforward artificial neural network according to the structure established by the AMORE package standard.
创建一个前馈人工神经网络建立了的AMORE包装标准的结构。


用法----------Usage----------


newff(n.neurons, learning.rate.global, momentum.global, error.criterium, Stao, hidden.layer, output.layer, method) 



参数----------Arguments----------

参数:n.neurons
Numeric vector containing the number of neurons of each layer. The first element of the vector is the number of input neurons, the last is the number of output neurons and the rest are the number of neuron of the different hidden layers.
数值向量包含在每个层的神经元的数目。第一个元素的矢量输入神经元的数量,最后是输出神经元的数量,其余的都是不同的隐藏层神经元的数量。


参数:learning.rate.global
Learning rate at which every neuron is trained.
学习率在每一个神经元进行训练。


参数:momentum.global
Momentum for every neuron. Needed by several training methods.
的每个神经元的势头。所需要的几种训练方法。


参数:error.criterium
Criterium used to measure to proximity of the neural network prediction to its target. Currently we can choose amongst:   
的绕圈用于测量的神经网络预测到它的目标接近。目前,我们可以选择其中包括:

"LMS": Least Mean Squares. 
“LMS”:最小均方。

"LMLS": Least Mean Logarithm Squared (Liano 1996). 
的“LMLS”:最不平均的对数的平方(利亚诺1996年)。

"TAO": TAO Error (Pernia, 2004).  
“TAO”::TAO错误(Pernia,2004年)。


参数:Stao
Stao parameter for the TAO error criterium. Unused by the rest of criteria.
STAO参数的TAO错误的绕圈。未使用的其余部分的标准。


参数:hidden.layer
Activation function of the hidden layer neurons. Available functions are:  
隐藏层神经元的激活函数的。所提供的功能包括:

"purelin". 
“purelin”的。

"tansig".  
tansig“。

"sigmoid". 
“S形”。

"hardlim". 
“hardlim”。

"custom": The user must manually define the f0 and f1 elements of the neurons.  
“自定义”:用户必须手动定义的神经元的F0和F1的元素。


参数:output.layer
Activation function of the hidden layer neurons according to the former list shown above.
根据如上所示前的列表的隐藏层神经元的激活函数。


参数:method
Prefered training method. Currently it can be:  
优先考虑的训练方法。目前,它可以是:

"ADAPTgd": Adaptative gradient descend. 
“ADAPTgd”的自适应梯度下降。

"ADAPTgdwm": Adaptative gradient descend with momentum.  
“ADAPTgdwm”的自适应梯度下降的势头。

"BATCHgd": BATCH gradient descend. 
“BATCHgd”:BATCH梯度下降。

"BATCHgdwm": BATCH gradient descend with momentum.  
“BATCHgdwm”:BATCH梯度下降的势头。


值----------Value----------

newff returns a multilayer feedforward neural network object.
newff返回一个多层前馈神经网络的对象。


(作者)----------Author(s)----------



Manuel Castej贸n Limas.                      [email protected]

Joaquin Ordieres Mer茅.                    
Ana Gonz谩lez Marcos.                
Alpha V. Pern铆a Espinoza.           
Eliseo P. Vergara Gonzalez.         
Francisco Javier Martinez de Pis贸n. 
Fernando Alba El铆as.                




参考文献----------References----------

Pern铆a Espinoza, A.V., Ordieres Mer茅, J.B., Mart铆nez de Pis贸n, F.J., Gonz谩lez Marcos, A. TAO-robust backpropagation learning algorithm. Neural Networks. Vol. 18, Issue 2, pp. 191–204, 2005.

Simon Haykin. Neural Networks – a Comprehensive Foundation. Prentice Hall, New Jersey, 2nd edition, 1999. ISBN 0-13-273350-1.



参见----------See Also----------

init.MLPneuron, random.init.MLPnet, random.init.MLPneuron, select.activation.function 
init.MLPneuron,random.init.MLPnet,random.init.MLPneuron,select.activation.function


实例----------Examples----------


#Example 1[例1]

library(AMORE)
# P is the input vector[P为输入向量]
P <- matrix(sample(seq(-1,1,length=1000), 1000, replace=FALSE), ncol=1) 
# The network will try to approximate the target P^2[该网络将试图逼近目标P ^ 2]
target <- P^2                                   
# We create a feedforward network, with two hidden layers.[我们创建了一个前馈网络,两个隐含层。]
# The first hidden layer has three neurons and the second has two neurons.[第一个隐藏层有3个神经元,第二个有两个神经元。]
# The hidden layers have got Tansig activation functions and the output layer is Purelin.[隐藏层有Tansig激活功能和输出层的Purelin。]
net <- newff(n.neurons=c(1,3,2,1), learning.rate.global=1e-2, momentum.global=0.5,
        error.criterium="LMS", Stao=NA, hidden.layer="tansig", 
        output.layer="purelin", method="ADAPTgdwm")
result <- train(net, P, target, error.criterium="LMS", report=TRUE, show.step=100, n.shows=5 )
y <- sim(result$net, P)
plot(P,y, col="blue", pch="+")
points(P,target, col="red", pch="x")

出自 生物统计家园网( http://www.biostatistic.net )

你可能感兴趣的:(R语言)