DagNN是用来代替SimpleNN的CNN wrapper。它是面向对象的,并且允许采用有向无环图构建神经网络。与SimpleNN相比,DagNN速度有点慢但是更加灵活。
一个DAG对象包括以下数据成员:
layers: 神经网络层
vars: 网络变量
params: 网络参数
meta: 额外的补充信息
同时,DAG还包括有一些临时的数据成员:
obj = DagNN() %初始化为空的DAGNN结构体
inputName = getInputs(obj) % 获取网络输入的名字
返回一个cell类型的输入组合。
outputName = getOutputs(obj); % 获取网络输出名称
index = getLayerIndex(obj, layerName); % 根据神经网络层的名字获取索引,用于网络评价;
obj.layers(index); % 用于网络评价
% 返回如下信息
% name = 'DCF'
% inputs = {'x', 'z'}
% outputs = {'response'}
% params = {}
% inputIndexsx = [7,14]
% outputIndexes = 15
% paramIndexes = []
% forwardTime = 0.6927
% backwardTime = 0.2452
% block = [1x1 dagnn.DCF]
index = getVarIndex(obj, varName); % 返回指定变量名的索引
obj.vars(index); % 对变量进行评价
% 返回如下信息
% name = 'conv1'
% value = []
% der = []
% fanin = 1
% fanout = 1
% precious = 0
index = getParamIndex(obj, paramName); % 指定参数名获取参数的索引号
obj.params(index);
% 返回如下信息:
% name = 'conv1f'
% value = 3x3x1x32 gpuArray
% der = 3x3x1x32 gpuArray
% fanout = 2
% trainMethod = 'gradient'
% learningRate = 0.01
% weightDecay = 0.0005
layer = getLayer(obj, layerName); %
var = getVar(obj, varName); %
param = getParam(obj, paramName); %
getLayerExecutionOrder(obj);
% 例如,孪生网络:
% 1 2 —— 3 4 —— 5 6 —— 13 —— 14 —— 15
% | | | | | |
% 7 —— 8 9 —— 10 11 —— 12
%
addVar(obj, varName);
addParam(obj, paramName);
addLayer(layerName, layer, input, output, params);
eval(obj, inputs); % 指定输入值,评价DAGNN。
% 输入应该是cell矩阵,如 input = {'inputName', inputValue, ...},该语句的调用将导致网络的正向信息传递;并计算输出变量的值;
eval(obj, inputs, derOutputs); % 评价DAGNN前向和反向,执行误差反向传播算法。
% 和inputs很类似,的人Outputs也是cell矩阵,{‘outputName’, outputDerValue, ...};
通常,对应到损失函数,网络从表来那个的输入开始进行反向传播。在这种情况下,outputDerValue可以解释为输出的权重,通常设置为1.例如, {‘objective’, 1}。从‘objective’输出变量(权重为1)开始反向传播。
然而,很多情况下DAGNN会包括很多损失函数,在这种情况下,就需要设置不同的权重去平衡不同的目标,例如:{‘objective1’, w1, 'objective2', w2, ... }。