keras使用Lambda和Reshape自定义层、改动output、修改loss值

keras使用Lambda和Reshape自定义层、改动output、修改loss值

新版keras有一个Lambda工具可以帮助自定义层,同时可能会用到Reshape函数。
关于Lambda,它的作用就是将任意表达式封装为 Layer 对象。因为普通的切片会破坏Layer,所以不能直接对一个layer数据切片。
那怎么切片才能得到还是层的结果呢?
下面是一个Lambda使用例子说明:

...
out = TimeDistributed(Dense(label_size, activation='softmax'))(lstm_layer)
def slice(x,b):
    	return x[:,b,:]
outs=[]
for i in range(int(100/2)):
	c1=Lambda(slice,output_shape=(1,label_size),arguments={'b':2*i})(out)
    	c2=Lambda(slice,output_shape=(1,label_size),arguments={'b':2*i+1})(out)
    	c=Add()([c1,c2])#把下标每两个求和
        outs.append(c)#这样outs变成(50,label_size)
outs=Concatenate(axis=1)([p for p in outs])#将里面的内容合并,变成50*32=1600个,[1,2,3,..,1600]
out_=Reshape((50,label_size))(outs)#进行reshape,变成[[32个label],[32个label],[],...],共50个,因为定义了shape为(50,label_size).
model = Model(input=input_layer, output=out_)
model.compile(optimizer='adam', loss='categorical_crossentropy')
 ...

slice函数是实现对一个层out的切片,这里out的shape是(None,100,32),label_size=32,这个None不用管,比较抽象,可以想成是[[32个label],[ 32个label],[ 32个label],[ 32个label],…],里面共100个[32个label]。

看懂了以后,可以自己随便处理out,自定义层。
其他例子1
其他例子2
感谢你的浏览~

你可能感兴趣的:(神经网络,keras)