Keras 函数[TimeDistributed]理解

这个函数刚接触时不太好理解,其实结合几个例子来理解就容易多了.

例1:

Keras 官网文档关于该函数的例子,该文档说:

This wrapper applies a layer to every temporal slice of an input.

The input should be at least 3D, and the dimension of index one will be considered to be the temporal dimension.

You can then use TimeDistributed to apply a Dense layer to each of the 10 timesteps, independently:

The output will then have shape (32, 10, 8).

# as the first layer in a model
model = Sequential()
model.add(TimeDistributed(Dense(8), input_shape=(10, 16)))
# now model.output_shape == (None, 10, 8)

其如上所示,一个(32, 10, 16)的张量,不考虑第一个批次的话,也就是从第一个维度开始,就是(10,16),好比于10个16维的向量,现在要将这10个向量从16维同时降维到8维,这时候在Keras中就可以使用[TimeDistributed]函数,如上述代码,其参数就是Dense(8),input_shape. 这样就实现了张量的批量将维.

例2:

当然,除了Dense,也可以是其他的操作,比如Flatten:

x = TimeDistributed(Flatten(), name='flatten')(x)

则,如下图所示,输入为(None,None,4,192),由于以第一个维度(从零开始数)的None为时间片,批量地将2,3维排成一维,即变成(None, None,768):

Keras 函数[TimeDistributed]理解_第1张图片

 

参考:

Keras官方文档

 

 

 

你可能感兴趣的:(深度学习,OCR,Keras)