pytorch中的pad_sequence、pack_padded_sequence和pad_packed_sequence函数
在使用pytorch训练模型的时候,一般采用batch的形式同时处理多个样本序列,而同一batch中时序信息的的长度是不同的,这样就无法传入RNN,LSTM,GRU这样的模型中进行处理。一个常用的做法是按照一个指定的长度(或者按照batch中最长的序列长度)对batch中的序列进行填充(padding)或者截断(truncate),这样就会导致一些较短的序列中会有很多的填充符。如下图所示:这样就会