EMOPIAbug记录

一、安装pytorch-fast-transformers,老报错

1、cpu下:解决方法一:打包一个成功的wheel
EMOPIAbug记录_第1张图片
2、安装低版本torch
fast-transformers本来匹配的是1.7.0版本的pytorch,但torch170使用的是低版本的cuda,我的cuda11.1,勉强安装了一个torch171版本

二、两个dataloader按idx索取

EMOPIAbug记录_第2张图片
背景:因为我有两个dataloader,需要按照一个dataloader的idx索取到另一个dataloader里相应的dataloader,用的next方法,如下

for bidx, (batch_x, batch_y, batch_mask)  in enumerate(train_loader): # num_batch
     saver_agent.global_step_increment()
     batch_melody = next(iter(melody_loader))  # [tensor] 列表里是tensor

报错原因:两个dataloader的长度都是1021,batch-size=4,drop_last=False,则最后一个bidx=255时,batch_x=[1,1024,8],而batch_melody=[4,1025,128],迭代错了。
改成:

for bidx,data in enumerate(zip(train_loader,melody_loader)):
            saver_agent.global_step_increment()
            batch_x, batch_y, batch_mask = data[0]
            batch_melody = data[1]  

三、电脑上、服务器上cpu都行,gpu报错TypeError: ‘NoneType’ object is not callable

EMOPIAbug记录_第3张图片

你可能感兴趣的:(bug,bug,深度学习,人工智能)