Torch 加速

loss.item()

1. 费时

loss.backward()
loss_item = loss.item()  # todo loss.item() 这个比较费时间  0.2743 秒

2. 省时

loss_item = loss.item()   #todo 把它 移到 loss.backward() 前面,这个操作只需要 0.00027 秒
loss.backward()

Index

d_inv[torch.isinf(d_inv)] = 0.0  # todo 这个超级费时间 大约 0.04秒

Top-k 替换 argsort

torch.argsort(pc1_sampling_confidence, dim=-1, descending=True)[:, :64] # 费时
torch.topk(pc1_sampling_confidence, 64, dim=-1) # 省时

申明对象

torch.arange(B, dtype=torch.long, device="cuda") # 省时
torch.arange(B, dtype=torch.long).to("cuda")  # 费时

A.to("cuda") 与 A.cuda() 是一样的时间

你可能感兴趣的:(python,深度学习,人工智能)