【个人笔记】2020-8-21

THU

  1. 模型run起来了 使用cnn做encoder 直接优化modularity 还和远哥讨论了一下公式的问题,没想到我在第二层 把远哥想成了第一层 没想到他在第五层。 具体的下次再说
  2. 具体的问题是训练太慢了 每次sample不需要很多的关系 但是数量最好多一些 这样训练的会快一些 但是最好的结果不太清楚
  3. 我觉得目前的主要问题就是太慢了 并且理论boundary不太稳定 是一个非常naive和intuitive的loss function 后续肯定有改进
  4. 值得一提的是我的margin设置为0 这是难以想象的 但其实是因为我的modularity和ground truth的都太小了 在1e-6这个量级 非常难以设置。 索性就直接设置为0了
  5. 训练的结果虽然有提升 但是感觉太烂了 需要好好优化一下 不像别的loss一样非常的简单直观
  6. 我觉得引入预训练的encoder会大大提升效率和性能 这句真不是废话

你可能感兴趣的:(笔记)