思路:
挑战:
方法:
(food quality,pasta, over-cooked, negative)
-------------------->
“Food quality is bad because pasta is over-cooked”.
这样就可以用释义模型T5等(已经训练好的)无缝衔接这项任务
贡献:
1、首先进行数据的预处理:标注的(c,a,o,p)序列转化成句子,为了建模以及映射的方便,忽略句子的句法细节,转化方式如下
转化之后的句子如图所示:
基于S2S模型的encoder和decoder
这部分的理论推导,需要自己学习一下
利用T5模型,生成预测的句子
检测生成的句子是否符合第一步的模式,若不符合则视作无效生成,舍弃;若符合,则进行拆解,得到四元组
1、实验材料
pipline的方法:下层模型抽取aspect-opinion,上层模型预测category-sentiment
unified的方法:GAS生成四元序列、TASO改变标签以达到同时生成aspect-opinion具体细节也是需要进一步探索
3、实验结果
如上图
关于一些碎碎念:
- 可能慢慢就发现科研和自己最初想象的还是很不一样的~但是也没有很抵触,时间多的时候去做,发现自己还是蛮享受思考与讨论、debug与追索的过程的。不过大三确实比较忙(明明课程比大二少吖,但是就是时间都去哪里了灵魂拷问),连假期都被一堆事情占用,也可能是自己的时间管理还是欠火候叭。
- 到了现在,记录已经到了十二周了,时间过得好快吖,其实开题之后就已经不再那么追求所谓的结果了,为之后的学习先打下扎实的基础,结结实实地学会一些基本的技能(尤其是coding和数学)、培养系统的思维我觉得可能对我而言会更加实际。
菜鸡危险发言- 慢慢来慢慢来up!up!
数据路径
/mnt/nfs-storage-1080/xxx
虚拟环境名称
/mnt/nfs-storage-1080/hyGao/absa_quad/ghy_base1
改完了一些版本不兼容的问题之后~(暴力的改法是注释掉所有缺失但是无关全局的import)
然后又是内存的问题
修改了batchsize=2之后可以运行~但是做好准备结果应该会受到影响
加上配置环境和调参,最后出结果一共用了2h,因为内存的问题batchsize从16改成2,应该是这个原因导致性能的下降
果然下降了2-3个百分点, 情理之中,情理之中~