锻炼_v2

20221220 美团

1、寻找最长递增子序列

2、self-attention里面Q、K、V维度【Self-Attention机制的计算详解_陈壮实的搬砖生活的博客-CSDN博客_attention机制】

3、计算attention为什么要除以sqrt(dk)【Self Attention 详解_EmoryHuang的博客-CSDN博客_selfattention】

4、做NER时,LSTM后面为什么要跟CRF【LSTM+CRF 解析(原理篇) - 知乎】【百度安全验证】

你可能感兴趣的:(自然语言处理)