Transformer课程第39章:面向Knowledge-intensive任务的Transformer模型RAG的架构及完整源码实现

1,为何Transformer网络能够存储factual knowledge信息?

2,pretrained dense retrieval数学原理分析

3,sequence-to-sequence model数学原理分析

4,jointly fine-tuning数学原理分析

5,parametric memory原理分析

6,non-parametric memory原理分析

7,non-parametric memory on dense vector原理分析

8,使用pre-trained neural retriever背后的贝叶斯数学原理剖析

9,prepare_seq2seq_batch源码完整实现分析

10,RagTokenizer源码完整实现分析

11,RetrievAugLMMarginOutput源码完整实现分析

12,RetrievAugLMOutput源码完整实现分析

13,from_pretrained_question_encoder_generator源码完整实现分析

14,RagPreTrainedModel源码完整实现分析

15,RagModel源码完整实现分析

16,generate源码完整实现分析

17,get_nll源码完整实现分析

18,cat_and_pad源码完整实现分析

19,RagSequenceForGeneration源码完整实现分析

20,prepare_inputs_for_generation源码完整实现分析

21,reorder_cache源码完整实现分析

22,marginalize源码完整实现分析

23,BeamSearchScorer源码完整实现分析

24,RagTokenForGeneration源码完整实现分析

你可能感兴趣的:(Transformer,NLP,StarSpace,语言模型,架构,自然语言处理,transformer,深度学习)