Making Large Language Models Perform Better in Knowledge Graph Completion论文阅读
文章目录摘要1.问题的提出引出当前研究的不足与问题KGC方法LLM幻觉现象解决方案2.数据集和模型构建数据集模型方法基线方法任务模型方法基于LLM的KGC的知识前缀适配器知识前缀适配器与其他结构信息引入方法对比3.实验结果与分析结果分析:可移植性实验:消融实验4.结论与启示结论总结局限性启发原文链接:MakingLargeLanguageModelsPerformBetterinKnowledge