Using Multiple RDF Knowledge Graphs for Enriching ChatGPT Responses

本文是LLM系列文章,针对《Using Multiple RDF Knowledge Graphs for Enriching ChatGPT Responses》的翻译。

使用多个RDF知识图来丰富ChatGPT响应

  • 摘要
  • 1 引言
  • 2 相关工作
  • 3 GPT-LODS的过程和用例
  • 4 结束语

摘要

最近有一种趋势是使用新型人工智能聊天GPT聊天箱,它在许多知识领域提供详细的回答和清晰的答案。然而,在许多情况下,它返回了听起来合理但不正确或不准确的回答,而它没有提供证据。因此,任何用户都必须进一步搜索以检查答案的准确性或/和查找关于响应的实体的更多信息。同时,RDF知识图谱(KGs)在任何真实领域上都有大量涌现,它们提供了高质量的结构化数据。为了实现ChatGPT和RDF KGs的组合,我们提出了一个名为GPT•LODS的研究原型,它能够用数百个RDF KGs中的更多信息丰富任何ChatGPT响应。特别是,它通过统计信息和LODSynesis KG的超链接(包含来自400个RDF KG和超过4.12亿个实体的集成数据)来识别和注释响应的每个实体。通过这种方式,可以丰富实体的内容,并实时对响应的事实进行事实核查和验证。

1 引言

2 相关工作

3 GPT-LODS的过程和用例

4 结束语

在本文中,我们提出了研究原型GPT•LODS,它能够实时注释和链接ChatGPT响应到数百个RDF KGs,丰富其实体并验证其事实。作为未来的工作,我们计划通过执行关系提取来改进GUI和事实检查服务,以提供RESTneneneba API并支持多语言。

你可能感兴趣的:(LLM,知识图谱,chatgpt,人工智能)