如何用 AI 给科研提速?超长对话记忆 Kimi Chat 体验

我尝试了网络文章总结、学术文献分析,以及长文翻译。

如何用 AI 给科研提速?超长对话记忆 Kimi Chat 体验_第1张图片

最近经常听小伙伴提及 Kimi Chat 这款国产大语言模型,据说它在上下文记忆能力很有特色。于是我打开官网(https://kimi.moonshot.cn/)进行了尝试,今天就来给你分享一下我的使用心得。

如何用 AI 给科研提速?超长对话记忆 Kimi Chat 体验_第2张图片

Kimi Chat 在首页提供了一些示例。它能够概括输入的 PDF 文件,或者帮助你分析网页链接。从样例中不难看出,Kimi Chat 官方宣传的一大特色便是它的超长对话上下文(long context)。官方声称可以处理高达 20 万字的中文输入。Kimi Chat 的长期目标是建立一个具有持久记忆的大型语言模型。也就是说,你天天跟他对话,去年与它互动的内容其间隔了无数的其他对话乱入,可如果你今天突然问起来,它依然能够精准想起来。

Kimi Chat 的宏大愿景是当大语言模型成为操作系统时,它可以作为高效可靠的存储服务,为大语言模型的计算提供基础和保障。我觉得,在 OpenAI 一马当先时,后发的大语言模型都需要找准自己的定位,才能在竞争和发展中有足够宽广的「护城河」。

你注册并登录之后,就可以开始新对话了。

如何用 AI 给科研提速?超长对话记忆 Kimi Chat 体验_第3张图片

下面,咱们通过网络文章总结、学术文献分析,以及长文翻译这几个场景,分别试试 Kimi Chat 的能力。

网文总结

首先,我尝试了 Kimi Chat 首页提供的一个总结链接对应内容的示例。只不过,我把示例中的链接换成了自己的公众号文章,让它帮我概括并针对文章内容提出问题。

提示词如下:

结合文章标题,用一句话精确凝练地总结这篇文章,在回答中用 “一句话总结:” 开头;

整理这篇文章中的观点,并展开阐释;

如果你是一名效率应用专家,针对这篇文章再提出三个问题;

https://mp.weixin.qq.com/s/4fWKOpnb68OuCv21SVPPlg

这篇文章是我最近发布的,标题为《过去这一年我有哪些离不开的效率应用》,我们看看 Kimi Chat 如何回答。

如何用 AI 给科研提速?超长对话记忆 Kimi Chat 体验_第4张图片

Kimi Chat 首先进行了一些思考,然后开始输出。

如何用 AI 给科研提速?超长对话记忆 Kimi Chat 体验_第5张图片

这是 Kimi Chat 最终输出的结果:

如何用 AI 给科研提速?超长对话记忆 Kimi Chat 体验_第6张图片

Kimi Chat 首先做出了一句话的总结,然后对文章中的观点进行了阐释。除了视频剪辑、内容管理,还提到了资料查询,这与我在文中列出的三款应用相符。

Kimi Chat 还提出作为一名效率应用专家,可以进一步提出三个问题。包括:

  • 在处理视频剪辑时,能否识别并自动消除视频中的其他问题,比如背景噪音或画面抖动;

  • Heptabase 是否可以与其他笔记应用,如 Notion 等集成;

  • Perplexity 在生成图表或流程图的准确性和可靠性如何。

我认为 Kimi Chat 提出这些问题都很有趣,至少能给我们提供一些启发。

公众号文章总结,我觉得 Kimi Chat 做得非常好。不过我们平时用到的链接,不止来自于公众号。为了进一步测试它总结网文的通用性,我把自己的一篇少数派文章的链接发给了它。这篇文章《Perplexity Pro 好用吗?如何免费连用两个月?》介绍了 Perplexity Pro 的功能和当时官方提供的优惠信息。

如何用 AI 给科研提速?超长对话记忆 Kimi Chat 体验_第7张图片

我发现 Kimi Chat 对这篇少数派文章内容的提取依然非常全面,包括基本介绍、功能、使用建议、优惠信息以及最终结论,显示了它对链接对应全文准确而深刻理解。

如何用 AI 给科研提速?超长对话记忆 Kimi Chat 体验_第8张图片

学术资源处理

接下来我测试了 Kimi Chat 处理学术资源的能力。我询问它能处理哪些类型的学术资源,比如是否能直接读取 CNKI 的信息?

如何用 AI 给科研提速?超长对话记忆 Kimi Chat 体验_第9张图片

Kimi Chat 说回答它可以处理 txt、PDF、Word 等多种文档格式。至于 CNKI(中国知网),它无法直接访问,这确实是一个遗憾。

但是,Kimi Chat 提出,用户可以下载 CNKI 资源并以支持的格式上传,然后它可以进行阅读和分析。Kimi Chat 还特别提醒,在上传文件时要遵守相关的版权和使用规定。我觉得这个提醒很重要。

顺便说一句,我这两天就该问题咨询了 Kimi Chat 的客服人员。得到的答复是虽然目前 CNKI 资源因为版权问题尚未支持,但是 Kimi Chat 后续会考虑采购和对接更多学术文献数据源。不过 Kimi Chat 目前已经列出的用户需求比较多,得根据优先级一个个实现。如果有更多学术用户提出需求,他们会把学术数据源扩展的优先级提升。所以建议平时需要查文献的小伙伴们,抓紧给 Kimi Chat 提需求吧,哈哈。

Kimi Chat 明确提示用户最多可以上传 50 个文件,每个文件大小不超过 100MB。这是我目前所用到的大语言模型中,上传文件限制最宽的。Kimi Chat 还规定了可以上传的各种文件类型。由于我们关注的是处理学术资源的能力,所以这回我们主要使用 PDF 格式的文件。

如何用 AI 给科研提速?超长对话记忆 Kimi Chat 体验_第10张图片

首先,我尝试了 Kimi Chat 对单篇文献的总结能力。为了确保我对文献内容的熟悉,我选择了自己的一篇论文,2023 年 10 月发表在《图书情报知识》上的《AIGC 时代的科研工作流:协同与 AI 赋能视角下的数字学术工具应用及其未来》。

如何用 AI 给科研提速?超长对话记忆 Kimi Chat 体验_第11张图片

我将这篇论文交给了 Kimi Chat,要求它帮助解读文章的创新方法和局限性。

如何用 AI 给科研提速?超长对话记忆 Kimi Chat 体验_第12张图片

Kimi Chat 思考片刻,立即开始认真输出结果。

如何用 AI 给科研提速?超长对话记忆 Kimi Chat 体验_第13张图片

Kimi Chat 一上来提炼出了创新点。创新点包括「提出的新颖视角,科研工作流的构建建议,有助于科研人员更有效地管理和协作」。它特别提到了 AIGC 技术对科研工具发展的影响。此外,Kimi Chat 还提到通过两次调研对比,展示了 AIGC 技术对科研工具生态系统的显著影响。

如何用 AI 给科研提速?超长对话记忆 Kimi Chat 体验_第14张图片

Kimi Chat 总结出的研究方法包括「文献回顾、用户调研对比和系统图的构建」,对我所使用的基础方法和工具的描述是准确的。

关于局限性,Kimi Chat 指出研究「可能未能覆盖所有科研工具。对于快速发展的 AIGC 技术,研究可能无法跟上最新的技术进展」。这确实是前沿领域研究的常见问题。Kimi Chat 还准确地指出了「用户反馈的时效性问题,以及科研活动的多样性和 AI 技术的边界等问题」。其中「用户反馈的时效性问题」确实是我之前自己的局限部分没有列出的,因而我认为 Kimi Chat 的总结和梳理很有帮助。

在尝试单篇文献之后,我继续测试了它综合处理多篇文献的能力。我找到了几篇与当前 AI 技术相关的论文,要求是对这些论文进行综述,并用 APA 格式撰写完整的文献回顾报告。

如何用 AI 给科研提速?超长对话记忆 Kimi Chat 体验_第15张图片

这是 Kimi Chat 的输出过程。

Kimi Chat 对这三篇论文的分析、讨论和结论都做得很理想。

但问题在于,我原本提交了五篇文献,Kimi Chat 却只分析了三篇。这可能是它目前在处理多文件综述时的一个缺陷,被我们捕获了。

如何用 AI 给科研提速?超长对话记忆 Kimi Chat 体验_第16张图片

好在,咱们可以通过继续对话的方式,让它补齐。

我新的提示词为:

I asked you to summarize 5 articles, but you only summarized 3. You still need to summarize 2 more. Can you please think step by step and summarize them again without missing anything?

翻译成中文,就是:

我让你总结 5 篇,你总结了 3 篇,还差两篇,能否一步步思考,重新总结,不要遗漏?

如何用 AI 给科研提速?超长对话记忆 Kimi Chat 体验_第17张图片

于是 Kimi Chat 立即开始思考,并且输出了以下答案:

如何用 AI 给科研提速?超长对话记忆 Kimi Chat 体验_第18张图片

经过检查,我发现这次的答案确实补充了前面遗漏的两篇文献。希望 Kimi Chat 后续的改进中,可以自动对输出文献数量进行检查核对,避免用户手动要求补充。

长文翻译

接下来我们来讨论 Kimi Chat 的文章翻译能力。我最近尝试了很多长文翻译的方法,其中一个较好的方法是宝玉老师提出的「两遍翻译法」。

如何用 AI 给科研提速?超长对话记忆 Kimi Chat 体验_第19张图片

第一遍是直译,保留原文的细节;第二遍则是在直译的基础上进行意译。这个方法很有创意,效果也很好。在 GPT-4 对话中,我要求它逐段进行翻译。这样尽可能避免了 GPT-4 对上下文的混淆、遗漏和误解。

这次,我把自己多日以来摸索出来的一整套 GPT-4 翻译长文提示词直接提供给了 Kimi Chat。它接受后,请我提供文章。

如何用 AI 给科研提速?超长对话记忆 Kimi Chat 体验_第20张图片

作为样例,我提交给了 Kimi Chat 一篇我自己写的中文公众号文章《过去这一年,我有哪些离不开的效率工具?》。提交的格式为 Markdown,里面包括了正文、链接和图片等。

如何用 AI 给科研提速?超长对话记忆 Kimi Chat 体验_第21张图片

这里,我给你展示一下,在 GPT-4 环境下这种逐段的翻译效果是怎样的。

如何用 AI 给科研提速?超长对话记忆 Kimi Chat 体验_第22张图片

Kimi Chat 立即开始工作了。

起初,我对 Kimi Chat 输出的结果感到非常失望 —— 我原本希望看到的是逐段进行的两遍翻译,即每一段输出原文,然后先直译后意译的过程。但实际上,我只看到了 Kimi Chat 一次翻译的结果,没有原文,也没有意译。这让我很不满意。

然而,从第一性原理思考,我突然意识到之前需要逐段翻译是因为 GPT-4 一段对话中可以处理的上下文不够长。只有分段进行,才能保证 GPT-4 对原文记忆和理解的准确性;可是现在我使用了 Kimi Chat,它的特点就是对超长上下文具备强记忆能力,那逐段翻译是否还有必要呢?于是我踏踏实实看着 Kimi Chat 先把翻译结果输出完。

值得注意的是,尽管目前 Kimi Chat 可以接受 20 万字中文的输入长度,但是输出的时候,窗口虽大,却不能一次性把翻译结果完整输出。中间停顿了一次。

如何用 AI 给科研提速?超长对话记忆 Kimi Chat 体验_第23张图片

当我让 Kimi Chat 继续时,它能从上一个段落的小节标题处开始继续输出,这非常有趣。因为这意味着 Kimi Chat 在回顾截断处上下文的时候,确实对结构能清晰把握。这可能就是点开「超长上下文」这棵技能树之后,带来的直观好处吧。

如何用 AI 给科研提速?超长对话记忆 Kimi Chat 体验_第24张图片

在完成直译后,我指示 Kimi Chat 对刚刚的直译结果进行整体意译。我害怕它听不懂指令,把原文再抄写一遍。好在经过对比,一眼看上去,它就将第一遍直译输出的 “for example” 译为了 “for instance”。这表明它确实理解了要求,真正进行了第二遍翻译。

如何用 AI 给科研提速?超长对话记忆 Kimi Chat 体验_第25张图片

我注意到它在输出全部意译结果的时候,依然能从中断处整节恢复输出。这说明它对上下文结构的理解非常精确。

如何用 AI 给科研提速?超长对话记忆 Kimi Chat 体验_第26张图片

最终 Kimi Chat 完成了所有的输出,我对比了一下,发现翻译质量已经足够满足我的需要。

如何用 AI 给科研提速?超长对话记忆 Kimi Chat 体验_第27张图片

这意味着以后进行长文中译英翻译时,我不再需要像以前那样麻烦。我只需要先让 Kimi Chat 进行整体的直译,然后再进行整体的意译,效果已经非常理想。此外,Kimi Chat 的输出中,所有的链接和图片(包括动图)都被完整地保留,这非常方便。

与之相对比,在进行翻译时,GPT-4 有时会在最终输出阶段丢失一些内容。我在 Typingmind 和 ChatGPT 官方对话中,都遇到过类似的问题。例如这是某次整合输出全部译文的结果:

如何用 AI 给科研提速?超长对话记忆 Kimi Chat 体验_第28张图片

比如,在讨论 GPTs 效果的部分时,翻译结果突然跳到了后面 Perplexity 的部分,中间丢失了很多段落的内容。

如何用 AI 给科研提速?超长对话记忆 Kimi Chat 体验_第29张图片

我需要使用提示词来纠正这些丢失,有时甚至需要告诉它具体哪些部分遗漏了,要求 GPT-4 补充。

如何用 AI 给科研提速?超长对话记忆 Kimi Chat 体验_第30张图片

然后,我会发现 GPT-4 给出的补充结果仍然会有遗漏,不得不逐个进行提示。

如何用 AI 给科研提速?超长对话记忆 Kimi Chat 体验_第31张图片

最后,我还需要手动找到正确的上下文位置并填充。因此,在进行长文翻译时,目前 GPT-4 实际上不如 Kimi Chat 方便。

小结

我们来总结一下刚才的三个用例:网络文章总结、学术文献分析,以及长文翻译。我们从这些实际用例中得到了哪些结论呢?

第一个结论是,超长对话窗口确实可以有效减少对话的中断,使整个工作流程更加流畅;第二个结论是,Kimi Chat 记忆力更强,使得输出过程不至于忘记中间段落,避免了大量的人工检查、提示与手动补充。

不过,通过尝试,我也发现了 Kimi Chat 的一些问题。比如在指令理解方面,我认为 Kimi Chat 还有改进空间,例如我明明要求逐段处理,它却一次性整体输出了;另外在处理所有输入的 PDF 时,它第一次也遗漏了 5 篇中的 2 篇文献。好在我相信随着模型的快速迭代,这些问题会得到有效解决。

这款应用目前是免费的。注册和使用都非常简单,只需要手机验证。为什么不立刻尝试一下呢?

欢迎你把自己的尝试结果,分享在留言区。我们一起交流讨论。

点赞 +「在看」,转发给你身边有需要的朋友。收不到推送?那是因为你只订阅,却没有加星标

欢迎订阅我的小报童付费专栏,每季度更新不少于10篇文章。订阅一整年价格优惠。

如何用 AI 给科研提速?超长对话记忆 Kimi Chat 体验_第32张图片

如果有问题咨询,或者希望加入社群和热爱钻研的小伙伴们一起讨论,订阅知识星球吧。不仅包括小报童的推送内容,还可以自由发帖与提问。之前已经积累下的帖子和问答,就有数百篇。足够你好好翻一阵子。知识星球支持72小时内无条件退款,所以你可以放心尝试。

如何用 AI 给科研提速?超长对话记忆 Kimi Chat 体验_第33张图片

若文中部分链接可能无法正常显示与跳转,可能是因为微信公众平台的外链限制。如需访问,请点击文末「阅读原文」链接,查看链接齐备的版本。 

延伸阅读

  • 更长的 GPT-4 对话 token 上限,如何影响我的翻译工作流?

  • 一款笔记工具用着很好,但有部分功能不满足我的需求,怎么办?

  • 笔记本上就能跑的 LLM 好使吗?GPT-4ALL 体验

  • 如何用语音记临时笔记?

  • 如何用 ChatGPT 和你的卡片笔记对话?开源应用 Quivr 尝试

你可能感兴趣的:(人工智能)