第四范式发布「式说」大模型,以生成式AI重构企业软件(AIGS)

4月26日,第四范式首次向公众展示其大模型产品「式说3.0」,并首次提出AIGS战略(AI-Generated Software):以生成式AI重构企业软件。式说将定位为基于多模态大模型的新型开发平台,提升企业软件的体验和开发效率,实现「AIGS」。

第四范式发布「式说」大模型,以生成式AI重构企业软件(AIGS)_第1张图片

第四范式创始人兼CEO戴文渊表示:“C端产品已经逼近用户体验的上限,而B端的企业级软件往往是个十分复杂的执行系统,堆砌十几层菜单和成千上万功能也不算多。”

戴文渊认为,目前B端软件极为复杂的交互体验,以及复杂性带来的极低开发效率,恰恰为生成式AI留下足够大的重构和改造空间。

“过去很难通过人类语言(自然语言)的方式去调用企业软件的功能,现在当我们有更强的语义理解和生成能力,再加上GPT任务翻译、任务分发和推理的能力,就可以通过更好的「对话框式」交互方式实现功能的调用,不再需要找到某个位于十几级的菜单目录之下的功能。”

这背后是式说大模型的能力。第四范式现场拔网线(切断公网、访问内网集群,展示了式说大模型的多轮对话、迅速画图、理解总结等能力,以及写代码的能力。

此外,式说现场通过推理能力,完成了更加复杂的集装箱装箱操作。式说首先列举了装箱的思路,任意修改堆叠物体的长宽高,很快就能自动计算出堆叠的最优结果,还会额外展示出一段推理过程

在戴文渊看来,要做到AIGS,大模型未必需要是知识广博、十项全能冠军的通才,更重要的在于模型具备Copilot(副驾舱),和思维链CoT(Chain of Thoughts,多步推理的能力。

“要去改造企业软件,大模型不能只有语言能力。式说2.0就加入了多模态和Copilot,因为很多企业软件里的数据是多模态的,而Copilot能把人的指令翻译成要调用后台的哪个API。”此前发布的式说2.0的Demo中,门店员工通过语音、文本等交互方式向式说发起指令,式说理解后,联网门店监控软件调出后厨未戴口罩的图片,并直接将图片以对话框的形式输出给员工。

大模型去调用软件内置的一个个功能、数据来「对话框式」完成任务,已经能产生巨大价值。但员工用企业软件时也会面临复杂任务,需要人按照顺序执行一个个功能。

因此,式说3.0强调的是Copilot加上思维链CoT,具有更强的推理能力,在学习大量数据和“攻略”后,能形成中间的逻辑推理步骤,从而做到拆分并执行复杂工作。

例如在航空制造业,软件设计人员只需要上传一些图片,即可提出要求让“式说”在上百万零件库中找出相似零件,并进行自动组装:

在某医疗行业的实际演示中,式说的“思维链”还能清晰指导医药代表销售药品。

第四范式将AIGS的路径总结为三个阶段:

  • 第一阶段,Copilot 调动不同的信息、数据、应用,作为助手完成用户的指令。相当于在所有企业级软件系统里,配备一个指挥官。指挥官听用户的指挥,比如「把照片亮度调亮 20%」。

  • 第二阶段,Copilot + 基于企业规则的「知识库」,AI 能够参照规则做复杂工作,进一步丰富了「对话框」的能力。比如 AI 查询了「人像美化」知识库后,能执行把照片修好看的步骤。

  • 第三阶段,Copilot+CoT(思维链)。软件系统的使用行为最终会被大模型学会,形成 AI 针对这个领域的思维链,意味着「把照片处理得更好看」这种复杂指令,AI 能自动地按照步骤完成。

AIGS战略就是指基于大模型背后的Copilot+CoT能力,把企业软件改造成新型的交互范式,并在新型交互上不断地学习软件的使用过程,形成领域软件的“思维链”。

最终,由于新的交互形式的出现,企业软件的开发效率变得更高。以前是功能和执行逻辑被编排在软件界面,涉及产品、UI、开发等多个环节,每次一个功能升级都是月级别的开发周期。而现在由于「对话框式」的界面是固定的,功能和逻辑被改写在数据、API和内容层面,变成了天级别的开发效率

值得一提的是,在式说3.0发布现场,来自航空制造、金融、医疗等行业的客户代表出席并做产品的live demo演示,众多企业与合作伙伴已经与范式在生成式AI方面开展了深度合作。式说作为基于大模型的新型开发平台,期待与更多合作伙伴与企业级客户一起,探索以生成式AI重构企业软件的机会,共同提升企业软件的易用性和生产力。

你可能感兴趣的:(人工智能,重构)