大规模数据训练超大参数量的巨量模型,被认为是实现通用人工智能的一个重要方向

  根据浪潮提供的测试数据,将源1.0模型生成的对话、小说续写、新闻、诗歌、对联与由人类创作的同类作品进行混合并由人群进行分辨,测试结果表明,人群能够准确分辨人与“源1.0”作品差别的成功率已低于50%。

  在零样本学习榜单中,“源1.0”超越业界最佳成绩18.3%,在文献分类、新闻分类,商品分类、原生中文推理、成语阅读理解填空、名词代词关系6项任务中获得冠军;在小样本学习的文献分类、商品分类、文献摘要识别、名词代词关系等4项任务获得冠军。在成语阅读理解填空项目中,源1.0的表现已超越人类得分。

  企业竞相发布 “大型语言模型”,原因在于AI技术普及的瓶颈。在开发效率上,AI应用开发太慢,阻碍了技术和需求的结合,而大模型被视为可行方向。“目前来看,通过大规模数据训练超大参数量的巨量模型,被认为是非常有希望实现通用人工智能的一个重要方向。”浪潮首席科学家王恩东认为。

  “大模型最重要的优势,是进入大规模可复制的产业落地阶段,只需小样本的学习,也能达到比以前更好的效果,而且模型参数规模越大,这种优势越明显,可大大降低各类用户的开发使用成本。”浪潮人工智能研究院首席科学家吴韶华说。

  在推广形式上,源1.0采用开源模式,面向高校、科研机构的人工智能方向的团队,以及浪潮合作伙伴和智能计算中心开放。吴韶华设想,源1.0从数据、API、代码这些方面来做开源开放。同时,浪潮还将与合作伙伴推动“源”在国产的芯片上应用的迁移和开发。

你可能感兴趣的:(人工智能,机器学习)