Sophon Base 3.1 推出MLOps功能,为企业AI能力运营插上翅膀

image.png
在国内政策引导、企业产业智能升级的原生需求和疫情等多重因素作用下,中国的人工智能产业化应用在过去的5年间呈现出无可比拟的增长速度。然而随着人工智能和机器学习在企业各个业务层面的应用日渐深化,模型类型和数量也都呈快速增长态势。由于不同模型之间的训练框架、部署模式、输入输出都不相同,导致异构模型难以被统一管理。同时,各部门间缺少统一的模型从开发到上线的标准化流程规范,导致模型资产散落在各个业务部门,难以被统一纳管为企业数据资产。不断增加的模型管理成本和运维复杂度,以及生产环境的不可控风险,给企业模型管理带来了一系列挑战。

为解决AI落地难的问题,星环科技的AI团队从用户需求端出发,倾力研发了一款基于云原生架构的企业级AI能力运营平台Sophon MLOps,助推AI模型落地。Sophon MLOps 是基于云原生架构构建的企业级AI能力运营平台,聚焦于机器学习模型全生命周期中的模型管理、模型部署、模型监控预警、模型评估和模型迭代等关键环节。通过统一纳管、统一运维、统一应用、统一监控、统一评估、统一解释,赋予企业客户易用、高效且安全可靠的AI能力运营服务,协助客户规模化管理日益增长的机器学习模型,提升模型使用效率,降低模型集成管理成本,控制模型生产环境风险。

Sophon Base 3.1 推出MLOps功能,为企业AI能力运营插上翅膀_第1张图片

Sophon MLOps针对企业AI运营的痛点,围绕企业AI模型接入、运营管理、持续训练的全生命周期,分别提供规模化集成管理、高效模型推理、模型监控预警、模型性能评估、隐私安全保障等功能,为企业的AI日常运营插上翅膀。

Sophon Base 3.1 推出MLOps功能,为企业AI能力运营插上翅膀_第2张图片

此次更新,MLOps升级至v1.1版本,在已有功能上新增功能如下:

  • 新增模型服务批量预测功能:完善了应用场景,功能覆盖范围从原有的仅支持在线实时预测,升级为同时支持在线与离线两种模式。离线批量预测功能支持通过直接连接数据库,获取批量数据进行模型预测,并将结果写回相应库表内,实现闭环;
  • 新增模型服务数据偏移指标监控功能:强化了模型服务在监控预警方面的能力,致力于帮助用户更全面掌握机器学习模型服务的运行状态,并通过自定义监控指标及时发现处理异常情况,规避因数据偏移等原因引起的风险;
  • 新增模型服务监控指标配置及告警功能;
  • 新增服务发布审批流程管理;
  • 新增可解释机器学习XAI模块(MVP版):可处理数据分析过程中的相关性解释、过程性解释、推理性解释和因果性解释问题。用户可以精细地分析特征与结果之间的影响关系,帮助用户精准地提升DataCentric-AI数据治理能力,针对性优化模型精度,帮助用户快速定位、优化影响业务结果的重要因子,从而促使业务成功。

在金融科技行业,随着监管政策的不断收紧,银保监会于2020年7月正式出台了《商业银行互联网贷款管理行办法》,要求商业银行落实模型从开发测试、评审、监测到退出的全生命周期的风险管理。一方面为满足监管合规要求,另一方面提升行内风险模型的管理效率,银行要求对模型全生命周期进行统一管理。此外,随着行内业务的持续发展,大量异构AI模型资产散落在各部门,一旦需要使用,调参和部门间协调均使得模型部署周期拉长。

Sophon Base 3.1使用MLOps搭建了全行统一的AI模型管理平台,快速接入行内积累的不同框架或平台训练生成的大量模型文件,按版本集成管理模型资产;并建立标准化流程,统一构建模型推理逻辑的方式,支持零代码一键部署模型应用。基于云原生基础架构,打通模型全生命周期流程,实现了银行对模型应用的统一运维和监控。

Sophon Base 3.1 推出MLOps功能,为企业AI能力运营插上翅膀_第3张图片

平台上线后,Sophon Base集成了全行多种算法框架生成的数百个机器学习模型。部署模型应用的平均时间由1.5天降至0.5小时,配置成本降低近80%,使模型的平均迭代周期由1月降至1周。模型效率方面,支持上百个模型预测服务同时在线,单条数据实现毫秒级响应。

Sophon MLOps打通了AI的全生命周期,为企业的各类用户角色搭建了统一的AI协作平台。对于企业而言,MLOps规模化集成管理了多源异构的机器学习模型,并提供高效且保障隐私安全的模型推理、监控预警及性能评估服务;对用户而言,能感受到操作上的快捷,AI应用与部署更是如虎添翼。未来,MLOps将继续迭代更加丰富的功能,赋能企业AI更快、更好地落地。

你可能感兴趣的:(大数据)