亚马逊云科技七项生成式AI新产品生成式AI,为用户解决数据滞后等难题

7月27日,亚马逊云科技在纽约峰会上一连发布了七项生成式AI创新,涵盖了从底层硬件到工具、软件、再到生态的全方位更新,成为它在该领域迄今最全面的一次升级展示,同时也进一步降低了生成式AI的使用门槛。

亚马逊云科技凭借自身端到端的实力向业界给出了一个独特的视角——源于亚马逊云科技丰富的终端业务场景(如电商零售、影音娱乐、云计算)、以用户为出发点考虑问题,这些生成式AI更新都是紧贴行业、为解决实际应用中的难题,并经过用户实际测试可行性后才推广的。

那么,生成式AI在实际应用层面存在哪些痛点呢?

 

数据的滞后性问题

亚马逊云科技七项生成式AI新产品生成式AI,为用户解决数据滞后等难题_第1张图片

 

在这次纽约峰会上,亚马逊云科技在AI平台上一项令人瞩目的更新Amazon Bedrock Agents可以解决开发中的复杂度难题。作为一项全托管的功能,这个代理可以自动分解任务并创建编排计划,无需手动编码。

它通过简单的API接口安全地连接企业内部数据,自动将最新数据转换为机器可读的格式,以生成最准确的回答,同时云服务的特性也让用户省去了开发者的系统集成管理和基础设施配置工作,整个过程中私有数据不会暴露给对外大模型。

这个设计理念和OpenAI发布的插件Plugin类似,可以让ChatGPT访问最新信息或者接入第三方服务来运行计算,比如赛事比分、股票实时交易价格、航班价格信息等。这也相当于给一部iPhone开发了App Store商店社区,极大丰富了它深入互联网的“触手”,以收集终端用户的反馈,再反哺给模型。

 

该选择哪个模型?

现在大模型发展如雨后春笋,企业开发者在面临选择时要考虑的因素越来越多,比如模型本身的算力、通用性、稳定性、模型的企业服务能力、全栈技术布局程度、与企业自身业务的匹配度等,最直接的是如何低成本、高效率地使用大模型。

不是一个模型就能完成所有的业务,但客户也没有必要了解所有模型后再选择合适自己的。亚马逊云科技就承担了精选模型这一环节。

今年4月份上线的全托管基础模型服务Amazon Bedrock反响良好,本次纽约峰会上这一服务也进行了重量级的扩展和更新,包括新增Cohere(英伟达领投的AI公司)作为基础模型供应商,并引入Anthropic(从OpenAI拆分出去的AI初创公司)和Stability AI(目前“文生图”领域一哥)的最新基础模型。

具体包括Cohere公司的旗舰级文本生成模型Command,可以更直观地生成、检索和汇总信息;Anthropic公司把最新的语言模型Claude 2接入到Amazon Bedrock,Claude 2可以在每个对话任务提示中最多标记10万个tokens,意味着它能处理数百页的文本;Stability AI公司在Amazon Bedrock上发布了最新版的文生图模型套件Stable Diffusion XL 1.0,比前一代具备更精细化的图像和构图细节。

这样,Amazon Bedrock这个开发平台上既提供了亚马逊云科技自研的模型Amazon Titan(包括Titan Text和Titan Embeddings),也汇集了越来越多的第三方模型,这个逐渐搭建起来的生态结合亚马逊云科技的底层稳定性,增强了开发者的使用黏性。

与此同时,开发者无需分心基础设施层面的事,通过API接口就可以访问这些行业领先的基础模型,以构建和扩展自己的AI应用程序,增加了客户选择模型的灵活度。

 

英伟达依赖?

这可以归结为一个成本考量问题。OpenAI目前最重要的一项任务是降低大模型训练成本,可见大模型是一个成本持续消耗的昂贵的生意,这传导给下游的模型调用者和应用企业,也会面临成本压力。

这在一定程度上受限于“英伟达依赖”。英伟达的GPU明星产品是全球公认的性能强大,但也是公认的贵,最近在eBay上最新H100芯片单价已经被炒到4万美元。据业内观察,英伟达A100、H100芯片供不应求,大多数被全球云计算大厂、有实力金主支持的AI创业公司(比如马斯克成立的AI公司)以及技术模型公司等买走了。

亚马逊云科技在本次纽约峰会上宣布Amazon EC2 P5实例正式可用,背后就是使用的英伟达最新H100 Tensor Core GPU芯片。与上一代基于GPU的实例相比,其训练时间最多可缩短6倍,直观印象是训练时间从几天缩短至几小时。这一性能提升可以帮助客户降低40%左右的训练成本。

在“一卡难求”的竞争局面下,亚马逊云科技与英伟达之间的战略合作关系可以保证后者芯片供应的稳定性和迭代及时性。对于那些性能和稳定性较敏感的客户,增加了一个选择亚马逊云科技的筹码。

而更具有未来战略意义的是自研芯片。由于英伟达GPU是通用型结构,在处理一些任务时并没做针对性的优化,亚马逊云科技坚持了自研芯片的道路,这是在云计算时代就已选择的策略,最早可追溯到2013年,比如它的Nitro芯片和通用处理器芯片Graviton。其他如谷歌、百度、阿里巴巴等云厂商也在走这条路,深入到底层去做定制化研发。

目前,亚马逊云科技可以用来跑大模型任务的两款自研芯片分别是训练芯片Trainium和新一代推理芯片Inferentia 2。前者与通用型GPU实例相比,可以为客户实现最高50%的训练成本节省;后者可以实现最高40%的性价比提升。亚马逊云科技一直以来是云服务降价的推动者,自提供云服务以来,它已经实现了129次降价。如今,在生成式AI时代,亚马逊云科技似乎也想延续这一策略,以价格传导机制给下游客户带来更多实惠。

通过最新发布可以看到,亚马逊云科技并未一味追求模型的大而全,而是从客户实际需求出发,持续降低客户使用大模型的门槛和成本。一方面,源于亚马逊云科技常年来在电商、云计算等多元场景中深入理解了C端和B端用户,以及各行业的规律,才有了这种实用性的客户视角;另一方面,这一目标的实现十分考验背后积累的端到端全栈技术能力,从底层芯片、框架、到工具软件、应用生态,亚马逊云科技在云时代端到端的积累正让它继续受益,成为这一轮生成式AI竞赛中的领导者。

你可能感兴趣的:(笔记,桥接模式,抽象工厂模式,依赖倒置原则,里氏替换原则)