每日一看大模型新闻(2023.11.15)大模型「幻觉」,看这一篇就够了 | 哈工大华为出品;零一万物公布对Yi-34B训练过程;英伟达合作微软推出AI代工服务

1.产品发布

1.1 Adobe将推出分离背景噪音的AI音频工具

发布日期:2023-11-15

Adobe is using AI to break apart messy audio - The Verge

主要内容:Adobe在开发Project Sound Lift的新音频工具,该工具使用AI将掌声等元素与人的声音分离。用户可以将音频文件导入到应用程序中,选择希望该工具过滤掉的声音,包括掌声、笑声、闹钟、演讲、人群、交通和打字等。Project Sound Lift将自动检测每种声音并生成单独的文件,用户可以在Adobe Premiere Pro中单独导入和编辑每个轨道,从而调整背景噪音的音量,同时增强主轨道的清晰度。该功能的推出时间尚不确定。

1.2面壁智能:发布AI Agents首个SaaS级产品ChatDev

发布日期:2023-11-15

面壁智能打造首个“大模型+Agent” SaaS级产品ChatDev

主要内容:面壁智能已经推出了基于群体智能和其新一代千亿参数大模型 "CPM-Cricket" 的智能软件开发平台 "面壁智能 ChatDev"。这个平台是行业内首次使用 AI Agents 技术进行群体智能协作的 SaaS 平台产品,能够让软件开发者和创新创业者更高效地完成软件开发工作,并且成本和门槛更低。此外,面壁智能还对其 CPM 系列基座模型进行了升级,使其具有更强的逻辑推理和语言理解能力。根据权威测试,"CPM-Cricket" 在多个方面的能力都超过了 Llama 2,在公考行测和 GMAT 试题上的表现也与 GPT-4 相当。

ChatDev申请试用地址:ChatDev

2.技术更新

2.1大模型「幻觉」,看这一篇就够了 | 哈工大华为出品

发布日期:2023-11-15

LLM幻觉问题全梳理!哈工大团队50页综述重磅发布 - 知乎

主要内容:哈尔滨工业大学和华为的研究团队发表长达50页的综述,深入剖析通用型LLMs在专业领域中存在的幻觉问题,指出数据质量、知识边界限制等是主要原因,并呼吁提高数据质量、增强模型学习能力。

论文地址:arxiv.org/pdf/2311.05232.pdf

2.2 S-LoRA:一个GPU运行数千大模型成为可能

发布日期:2023-11-15

S-LoRA:一个GPU运行数千大模型成为可能-51CTO.COM

主要内容:大语言模型的部署通常采用预训练和微调的模式,但针对多个任务进行微调时,成本会变得很高。为了解决这个问题,研究者提出了一种名为S-LoRA的新微调方式。S-LoRA是专为大量LoRA适配程序的可扩展服务而设计的系统,它将所有适配程序存储在主内存中,并将当前运行查询所使用的适配程序取到GPU内存中。S-LoRA采用了统一分页技术,使用统一的内存池来管理不同等级的动态适配器权重和不同序列长度的KV缓存张量。此外,S-LoRA还采用了新的张量并行策略和高度优化的定制CUDA内核,以实现LoRA计算的异构批处理。因此,S-LoRA能够为许多特定任务的微调模型提供可扩展的服务,并为大规模定制微调服务提供了潜力。

论文地址:https://arxiv.org/pdf/2311.03285.pdf

项目地址:GitHub - S-LoRA/S-LoRA: S-LoRA: Serving Thousands of Concurrent LoRA Adapters

2.3宝可梦为旗下AR游戏添加生成式AI功能

发布日期:2023-11-15

Niantic is using AI to make Peridot’s fake pets feel more real - The Verge

主要内容:Pokémon Go(宝可梦)的开发商Niantic正在为他们的原创AR游戏Peridot引入生成式AI技术,以使虚拟宠物在游戏中表现得更加真实。Niantic的算法会分析手机摄像头捕捉到的现实世界物体,并将其转换为可以由Llama 2等大型语言模型(LLM)解析的单词。此外,每个宠物都有自己的个性档案,LLM将分析它们的个性特点,并计算它们与周围物体互动的方式

2.4微软推出定制AI芯片,解脱GPU限制

发布日期:2023-11-15

推出两款自研定制芯片后,微软能摆脱对英伟达的依赖吗?_腾讯新闻

主要内容:微软在年度开发者大会上推出了两款自研芯片Maia 100和Azure Cobalt 100,用于大语言模型的训练和推理。这两款芯片填补了微软与谷歌、亚马逊在定制芯片方面的差距。Maia 100是针对大语言模型训练的ASIC芯片,而Azure Cobalt 100是基于Arm架构的云原生芯片,用于通用计算任务。微软计划将这两款芯片用于自己的订阅软件产品和Azure云计算服务。此举被认为是大型软硬件科技公司向上延展的重要一步。

2.5微软Azure AI推出多项更新

发布日期:2023-11-15

https://blogs.microsoft.com/blog/2023/11/15/microsoft-ignite-2023-ai-transformation-and-the-technology-driving-change/

主要内容:微软在年度IT专业人士和开发者大会Ignite上宣布Azure AI的多项更新。这些更新包括:推出Azure AI Studio公开预览版,简化生成式AI应用程序开发,提供GPT-4等OpenAI模型以及各种其他先进的模型和服务推出Azure AI搜索中的矢量搜索和语义排名器,提供了全面的矢量数据库解决方案,可在安全的企业级环境中存储、索引、查询、筛选和检索AI数据,并利用高级语言模型来提高搜索结果的相关性和质量;本月底,在Azure OpenAI服务中,具有16K Token提示长度的新GPT-3.5 Turbo模型将全面上市,GPT-4 Turbo模型将公开预览;带有视觉功能的GPT-4 Turbo即将推出预览版,DALL-E 3现已在Azure OpenAI中公开预览。

2.6零一万物公布对Yi-34B训练过程

发布日期:2023-11-15

零一万物对 Yi-34B 训练过程的说明

主要内容:零一万物在微信公众号发文,对Yi-34B训练过程作出回应。零一万物表示,大模型的持续发展和寻求突破的核心在于训练得到的参数,而不仅仅是架构。他们从零开始训练了Yi-34B和Yi-6B模型,并重新实现了训练代码,使用自建的数据管线构建了高质量的训练数据集。此外,在基础设施方面进行了算法、硬件和软件的联合端到端优化,实现了训练效率的大幅提升和强大的容错能力等原创性突破。这些系统性的科学训练模型工作往往比基本模型结构本身具有更大的作用和价值。

对于之前的争议,零一万物做出回应称,在初次开源过程中,他们发现使用与开源社区普遍使用的Llama架构对开发者更友好。关于沿用部分Llama推理代码并经过实验更名的疏忽,他们表示原始出发点是为了充分测试模型,并非刻意隐瞒来源。零一万物解释了这一情况,并表达了诚挚的歉意。他们正在重新提交模型和代码,并补充Llama协议副本的流程,承诺尽快完成各开源社区的版本更新

开源社区讨论参考:

https://huggingface.co/01-ai/Yi-34B/discussions/11#6553145873a5a6f938658491

3.商业动态

3.1滴滴组建大模型团队,将落地部分个人出行和企业差旅场景

发布日期:2023-11-15

滴滴组建大模型团队,将落地部分个人出行和企业差旅场景|智涌独家

主要内容:滴滴最近内部成立了一个大模型团队。该团队由滴滴出行地图与公交事业部的负责人、算法委员会轮值主席柴华担任技术负责人。滴滴的大模型将应用于个人出行和企业差旅场景,旨在提升用户的差旅和出行规划效率。据了解,柴华在加入滴滴之前在阿里巴巴和百度工作了7年,拥有丰富的互联网地图、机器学习和人工智能等技术方向的经验。

3.2 ChatGPT Plus暂停新订阅

发布日期:2023-11-15

https://twitter.com/sama/status/1724626002595471740?s=20

主要内容:OpenAI的首席执行官萨姆·奥特曼在社交平台X上宣布,由于开发者大会后使用量激增,超过了OpenAI的能力范围,因此暂停新的ChatGPT Plus订阅。OpenAI希望确保每个用户都能获得良好的体验。虽然Plus订阅暂时无法注册,但用户仍可以在应用程序内进行注册,以便在重新开放时收到通知。

3.3 Tech Spark AI融资140万美元,Spark Plug致力于成为ChatGPT的黑人拥有的替代品

发布日期:2023-11-15

Yahoo

主要内容:多伦多的AI公司Tech Spark AI完成了140万美元的前种子轮融资,用于开发Spark Plug,这是一款旨在成为ChatGPT替代品的生成式人工智能平台。该平台关注黑人和有色社区,首个版本允许用户将经典文学翻译为非洲裔美国人的俚语英语。Spark Plug的语言模型由创始人Tamar Huggins的Gen Z女儿、哈莱姆文艺复兴时期的作者以及民权运动的活动家进行训练。该平台旨在重新设计学习体验,使其更加个性化和具有文化响应性。

3.4英伟达合作微软推出AI代工服务

发布日期:2023-11-15

NVIDIA Introduces Generative AI Foundry Service on Microsoft Azure for Enterprises and Startups Worldwide | NVIDIA Newsroom

主要内容:英伟达(NVIDIA)宣布推出一项AI代工服务,旨在为部署在微软Azure上的企业和初创公司增强自定义生成式AI应用程序的开发和调整。该服务集成了英伟达AI基础模型、英伟达NeMo框架和工具、英伟达DGX Cloud AI超级计算服务,为企业提供了端到端的解决方案,用于创建自定义生成AI模型。企业可以使用英伟达AI企业版软件部署自定义模型,以支持生成式AI应用程序,包括智能搜索、摘要和内容生成。SAP SE、Amdocs和Getty Images是首批使用该服务构建自定义模型的企业。

4.其他资讯

4.1 Stability AI 副总裁发表公开辞职信

发布日期:2023-11-15

Why I just resigned from my job in generative AI. - Music Business Worldwide

主要内容:Stability AI音频副总裁Newton-Rex在音乐新闻网站Music Business Worldwide上发表了一封公开辞职信。他表示不同意公司在受版权保护的作品上,进行训练AI的立场,因此刚刚辞去了Stability AI音乐团队领导职务。Newton-Rex表示自己是生成式AI的支持者,这也是他为该领域工作了13年的原因,但他不会在未经许可的情况下通过训练模型来剥削创作者。他还呼吁其他人能够在内部或公开场合发声,以便公司认识到剥削创作者,并非生成式AI的长期解决方案。

4.2李彦宏:AI原生时代,两个冷思考和三个热驱动

发布日期:2023-11-15

李彦宏谈AI原生时代:两个冷思考和三个热驱动|李彦宏|AI_新浪科技_新浪网

主要内容:在2023西丽湖论坛上,百度创始人、董事长兼首席执行官李彦宏发表了关于中国AI行业的观点。他认为,虽然中国已经发布了238个大模型,但基于这些大模型开发的AI原生应用却很少。他提出了两个“冷思考”和三个“热驱动”。其中,“冷思考”指的是大模型数量过多,而AI原生应用过少;“热驱动”则强调强大的基础大模型可以推动AI原生应用的发展,同时AI原生应用也可以促进模型、芯片等AI技术栈的进步。李彦宏表示,当前最好的AI原生应用还未出现,只有通过更多的场景落地应用,才能形成更大的数据飞轮,从而让芯片做到够用和好用。

你可能感兴趣的:(人工智能,自然语言处理,prompt,数据分析,语言模型,gpt,embedding)