更多精彩内容:
https://www.nvidia.cn/gtc-global/?ncid=ref-dev-876561
AI 应用程序正在总结文章、撰写故事和进行长时间对话——而大型语言模型正在承担繁重的工作。
大型语言模型或 LLM 是一种深度学习算法,可以根据从海量数据集中获得的知识来识别、总结、翻译、预测和生成文本和其他内容。
大型语言模型是 Transformer 模型最成功的应用之一。 它们不仅用于教授 AI 人类语言,还用于理解蛋白质、编写软件代码等等。
除了加速自然语言处理应用程序——如翻译、聊天机器人和人工智能助手——大型语言模型还用于医疗保健、软件开发和许多其他领域的用例。
语言不仅仅用于人类交流。
代码是计算机的语言。 蛋白质和分子序列是生物学的语言。 大型语言模型可以应用于需要不同类型通信的语言或场景。
这些模型拓宽了 AI 在各行各业和企业中的应用范围,并有望引发新一轮的研究、创造力和生产力浪潮,因为它们可以帮助为世界上最棘手的问题生成复杂的解决方案。
例如,使用大型语言模型的人工智能系统可以从分子和蛋白质结构数据库中学习,然后利用这些知识提供可行的化合物,帮助科学家开发突破性的疫苗或治疗方法。
大型语言模型还有助于创建重新构想的搜索引擎、辅导聊天机器人、歌曲、诗歌、故事和营销材料等的创作工具。
大型语言模型从大量数据中学习。 顾名思义,LLM 的核心是它所训练的数据集的大小。 但随着人工智能的发展,“大”的定义也在不断扩大。
现在,大型语言模型通常是在足够大的数据集上训练的,这些数据集几乎可以包含很长一段时间内在互联网上编写的所有内容。
如此大量的文本被输入到使用无监督学习的 AI 算法中——当一个模型被赋予一个数据集而没有关于如何处理它的明确指示时。 通过这种方法,大型语言模型可以学习单词,以及它们之间的关系和背后的概念。 例如,它可以根据上下文学习区分“bark”一词的两种含义。
正如掌握一门语言的人可以猜测句子或段落中接下来会出现什么——甚至自己想出新词或概念——大型语言模型可以应用其知识来预测和生成内容。
大型语言模型也可以针对特定用例进行定制,包括通过微调或提示调整等技术,这是为模型提供少量数据以供关注的过程,以针对特定应用对其进行训练。
由于其在并行处理序列方面的计算效率,transformer 模型架构是最大和最强大的 LLM 背后的构建块。
大型语言模型正在开启搜索引擎、自然语言处理、医疗保健、机器人技术和代码生成等领域的新可能性。
流行的 ChatGPT AI 聊天机器人是大型语言模型的一种应用。 它可以用于无数的自然语言处理任务。
LLM 几乎无限的应用还包括:
在生产环境中高效运行这些大型模型需要大量资源并需要专业知识等挑战,因此企业转向 NVIDIA Triton 推理服务器,该软件可帮助标准化模型部署并在生产环境中交付快速且可扩展的 AI。
2020 年 6 月,OpenAI 发布了 GPT-3 作为一项服务,该服务由一个 1750 亿参数的模型提供支持,该模型可以生成带有简短书面提示的文本和代码。
2021 年,NVIDIA 和微软开发了 Megatron-Turing 自然语言生成 530B,这是世界上最大的阅读理解和自然语言推理模型之一,可简化摘要和内容生成等任务。
HuggingFace 去年推出了 BLOOM,这是一种开放的大型语言模型,能够以 46 种自然语言和十几种编程语言生成文本。
另一个 LLM,Codex,将文本转换为软件工程师和其他开发人员的代码。
NVIDIA 提供了一些工具来简化大型语言模型的构建和部署:
扩展和维护大型语言模型可能既困难又昂贵。
构建基础大型语言模型通常需要数月的训练时间和数百万美元。
而且由于 LLM 需要大量的训练数据,开发人员和企业会发现访问足够大的数据集是一项挑战。
由于大型语言模型的规模,部署它们需要技术专长,包括对深度学习、转换器模型和分布式软件和硬件的深刻理解。
许多技术领域的领导者正在努力推进开发和构建资源,以扩大对大型语言模型的访问,让各种规模的消费者和企业都能从中获益。
更多精彩内容:
https://www.nvidia.cn/gtc-global/?ncid=ref-dev-876561