最早开始于1950 年,阿兰图灵发表了“计算机器与智能”。
人工智能(Artificial Intelligence
),英文缩写为AI
。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。人工智能利用计算机和机器模仿人类思维的问题解决和决策制定能力。 AI 是一个非常广泛的领域,涵盖了很多子领域,如机器学习、计算机视觉、语音识别、自然语言处理等。
人工智能发展三要素:数据、算法、计算力(CPU,GPU,TPU)其中CPU主要适合IO密集型任务,GPU主要适合计算密集型任务。计算密集的程序:所谓计算密集型的程序,就是其大部分运行时间花在寄存器运算上,寄存器的速度和处理器的速度相当,从寄存器读写数据几乎没有延迟,可做一下对比,读取内存的延迟大概几百个时钟周期,读硬盘的速度就不说了,即使是ssd,也是很慢的。
人工智能、机器学习和深度学习 覆盖的技术范畴是逐层递减的。人工智能是最宽泛的概念。机器学习是当前比较有效的一种实现人工智能的方式。深度学习是机器学习算法中最热门的一个分支,近些年取得了显著的进展,并替代了大多数传统机器学习算法。
数据科学是一门多学科交叉的综合学科,包含数据获取、数据分析、数据管理、机器学习、统计优化和数据可视化等内容,逐渐成为探明大数据集本源,并把大数据转换成可执行智能的有效方法。
数据挖掘不是新产生的东西,它在很多年前就被提出了。随着近几年人工智能领域受到关注,数据挖掘也开始被人提起。数据挖掘是指从大量的数据中通过算法搜索隐藏于其中信息的过程。数据挖掘通常与计算机科学有关,并通过统计、在线分析处理、情报检索、机器学习、专家系统(依靠过去的经验法则)和模式识别等诸多方法来实现上述目标。
NLP是自然语言处理的缩写,是指使用计算机科学和人工智能技术处理和分析人类自然语言的一种技术。现代NLP是一门融合了语言学、计算机科学和机器学习的混合学科。它旨在让计算机能够理解、处理和生成人类所使用的自然语言。NLP可应用于文本分类、信息提取、机器翻译、语音识别、情感分析、问答系统、自然语言生成等众多领域。
它的工作原理是这样的:
简而言之,这就是一个创建算法的过程。
经典的或“非深度”的机器学习更依赖于人类的干预进行学习。人类专家确定特征的层次结构,以了解数据输入之间的差异,通常需要更多结构化数据以用于学习。
模型参数是模型内部的配置变量,其值可以从数据中估计出来。参数是机器学习算法的关键。它们是从历史训练数据中学习到的模型的一部分。
可将深度学习视为“可扩展的机器学习”。
深度学习中的“深度”指的是由三层以上的神经网络组成,包括输入和输出,可以被认为是一种深度学习算法。
深度学习和机器学习的不同之处在于每个算法的学习方式。 深度学习可以自动执行过程中的大部分特征提取,消除某些必需的人工干预,并能够使用更大的数据集。
"深度"机器学习则可以利用标签化数据集,也称为监督式学习,来确定算法,但不一定必须使用标签化数据集。 它可以原始格式(例如文本、图像)采集非结构化数据,并且可以自动确定区分不同类别数据的特征的层次结构。
TensorFlow 是由 Google 团队开发的深度学习框架之一,它是一个完全基于 Python 语言设计的开源的软件。TensorFlow 的初衷是以最简单的方式实现机器学习和深度学习的概念,它结合了计算代数的优化技术,使它便计算许多数学表达式。
神经网络是深度学习的基础,它是由多个神经元组成的网络,每个神经元接收来自其他神经元的输入,并通过激活函数将这些输入转换为输出。神经网络可以通过反向传播算法来训练,从而优化网络的权重和偏置,使其能够更好地拟合数据。
神经网络,也称为人工神经网络 (ANN) 或模拟神经网络 (SNN),是机器学习的一个子集,也是深度学习算法的核心。 其名称和结构均受到人脑的启发,可模仿生物神经元相互传递信号的方式。
人工神经网络 (ANN) 由节点层组成,包含一个输入层、一个或多个隐藏层和一个输出层。 每个节点也称为一个人工神经元,它们连接到另一个节点,具有相关的权重和阈值。 如果任何单个节点的输出高于指定的阈值,那么该节点将被激活,并将数据发送到网络的下一层。 否则,不会将数据传递到网络的下一层。
神经网络依靠训练数据来学习和随时间推移提高自身精度。 然而,这些学习算法经过精度调优后,就会成为计算机科学和人工智能领域中的强大工具,可支持我们快速进行数据分类和分组。 语音识别或图像识别方面的任务可能仅需几分钟即可完成,而由人类专家手动识别可能需要数小时时间。 最著名的神经网络之一是 Google 的搜索算法。
大语言模型(Large Language Model
,缩写LLM),也称大型语言模型,是一种人工智能模型,旨在理解和生成人类语言。它们在大量的文本数据上进行训练,可以执行广泛的任务,包括文本总结、翻译、情感分析等等。LLM的特点是规模庞大,包含数十亿的参数,帮助它们学习语言数据中的复杂模式。这些模型通常基于深度学习架构,如转化器,这有助于它们在各种NLP任务上取得令人印象深刻的表现。
LLM 是经过大量文本数据训练的神经网络。训练过程允许模型学习文本中的模式,包括语法、句法和单词关联。这些模型使用这些学习到的模式来生成类似人类的文本,使其成为自然语言处理(NLP)任务的理想选择。
拿 GPT(Generative Pre-trained Transformer)
来说, GPT 其实出现了好几代,GPT 3 它有 45 TB
的训练数据,那么整个维基百科里面的数据只相当于他训练数据的 0. 6%。我们在这个训练的时候把这个东西称作语料,就语言材料,这个语料的量是可以说是集中到我们人类所有语言文明的精华在里面,这是一个非常非常庞大的一个数据库。
经过这样的一个量的学习之后,它产生的一些就是做 AI 的这些计算机学家们,他们没有想到会有这种变化,无法合理解释这一现象的产生即——当数据量超过某个临界点时,模型实现了显著的性能提升,并出现了小模型中不存在的能力,比如上下文学习(in-context learning)。就引起了两个问题,各大AI巨头提高训练参数量以期达到更好的效果,由于质变原因的无法解释带来的AI安全性考量。
大语言模型涌现的能力
就是 自动化机器学习, auto machine learning