人工智能课程必背知识点
一、必背填空题/名词解释
二、必背简答题
1.简述人工智能的研究现状与最新的研究成果。
A.目前研究人工智能的主要方法包括:深度学习、深度强化学习、进化计算、半/非监督训练、对抗式生成网络等等。典型的应用领域包括复杂优化与仿真、语音/图像识别、自然语言处理、机器人技术、机器博弈、动态控制技术、大数据分析等等。
B.一些具有里程碑的成果包括ImageNet大规模物体检测、人脸识别、自动驾驶、计算机围棋程(AlphaGO)、神经机器翻译、机器作画、聊天机器人、智慧医疗与教育、智能游戏等等。
2.什么是机器感知?
使机器(计算机)具有类似于人的感知能力。 以机器视觉与机器听觉为主。
3.人工智能的几大门派?
模拟人的心智—>符号学派—>知识表示
模拟脑的结构—>联结学派—>神经网络
模拟人的行为—>行为学派—>机器人
4.介绍人工智能各大门派?
5.20世纪60年代末,人工智能陷入低潮,是因为什么?
①在博弈方面,塞缪尔的下棋程序在与世界冠军对弈时,5局中败了4局。
②在定理证明方面,鲁滨逊归结法的能力有限。当用归结原理证明”两个连续函数之和还是连续函数”时,推了10万步也没证明出结果。
③在问题求解方面,由于过去的研究-般针对具有良好结构的问题,而现实世界中的问题多为不良结构,如果仍用那些方法去处理,将会产生组合爆炸问题。
④在机器翻译方面,原来人们以为只要有一本双解字典和一些语法知识就可以实现两种语言的互译,但后来发现并不那么简单,甚至会闹出笑话。例如,把"心有余而力不足"的英语句子"The spirit is willing but the flesh is weak"翻译成俄语,再由俄语翻译成英语时竟变成了“酒是好的,肉变质了”,即英语句子为”The wine is good but the meat is spoiled"。
⑤在神经生理学方面,研究发现人脑由10亿个神经元组成,按当时的技术条件用机器从结构上模拟人脑是根本不可能的。对单层感知器模型,明斯基出版的专著《Perceptrons》 中指出了其存在的严重缺陷,致使人工神经网络的研究落入低潮。
⑥在人工智能的本质、理论、思想和机理方面,人工智能受到了来自哲学、 心理学、神经生理学等社会各界的责难、怀疑和批评。
6.什么是知识表示?
知识表示是对知识的描述,即用一组符号把知识编码成计算机可以接受的某种结构
7.知识的特性
8.什么是人工智能学科?
一门研究如何构造智能机器(智能计算机) 或智能系统,使它能模拟、延伸、扩展人类智能的学科。
9.什么是强人工智能与弱人工智能?
强人工智能:有可能制造出真正能推理和解决问题的智能机器,并且它将被认为是有知觉的,有自我意识的,分为类人的人工智能、非类人的人工智能
弱人工智能:不可能制造出能真正地推理和解决问题的智能机器,这些机器只不过看起来像是智能的,但是并不真正拥有智能,也不会有自主意识
10.传统的知识表示方法有哪些(列举6个)?
11.数据、信息与知识的关系是什么?
有格式的数据经过处理、解释过程会形成信息,有关的信息关联到一起,经过处理过程形成知识
12.什么是P规则,什么是T规则?
P规则:在推理的任何步骤上都可引入前提。
T规则:推理时,如果前面步骤中有一个或多个公式永真蕴含公式S,则可把S引入推理过程中。
13.一阶谓词逻辑表示的优缺点
14.演绎推理与归纳推理的区别是什么?
演绎推理所得出的结论实际上早已蕴含在一般性知识的前提中,演绎推理只不过是将已有事实揭露出来,因此它不能增殖新知识。
归纳推理由个别事物或现象推出一般性知识的过程,是增殖新知识的过程。
15.什么是推理策略中的冲突消解?
当事实可以匹配多条规则时,如何从这些可用规则中选出一条最佳规则用于推理的策略
16.启发信息的作用?
A. 用于确定某些应该从搜索树中抛弃或修剪的节点
B. 用于决定要生成哪一个或哪几个后继节点
C. 用于决定应先扩展哪一个节点
17.深度优先与宽度优先搜索算法的区别?
深度优先将新扩展出来的节点放在OPEN表的前端,宽度优先将新扩展出来的节点放在OPEN表的后端
18.决定人工神经网络性能的三大要素?
A. 神经元的特性
B. 神经元之间的连接形式,即拓扑结构
C.学习规则
19.简述神经元模型工作过程是怎样的?
1、从各输入端接收输入信号,包括外界刺激与接收其它神经元的输出
2、根据连接权值求出所有输入的加权和
3、用非线性激励函数进行转换,得到输出
20.BP网络的优点与局限?
优点:
A. 很好的逼近特性
B. 具有较强的泛化能力
C. 具有较好的容错性
局限:
A. 计算量大,运算过程复杂
B. 通过Delta学习算法修正连接权值,会收敛到局部极小点
C. 最优隐层数与隐层神经元数不易确定
D.隐层多时,误差信号过小会影响权值的调整
21.请简要说明池化层的基本作用,以及池化操作的基本过程与常用方法?
池化层(Pooling Layer)也叫子采样层(Subsample Layer)或降采样(downsampling),其主要作用是利用子采样(或降采样)对输入图像的像素进行合并,得到池化层的特征图谱。
池化操作的一个重要概念是池化窗口或子采样窗口。所谓池化窗口是指池化操作所使用的一个矩形区域,池化操作利用该矩形区域实现对卷积层特征图像素的合并。
例如,一个88的输入图像,若采用大小为22的池化窗口对其进行池化操作,就意味着原图像上的4个像素将被合并为1个像素,原卷积层中的特征图经池化操作后将缩小为原图的1/4。
池化操作的基本过程是:从特征图的左上角开始,按照池化窗口,先从左到右,然后再从上向下,不重叠地依次扫过整个图像,并同时利用子采样方法进行池化计算。
常用的池化方法有最大池化(max pooling)法、平均池化(mean pooling)法和概率矩阵池化(stochastic pooling)法等。这里主要讨论最大池化法和平均池化法。
22.BP学习算法的基本思想是什么?
BP学习算法的基本思想是调整权值,使得神经网络的实际输出能够逼近样本与函数的实际输出。
23.请简要解释BP学习算法的正向传播与反向传播的含义?
正向传播:输入信息由输入层传至隐层,最终在输出层输出。
反向传播:修改各层神经元的权值,使误差信号最小
24.在BP学习算法实现时,应注意哪些问题?
(1)隐层数及隐层中神经元数的确定,无确定的指导方法,需要通过经验调整;
(2)初始权值的设置,一般设为一个均值为0的随机分所布初始权值;
(3)训练数据的预处理,常使用线性特征比例变换,把所有特征变换到[0,1],或者 [-1,1]区间之间,使得在每个训练集上,每个特征的均值为0,并且具有相同的方差。
(4)后处理过程,当应用神经网络进行分类操作时,通常把输出值编码成所谓的名义变量,具体的值对应类别符号
25.简述BP算法的实现过程
(1)初始化:对所有连接权和阈值赋以随机任意小值;
(2) 从 N 组输入输出样本中取一组样本:x=[x1, x2,…, xp1], d=[d1, d2,…,dpm], 把输入信息x=[x1, x2,…, xp1]输入到BP网络中 ;
(3)正向传播:计算各层节点的输出;
(4)计算网络的实际输出与期望输出的误差;
(5)反向传播:从输出层方向计算到第一个隐层,按连接权 值修正公式向减小误差方向调整网络的各个连接权值;
(6)让t+1→t,取出另一组样本重复(2)-(5),直到 N 组 输入输出样本的误差达到要求时为止。
26.请简要说明卷积操作的基本过程,以及什么是卷积核?
卷积(convolution)在卷积神经网络中的主要作用是实现卷积操作,形成网络的卷积层。
卷积操作的基本过程是:针对图像的某一类特征,先构造其特征过滤器(FF),然后利用该滤器对图像进行特征提取,得到相应特征的特征图( FM)。依此针对图像的每一类特征,重复如上操作,最后得到由所有特征图构成的卷积层。
特征过滤器也称为卷集核(Coiling Kernel,CK),它实际上是由相关神经元连接权值所形成的一个权值矩阵,该矩阵的大小由卷集核的大小确定。卷集核与特征图之间具有一一对应关系,一个卷集核唯一地确定了一个特征图,而一个特征图也唯一地对应着一个卷积核。