人工智能课程必背知识点

人工智能课程必背知识点

一、必背填空题/名词解释

  1. 图灵测试的目的是:验证机器是否有智能
  2. 中文屋子实验是为了证明 :即使通过图灵测试也不能说明计算机能思维
  3. 人工智能的近期目标:研究计算机如何实现那些只有靠人的智力才能做的工作
  4. 人工智能的终极目标是:探讨智能形成的机理,利用自动机模拟人的思维过程
  5. 机器感知:使机器(计算机)具有类似于人的感知能力。 以机器视觉与机器听觉为主。
  6. 知识表示:将人类知识形式化或者模型化
  7. 个体域:个体变元的取值范围,它可以是无限集
  8. 信息:是对数据的解释,在特定场合下的具体含义
  9. 知识:把有关信息关联在一起所形成的信息称为知识,是人类在长期的生活及社会实践、科学研究及实验中积累的认识与经验
  10. 数据:记录信息的符号,是信息的载体和表示
  11. 约束变元:辖域内与量词中同名的变元称为约束变元
  12. 辖域:位于量词后面的原子谓词或者用括号括起来的谓词公式
  13. 启发式知识:指与问题有关且能加快推理进程、求得问题最优解的知识。
  14. 自然演绎推理:从一组已知为真的事实出发,直接运用经典逻辑的推理规则推出结论的过程。
  15. 产生式系统:把一组产生式放在一起,一个产生式的结论可以供另一个产生式作为已知事实使用,以求得问题的解,这种系统称为产生式系统
  16. 纵向联系:具有继承关系的上下层框架之间的联系
  17. 匹配:在知识库的语义网络中寻找与待求解问题相符的语义网络模式
  18. 语义网络:通过概念及其语义关系来表达知识的一种有向图
  19. 前束形范式:谓词公式的所有量词均非否定地出现在公式的最前面,且它的辖域一直延伸到公式之末,同时公式中不出现连接词
  20. 斯克林范式:在前束范式的首标中不出现存在量词
  21. 文字:原子谓词公式及其否定称为文字
  22. 子句:任何文字的析取式称为子句,由子句构成的集合称为子句集。
  23. 空子句:不包含任何文字的子句称为空子句
  24. 归结式 :设C1与C2是子句集中的任意两个子句,且C1中的文字L1与C2中的文字L2互补,令:C12={C1-L1} ∨ {C2-L2},则称C12为C1与C2的归结式,C1、C2为C12的亲本子句,L1,L2称为消解文字
  25. 互补文字:若P是原子谓词公式,则称P和~P为互补文字
  26. 二元归结式:设C1、C2是两个无相同变元的子句,且L1、L2分别是C1、C2中的文字,若L1与~L2合一为σ,则称C12={C1σ-{L1σ}} ∪ {C2σ-{L2σ}}为C1与C2 的二元归结式
  27. 最一般合一(mgu):设σ是公式集F的一个合一,如果对于F的任何一个合一θ,都存在替换λ,使得:θ=σ·λ,则称σ是F的最一般合一
  28. 问题的解:从问题的初始状态集,经过一系统列的算符运算,到达目标状态,所经过算符的序列叫问题的解
  29. 问题归约:把一个复杂问题分解或变换为一组本原问题的过程称作问题归约
  30. 搜索:根据问题的实际情况,不断寻找可利用知识,从而构造一条代价最小的推理路线,使问题得以解决的过程
  31. 智能搜索:利用搜索过程得到的中间信息来引导搜索项最优方向发展的算法
  32. 启发信息:用于指导搜索过程且与具体问题求解有关的控制信息称为启发信息
  33. 估价函数:在扩展节点时,用来描述节点重要程度的函数称为估价函数,其一般形式为f(x)=g(x)+h(x)其中,g(x)为初始节点s0到节点x已实际付出的代价,h(x)为节点x到目标节点最优路径的估计代价
  34. 全局择优:从Open表的所有节点中选择一个估价函数值最小的进行扩展的A算法叫全局择优
  35. 局部择优:仅从刚生成的子节点中选择一个估价函数值最小的进行扩展的A算法叫局部择优
  36. 希望树 :在有序搜索中,应选择那些最有希望成为最优解树一部分的节点进行扩展。我们称这节点构成的树为希望树
  37. 博弈树:在博弈过程中,己方的各种攻击方案为“或”关系,对方的应对方案为“与”关系。描述博弈过程的“与/或”树就是博弈树
  38. α值:一个“或”节点取当前子节点的最大值作为其倒推值的下界
  39. β值:一个“与”节点取当前子节点的最小值作为其倒推值的上界
  40. β剪枝:“或”节点x的α值不能降低其父节点的β值,即 α≥β,则停止搜索节点x的其余子节点,并使x的倒退值为α。这种技术称为β剪枝。
  41. α剪枝:“与”节点x的值不能升高其父节点的α值,即 α≥β,则停止搜索节点x的其余子节点,并使x的倒退值为β。这种技术称为α剪枝。
  42. 机器学习:一般性解释:让计算机模拟和实现人类的学习功能;学科性解释:一门研究如何利用机器模拟和实现人类学习功能的学科
  43. 决策树:是一种由节点和边构成的用来描述分类过程的层次数据结构
  44. 信息熵:是对信息源整体不确定性的度量
  45. 信息增益:对两个信息量之间的差的度量
  46. 核函数:核函数是一种可以采用非线性映射方式,将低维空间的非线性可分问题映射到高维空间进行线性求解的基函数
  47. 单层前馈网络:指那种拥有单层计算节点的前向网络。仅含有输入层和输出层,且只有输出层的神经元是可计算节点
  48. 多层前馈网络:指那种除拥有输入、输出层外,还至少有一个或更多个隐含层的前馈网络
  49. 反馈网络:指允许采用反馈联结方式所形成的神经网络,即一个神经元的输出可以被反馈至同层或前层的神经元
  50. 单层感知器:只具有单层可调节连接权值神经元的前向网络,这些神经元构成了单层感知器的输出层,是感知器的可计算节点
  51. 多层感知器:在单层感知器的输入、输出层之间加入一层或多层处理单元所构成
  52. BP网络:误差反向传播网络
  53. 卷积核:由相关神经元连接权值所形成的一个权值矩阵

二、必背简答题
1.简述人工智能的研究现状与最新的研究成果。

A.目前研究人工智能的主要方法包括:深度学习、深度强化学习、进化计算、半/非监督训练、对抗式生成网络等等。典型的应用领域包括复杂优化与仿真、语音/图像识别、自然语言处理、机器人技术、机器博弈、动态控制技术、大数据分析等等。
B.一些具有里程碑的成果包括ImageNet大规模物体检测、人脸识别、自动驾驶、计算机围棋程(AlphaGO)、神经机器翻译、机器作画、聊天机器人、智慧医疗与教育、智能游戏等等。

2.什么是机器感知?

使机器(计算机)具有类似于人的感知能力。 以机器视觉与机器听觉为主。

3.人工智能的几大门派?

模拟人的心智—>符号学派—>知识表示
模拟脑的结构—>联结学派—>神经网络
模拟人的行为—>行为学派—>机器人

4.介绍人工智能各大门派?

  • 符号主义(逻辑主义)
    • 认知基础:认知的基元是符号,认知过程就是符号运算/推理,智能行为的充要条件是物理符号系统
    • 代表人物:纽厄尔、西蒙等(1956年达特茅斯会议)
    • 代表成果:人工定理证明、人工智能语言LISP、鲁滨逊归结原理、专家系统
  • 联结主义(仿生学派)
    • 认知基础:思维的基元是神经元,思维过程是神经元的连接活动
    • 代表人物及成果:麦克洛克与皮茨创立脑模型、单层感知机、霍普菲尔德提出的Hopfield网络模型、鲁梅哈尔特提出BP网络
  • 行为主义(进化主义)
    • 认知基础:认为人工智能起源于控制论,智能取决于感知和行为,取决于对外部环境的适应
    • 代表人物及成果:布鲁克斯研制的六脚机器虫

5.20世纪60年代末,人工智能陷入低潮,是因为什么?

①在博弈方面,塞缪尔的下棋程序在与世界冠军对弈时,5局中败了4局。
②在定理证明方面,鲁滨逊归结法的能力有限。当用归结原理证明”两个连续函数之和还是连续函数”时,推了10万步也没证明出结果。
③在问题求解方面,由于过去的研究-般针对具有良好结构的问题,而现实世界中的问题多为不良结构,如果仍用那些方法去处理,将会产生组合爆炸问题。
④在机器翻译方面,原来人们以为只要有一本双解字典和一些语法知识就可以实现两种语言的互译,但后来发现并不那么简单,甚至会闹出笑话。例如,把"心有余而力不足"的英语句子"The spirit is willing but the flesh is weak"翻译成俄语,再由俄语翻译成英语时竟变成了“酒是好的,肉变质了”,即英语句子为”The wine is good but the meat is spoiled"。
⑤在神经生理学方面,研究发现人脑由10亿个神经元组成,按当时的技术条件用机器从结构上模拟人脑是根本不可能的。对单层感知器模型,明斯基出版的专著《Perceptrons》 中指出了其存在的严重缺陷,致使人工神经网络的研究落入低潮。
⑥在人工智能的本质、理论、思想和机理方面,人工智能受到了来自哲学、 心理学、神经生理学等社会各界的责难、怀疑和批评。

6.什么是知识表示?

知识表示是对知识的描述,即用一组符号把知识编码成计算机可以接受的某种结构

7.知识的特性

  • 相对正确性:没有永远正确的知识
  • 不确定性:信息与关联是构成知识的两大要素
  • 可表示性:知识可以被表达
  • 可利用性:知识可以被利用

8.什么是人工智能学科?

一门研究如何构造智能机器(智能计算机) 或智能系统,使它能模拟、延伸、扩展人类智能的学科。

9.什么是强人工智能与弱人工智能?

强人工智能:有可能制造出真正能推理和解决问题的智能机器,并且它将被认为是有知觉的,有自我意识的,分为类人的人工智能、非类人的人工智能

弱人工智能:不可能制造出能真正地推理和解决问题的智能机器,这些机器只不过看起来像是智能的,但是并不真正拥有智能,也不会有自主意识

10.传统的知识表示方法有哪些(列举6个)?

  • 非结构化方法:
    一阶谓词逻辑
    产生式规则
  • 结构化方法:
    语义网络
    框架
  • 其它方法:
    状态空间法
    问题归约法

11.数据、信息与知识的关系是什么?

有格式的数据经过处理、解释过程会形成信息,有关的信息关联到一起,经过处理过程形成知识

12.什么是P规则,什么是T规则?

P规则:在推理的任何步骤上都可引入前提。

T规则:推理时,如果前面步骤中有一个或多个公式永真蕴含公式S,则可把S引入推理过程中。

13.一阶谓词逻辑表示的优缺点

  • 优点:
    • 自然:一种接近自然语言的形式语言系统
    • 明确:有一种标准的知识解释方法
    • 精确:谓词逻辑的真值只有”真“与”假“
    • 灵活:知识和处理知识的程序是分开的
    • 模块化:知识之间相对独立
  • 缺点:
    • 知识表示能力差:不能表示非确定性知识
    • 知识库管理困难:缺乏知识的组织原则
    • 存在组合爆炸:难以表示启发式知识
    • 系统效率低:把推理演算和知识含义完全分开

14.演绎推理与归纳推理的区别是什么?
演绎推理所得出的结论实际上早已蕴含在一般性知识的前提中,演绎推理只不过是将已有事实揭露出来,因此它不能增殖新知识。
归纳推理由个别事物或现象推出一般性知识的过程,是增殖新知识的过程。

15.什么是推理策略中的冲突消解?
当事实可以匹配多条规则时,如何从这些可用规则中选出一条最佳规则用于推理的策略

16.启发信息的作用?
A. 用于确定某些应该从搜索树中抛弃或修剪的节点
B. 用于决定要生成哪一个或哪几个后继节点
C. 用于决定应先扩展哪一个节点

17.深度优先与宽度优先搜索算法的区别?
深度优先将新扩展出来的节点放在OPEN表的前端,宽度优先将新扩展出来的节点放在OPEN表的后端

18.决定人工神经网络性能的三大要素?
A. 神经元的特性
B. 神经元之间的连接形式,即拓扑结构
C.学习规则

19.简述神经元模型工作过程是怎样的?
1、从各输入端接收输入信号,包括外界刺激与接收其它神经元的输出
2、根据连接权值求出所有输入的加权和
3、用非线性激励函数进行转换,得到输出

20.BP网络的优点与局限?
优点:
A. 很好的逼近特性
B. 具有较强的泛化能力
C. 具有较好的容错性
局限:
A. 计算量大,运算过程复杂
B. 通过Delta学习算法修正连接权值,会收敛到局部极小点
C. 最优隐层数与隐层神经元数不易确定
D.隐层多时,误差信号过小会影响权值的调整

21.请简要说明池化层的基本作用,以及池化操作的基本过程与常用方法?

池化层(Pooling Layer)也叫子采样层(Subsample Layer)或降采样(downsampling),其主要作用是利用子采样(或降采样)对输入图像的像素进行合并,得到池化层的特征图谱。
池化操作的一个重要概念是池化窗口或子采样窗口。所谓池化窗口是指池化操作所使用的一个矩形区域,池化操作利用该矩形区域实现对卷积层特征图像素的合并。
例如,一个88的输入图像,若采用大小为22的池化窗口对其进行池化操作,就意味着原图像上的4个像素将被合并为1个像素,原卷积层中的特征图经池化操作后将缩小为原图的1/4。
池化操作的基本过程是:从特征图的左上角开始,按照池化窗口,先从左到右,然后再从上向下,不重叠地依次扫过整个图像,并同时利用子采样方法进行池化计算。
常用的池化方法有最大池化(max pooling)法、平均池化(mean pooling)法和概率矩阵池化(stochastic pooling)法等。这里主要讨论最大池化法和平均池化法。

22.BP学习算法的基本思想是什么?
BP学习算法的基本思想是调整权值,使得神经网络的实际输出能够逼近样本与函数的实际输出。

23.请简要解释BP学习算法的正向传播与反向传播的含义?
正向传播:输入信息由输入层传至隐层,最终在输出层输出。
反向传播:修改各层神经元的权值,使误差信号最小

24.在BP学习算法实现时,应注意哪些问题?
(1)隐层数及隐层中神经元数的确定,无确定的指导方法,需要通过经验调整;
(2)初始权值的设置,一般设为一个均值为0的随机分所布初始权值;
(3)训练数据的预处理,常使用线性特征比例变换,把所有特征变换到[0,1],或者 [-1,1]区间之间,使得在每个训练集上,每个特征的均值为0,并且具有相同的方差。
(4)后处理过程,当应用神经网络进行分类操作时,通常把输出值编码成所谓的名义变量,具体的值对应类别符号

25.简述BP算法的实现过程
(1)初始化:对所有连接权和阈值赋以随机任意小值;
(2) 从 N 组输入输出样本中取一组样本:x=[x1, x2,…, xp1], d=[d1, d2,…,dpm], 把输入信息x=[x1, x2,…, xp1]输入到BP网络中 ;
(3)正向传播:计算各层节点的输出;
(4)计算网络的实际输出与期望输出的误差;
(5)反向传播:从输出层方向计算到第一个隐层,按连接权 值修正公式向减小误差方向调整网络的各个连接权值;
(6)让t+1→t,取出另一组样本重复(2)-(5),直到 N 组 输入输出样本的误差达到要求时为止。

26.请简要说明卷积操作的基本过程,以及什么是卷积核?
卷积(convolution)在卷积神经网络中的主要作用是实现卷积操作,形成网络的卷积层。
卷积操作的基本过程是:针对图像的某一类特征,先构造其特征过滤器(FF),然后利用该滤器对图像进行特征提取,得到相应特征的特征图( FM)。依此针对图像的每一类特征,重复如上操作,最后得到由所有特征图构成的卷积层。
特征过滤器也称为卷集核(Coiling Kernel,CK),它实际上是由相关神经元连接权值所形成的一个权值矩阵,该矩阵的大小由卷集核的大小确定。卷集核与特征图之间具有一一对应关系,一个卷集核唯一地确定了一个特征图,而一个特征图也唯一地对应着一个卷积核。

你可能感兴趣的:(笔记,人工智能,算法)