内涵和外延
英文:Artificial Intelligence
定义
非PPT内容:来自李德毅院士,仅供参考
内涵:包括脑认知基础、机器感知与模式识别、自然语言处理与理解、知识工程这四个方面。
外延:是机器人与智能系统——智能科学的应用技术 。这包括工业机器人、农业机器人、服务机器人等各类机器人以及智能交通、智能制造、智慧医疗、智慧城市等等。
典型的知识表示方法
基本思想:一种重要的知识表示方法,它以数理逻辑为基础,是到目前为止能够表达人类思维和推理的一种最精确的形式语言。它的表现方式和人类自然语言非常接近,它能够被计算机作精确推理
举个例子 ( ∀ x ) ( ∃ y ) ( P E R S O N ( x ) → H A S F A T H E R ( x , y ) ) (\forall x)(\exists y)(PERSON(x) \rightarrow HASFATHER(x,y)) (∀x)(∃y)(PERSON(x)→HASFATHER(x,y))表示每个人(x)都有一个父亲(y)
全过程
优点
缺点
**描述:**一组产生式在一起互相配合,协同作用,一个产生式生成的结论可以作为另一个产生式的前提,以获得问题的解决,这样的系统为产生式系统。
举个例子:IF 动物是哺乳动物 AND 吃肉 THEN 该动物是食肉动物
分类
优点
缺点
**描述:**语义网络利用结点和带标记的边构成的有向图描述事件、概念、状况、动作以及客体之间的关系。带标记的有向图能十分自然的描述客体之间的关系。
**构成:**语法、结构、过程和语义
可以很容易转化为Prolog语言,举几个例子
color(red) :红色
father_of(zzj, hht) :zzj是hht的父亲
is_a(red, color) :红色是一种颜色
优点:结构性、联想性、自索引性、自然性
缺点:非严格性、复杂性
优点
缺点
描述:框架表示法是以框架理论为基础发展起来的一种结构化的知识表示,它适用于表达多种类型的知识。
例 下面是一个描述“大学教师”的框架:
框架名:<大学教师>
类属:<教师>
学位:(学士,硕士,博士)
专业:<学科专业>
职称:(助教,讲师,副教授,教授)
外语:语种:范围:(英,法,日,俄,德,…)
缺省:英
水平:(优,良,中,差)
缺省:良
求解问题的基本过程:
将框架用prolog进行表示:
frame(name("教师")),
kind_of("<知识分子>"),
work(scope("教学","科研"),default("教学")),
sex("男","女"),
reco_of_f_s("中师","高师"),
type("<小学教师>","<中学教师>","<大学教师>").
优点
缺点
适用领域
描述:脚本与框架类似,由一组槽组成,用来表示特定领域内一些事件的发生序列。
**基本思想:**把人类生活中各类故事情节的基本概念抽取出来,构成一组原子概念,确定这些原子概念间的相互依赖关系,然后把所有故事情节都用这组原子概念及其依赖关系表示出来。
脚本通常由开场条件、角色、 道具、场景和结局等几部分组成。
关于组成,举个例子:
(1) 进入条件:① 顾客饿了,需要进餐;② 顾客有足够的钱。
(2) 角色:顾客,服务员,厨师,老板。
(3) 道具:食品,桌子,菜单,钱。
(4) 场景:
场景1:进入—— ① 顾客进入餐厅;② 寻找桌子;③ 在桌子旁坐下。
场景2:点菜—— ① 服务员给顾客菜单;② 顾客点菜;③ 顾客把菜单还给服务员;④ 顾客等待服务员送菜。
场景3:等待—— ① 服务员告诉厨师顾客所点的菜;②厨师做菜,顾客等待。
场景4:吃饭—— ① 厨师把做好的荣给服务员;② 服务员把菜送给顾客;③ 顾客吃菜。
场景5:离开—— ① 服务员拿来账单;② 顾客付钱给服务员;③ 顾客离开餐厅。
(5) 结果:① 顾客吃了饭,不饿了;② 顾客花了钱;③ 老板赚了钱;④ 餐厅食品少了。
关于推理,举个例子
“昨晚,何雨到了餐厅,他订了鱼香肉丝、大米。当他要付款时发现没钱了。因为开始下雨了,所以他赶快回家了”
如果有人问:
“昨晚,何雨吃饭了吗?”
虽然在上面没有提到何雨吃没吃饭的问题,但借助于餐厅剧本,可以回答:“他吃了”。这是因为启用了餐厅剧本。情节中的所有事件与剧本中所预测的事件序列相对应,因为可以推出整个事件正常进行时所得出的结果。
应用领域
举个例子:如果x与y是同班同学,且z是x的老师,则z也是y的老师
BR(Teacher? z? y)
GOAL(Classmate? x y)
GOAL(Teacher z x)
INSERT(Teacher z y)
RETURN
/*
其中
BR是逆向推理标志;
GOAL表示求解子目标,即进行过程调用;
INSERT表示对数据库进行插入操作;
RETURN作为结束标志;
带"?"的变量表示其值将在该过程中求得。
*/
组成
问题求解基本过程
优点
缺点
组成:位置、转换和标记
基本思想:用不同的位置来代表产生式规则的前提及结论,用转换来表示不同的规则强度,从而实现Petri网对产生式规则的规则集的映射。
**表示形式:**8元组
(P,T,D,I,O,f,α,β)
/*
其中:
P是位置的有限集,记为P={p1,p2,…,pn};
T是转换的有限集,记为T= {t1,t2,…,tn} ;
D是命题的有限集,记为D= {d1,d2,…,dn} ;
I是输入函数,表示从位置到转换的映射;
O是输出函数,表示从转换到位置的映射;
F是相关函数,表示从转换到0~1之间一个实数的映射,表示规则强度;
α是相关函数,表示从转换到0~1之间一个实数的映射,表示位置对应命题的可信度;
β是相关函数,表示从位置到命题的映射,表示位置所对应的命题。
*/
可信度:用[0,1]上一个实数表示,值越大表示相信为真的程度越高
对于一个产生式规则,其可信度称为强度规则
特点
基本特点
表示方法
class <类名> [:<父类名>]
{
private :
<私有成员>
public :
<公有成员>
}
主要特点
描述:状态空间表示法是基于解答空间的问题表示和求解方法。
三元状态(S,F,G)
过程
优点
缺点
适用范围
**基本思想:**从目标出发进行逆向推理,通过一系列变换把初始问题变换为子问题集合和子—子问题集合,直至最后归约为一个平凡的本原问题集合。这些本原问题的解可以直接得到,从而解决了初始问题。
图搜索算法过程,包括与或图
搜索:从初始节点出发,沿着与之相连的边试探地前进,寻找目标节点的过程。
搜索过程中经过的节点和边,按原图的连接关系,便会构成一个树型的有向图,这种树型有向图称为搜索树。
搜索进行中,搜索树会不断增长,直到当搜索树中出现目标节点,搜索便停止。这时从搜索树中就可很容易地找出从初始节点到目标节点的路径(解)来。
ClOSED表动态数据结构用来记录考察过的节点。
OPEN表的动态数据结构用来登记当前待考查的节点。
把初始节点S0放入OPEN表中。
若OPEN表为空,则搜索失败,退出。
取OPEN表中第一个节点N放在CLOSED表中;并冠以顺序编号n;
若目标节点Sg=N,成功退出。
若N不可扩展,转步2。
扩展N,生成一组节点,对这组子节点作如下处理:
零零散散的算法(深度、广度、穷举、启发、加权等)太多了,看PPT吧,但基本的思想都差不多。
h(x)启发函数
全局择优:每次找open表中全部节点里代价最小的那个进行扩展,并加入子节点
局部择优:每次只找子节点中代价最小的节点进行扩展
g(x)代价函数
分支限界法:每次只扩展权值最小的
最近择优法:每次只扩展子节点中权值最小的
A算法
f(x) = h(x) + g(x) :
A*算法
在A算法的基础上要求h(x)<=h*(x)
(其中h*(x)是节点x到目标节点的最小代价)
广度优先搜索
有界深度优先搜索算法
想比广度优先算法,多了一个对节点N的深度判断
启发式与或树搜索
与节点:选最小的
或节点:选最大的
非经典推理三个改进算法的过程,包括三值逻辑
经典逻辑都是二值逻辑,即只有真(True)和假(False)两种,而非经典逻辑都是多值逻辑,如三值、四值和模糊逻辑等
多值逻辑
Kleene三值逻辑
非单调逻辑
时序逻辑
不确定性推理=符号推演+信度计算
程度推理=符号推演+程度计算
推理结论CF的计算:CF(H)=CF(H,E)·max{0,CF(E)}
关于证据理论的例题 例8.15 (PPT 4-0 84)
贝叶斯网络
主观贝叶斯
证据理论
基于证据理论的不确定性推理,大体可分为以下步骤:
可信度方法
遗传算法的过程,原理(赌轮选择、模板定理、积木块假设),缺陷
基本思想:
原理:
模板定理:具有低阶、短定义距以及平均适应度高于种群平均适应度的模板在子代中呈指数增长。(PPT 5-3 42)
积木块假设:遗传算法通过短定义距、低阶以及高平均适应度的模式(积木块),在遗传操作下相互结合,最终接近全局最优解。(PPT 5-3 45)
赌轮选择:各个个体被选中的概率与其适应 度函数值大小成正比。(PPT 5-3 61)
缺陷(PPT 5-2 96)
蚁群算法的过程,原理,缺陷
原理:蚂蚁在寻找食物的过程中往往是随机选择路径的,但它们能感知当前地面上的信息素浓度,并倾向于往信息素浓度高的方向行进。信息素由蚂蚁自身释放,是实现蚁群内间接通信的物质。由于较短路径上蚂蚁的往返时间比较短,单位时间内经过该路径的蚂蚁多,所以信息素的积累速度比较长路径快。因此,当后续蚂蚁在路口时,就能感知先前蚂蚁留下的信息,并倾向于选择一条较短的路径前行。这种正反馈机制使得越来越多的蚂蚁在巢穴与食物之间的最短路径上行进。由于其他路径上的信息素会随着时间蒸发,最终所有的蚂蚁都在最优路径上行进。
过程
路径构建
信息素更新
当所有蚂蚁构建完路径后,算法将会对所有的路径进行全局信息素的更新。注意,我们所描述的是AS的ant-cycle版本,更新是在全部蚂蚁均完成了路径的构造后才进行的,信息素的浓度变化与蚂蚁在这一轮中构建的路径长度相关。
流程
在算法初始化时,问题空间中所有的边上的信息素都被初始化为τ0。
算法迭代每一轮,问题空间中的所有路径上的信息素都会发生蒸发,我们为所有边上的信息素乘上一个小于1的常数。信息素蒸发是自然界本身固有的特征,在算法中能够帮助避免信息素的无限积累,使得算法可以快速丢弃之前构建过的较差的路径。
蚂蚁根据自己构建的路径长度在它们本轮经过的边上释放信息素。蚂蚁构建的路径越短、释放的信息素就越多。一条边被蚂蚁爬过的次数越多、它所获得的信息素也越多。
迭代(2),直至算法终止。
缺陷(非PPT内容 来自https://blog.csdn.net/qq_44081582/article/details/107415925)
NN 基本形态,感知器的过程
NN基本形态
当神经元i的输入信号加权和超过阈值时,输出为“1”,即“兴奋”状态;反之输出为“0”,是“抑制”状态。
NN的典型结构
感知器过程 PPT 5-4-1 49 + PPT 5-4-2
感知器的训练主要是反复对感知器神经网络进行仿真和学习, 最终得到最优的网络阀值和权值
r1: IF E1 THEN (100, 0.1) H1
r2: IF E2 THEN (50, 0.5) H2
r3: IF E3 THEN (5, 0.05) H3
( H 1 ) = 0.02 (H_1)=0.02 (H1)=0.02, P ( H 2 ) = 0.2 P(H_2)=0.2 P(H2)=0.2, P ( H 3 ) = 0.4 P(H_3)=0.4 P(H3)=0.4,计算当证据 E 1 E_1 E1, E 2 E_2 E2, E 3 E_3 E3存在或不存在时 P ( H i ∣ E i ) P(H_i | E_i) P(Hi∣Ei) 或 $P(H_i | \neg E_i) $ 的值各是多少 ( i = 1 , 2 , 3 ) (i=1, 2, 3) (i=1,2,3) ?(PPT 4-2 83)
参考书P102 例4.3
记住两个公式(分别在书P100 和 P101)
1、 P ( H ∣ E ) = L S ∗ P ( H ) ( L S − 1 ) ∗ P ( H ) + 1 P(H|E) = \frac{LS * P(H)} { (LS-1) * P(H) + 1 } P(H∣E)=(LS−1)∗P(H)+1LS∗P(H)
2、 P ( H ∣ ¬ E ) = L N ∗ P ( H ) ( L N − 1 ) ∗ P ( H ) + 1 P(H| \neg E) = \frac{LN * P(H)} { (LN-1) * P(H) + 1 } P(H∣¬E)=(LN−1)∗P(H)+1LN∗P(H)
构建一个单层感知器神经元,实现逻辑与操作。(PPT 5-4-2 8)
x1 | x2 | d |
---|---|---|
0 | 0 | 0 |
0 | 1 | 0 |
1 | 0 | 0 |
1 | 1 | 1 |
设阈值为 0.6,初始权值均为 0.1,学习率为 0.5,误差值要求为 0,神经元的激活函数为硬限幅函数,求权值 w1 与 w2。 (PPT 5-4-2 10)
算输入:WT * X
算输出:sgn{WT*X - b}
调整权值:wi(n+1) = wi(n) + n(学习率)(d(n) - y(n))*xi
重复到输出误差为0才行
加权状态图搜索,计算从 F 到 B 的最短路径,画出 open、close 表。(PPT 3-2 110)