一种能够呈现出人类智能行为的机器
智能行为:人类用大脑考虑问题或创造思想
一种能在不确定环境中执行各种拟人任务并达到预期目标的机器
人工智能(能力)是智能机器所执行的通常与人类智能有关的智能行为,如判断、推理、证明、识别、感知、理解、通信、设计、思考、规划、学习和问题求解等思维活动。
符号主义 | 连接主义 | 行为主义 | |
---|---|---|---|
认为人工智能源于 | 数理逻辑 | 仿生学 | 控制论 |
原理 | 基于物理符号系统假设和有限合理性原理 | 基于神经网络及其间的连接机制与学习算法 | 基于控制论及感知—动作型控制系统 |
基本单元 | 符号 | 神经元 | (取决于)感知和行动 |
研究方法 | 功能模拟法 | 结构模拟法 | 行为模拟法 |
传统人工智能
认为人工智能源于数理逻辑。
基于物理符号系统假设和有限合理性原理
符号
功能模拟法
认为人工智能源于仿生学。
基于神经网络及其间的连接机制与学习算法
神经元
结构模拟法
认为人工智能源于控制论。
基于控制论及感知—动作型控制系统
感知和行动
行为模拟法
长期共存于与合作,取长补短,并走向融合和集成,为人工智能的发展做出贡献
具有智能信息处理能力的自动控制系统
系统智能 ⇔上述6种功能
理解人类智能
通过编写程序来模仿和检验人类智能的有关理论,更好地理解人类智能。
实现人类智能
创造有用的灵巧程序,执行一般需要人类专家才能实现的任务,实现人类智能。
建造智能计算机代替人类的部分智力劳动。
揭示人类智能的根本机理,用智能机器去模拟、延伸和扩展人类的智能。
近期目标为远期目标奠定了理论和技术基础,远期目标为近期目标指明了方向。
符号主义(Symbolicism)/逻辑主义(Logicism)/心理学派(Psychlogism)/计算机学派(Computerism)
其原理主要为物理符号系统(即符号操作系统)假设和有限合理性原理。
连接主义(Connectionism)/仿生学派(Bionicsism)/生理学派(Physiologism)
其原理主要为神经网络及神经网络间的连接机制与学习算法
行为主义(Actionism)/进化主义(Evolutionism)/控制论学派(Cyberneticsism)
其原理为控制论及感知-动作型控制系统
主要研究和应用领域
问题求解(下棋程序),逻辑推理与定理证明(四色定理证明),自然语言理解,自动程序设计,专家系统,机器学习,神经网络,机器人学(星际探索机器人),模式识别(手写识别,汽车牌照识别,指纹识别),机器视觉(机器装配,卫星图像处理),智能控制,智能检索,智能调度与指挥(汽车运输高度,列车编组指挥),系统与语言工具
新的研究热点
分布式人工智能与Agent,计算智能与进化计算,数据挖掘与知识发现(超市市场商品数据分析),人工生命
chatGPT-4
概念化(Conceptualization):这是知识表示的第一步,涉及将现实世界中的事物、概念和关系抽象成计算机可以理解的形式。在这个过程中,我们需要确定哪些概念和关系是重要的,以便在计算机中表示和处理它们。
形式化(Formalization):在概念化的基础上,形式化是将抽象的概念和关系转化为严格定义的数学或逻辑结构。这样可以确保知识表示的一致性和准确性,便于计算机进行推理和计算。常见的形式化表示方法包括谓词逻辑、一阶逻辑、描述逻辑等。
模型化(Modeling):模型化是将形式化的知识表示应用于实际问题和场景中,构建具体的知识模型。这些模型可以是基于规则的专家系统、基于本体的知识图谱、基于概率的贝叶斯网络等。模型化的过程需要考虑如何有效地存储、检索和更新知识,以及如何利用这些知识进行推理和决策。
描述某类不同事物间的差别而引入的一组最少变量q0,q1,…,qn的有序集合。
使问题从一种状态变化为另一种状态的手段
初始状态可达到的各种状态对应的节点组成的图
节点序列(ni1,ni2,…, nik),长度为k的路径
节点ni指向节点 nj这段弧线的代价c(ni, nj),两节点路径的代价等于该路径上所有弧线代价之和。对于最优化问题,要找到两节点间具有最小代价的路径。
各节点及其具有代价的弧线由一张表明确给出。不适用于大型图。
节点的无限集合{si}作为起始节点是已知的。后继节点算符Γ也是已知的,它能作用于任一节点以产生该节点的全部后继节点和各连接弧线的代价。
三选一
有略微修改
状态
用一个四元表列(W,x,Y,z)来表示这个问题状态
算符
goto (U) :表示猴子走到水平位置U
( W , 0 , Y , 0 ) g o t o ( U ) ( U , 0 , Y , 0 ) (W,0,Y,0) \dfrac{goto(U)}{} (U,0,Y,0) (W,0,Y,0)goto(U)(U,0,Y,0)
pushbox (V) :表示猴子把箱子推到水平位置V
要应用算符pushbox(V),就要求规则的左边,猴子与箱子必须在同一位置上,并且,猴子不是箱子顶上。这种强加于操作的适用性条件,叫做产生式规则的先决条件。
( W , 0 , W , 0 ) p u s h b o x ( V ) ( V , 0 , V , 0 ) (W,0,W,0) \dfrac{pushbox(V)}{} (V,0,V,0) (W,0,W,0)pushbox(V)(V,0,V,0)
climbbox:猴子爬上箱顶
( W , 0 , W , 0 ) c l i m b b o x ( W , 1 , W , 0 ) (W,0,W,0) \dfrac{climbbox}{} (W,1,W,0) (W,0,W,0)climbbox(W,1,W,0)
grasp:表示猴子摘到香蕉
( c , 1 , c , 0 ) g r a s p ( c , 1 , c , 1 ) (c,1,c,0) \dfrac{grasp}{} (c,1,c,1) (c,1,c,0)grasp(c,1,c,1)
状态空间
初始状态集合 S
{(a,0,b,0)}
操作序列集合 F
{goto(a),goto(b),goto©,pushbox(a),pushbox(b),pushbox©,climbbox,grasp}
目标状态集合 G
{(c,1,c,1)}
求解
总感觉这个图应该要展开画详细一点
设有3个传教士和3个野人来到河边,打算乘一只船从右岸渡到左岸去。该船的负载能力为两人。在任何时候,如果野人人数超过传教士人数,那么野人就会把传教士吃掉。他们怎样才能用这条船安全地把所有人都渡过河去?(方法不唯一)
状态
用一个三元表列(Nx,Ny,C)来表示修道士和野人在河的右岸的状态
算符
约束:i+j <= 2,Nx >= Ny, 3-Nx >= 3-Ny
状态空间
初始状态集合 S
{(3,3,1)}
操作序列集合 F
{L(1,0),L(2,0),L(1,1),L(0,1),L(0,2),R(1,0),R(2,0),R(1,1),R(0,1),R(0,2)}
目标状态集合 G
{(0,0,0)}
求解
状态
用Si(nC, nY) 表示第 i 次渡河后,河对岸的状态
算符
用di(dC, dY)表示渡河过程中,对岸状态的变化
约束:
- i 为偶数时,dC, dY 同时为非负数,表示船驶向对岸
- i 为奇数时,dC, dY 同时为非正数,表示船驶回岸边。
状态空间
初始状态集合 S
{(0,0)}
操作序列集合 F
{…}
目标状态集合 G
{(3,3)}
求解
用图求法该问题,令横坐标为nY, 纵坐标为nC,可行状态为空心点表示,每次可以在格子上,沿对角线移动一格,也可以沿坐标轴方向移动1 格,或沿坐标轴方向移动2 格。
约束
从(0,0)开始,依次沿箭头方向改变状态,经过11 步之后,即可以到达目标状态(3,3),
相应的渡河方案为
d1(1,1) -> d2(-1,0)-> d3(0,2)-> d4(0,-1)-> d5(2,0)-> d6(-1,-1)-> d7(2,0)-> d8(0,-1)-> d9(0,2)-> d10(-1,0) -> d11(1,1)
基于状态空间
目的:两者都是为了解决问题或实现目标。
问题归约表示关注于将一个复杂问题分解为若干个简单的子问题,然后通过解决这些子问题来解决原问题。
状态空间表示则关注于描述问题的所有可能状态以及从一个状态转移到另一个状态的规则,从而找到从初始状态到目标状态的路径。
表示方法
问题归约表示通常使用树形结构来表示问题的分解过程,每个节点表示一个子问题,边表示子问题之间的关系。
状态空间表示使用图形结构来表示问题的所有可能状态,节点表示状态,边表示状态之间的转换。
求解策略
问题归约表示通常采用自顶向下的求解策略,从原问题开始,逐步分解为子问题,直到子问题可以直接解决。
状态空间表示通常采用搜索算法(如深度优先搜索、广度优先搜索、A*搜索等)来在状态空间中寻找从初始状态到目标状态的路径。
适用场景
从目标(要解决的问题)出发逆向推理,建立子问题以及子问题的子问题,直至最后把初始问题归约为一个平凡的本原问题集合。
与或图中的每个节点代表一个要解决的单一问题或问题集合。
起始节点对应于原始问题。终叶节点对应于本原问题的节点。
对于把算符应用于问题A的每种可能情况,都把问题变换为一个子问题集合;有向弧线自A指向后继节点,表示所求得的子问题集合,这些子问题节点叫做或节点。
一般对于代表两个或两个以上子问题集合的每个节点,有向弧线从此节点指向此子问题集合中的各个节点,这些子问题节点叫做与节点。
对于于原始问题描述的节点
对应于本原问题的节点
只要解决某个问题就可解决其父辈问题的节点集合,如(M,N,H)。
只有解决所有子问题,才能解决其父辈问题的节点集合,如(B,C)和(D,E,F)。各个节点之间用一段小圆弧连接标记。
实心节点有解,空心节点无解;标了t的节点是终叶节点,没有标的是非终叶节点。
P(x1,x2,x3,…,xn)
谓词符号+项
常量、变量
若干思维对象到某个思维对象的映射符号。用小写字母或小写字母串表示。如f,g等。
f(x1,x2,x3,…,xn)
~:否定(非)~P
∧:合取(与)P∧Q
∨:析取(或)P∨Q
⇒:蕴涵P⇒Q(if P then Q)
⇔:等价P ⇔Q
说明个体变量的范围
∃ \exists ∃(全称量词):“所有的”、“任意的”、“一切”、“每一个”
$\forall $(存在量词):“有些”、“至少一个”、“存在”
用P(x1,x2,…,xn)表示一个n元谓词公式,其中P为n元谓词,x1,x2,…,xn为客体变量或变元。通常把P(x1,x2,…,xn)叫做谓词演算的原子公式,或原子谓词公式。
可以用连词把原子谓词公式组成复合谓词公式,并把它叫做分子谓词公式。
如果两个合式公式,无论如何解释,其真值表都是相同的,那么我们就称此两合式公式是等价的。
所有可能的解释下,P均为真(T)
所有可能的解释下,P均为假(F)
仅在某一特定的解释下,P为真。
由合式公式 W1 和 W1 ⇒ \Rightarrow ⇒ W2 产生合式公式 W2
在表达式中用置换项置换变量。如果用E表示表达式,s为一置换,则置换后的表达式记为Es。
如果一个置换s作用于表达式集{E i}的每个元素,则我们用{E i} s来表示置换例的集。
称表达式集{E i}是可合一的,如果存在一个置换s使得:
E 1 s = E 2 s = E 3 s = … E 1 s = E 2 s = E 3 s =… E1s=E2s=E3s=…
s称为{E i}的合一者。
最通用的合一者:如果对表达式集{Ei}的任一合一者s,都存在某一s’,使得{Ei}s = {Ei}gs’,则称g为{Ei}的最通用合一者,记为mgu 。
g={B/y}是上例中{P[x,f(y),B], P[x,f(B),B]}最简单的合一者
是知识的结构化图解表示,由结点和边(也称有向弧)组成的一种有向图。(对知识的有向图表示,用有向图表示实体或概念及其语义关系)
问题领域中的实体、概念、情况等。结点一般划分为实例结点和类结点。
结点间的关系。(刻画结点之间的语义联系)
示例关系
分类关系(从属、泛化)
聚集关系(组装)
属性关系
集合与成员关系
逻辑关系
如果一个概念可由另一个概念推出,两个概念之间存在因果关系,则称它们之间是逻辑关系。
方位关系
所属关系
例如:要表达北京大学(BEIJING University,简称BU)和清华大学(TSINGHUA University,简称TU)两校篮球队在北大进行的一场比赛的比分是85比89。
把对事物的描述从概念节点或类节点传递到实例节点。
- 槽(弧):结点的槽是从它射出的命名线。
- 槽值:弧指向的结点。是连线的尾结点。
定义:实例结点肯定性继承所属类、父类的所有属性值。
链:ISA、AKO
举例:积木语义网络描述
定义
举例
下图的语义网中,积木的颜色可能是蓝色的,但长方体积木的子类中,可能的颜色是红色。在BLOCK和BRICK结点的COLOR槽的面是DEFAULT面,图中用括号表明之。
当涉及由几个部分组成的事物时,必须考虑值的传递问题
由于 TOY-HOUSE77 是 TOY-HOUSE 的一个实例 , 所以它必须有两个部件 , 一个是砖块 , 另一个是楔块 (wedge) 。另外 , 作为玩具房的一个部件的砖块必须 支撑楔块。在图中 , 玩具房 -77 部件以及它们之间的链 , 都用虚线画的节点和箭头来表示。因为这些知识是通过继承而间接知道的 , 并不是通过实际的节点和链直接知道的。因此,虚线所表示的节点以及箭头所表示的链是虚节点和虚链。
下图中的结构 35(STRUCTURE35)。已知这个结构有两个部件,一 个砖块BRICK12和一个楔块WEDGE18。一旦在STRUCTURE35和TOY-HOUSE之间放上ISA链,就知道BRICK12必须支撑WEDGE18。在上图中用虚线箭头表示BRICK12和WEDGE18 之间的SUPPORT虚链。因为很容易做部件匹配,所以虚线箭头的位置和方向很容易被确定。WEDGE18肯定与作为TOY-HOUSE的一个部件的楔块相匹配,而 BRICK12 肯定与砖块相匹配。
知识库中有赵云所在学校的语义网络片断,赵云是一个学生,他在东方大学上学,他入校的时间是2020年,将以上知识构造一个语义网络片断(目标网络),并匹配推理出赵云主修的课程是什么?
三选一
将三元关系Gives(John, Mary, Gift)转变为多个2元关系的合取
转换为二元关系:Isa(G1,Giving-Event)∧Giver(G1,John)∧Receiver(G1,Mary)∧Thing(G1,Gift)
画出多元语义网络
Use semantic networks(语义网络) to represent the followings:
老师没讲
[设有3个传教士和3个野人来到河边,打算乘一只船从右岸渡到左岸去。该船的负载能力为两人。在任何时候,如果野人人数超过传教士人数,那么野人就会把传教士吃掉。他们怎样才能用这条船安全地把所有人都渡过河去?](#例3 传教士野人问题★)
用四元数列(nA, nB, nC, nD) 来表示状态,其中nA表示A盘落在第nA号柱子上,nB表示B盘落在第nB号柱子上,nC表示C盘落在第nC号柱子上,nD表示D盘落在第nD号柱子上。
初始状态为1111,目标状态为3333
考试题目可能会略有修改
A computer system is intelligent if it can perform a task which,if performed by a human, requires intelligence.
先定义基本的谓词
上面的句子可以表达为
(∀ x){(ョt) (ョy)[HMN(y) ∧PERFORM(y,t) ∧REQUIRE(t) ∧CMP(x) ∧PERFORM(x,t)]⇒INTLT(x) }
- t:a task
- x:a computer system
- y:a human
P(x,y):x performs y task(x完成y任务);
Q(y):y requires intelligence(y需要智能)
C(x):x is a computer system(x是一个计算机系统)
I(x):x is intelligent(x是智能的)
(∀ x)(ョy)((C(x)∧P(x,y)∧P(human,y)∧Q(y))⇒I(x))
初始状态→目标状态
4种搜索算法(无信息:DFS、BFS;有信息(启发式):A、A*)选1种考
记录还没有扩展的点(记住下一步还可以走哪些点)
记录已经扩展的点(记住哪些点走过了)
每个表示状态的节点结构中必须有指向父节点的指针(记住从目标返回的路径)
各种搜索策略的主要区别在于对Open表中节点的排列顺序不同。
盲目搜索可能带来组合爆炸。
按预定的控制策略进行搜索,在搜索过程中获得的中间信息并不改变控制策略。 盲目性、效率不高,完备性好。
八数码难题(8-puzzle problem)
规定:将牌移入空格的顺序为:从空格左边开始顺时针旋转。不许斜向移动,也不返回先辈节点。
从下图(八数码难题的宽度优先搜索树)所示,要扩展26个节点,共生成46个节点之后才求得解(目标节点)。
防止搜索过程沿着无益的路径扩展下去,往往给出一个节点扩展的最大深度
八数码难题(8-puzzle problem)
规定:将牌移入空格的顺序为:从空格左边开始顺时针旋转。不许斜向移动,也不返回先辈节点。
用g(i)表示从初始节点S0到节点i的代价,用c(i, j)表示从父节点i到其子节点j的代价。对节点j的代价有:g(j)=g(i)+c(i, j)。
根据g(i)递增顺序扩展节点,(对Open表中的全部结点按g(i)排序)
代价树搜索的目的是为了找到最佳解,即找到一条代价最小的解路径。
数字表示两个城市之间的交通费用,即代价。用代价树的宽度优先搜索,求从S市出发到G市,费用最小的交通路线
在搜索中加入了与问题有关的启发性信息,用于指导搜索朝着最有希望的方向前进,加速问题的求解过程并找到最优解。完备性差。
f(x)
f(x)=h(x)
f(x)=g(x)
选择OPEN表上具有最小 f 值的节点作为下一个要扩展的节点。
f(x)=g(x)+h(x)
A*算法只要有解,就一定是最佳解
f(x)=g(x)+h(x)
估价函数的定义
f (x) = g (x) + h (x)
g (x):从初始状态到x需要进行的移动操作的次数
h (x):每一数码与其目标位置的曼哈顿距离
曼哈顿距离:两点之间水平距离和垂直距离之和
求解过程
一个原子公式及其否定。
由文字的析取组成的合式公式。
对谓词演算公式进行分解和化简,消去一些符号,以求得导出子句。
消解规则应用于母体子句对,以便产生导出
要背熟,做题时要按步骤求解,至少要记得哪一步要干什么
将下列谓词演算公式化为一个子句集
(∀x){P(x) ⇒ {(∀y)[P(y) ⇒ P(f(x,y))]∧ ~(∀y)[Q(x,y) ⇒ P(y)]}}
消去蕴涵符号
应用∨和~符号,以~A∨B替换A ⇒ B。
减少否定符号的辖域
每个否定符号~最多只用到一个谓词符号
对变量标准化
对哑元(虚构变量)改名,以保证每个量词有其自己唯一的哑元。
(∀x)(P(x)(ョx)Q(x)) ⇒ \Rightarrow ⇒ (∀x)P(x)(ョy)Q(y)
消去存在量词ョ
化为前束形
把所有全称量词移到公式的左边,并使每个量词的辖域包括这个量词后面公式的整个部分。
前束形={前缀}(全称量词串) {母式}(无量词公式)
把母式化为合取范式
任何母式都可写成由一些谓词公式和(或)谓词公式的否定的析取的有限集组成的合取。(分配律)
消去全称量词
所有余下的量词均被全称量词量化了。消去前缀,即消去明显出现的全称量词。
消去连词符号∧
用{A,B}代替(A∧B),消去符号∧。最后得到一个有限集,其中每个公式是文字的析取。
更换变量名称
可以更换变量符号的名称,使一个变量符号不出现在一个以上的子句中。
取两个子句的析取,然后消去互补对,得到消解式
消解反演求空子句会要用到
假言推理 Modus ponens
合并 Combination
重言式 Tautologies
空子句 NIL Clause:不包含任何文字的子句。
消解过程中出现空子句,说明S中必有矛盾。
链式(三段论) Chain
书上P100的三段论也许有误
从子句集S出发,对S的子句使用消解推理规则,将所得的消解式放入S中,再进行消解推理,直到得到空子句(NIL),则说明S是不可满足的,即公式G是不可满足的。
要把消解推理规则推广到含有变量的子句,必须找到一个作用于父辈子句的置换,使父辈子句含有互补文字。
给出公式集{S}和目标公式B
其它的例题也可能考,但储蓄问题考的可能性最大
储蓄问题★(A卷)
本题可能会有部分改动,会放在一个题目的中间,要认真审题,步骤环环相扣
前提:每个储蓄钱的人都获得利息。
结论:如果没有利息,那么就没有人去储蓄钱
证明
规定原子公式
用谓词公式表示前提和结论
我修改了一下,书上P101答案好像有点问题
将前提和结论的否定化为子句集(考试中化简过程可以省略)
前提:(∀x)[ [(ョy)(S(x,y) ∧ M(y))] ⇒ [(ョy)(I(y) ∧ E(x,y))] ]
消去蕴含符号
(∀x)[ [~[(ョy)(S(x,y) ∧ M(y))] ] ∨ [(ョy)(I(y) ∧ E(x,y))] ]
减少否定符号的辖域
对变量标准化
无需此步
消去存在量词
化为前束形
(∀x)(∀y)[ (~S(x,y) ∨ ~M(y)) ∨ [(I(f(x)) ∧ E(x,f(x)))] ]
把母式化为合取范式
(∀x)(∀y)[ [~S(x,y) ∨ ~M(y) ∨ I(f(x))] ∧ [~S(x,y) ∨ ~M(y) ∨ E(x,f(x))] ]
消去全称量词
[~S(x,y) ∨ ~M(y) ∨ I(f(x))] ∧ [~S(x,y) ∨ ~M(y) ∨ E(x,f(x))]
消去连词符号∧
化简完的所有子句在答案中必须写出
更换变量名称
书上没有此步,不过感觉更换了更好
结论的否定:~[~(ョx)I(x) ⇒ (∀x)(∀y)(M(y) ⇒ ~S(x,y))]
消去蕴含符号
减少否定符号的辖域
对变量标准化
无需此步
消去存在量词
用常量a替代x,b替代y
(∀x)(~I(x)) ∧ (M(b) ∧ S(a,b))
化为前束形
(∀x)(~I(x) ∧ (M(b) ∧ S(a,b)) )
把母式化为合取范式
(∀x)(~I(x) ∧ M(b) ∧ S(a,b) )
消去全称量词
~I(x) ∧ M(b) ∧ S(a,b)
消去连词符号∧
化简完的所有子句在答案中必须写出
更换变量名称
消解反演求空子句(NIL)
储蓄问题反演树
某公司招聘工作人员,A,B,C三人应试★(B卷考)
设事实的公式集合
Happy student
前提
Everyone who pass the computer test and win the prize is happy. Everyone who wish study or is lucky can pass all tests. Zhang doesn’t study, but he is lucky. Every lucky person can win the prize.
结论
Zhang is happy
证明
根部为 NIL 变换为根部为回答语句
消减反演
反演求解
无论JOHN到哪里,FIDO也就去那里; JOHN现在学校里。问:FIDO在什么地方?
后面的应该是没讲,估计不考
图搜索的一般过程如下:(描述图搜索(GRAPHSERCH)的一般过程)(用文字或流程图)
建立一个搜索图G(初始只含有起始节点S),把S放到未扩展节点表中(OPEN表)中。
建立一个已扩展节点表(CLOSED表),其初始为空表。
LOOP:若OPEN表是空表,则失败退出。
选择OPEN表上的第一个节点 n,把它从OPEN表移出并放进CLOSED表中。
若n为一目标节点,则有解并成功退出。
此解是追踪图G中沿着指针从n到S这条路径而得到的(指针将在第7步中设置)
扩展节点n,生成后继节点的集合M。
修改M成员的指针方向
按某一任意方式或按某个试探值,重排OPEN表。
GO LOOP。
重排OPEN表意味着,在第(6)步中,将优先扩展哪个节点,不同的排序标准对应着不同的搜索策略。
重排的原则当视具体需求而定,不同的原则对应着不同的搜索策略
详见反演求解的过程
用A*算法绘出八数码难题的搜索树;标记OPEN表、CLOSED表的节点;写出从初始状态到目标状态的最优解。详见
子句集的求取的9个步骤:
求解:
(∀x){P(x)⇒P(x)}
消去蕴含符号:(∀x){~P(x)∨P(x)}
2-6 无需进行操作
消去全称量词:~P(x)∨P(x)
8-9 无需进行操作
(∀x)(∀y)(On(x,y)⇒Above(x,y))
消去蕴含符号:(∀x)(∀y)(~On(x,y)∨Above(x,y))
2-6 无需进行操作
消去全称量词:~On(x,y)∨Above(x,y)
8-9 无需进行操作
(∀x)(∀y)(∀z)(Above(x,y)∧Above(y,z)⇒Above(x,z))
蕴含的优先级低于∧
消去蕴含符号:(∀x)(∀y)(∀z)(~(Above(x,y)∧Above(y,z))∨Above(x,z))
减少否定符号的辖域:(∀x)(∀y)(∀z)(~Above(x,y)∨~Above(y,z)∨Above(x,z))
3-6. 无需进行操作
消去全称量词:~Above(x,y)∨~Above(y,z)∨Above(x,z)
8-9 无需进行操作
~((∀x)P(x)⇒((∀y)(P(y)⇒P(f(x,y)))∧(∀y)(Q(x,y)⇒P(y)))))
太难了,赌它不考
计算智能取决于制造者提供的数值数据,而不依赖于知识。计算智能是智力的低层认知。
当一个系统只涉及数值(低层)数据,含有模式识别部分,不应用人工智能意义上的知识,而且能够呈现出:
计算适应性;
计算容错性;
接近人的速度;
误差率与人相近
则该系统就是计算智能系统。
术语 | ||
---|---|---|
BN | 人类智能硬件:大脑 | 人的传感输入处理 |
ANN | 中层模型:CNN+知识精品 | 以大脑方式的中层处理 |
CNN | 低层,生物激励模型 | 以大脑方式的传感数据处理 |
BPR | 对人的传感数据结构的搜索 | 对人的感知环境中结构的识别 |
APR | 中层模型:CPR+知识精品 | 中层数值和语法处理 |
CPR | 对传感数据结构的搜索 | 所有CNN+模糊、统计和确定性模型 |
BI | 人类智能软件:智力 | 人类的认知、记忆和作用 |
AI | 中层模型:CI+知识精品 | 以大脑方式的中层认知 |
CI | 计算推理的低层算法 | 以大脑方式的低层认知 |
神经元单元由多个输入xi,i=1,2,…,n和一个输出y组成。中间状态由输入信号的权和表示
在递归网络中,多个神经元互连以组织一个互连神经网络
前馈网络具有递阶分层结构,由同层神经元间不存在互连的层级组成
Supervised learning algorithms(有师学习):能够根据期望的和实际的网络输出(对应于给定输入)间的差来调整神经元间连接的强度或权。
Unsupervised learning algorithms(无师学习):不需要知道期望输出。
Reinforcement learning algorithms(增强学习):采用一个“评论员”来评价与给定输入相对应的神经网络输出的优度(质量因数)。强化学习算法的一个例子是遗传算法(GA)。
模型名称 | 有师或无师 | 学习规则 | 正向或反向传播 | 应用领域 |
---|---|---|---|---|
AG | 无 | Hebb律 | 反向 | 数据分类 |
SG | 无 | Hebb律 | 反向 | 信息处理 |
ART-I | 无 | 竞争律 | 反向 | 模式分类 |
DH | 无 | Hebb律 | 反向 | 语音处理 |
CH | 无 | Hebb/竞争律 | 反向 | 组合优化 |
BAM | 无 | Hebb/竞争律 | 反向 | 图象处理 |
AM | 无 | Hebb律 | 反向 | 模式存储 |
ABAM | 无 | Hebb律 | 反向 | 信号处理 |
CABAM | 无 | Hebb律 | 反向 | 组合优化 |
FCM | 无 | Hebb律 | 反向 | 组合优化 |
LM | 有 | Hebb律 | 正向 | 过程监控 |
DR | 有 | Hebb律 | 正向 | 过程预测,控制 |
LAM | 有 | Hebb律 | 正向 | 系统控制 |
FAM | 有 | Hebb律 | 正向 | 知识处理 |
BSB | 有 | 误差修正 | 正向 | 实时分类 |
Perceptron | 有 | 误差修正 | 正向 | 线性分类,预测 |
Adaline/Madaline | 有 | 误差修正 | 反向 | 分类,噪声抑制 |
BP | 有 | 误差修正 | 反向 | 分类 |
AVQ | 有 | 误差修正 | 反向 | 数据自组织 |
CPN | 有 | Hebb律 | 反向 | 自组织映射 |
BM | 有 | Hebb/模拟退火 | 反向 | 组合优化 |
CM | 有 | Hebb/模拟退火 | 反向 | 组合优化 |
AHC | 有 | 误差修正 | 反向 | 控制 |
ARP | 有 | 随机增大 | 反向 | 模式匹配,控制 |
SNMF | 有 | Hebb律 | 反向 | 语音/图象处理 |
没找着,懒得写了
以下面两种结构的神经网络为例
网络1
输入输出关系函数函数
阈值函数f
邻接矩阵
NI1 | NI2 | Nh | NO | |
---|---|---|---|---|
NI1 | 0 | 0 | 0.3 | 1 |
NI2 | 0 | 0 | 0.3 | 1 |
Nh | 0 | 0 | 0 | -2 |
NO | 0 | 0 | 0 | 0 |
权值向量(w1,w2,w3,w4,w5)
(0.3,0.3,1,1,-2)
阈值向量
(0,0,0,0,0)
真值表
x1 | x2 | z/Nh | y |
---|---|---|---|
0 | 0 | 0<0.5=0 | 0<0.5=0 |
0 | 1 | 0.3<0.5=0 | 0+1=1>=0.5=1 |
1 | 0 | 0.3<0.5=0 | 0+1=1>=0.5=1 |
1 | 1 | 0.6>=0.5=1 | 1+1-2=0<0.5=0 |
网络2
todo:知识获取、知识库、泛化能力
todo
借鉴生物个体对环境的适应程度,而对问题中的个体对象所设计的表征其优劣的一种测度
将问题结构变换为位串形式编码表示的过程
将位串形式编码表示变换为原问题结构的过程
编码长度
编码长度取决于自变量的范围(更准确点应该是决策变量的范围)和搜索精度
此处初始群体的每个个体用一个长度为10的二进制串来表示
自变量的范围:5-(-5)= 10
搜索精度:0.01
实际的搜索精度:0.009775
解码
二进制信息转换成十进制公式
个体适应度计算
个体选择方法
按照适应度进行父代个体的选择
轮盘赌选择(roulette wheel selection)
随机遍历抽样(stochastic universal sampling)
局部选择(local selection)
截断选择(truncation selection)
锦标赛选择/联赛选择(tournament selection)
(Single point crossover)一点交叉/单点交叉
(Two point crossover)两点交叉/(Multi point crossover)多点交叉
(Uniform crossover)模版交叉/均匀交叉
在每一次迭代中群体中具有最高适应度的个体直接进入下一代群体,不参与交叉和变异
人工生命是一项抽象地提取控制生物现象的基本动态原理,并且通过物理媒介(如计算机)来模拟生命系统动态发展过程的研究工作。
详见
网上找的,估计算错了
归纳学习(induction learning)是从特定的实事和数据出发,应用归纳规则进行学习的一种方法。根据归纳学习有无教师指导,可把它分为示例学习和观察与发现学习。
给定
求
归纳断言(假设)H,能重言蕴涵或弱蕴涵观察陈述,并满足背景知识。
决策树代表实例属性值约束的合取的析取式。从树根到树叶的每一条路径对应一组属性测试的合取,树本身对应这些合取的析取
CLS和ID3选一个考
按照个人理解修改了一下
实质上是在CLS的基础上用信息增益的方法来选择决策属性/检测属性
ID3是一种自顶向下增长树的贪婪算法,在每个结点选取能最好地分类样例的属性。继续这个过程直到这棵树能完美分类训练样例,或所有的属性都使用过了。
是对随机变量不确定度的度量,熵越⼤,随机变量的不确定性就越⼤。
针对特征而言的,就是看一特征,系统有它和没有它时的信息量各是多少,两者的差值就是这个特征给系统带来的信息量,即信息增益。
来源数据挖掘笔记
来源PPT(推荐,省略了信息熵的计算细节)
输入
输出:能正确分类给定Examples的决策树Root。
伪代码
ID3(Examples, Target_attribute, Attributes)
创建树的Root结点
如果Examples都为正,那么返回label= + 的单结点树Root
如果Examples都为反,那么返回label= - 的单结点树Root
如果Attributes为空,那么返回单结点树Root,label=Examples中最普遍的Target _attribute值
否则
A←Attributes中分类 Examples 能力最好的属性
具有最高信息增益的属性
Root的决策属性←A
对于A的每个可能值vi;
结束
返回Root
回忆与联想→选择→建立对应关系→转换
给定
求解
训练实例的一般化概括,使之满足:
认为人脑经学习所获得的信息是记录在某些生物大分子之上的。例如,蛋白质、核糖核酸、神经递质,就像遗传信息是记录在DNA(脱氧核糖核酸)上一样。
能够根据期望的和实际的网络输出(对应于给定输入)间的差来调整神经元间连接的强度。
不需要知道期望输出。
采用一个“评论员”来评价与给定输入对应的神经网络输出的优度(质量因数)。增强学习算法的一个例子是遗传算法(GA)。
是一种有师学习
信号的正向传播,误差的反向传播
反馈神经网络,它是一种动态反馈系统,比前馈网络具有更强的计算能力。
Hopfield网络是一种具有正反相输出的带反馈人工神经元。
数据库中的知识发现(Knowledge Discovery in Databases ,KDD)是从大量数据中辨识出有效的、新颖的、潜在有用的、并可被理解的模式的高级处理过程。
金融业、保险业、制造业、市场和零售业、医疗业、司法、工程与科学
在自适应动态程序设计中,状态i的效应值U(i)可以用下式计算:
一种基于时差策略的增强学习,是指定在给定的状态下,在执行完某个动作后期望得到的效用函数,该函数为动作-值函数。
深度学习算法是一类基于生物学对人脑进一步认识,将神经-中枢-大脑的工作原理设计成一个不断迭代、不断抽象的过程,以便得到最优数据特征表示的机器学习算法;该算法从原始信号开始,先做低层抽象,然后逐渐向高层抽象迭代,由此组成深度学习算法的基本框架。
卷积神经网络、循环神经网络、受限玻耳兹曼机、自动编码器、深度信念网络
机器博弈、计算机视觉、语音识别、机器人…
学习就是系统在不断重复的工作中对本身能力的增强或者改进,使得系统在下一次执行同样任务或类似任务时,会比现在做得更好或效率更高。
机器学习是研究如何使用机器来模拟人类学习活动的一门学科,是一门研究机器获取新知识和新技能,并识别现有知识的学问。
这里所说的“机器”,指的就是计算机。
原因:现有的计算机系统和人工智能系统没有什么学习能力,至多也只有非常有限的学习能力,因而不能满足科技和生产提出的新要求。
影响学习系统设计的最重要的因素是环境向系统提供的信息。更具体地说是信息的质量。
详见
以ID3为例
详见人工智能的各种认知观的对比部分
详见BP算法实现步骤
知识发现的定义
关系
数据挖掘是知识发现中的一个步骤,它主要是利用某些特定的知识发现算法,在一定的运算效率内,从数据中发现出有关的知识。
详见深度学习的定义和特点
GPT-4