人工智能课程习题与部分解答 - 图文

《人工智能》

课程习题与部分解答

第1章 绪论

1.1 什么是人工智能? 它的研究目标是什么?

1.2 什么是图灵测试?简述图灵测试的基本过程及其重要特征.

1.3 在人工智能的发展过程中,有哪些思想和思潮起了重要作用? 1.5 在人工智能的发展过程中,有哪些思想和思潮起了重要作用?

1.7 人工智能的主要研究和应用领域是什么?其中,哪些是新的研究热点?

第2章 知识表示方法

2.1 什么是知识?分类情况如何?

2.2 什么是知识表示?不同的知识表示方法各有什么优缺点? 2.4 人工智能对知识表示有什么要求? 2.5 用谓词公式表示下列规则性知识:

自然数都是大于零的整数。 任何人都会死的。 [解] 定义谓词如下:

N(x): “x是自然数”, I(x): “x是整数”, L(x): “x大于0”, D(x): “x会死的”, M(x): “x是人”,则上述知识可用谓词分别表示为: (?x)[N(x)?L(x)?I(x)] (?x)[M(x)?D(x)]

2.6 用谓词公式表示下列事实性知识:

小明是计算机系的学生,但他不喜欢编程。 李晓新比他父亲长得高。

2.8 产生式系统由哪几个部分组成? 它们各自的作用是什么?

2.9 可以从哪些角度对产生式系统进行分类? 阐述各类产生式系统的特点。 2.10简述产生式系统的优缺点。

2.11 简述框架表示的基本构成,并给出框架的一般结构 2.12框架表示法有什么特点?

2.13试构造一个描述你的卧室的框架系统。 2.14 试描述一个具体的大学教师的框架系统。 [解] 一个具体大学教师的框架系统为: 框架名:<教师-1> 类属:<大学教师>

姓名:张宇 性别:男

1

年龄:32 职业:<教师>

职称:副教授 部门:计算机系

研究方向:计算机软件与理论 工作:参加时间:2000年7月

工龄:当前年份-2000

工资:<工资单>

2.16把下列命题用一个语义网络表示出来 (1)树和草都是植物;

(2)树和草都是有根有叶的; (3)水草是草,且生长在水中;

(4)果树是树,且会结果;

(5)苹果树是果树的一种,它结苹果。 [解]

植物

AKO

HAVE HAVE

树 有根有叶

AKO 果树

AKO

苹果树 HAVE 苹果 AKO 草 AKO 水草 Locate at 水 2.17在基于语义网络的推理系统中,一般有几种推理方法,简述它们的推理过程。 2.18 简述语义网络中常用的语义联系。 2.19 用一个语义网络表示:

“我的汽车是棕黄色的” “李华的汽车是绿色的” [解] 参考课件。

2.10 用语义网络和框架方法表示下列知识:

John gives a book to Mary [解] 参考课件。

2

第3章 搜索推理技术

3.1 在人工智能中,搜索问题一般包括哪两个重要问题? 3.2 简述搜索策略的评价标准。

3.3 比较盲目搜索中各种方法的优缺点。

试用宽度优先搜索策略,画出搜索树、找出最优搜索路线。

[解]

(1)搜索树参考课件。

(2)最优搜索路线:S0→S1→S5→S10.

3.5 对于八数码问题,设初始状态和目标状态如图3.2所示:

S1=

2 1 7 8 6 3 4 5 Sg=

1 8 7 2 6 3 4 5 图 3.2 八数码问题 试给出深度优先(深度限制为5)和宽度优先状态图。

[解]

(1) 深度优先(深度限制为5)状态图为

(2)宽度优先状态图为

3

3.6 什么是启发式搜索? 其中什么是评估函数? 其主要作用是什么? 3.7 最好优先的基本思想是什么? 有什么优缺点?

3.8 对于八数码问题,设初始状态和目标状态如图3.2所示。设d (x)表示节点x在搜索树中的深度,评估函数为f (x)=d (x)+w(x),其中w(x)为启发式函数。试按下列要求给出八数码问题的搜索图,并说明满是一种A*算法,找出对应的最优搜索路径。

(1)w (x)=h(x)表示节点x中不在目标状态中相应位置的数码个数; (2)w (x)=p(x)表示节点x的每一数码与其目标位置之间的距离总和。 (3)w (x)=0,情况又如何?

[解] (1) 8数码的搜索过程如图所示:

4

在上面确定h(x)时,尽管并不知道h*(x)具体为多少,但当采用单位代价时,通过对不在目标状态中相应位置的数码个数的估计,可以得出至少需要移动h(x)步才能够到达目标,显然h(x)≤h*(x)。因此它满足A*算法的要求。

最优搜索路径: 如图粗线所示。 (2) 此时8数码搜索图可表示为:

这时,显然有h(x)≤p(x)≤h*(n),相应的搜索过程也是A*算法。然而,p(x)比h(n)有更强的启发式信息,由w(x)=p(x)构造的启发式搜索树,比w(x)=h(x)构造的启发式搜索树节点数要少。

(3)若w(x)=0,该问题就变为宽度优先搜索问题。

3.9 如图3.3所示,是5个城市之间的交通路线图,A城市是出发地,E城市是目的地,两城市之间的交通费用(代价)如图中的数字,求从A到E的最小费用交通路线。

5

4 A 3 4 B 5 2 3 D C E

图3.3 旅行交通图

本题是考察代价树搜索的基本概念,了解这种搜索方法与深度优先和宽度优先的不同。首先将旅行交通图转换为代价树如图3.4所示。

图3.4 交通图的代价树

(1) 如果一个节点已经成为某各节点的前驱节点,则它就不能再作为该节点的后继节点。例如节点B相邻的节点有A和D,但由于在代价树中,A已经作为B的前驱节点出现,则它就不再作为B的后继节点。

(2) 除了初始节点A外,其它节点都有可能在代价树中多次出现,为了区分它们的多次出现,分别用下标1、2、3…标出,但它们都是图中同一节点。例如C1和C2都代表图中节点C。

对上面所示的代价树做宽度优先搜索,可得到最优解为:

A→C1→D1→E2

代价为8。由此可见,从A城市到E城市的最小费用路线为:

A→C→D→E

如果采用代价树的深度优先搜索,也会得到同样的结果:

A→C→D→E

但注意:这只是一种巧合,一般情况下,这两种方法得到的结果不一定相同。再者,代价树的深度优先搜索可能进入无穷分支路径,因此也是不完备的。

3.10 对于图3.4所示的状态空间图,假设U是目标状态,试给出宽度优先搜索与深度优搜索的OPEN表和CLOSED表的变化情况。

6

图3.5 状态空间图

[解] 宽度优先搜索的OPEN表和CLOSED表的变化情况:

1. OPEN=[A]; CLOSED=[ ] 2. OPEN=[B,C,D]; CLOSED=[A] 3. OPEN=[C,D,E,F]; CLOSED=[B,A] 4. OPEN=[D,E,F,G,H]; CLOSED=[C,B, A] 5. OPEN=[E,F,G,H,I,J]; CLOSED=[D,C,B, A] 6. OPEN=[F,G,H,I,J,K,L]; CLOSED=[E,D,C,B,A] 7. OPEN=[G,H,I,J,K,L,M](由于L已在OPEN中);

CLOSED=[F,E,D,C,B,A] 8. OPEN=[H,I,J,K,L,M,N]; CLOSED=[G,F,E,D,C,B,A] 9. 以此类推,直到找到了U或OPEN=[ ]。 深度优先搜索的OPEN表和CLOSED表的变化情况:

1. OPEN=[A]; CLOSED=[ ] 2. OPEN=[B,C,D]; CLOSED=[A] 3. OPEN=[E,F,C,D]; CLOSED=[B,A] 4. OPEN=[K,L,F,C,D]; CLOSED=[E,B, A] 5. OPEN=[S,L,F,C,D]; CLOSED=[K,E,B, A] 6. OPEN=[L,F,C,D]; CLOSED=[S,K,E,B,A] 7. OPEN=[T,F,C,D]; CLOSED=[L,S,K,E,B,A] 8. OPEN=[F,C,D]; CLOSED=[T,L,S,K,E,B,A] 9. OPEN=[M,C,D](由于L已经在CLOSED中;

CLOSED=[F,T,L,S,K,E,B,A]

10. OPEN=[C,D]; CLOSED=[M,F,T,L,S,K,E,B,A] 11. OPEN=[G,H,D]; CLOSED=[C,M,F,T,L,S,K,E,B,A] 12. 以此类推,直到找到了U或OPEN=[ ]。

第4章 自动推理

4.1什么是推理的控制策略?有哪几种主要的推理驱动模式?

7

4.2自然演绎推理的基本概念与基本的推理规则。

4.3 什么是合取范式? 什么是析取范式? 什么是Skolem标准化? 如何将一个公式化为这些形式?

4.4 将下列公式化为Skolem标准型:

?x?y?z?u?v?wP(x,y,z,u,v,w)

[解] 在公式中,(?x)的前面没有全称量词,(?u)的前面有全称量词(?y)和(?z), 在

(?w)的前面有全称量词(?y),(?z)和(?v)。所以,在P(x,y,z,u,v,w)中,用常数a代替

x, 用二元函数f(y,z)代替u, 用三元函数g(y,z,v)代替w,去掉前缀中的所有存在量词之后得出Skolem标准型:

?y?z?vP(a,y,z,f(y,z),v,g(y,z,v))

4.5化为子句形有哪些步骤?

[解]

(1)利用等价谓词关系消去谓词公式中的蕴涵符“→ ”和双条件符“←→ ”。 (2)利用等价关系把否定符号“┐”移到紧靠谓词的位置上。 (3)重新命名变元名,使不同量词约束的变元有不同的名字。 (4)消去存在量词。 (5)将公式化为前束形。

(6)把公式化为Skolem标准形。 (7)消去全称量词。 (8)消去合取词。

(9)对变元更名,使不同子句中的变元不同名。 4.6将下列谓词公式化为子句集:

(1) (?x)[~P(x)?~Q(x)]→(?y)[S(x,y)?Q(x)]?(?x)[P(x)?B(x)] (2)?x[P(x)?[?y[P(y)?P(f(x,y))]?~?y[Q(x,y)?P(y)]]]

[解] (1) 转换过程遵照下列9个步骤依此为: A. 消去蕴涵符符号:

(?x){~[~p(x)?~Q(x)]?(?y)[S(x,y)?Q(x)]}?(?x)[P(x)?B(x)] B.减少否定符号的辖域:

(?x){[p(x)?Q(x)]?(?y)[S(x,y)?Q(x)]}?(?x)[P(x)?B(x)] C. 变量标准化:

(?x){[p(x)?Q(x)]?(?y)[S(x,y)?Q(x)]}?(?w)[P(w)?B(w)] D. 消去存在量词:

(?x){[p(x)?Q(x)]?[S(x,f(x))?Q(x)]}?(?w)[P(w)?B(w)] E. 化为前束型:

(?x)(?w){[p(x)?Q(x)]?[S(x,f(x))?Q(x)]}?[P(w)?B(w)] F. 把母式化为合取范式:

(?x)(?w){[p(x)?S(x,f(x))]?Q(x)?[P(w)?B(w)]} G. 消去全称量词:

[p(x)?S(x,f(x))]?Q(x)?[P(w)?B(w)] H. 消去合取词:

8

p(x)?S(x,f(x)) Q(x) P(w)?B(w)

I. 子句变量标准化后, 最终的子句集为:

p(x)?S(x,f(x)) Q(y)

P(w)?B(w)

(2) 参见课本P122 A. 消去蕴涵符符号:

(?x)[~P(x)?[?y[~P(y)?P(f(x,y))]?~?y[~Q(x,y)?P(y)]]] B. 减少否定符号的辖域:

(?x)[~P(x)?[?y[~P(y)?P(f(x,y))]??y[Q(x,y)?~P(y)]]] C. 变量标准化:

(?x)[~P(x)?[?y[~P(y)?P(f(x,y))]??w[Q(x,w)?~P(w)]]] D. 消去存在量词:

(?x)[~P(x)?[?y[~P(y)?P(f(x,y))]?[Q(x,g(x))?~P(g(x))]]] E. 化为前束型:

(?x)(?y)[~P(x)?[[~P(y)?P(f(x,y))]?[Q(x,g(x))?~P(g(x))]]] F. 把母式化为合取范式:

(?x)(?y)[~P(x)?~P(y)?P(f(x,y))]?[~P(x)?Q(x,g(x))]?[~P(x)?~P(g(x))]]

G. 消去全称量词:

[~P(x)?~P(y)?P(f(x,y))]?[~P(x)?Q(x,g(x))]?[~P(x)?~P(g(x))]]

H. 消去合取词:~P(x)?~P(y)?P(f(x,y))

~P(x)?Q(x,g(x)) ~P(x)?~P(g(x)) I. 更改变量名:

~P(x1)?~P(y)?P(f(x1,y)) ~P(x2)?Q(x2,g(x2))

~P(x3)?~P(g(x3))

4.7 把下面的表达式转化成子句形式

(1)((?x)[p(x)]?(?x)[Q(x)]?(?x)[P(x)?Q(x)]

(2)(?x)[P(x)]?(?x)[(?z)[Q(x,z)]?(?z)[R(x,y,z)]]

(3)(?x)[P(x)?(?y)[(?z)[Q(x,y)]?~(?z)[R(y,x)]]] [解]

(1) ((?x)P(x)?(?x)Q(x))?(?x)(P(x)?Q(x)) ?((?x)P(x)?(?x)Q(x))?(?x)(P(x)?Q(x)) (?(?x)P(x)??(?x)Q(x))?(?x)(P(x)?Q(x))

((?x)?P(x)?(?x)?Q(x))?(?x)(P(x)?Q(x)) ((?x)?P(x)?(?x)?Q(x))?(?z)(P(z)?Q(z))

((?x)?P(x)?(?y)?Q(y))?(P(a)?Q(a)) (?x)(?y)(?P(x)??Q(y))?(P(a)?Q(a))) (?P(x)??Q(y))?(P(a)?Q(a))

(?P(x)?P(a)?Q(a))??Q(y))?(P(a)?Q(a))

则子句集为

9

S?{?P(x)?P(a)?Q(a)),?Q(y))?(P(a)?Q(a)} (2) (?x)P(x)?(?x)[(?z)Q(x,z)?(?z)R(x,y,z)]

(?y)((?x)P(x)?(?x)[(?z)Q(x,z)?(?z)R(x,y,z)]) (?y)(?(?x)P(x)?(?x)[(?z)Q(x,z)?(?z)R(x,y,z)])

(?y)((?x)?P(x)?(?x)[(?z)Q(x,z)?(?z)R(x,y,z)])

(?y)((?x)?P(x)?(?t)[(?z)Q(t,z)?(?u)R(t,y,u)])

(?y)(?P(f1(y))?(?z)Q(f2(y),z)?(?u)R(f2(y),y,u))

(?y)(?z)(?u)(?P(f1(y))?Q(f2(y),z)?R(f2(y),y,u)) (?P(f1(y))?Q(f2(y),z)?R(f2(y),y,u)) 则子句集为

S?{?P(f1(y))?Q(f2(y),z)?R(f2(y),y,u)}

(3) (?x)[P(x)?(?y)[(?z)[Q(x,y)]??(?z)R(y,x)]]

(?x)[?P(x)?(?y)[?(?z)[Q(x,y)]??(?z)R(y,x)]] (?x)[?P(x)?(?y)[(?z)[?Q(x,y)]?(?z)R(y,x)]] (?x)[?P(x)?(?y)[(?z)[?Q(x,y)]?(?u)R(y,x)]] (?x)[?P(x)?(?y)[?Q(x,y)?R(y,x)]] (?x)(?y)[?P(x)??Q(x,y)?R(y,x)] ?P(x)??Q(x,y)?R(y,x)

则子句集为

S?{?P(x)??Q(x,y)?R(y,x)} 4.10 求证G是F1和F2的逻辑结论。 F1:(?x)(P(x)?(?y)(Q(y)??L(x,y)))

F2:(?x)(P(x)?(?y)(R(y)?L(x,y))) G:(?x)(R(x)??Q(x))

[证明] 首先将F1,F2和?G化为子句集: F1: (?x)(P(x)?(?y)(Q(y)??L(x,y)))

?(?x)(?P(x)?(?y)(?Q(y)??L(x,y))) ?(?x)(?y)(?P(x)?(?Q(y)??L(x,y))) 所以S1?{?P(x)?(?Q(y)??L(x,y))}

F2:(?x)(P(x)?(?y)(R(y)?L(x,y))) ?(?x)(?y)(P(x)?(?R(y)?L(x,y)) ) ?(?y)(P(a)?(?R(y)?L(a,y)) )所以S2?{P(a),?R(y)?L(a,y)}

?G: (?x)(R(x)??Q(x)) ?(?x)(?R(x)??Q(x)) ?(?x)(R(x)?Q(x)) ?(R(b)?Q(b)) 所以S3?{R(b),Q(b)}

下面进行归结:

① ?P(x)?(?Q(y)??L(x,y) ② P(a)

③ ?R(y)?L(a,y)

④ R(b) ⑤ Q(b)

⑥ L(a,b) ③和④

10

⑦ ?Q(y)??L(a,y) ①和② ⑧ ?L(a,b) ⑤和⑦

⑨ Nil ⑥和⑧ 所以,G是F1,F2的逻辑结论。

4.12利用归结原理证明:“有些患者喜欢任一医生。没有任一患者喜欢任一庸医。所以没有庸医的医生”。

[解] 定义谓词为: P(x): “x是患者”, D(x): “x是医生”, Q(x): “x是庸医”, L(x,y): “x喜欢y”, 则前提与结论可以符号化为:

A1: (?x)(P(x)?(?y)(D(y)?L(x,y))) A2: (?x)(P(x)?(?y)(Q(y)??L(x,y)))

G: (?x)(D(x)??Q(x))

目前是证明G是A1和A2的逻辑结论, 即证明A1?A2??G是不可满足的. 首先, 求出子句集合:

A1: (?x)(P(x)?(?y)(D(y)?L(x,y)))

?(?x)(?y)(P(x)?(?D(y)?L(x,y))) ?(?y)(P(a)?(?D(y)?L(a,y)))

A2: (?x)(P(x)?(?y)(Q(y)??L(x,y)))

?(?x)(?P(x)?(?y)(?Q(y)??L(x,y))) ?(?x)(?y)(?P(x)?(?Q(y)??L(x,y)))

~G: ?(?x)(D(x)??Q(x))

?(?x)(D(x)?Q(x)) ?(D(b)?Q(b))

因此A1?A2??G的子句集合S为:

S?{P(a),?D(y)?L(a,y),?P(x)??Q(y)??L(x,y),D(b),Q(b)}

归结证明S是不可满足的:

(1)P(a)(2)?D(y)?L(a,y)(3)?P(x)??Q(y)??L(x,y) S (4)D(b)(5)Q(b)(6)L(a,b) (2)(4) (7)?Q(y)??L(a,b) (1)(3)

(8)?L(a,b) (5)(7)

(9) Nil (6)(8)

11

4.14已知:能阅读的都是有文化的; 海豚是没有文化的; 某些海豚是有智能的;

用归结反演法证明:某些有智能的并不能阅读。

[证明] 首先定义谓词:

R(x): x能阅读, L(x): x有文化 D(x): x是海豚, I(x): x有智能 将前提形式化地表示为: A1: (?x)(R(x)?L(x))

A2: (?y)(D(y)??L(y)) A3: (?z)(D(z)?I(z)) 将结论形式化地表示为: G: (?w)(I(w)??R(w))

即要证明A1?A2?A3?G为真. 即证明A1?A2?A3??G是不可满足的. 把它化为子句集为:

S?{?R(x)?L(x),?D(y)??L(y),D(A),I(A),?I(w)?R(w)}

现在用归结证明S是不可满足的:

(1)?R(x)?L(x)(2)?D(y)??L(y) (3)D(A) S

(4)I(A)(5)?I(w)?R(w)(6)R(A) (4)(5) (7)L(A) (1)(6)

(8)?D(A) (2)(7) (9) Nil (3)(8)

4.15某人被盗,公安局派出所派出5个侦察员去调查。研究案情时: 侦察员A说:“赵与钱中至少有一人作案”; 侦察员B说:“钱与孙中至少有一人作案”; 侦察员C说:“孙与李中至少有一人作案”;

侦察员D说:“赵与孙中至少有一人与此案无关”; 侦察员E说:“钱与李中至少有一人与此案无关”。 如果这5个侦察员的话都是可信的,试问谁是盗窃犯呢?

[解]

第一步: 设谓词P(x)表示x是作案者,所以根据题意:

A: P(zhao)∨P(qian) B: P(qian)∨P(sun) C: P(sun)∨P(li) D: ~P(zhao)∨~P(sun) E: ~P(qian)∨~P(li) 以上每个侦查员的话都是一个子句。

第二步:将待求解的问题表示成谓词。设y是盗窃犯,则问题的谓词公式为P(y),将其否定并与ANS(y)做析取得: ~P(y)∨ANS(y)第三步:求前提条件及~P(y)∨ANS(y)的子句集,并将各子句列表如下:

(1) P(zhao)∨P(qian)

12

(2) P(qian)∨P(sun) (3) P(sun)∨P(li)

(4) ~P(zhao)∨~P(sun) (5) ~P(qian)∨~P(li) (6) ~P(y)∨ANS(y)

第四步:应用归结原理进行推理。

(7) P(qian)∨~P(sun) (1) 与 (4) 归结 (8) P(zhao)∨~P(li) (1) 与 (5) 归结 (9) P(qian)∨~P(zhao) (2) 与 (4) 归结 (10) P(sun)∨~P(li) (2) 与 (5) 归结 (11) ~P(zhao)∨P(li) (3) 与 (4) 归结 (12) P(sun)∨~P(qian) (3) 与 (5) 归结 (13) P(qian) (2) 与 (7) 归结 (14) P(sun) (2) 与 (12) 归结 (15) ANS(qian) (6) 与 (13) 归结 (16) ANS(sun) (6) 与 (14) 归结 所以,本题的盗窃犯是两个人:钱和孙。

4.16 已知:张和李是同班同学,如果x和y是同班同学,则x的教室也是y的教室。现在张在J1-3上课,问李在哪里上课?

[解] 首先定义谓词:

C(x,y): x 和y是同学At(x,u): x在u教室上课 则已知前提可表示为

C(Zhang, Li)

?x?y?u(C(x,y)?At(x,u)?At(y.u)) At(Zhang, J1-3)

将目标表示成谓词:典At(Li, v),采用重言式,得到子句集合S为:

S?{C(Zhang,Li),?C(x,y)??At(x,u)?At(y,u), At(Zhang,J1?3),?At(Li,v)?At(Li,v)} 归结过程如下:

?(2)?C(x,y)??At(x,u)?At(y,u)???S

(3)At(Zhang,J1?3)??(4)?At(Li,v)?At(Li,v)?(5)At(Li,v)??C(x,Li)??At(x,v) (2)(4)归结 {Li|y, v|u} (1)C(Zhang,Li)(6)At(Li,v)??At(Zhang,v) (1)(5)归结 {Zhang|x} (7)At(Li,J1?3) (3)(6)归结 {J1-3|v} 最后就是所得到的答案:李在J1-3上课。

第5章 不确定性推理

5.1什么是不确定性推理?不确定性推理的基本问题是什么? 5.2在主观Bayes方法中,如何引入规则的强度的似然率来计算条件概率?这种方法优点是什么?主观Bayes方法有什么问题?试说明LS和LN的意义。

13

5.3设有规则:

R1: IF E1 THEN (20, 1) H R2: IF E2 THEN (300, 1) H

已知证据E1和E2必然发生,并且P(H)=0.03,求H的后验概率。

[解] 因为P(H)=0.03, 则O(H)=0.03/(1-0.03)=0.030927 根据R1有

O(H|E1)=LS1×O(H)=20×0.030927=0.6185 根据R2有

O(H|E2)=LS2×O(H)=300×0.030927=9.2781 那么

O(H|E1)O(H|E2)O(H|E1E2)???O(H)

O(H)O(H)?0.61859.2781??0.030927?185.55

0.0309270.030927所以H的后验概率为

O(H|E1E2)185.55 P(H|E1E2)? 4??0.99461?O(H|E1E2)1?185.555.4设有规则:

R1: IF E1 THEN (65, 0.01) H R2: IF E2 THEN (300, 0.0001) H 已知:P(E1|S1)=0.5, P(E2|S2)=0.02,

P(H)=0.01, P(E1)=0.1, P(E2)=0.03 求:P(H|S1S2)

[解] 根据R1,因为P(E1|S1)=0.5>P(E1)=0.1,则有

LS?P(H)65?0.01P(H|E1)???0.3963414

(LS?1)P(H)?164?0.01?1P(H|S1)?P(H)?p(H|E1)?P(H)?[P(E1|S1)?P(E1)]?0.1817

1?P(E1)根据R2,因为P(E2|S2)=0.02

LN?P(H)0.0001?0.01P(H|?E2)???0.000001

(LN?1)P(H)?1?0.9999?0.01?1P(H|S2)?P(H|?E2)?p(H)?P(H|?E2)?P(E2|S2)?0.006667

P(E2)根据上面的计算,因为:

P(H)0.01O(H)???0.010101

1-P(H)1-0.01O(H|S1)?O(H|S2)?P(H|S1)0.1817??0.222

1-P(H|S1)1-0.1817P(H|S2)0.006667??0.006712

1-P(H|S2)1-0.006667O(H|S1)O(H|S2)??O(H)?0.1475 O(H)O(H)则有

O(H|S1S2)? 14

P(H|S1S2)?O(H|S1S2)?0.12854

1?O(H|S1S2)5.5何谓可信度?简述可信度模型及其各部分含义。 5.6设有如下规则:

R1: IF E1 THEN H (0.9) R2: IF E2 THEN H (0.6) R3: IF E3 THEN H (-0.5)

R4: IF E4 AND (E5 OR E6) THEN E1 (0.8)

已知CF(E2)=0.8, CF(E3)=0.6, CF(E4)=0.5, CF(E5)=0.6, CF(E6)=0.8, 求CF(H)=?

[解] 由R4得到:

CF(E1)=0.8×max{0,CF(E4 AND (E5 OR E6))=0.8×max{0,min{CF(E4),CF(E5 OR E6)}} =0.8×max{0,min{CF(E4),max{CF(E5),CF(E6)}}=0.8×max{0,min{0.5,0.8}} =0.8×max{0,0.5}=0.4 由R1得到:

CF1(H)=CF(H,E1)×max{0,CF(E1)}=0.9×max{0,0.4}=0.36 由R2得到:

CF2(H)=CF(H,E2)×max{0,CF(E2)}=0.6×max{0,0.8}=0.48 由R3得到:

CF3(H)=CF(H,E3)×max{0,CF(E3)}=-0.5×max{0,0.6}= -0.3 根据结论不确定性的合成算法得到:

CF1,2(H)=CF1(H)+CF2(H)-CF1(H)×CF2(H)=0.36+0.48-0.36×0.48=0.67 CF1,2,3(H)=CF1,2(H)+CF3(H)=0.67+(-0.3)=0.47 或者

CF1,2,3(H)?CF12(H)?CF3(H)0.67?0.3??0.53

1?min{|CF1,2(H)|,|CF3(H)|}1?min{0.67,0.3}5.7设有如下规则:

R1: IF E1 THEN H (0.8) R2: IF E2 THEN H (0.6) R3: IF E3 THEN H (-0.5)

R4: IF E4 AND (E5 OR E6) THEN E1 (0.7) R5: IF E7 AND E8 THEN E3 (0.9)

在系统运行中已从用户处得CF(E2)=0.8, CF(E4)=0.5, CF(E5)=0.6, CF(E6)=0.7, CF(E7)=0.6, CF(E8)=0.9, 求H的综合可信度CF(H)。

[解] (1)求证据E4,E5,E6逻辑组合的可信度

CF(E4AND(E5ORE6))?min{CF(E4),max{CF(E5),CF(E6)}}?min{0.5,max{0.6,0.7}}?0.5

(2)根据规则R4,求CF(E1)

CF(E1)?0.7?max{0,CF(E4AND(E5ORE6))} ?0.7?max{0,min{CF(E4),CF(E5ORE6)}}

?0.7?max{0,min{CF(E4),max{CF(E5),CF(E6)}}} ?0.7?max{0,min{0.5,max{0.6,0.7}}} ?0.7?max{0,0.5}

?0.7?0.5?0.35(3)求证据E7,E8逻辑组合的可信度

CF(E7ANDE8)?min{CF(E7),CF(E8)}?min{0.6,0.9}?0.6

15

(4)根据规则R5, 求CF(E3)

CF(E3)?0.9?max{0,CF(E7ANDE8)}?0.9?0.6?0.54 (5)根据规则R1, 求CF1(H)

CF1(H)?0.8?max{0,CF(E1)}?0.8?0.35?0.28 (6)根据规则R2, 求CF2(H)

CF2(H)?0.6?max{0,CF(E2)}?0.6?0.8?0.48 (7)根据规则R3, 求CF3(H)

CF3(H)??0.5?max{0,CF(E3)}??0.5?0.54??0.27

(8)组合由独立证据导出的假设H的可信度CF1(H),CF2(H)和CF3(H),得到H的综合可信度:

CF1,2(H)?CF1(H)?CF2(H)?CF1(H)?CF2(H)

?0.28?0.48?0.28?0.48?0.63

CF1,2,3(H)?CF1,2(H)?CF3(H)?0.63?0.27?0.36

或者

CF1,2,3(H)?CF12(H)?CF3(H)0.63?0.27??0.49

1?min{|CF1,2(H)|,|CF3(H)|}1?min{0.63,0.27}5.8 设有如下规则:

R1: A1→B1 CF(B1,A1)=0.8 R2: A2→B1 CF(B1,A2)=0.5

R3: B1∧A3→B2 CF(B2,B1∧A3)=0.8

初始证据A1,A2,A3的CF值均设为1,而初始未知证据B1,B2的CF值均为0,即对B1,B2一无所知。求CF(B1),CF(B2)的更新值。

[解] (1) 对知识R1,R2,分别计算CF(B1)。

CF1(B1)=CF(B1,A1)×max{0,CF(A1)}=0.8×1=0.8 CF2(B1)=CF(B1,A2)×max{0,CF(A2)}=0.5×1=0.5 (2) 计算B1的综合可信度。

CF1,2(B1)=CF1(B1)+CF2(B1)-CF1(B1)×CF2(B1) 0.8+0.5-0.8×0.5=0.9 (3) 计算B2的可信度CF(B2)。这时,B1作为B2的证据,其可信度已有前面计算出来,而A3的可信度为初始指定的1。

由规则R3得到

CF(B2)=CF(B2, B1∧A3)×max{0,CF(B1∧A3)}

= CF(B2, B1∧A3)×max{0,min{CF(B1),CF(A3)} =0.8×max{0,0.9}=0.72

所以,所求得的B1,B2的可信度的更新值分别为

CF(B1)=0.9, CF(B2)=0.72

5.9 什么是概率分配函数、信任函数、似然函数与类概率函数? 5.10 如何用证据理论描述假设、规则和证据的不确定性,并实现不确定的传递与组合? 5.11 已知f1(E1)=0.8, f1(E2)=0.6, |U|=20, E1∧E2→H={h1,h2} (c1,c2)=(0.3, 0.5),计算f1(H)。

[解] 先计算f1(E1∧E2):

f1(E1∧E2)=min{f1(E1),f1(E2)}=min{0.8,0.6}=0.6

16

再计算m({h1},{h2}):

m({h1},{h2})=(0.6×0.3, 0.6×0.5)=(0.18, 0.3) 于是

Bel(H)=m(?)+m({h1})+m({h2})+m({h1,h2})

=0+0.18+0.3+0=0.48 Pl(H)==1-Bel(~H)=1-0=1 最后得

f1(H)=Bel(H)+|H|/|U|(Pl(B)-Bel(B)=0.48+2/20(1-0.48)=0.53.

5.12 考生考试成绩的论域为{A,B,C,D,E},小王成绩为A、为B、为A或B的基本概率分别分配为0.2、0.1、0.3。Bel({C,D,E})=0.2。请给出Bel({A,B})、Pl({A,B})和f1({A,B})。

[解] 由题意知道:

M({A})=0.2, M({B})=0.1, M({A,B})=0.3 则

Bel({A,B})=M({A,B})+M({A})+M({B})+M(?)=0.6 Pl({A,B})=1-Bel(?{A,B})=1-Bel({C,D,E})=0.8

|{A,B}|F({A,B})=Bel({A,B})+(Pl({A,B})-Bel({A,B})

|?| =0.6+2/5(0.8-0.6)=0.68.

第6章 机器学习(了解)

6.1简单的学习模型由哪几部分组成?各部分的功能是什么?

6.2可以从哪几个角度来分类机器学习方法?按各类方式阐述主要的机器学习类型。 6.3何谓归纳学习?何谓变型空间学习?

6.4画出归纳学习的双空间模型,并简述各部分功能。

17

18

19

20

21

22

23

联系客服:779662525#qq.com(#替换为@)