这就是在证据E肯定出现时,把结论H的先验概率P(H)更新为后验概率P(H/E)的计算公式。
证据肯定不出现的情况
在证据肯定不出现时,P(E)=P(E/S)=0,P(~E)=1。 由Bayes公式可得:
P(~E/H)×P(H)
P(H/~E) =
P(~E)
P(~E/~H)×P(~H)
P(~H/~E) =
P(~E)
由以上两式,可得:
P(H) P(H/~E) P(~E/H)×P(H) P~(E/H)
= = (*) ×
P(~H/~E) P(~E/~H)×P(~H) P(~E/~H) P(~H) 由LN的定义,以及概率与几率的关系式,可将上式改写为: O(H/~E)=LN×O(H)
这就是在证据E肯定不出现时,把先验几率O(H)更新为后验几率O(H/~E)的计算公式。 把几率换算成概率有:
LN×P(H)
P(H/~E) =
(LN-1)×P(H)+1
这就是在证据E肯定不出现时,把结论H的先验概率P(H)更新为后验概率P(H/~E)的计算公式。
关于知识规则强度(LS, LN)的意义的讨论 (1)充分性量度LS的讨论
1) 当LS>1时,有O(H/E)>O(H),再由P(x)与O(x)具有相同单调性的特性,可得P(H/E)>P(H),这表明,当LS>1时,由于证据E的出现,将增大结论H为真的概率,而且LS越大,P(H/E)就越大,即E对H为真的支持越强。当LS→∞时,O(H/E)→∞,即P(H/E)→1,表明由于证据E的出现,将导致H为真。由此可见,E的出现对H为真是充分的,故称LS为充分性量度。 2) 当LS=1时,有O(H/E)=O(H),这表明E与H无关。
3) 当LS<1时,有O(H/E)
领域专家在为LS赋值时,可参考上面的讨论,当证据E愈是支持H为真时,则使相应LS的值愈大。
(2) 必要性量度LN的讨论
1) 当LN>1时,有O(H/~E)>O(H),再由P(x)与O(x)具有相同单调性的特性,可得P(H/~E)>P(H),这表明,当LN>1时,由于证据E的不出现,将增大结论H为真的概率,而且LN越大,P(H/~E)就越大,即~E对H为真的支持越强。当LN→∞时,O(H/~E)→∞,即P(H/~E)→1,表明由于证据E的不出现,将导致H为真。
2) 当LN=1时,有O(H/~E)=O(H),这表明~E与H无关。
3) 当LN<1时,有O(H/~E)
领域专家在为LN赋值时,可参考上面的讨论,当证据E对H愈是必要时,则相应LN的值愈小。
(3) 为LS和LN赋值时的考虑
13
在实际系统中,LS和LN的值均是由领域专家根据经验给出的,而不是由LS和LN计算出来的。 ? 当证据E愈是支持H为真时,则LS的值应该愈大;当证据E对H愈是重要时,则相应的LN的
值应该愈小。
? 由于E和~E不可能同时支持H或反对H,所以领域专家在为一条知识中的LS和LN赋值时,
一般不应该同时