当前位置:文档之家› 不确定性推理部分参考答案

不确定性推理部分参考答案

不确定性推理部分参考答案
不确定性推理部分参考答案

第6章不确定性推理部分参考答案

6.8 设有如下一组推理规则:

r1: IF E1THEN E2 (0.6)

r2: IF E2AND E3THEN E4 (0.7)

r3: IF E4THEN H (0.8)

r4: IF E5THEN H (0.9)

且已知CF(E1)=0.5, CF(E3)=0.6, CF(E5)=0.7。求CF(H)=?

解:(1) 先由r1求CF(E2)

CF(E2)=0.6 × max{0,CF(E1)}

=0.6 × max{0,0.5}=0.3

(2) 再由r2求CF(E4)

CF(E4)=0.7 × max{0, min{CF(E2 ), CF(E3 )}}

=0.7 × max{0, min{0.3, 0.6}}=0.21

(3) 再由r3求CF1(H)

CF1(H)= 0.8 × max{0,CF(E4)}

=0.8 × max{0, 0.21)}=0.168

(4) 再由r4求CF2(H)

CF2(H)= 0.9 ×max{0,CF(E5)}

=0.9 ×max{0, 0.7)}=0.63

(5) 最后对CF1(H )和CF2(H)进行合成,求出CF(H)

CF(H)= CF1(H)+CF2(H)+ CF1(H) × CF2(H)

=0.692

6.10 设有如下推理规则

r1: IF E1THEN (2, 0.00001) H1

r2: IF E2THEN (100, 0.0001) H1

r3: IF E3THEN (200, 0.001) H2

r4: IF H1THEN (50, 0.1) H2

且已知P(E1)= P(E2)= P(H3)=0.6, P(H1)=0.091, P(H2)=0.01, 又由用户告知:

P(E1| S1)=0.84, P(E2|S2)=0.68, P(E3|S3)=0.36

请用主观Bayes方法求P(H2|S1, S2, S3)=?

解:(1) 由r1计算O(H1| S1)

先把H1的先验概率更新为在E1下的后验概率P(H1| E1)

P(H1| E1)=(LS1× P(H1)) / ((LS1-1) × P(H1)+1)

=(2 × 0.091) / ((2 -1) × 0.091 +1)

=0.16682

由于P(E1|S1)=0.84 > P(E1),使用P(H | S)公式的后半部分,得到在当前观察S1下的后验概率P(H1| S1)和后验几率O(H1| S1)

P(H1| S1) = P(H1) + ((P(H1| E1) – P(H1)) / (1 - P(E1))) × (P(E1| S1) – P(E1))

= 0.091 + (0.16682 –0.091) / (1 – 0.6)) × (0.84 – 0.6)

=0.091 + 0.18955 × 0.24 = 0.136492

O(H1| S1) = P(H1| S1) / (1 - P(H1| S1))

= 0.15807

(2) 由r2计算O(H1| S2)

先把H1的先验概率更新为在E2下的后验概率P(H1| E2)

P(H1| E2)=(LS2×P(H1)) / ((LS2-1) × P(H1)+1)

=(100 × 0.091) / ((100 -1) × 0.091 +1)

=0.90918

由于P(E2|S2)=0.68 > P(E2),使用P(H | S)公式的后半部分,得到在当前观察S2下的后验概率P(H1| S2)和后验几率O(H1| S2)

P(H1| S2) = P(H1) + ((P(H1| E2) – P(H1)) / (1 - P(E2))) × (P(E2| S2) – P(E2))

= 0.091 + (0.90918 –0.091) / (1 – 0.6)) × (0.68 – 0.6)

=0.25464

O(H1| S2) = P(H1| S2) / (1 - P(H1| S2))

=0.34163

(3) 计算O(H1| S1,S2)和P(H1| S1,S2)

先将H1的先验概率转换为先验几率

O(H1) = P(H1) / (1 - P(H1)) = 0.091/(1-0.091)=0.10011

再根据合成公式计算H1的后验几率

O(H1| S1,S2)= (O(H1| S1) / O(H1)) × (O(H1| S2) / O(H1)) × O(H1)

= (0.15807 / 0.10011) × (0.34163) / 0.10011) × 0.10011

= 0.53942

再将该后验几率转换为后验概率

P(H1| S1,S2) = O(H1| S1,S2) / (1+ O(H1| S1,S2))

= 0.35040

(4) 由r3计算O(H2| S3)

先把H2的先验概率更新为在E3下的后验概率P(H2| E3)

P(H2| E3)=(LS3× P(H2)) / ((LS3-1) × P(H2)+1)

=(200 × 0.01) / ((200 -1) × 0.01 +1)

=0.09569

由于P(E3|S3)=0.36 < P(E3),使用P(H | S)公式的前半部分,得到在当前观察S3下的后验概率P(H2| S3)和后验几率O(H2| S3)

P(H2| S3) = P(H2 | ? E3) + (P(H2) – P(H2| ?E3)) / P(E3)) × P(E3| S3)

由当E3肯定不存在时有

P(H2 | ? E3) = LN3× P(H2) / ((LN3-1) × P(H2) +1)

= 0.001 × 0.01 / ((0.001 - 1) × 0.01 + 1)

= 0.00001

因此有

P(H2| S3) = P(H2 | ? E3) + (P(H2) – P(H2| ?E3)) / P(E3)) × P(E3| S3)

=0.00001+((0.01-0.00001) / 0.6) × 0.36

=0.00600

O(H2| S3) = P(H2| S3) / (1 - P(H2| S3))

=0.00604

(5) 由r4计算O(H2| H1)

先把H2的先验概率更新为在H1下的后验概率P(H2| H1)

P(H2| H1)=(LS4× P(H2)) / ((LS4-1) × P(H2)+1)

=(50 × 0.01) / ((50 -1) × 0.01 +1)

=0.33557

由于P(H1| S1,S2)=0.35040 > P(H1),使用P(H | S)公式的后半部分,得到在当前观察S1,S2下H2的后验概率P(H2| S1,S2)和后验几率O(H2| S1,S2)

P(H2| S1,S2) = P(H2) + ((P(H2| H1) – P(H2)) / (1 - P(H1))) × (P(H1| S1,S2) – P(H1))

= 0.01 + (0.33557 –0.01) / (1 – 0.091)) × (0.35040 – 0.091)

=0.10291

O(H2| S1,S2) = P(H2| S1, S2) / (1 - P(H2| S1, S2))

=0.10291/ (1 - 0.10291) = 0.11472

(6) 计算O(H2| S1,S2,S3)和P(H2| S1,S2,S3)

先将H2的先验概率转换为先验几率

O(H2) = P(H2) / (1 - P(H2) )= 0.01 / (1-0.01)=0.01010

再根据合成公式计算H1的后验几率

O(H2| S1,S2,S3)= (O(H2| S1,S2) / O(H2)) × (O(H2| S3) / O(H2)) ×O(H2)

= (0.11472 / 0.01010) × (0.00604) / 0.01010) × 0.01010

=0.06832

再将该后验几率转换为后验概率

P(H2| S1,S2,S3) = O(H1| S1,S2,S3) / (1+ O(H1| S1,S2,S3))

= 0.06832 / (1+ 0.06832) = 0.06395

可见,H2原来的概率是0.01,经过上述推理后得到的后验概率是0.06395,它相当于先验概率的6倍多。

6.11设有如下推理规则

r1:IF E1THEN (100, 0.1) H1

r2: IF E2THEN (50, 0.5) H2

r3: IF E3THEN (5, 0.05) H3

且已知P(H1)=0.02, P(H2)=0.2, P(H3)=0.4,请计算当证据E1,E2,E3存在或不存在时P(H i | E i)或P(H i |﹁E i)的值各是多少(i=1, 2, 3)?

解:(1) 当E1、E2、E3肯定存在时,根据r1、r2、r3有

P(H1 | E1) = (LS1× P(H1)) / ((LS1-1) × P(H1)+1)

= (100 × 0.02) / ((100 -1) × 0.02 +1)

=0.671

P(H2 | E2) = (LS2× P(H2)) / ((LS2-1) × P(H2)+1)

= (50 × 0.2) / ((50 -1) × 0.2 +1)

=0.9921

P(H3 | E3) = (LS3× P(H3)) / ((LS3-1) × P(H3)+1)

= (5 × 0.4) / ((5 -1) × 0.4 +1)

=0.769

(2) 当E1、E2、E3肯定存在时,根据r1、r2、r3有

P(H1 | ?E1) = (LN1× P(H1)) / ((LN1-1) × P(H1)+1)

= (0.1 × 0.02) / ((0.1 -1) × 0.02 +1)

=0.002

P(H2 | ?E2) = (LN2× P(H2)) / ((LN2-1) × P(H2)+1)

= (0.5 × 0.2) / ((0.5 -1) × 0.2 +1)

=0.111

P(H3 | ?E3) = (LN3× P(H3)) / ((LN3-1) × P(H3)+1)

= (0.05 × 0.4) / ((0.05 -1) × 0.4 +1)

=0.032

6.13 设有如下一组推理规则:

r1: IF E1 AND E2 THEN A={a} (CF={0.9})

r2: IF E2 AND (E3 OR E4) THEN B={b1, b2} (CF={0.8, 0.7})

r3: IF A THEN H={h1, h2, h3} (CF={0.6, 0.5, 0.4})

r4: IF B THEN H={h1, h2, h3} (CF={0.3, 0.2, 0.1})

且已知初始证据的确定性分别为:

CER(E1)=0.6, CER(E2)=0.7, CER(E3)=0.8, CER(E4)=0.9。

假设|Ω|=10,求CER(H)。

解:其推理过程参考例6.9

具体过程略

6.15 设

U=V={1,2,3,4}

且有如下推理规则:

IF x is 少THEN y is 多

其中,“少”与“多”分别是U与V上的模糊集,设

少=0.9/1+0.7/2+0.4/3

多=0.3/2+0.7/3+0.9/4

已知事实为

x is 较少

“较少”的模糊集为

较少=0.8/1+0.5/2+0.2/3

请用模糊关系Rm求出模糊结论。

解:先用模糊关系Rm 求出规则

IF x is 少 THEN y is 多 所包含的模糊关系R m

R m (1,1)=(0.9∧0)∨(1-0.9)=0.1

R m (1,2)=(0.9∧0.3)∨(1-0.9)=0.3

R m (1,3)=(0.9∧0.7)∨(1-0.9)=0.7

R m (1,4)=(0.9∧0.9)∨(1-0.9)=0.7

R m (2,1)=(0.7∧0)∨(1-0.7)=0.3

R m (2,2)=(0.7∧0.3)∨(1-0.7)=0.3

R m (2,3)=(0.7∧0.7)∨(1-0.7)=0.7

R m (2,4)=(0.7∧0.9)∨(1-0.7)=0.7

R m (3,1)=(0.4∧0)∨(1-0.4)=0.6

R m (3,2)=(0.4∧0.3)∨(1-0.4)=0.6

R m (3,3)=(0.4∧0.7)∨(1-0.4)=0.6

R m (3,4)=(0.4∧0.9)∨(1-0.4)=0.6

R m (4,1)=(0∧0)∨(1-0)=1

R m (4,2)=(0∧0.3)∨(1-0)=1

R m (4,3)=(0∧0.7)∨(1-0)=1

R m (3,4)=(0∧0.9)∨(1-0)=1

即:

0.10.30.70.90.30.30.70.70.60.60.60.61111m R ??????=??????

因此有

{}{}

'0.10.30.70.90.30.30.70.70.8,0.5,0.2,00.60.60.60.611110.3,0.3.0.7,0.8Y ??????=??????= 即,模糊结论为

Y ’={0.3, 0.3, 0.7, 0.8}

6.16 设

U=V=W={1,2,3,4}

且设有如下规则:

r 1:IF x is F THEN y is G

r2:IF y is G THEN z is H

r3:IF x is F THEN z is H

其中,F、G、H的模糊集分别为:

F=1/1+0.8/2+0.5/3+0.4/4

G=0.1/2+0.2/3+0.4/4

H=0.2/2+0.5/3+0.8/4

请分别对各种模糊关系验证满足模糊三段论的情况。

解:本题的解题思路是:

由模糊集F和G求出r1所表示的模糊关系R1m, R1c, R1g

再由模糊集G和H求出r2所表示的模糊关系R2m, R2c, R2g

再由模糊集F和H求出r3所表示的模糊关系R3m, R3c, R3g

然后再将R1m, R1c, R1g分别与R2m, R2c, R2g合成得R12 m, R12c, R12g 最后将R12 m, R12c, R12g分别与R3m, R3c, R3g比较

确定性与不确定性推理主要方法-人工智能导论

确定性与不确定性推理主要方法 1.确定性推理:推理时所用的知识与证据都是确定的,推出的结论也是确定的,其真值或者为真或者为假。 2.不确定性推理:从不确定性的初始证据出发,通过运用不确定性的知识,最终推出具有一定程度的不确定性但却是合理或者近乎合理的结论的思维过程。 3.演绎推理:如:人都是会死的(大前提) 李四是人(小前提) 所有李四会死(结论) 4.归纳推理:从个别到一般:如:检测全部产品合格,因此该厂产品合格; 检测个别产品合格,该厂产品合格。 5.默认推理:知识不完全的情况下假设某些条件已经具备所进行的推理; 如:制作鱼缸,想到鱼要呼吸,鱼缸不能加盖。 6.不确定性推理中的基本问题: ①不确定性的表示与量度: 1)知识不确定性的表示 2)证据不确定性的表示 3)不确定性的量度 ②不确定性匹配算法及阈值的选择 1)不确定性匹配算法:用来计算匹配双方相似程度的算法。 2)阈值:用来指出相似的“限度”。 ③组合证据不确定性的算法 最大最小方法、Hamacher方法、概率方法、有界方法、Einstein方 法等。 ④不确定性的传递算法 1)在每一步推理中,如何把证据及知识的不确定性传递给结论。 2)在多步推理中,如何把初始证据的不确定性传递给最终结论。 ⑤结论不确定性的合成 6.可信度方法:在确定性理论的基础上,结合概率论等提出的一种不确定性推

理方法。其优点是:直观、简单,且效果好。 可信度:根据经验对一个事物或现象为真的相信程度。可信度带有较大的主观性和经验性,其准确性难以把握。C-F模型:基于可信度表示的不确定性推理的基本方法。 CF(H,E)的取值范围: [-1,1]。 若由于相应证据的出现增加结论 H 为真的可信度,则 CF(H,E)> 0,证据的出现越是支持 H 为真,就使CF(H,E) 的值越大。 反之,CF(H,E)< 0,证据的出现越是支持 H 为假,CF(H,E)的值就越小。若证据的出现与否与 H 无关,则 CF(H,E)= 0。 证据E的可信度取值范围:[-1,1] 。 对于初始证据,若所有观察S能肯定它为真,则CF(E)= 1。 若肯定它为假,则 CF(E) = –1。 若以某种程度为真,则 0 < CF(E) < 1。 若以某种程度为假,则-1 < CF(E) < 0 。 若未获得任何相关的观察,则 CF(E) = 0。 静态强度CF(H,E):知识的强度,即当 E 所对应 的证据为真时对 H 的影响程度。 动态强度 CF(E):证据 E 当前的不确定性程度。 C-F模型中的不确定性推理:从不确定的初始证据出发,通过运用相关的不确定性知识,最终推出结论并求出结论的可信度值。 模糊逻辑给集合中每一个元素赋予一个介于0和1之间的实数,描述其属于一个集合的强度,该实数称为元素属于一个集合的隶属度。集合中所有元素的隶属度全体构成集合的隶属函数。 模糊知识表示 人类思维判断的基本形式: 如果(条件)→则(结论)

不确定性推理部分参考答案

第6章不确定性推理部分参考答案 6.8 设有如下一组推理规则: r1: IF E1THEN E2 (0.6) r2: IF E2AND E3THEN E4 (0.7) r3: IF E4THEN H (0.8) r4: IF E5THEN H (0.9) 且已知CF(E1)=0.5, CF(E3)=0.6, CF(E5)=0.7。求CF(H)=? 解:(1) 先由r1求CF(E2) CF(E2)=0.6 × max{0,CF(E1)} =0.6 × max{0,0.5}=0.3 (2) 再由r2求CF(E4) CF(E4)=0.7 × max{0, min{CF(E2 ), CF(E3 )}} =0.7 × max{0, min{0.3, 0.6}}=0.21 (3) 再由r3求CF1(H) CF1(H)= 0.8 × max{0,CF(E4)} =0.8 × max{0, 0.21)}=0.168 (4) 再由r4求CF2(H) CF2(H)= 0.9 ×max{0,CF(E5)} =0.9 ×max{0, 0.7)}=0.63 (5) 最后对CF1(H )和CF2(H)进行合成,求出CF(H) CF(H)= CF1(H)+CF2(H)+ CF1(H) × CF2(H) =0.692 6.10 设有如下推理规则 r1: IF E1THEN (2, 0.00001) H1 r2: IF E2THEN (100, 0.0001) H1 r3: IF E3THEN (200, 0.001) H2 r4: IF H1THEN (50, 0.1) H2 且已知P(E1)= P(E2)= P(H3)=0.6, P(H1)=0.091, P(H2)=0.01, 又由用户告知: P(E1| S1)=0.84, P(E2|S2)=0.68, P(E3|S3)=0.36 请用主观Bayes方法求P(H2|S1, S2, S3)=? 解:(1) 由r1计算O(H1| S1) 先把H1的先验概率更新为在E1下的后验概率P(H1| E1) P(H1| E1)=(LS1× P(H1)) / ((LS1-1) × P(H1)+1) =(2 × 0.091) / ((2 -1) × 0.091 +1) =0.16682 由于P(E1|S1)=0.84 > P(E1),使用P(H | S)公式的后半部分,得到在当前观察S1下的后验概率P(H1| S1)和后验几率O(H1| S1)

人工智能不确定性推理部分参考答案教学提纲

人工智能不确定性推理部分参考答案

不确定性推理部分参考答案 1.设有如下一组推理规则: r1: IF E1 THEN E2 (0.6) r2: IF E2 AND E3 THEN E4 (0.7) r3: IF E4 THEN H (0.8) r4: IF E5 THEN H (0.9) 且已知CF(E1)=0.5, CF(E3)=0.6, CF(E5)=0.7。求CF(H)=? 解:(1) 先由r1求CF(E2) CF(E2)=0.6 × max{0,CF(E1)} =0.6 × max{0,0.5}=0.3 (2) 再由r2求CF(E4) CF(E4)=0.7 × max{0, min{CF(E2 ), CF(E3 )}} =0.7 × max{0, min{0.3, 0.6}}=0.21 (3) 再由r3求CF1(H) CF1(H)= 0.8 × max{0,CF(E4)} =0.8 × max{0, 0.21)}=0.168 (4) 再由r4求CF2(H) CF2(H)= 0.9 ×max{0,CF(E5)} =0.9 ×max{0, 0.7)}=0.63 (5) 最后对CF1(H )和CF2(H)进行合成,求出CF(H) CF(H)= CF1(H)+CF2(H)+ CF1(H) × CF2(H) =0.692

2 设有如下推理规则 r1: IF E1 THEN (2, 0.00001) H1 r2: IF E2 THEN (100, 0.0001) H1 r3: IF E3 THEN (200, 0.001) H2 r4: IF H1 THEN (50, 0.1) H2 且已知P(E1)= P(E2)= P(H3)=0.6, P(H1)=0.091, P(H2)=0.01, 又由用户告知: P(E1| S1)=0.84, P(E2|S2)=0.68, P(E3|S3)=0.36 请用主观Bayes方法求P(H2|S1, S2, S3)=? 解:(1) 由r1计算O(H1| S1) 先把H1的先验概率更新为在E1下的后验概率P(H1| E1) P(H1| E1)=(LS1× P(H1)) / ((LS1-1) × P(H1)+1) =(2 × 0.091) / ((2 -1) × 0.091 +1) =0.16682 由于P(E1|S1)=0.84 > P(E1),使用P(H | S)公式的后半部分,得到在当前观察S1下的后验概率P(H1| S1)和后验几率O(H1| S1) P(H1| S1) = P(H1) + ((P(H1| E1) – P(H1)) / (1 - P(E1))) × (P(E1| S1) – P(E1)) = 0.091 + (0.16682 –0.091) / (1 – 0.6)) × (0.84 – 0.6) =0.091 + 0.18955 × 0.24 = 0.136492 O(H1| S1) = P(H1| S1) / (1 - P(H1| S1)) = 0.15807 (2) 由r2计算O(H1| S2) 先把H1的先验概率更新为在E2下的后验概率P(H1| E2) P(H1| E2)=(LS2×P(H1)) / ((LS2-1) × P(H1)+1)

人工智能[第四章不确定推理方法]山东大学期末考试知识点复习

第四章不确定推理方法 在日常生活中,人们通常所遇到的情况是信息不够完善、不够精确,所掌握的知识具有不确定性。为了解决这些问题,必须对不确定知识的表示、推理过程等进行研究。有关不确定性知识的表示及推理方法目前有很多种,但比较重要且比较著名的方法主要有可信度方法、主观Bayes方法和证据理论方法。 1.1 不确定推理概述 (1)不确定推理的概念 不确定推理是从具有不确定性的初始事实(证据)出发,运用不确定性知识(或规则)库中的知识,推出具有一定程度的不确定性、但却是合理的或近乎合理的结论的思维过程。 (2)不确定推理中的基本问题 在不确定推理中,知识和证据都具有某种程度的不确定性,这就使推理机的设计和实现的复杂度和难度增大。它除了必须解决推理方向、推理方法以及控制策略等问题外,一般还要解决证据及知识的不确定性的度量及表示问题、不确定性知识(或规则)的匹配问题、不确定性传递算法以及多条证据同时支持结论的情况下不确定性的更新或合成问题。 (3)推理模型 推理模型就是指根据初始事实(证据)的不确定性和知识的不确定性,推导和计算结论不确定性的方法和过程。不同的推理模型其不确定性的传递计算方法是不同的。目前常用的有可信度方法、主观Bayes方法、证据理论以及模糊推理。 (4)构建推理模型的思路 具有不确定性的知识(规则)如何表示?不确定性的证据如何表示?如何进行推理计算,即如何将证据的不确定性和知识的不确定性传递到结论? 1.2 可信度方法

可信度方法是美国斯坦福大学E.H.Shortlifie等人在确定性理论(Theory of Confirmation)的基础上,结合概率论等提出的一种不确定性推理方法。1976年在专家系统MYCIN中首先应用。可信度是指人们在实际生活中根据自己的经验或观察对某一事件或现象为真的相信程度。知识的不确定性以可信度表示。 1.知识不确定性的表示 在基于可信度的不确定性推理模型中,知识是以产生式规则的形式表示的。其一般形式为 IF E THEN H (CF(H,E)) 其中:CF(H,E)是该条知识的可信度,称为可信度因子(Certainty Factor)或规则强度。 在专家系统MYCIN中,CF(H,E)被定义为 CF(H,E)=MB(H,E)-MD(H,E) 这里,啪(Measure Belief)称为信任增长度,它表示因与前提条件E匹配的证据的出现,使结论H为真的信任增长度。当MB(H,E)>0时,有P(H/E)>P(H)。这里,P(H)表示H的先验概率;P(H/E)表示在前提条件E所对应的证据出现的情况下,结论H的条件概率。MD(Measure Disbelief)称为不信任增长度,它表示因与前提条件E匹配的证据的出现,对结论H为真的不信任增长度,当MD(H,E)>0时,有P(H/E)0时,MD(H,E)=0。 当MD(H,E)>0时,MB(H,E)=0。 MB和MD的值域为[0,1]。 根据CF(H,E)的定义及MB(H,E)与MD(H,E)的互斥性,可得到CF(H,E)

人工智能原理教案03章 不确定性推理方法3.3 主观BAYES方法

3.3主观Bayes方法 R.O.Duda等人于1976年提出了一种不确定性推理模型。在这个模型中,他们称推理方法为主观Bayes方法,并成功的将这种方法应用于地矿勘探系统PROSPECTOR中。在这种方法中,引入了两个数值(LS,LN),前者体现规则成立的充分性,后者则表现了规则成立的必要性,这种表示既考虑了事件A的出现对其结果B的支持,又考虑了A的不出现对B的影响。 在上一节的CF方法中,CF(A)<0.2就认为规则不可使用,实际上是忽视了A不出现的影响,而主观Bayes方法则考虑了A 不出现的影响。 t3-B方法_swf.htm Bayes定理: 设事件A1,A2,A3,…,An中任意两个事件都不相容,则对任何事件B有下式成立: 该定理就叫Bayes定理,上式称为Bayes公式。 全概率公式: 可写成: 这是Bayes定理的另一种形式。

Bayes定理给出了一种用先验概率P(B|A),求后验概率P (A|B)的方法。例如用B代表发烧,A代表感冒,显然,求发烧的人中有多少人是感冒了的概率P(A|B)要比求因感冒而发烧的概率P(B|A)困难得多。 3.3.1规则的不确定性 为了描述规则的不确定性,引入不确定性描述因子LS,LN:对规则A→B的不确定性度量f(B,A)以因子(LS,LN)来描述: 表示A真时对B的影响,即规则成立的充分性 表示A假时对B的影响,即规则成立的必要性 实际应用中概率值不可能求出,所以采用的都是专家给定的LS,LN值。从LS,LN的数学公式不难看出,LS表征的是A的发生对B发生的影响程度,而LN表征的是A的不发生对B发生的影响程度。 几率函数O(X): 即,表示证据X的出现概率和不出现的概率之比,显然O(X)是P(X)的增函数,且有: P(X)=0,O(X)=0

人工智能不确定性推理部分参考答案

不确定性推理部分参考答案 1.设有如下一组推理规则: r1: IF E1THEN E2 (0.6) r2: IF E2AND E3THEN E4 (0.7) r3: IF E4THEN H (0.8) r4: IF E5THEN H (0.9) 且已知CF(E1)=0.5, CF(E3)=0.6, CF(E5)=0.7。求CF(H)=? 解:(1) 先由r1求CF(E2) CF(E2)=0.6 × max{0,CF(E1)} =0.6 × max{0,0.5}=0.3 (2) 再由r2求CF(E4) CF(E4)=0.7 × max{0, min{CF(E2 ), CF(E3 )}} =0.7 × max{0, min{0.3, 0.6}}=0.21 (3) 再由r3求CF1(H) CF1(H)= 0.8 × max{0,CF(E4)} =0.8 × max{0, 0.21)}=0.168 (4) 再由r4求CF2(H) CF2(H)= 0.9 ×max{0,CF(E5)} =0.9 ×max{0, 0.7)}=0.63 (5) 最后对CF1(H )和CF2(H)进行合成,求出CF(H) CF(H)= CF1(H)+CF2(H)+ CF1(H) × CF2(H) =0.692 2 设有如下推理规则 r1: IF E1THEN (2, 0.00001) H1 r2: IF E2THEN (100, 0.0001) H1 r3: IF E3THEN (200, 0.001) H2 r4: IF H1THEN (50, 0.1) H2 且已知P(E1)= P(E2)= P(H3)=0.6, P(H1)=0.091, P(H2)=0.01, 又由用户告知: P(E1| S1)=0.84, P(E2|S2)=0.68, P(E3|S3)=0.36 请用主观Bayes方法求P(H2|S1, S2, S3)=? 解:(1) 由r1计算O(H1| S1) 先把H1的先验概率更新为在E1下的后验概率P(H1| E1) P(H1| E1)=(LS1× P(H1)) / ((LS1-1) × P(H1)+1) =(2 × 0.091) / ((2 -1) × 0.091 +1) =0.16682 由于P(E1|S1)=0.84 > P(E1),使用P(H | S)公式的后半部分,得到在当前观察S1下的后验概率P(H1| S1)和后验几率O(H1| S1) P(H1| S1) = P(H1) + ((P(H1| E1) – P(H1)) / (1 - P(E1))) × (P(E1| S1) – P(E1))

不确定性推理方法研究word版

不确定性推理 摘要:对3种最常用的不确定性推理方法进行了分析和评述:概率推理、D-S证据推理和模糊推理。分别针对不同类型的不确定性。概率推理针对的是"事件发生与否不确定"这样的不确定性。D-S证据推理针对的是"分不清"或"不知道"这样的不确定性。模糊推理则是针对概念内涵或外延不清晰这样的不确定性。概率推理的理论体系是严密的,但其推理结果有赖可信的先验概率和条件概率。D-S证据推理是不可信的,但在一定条件下可以转化为概率推理问题来处理。模糊推理是一种很有发展潜力的推理方法,主要问题是推理规则需要具体设计,且设计好坏决定推理结果。 关键词:不确定性推理概率推理 D-S证据论模糊推理 引言 近年来,不确定性推理技术引起了人们的重视。这一方面是由于现实问题中普遍含有种种的不确定性,因此对不确定性推理技术有很大的需求。另一方面也在于不断出现的不确定性推理技术出现了一些问题,引起了人们的热议。 本文对三种应用最为广泛的不确定性推理技术进行了分析和评述。它们是:概率推理、D-S证据推理和模糊推理。它们分别具有处理不同类型的不确定性的能力。概率推理处理的是“事件发生与否不确定”这样的不确定性;D-S证据推理处理的是含有“分不清”或“不知道”信息这样的不确定性;模糊推理则是针对概念内涵或外延不清晰这样的不确定性。这些不确定性在实际的推理问题中是非常普遍的,因此这3种推理技术都有广泛的应用。 然而,这些推理技术在实际中的应用效果相差很大。有的得出的推理结果非常合理,用推理结果去执行任务的效果也非常好。也有的效果很差,推理结果怪异,完全背离人的直觉。应用效果差的原因可能是所用推理技术本身的缺陷,也可能是应用者对所用技术了解掌握不够。 无论如何,都非常有必要对这些不确定性推理技术进行一番对比分

人工智能原理教案03章不确定性推理方法33主观Bayes方法

3.3 主观Bayes方法 R.O.Duda等人于1976年提出了一种不确定性推理模型。在这个模型中,他们称推理方法为主观Bayes方法,并成功的将这种方法应用于地矿勘探系统PROSPECTOR中。在这种方法中,引入了两个数值(LS,LN),前者体现规则成立的充分性,后者则表现了规则成立的必要性,这种表示既考虑了事件A的出现对其结果B的支持,又考虑了A的不出现对B的影响。 在上一节的CF方法中,CF(A)<0.2就认为规则不可使用,实际上是忽视了A不出现的影响,而主观Bayes方法则考虑了A 不出现的影响。 t3-B方法_swf.htm Bayes定理: 设事件A1,A2 ,A3 ,…,An中任意两个事件都不相容,则对任何事件B有下式成立: 该定理就叫Bayes定理,上式称为Bayes公式。

全概率公式: 可写成: 这是Bayes定理的另一种形式。 Bayes定理给出了一种用先验概率P(B|A),求后验概率P (A|B)的方法。例如用B代表发烧,A代表感冒,显然,求发烧的人中有多少人是感冒了的概率P(A|B)要比求因感冒而发烧的概率P(B|A)困难得多。 3.3.1 规则的不确定性 为了描述规则的不确定性,引入不确定性描述因子LS, LN:对规则A→B的不确定性度量f(B,A)以因子(LS,LN)来描述:

表示A真时对B的影响,即规则成立的充分性 表示A假时对B的影响,即规则成立的必要性 实际应用中概率值不可能求出,所以采用的都是专家给定的LS, LN值。从LS,LN的数学公式不难看出,LS表征的是A的发生对B发生的影响程度,而LN表征的是A的不发生对B发生的影响程度。 几率函数O(X):

不确定性推理知识要点

不确定性推理 1/4/2004 ● 对每个模型需要把握的重点: (1) 知识不确定性的表示方法 (2) 证据不确定性的表示方法 (3) 组合证据不确定性的计算方法 (4) 不确定性的传递算法,亦即如何由证据的不确定性以及知识的不确定性求出结论的 不确定性 (5) 结论不确定性的合成算法,即如果有多条知识推出相同的结论,应该怎样计算出最 终的结论不确定性 ● 学过的模型: 一. 概率方法 二. 主观Bayes 方法 ◆ 实质:根据证据E 的概率P(E)以及LS ,LN 的值,将H 的先验概率P(H)更新为后验概率P(H/E)。其中,LS ,LN ,P(H)都由领域专家给出,P(E)则是由用户的具体观察得到的。 ◆ 模型: (1) 知识不确定性的表示:使用充分性量度LS 和必要性量度LN ,并且这两者都是由领 域专家给出的(P163) (2) 证据不确定的表示:用概率P(E/S)来表示,其中S 表示一次观察,E 为证据。一般 的该值是根据用户给出的可信度C(E/S)计算出来的,具体计算方法参见课本P163-164 (3) 组合证据不确定性的计算:极大极小法(P164) (4) 不确定性的传递算法:引入几率函数来辅助推理过程。几率函数定义为: ()()1() P x x P x Θ=- 根据知识对应的证据的确定性不同分成三种情况,即 1)证据肯定存在的情况: (/)()H E LS H Θ=?Θ 或 ()()(/)(1)()11()LS P H LS H P H E LS P H LS H ??Θ==-?++?Θ 2)证据肯定不存在的情况: (/)()H E LN H Θ?=?Θ 或

相关主题
文本预览
相关文档 最新文档