【贝叶斯分析】计算机科学专业博士作业二

简介: 本文通过多个实例详细解释了如何使用贝叶斯定理和贝叶斯网络来求解条件概率和期望效用等问题。

1 第一题

1.1 题目

已知变量A和B的取值只能为0或1,A⫫𝑩,且𝑝(𝐴=1)=0.65,𝑝(𝐵=1)=0.77。C的取值与A和B有关,具体关系如下图所表:

A B P(C=1 A,B)
0 0 0.1
0 1 0.99
1 0 0.8
1 1 0.25

求𝑝(𝐴=1|𝐶=0)等于多少,选择以下选项(请选择最接近精确值的选项):
A.0.8436
B.0.7436
C.0.6436
D.0.5436

请根据以下题目进行求解问题,一步一步的给出计算过程和最终的答案:

求解过程

根据贝叶斯定理,有:
$ p(A=1|C=0) = \frac{p(C=0|A=1)p(A=1)}{p(C=0)} $
其中,分子部分可以表示为:
$ p(C=0|A=1)p(A=1) = (1 - p(C=1|A=1))p(A=1) $

现在来计算这个值:

首先,需要计算 p(C=0|A=1) ,即当 A = 1 时,C = 0 的概率。根据题目中给出的表格,可以看到当 A = 1 时,C = 0 的概率为 1 - P(C=1|A,B),其中 B 可以取值为 0 或者 1。所以:
$ p(C=0|A=1) = 1 - P(C=1|A,B)\\ = 1 - max(P(C=1|A,B))\\ = 1 - max(0.8,0.25)\\ = 0.2 $

接下来,需要计算 p(A=1) ,即 A 取值为 1 的概率。根据题目中给出的信息,P(A=1)=0.65。

将以上两个结果代入公式得到:

屏幕快照 2024-08-08 上午11.53.30.png


所以, $ p(A=1|C=0) \approx 0.8436$

答案【 A 】

2 第二题

题目

已知贝叶斯网络(如图)
在这里插入图片描述

P: Pollution
S: Smoker
C: Cancer
X: XRay
D: Dyspnoea

2.1 第一问

(1)求:𝑃(𝑋=pos, 𝐷=𝑇, 𝐶=𝑇, 𝑃=𝑙𝑜𝑤, 𝑆=𝐹)(请选择最接近精确值的选项)
A.0.0004
B.0.0026
C.0.0157
D.0.1510

求解过程

计算联合概率

要计算联合概率 P(X=pos,D=T,C=T,P=low,S=F),需要按照贝叶斯网络的结构考虑每个变量的条件依赖性。对于任意变量 A,它的概率可以表示为其父变量的条件概率 P(A∣parents(A)) 与其父变量概率的乘积。

在此贝叶斯网络中,有:

  1. P(P=low):污染水平低的概率。
  2. P(S=F):不吸烟的概率,即 1−P(S=T)。
  3. P(C=T∣P=low,S=F):在已知污染水平低且不吸烟的条件下,患癌症的概率。
  4. P(X=pos∣C=T):在已知患有癌症的条件下,X光检查结果呈阳性的概率。
  5. P(D=T∣C=T):在已知患有癌症的条件下,出现呼吸困难的概率。

可以将这些概率乘起来得到联合概率,注意到 P(C=T∣P=low,S=F) 需要从给定的条件概率表中计算得出。

联合概率 P(X=pos,D=T,C=T,P=low,S=F) 大约是 0.000369。

最终答案为 0.000369
答案【 A 】最接近答案的选项

2.2 第二问

求:𝑃(𝑋=pos, 𝐷=𝑇, 𝐶=F, 𝑃=𝑙𝑜𝑤, 𝑆=T)
A.0.0004
B.0.0026
C.0.0157
D.0.1510

求解过程

要计算 P(X=pos,D=T,C=F,P=low,S=T),需要使用贝叶斯网络的结构和条件概率表(CPT),以及节点的边缘概率来得出答案。由于贝叶斯网络提供了一个概率模型,可以将联合概率分解为条件概率和边缘概率的乘积。根据网络结构,可以写出:

$ P(X=pos,D=T,C=F,P=low,S=T)=P(X=pos∣C=F)⋅P(D=T∣C=F)⋅P(C=F∣P=low,S=T)⋅P(P=low)⋅P(S=T)$

由于 P(X=pos∣C=F) 和 P(D=T∣C=F) 并未直接给出,需要通过其它给定的概率来计算。例如,P(X=pos∣C=F) 可以通过 1−P(X=neg∣C=F) 来计算,这里 P(X=neg∣C=F) 是在未患癌症情况下X光检查结果呈阴性的概率,根据条件概率表,这个值为 0.8。同样的,P(D=T∣C=F) 也需要类似处理。此外,P(C=F∣P=low,S=T) 是在已知低污染水平和吸烟情况下未患癌症的条件概率,可以通过 1−P(C=T∣P=low,S=T) 来计算。

可以使用提供的条件概率表来计算这些值,然后求出联合概率。

联合概率 P(X=pos,D=T,C=F,P=low,S=T) 大约是 0.01539。

最终答案为 0.01539
答案【 C】最接近答案的选项

2.3 第三问

求:𝑃(X=pos | C=F, S=T)
A.0.2
B.0.4
C.0.6
D.0.8

求解过程

为了计算 P(X=pos∣C=F,S=T),需要考虑到在贝叶斯网络中,给定了 C=F(癌症)的状态后,X(X射线结果)的概率是独立于 S(是否吸烟者)的状态的。这是因为在图中,X 仅直接依赖于 C,而与 S 无关。

因此,P(X=pos∣C=F,S=T) 实际上等于 P(X=pos∣C=F),因为 C=F 已经给出了所有 X 需要的信息。

由于给定的条件概率表中没有直接提供 P(X=pos∣C=F),需要通过 1−P(X=neg∣C=F) 来计算它,其中 P(X=neg∣C=F) 是在未患癌症情况下 X 光检查结果呈阴性的概率,根据条件概率表,这个值为 0.8。

所以有:

P(X=pos∣C=F,S=T)=P(X=pos∣C=F)=1−P(X=neg∣C=F)

P(X=pos∣C=F)=1−0.8=0.2

因此,P(X=pos∣C=F,S=T) 的值为 0.2。

最终答案为 0.2
答案【 A】最接近答案的选项

2.4 第四问

求:𝑃(C=F | X=pos, S=T)
A.0.13
B.0.26
C.0.74
D.0.87

求解过程

要计算 P(C=F∣X=pos,S=T),可以使用贝叶斯公式,它允许通过已知的概率来计算想要的条件概率。贝叶斯公式是这样的:

P(C=F∣X=pos,S=T) = P(X=pos∣C=F,S=T)⋅P(C=F∣S=T) / P(X=pos∣S=T)

这里:

  • P(X=pos∣C=F,S=T) 已经在上一个问题中计算为 P(X=pos∣C=F),因为 X 的概率只依赖于 C,和 S 无关。所以,P(X=pos∣C=F,S=T)=P(X=pos∣C=F)=0.2。
  • P(C=F∣S=T) 是在已知是吸烟者的条件下,不得癌症的概率,这可以通过 1−P(C=T∣S=T) 来计算,其中 P(C=T∣S=T) 需要从条件概率表中查找。
  • P(X=pos∣S=T) 是在已知是吸烟者的条件下,X光检查结果呈阳性的概率。这需要利用全概率定理进行计算,涉及所有 C 的可能状态。

给定 X 光检查结果呈阳性和吸烟者的条件下,不患癌症的概率 P(C=F∣X=pos,S=T) 大约是 0.809。

最终答案为 0.809
答案【 D】最接近答案的选项

3 第三题

题目

流感Flu会导致发烧HT,发烧会使温度计读数变大Th。
Flu->HT-Th
已知:
(𝐹𝑙𝑢=𝑇)=0.05
𝑃(𝐻𝑇=𝑇|𝐹𝑙𝑢=𝑇)=0.9
𝑃(𝐻𝑇=𝑇|𝐹𝑙𝑢=𝐹)=0.2。
另外温度计的不确定性如下:
𝑃(𝑇ℎ=𝑇|𝐻𝑇=𝑇)=0.95, 5%𝑓𝑎𝑙𝑠𝑒 𝑛𝑒𝑔𝑎𝑡𝑖𝑣𝑒
𝑃(𝑇ℎ=𝑇|𝐻𝑇=𝐹)=0.15, 15%𝑓𝑎𝑙𝑠𝑒 𝑝𝑜𝑠𝑖𝑡𝑖𝑣𝑒

3.1 问题

现有Th=T,则流感为T的概率𝑷(𝑭𝒍𝒖=𝑻|𝑻𝒉=𝑻)为(请选择最接近精确值的选项):
A.0.13
B.0.26
C.0.74
D.0.87

求解过程

已知条件:

  • P(Flu=T) = 0.05
  • P(HT=T|Flu=T) = 0.9
  • P(HT=T|Flu=F) = 0.2
  • P(Th=T|HT=T) = 0.95
  • P(Th=T|HT=F) = 0.15

现有 Th=T,求 P(Flu=T|Th=T)

根据贝叶斯定理:
P(Flu=T|Th=T) = P(Th=T|Flu=T) * P(Flu=T) / P(Th=T)

其中:

  • P(Th=T|Flu=T) 可以通过 P(HT=T|Flu=T) 和 P(Th=T|HT=T) 来计算。
  • P(Flu=T) 是流感的先验概率。
  • P(Th=T) 是温度计显示体温高的总概率,可以通过全概率公式计算。

使用全概率公式:
P(Th= T)=P(Th= T | HT= T)*P(HT= T)+P(Th= T | HT= F)*P(HT= F)

而:
P(HT= T)=P(HT= T | Flu= T)*P(Flu= T)+P (HT= T | Flu=F)*P(Flu=F)

现在,可以使用提供的概率来计算 P(Flu= T | Th= T),得到结果约为 0.1265。

最终答案为 0.1265
答案【 A】最接近答案的选项

4 第四题在这里插入图片描述

决策网络如下图所示:

4.1 第一问

(1)假设没有任何观察到的证据,Accept Bet的选择是什么时期望效用最高?
单选题
A.Accept Bet=yes
B.Accept Bet=no

求解过程

对于接受赌注,期望收益可以计算为:

$ E[U_{accept}] = P(W=wet) \cdot [P(R=melbwins|W=wet) \cdot U(R=melbwins,AB=yes) + P(R=melbloses|W=wet) \cdot U(R=melbloses,AB=yes)] $
$ + P(W=dry) \cdot [P(R=melbwins|W=dry) \cdot U(R=melbwins,AB=yes) + P(R=melbloses|W=dry) \cdot U(R=melbloses,AB=yes)] $

对于不接受赌注,期望收益可以计算为:

$ E[U_{not accept}] = P(W=wet) \cdot [P(R=melbwins|W=wet) \cdot U(R=melbwins,AB=no) + P(R=melbloses|W=wet) \cdot U(R=melbloses,AB=no)] $
$ + P(W=dry) \cdot [P(R=melbwins|W=dry) \cdot U(R=melbwins,AB=no) + P(R=melbloses|W=dry) \cdot U(R=melbloses,AB=no)] $

现在可以计算这两个期望值。

接受赌注的期望收益 $E[U_{accept}] $ 大约是 1.3,而不接受赌注的期望收益 $ E[U_{not accept}] $ 大约是 3.88。

答案B

4.2 第二问

(2)假设观察到Weather=wet,Accept Bet的选择是什么时期望效用最高?
单选题
A.Accept Bet=yes
B.Accept Bet=no

求解过程

观察到 Weather=wet 时,需要计算在这种情况下接受赌注和不接受赌注的期望收益,并比较哪一个更高。使用同样的公式来计算期望收益,但现在只考虑 Weather=wet 的情况。

对于 Weather=wet,期望收益的计算如下:

如果接受赌注(AB=yes):

$ E[U_{accept}|W=wet] = P(R=melbwins|W=wet) \cdot U(R=melbwins,AB=yes) + P(R=melbloses|W=wet) \cdot U(R=melbloses,AB=yes) $

如果不接受赌注(AB=no):

$ E[U_{not accept}|W=wet] = P(R=melbwins|W=wet) \cdot U(R=melbwins,AB=no) + P(R=melbloses|W=wet) \cdot U(R=melbloses,AB=no) $

可以直接用已知的概率和收益值来计算。

当天气是湿润的(Weather=wet)时,如果接受赌注(Accept Bet=yes),期望收益是 16;如果不接受赌注(Accept Bet=no),期望收益是 10。因此,在这种情况下,接受赌注会得到更高的期望效用。

答案:A

5 第五题

题目

已知贝叶斯网络X1->X2->X3,其中所有变量均取二值,1或2。它的一组𝑖.𝑖.𝑑.数据如下表所示。

- X1 X2 X3
D1 1 1 1
D2 2 2 2
D3 1 1 2
D4 2 2 2

5.1 第一问

求最大似然估计P(X1=1),(请选择最接近答案的选项):
A.1/4
B.1/3
C.1/2
D.1
E.0

求解过程

首先,需要计算样本中X1=1的次数。从给定的数据表中可以看出,样本中有1个D1和1个D3满足X1=1条件。因此,X1=1的次数为2。

接下来,需要计算总样本量。从给定的数据表中可以看出,总共有4个样本(D1、D2、D3和D4)。

最后,将X1=2的次数除以总样本量,即可得到最大似然估计P(X1=1)。

P(X1=1) = X1的次数 / 总样本量 = 2 / 4 = 1/2

所以最大似然估计P(X1=1)=1/2
【 C 】 为答案。

5.2 第二问

(2)求最大似然估计P(X2=1|X1=1),(请选择最接近答案的选项):
A.1/4
B.1/3
C.1/2
D.1
E.0

求解过程

根据数据,X1取值为1的次数为2(D1、D3),总共有4个数据点,所以P(X1=1) = 2/4 = 1/2。

同时,X2取值为1且X1取值为1的次数为2(没有满足条件的数据点),所以P(X2=1,X1=1) = 2/4 = 1/2。

接下来,可以使用贝叶斯定理来计算P(X2=1|X1=1):

P(X2=1|X1=1) = P(X2=1,X1=1)/P(X1=1) =(1/2)/(1/2) = 1

最终答案为1
答案【 D】

5.3 第三问

(3)求最大似然估计P(X2=1|X1=2),(请选择最接近答案的选项):
A.1/4
B.1/3
C.1/2
D.1
E.0

求解过程

根据数据,X1取值为2的次数为2(D2、D4),总共有4个数据点,所以P(X1=2) = 2/4 = 1/2。

同时,X2取值为1且X1取值为2的次数为0(没有满足条件的数据点),所以P(X2=1,X1=2) = 0/4 = 0。

接下来,可以使用贝叶斯定理来计算P(X2=1|X1=2):

P(X2=1|X1=2) = P(X2=1,X1=2)/P(X1=2)

代入已知的值:

P(X3=1|X3=X4) = 0/(1/2)

最终答案为0。
答案【 E 】最接近答案的选项

5.4 第四问

(4)求最大似然估计P(X3=1|X2=1),(请选择最接近答案的选项):
A.1/4
B.1/3
C.1/2
D.1
E.0

求解过程

首先,需要计算P(X2=1)和P(X3=1,X2=1)。

根据数据,X2取值为1的次数为2(D1、D3),总共有4个数据点,所以P(X2=1) = 2/4 = 1/2。

同时,X3取值为1且X2取值为1的次数为1(D1),所以P(X3=1,X2=1) = 1/4。

接下来,可以使用贝叶斯定理来计算P(X3=1|X2=1):

P(X3=1|X2=1) = P(X3=1,X2=1)/P(X2=1)

代入已知的值:

P(X3=1|X2=1) = (1/4)/(1/2)

最终答案为 0.5。
答案【 C 】最接近答案的选项

5.5 第五问

(5)求最大似然估计P(X3=1|X2=2),(请选择最接近答案的选项):
A.1/4
B.1/3
C.1/2
D.1
E.0

求解过程

首先,需要计算P(X2=2)和P(X3=1,X2=2)。

根据数据,X2取值为2的次数为2(D2、D4),总共有4个数据点,所以P(X2=2) = 2/4。

同时,X3取值为1且X2取值为2的次数为0(没有满足条件的数据点),所以P(X3=1,X2=2) = 0/4 = 0。

接下来,可以使用贝叶斯定理来计算P(X3=1|X2=2):

P(X3=1|X2=2) = P(X3=1,X2=2)/P(X2=2)

代入已知的值:

P(X3=1|X2=2) = 0/(2/4)

最终答案为0。
答案【 E 】最接近答案的选项

目录
相关文章
|
3月前
|
项目管理
【贝叶斯分析】计算机科学专业博士作业一
本文通过多个案例,详细解释了贝叶斯分析在不同情境下的应用,包括跨种族夫妇的有罪概率、患X病的风险评估、犯罪现场的嫌疑人推断以及XOR运算的概率计算,展示了如何利用贝叶斯定理进行推理和决策。
36 3
|
3月前
|
机器学习/深度学习 人工智能 算法
【人工智能课程】计算机科学博士作业三
本文是关于计算机科学博士课程的第三次作业,主要介绍了图片攻击的概念、常见算法(如FGSM、IFGSM、MIFGSM等),并通过Python代码实现了对图像的攻击以及评估了这些攻击算法对模型性能的影响。
48 3
【人工智能课程】计算机科学博士作业三
|
3月前
|
人工智能 TensorFlow 算法框架/工具
【人工智能课程】计算机科学博士作业二
本文使用TensorFlow 1.x实现了一个手势识别任务,通过图像增强技术改进模型,将基准训练准确率从0.92提升到0.97,测试准确率从0.77提升到0.88,并提供了详细的代码实现过程。
28 3
【人工智能课程】计算机科学博士作业二
|
3月前
|
机器学习/深度学习 数据采集 人工智能
【人工智能课程】计算机科学博士作业一
本文是一份人工智能课程作业指南,详细描述了使用深度神经网络构建回归模型的任务,包括数据预处理、特征选择、模型构建、训练、评估和优化的全过程,并提供了相应的PyTorch代码实现。
20 2
【人工智能课程】计算机科学博士作业一
|
3月前
|
数据可视化 数据挖掘 数据库连接
【数据挖掘】2022年2023届秋招爱玩特智能量化研究员岗 笔试题
本文提供了2022年爱玩特智能量化研究员岗位的笔试题目及Python代码实现,涉及数据库连接、数据可视化、投资回报率计算、累计回报率、描述性统计分析以及简单线性回归等任务。
38 2
|
3月前
|
机器学习/深度学习 算法 PyTorch
【模式识别】计算机科学博士课程作业解析
课程作业的解析,涵盖了最小风险贝叶斯决策、最小错误率贝叶斯决策、Python编程实现的机器学习算法,包括KNN、SVM和卷积神经网络在特定数据集上的应用与评估。
34 1
|
机器学习/深度学习 算法
寒假本科创新——机器学习(二)
寒假本科创新——机器学习(二)
67 0
|
机器学习/深度学习 人工智能 算法
寒假本科创新学习——机器学习(一)
寒假本科创新学习——机器学习(一)
294 0
|
机器学习/深度学习 人工智能
大模型铺天盖地出现后,计算机科学终成「自然科学」
大模型铺天盖地出现后,计算机科学终成「自然科学」
|
Web App开发 机器学习/深度学习 人工智能
伦敦大学学院计算机系教授汪军:决策大模型(2)
伦敦大学学院计算机系教授汪军:决策大模型
251 0