数理逻辑—推理理论

简介: 数理逻辑—推理理论

正文


1 推理的通俗解释


推理是从前提推出结论的思维过程,前提是指已知的命题公式,结论是指从前提出发应用推理规则推出的命题公式,当推理正确且前提也正确时,结论一定正确。


2 构造证明法——证明推理正确的方法之一


构造证明法是按照给定的规则进行,其中有些规则建立在推理定律(即重言蕴含式)的基础之上。


推理定律:

00000000000000000000000.png

根据公理和上述推理定律,可以得到下面的常用推理规则


000000000000000000.png


其中,A 1 , A 2 , . . . , A k ⊨ B 表示B 是A 1 , A 2 , . . . , A k  的逻辑结论,若A 1 , A 2 , . . . , A k  已经得证,则可以引入B


构造证明法举例

构造下列推理的证明:

前提:p → ( q ∨ r ) , s → ¬ q , p , s

结论:r

证明:


p(qr)(前提引入)

p(前提引入)

qr(①②假言推理)

s¬q(前提引入)

s(前提引入)

¬q(④⑤假言推理)

r(③⑥析取三段论,得证)


2.1 附加前提证明法


结论为蕴含式时适用该技巧,蕴含式的前件即为附加的前提,这时可以将附加的前提作为前提使用。

附加前提证明法举例

构造下列推理的证明:

前提:p → ( q → r ) , ¬ s ∨ p , q

结论:s → r

证明:

¬s

s(前提引入)

p(①②析取三段论)

p(qr)(前提引入)

qr(③④假言推理)

q(前提引入)

r(⑤⑥假言推理,得证)


2.2 归谬法


当结论简单时(通常为一个命题变项)适用该技巧,将结论的否定式引入证明,观察证明结果的真假,若证明结果为假,则说明前提与结论的否定式不相容,推理正确。

归谬法举例

构造下列推理的证明:

构造下列推理的证明:

前提:p → ( ¬ ( r ∧ s ) → ¬ q ) , p , ¬ s

结论:¬ q

证明:


p(¬(rs)¬q)(前提引入)

p(前提引入)

¬(rs)¬q(①②假言推理)

¬(¬q)(结论的否定式引入)

q(④置换)

rs(③⑤拒取式)

¬s(前提引入)

s(⑥简化)

s¬s(⑦⑧合取)

0(结论为假,得证)


相关文章
|
8天前
|
机器学习/深度学习 存储 人工智能
一阶优化算法启发,北大林宙辰团队提出具有万有逼近性质的神经网络架构的设计方法
【4月更文挑战第19天】北京大学林宙辰团队在深度学习领域取得突破,提出基于一阶优化算法的神经网络设计方法,构建具有万有逼近性质的模型,提升训练速度和泛化能力。该方法利用一阶导数信息,高效处理大规模问题。虽然面临非光滑优化和收敛速度挑战,但团队通过正则化和自适应学习率等策略进行改进,相关研究在多个标准数据集上表现出色。
16 1
|
8天前
|
人工智能 调度 vr&ar
探索生成模型的新篇章:扩散模型的理论与实践
【4月更文挑战第11天】扩散模型作为新兴的生成工具,基于变分自编码器(VAE)和去噪扩散概率模型(DDPM),通过逐步添加噪声生成样本,广泛应用于图像和视频生成,展示出在逆问题解决上的潜力。尽管训练复杂且计算需求高,研究者正通过新理论框架和SDE方法优化模型,以应对挑战并提升性能。
13 1
探索生成模型的新篇章:扩散模型的理论与实践
|
8天前
|
机器学习/深度学习 人工智能
论文介绍:深入解析神经语言模型的规模定律
【4月更文挑战第2天】OpenAI的论文《Scaling Laws for Neural Language Models》探索了模型规模、数据量和计算资源与性能的幂律关系。研究发现,增大模型参数、数据集和计算投入能按幂律提升性能,且模型性能与架构细节关联较小。大型模型在样本效率上更优,能在少量数据上达到与小型模型相当的性能。尽管存在理论解释和数据规模等方面的局限性,该研究为优化资源分配和设计高性能语言模型提供了关键洞见。
16 2
论文介绍:深入解析神经语言模型的规模定律
|
机器学习/深度学习 自然语言处理 算法
学习=拟合?深度学习和经典统计学是一回事?哈佛理论计算机科学家细数二者差异(2)
学习=拟合?深度学习和经典统计学是一回事?哈佛理论计算机科学家细数二者差异
102 0
|
机器学习/深度学习 算法 数据建模
学习=拟合?深度学习和经典统计学是一回事?哈佛理论计算机科学家细数二者差异(1)
学习=拟合?深度学习和经典统计学是一回事?哈佛理论计算机科学家细数二者差异
|
机器学习/深度学习 存储 算法
大脑带来的启发:深度神经网络优化中突触整合原理介绍
大脑带来的启发:深度神经网络优化中突触整合原理介绍
129 0
|
机器学习/深度学习 算法
【吴恩达深度学习笔记-改善深层神经网络】——第一周深度学习的实用层面(1.2)
【吴恩达深度学习笔记-改善深层神经网络】——第一周深度学习的实用层面(1.2)
【吴恩达深度学习笔记-改善深层神经网络】——第一周深度学习的实用层面(1.2)
|
机器学习/深度学习 算法 网络架构
【吴恩达深度学习笔记-改善深层神经网络】——第一周深度学习的实用层面(1.3)
【吴恩达深度学习笔记-改善深层神经网络】——第一周深度学习的实用层面(1.3)
【吴恩达深度学习笔记-改善深层神经网络】——第一周深度学习的实用层面(1.3)
|
机器学习/深度学习 算法 测试技术
【吴恩达深度学习笔记-改善深层神经网络】——第一周深度学习的实用层面(1.1)
【吴恩达深度学习笔记-改善深层神经网络】——第一周深度学习的实用层面(1.1)
【吴恩达深度学习笔记-改善深层神经网络】——第一周深度学习的实用层面(1.1)
|
机器学习/深度学习 存储
【吴恩达深度学习笔记-改善深层神经网络】——第一周深度学习的实用层面(1.4)
【吴恩达深度学习笔记-改善深层神经网络】——第一周深度学习的实用层面(1.4)
【吴恩达深度学习笔记-改善深层神经网络】——第一周深度学习的实用层面(1.4)