魔方还原算法(三)上帝算法

简介: 魔方还原算法(三)上帝算法

首发公众号:Rand_cs
本文是有关魔方还原算法的第三篇,上帝算法——krof 算法。在篇一的时候说过,上帝算法那就是上帝还原魔方使用的算法嘛,上帝无所不知所以在还原的过程中每一步总是能够朝着距离还原状态更近的方向前进。因此使用上帝算法来还原魔方总是能够以最小步数来还原。

那么我们人类要怎么实现上帝算法呢?最直观的想法那就是要创建一张超大的表,里面存放魔方所有状态和能够使它距离还原状态更近一步的转动。这个想法的确是对的,看着上帝算法这么高大上的名字,实际上就是一种暴力美学

暴力归暴力,实现的时候也还是要注意优化,首先我们并不需要存储实际的转动,只需要存储当前状态距离还原状态有多远就行了。比如说当前状态 X 应用转动 F 变成状态 Y 之后距离还原状态还有 10 步,当前状态 X 应用转动 R 变成状态 Z 之后距离还原状态还有 8 步,那当然知道下一步应该应用转动 R。

其次这张表也不用创建所有状态来准确计算每个状态到还原状态的距离,我们使用启发式函数来估计,也就是像前文篇二中讲的那样分成几个表,单看角块还原的表,单看棱块还原的表,或者它们各种组合方式,这就像把整个魔方状态做了因式分解,单看因子还原的感觉。如此操作,状态数会少很多,这张表建立起来也就更容易些。

但有一个问题,这是用启发式函数来估计,估计?能保证结果的正确性使得还原步数最少吗?答案是可以的,前提是要低估,不能高估。如果看过篇二应该知道这张表我们是用来在搜索时剪枝用的,每次搜索的时候都有一个参数:当前还允许的步数。怎样剪枝的呢?每次搜索时查表得到当前状态到达还原状态至少需要的步数,如果这个步数大于允许的步数,剪掉

有了这个了解后来看看分别在低估和高估情况下的正确性如何:假如当前允许的步数为 5,低估情况下至少需要 3 步,高估情况下至少需要 5 步,实际需要 4 步。那么低估高估情况都没有被剪掉,低估没有超过 4 没什么问题,但高估了没有被剪掉仍然留在搜索空间树中就会导致错误结果。

上述将魔方还原分解成各个部分还原就是对当前状态到还原状态的低估,打个比方,当前魔方状态只还原角块需要 3 步,那么还原整个魔方至少需要 3 步,因为棱块的原因所以还原步数可能多于 3 步。这种启发式估计就是可行正确得因为它绝不会高估也就是绝不会超过实际最少的还原步数。

krof 算法里面使用了三张表:

  • 角块
  • 6 个棱块
  • 剩余 6 个棱块

角块 8 个,考虑位置方向,一共 $$8!\times3^7$$ 种情况,也就是有这么多表项。

6 个棱块,位置和方向都要考虑,则一共有 $$12\times11\times10\times9\times8\times7\times2^6=12!/6!\times2^6$$ 种情况。

怎么生成这个表呢?前面也讲过,在这儿简述一遍伪码:

  1. 初始化有足够空间的数据库/表/数组
  2. 第一层结点:还原状态填 0
  3. 对上一层的每个状态应用每种转动操作得到新状态,如果没出现过,将当前结点所在层数减 1 填进表中,若出现过则跳过。
  4. 重复上述步骤直到没有新结点产生

总的来说就是一个广度优先搜索的过程,至于怎么给状态编码作为索引就看篇二了。

最后就是搜索算法,还是使用 IDA 算法,话说这个算法本身也是 krof 在1985 年提出的。常用的搜索算法有深搜和广搜,这两个也是搜索算法的基础,其他各个形形色色的算法大都是以它俩为基础。要找最值,一般是用广搜,而 IDA,迭代加深算法,它是以深搜的形式来写广搜,比如说此次搜索深度定为 1,没搜到结果,搜索深度定为 2 重新搜索,重复下去,所以虽然每次搜索是深搜的形式,但也还是能够找到最值的。这儿定下的搜索深度就是前面说的所允许的步数。

那为什么不直接使用广搜呢,因为广搜是要存储状态结点的,而魔方的状态数实在太多,每个结点的分支因子大约是 13.348,如果使用广搜,简直指数爆炸绝对爆内存。深搜就不会存储结点,而是使用栈来递归,又因为 IDA* 设定了搜索深度,所以不会出现爆内存的情况,但是搜索时间增加了,有得就必有失

对于分子因子 13.348 说明一下,这个数字是根据实验结果算出来的,根据搜索空间数的深度和已产生的结点就能够估算出来。虽然对于每个状态结点我们可以应用 18 种操作,但是某些转动是不必要的,比如 RR' ,再者就算应用了后续也可能产生相同结点,所以这个分支因子肯定是小于 18 的。

关于魔方的上帝算法,就这么多内容吧,大部分内容怎么编码,构建各种表,对称,后续优化都在前文篇二那一万六千字了,本文就不赘述了,主要也就是对科先巴算法作一些补充,krof 提出的这个算法本身也就是建立在科先巴的二阶段算法之上的。

简单来说就是把科先巴的二阶段变成一阶段,各个状态到还原状态的距离用个表存起来,再使用 IDA* 算法来搜索就是上帝算法了。

好啦,本文就到这里,有什么错误还请批评指正,也欢迎大家来同我交流学习进步。
首发公众号:Rand_cs

目录
相关文章
|
8月前
|
算法
|
算法 Java 数据安全/隐私保护
Crack App | yrx App 对抗赛第一题 Sign 算法的还原
Crack App | yrx App 对抗赛第一题 Sign 算法的还原
111 0
Crack App | yrx App 对抗赛第一题 Sign 算法的还原
|
7天前
|
算法 数据安全/隐私保护
室内障碍物射线追踪算法matlab模拟仿真
### 简介 本项目展示了室内障碍物射线追踪算法在无线通信中的应用。通过Matlab 2022a实现,包含完整程序运行效果(无水印),支持增加发射点和室内墙壁设置。核心代码配有详细中文注释及操作视频。该算法基于几何光学原理,模拟信号在复杂室内环境中的传播路径与强度,涵盖场景建模、射线发射、传播及接收点场强计算等步骤,为无线网络规划提供重要依据。
|
20天前
|
机器学习/深度学习 算法
基于改进遗传优化的BP神经网络金融序列预测算法matlab仿真
本项目基于改进遗传优化的BP神经网络进行金融序列预测,使用MATLAB2022A实现。通过对比BP神经网络、遗传优化BP神经网络及改进遗传优化BP神经网络,展示了三者的误差和预测曲线差异。核心程序结合遗传算法(GA)与BP神经网络,利用GA优化BP网络的初始权重和阈值,提高预测精度。GA通过选择、交叉、变异操作迭代优化,防止局部收敛,增强模型对金融市场复杂性和不确定性的适应能力。
156 80
|
8天前
|
机器学习/深度学习 数据采集 算法
基于GA遗传优化的CNN-GRU-SAM网络时间序列回归预测算法matlab仿真
本项目基于MATLAB2022a实现时间序列预测,采用CNN-GRU-SAM网络结构。卷积层提取局部特征,GRU层处理长期依赖,自注意力机制捕捉全局特征。完整代码含中文注释和操作视频,运行效果无水印展示。算法通过数据归一化、种群初始化、适应度计算、个体更新等步骤优化网络参数,最终输出预测结果。适用于金融市场、气象预报等领域。
基于GA遗传优化的CNN-GRU-SAM网络时间序列回归预测算法matlab仿真
|
8天前
|
算法
基于龙格库塔算法的锅炉单相受热管建模与matlab数值仿真
本设计基于龙格库塔算法对锅炉单相受热管进行建模与MATLAB数值仿真,简化为喷水减温器和末级过热器组合,考虑均匀传热及静态烟气处理。使用MATLAB2022A版本运行,展示自编与内置四阶龙格库塔法的精度对比及误差分析。模型涉及热传递和流体动力学原理,适用于优化锅炉效率。
|
6天前
|
移动开发 算法 计算机视觉
基于分块贝叶斯非局部均值优化(OBNLM)的图像去噪算法matlab仿真
本项目基于分块贝叶斯非局部均值优化(OBNLM)算法实现图像去噪,使用MATLAB2022A进行仿真。通过调整块大小和窗口大小等参数,研究其对去噪效果的影响。OBNLM结合了经典NLM算法与贝叶斯统计理论,利用块匹配和概率模型优化相似块的加权融合,提高去噪效率和保真度。实验展示了不同参数设置下的去噪结果,验证了算法的有效性。
|
5天前
|
算法 决策智能
基于SA模拟退火优化算法的TSP问题求解matlab仿真,并对比ACO蚁群优化算法
本项目基于MATLAB2022A,使用模拟退火(SA)和蚁群优化(ACO)算法求解旅行商问题(TSP),对比两者的仿真时间、收敛曲线及最短路径长度。SA源于金属退火过程,允许暂时接受较差解以跳出局部最优;ACO模仿蚂蚁信息素机制,通过正反馈发现最优路径。结果显示SA全局探索能力强,ACO在路径优化类问题中表现优异。
|
13天前
|
机器学习/深度学习 算法
基于遗传优化的双BP神经网络金融序列预测算法matlab仿真
本项目基于遗传优化的双BP神经网络实现金融序列预测,使用MATLAB2022A进行仿真。算法通过两个初始学习率不同的BP神经网络(e1, e2)协同工作,结合遗传算法优化,提高预测精度。实验展示了三个算法的误差对比结果,验证了该方法的有效性。
|
16天前
|
机器学习/深度学习 数据采集 算法
基于PSO粒子群优化的CNN-GRU-SAM网络时间序列回归预测算法matlab仿真
本项目展示了基于PSO优化的CNN-GRU-SAM网络在时间序列预测中的应用。算法通过卷积层、GRU层、自注意力机制层提取特征,结合粒子群优化提升预测准确性。完整程序运行效果无水印,提供Matlab2022a版本代码,含详细中文注释和操作视频。适用于金融市场、气象预报等领域,有效处理非线性数据,提高预测稳定性和效率。