快速入门数字芯片设计,UCSD ECE111(七)enum枚举类型&优化SHA256哈希算法(二)

简介: 快速入门数字芯片设计,UCSD ECE111(七)enum枚举类型&优化SHA256哈希算法(二)

我们看一下这段运算的关键路径在哪里。由于这一段是组合逻辑赋值,因此是由先后顺序之分的。也就是通常所说的组合逻辑链路,计算得到最终的结果需要把这些时间全部给加起来(不考虑中间变量被优化掉)。需要多次位运算,多个32bit的加法,这些时间显然是很长的。

除此之外还有个难题就是W[n]数组。 对于一个Block而言,�� 一共有64组,用于64轮的计算。一个最简单明了的方法,就是用二维数组去实现它。如果我们按照上面的代码去写,会有什么问题呢?

  • 首先就是需要64个32bit的寄存器,众所周知,寄存器很贵,这也是为什么现代CPU使用的寄存器组也不多
  • 一个更严重的问题就是,它需要多个64选1的多路选择器

大家可能不理解这是为什么,我不就是用到了前16组数据吗?怎么就需要64选1的MUX了。这是因为我们代码这样写,数组的索引含有变量t,综合器综合的时候并不知道你是怎么选的,它默认按照覆盖全范围的考虑方式,因此会生成多个64选一的MUX。学过数字电路的同学都知道,64选1的MUX实际上是由多个8选1的MUX搭起来的。因此开销非常大,无法接受。其生成的电路如下图所示:

事实上我们思考一下,你真的需要同时存储64个不同的 �� (t=0,1..63)吗?这样预先进行计算,但是用的时候需要64选1的逻辑,同样会增加逻辑延迟,这个方法并不好!

如果我们只存储16个,那么我们计算第16个W的时候,只需要通过上面这个简单的逻辑运算,就可以得出W[16]了,这样节省了大量的资源。

如上图所示,因为 �� 是算完第t轮就没有用了,所以完全可以采用上面这种移位寄存器的方式进行替换。

基于这种优化方式会有显著的提升。

如何进一步提升主频呢?重点就是挖掘没有依赖的逻辑,实现他们的并行,同时将无法并行的逻辑采用流水线的方式,以减少某级的延迟。这样可以充分提高主频以及吞吐率。

我们仔细看上面的运算逻辑,对于下一轮的a而言,它由t1+t2得到。而t1和t2由依赖于这一轮的a,b。也就是存在严重的数据依赖。怎么解决呢?

去找非依赖项!上面运算中的k和w是并不依赖于A~H。事实上给定了这一轮的Block,k和w是完全确定的。因此我们可以提前一个周期计算好k和w。由于我们没有存储所以的W数组,对于这一轮的W需要用上一轮的结果去运算,因此我们最好提前两个周期就开始计算W,这样两个周期以后我们就有相应的K和W。就不需要额外的运算了!

我们还可以更加激进一点。下一轮的“h”是等于这一轮的“g”的。并且“h”自身是没有数据依赖关系的,也就是“h”自身到不会经过组合逻辑运算链路。并且我们的运算中又需要“h”。大家有想到什么吗?

其实这段话就是告诉大家,我们计算上一轮的时候。就知道下一轮的“h”是多少了,“h”又可以参与t1的运算(h,k,w我们都有了,我们就可以提前一轮把它求出来),这样就不用等到这一轮,再傻傻的等待t1算出结果了。大家可以自己想想怎么做优化,下篇文章我将讲第八课(更多地SV特性)。至于SHA256的完整设计思路,等我自己整理完以后我会单独写一篇文章作为习题课讲解(原课程中没有说明SHA256的具体设计,当做大作业留给大家完成)。


目录
相关文章
|
1月前
|
机器学习/深度学习 算法 数据可视化
基于MVO多元宇宙优化的DBSCAN聚类算法matlab仿真
本程序基于MATLAB实现MVO优化的DBSCAN聚类算法,通过多元宇宙优化自动搜索最优参数Eps与MinPts,提升聚类精度。对比传统DBSCAN,MVO-DBSCAN有效克服参数依赖问题,适应复杂数据分布,增强鲁棒性,适用于非均匀密度数据集的高效聚类分析。
|
1月前
|
机器学习/深度学习 算法
采用蚁群算法对BP神经网络进行优化
使用蚁群算法来优化BP神经网络的权重和偏置,克服传统BP算法容易陷入局部极小值、收敛速度慢、对初始权重敏感等问题。
248 5
|
2月前
|
机器学习/深度学习 传感器 算法
【高创新】基于优化的自适应差分导纳算法的改进最大功率点跟踪研究(Matlab代码实现)
【高创新】基于优化的自适应差分导纳算法的改进最大功率点跟踪研究(Matlab代码实现)
214 14
|
1月前
|
机器学习/深度学习 人工智能 算法
【基于TTNRBO优化DBN回归预测】基于瞬态三角牛顿-拉夫逊优化算法(TTNRBO)优化深度信念网络(DBN)数据回归预测研究(Matlab代码实现)
【基于TTNRBO优化DBN回归预测】基于瞬态三角牛顿-拉夫逊优化算法(TTNRBO)优化深度信念网络(DBN)数据回归预测研究(Matlab代码实现)
110 0
|
2月前
|
canal 算法 vr&ar
【图像处理】基于电磁学优化算法的多阈值分割算法研究(Matlab代码实现)
【图像处理】基于电磁学优化算法的多阈值分割算法研究(Matlab代码实现)
121 1
|
2月前
|
机器学习/深度学习 运维 算法
【微电网多目标优化调度】多目标学习者行为优化算法MOLPB求解微电网多目标优化调度研究(Matlab代码实现)
【微电网多目标优化调度】多目标学习者行为优化算法MOLPB求解微电网多目标优化调度研究(Matlab代码实现)
194 1
|
2月前
|
机器学习/深度学习 算法 数据安全/隐私保护
基于WOA鲸鱼优化的XGBoost序列预测算法matlab仿真
基于WOA优化XGBoost的序列预测算法,利用鲸鱼优化算法自动寻优超参数,提升预测精度。结合MATLAB实现,适用于金融、气象等领域,具有较强非线性拟合能力,实验结果表明该方法显著优于传统模型。(238字)
|
2月前
|
机器学习/深度学习 算法 Java
基于灰狼优化算法(GWO)解决柔性作业车间调度问题(Matlab代码实现)
基于灰狼优化算法(GWO)解决柔性作业车间调度问题(Matlab代码实现)
208 1
|
2月前
|
算法 机器人 Serverless
【机器人路径规划】基于6种算法(黑翅鸢优化算法BKA、SSA、MSA、RTH、TROA、COA)求解机器人路径规划研究(Matlab代码实现)
【机器人路径规划】基于6种算法(黑翅鸢优化算法BKA、SSA、MSA、RTH、TROA、COA)求解机器人路径规划研究(Matlab代码实现)
390 2

热门文章

最新文章