快速入门数字芯片设计,UCSD ECE111(七)enum枚举类型&优化SHA256哈希算法(二)

简介: 快速入门数字芯片设计,UCSD ECE111(七)enum枚举类型&优化SHA256哈希算法(二)

我们看一下这段运算的关键路径在哪里。由于这一段是组合逻辑赋值,因此是由先后顺序之分的。也就是通常所说的组合逻辑链路,计算得到最终的结果需要把这些时间全部给加起来(不考虑中间变量被优化掉)。需要多次位运算,多个32bit的加法,这些时间显然是很长的。

除此之外还有个难题就是W[n]数组。 对于一个Block而言,�� 一共有64组,用于64轮的计算。一个最简单明了的方法,就是用二维数组去实现它。如果我们按照上面的代码去写,会有什么问题呢?

  • 首先就是需要64个32bit的寄存器,众所周知,寄存器很贵,这也是为什么现代CPU使用的寄存器组也不多
  • 一个更严重的问题就是,它需要多个64选1的多路选择器

大家可能不理解这是为什么,我不就是用到了前16组数据吗?怎么就需要64选1的MUX了。这是因为我们代码这样写,数组的索引含有变量t,综合器综合的时候并不知道你是怎么选的,它默认按照覆盖全范围的考虑方式,因此会生成多个64选一的MUX。学过数字电路的同学都知道,64选1的MUX实际上是由多个8选1的MUX搭起来的。因此开销非常大,无法接受。其生成的电路如下图所示:

事实上我们思考一下,你真的需要同时存储64个不同的 �� (t=0,1..63)吗?这样预先进行计算,但是用的时候需要64选1的逻辑,同样会增加逻辑延迟,这个方法并不好!

如果我们只存储16个,那么我们计算第16个W的时候,只需要通过上面这个简单的逻辑运算,就可以得出W[16]了,这样节省了大量的资源。

如上图所示,因为 �� 是算完第t轮就没有用了,所以完全可以采用上面这种移位寄存器的方式进行替换。

基于这种优化方式会有显著的提升。

如何进一步提升主频呢?重点就是挖掘没有依赖的逻辑,实现他们的并行,同时将无法并行的逻辑采用流水线的方式,以减少某级的延迟。这样可以充分提高主频以及吞吐率。

我们仔细看上面的运算逻辑,对于下一轮的a而言,它由t1+t2得到。而t1和t2由依赖于这一轮的a,b。也就是存在严重的数据依赖。怎么解决呢?

去找非依赖项!上面运算中的k和w是并不依赖于A~H。事实上给定了这一轮的Block,k和w是完全确定的。因此我们可以提前一个周期计算好k和w。由于我们没有存储所以的W数组,对于这一轮的W需要用上一轮的结果去运算,因此我们最好提前两个周期就开始计算W,这样两个周期以后我们就有相应的K和W。就不需要额外的运算了!

我们还可以更加激进一点。下一轮的“h”是等于这一轮的“g”的。并且“h”自身是没有数据依赖关系的,也就是“h”自身到不会经过组合逻辑运算链路。并且我们的运算中又需要“h”。大家有想到什么吗?

其实这段话就是告诉大家,我们计算上一轮的时候。就知道下一轮的“h”是多少了,“h”又可以参与t1的运算(h,k,w我们都有了,我们就可以提前一轮把它求出来),这样就不用等到这一轮,再傻傻的等待t1算出结果了。大家可以自己想想怎么做优化,下篇文章我将讲第八课(更多地SV特性)。至于SHA256的完整设计思路,等我自己整理完以后我会单独写一篇文章作为习题课讲解(原课程中没有说明SHA256的具体设计,当做大作业留给大家完成)。


目录
相关文章
|
4天前
|
算法 数据可视化 安全
基于DWA优化算法的机器人路径规划matlab仿真
本项目基于DWA优化算法实现机器人路径规划的MATLAB仿真,适用于动态环境下的自主导航。使用MATLAB2022A版本运行,展示路径规划和预测结果。核心代码通过散点图和轨迹图可视化路径点及预测路径。DWA算法通过定义速度空间、采样候选动作并评估其优劣(目标方向性、障碍物距离、速度一致性),实时调整机器人运动参数,确保安全避障并接近目标。
|
27天前
|
机器学习/深度学习 算法
基于改进遗传优化的BP神经网络金融序列预测算法matlab仿真
本项目基于改进遗传优化的BP神经网络进行金融序列预测,使用MATLAB2022A实现。通过对比BP神经网络、遗传优化BP神经网络及改进遗传优化BP神经网络,展示了三者的误差和预测曲线差异。核心程序结合遗传算法(GA)与BP神经网络,利用GA优化BP网络的初始权重和阈值,提高预测精度。GA通过选择、交叉、变异操作迭代优化,防止局部收敛,增强模型对金融市场复杂性和不确定性的适应能力。
166 80
|
15天前
|
机器学习/深度学习 数据采集 算法
基于GA遗传优化的CNN-GRU-SAM网络时间序列回归预测算法matlab仿真
本项目基于MATLAB2022a实现时间序列预测,采用CNN-GRU-SAM网络结构。卷积层提取局部特征,GRU层处理长期依赖,自注意力机制捕捉全局特征。完整代码含中文注释和操作视频,运行效果无水印展示。算法通过数据归一化、种群初始化、适应度计算、个体更新等步骤优化网络参数,最终输出预测结果。适用于金融市场、气象预报等领域。
基于GA遗传优化的CNN-GRU-SAM网络时间序列回归预测算法matlab仿真
|
17天前
|
机器学习/深度学习 人工智能 算法
机器学习算法的优化与改进:提升模型性能的策略与方法
机器学习算法的优化与改进:提升模型性能的策略与方法
125 13
机器学习算法的优化与改进:提升模型性能的策略与方法
|
13天前
|
移动开发 算法 计算机视觉
基于分块贝叶斯非局部均值优化(OBNLM)的图像去噪算法matlab仿真
本项目基于分块贝叶斯非局部均值优化(OBNLM)算法实现图像去噪,使用MATLAB2022A进行仿真。通过调整块大小和窗口大小等参数,研究其对去噪效果的影响。OBNLM结合了经典NLM算法与贝叶斯统计理论,利用块匹配和概率模型优化相似块的加权融合,提高去噪效率和保真度。实验展示了不同参数设置下的去噪结果,验证了算法的有效性。
|
12天前
|
算法 决策智能
基于SA模拟退火优化算法的TSP问题求解matlab仿真,并对比ACO蚁群优化算法
本项目基于MATLAB2022A,使用模拟退火(SA)和蚁群优化(ACO)算法求解旅行商问题(TSP),对比两者的仿真时间、收敛曲线及最短路径长度。SA源于金属退火过程,允许暂时接受较差解以跳出局部最优;ACO模仿蚂蚁信息素机制,通过正反馈发现最优路径。结果显示SA全局探索能力强,ACO在路径优化类问题中表现优异。
|
20天前
|
机器学习/深度学习 算法
基于遗传优化的双BP神经网络金融序列预测算法matlab仿真
本项目基于遗传优化的双BP神经网络实现金融序列预测,使用MATLAB2022A进行仿真。算法通过两个初始学习率不同的BP神经网络(e1, e2)协同工作,结合遗传算法优化,提高预测精度。实验展示了三个算法的误差对比结果,验证了该方法的有效性。
|
23天前
|
机器学习/深度学习 数据采集 算法
基于PSO粒子群优化的CNN-GRU-SAM网络时间序列回归预测算法matlab仿真
本项目展示了基于PSO优化的CNN-GRU-SAM网络在时间序列预测中的应用。算法通过卷积层、GRU层、自注意力机制层提取特征,结合粒子群优化提升预测准确性。完整程序运行效果无水印,提供Matlab2022a版本代码,含详细中文注释和操作视频。适用于金融市场、气象预报等领域,有效处理非线性数据,提高预测稳定性和效率。
|
24天前
|
机器学习/深度学习 算法 索引
单目标问题的烟花优化算法求解matlab仿真,对比PSO和GA
本项目使用FW烟花优化算法求解单目标问题,并在MATLAB2022A中实现仿真,对比PSO和GA的性能。核心代码展示了适应度计算、火花生成及位置约束等关键步骤。最终通过收敛曲线对比三种算法的优化效果。烟花优化算法模拟烟花爆炸过程,探索搜索空间,寻找全局最优解,适用于复杂非线性问题。PSO和GA则分别适合快速收敛和大解空间的问题。参数调整和算法特性分析显示了各自的优势与局限。
|
27天前
|
缓存 算法 搜索推荐
Java中的算法优化与复杂度分析
在Java开发中,理解和优化算法的时间复杂度和空间复杂度是提升程序性能的关键。通过合理选择数据结构、避免重复计算、应用分治法等策略,可以显著提高算法效率。在实际开发中,应该根据具体需求和场景,选择合适的优化方法,从而编写出高效、可靠的代码。
35 6

热门文章

最新文章