快速入门数字芯片设计,UCSD ECE111(七)enum枚举类型&优化SHA256哈希算法(一)

简介: 快速入门数字芯片设计,UCSD ECE111(七)enum枚举类型&优化SHA256哈希算法

这篇文章带来ECE111第七节课的Slides以及自己的一些补充。

该课程的网站如下:

https://link.zhihu.com/?target=http%3A//cwcserv.ucsd.edu/~billlin/classes/ECE111/index.php

书接上回,继续讨论之前的Project3:

在讨论之前首先比较了enumparameter两个关键字

enum有两种方式:

  • 第一种为特定编码,如图中指定了IDLE,STEP1,STEP2,STEP3 各自的取值
  • 还有一种方式为默认编码,在没有指定的情况下,则默认内部的值是逐一增加的。同时这些值的比特宽度和外部的state信号是一致的

对于parameter关键字,则是以常数的方式进行对待的,并且不会等到编译阶段才进行处理,在预处理阶段就会进行相应的替换。enum各自的label是唯一的(value唯一),同时对于相应的比特不能够进行逻辑操作。这里我们只需要掌握enum运用在状态机各状态声明。我们为什么要用enum呢?主要有以下几点:

  • enum相比于parameter更加安全,因为我们在对state赋值的时候,只能对其分配我们定义的标签值,不会导致赋意料之外的状态值。
  • 标签值和信号名一定是同样的大小,如果不一样,在编译阶段就会报错,而paremter并不会报错,大概率只会报warning!(甚至warning都没有)
  • 只允许由label或者其他相同类型的enum变量赋值,其他类型的赋值都是非法的。

具体的大家可以看下面这两张图,enum用在状态变量中好处多多,大家要熟练掌握。

接下来回归正题,讨论SHA256算法的优化。忘掉了SHA256是什么的请回顾上节课的内容。

我们的运算实际上是针对A~H这8个32位寄存器,持续的做运算,运算到最后一轮,这8个寄存器代表的就是256bit的哈希值。 假定�� 以及 �� 在进行轮运算之前已经都有了,则我们可以重点关注轮运算的步骤,如上图所示。

基于这个想法,我们可以写出相关的代码如图所示,通过多轮的运算(对于一个Block而言,我们需要在COMPUTE状态下持续计算A~H寄存器的值,一共64轮)。上面这段代码可以用吗?大家思考一下。

从逻辑的角度来说(或者是软件的角度来说),当然是可以的。大家做仿真也没有任何问题,结果肯定是对的。但是这样时钟频率一定是很低的。时刻要牢记我们设计的是硬件电路,写代码只是去描述硬件的行为,上面这样的一次运算我们要求它在一个时钟周期以内要算完,以满足建立时间。(因为下一个时钟周期要用到上一个时钟周期的结果做新一轮的运算),但是这段运算显然要算很久,因此时钟周期也需要很长才可以满足建立时间,这样频率一定很低。所以要针对这段代码进行优化。

目录
相关文章
|
4天前
|
算法 数据可视化 安全
基于DWA优化算法的机器人路径规划matlab仿真
本项目基于DWA优化算法实现机器人路径规划的MATLAB仿真,适用于动态环境下的自主导航。使用MATLAB2022A版本运行,展示路径规划和预测结果。核心代码通过散点图和轨迹图可视化路径点及预测路径。DWA算法通过定义速度空间、采样候选动作并评估其优劣(目标方向性、障碍物距离、速度一致性),实时调整机器人运动参数,确保安全避障并接近目标。
|
27天前
|
机器学习/深度学习 算法
基于改进遗传优化的BP神经网络金融序列预测算法matlab仿真
本项目基于改进遗传优化的BP神经网络进行金融序列预测,使用MATLAB2022A实现。通过对比BP神经网络、遗传优化BP神经网络及改进遗传优化BP神经网络,展示了三者的误差和预测曲线差异。核心程序结合遗传算法(GA)与BP神经网络,利用GA优化BP网络的初始权重和阈值,提高预测精度。GA通过选择、交叉、变异操作迭代优化,防止局部收敛,增强模型对金融市场复杂性和不确定性的适应能力。
166 80
|
15天前
|
机器学习/深度学习 数据采集 算法
基于GA遗传优化的CNN-GRU-SAM网络时间序列回归预测算法matlab仿真
本项目基于MATLAB2022a实现时间序列预测,采用CNN-GRU-SAM网络结构。卷积层提取局部特征,GRU层处理长期依赖,自注意力机制捕捉全局特征。完整代码含中文注释和操作视频,运行效果无水印展示。算法通过数据归一化、种群初始化、适应度计算、个体更新等步骤优化网络参数,最终输出预测结果。适用于金融市场、气象预报等领域。
基于GA遗传优化的CNN-GRU-SAM网络时间序列回归预测算法matlab仿真
|
17天前
|
机器学习/深度学习 人工智能 算法
机器学习算法的优化与改进:提升模型性能的策略与方法
机器学习算法的优化与改进:提升模型性能的策略与方法
125 13
机器学习算法的优化与改进:提升模型性能的策略与方法
|
13天前
|
移动开发 算法 计算机视觉
基于分块贝叶斯非局部均值优化(OBNLM)的图像去噪算法matlab仿真
本项目基于分块贝叶斯非局部均值优化(OBNLM)算法实现图像去噪,使用MATLAB2022A进行仿真。通过调整块大小和窗口大小等参数,研究其对去噪效果的影响。OBNLM结合了经典NLM算法与贝叶斯统计理论,利用块匹配和概率模型优化相似块的加权融合,提高去噪效率和保真度。实验展示了不同参数设置下的去噪结果,验证了算法的有效性。
|
12天前
|
算法 决策智能
基于SA模拟退火优化算法的TSP问题求解matlab仿真,并对比ACO蚁群优化算法
本项目基于MATLAB2022A,使用模拟退火(SA)和蚁群优化(ACO)算法求解旅行商问题(TSP),对比两者的仿真时间、收敛曲线及最短路径长度。SA源于金属退火过程,允许暂时接受较差解以跳出局部最优;ACO模仿蚂蚁信息素机制,通过正反馈发现最优路径。结果显示SA全局探索能力强,ACO在路径优化类问题中表现优异。
|
20天前
|
机器学习/深度学习 算法
基于遗传优化的双BP神经网络金融序列预测算法matlab仿真
本项目基于遗传优化的双BP神经网络实现金融序列预测,使用MATLAB2022A进行仿真。算法通过两个初始学习率不同的BP神经网络(e1, e2)协同工作,结合遗传算法优化,提高预测精度。实验展示了三个算法的误差对比结果,验证了该方法的有效性。
|
23天前
|
机器学习/深度学习 数据采集 算法
基于PSO粒子群优化的CNN-GRU-SAM网络时间序列回归预测算法matlab仿真
本项目展示了基于PSO优化的CNN-GRU-SAM网络在时间序列预测中的应用。算法通过卷积层、GRU层、自注意力机制层提取特征,结合粒子群优化提升预测准确性。完整程序运行效果无水印,提供Matlab2022a版本代码,含详细中文注释和操作视频。适用于金融市场、气象预报等领域,有效处理非线性数据,提高预测稳定性和效率。
|
24天前
|
机器学习/深度学习 算法 索引
单目标问题的烟花优化算法求解matlab仿真,对比PSO和GA
本项目使用FW烟花优化算法求解单目标问题,并在MATLAB2022A中实现仿真,对比PSO和GA的性能。核心代码展示了适应度计算、火花生成及位置约束等关键步骤。最终通过收敛曲线对比三种算法的优化效果。烟花优化算法模拟烟花爆炸过程,探索搜索空间,寻找全局最优解,适用于复杂非线性问题。PSO和GA则分别适合快速收敛和大解空间的问题。参数调整和算法特性分析显示了各自的优势与局限。
|
27天前
|
缓存 算法 搜索推荐
Java中的算法优化与复杂度分析
在Java开发中,理解和优化算法的时间复杂度和空间复杂度是提升程序性能的关键。通过合理选择数据结构、避免重复计算、应用分治法等策略,可以显著提高算法效率。在实际开发中,应该根据具体需求和场景,选择合适的优化方法,从而编写出高效、可靠的代码。
35 6

热门文章

最新文章