快速入门数字芯片设计,UCSD ECE111(七)enum枚举类型&优化SHA256哈希算法(一)

简介: 快速入门数字芯片设计,UCSD ECE111(七)enum枚举类型&优化SHA256哈希算法

这篇文章带来ECE111第七节课的Slides以及自己的一些补充。

该课程的网站如下:

https://link.zhihu.com/?target=http%3A//cwcserv.ucsd.edu/~billlin/classes/ECE111/index.php

书接上回,继续讨论之前的Project3:

在讨论之前首先比较了enumparameter两个关键字

enum有两种方式:

  • 第一种为特定编码,如图中指定了IDLE,STEP1,STEP2,STEP3 各自的取值
  • 还有一种方式为默认编码,在没有指定的情况下,则默认内部的值是逐一增加的。同时这些值的比特宽度和外部的state信号是一致的

对于parameter关键字,则是以常数的方式进行对待的,并且不会等到编译阶段才进行处理,在预处理阶段就会进行相应的替换。enum各自的label是唯一的(value唯一),同时对于相应的比特不能够进行逻辑操作。这里我们只需要掌握enum运用在状态机各状态声明。我们为什么要用enum呢?主要有以下几点:

  • enum相比于parameter更加安全,因为我们在对state赋值的时候,只能对其分配我们定义的标签值,不会导致赋意料之外的状态值。
  • 标签值和信号名一定是同样的大小,如果不一样,在编译阶段就会报错,而paremter并不会报错,大概率只会报warning!(甚至warning都没有)
  • 只允许由label或者其他相同类型的enum变量赋值,其他类型的赋值都是非法的。

具体的大家可以看下面这两张图,enum用在状态变量中好处多多,大家要熟练掌握。

接下来回归正题,讨论SHA256算法的优化。忘掉了SHA256是什么的请回顾上节课的内容。

我们的运算实际上是针对A~H这8个32位寄存器,持续的做运算,运算到最后一轮,这8个寄存器代表的就是256bit的哈希值。 假定�� 以及 �� 在进行轮运算之前已经都有了,则我们可以重点关注轮运算的步骤,如上图所示。

基于这个想法,我们可以写出相关的代码如图所示,通过多轮的运算(对于一个Block而言,我们需要在COMPUTE状态下持续计算A~H寄存器的值,一共64轮)。上面这段代码可以用吗?大家思考一下。

从逻辑的角度来说(或者是软件的角度来说),当然是可以的。大家做仿真也没有任何问题,结果肯定是对的。但是这样时钟频率一定是很低的。时刻要牢记我们设计的是硬件电路,写代码只是去描述硬件的行为,上面这样的一次运算我们要求它在一个时钟周期以内要算完,以满足建立时间。(因为下一个时钟周期要用到上一个时钟周期的结果做新一轮的运算),但是这段运算显然要算很久,因此时钟周期也需要很长才可以满足建立时间,这样频率一定很低。所以要针对这段代码进行优化。

目录
相关文章
|
2月前
|
存储 算法 Java
解析HashSet的工作原理,揭示Set如何利用哈希算法和equals()方法确保元素唯一性,并通过示例代码展示了其“无重复”特性的具体应用
在Java中,Set接口以其独特的“无重复”特性脱颖而出。本文通过解析HashSet的工作原理,揭示Set如何利用哈希算法和equals()方法确保元素唯一性,并通过示例代码展示了其“无重复”特性的具体应用。
46 3
|
7天前
|
存储 关系型数据库 分布式数据库
PolarDB的PolarStore存储引擎以其高效的索引结构、优化的数据压缩算法、出色的事务处理能力著称
PolarDB的PolarStore存储引擎以其高效的索引结构、优化的数据压缩算法、出色的事务处理能力著称。本文深入解析PolarStore的内部机制及优化策略,包括合理调整索引、优化数据分布、控制事务规模等,旨在最大化其性能优势,提升数据存储与访问效率。
20 5
|
22天前
|
算法 调度
基于遗传模拟退火混合优化算法的车间作业最优调度matlab仿真,输出甘特图
车间作业调度问题(JSSP)通过遗传算法(GA)和模拟退火算法(SA)优化多个作业在并行工作中心上的加工顺序和时间,以最小化总完成时间和机器闲置时间。MATLAB2022a版本运行测试,展示了有效性和可行性。核心程序采用作业列表表示法,结合遗传操作和模拟退火过程,提高算法性能。
|
22天前
|
人工智能 算法 大数据
Linux内核中的调度算法演变:从O(1)到CFS的优化之旅###
本文深入探讨了Linux操作系统内核中进程调度算法的发展历程,聚焦于O(1)调度器向完全公平调度器(CFS)的转变。不同于传统摘要对研究背景、方法、结果和结论的概述,本文创新性地采用“技术演进时间线”的形式,简明扼要地勾勒出这一转变背后的关键技术里程碑,旨在为读者提供一个清晰的历史脉络,引领其深入了解Linux调度机制的革新之路。 ###
|
1天前
|
算法
基于大爆炸优化算法的PID控制器参数寻优matlab仿真
本研究基于大爆炸优化算法对PID控制器参数进行寻优,并通过Matlab仿真对比优化前后PID控制效果。使用MATLAB2022a实现核心程序,展示了算法迭代过程及最优PID参数的求解。大爆炸优化算法通过模拟宇宙大爆炸和大收缩过程,在搜索空间中迭代寻找全局最优解,特别适用于PID参数优化,提升控制系统性能。
|
2月前
|
人工智能 算法 数据安全/隐私保护
基于遗传优化的SVD水印嵌入提取算法matlab仿真
该算法基于遗传优化的SVD水印嵌入与提取技术,通过遗传算法优化水印嵌入参数,提高水印的鲁棒性和隐蔽性。在MATLAB2022a环境下测试,展示了优化前后的性能对比及不同干扰下的水印提取效果。核心程序实现了SVD分解、遗传算法流程及其参数优化,有效提升了水印技术的应用价值。
|
1月前
|
存储 缓存 算法
优化轮询算法以提高资源分配的效率
【10月更文挑战第13天】通过以上这些优化措施,可以在一定程度上提高轮询算法的资源分配效率,使其更好地适应不同的应用场景和需求。但需要注意的是,优化策略的选择和实施需要根据具体情况进行详细的分析和评估,以确保优化效果的最大化。
|
2月前
|
并行计算 算法 IDE
【灵码助力Cuda算法分析】分析共享内存的矩阵乘法优化
本文介绍了如何利用通义灵码在Visual Studio 2022中对基于CUDA的共享内存矩阵乘法优化代码进行深入分析。文章从整体程序结构入手,逐步深入到线程调度、矩阵分块、循环展开等关键细节,最后通过带入具体值的方式进一步解析复杂循环逻辑,展示了通义灵码在辅助理解和优化CUDA编程中的强大功能。
|
2月前
|
存储 缓存 算法
前端算法:优化与实战技巧的深度探索
【10月更文挑战第21天】前端算法:优化与实战技巧的深度探索
22 1
|
2月前
|
机器学习/深度学习 算法 数据安全/隐私保护
基于贝叶斯优化CNN-LSTM网络的数据分类识别算法matlab仿真
本项目展示了基于贝叶斯优化(BO)的CNN-LSTM网络在数据分类中的应用。通过MATLAB 2022a实现,优化前后效果对比明显。核心代码附带中文注释和操作视频,涵盖BO、CNN、LSTM理论,特别是BO优化CNN-LSTM网络的batchsize和学习率,显著提升模型性能。