【芯片前端】保持代码手感——一对多的握手拆分模块

简介: 【芯片前端】保持代码手感——一对多的握手拆分模块

前言

最近还是在写spec文档,一天不写代码保持手感的大业就不能停止。


这篇是握手拆分的模块,一般来说握手拆分有两种情况,一种是所有下游ready同时拉起了才向上握手,另外一种是下游可以分先后接收数据,每一路都接收完成后向上握手。本篇文章实现的是第二种形式。


欢迎下载测试:verilog_cbb: 个人常用cbb for verilog


接口



接口的形式是比较简单的,上游是一路握手,下游是多路握手。


实现

整体代码的实现思路其实也不难,就是使用一个history寄存器记录对下游握手的情况。当对下游只剩一路没有握手且当拍对应的out_ready置起,那么就可以对上游握手了。

module hand_split #(
  parameter CHANNEL = 2
)(
  input  clk,
  input  rst_n,
  input  in_valid,
  output in_ready,
  output [CHANNEL -1:0]out_valid,
  input  [CHANNEL -1:0]out_ready
);
//in out hand_en
wire         in_hand_en  = in_valid  & in_ready;
wire [CHANNEL -1:0]out_hand_en = out_valid & out_ready;
//history hand record
reg  [CHANNEL -1:0]history_q;
wire [CHANNEL -1:0]history_d;
wire         history_en;
assign history_en = (|out_hand_en) || in_hand_en;
assign history_d  = in_hand_en ? {CHANNEL{1'b0}} : history_q | (out_valid & out_ready);
always @(posedge clk or negedge rst_n)begin
  if(~rst_n)      history_q <= {CHANNEL{1'b0}};
  else if(history_en) history_q <= history_d;
end
//out valid
assign out_valid = {CHANNEL{in_valid}} & (~history_q);
//in_ready
assign in_ready  =  ((history_q | out_ready) == {CHANNEL{1'b1}});
endmodule


波形

通过auto_verification打出波形验证功能:



目录
打赏
0
0
0
0
2
分享
相关文章
利用代码分割优化前端性能:策略与实践
在现代Web开发中,代码分割是提升页面加载性能的有效手段。本文介绍代码分割的概念、重要性及其实现策略,包括动态导入、路由分割等方法,并探讨在React、Vue、Angular等前端框架中的具体应用。
探索前端性能优化:关键策略与代码实例
本文深入探讨前端性能优化的关键策略,结合实际代码示例,帮助开发者提升网页加载速度和用户体验,涵盖资源压缩、懒加载、缓存机制等技术。
前端性能优化实战:从代码到部署的全面策略
前端性能优化实战:从代码到部署的全面策略
47 1
前端性能优化实战:从代码到部署的全面指南
前端性能优化实战:从代码到部署的全面指南
53 1
前端大模型应用笔记(三):Vue3+Antdv+transformers+本地模型实现浏览器端侧增强搜索
本文介绍了一个纯前端实现的增强列表搜索应用,通过使用Transformer模型,实现了更智能的搜索功能,如使用“番茄”可以搜索到“西红柿”。项目基于Vue3和Ant Design Vue,使用了Xenova的bge-base-zh-v1.5模型。文章详细介绍了从环境搭建、数据准备到具体实现的全过程,并展示了实际效果和待改进点。
273 14
前端大模型应用笔记(一):两个指令反过来说大模型就理解不了啦?或许该让第三者插足啦 -通过引入中间LLM预处理用户输入以提高多任务处理能力
本文探讨了在多任务处理场景下,自然语言指令解析的困境及解决方案。通过增加一个LLM解析层,将复杂的指令拆解为多个明确的步骤,明确操作类型与对象识别,处理任务依赖关系,并将自然语言转化为具体的工具命令,从而提高指令解析的准确性和执行效率。
前端大模型应用笔记(四):如何在资源受限例如1核和1G内存的端侧或ECS上运行一个合适的向量存储库及如何优化
本文探讨了在资源受限的嵌入式设备(如1核处理器和1GB内存)上实现高效向量存储和检索的方法,旨在支持端侧大模型应用。文章分析了Annoy、HNSWLib、NMSLib、FLANN、VP-Trees和Lshbox等向量存储库的特点与适用场景,推荐Annoy作为多数情况下的首选方案,并提出了数据预处理、索引优化、查询优化等策略以提升性能。通过这些方法,即使在资源受限的环境中也能实现高效的向量检索。
前端大模型应用笔记(二):最新llama3.2小参数版本1B的古董机测试 - 支持128K上下文,表现优异,和移动端更配
llama3.1支持128K上下文,6万字+输入,适用于多种场景。模型能力超出预期,但处理中文时需加中英翻译。测试显示,其英文支持较好,中文则需改进。llama3.2 1B参数量小,适合移动端和资源受限环境,可在阿里云2vCPU和4G ECS上运行。
193 1

热门文章

最新文章