内存技术

首页 标签 内存技术
# 内存技术 #
关注
10796内容
|
1天前
| |
大语言模型的核心算法——简要解析
大语言模型的核心算法基于Transformer架构,以自注意力机制为核心,通过Q、K、V矩阵动态捕捉序列内部关系。多头注意力增强模型表达能力,位置编码(如RoPE)解决顺序信息问题。Flash Attention优化计算效率,GQA平衡性能与资源消耗。训练上,DPO替代RLHF提升效率,MoE架构实现参数扩展,Constitutional AI实现自监督对齐。整体技术推动模型在长序列、低资源下的性能突破。
|
2天前
| |
LLM推理成本直降60%:PD分离在大模型商业化中的关键价值
在LLM推理中,Prefill(计算密集)与Decode(访存密集)阶段特性不同,分离计算可提升资源利用率。本文详解vLLM框架中的PD分离实现及局限,并分析Dynamo、Mooncake、SGLang等主流方案,探讨KV缓存、传输机制与调度策略,助力LLM推理优化。建议点赞收藏,便于后续查阅。
|
3天前
|
【分享】基于百度脑图,并使用Vue二次开发的用例脑图编辑器组件
偶然发现一个基于百度脑图、使用 Vue 开发的用例脑图编辑器组件,支持功能扩展与快速集成,适合测试用例可视化编辑场景。
|
4天前
| |
来自: 物联网
MINUN: 微控制器上的精确机器学习推理——论文阅读
MINUN是一个专为微控制器设计的高效机器学习推理框架,能精确解决TinyML中的三大挑战:数字表示参数化、位宽分配优化和内存碎片管理。它支持如Arduino和STM32等低功耗设备,显著减少内存占用,同时保持模型精度。
|
4天前
| |
来自: 物联网
μNAS:面向微控制器的约束神经架构搜索——论文解读
μNAS是一种专为微控制器设计的神经架构搜索方法,旨在解决物联网设备中资源受限的挑战。通过多目标优化框架,μNAS能够在有限的内存和计算能力下,自动搜索出高效的神经网络结构。该方法结合了老化进化算法与贝叶斯优化,并引入结构化剪枝技术,实现模型压缩。实验表明,μNAS在多个数据集上均取得了优异的精度与资源使用平衡,显著优于现有方法,为边缘计算设备的智能化提供了可行路径。
|
5天前
| |
来自: 物联网
TensorFlow Lite Micro:嵌入式TinyML系统上的机器学习推理框架——论文深度解析
TensorFlow Lite Micro(TFLM)是专为嵌入式系统设计的轻量级机器学习推理框架,适用于仅有几十KB内存的微控制器。它通过极简架构、模块化设计和内存优化策略,在资源受限设备上高效运行TinyML模型,广泛应用于关键词检测、传感器分析、预测性维护等领域。TFLM支持跨平台部署,并允许硬件厂商提供定制优化,兼顾灵活性与性能。
|
5天前
| |
来自: 物联网
256KB内存约束下的设备端训练:算法与系统协同设计——论文解读
MIT与MIT-IBM Watson AI Lab团队提出一种创新方法,在仅256KB SRAM和1MB Flash的微控制器上实现深度神经网络训练。该研究通过量化感知缩放(QAS)、稀疏层/张量更新及算子重排序等技术,将内存占用降至141KB,较传统框架减少2300倍,首次突破设备端训练的内存瓶颈,推动边缘智能发展。
|
6天前
|
基于钱搜索译码算法的BCH编译码matlab误码率仿真
本内容介绍了基于BCH码的编码算法及其MATLAB仿真,包含仿真结果、理论基础及核心程序。BCH码具备多错误纠正能力,广泛应用于通信与存储系统,结合钱搜索译码算法实现高效硬件处理。
|
8天前
|
硬盘性能提升100倍的秘密:看懂顺序I/O的魔力
本文介绍了I/O缓存的核心原理与实现机制,涵盖局部性原理、Page Cache工作机制及其写回策略,以及顺序I/O的性能优势。通过理解时间与空间局部性如何提升缓存效率,Page Cache如何利用内存优化磁盘I/O,以及顺序I/O相比随机I/O在不同存储介质上的性能差异,帮助读者深入理解系统I/O优化的关键技术。
|
8天前
|
从发现到恢复,看瑞数信息如何构建“抗毁重构”实战路径
在信息化社会,关键基础设施行业面临日益严峻的数据安全挑战。传统灾备体系已难应对隐蔽性强、破坏力大的新型攻击。“抗毁重构”强调主动生存能力,通过及时发现、精准评估、快速恢复和常态化演练,保障业务连续性。瑞数信息推出的DDR与RDB系统,构建了从技术到体系的落地路径,助力企业在极端风险下快速“重生”。
免费试用