内存技术

首页 标签 内存技术
# 内存技术 #
关注
10912内容
|
10小时前
|
VMware ESXi 8.0U3c macOS Unlocker & OEM BIOS NVMe 驱动特殊定制版 (集成驱动版)
VMware ESXi 8.0U3c macOS Unlocker & OEM BIOS NVMe 驱动特殊定制版 (集成驱动版)
PAI训练服务:云上大模型训练新篇章
本文介绍了通用AI时代下的新训练方法及PAI平台的优化。随着大模型时代的到来,算力需求激增,硬件和网络通信成为瓶颈。PAI平台通过自动容错、3D健康检测等技术确保训练稳定性;通过资源配额、智能调度等提高性价比;并推出PAI-TorchAcc和PAI-ChatLearn两大引擎,分别实现高效训练加速和灵活的对齐训练,显著提升训练性能与效果。这些改进解决了大规模AI训练中的关键问题,提升了效率和稳定性。
|
7天前
| |
来自: 弹性计算
VSAN数据恢复——开启重删压缩的全闪存VSAN下虚拟机数据恢复案例
VMware VSAN超融合架构,11台服务器节点。每台服务器节点上创建1个磁盘组,磁盘组包括1块PCIe固态硬盘(作为缓存盘)和8-10块SSD(作为数据盘),组成VSAN存储空间来存放虚拟机文件。启用了去重和压缩功能。 一台服务器节点上的一块PCIE缓存盘出现故障,导致VSAN逻辑架构问题。2台虚拟机磁盘组件出现问题,虚拟机无法正常使用。
ModernBERT-base:终于等到了 BERT 回归
BERT于 2018 年发布(史前人工智能!),但它至今仍被广泛使用,BERT的纯编码器架构使其成为每天出现的各种场景的理想选择,例如检索、分类和实体提取。
MNN推理框架将大模型放进移动端设备,并达到SOTA推理性能!
随着移动端(手机/平板等)算力、内存、磁盘空间的不断增长,在移动端部署大模型逐渐成为可能。在端侧运行大模型,可以有一系列好处:去除网络延迟,加快响应速度;降低算力成本,便于大规模应用;不需数据上传,保护用户稳私。
|
11天前
|
Redis背后的神奇力量:为何它如此高效?
Redis的速度快主要归因于以下几点:1、基于内存操作,数据存储在内存中,读写速度远超硬盘;2、单线程模型,避免了多线程的额外开销和复杂性,适合处理高频读写操作;3、采用I/O多路复用技术,提高I/O效率,充分利用CPU资源;4、使用高效的数据结构如简单动态字符串(SDS)、压缩列表和跳跃表等,优化性能;5、通过数据压缩、惰性加载和内存淘汰等技术进一步提升速度。这些特性使得Redis在缓存和实时数据存储方面表现出色。
Gemini 2.0 Flash Thinking:谷歌推出实验性多模态推理模型,在快速生成的同时展示详细的思考过程
谷歌推出的实验性推理模型Gemini 2.0 Flash Thinking,展示了详细的思考过程,能够在多个领域快速解决问题,并提供推理路径。本文将详细介绍该模型的功能、技术原理及使用限制。
|
17天前
|
XDMA与FPGA:高效数据传输的艺术
XDMA(Xilinx's DMA/Bridge Subsystem for PCI Express)是Xilinx推出的一种高效数据传输引擎,专为PCIe总线设计。通过封装PCIe协议,XDMA提供简化的API接口,支持Scatter-Gather DMA和Block DMA模式,特别适用于高性能计算、实时视频处理和大数据分析等领域的数据传输。XDMA通过链表传输和高效的PCIe接口,减少了主机CPU的负担,提高了数据传输效率。AXI4和AXI4-Stream接口进一步增强了XDMA与FPGA的协同工作能力,使其在现代计算系统中发挥重要作用。
|
26天前
|
【AI系统】计算图的优化策略
本文深入探讨了计算图的优化策略,包括算子替换、数据类型转换、存储优化等,旨在提升模型性能和资源利用效率。特别介绍了Flash Attention算法,通过分块计算和重算策略优化Transformer模型的注意力机制,显著减少了内存访问次数,提升了计算效率。此外,文章还讨论了内存优化技术,如Inplace operation和Memory sharing,进一步减少内存消耗,提高计算性能。
|
28天前
|
数智化赋能龙港中医院,让医疗服务有了“人情味”
截至2023年底,中国拥有18133家县级医院,承担了全国33.8%的诊疗服务量,覆盖约9亿居民,是解决“看病难、看病贵”问题的关键力量。然而,信息化滞后、系统互通性差等问题限制了其发展。温州龙港中医院通过引入华为新一代医院数据中心解决方案,实现了高效的数据管理和资源利用,大幅提升了诊疗效率和服务质量,成为县级医院数智化转型的典范。
免费试用