RDMA技术栈分享

简介:

a3d195010ed48b1fc5d5c523b3117bdf0bf886d3

7ddc423510050892ada70b0fd498e8870f040774

109653f9dc4a918b956d2f1c79549540616408ed

dcebadf8b766eab53962aaa8a38afff607508822

3a73a9e5cfea2e30258a650a1208197782c7a1d8

231bf0070268ca0875b8ec9eb06e4b59d52ee21a

9f58396db014ef493a160368ec4cf5d51c7f0f50

804ea4ec4eaddbae0a8996d188d2161c2e7c040e

5a158bd7cc3a2dd8203e236b8cd07b0aea2492d8

91768c494b907fdc149e179b8f407da3e005507a

85a19e758c96a2d647d9446cbd823139c3d8a376

d23afaec45c553282fd131f1d5b34236b560865c


目录
相关文章
|
Linux Anolis 异构计算
关于远程直接内存访问技术 RDMA 的高性能架构设计介绍
本文介绍 RDMA 技术的基本原理及交流在工程上的设计思路。
|
Web App开发 存储 缓存
RDMA优化整理(一)
简要的介绍了下RDMA的背景,并给出了一些RDMA编程优化技巧
3270 1
RDMA优化整理(一)
|
2月前
|
存储 机器学习/深度学习 并行计算
GPU通信互联技术:GPUDirect、NVLink与RDMA
在高性能计算和深度学习领域,GPU已成为关键工具。然而,随着模型复杂度和数据量的增加,单个GPU难以满足需求,多GPU甚至多服务器协同工作成为常态。本文探讨了三种主要的GPU通信互联技术:GPUDirect、NVLink和RDMA。GPUDirect通过绕过CPU实现GPU与设备直接通信;NVLink提供高速点对点连接和支持内存共享;RDMA则在网络层面实现直接内存访问,降低延迟。这些技术各有优势,适用于不同场景,为AI和高性能计算提供了强大支持。
|
3月前
|
网络协议 NoSQL API
深入理解 RDMA 的软硬件交互机制
本文深入分析了RDMA技术在数据中心高性能网络环境下的工作原理及软硬件交互机制,通过对比传统Kernel TCP,突出了RDMA在减少延迟、提高系统性能方面的优势,同时讨论了其在内存管理、软硬交互方面的关键技术和挑战,为读者提供了全面理解RDMA技术及其应用场景的视角。
|
6月前
|
网络协议 Linux C语言
Intel HDSLB 高性能四层负载均衡器 — 基本原理和部署配置
本篇主要介绍了 Intel HDSLB 的基本运行原理和部署配置的方式,希望能够帮助读者们顺利的把 HDSLB-DPVS 项目 “玩” 起来。
311 9
Intel HDSLB 高性能四层负载均衡器 — 基本原理和部署配置
|
6月前
|
边缘计算 负载均衡 网络协议
Intel HDSLB 高性能四层负载均衡器 — 快速入门和应用场景
在云计算、SDN、NFV 高速发展并普遍落地的今天,随着上云业务的用户数量越来越多、数据中心的规模越来越大,云计算规模成本效应越来越重要。因此,云计算的集约式系统架构逻辑就决定了网络的性能是一个永恒的话题。在云网络的技术体系中,对性能追求不仅是方方面面的,而且是极致严苛的。性能每提升一点,成本就降低一分,收益就提高一些,产品的竞争力就更上一层楼。
117 0
Intel HDSLB 高性能四层负载均衡器 — 快速入门和应用场景
|
6月前
|
运维 负载均衡 应用服务中间件
高速服务框架HSF的基本原理(上)
高速服务框架HSF的基本原理(上)
868 1
|
6月前
|
机器学习/深度学习 存储 并行计算
|
6月前
|
设计模式 Java 应用服务中间件
高速服务框架HSF的基本原理(下)
高速服务框架HSF的基本原理(下)
370 0
|
6月前
|
存储 缓存 固态存储
SPDK应用框架
SPDK应用框架