深入理解 RDMA 的软硬件交互机制

news2025/1/2 0:27:50

深入理解 RDMA 的软硬件交互机制

作者:羽京

一、前言

随着数据中心的飞速发展,高性能网络不断挑战着带宽与时延的极限,网卡带宽从过去的 10 Gb/s 、25 Gb/s 到如今的 100 Gb/s、200 Gb/s 再到下一代的 400Gb/s 网卡,其发展速度已经远大于 CPU 发展的速度。

为了满足高性能网络下的通信需求,阿里云不仅自研了高性能用户态协议栈 (Luna、Solar) ,也大规模使用了 RDMA 技术,以充分利用高性能网络。尤其是在存储和 AI 领域,RDMA 被广泛使用。相比于 Kernel TCP 提供的 Socket 接口,RDMA 的抽象更为复杂,为了更好的使用 RDMA,了解其工作原理和机制是必不可少的。

本文以 NVIDIA (原 Mellanox)的 RDMA 网卡为例,分析其工作原理和软硬件交互的机制。

二、RDMA 是什么

RDMA (Remote Direct Memory Access) 技术全称远程直接内存访问,是为了解决网络传输中服务器端数据处理的延迟而产生的。RDMA 通过网络将数据从一个系统快速移动到另一个系统中,而不需要消耗计算机的处理能力。它消除了内存拷贝和上下文切换的开销,因而能解放内存带宽和 CPU 周期用于提升系统的整体性能。

先看看最常见的 Kernel TCP,其收数据的流程主要要经过以下阶段:

  • 网卡驱动从内核分配 dma buffer,填入收队列

  • 网卡收到数据包,发起 DMA,写入收队列中的 dma buffer

  • 网卡产生中断

  • 网卡驱动查看收队列,取出 dma buffer,交给协议栈

  • 协议栈处理报文

  • 操作系统通知用户态程序有可读事件

  • 用户态程序准备 buffer,发起系统调用

  • 内核拷贝数据至用户态程序的 buffer 中

  • 系统调用结束

可以发现,上述流程有三次上下文切换(中断上下文切换、用户态与内核态上下文切换),有一次内存拷贝。虽然内核有一些优化手段,比如通过 NAPI 机制减少中断数量,但是在高性能场景下, Kernel TCP 的延迟和吞吐的表现依然不佳。

使用 RDMA 技术后,收数据的主要流程变为(以 send/recv 为例):

1)用户态程序分配 buffer,填入收队列

2)网卡收到数据包,发起 DMA,写入收队列中的 buffer

3)网卡产生完成事件(可以不产生中断)

4)用户态程序 polling 完成事件

5)用户态程序处理 buffer

上述流程没有上下文切换,没有数据拷贝,没有协议栈的处理逻辑(卸载到了 RDMA 网卡内),也没有内核的参与。CPU 可以专注处理数据和业务逻辑,不用花大量的 cycles 去处理协议栈和内存拷贝。

三、RDMA 的软件架构

从上述分析可以看出,RDMA 和传统的内核协议栈是完全独立的,因此其软件架构也与内核协议栈很不一样,包含以下部分:

1)用户态驱动(libibverbs、libmlx5 等):这些库都属于 rdma-core 项目(https://github.com/linux-rdma/rdma-core)。为用户提供各种 Verbs API,另外也有一些厂商的特有 API。之所以这层被称为“用户态驱动”,是因为 RDMA 要在用户态直接和硬件打交道,传统在内核态实现 HAL 的方式不满足 RDMA 的需求,因此需要在用户态感知硬件细节。

2)内核态 IB 软件栈:内核态的一层抽象,对应用提供统一的接口。这些接口不仅用户态可以调用,内核态也可以调用。

3) 内核态驱动:各个厂商实现的网卡驱动,直接和硬件交互。

四、RDMA 的内存管理

由于 RDMA 要直接让硬件读写用户态程序的内存,这带来了很多问题:

1)安全问题:用户态程序能否利用网卡读写任意物理内存

2)地址映射问题:用户态程序使用的是虚拟地址,实际的物理地址是操作系统管理的。网卡怎么知道虚拟地址和物理地址的映射关系?

3)地址映射会变化:操作系统可能会对内存做 swap、压缩,操作系统还有一些复杂的机制,比如 Copy-On-Write。这些情况下,怎么保证网卡访问的地址的正确性

为了解决上述问题,RDMA 引入了两个概念:

1)PD(Protection Domain):在 RDMA 中,PD 是一个容纳了各种资源的“容器”,类似一个租户 ID,将这些资源纳入自己的保护范围内,避免他们被未经授权的访问。一个进程中可以创建多个 PD,各个 PD 所容纳的资源彼此隔离,无法一起使用。

2)MR(Memory Registration):RDMA 中对内存保护的一种措施,只有将要操作的内存注册到 MR 中,这段内存才能被 RDMA 使用。MR 包括了 PD、lkey、rkey、地址、长度、权限这几个属性。PD 是这个 MR 所属的保护域,其他保护域的上下文是不能访问这个 MR 的(避免了暴力遍历内存访问其他进程内存的可能)。lkey、rkey 统称为 mkey 是一个访问内存的凭据(分别对应本地访问和远程访问),RDMA 的所有操作都要有 mkey 才能进行。

这样讲可能会有一些抽象,以一个实际的例子来看看 RDMA 是怎么注册内存的:

// 扫描 RDMA 设备,找到我们要用的设备int num_devices = 0, i;struct ibv_device ** device_list = ibv_get_device_list(&num_devices);struct ibv_device *device = NULL;for (i = 0; i < num_devices; ++i) {    if (strcmp("mlx5_bond_0", ibv_get_device_name(device_list[i])) == 0) {        device = device_list[i];        break;    }}
// 打开设备,产生一个 contextstruct ibv_context *ibv_ctx = ibv_open_device(device);
// 分配一个 PDstruct ibv_pd* pd = ibv_alloc_pd(ibv_ctx);
// 分配 8k 内存, 按照 page 对齐(4k)void *alloc_region = NULL;posix_memalign(&alloc_region, sysconf(_SC_PAGESIZE), 8192);
// 注册内存struct ibv_mr* reg_mr = ibv_reg_mr(pd, alloc_region, mr_len, IBV_ACCESS_LOCAL_WRITE);

打开内核模块的 debug 信息:

echo "file mr.c +p" > /sys/kernel/debug/dynamic_debug/controlecho "file mem.c +p" > /sys/kernel/debug/dynamic_debug/control

输出的日志:

infiniband mlx5_0: mlx5_ib_reg_user_mr:1300:(pid 100804): start 0xdb1000, virt_addr 0xdb1000, length 0x2000, access_flags 0x100007infiniband mlx5_0: mr_umem_get:834:(pid 100804): npages 2, ncont 2, order 1, page_shift 12infiniband mlx5_0: get_cache_mr:484:(pid 100804): order 2, cache index 0infiniband mlx5_0: mlx5_ib_reg_user_mr:1369:(pid 100804): mkey 0xdd5dinfiniband mlx5_0: __mlx5_ib_populate_pas:158:(pid 100804): pas[0] 0x3e07a92003infiniband mlx5_0: __mlx5_ib_populate_pas:158:(pid 100804): pas[1] 0x3e106a6003

1)用户态程序调用 ibv_reg_mr,通过 uverbs 接口发到内核(实际用的系统调用为 ioctl 或者 write),操作的文件是 /dev/infiniband/uverbsX

2)经过 uverbs 层的转换后,最终调用到设备驱动的代码,NVIDIA 网卡上是 mlx5_ib_reg_user_mr 这个函数:

这个函数主要做了两件事情,通过 mr_umem_get 将用户态内存 pin 住,并拿到物理地址。以及通过 reg_create 向网卡发送创建 mkey 的命令。mr_umem_get 最终会调用到 ib_core.ko 中的 __ib_umem_get 函数:

这个函数会通过内核的 pin_user_pages_fast 接口,防止用户内存的映射关系发生意外的改变(比如 swap)。

reg_create 会按照网卡开发手册定义的命令格式,发送创建 mkey 的命令:

经过上述流程,最终会在网卡中创建一个 mkey 对象:

mkey 0xdd5dvirt_addr 0xdb1000, length 0x2000, access_flags 0x100007pas[0] 0x3e07a92003pas[1] 0x3e106a6003

网卡收到虚拟地址的时候,就能够知道实际的物理页是什么,并且可以做权限控制。

现在可以回答上面的问题了:

安全问题:用户态程序能否利用网卡读写任意物理内存?

  • 不能,RDMA 通过 PD 和 MR 机制做了严格的内存保护。

地址映射问题:用户态程序使用的是虚拟地址,实际的物理地址是操作系统管理的。网卡怎么知道虚拟地址和物理的映射关系?

  • 驱动会告诉网卡映射关系,后续数据流中,网卡自己转换。

地址映射会变化:操作系统可能会对内存做 swap、压缩,操作系统还有一些复杂的机制,比如 Copy-On-Write。这些情况下,怎么保证网卡访问的地址的正确性?

  • 通过驱动调用 pin_user_pages_fast 保障。另外,用户态驱动会给注册的内存打上 DONT_FORK 的标志,避免 Copy-On-Write 发生。

五、RDMA 的软硬交互

RDMA 的软硬交换的基础单元是 Work Queue。Work Queue 是一个单生产者单消费者的环形队列。Work Queue 根据功能不同,主要分为 SQ(发送)、RQ(接收)、CQ(完成)和 EQ(事件)等。

发送一个 RDMA 请求的大致流程为:

  • 软件构造 WQE (Work Queue Element),提交至 Work Queue 中

  • 软件写 Doorbell 通知硬件

  • 硬件拉取 WQE,处理 WQE

  • 硬件处理完成,产生 CQE,写入 CQ

  • 硬件产生中断(可选)

  • 软件 Polling CQ

  • 软件读取硬件更新后的 CQE,得知 WQE 完成

还是以一个实际的例子进行分析,这样才能深入理解全流程:

uint32_t send_demo(struct ibv_qp *qp, struct ibv_mr *mr){    struct ibv_send_wr sq_wr = {}, *bad_wr_send = NULL;    struct ibv_sge sq_wr_sge[1];
    // 把 mr 的数据发送出去    sq_wr_sge[0].lkey = mr->lkey;    sq_wr_sge[0].addr = (uint64_t)mr->addr;    sq_wr_sge[0].length = mr->length;
    sq_wr.next = NULL;    sq_wr.wr_id = 0x31415926; // 请求的ID, 收到 WC 的时候可以对应上    sq_wr.send_flags = IBV_SEND_SIGNALED; // 告诉网卡这个请求给我产生 CQE    sq_wr.opcode = IBV_WR_SEND;    sq_wr.sg_list = sq_wr_sge;    sq_wr.num_sge = 1;
    ibv_post_send(qp, &sq_wr, &bad_wr_send); // 提交请求到网卡
    struct ibv_wc wc = {};    while (ibv_poll_cq(qp->send_cq, 1, &wc) == 0) {        continue;    }
    if (wc.status != IBV_WC_SUCCESS || wc.wr_id != 0x31415926) {        exit(__LINE__);    }
    return 0;}

这段代码的核心是 ibv_post_send 和 ibv_poll_cq,ibv_post_send 的用途是向网卡提交请求,ibv_poll_cq 的用途是轮询 CQ,看看是否有请求完成。

另外,IB 规范定义了很多抽象:

  • ibv_send_wr 这个是 SQ 的 WQE 的抽象(不同厂商的网卡 WQE 格式不同)

  • ibv_sge 是数据的抽象,包含 (addr,len,lkey) 三个字段

  • ibv_wc 是 CQE 的抽象,通过 wr_id 和 ibv_send_wr 对应起来

rdma-core 的 debug 打开,可以看到这样的两条日志:

dump wqe at 0x7fc59b3570000000000a 00115003 00000008 0000000000000000 c0000000 00000000 000000000000022a 00008a0b 00007fc5 9a5b2000
mlx5_get_next_cqe:565: dump cqe for cqn 0x4c2:00000000 00000000 00000000 0000000000000000 00000000 00000000 0000000000000000 00000000 00000000 0000000000004863 2a39b102 0a001150 00003f00

第一条就是我们调用 ibv_post_send 后,rdma-core 事件向网卡提交的 WQE。

第二条是我们调用 ibv_poll_cq 后,收到网卡给我们的 CQE。

在 NVIDIA 网卡上,ibv_post_send 最终调用的是 _mlx5_post_send:

这个函数的核心功能是:

1)把 ibv_send_wr 翻译为 NVIDIA 网卡的 WQE 格式

2)Doorbell 通知网卡

5.1 填充 WQE

根据 NVIDIA 的手册,一个 Send 请求的 WQE 包含两个部分:

控制段:

数据段:

根据手册的定义,我们解析一下上面日志中的 WQE:

可以看到,和我们软件填的 ibv_send_wr 是相似的。注意到一个细节,我们填的 wr_id 没有出现在 WQE 中,实际上这个 wr_id 是存在 rdma-core 里的。因为 WQE 是按序处理的,收到 CQE 的时候可以找到当初提交的 ibv_send_wr。

5.2 Doorbell 通知网卡

post_send_db 这个函数很简单,但是细节非常多:

首先,这个函数会加一个内存屏障,保证 Doorbell 到达硬件时,前面构建的 WQE 已经可见。

然后,更新 QP 的 Doorbell 信息(其实就是队列的 tail)

最后,通过 mmio_write64_be 写网卡的寄存器,告诉网卡我准备好了,你可以发了。

mmio_write64_be 使用的是 sse 指令(x86 上),WQE 的第一部分(上文的控制段)写入网卡的寄存器:

实际上就是一个赋值操作,等效于:

*(uint64_t)(bf->reg + bf->offset) = *(uint64_t *)ctrl;

使用 SSE 主要是为了保证原子性,避免网卡先收到前 4 字节,再收到后 4 字节。

看来所有的魔法都在 bf->reg 上,这个 buffer 是什么?为什么软件往这个 buffer 写一个 uint64,网卡就能收到事件?

gdb 中可以看到这个 bf->reg 看起来是一个平平无奇的虚拟地址,但是 gdb 读取会失败。

看看进程的 maps 信息:

这段内存被映射成 Write Only 了,所以读取失败。那这段内存是什么呢?

用 crash 看看页表吧:

物理地址是 1bffc020800,通过 /proc/iomem 可以看到这个物理地址是属于 0000:3b:00.0 这个 PCI 设备的:

这个设备正是我们用的 RDMA 网卡,这个地址位于 BAR0:

根据 NVIDIA 的手册,软件写的这个地址区域被称为 UAR(User Access Region)。UAR 是 PCI 地址空间的一部分,被网卡驱动直接映射至应用的内存中。当软件往 UAR 写 Doorbell 后,网卡会从 PCI 上收到报文,从而获知软件需要发送数据了这件事情。

随后,网卡会经过调度和仲裁,拉取 WQE 进行执行。在执行过程中,网卡会先从 WQE 中提取 mkey 和地址,然后送进 TPT (Translation and Protection)单元中查询 mkey 的信息,拿到地址和权限,校验通过后进行 DMA,最后把数据发送至物理接口。

当数据发送完成,且被对端确认后,网卡会产生 CQE 通知软件。软件收到 CQE 后才可以进行资源的回收。这点和 Socket 接口不同,Socket 接口是有拷贝的,软件调用 write 结束后,就可以把资源回收,而 RDMA 是零拷贝的,资源的生命周期管理会更加复杂。

六、总结

至此,RDMA 基本的工作原理和软硬件交互的机制就介绍完了。RDMA 技术的出发点很简单,就是能不能饶过一切限制,直接把数据送到用户手中。在此之上,做了非常多的工作,成为了一个非常复杂的技术。

RDMA 也不是银弹,有着编程复杂、调试复杂、硬件依赖重、不能长传等问题。对于 IO 密集型的业务,RDMA 可以节约很多 CPU,获得高吞吐低延迟的性能;而对于计算密集的业务,或者追求硬件无关的业务,TCP 是更合适的选择。

参考资料

[01] IB 规范:

https://www.infinibandta.org/ibta-specification/

[02] NVIDIA 网卡手册:

https://network.nvidia.com/files/doc-2020/ethernet-adapters-programming-manual.pdf

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1987862.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

谷歌25亿美金收购Character AI的幕后故事

在科技领域中&#xff0c;并购交易无疑是推动技术发展的重要手段之一。最近&#xff0c;谷歌以25亿美金的对价收购了Character AI&#xff0c;这一交易的方式和细节引起了广泛关注。本文将详细解析谷歌这一奇葩交易方式&#xff0c;探讨其背后的动机和影响。 一、交易背景 1.…

计算机毕业设计Python民宿可视化分析 民宿推荐系统 随机森林预测算法 民宿爬虫 酒店爬虫 大数据毕业设计 Django Vue.js 机器学习 深度学习

《Python民宿可视化与预测系统》开题报告 一、选题背景及研究意义 1.1 选题背景 民宿作为一种新型的住宿方式&#xff0c;近年来在全球范围内迅速崛起&#xff0c;尤其在旅游行业发达的国家和地区更是受到广大游客的青睐。民宿不仅提供了更加个性化和接地气的住宿体验&#…

高校综合管理数据库中有以下几个关系

inner join&#xff1a;理解为“有效连接”&#xff0c;两张表中都有的数据才会显示 left join&#xff1a;理解为“有左显示”&#xff0c;比如on a.fieldb.field&#xff0c;则显示a表中存在的全部数据及a、b中都有的数据&#xff0c;a中有、b中没有的数据以null显示 right j…

智慧水务项目(五)django(drf)+angular 18 配置REST_FRAMEWORK

一、说明 建立了几个文件 二、一步一步来 1、建立json_response.py 继承了 Response&#xff0c; 一共三个函数&#xff0c;成功、详情&#xff0c;错误 from rest_framework.response import Responseclass SuccessResponse(Response):"""标准响应成功的返回…

影响LabVIEW工作效率的因素有哪些

影响LabVIEW工作效率的因素可以分为多个方面&#xff0c;涵盖硬件、软件、开发环境和编程习惯等。以下是一些常见的影响因素&#xff1a; 1. 硬件因素 处理器性能&#xff1a;处理器的速度和核心数量对LabVIEW程序的执行效率有很大影响。 内存大小&#xff1a;足够的内存可以保…

基于各种排序方法的综合比较

一. 各种排序方法总括 二. 时间性能方面 按平均的时间性能来分&#xff0c;时间复杂度为n*log阶的有快速排序&#xff0c;堆排序和并归排序其中以快速方法最好。 时间复杂度为n*n阶的有直接插入排序&#xff0c;冒泡排序和简单选择排序&#xff0c;直接以直接插入排序最优。特…

为什么会出现cmake?

为什么会出现cmake 1、 什么是CMake -- 是一个项目构建工具&#xff0c;其实cmake和makefile是差不多的&#xff0c;只不过cmake更高级&#xff0c;可以跨平台使用&#xff0c;并且使用起来更加灵活&#xff0c;更符合逻辑。 2、为什么会出现cmake&#xff1f; c程序的编译流…

「字符串」详解Trie(字典树|前缀树)并实现对应的功能 / 手撕数据结构(C++)

概述 在浏览器搜索栏里输入几个字&#xff0c;就弹出了以你的输入为开头的一系列句子。浏览器是怎么知道你接下来要输什么的&#xff1f; 来看看字典树干了什么。 字典树是一种高效记录字符串和查找字符串的数据结构。它以每个字符作为一个节点对字符串进行分割记录&#xff0c…

Flink-DataWorks第二部分:数据集成(第58天)

系列文章目录 数据集成 2.1 概述 2.1.1 离线&#xff08;批量&#xff09;同步简介 2.1.2 实时同步简介 2.1.3 全增量同步任务简介 2.2 支持的数据源及同步方案 2.3 创建和管理数据源 文章目录 系列文章目录前言2. 数据集成2.1 概述2.1.1 离线&#xff08;批量&#xff09;同步…

【文献阅读】DAVE

核心思想 文章的核心思想是提出了一种名为DAVE&#xff08;Detect-and-Verify Paradigm for Low-Shot Counting&#xff09;的少样本计数方法。DAVE旨在通过一个新颖的检测和验证范式来提高低样本情况下的对象计数性能。这种方法特别关注在只有少量标注样本&#xff08;少样本…

OpenAI Gym: Understanding `action_space` notation (spaces.Box)

题意&#xff1a;OpenAI Gym: 理解action_space表示法&#xff08;spaces.Box&#xff09; 问题背景&#xff1a; I want to setup an RL agent on the OpenAI CarRacing-v0 environment, but before that I want to understand the action space. In the code on github line…

【Nuxt】Layout 布局和渲染模式

NuxtLayout app.vue <NuxtLayout><NuxtPage/></NuxtLayout>然后默认的布局 需要 写在 ~/layouts/default.vue 下面&#xff0c;其他自定义的布局也在写在 layouts 目录下。 default.vue <template><div class"app-container"><d…

比特币使用ord蚀刻符文---简单笔记

说明 毕竟符文热度过了&#xff0c;今年四月份做的笔记分享出来 蚀刻符文需要先同步完区块数据&#xff0c;和index文件&#xff0c;不然蚀刻会失败&#xff0c;在testnet和signet网络也一样。 创建钱包&#xff08;会输出助记词&#xff09;&#xff1a; ord --bitcoin-da…

【系统架构设计师】二十五、大数据架构设计理论与实践②

目录 四、 Kappa架构 4.1 Kappa架构介绍 4.2 Kappa架构的优缺点 4.3 常见Kappa 架构变形 4.3.1 Kappa 架构 4.3.2 混合分析系统的Kappa 架构 五、Lambda 架构与 Kappa 架构的对比和设计选择 5.1 Lambda架构与Kappa 架构的特性对比 5.2 Lambda架构与Kappa 架构的设计选…

2024最新数据库管理工具 Navicat Premium 简体中文版安装

Navicat Premium 是一款由 PremiumSoft 公司开发的多数据库管理工具。它支持多个数据库系统&#xff0c;包括 MySQL、MariaDB、MongoDB、SQL Server、Oracle、PostgreSQL 和 SQLite 等&#xff0c;使用户能够在一个平台上管理和操作多种数据库&#xff0c;简化了数据库管理任务…

软考基本介绍

一,基本了解 计算机技术与软件专业技术资格&#xff08;水平&#xff09;考试&#xff08;简称软件考试&#xff09;为国家级考试。 考试设置了27个专业资格&#xff0c;涵盖5个专业领域&#xff0c; 3个级别层次&#xff08;初级、中级、高级&#xff09;。 中国计算机技术职业…

品牌网络维权面临的挑战

在品牌治理渠道的过程中&#xff0c;知识产权的运用至关重要。然而&#xff0c;现实情况却不尽如人意&#xff0c;大量的侵权链接涌现&#xff0c;而下架速度迟缓&#xff0c;致使品牌渠道陷入混乱。店铺侵权背后的利益驱动是低价销售吸引消费者&#xff0c;这不仅损害品牌形象…

【HarmonyOS NEXT星河版开发学习】综合测试案例a-京东登录页面

个人主页→VON 收录专栏→鸿蒙开发小型案例总结​​​​​ 基础语法部分会发布于github 和 gitee上面&#xff08;暂未发布&#xff09; 前言 该案例有一些难度&#xff0c;将前面所学到的全部知识点做了一个全面的总结&#xff0c;代码量也不是很少。里面的一些细节一定要仔细…

MSR020/MSR040低温漂、低功耗电压基准

MSR020/MSR040 是低温漂、低功耗、高精度 CMOS 电压基准&#xff0c; 具有 0.05% 初始精度和低功耗的特点。 该器件的低输出电压迟滞和低长期输出电压漂移的 特性&#xff0c;可以进一步提高稳定性和系统可靠性。 此外&#xff0c;器 件的小尺寸和低工作电流的特性使其非…

lvs-nat模式原理及部署方法

一、环境准备 1.准备三台rhel9服务器 服务器名称 主机名 ip地址备注LVS调度服务器lvs.timinglee.org eth0:172.25.254.100&#xff08;外网&#xff09; eth1:192.168.0.100(内网) 关闭selinux和防火墙webserver2网站服务器webserver1.timinglee.orgeth0&#xff1a;192.168.…