根据官方文档详细说明 Kubernetes 网络流量走向,包含详细的图文说明和介绍

news2024/11/18 10:41:47

根据官方文档详细说明 Kubernetes 网络流量走向,包含详细的图文说明和介绍。

在这里插入图片描述

阅读本文,你可以了解在 Kubernetes 内外,数据包是如何转发的,从原始的 Web 请求开始,到托管应用程序的容器。

Kubernetes 网络要求
在深入了解在 Kubernetes 集群中数据包如何流转的细节之前,先明确一下 Kubernetes 对网络的要求。

Kubernetes 网络模型定义了一组基本规则:

在不使用网络地址转换 (NAT) 的情况下,集群中的 Pod 能够与任意其他 Pod 进行通信。
在不使用网络地址转换 (NAT) 的情况下,在集群节点上运行的程序能与同一节点上的任何 Pod 进行通信。
每个 Pod 都有自己的 IP 地址(IP-per-Pod),并且任意其他 Pod 都可以通过相同的这个地址访问它。
这些要求,不会将具体实现限制在某种解决方案上。

相反,它们笼统地描述了集群网络的特性。

为了满足这些限制,你必须解决以下挑战:

如何确保同一个 Pod 中的容器行为就像它们在同一个主机上一样?
集群中的 Pod 能否访问其他 Pod?
Pod 可以访问服务吗?服务是负载均衡的吗?
Pod 可以接收集群外部的流量吗?
在本文中,将重点关注前三点,从 Pod 内的网络,容器到容器的通信说起。

Linux 网络命名空间如何在 Pod 中工作
让我们来看一个运行应用的主容器和伴随一起的另一个容器。

在示例中,有一个带有 nginx 和 busybox 容器的 Pod:

apiVersion: v1
kind: Pod
metadata:
  name: multi-container-Pod
spec:
  containers:
    - name: container-1
      image: busybox
      command: ['/bin/sh', '-c', 'sleep 1d']
    - name: container-2
      image: nginx

部署时,会发生以下事情:

Pod 在节点上拥有独立的网络命名空间。
分配一个 IP 地址给 Pod ,两个容器之间共享端口。
两个容器共享相同的网络命名空间,并在本地彼此可见。
网络配置在后台迅速完成。

但是,让我们退后一步,尝试理解为什么运行容器需要上述动作。

在 Linux 中,网络命名空间是独立的、隔离的逻辑空间。

你可以将网络命名空间视为,将物理网络接口分割小块之后的独立部分。

每个部分都可以单独配置,并拥有自己的网络规则和资源。

这些包括防火墙规则、接口(虚拟的或物理的)、路由以及与网络相关的所有内容。

物理网络接口持有根网络命名空间。
在这里插入图片描述
2. 你可以使用 Linux 网络命名空间来创建独立的网络。每个网络都是独立的,除非你进行配置,默认不会与其他网络互通。

在这里插入图片描述
但最终,还是需要物理接口处理所有真实的数据包,所有虚拟接口都是基于物理接口创建的。

网络命名空间可以通过 ip-netns 进行管理,使用 ip netns list 可以列出主机上的命名空间。

需要注意的是,创建的网络命名空间会出现在 /var/run/netns 下面,但 Docker 并没有遵循这一规则。

例如,这是 Kubernetes 节点的一些命名空间:

$ ip netns list

cni-0f226515-e28b-df13-9f16-dd79456825ac (id: 3)
cni-4e4dfaac-89a6-2034-6098-dd8b2ee51dcd (id: 4)
cni-7e94f0cc-9ee8-6a46-178a-55c73ce58f2e (id: 2)
cni-7619c818-5b66-5d45-91c1-1c516f559291 (id: 1)
cni-3004ec2c-9ac2-2928-b556-82c7fb37a4d8 (id: 0)

注意 cni- 前缀;这意味着命名空间是由 CNI 插件创建的。

当你创建一个 Pod,Pod 被分配给一个节点后,CNI 将:

分配 IP 地址。
将容器连接到网络。
如果 Pod 包含多个容器,那么这些容器都将被放在同一个命名空间中。

当创建 Pod 时,容器运行时会给容器创建一个网络命名空间。

在这里插入图片描述
2. 然后 CNI 负责给 Pod 分配一个 IP 地址。

在这里插入图片描述
3. 最后 CNI 将容器连接到网络的其余部分。
在这里插入图片描述
那么,当你列出节点上的容器的命名空间会发生什么呢?

你可以通过 SSH 连接到 Kubernetes 节点并查看命名空间:

$ lsns -t net

        NS TYPE NPROCS   PID USER     NETNSID NSFS                           COMMAND
4026531992 net     171     1 root  unassigned /run/docker/netns/default      /sbin/init noembed norestore
4026532286 net       2  4808 65535          0 /run/docker/netns/56c020051c3b /pause
4026532414 net       5  5489 65535          1 /run/docker/netns/7db647b9b187 /pause

lsns 是一个用于列出主机上所有可用命名空间的命令。

请记住,Linux 中有多种命名空间类型。

Nginx 容器在哪里?

那些 pause 容器是什么?

在 Pod 中,pause 容器创建了网络命名空间
先列出节点上的所有命名空间,看看能否找到 Nginx 容器:

$ lsns
        NS TYPE   NPROCS   PID USER            COMMAND
# truncated output
4026532414 net         5  5489 65535           /pause
4026532513 mnt         1  5599 root            sleep 1d
4026532514 uts         1  5599 root            sleep 1d
4026532515 pid         1  5599 root            sleep 1d
4026532516 mnt         3  5777 root            nginx: master process nginx -g daemon off;
4026532517 uts         3  5777 root            nginx: master process nginx -g daemon off;
4026532518 pid         3  5777 root            nginx: master process nginx -g daemon off;

Nginx 容器在挂载 (mnt)、Unix time-sharing (uts) 和 PID (pid) 命名空间中,但不在网络命名空间 (net) 中。

不幸的是,lsns 只显示每个进程最小的 PID,但你可以根据这个进程 ID 进一步过滤。

10T 技术限时资源大放送!包括但不限于:Linux、虚拟化、容器、云计算、网络、Python、Go 等。在开源Linux公众号内回复「10T」,即可免费获取!

使用以下命令,在所有命名空间中检索 Nginx 容器:

$ sudo lsns -p 5777

       NS TYPE   NPROCS   PID USER  COMMAND
4026531835 cgroup    178     1 root  /sbin/init noembed norestore
4026531837 user      178     1 root  /sbin/init noembed norestore
4026532411 ipc         5  5489 65535 /pause
4026532414 net         5  5489 65535 /pause
4026532516 mnt         3  5777 root  nginx: master process nginx -g daemon off;
4026532517 uts         3  5777 root  nginx: master process nginx -g daemon off;
4026532518 pid         3  5777 root  nginx: master process nginx -g daemon off;

pause 进程再次出现,它劫持了网络命名空间。

这是怎么回事?

集群中的每个 Pod 都有一个额外的隐藏容器在后台运行,称为 pause 容器。

列出在节点上运行的容器并获取 pause 容器:

$ docker ps | grep pause

fa9666c1d9c6   k8s.gcr.io/pause:3.4.1  "/pause"  k8s_POD_kube-dns-599484b884-sv2js…
44218e010aeb   k8s.gcr.io/pause:3.4.1  "/pause"  k8s_POD_blackbox-exporter-55c457d…
5fb4b5942c66   k8s.gcr.io/pause:3.4.1  "/pause"  k8s_POD_kube-dns-599484b884-cq99x…
8007db79dcf2   k8s.gcr.io/pause:3.4.1  "/pause"  k8s_POD_konnectivity-agent-84f87c…

可以看到,节点上的每一个 Pod 都会有一个对应的 pause 容器。

这个 pause 容器负责创建和维持网络命名空间。

底层容器运行时会完成网络命名空间的创建,通常是由 containerd 或 CRI-O 完成。

在部署 Pod 和创建容器之前,由运行时创建网络命名空间。

容器运行时会自动完成这些,不需要手工执行 ip netns 创建命名空间。

话题回到 pause 容器。

它包含非常少的代码,并且在部署后立即进入睡眠状态。

但是,它是必不可少的,并且在 Kubernetes 生态系统中起着至关重要的作用。

创建 Pod 时,容器运行时会创建一个带有睡眠容器的网络命名空间。
在这里插入图片描述
2. Pod 中的其他容器都会加入由 pause 容器创建的网络名称空间。

在这里插入图片描述

  1. 此时,CNI 分配 IP 地址并将容器连接到网络。
    在这里插入图片描述
    一个进入睡眠状态的容器有什么用?

为了理解它的用途,让我们想象一个 Pod 有两个容器,就像前面的例子一样,但没有 pause 容器。

一旦容器启动,CNI 将会:

使 busybox 容器加入之前的网络命名空间。
分配 IP 地址。
将容器连接到网络。
如果 Nginx 崩溃了怎么办?

CNI 将不得不再次执行所有步骤,并且两个容器的网络都将中断。

由于睡眠容器不太可能有任何错误,因此创建网络命名空间通常是一种更安全、更健壮的选择。

如果 Pod 中的一个容器崩溃了,剩下的仍然可以回复其他网络请求。
分配一个 IP 地址给 Pod
前面我提到 Pod 和两个容器将具有同一个 IP 地址。

那是怎样配置的呢?

在 Pod 网络命名空间内,创建了一个接口,并分配了一个 IP 地址。
让我们验证一下。

首先,找到 Pod 的 IP 地址:

$ kubectl get Pod multi-container-Pod -o jsonpath={.status.PodIP}

10.244.4.40

接下来,找到相关的网络命名空间。

由于网络命名空间是从物理接口创建的,需要先访问集群节点。

如果你运行的是 minikube,使用 minikube ssh 访问节点。如果在云厂中运行,那么应该有某种方法可以通过 SSH 访问节点。

进入后,找到最新创建的命名网络命名空间:

$ ls -lt /var/run/netns

total 0
-r--r--r-- 1 root root 0 Sep 25 13:34 cni-0f226515-e28b-df13-9f16-dd79456825ac
-r--r--r-- 1 root root 0 Sep 24 09:39 cni-4e4dfaac-89a6-2034-6098-dd8b2ee51dcd
-r--r--r-- 1 root root 0 Sep 24 09:39 cni-7e94f0cc-9ee8-6a46-178a-55c73ce58f2e
-r--r--r-- 1 root root 0 Sep 24 09:39 cni-7619c818-5b66-5d45-91c1-1c516f559291
-r--r--r-- 1 root root 0 Sep 24 09:39 cni-3004ec2c-9ac2-2928-b556-82c7fb37a4d8

在示例中,就是 cni-0f226515-e28b-df13-9f16-dd79456825ac。然后,可以在该命名空间内运行 exec 命令:

$ ip netns exec cni-0f226515-e28b-df13-9f16-dd79456825ac ip a

# output truncated
3: eth0@if12: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1450 qdisc noqueue state UP group default
    link/ether 16:a4:f8:4f:56:77 brd ff:ff:ff:ff:ff:ff link-netnsid 0
    inet 10.244.4.40/32 brd 10.244.4.40 scope global eth0
       valid_lft forever preferred_lft forever
    inet6 fe80::14a4:f8ff:fe4f:5677/64 scope link
       valid_lft forever preferred_lft forever

这个 IP 就是 Pod 的 IP 地址!通过查找 @if12 中的 12 找到网络接口

$ ip link | grep -A1 ^12

12: vethweplb3f36a0@if16: mtu 1376 qdisc noqueue master weave state UP mode DEFAULT group default
    link/ether 72:1c:73:d9:d9:f6 brd ff:ff:ff:ff:ff:ff link-netnsid 1

还可以验证 Nginx 容器是否监听了来自该命名空间内的 HTTP 流量:

$ ip netns exec cni-0f226515-e28b-df13-9f16-dd79456825ac netstat -lnp

Active Internet connections (only servers)
Proto Recv-Q Send-Q Local Address           Foreign Address         State       PID/Program name
tcp        0      0 0.0.0.0:80              0.0.0.0:*               LISTEN      692698/nginx: master
tcp6       0      0 :::80                   :::*                    LISTEN      692698/nginx: master

如果你无法通过 SSH 访问集群中的工作节点,你可以使用 kubectl exec 获取到 busybox 容器的 shell 并直接在内部使用 ip 和 netstat 命令。

刚刚我们介绍了容器之间的通信,再来看看如何建立 Pod 到 Pod 的通信吧。

查看集群中 Pod 到 Pod 的流量
Pod 到 Pod 的通信有两种可能的情况:

Pod 流量的目的地是同一节点上的 Pod。
Pod 流量的目的地是在不同节点上的 Pod。
整个工作流依赖于虚拟接口对和网桥,下面先来了解一下这部分的内容。

为了让一个 Pod 与其他 Pod 通信,它必须先访问节点的根命名空间。
通过虚拟以太网对来实现 Pod 和根命名空间的连接。

这些虚拟接口设备(veth 中的 v)连接并充当两个命名空间之间的隧道。

使用此 veth 设备,你将一端连接到 Pod 的命名空间,另一端连接到根命名空间。
在这里插入图片描述
CNI 可以帮你执行这些操作,但你也可以手动执行:

$ ip link add veth1 netns Pod-namespace type veth peer veth2 netns root

现在 Pod 的命名空间有一个可以访问根命名空间的 隧道。

节点上,新建的每一个 Pod 都会设置这样的 veth 对。

一个是,创建接口对;另一个是为以太网设备分配地址并配置默认路由。

下面看看如何在 Pod 的命名空间中设置 veth1 接口:

$ ip netns exec cni-0f226515-e28b-df13-9f16-dd79456825ac ip addr add 10.244.4.40/24 dev veth1
$ ip netns exec cni-0f226515-e28b-df13-9f16-dd79456825ac ip link set veth1 up
$ ip netns exec cni-0f226515-e28b-df13-9f16-dd79456825ac ip route add default via 10.244.4.40

在节点上,让我们创建另一个 veth2 对:

$ ip addr add 169.254.132.141/16 dev veth2
$ ip link set veth2 up

可以像前面一样检查现有的 veth 对。

在 Pod 的命名空间中,检索 eth0 接口的后缀。

$ ip netns exec cni-0f226515-e28b-df13-9f16-dd79456825ac ip link show type veth

3: eth0@if12: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1450 qdisc noqueue state UP mode DEFAULT group default
    link/ether 16:a4:f8:4f:56:77 brd ff:ff:ff:ff:ff:ff link-netnsid 0

在这种情况下,可以使用命令 grep -A1 ^12 查找(或滚动到目标所在处):

$ ip link show type veth

# output truncated
12: cali97e50e215bd@if3: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1450 qdisc noqueue state UP mode DEFAULT group default
    link/ether ee:ee:ee:ee:ee:ee brd ff:ff:ff:ff:ff:ff link-netns cni-0f226515-e28b-df13-9f16-dd79456825ac

也可以使用 ip -n cni-0f226515-e28b-df13-9f16-dd79456825ac link show type veth.命令

注意 3: eth0@if12和12: cali97e50e215bd@if3 接口上的符号。

从 Pod 命名空间,该 eth0 接口连接到根命名空间的 12 号接口,因此是 @if12.

在 veth 对的另一端,根命名空间连接到 Pod 命名空间的 3 号接口。

接下来是连接 veth 对两端的桥接器。

Pod 网络命名空间连接到以太网桥
网桥会汇聚位于根命名空间中的每一个虚拟接口。这个网桥允许虚拟 pair 之间的流量,也允许穿过公共根命名空间的流量。

补充一下相关原理。

以太网桥位于 OSI 网络模型 的第 2 层。

你可以将网桥视为接受来自不同命名空间和接口的连接的虚拟交换机。

以太网桥可以连接节点上的多个可用网络。

因此,可以使用网桥连接两个接口,即 Pod 命名空间的 veth 连接到同一节点上另一个 Pod 的 veth。

在这里插入图片描述

接下来,继续看网桥和 veth 对的用途。

跟踪在同一节点上 Pod 到 Pod 的流量
假设同一个节点上有两个 Pod,Pod-A 向 Pod-B 发送消息。

由于访问目标不在同一个命名空间,Pod-A 将数据包发送到其默认接口 eth0。这个接口与 veth 对的一端绑定,作为隧道。这样,数据包会被转发到节点上的根命名空间。
在这里插入图片描述
2. 以太网网桥作为一个虚拟交换机,需要目标 Pod-B 的 MAC 地址才能工作。
在这里插入图片描述
3. ARP 协议会解决这个问题。当帧到达网桥时,会向所有连接的设备发送 ARP 广播。网桥广播询问持有 Pod-B 的 IP 地址
在这里插入图片描述
4. 此时会收到一个带有 Pod-B IP 的 MAC 地址应答,这条消息会被存储在桥接 ARP 缓存(查找表)中。

在这里插入图片描述
5. IP 地址和 MAC 地址的映射关系存储之后,网桥就在表中查找,并将数据包转发到正确的端点。数据包到达根命名空间内 Pod-B 的 veth 之后,很快又到达 Pod-B 命名空间内的 eth0 接口。
在这里插入图片描述

至此,Pod-A 和 Pod-B 之间的通信就成功了。

跟踪不同节点上的 Pod 到 Pod 通信
对于跨节点 Pod 之间的通信,会经过额外的通信跳跃。

前几个步骤保持不变,直到数据包到达根命名空间并需要发送到 Pod-B。

在这里插入图片描述
2. 当目的 IP 不在本地网络中时,报文被转发到节点的默认网关。节点的出口网关或默认网关,通常位于节点与网络相连的物理接口 eth0 上。
在这里插入图片描述

此时 不会发生 ARP 解析,因为源 IP 和目标 IP 不在同一个网段中。

网段的检查是使用按位运算完成的。

当目的 IP 不在当前网络段时,数据包被转发到节点的默认网关。

按位运算的工作原理
在确定数据包的转发位置时,源节点必须执行位运算

这也称为与操作。

复习一下,按位与运算的规则:

0 AND 0 = 0
0 AND 1 = 0
1 AND 0 = 0
1 AND 1 = 1

除了 1 与 1 以外的都是 false。

如果源节点的 IP 为 192.168.1.1,子网掩码为 /24,目标 IP 为 172.16.1.1/16,则按位与运算将得知它们位于不同的网段上。

这意味着目标 IP 与数据包的源不在同一个网络上,数据包将通过默认网关转发。

数学时间。

我们必须从二进制的 32 位地址开始进行 AND 操作。

先找出源 IP 网络和目标 IP 网段。

在这里插入图片描述
按位运算之后,需要将目标 IP 与数据包源节点的子网进行比较。
在这里插入图片描述
运算的结果是 172.16.1.0,不等于 192.168.1.0(源节点的网络)。说明源 IP 地址和目标 IP 地址不在同一个网络上。

如果目标 IP 是 192.168.1.2,即与发送 IP 在同一子网中,则 AND 操作将得到节点的本地网络。
在这里插入图片描述

进行逐位比较后,ARP 通过查找表查找默认网关的 MAC 地址。

如果有条目,将立即转发数据包。

否则,先进行广播以找到网关的 MAC 地址。

现在,数据包路由到另一个节点的默认接口,我们称为 Node-B。

在这里插入图片描述
以相反的顺序。现在,数据包位于 Node-B 的根命名空间,并到达网桥,这里会进行 ARP 解析。
在这里插入图片描述
路由系统将返回与 Pod-B 相连的接口的 MAC 地址。
在这里插入图片描述

网桥通过 Pod-B 的 veth 设备转发帧,并到达 Pod-B 的命名空间。

在这里插入图片描述
至此,你应该已经熟悉了 Pod 之间的流量是如何流转的。下面,让我们花点时间来看看 CNI 如何管理上诉内容。

容器网络接口 - CNI
容器网络接口(CNI)主要关注的是当前节点中的网络。

在这里插入图片描述
可以将 CNI 看作为解决 Kubernetes 网络需求,而遵循的一组规则。

有这些 CNI 实现可供使用:

Calico
Cillium
Flannel
Weave Net
其他网络插件
他们都遵循相同的 CNI 标准。

如果没有 CNI,你需要人工完成如下操作:

创建接口。
创建 veth 对。
设置网络命名空间。
设置静态路由。
配置以太网桥。
分配 IP 地址。
创建 NAT 规则。
还有其他大量事情。
这还不包括,在删除或重启 Pod 时,需要进行类似的全部操作。

CNI 必须支持四种不同的操作:

ADD - 向网络添加一个容器。
DEL - 从网络中删除一个容器。
CHECK - 如果容器的网络出现问题,则返回错误。
VERSION - 显示插件的版本。
我们一起看下,CNI 是如何工作的。

当 Pod 被分配到特定节点时,Kubelet 自身不会初始化网络。

相反,Kubelet 将这个任务交给 CNI。

但是,Kubelet 以 JSON 格式指定配置并发送至 CNI 插件。

你可以进入节点上的 /etc/cni/net.d 文件夹,使用以下命令查看当前的 CNI 配置文件:

$ cat 10-calico.conflist

{
  "name": "k8s-Pod-network",
  "cniVersion": "0.3.1",
  "plugins": [
    {
      "type": "calico",
      "datastore_type": "kubernetes",
      "mtu": 0,
      "nodename_file_optional": false,
      "log_level": "Info",
      "log_file_path": "/var/log/calico/cni/cni.log",
      "ipam": { "type": "calico-ipam", "assign_ipv4" : "true", "assign_ipv6" : "false"},
      "container_settings": {
          "allow_ip_forwarding": false
      },
      "policy": {
          "type": "k8s"
      },
      "kubernetes": {
          "k8s_api_root":"https://10.96.0.1:443",
          "kubeconfig": "/etc/cni/net.d/calico-kubeconfig"
      }
    },
    {
      "type": "bandwidth",
      "capabilities": {"bandwidth": true}
    },
    {"type": "portmap", "snat": true, "capabilities": {"portMappings": true}}
  ]
}

每个 CNI 插件都会使用不同类型的网络配置。

例如,Calico 使用基于 BGP 的三层网络连接 Pod

Cilium 从三层到七层使用的是基于 eBPF 的 overlay 网络

与 Calico 一样,Cilium 也支持通过配置网络策略来限制流量。

那么你应该使用哪一个呢?主要有两类 CNI。

在第一类中,使用基本网络设置(也称为平面网络),从集群的 IP 池为 Pod 分配 IP 地址的 CNI。

这种方式可能很快耗尽 IP 地址,而成为负担。

相反,另一类是使用 overlay 网络。

简单来说,overlay 网络是主(底层)网络之上的重建网络。

overlay 网络通过封装来自底层网络的数据包工作,这些数据包被发送到另一个节点上的 Pod。

overlay 网络的一种流行技术是 VXLAN,它可以在 L3 网络上建立 L2 域的隧道。

那么哪个更好呢?

没有单一的答案,这取决于你的需求。

你是否正在构建具有数万个节点的大型集群?

也许 overlay 网络更好。

你是否在意更简单的配置和审查网络流量,而不会愿意在复杂网络中丢失这种能力?

扁平网络更适合你。

现在我们讨论完了 CNI,接着让我们来看看 Pod 到服务的通信是如何连接的。

检查 Pod 到 Service 的流量
由于 Pod 在 Kubernetes 中是动态的,分配给 Pod 的 IP 地址不是静态的。

Pod 的 IP 是短暂的,每次创建或删除 Pod 时都会发生变化。

Kubernetes 中的 Service 解决了这个问题,为连接一组 Pod 提供了可靠的机制。
在这里插入图片描述
默认情况下,在 Kubernetes 中创建 Service 时,被分配一个虚拟 IP。

在 Service 中,可以使用选择器将 Service 与目标 Pod 相关联。

当删除或添加一个 Pod 时会发生什么呢?

Service 的虚拟 IP 保持静态不变。

但流量可以再无需干预的情况下,到达新创建的 Pod。

换句话说,Kubernetes 中的 Service 类似于负载均衡器。

但它们是如何工作的?

使用 Netfilter 和 Iptables 拦截和重写流量
Kubernetes 中的 Service 是基于 Linux 内核中的两个组件构建的:

网络过滤器
iptables

Netfilter 是一个可以配置数据包过滤、创建 NAT 、端口转发规则以及管理网络中流量的框架
此外,它可以屏蔽和禁止未经同意的访问。

另一方面,iptables 是一个用户态程序,可以用来配置 Linux 内核防火墙的 IP 数据包过滤规则。

iptables 是作为不同的 Netfilter 模块实现的。

可以使用 iptables CLI 即时修改过滤规则,并将它们插入 netfilters 挂载点。

过滤器配置在不同的表中,其中包含用于处理网络流量数据包的链。

不同的协议使用不同的内核模块和程序。

当提到 iptables 时,通常指的是 IPv4。对于 IPv6 ,终端工具是 ip6tables。

iptables 有五种链,每一种链都直接映射到 Netfilter 的钩子上。

从 iptables 的角度来看,它们是:

PRE_ROUTING
INPUT
FORWARD
OUTPUT
POST_ROUTING
它们对应地映射到 Netfilter 钩子:

NF_IP_PRE_ROUTING
NF_IP_LOCAL_IN
NF_IP_FORWARD
NF_IP_LOCAL_OUT
NF_IP_POST_ROUTING
当一个数据包到达时,根据它所处的阶段,将 “触发” 一个 Netfilter 钩子。这个钩子会执行特定的 iptables 过滤规则。

在这里插入图片描述
看起来很复杂!

不过没什么好担心的。

这就是我们使用 Kubernetes 的原因,以上所有内容都是通过使用 Service 抽象出来的,并且一个简单的 YAML 定义可以自动设置这些规则。

如果你有兴趣查看 iptables 规则,可以连接到节点并运行:

$ iptables-save

还可以使用这个工具来可视化节点上的 iptables 链。

这是来自 GKE 节点上的可视化 iptables 链的示例图:
在这里插入图片描述

注意,这里可能配置了几百条规则,想想一下自己动手怎么配置!

至此,我们已经了解了,相同节点上的 Pod 和不同节点上 Pod 之间是如何通信的。

在 Pod 与 Service 的通信中,链路的前半部分是一样的。
在这里插入图片描述
当请求从 Pod-A 走向 Pod-B 时,由于 Pod-B 在 Service 的 “后面”,在传输的过程中,会有一些不一样。

原始的请求,在 Pod-A 命名空间的 eth0 接口发出。

接着,请求通过 veth到达根名称空间的网桥。

一旦到达网桥,数据包就会立即通过默认网关转发。

与 Pod-to-Pod 部分一样,主机进行按位比较。由于服务的虚拟 IP 不是节点 CIDR 的一部分,因此数据包将立即通过默认网关转发。

如果默认网关的 MAC 地址尚未出现在查找表中,则会进行 ARP 解析找出默认网关的 MAC 地址。

现在神奇的事情发生了。

在数据包通过节点的路由之前,Netfilter 的 NF_IP_PRE_ROUTING 挂钩被触发,并执行 iptables 规则。这个规则会修改 Pod-A 数据包的目标 IP 地址 DNAT。

在这里插入图片描述
前面服务的虚拟 IP 地址被重写为 Pod-B 的 IP 地址。

接下来,数据包路由过程与 Pod 到 Pod 的通信一样。

在这里插入图片描述
数据包重写后,通信是 Pod 到 Pod。

然而,在所有这些通信中,使用了一个第三方的功能。

此功能称为 conntrack 或链路跟踪。

当 Pod-B 发回响应时,conntrack 会将数据包与链路相关联,并跟踪其来源。

NAT 严重依赖于 conntrack。

如果没有链路跟踪,将不知道将包含响应的数据包发回何处。

使用 conntrack 时,数据包的返回路径很容易设置为相同的源或目标 NAT 更改。

通信的另一部分与现在的链路相反。

Pod-B 接收并处理了请求,现在将数据发送回 Pod-A。

现在会发生什么呢?

检查来自服务的响应
Pod-B 发送响应,将其 IP 地址设置为源地址,并将 Pod-A 的 IP 地址设置为目标地址。

在这里插入图片描述
当数据包到达 Pod-A 所在节点的接口时,会发生另一个 NAT。
在这里插入图片描述
这时,conntrack 开始工作,修改源 IP 地址,iptables 规则执行 SNAT,并将 Pod-B 的源 IP 地址修改为原始服务的虚拟 IP。
在这里插入图片描述
对于 Pod-A 来说,响应是来自于 Service 而不是 Pod-B。

其余的都是一样的。一旦 SNAT 完成,数据包就会到达根命名空间中的网桥,并通过 veth 对转发到 Pod-A。

主要参考:
https://learnk8s.io/kubernetes-network-packets

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/195226.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

【three.js】本地搭建Threejs官方文档网站 解决threejs官方文档打开过慢得到问题

本文主要为了解决three.js 官方文档 打开过慢的问题 因为Three.js官网是国外的服务器&#xff0c;所以为了方便学习和快速的查阅文档&#xff0c;我们可以自己搭建Three.js官网和文档&#xff0c;方便随时查看案例和文档内容进行学习。 1、首先进入threejs库GitHub地址&#xf…

如何成为一名FPGA工程师?需要掌握哪些知识?

我国每年对于FPGA设计人才的需求缺口很大。在需求缺口巨大的情形下&#xff0c;发展前景相对可观。那么如何成为一名FPGA工程师&#xff1f; 什么是FPGA&#xff1f; FPGA&#xff08;FieldProgrammable Gate Array&#xff09;&#xff0c;即现场可编程门阵列&#xff0c;它…

新手入门Pinia

什么是Pinia Pinia 是 Vue 的专属状态管理库&#xff0c;它允许你跨组件或页面共享状态。它和Vuex作用类似(发音为 /piːnjʌ/),官网 为什么要使用Pinia 与 Vuex 相比&#xff0c;Pinia 不仅提供了一个更简单的 API&#xff0c;也提供了符合组合式 API 风格的 API&#xff0…

vue项目创建

前提&#xff1a;node安装&#xff1a;02node安装_哔哩哔哩_bilibili 1. 查看node版本 查看node版本 node -v 查看npm 版本 npm -v 2. 输入cmd 用管理员打开控制台 3. 设置淘宝镜像 npm config set registry https://registry.npm.taobao.org 4. 安装vue脚手架 npm install -g …

北大青鸟昌平校区:2023年云计算发展趋势!

云计算的大规模应用一直是许多最具变革性技术——如人工智能、物联网等的关键驱动力&#xff0c;未来也将进一步推动虚拟现实和增强现实(VR/AR)、元宇宙、甚至量子计算等技术的发展。近日&#xff0c;在美国《福布斯》网站报道中&#xff0c;列出了2023年云计算领域的五大主要趋…

56.Isaac教程--ROS

ROS ISAAC教程合集地址文章目录ROS安装ROS创建和使用自定义 ROS 包创建 ROS BridgeRos节点时间同步器消息转换器基地姿势同步自定义小码示例&#xff1a;将 ROS 导航堆栈与 Isaac 结合使用在此示例上构建将 Isaac 映射转换为 ROS 映射Isaac 和机器人操作系统 (ROS) 都使用消息传…

other-chatGPT记录

title: other-chatGPT记录 categories: Others tags: [人工智能, ai, 机器人, chatGPT] date: 2023-02-02 10:04:33 comments: false mathjax: true toc: true other-chatGPT记录 前篇 官网 https://openai.com/api - https://openai.com/api/测试 - https://platform.openai.…

DSP_CCS7实现变量的导出与MatLAB读取

前言 最近在做基于dsp平台的无通信接口系统辨识&#xff0c;因此需要直接利用CCS将数据导出&#xff0c;然后再利用MatLAB解析读取后的数据。MatLAB的代码参考了以下这篇链接: -/导出CCS3.3数据及使用matlab处理的方法.md at master dailai/- GitHub 高版本的CCS&#xff…

GitHub访问问题与 Steam++下载及使用(适合小白)

前言 &#x1f4dc; “ 作者 久绊A ” 专注记录自己所整理的Java、web、sql等&#xff0c;IT技术干货、学习经验、面试资料、刷题记录&#xff0c;以及遇到的问题和解决方案&#xff0c;记录自己成长的点滴 ​ 目录 前言 一、Steam的介绍 1、大概介绍 2、详细介绍 二、Ste…

Unity与Android交互(双端通信)

前言 最近小编开始做关于手部康复的项目&#xff0c;需要Android集成Unity&#xff0c;以Android为主&#xff0c;Unity为辅的开发&#xff1b;上一篇给大家分享了Unity嵌入Android的操作过程&#xff0c;所以今天想给大家分享一下双端通信的知识&#xff1b; 一. Android与Un…

安装OpenResty

安装OpenResty 1.安装 首先你的Linux虚拟机必须联网 1&#xff09;安装开发库 首先要安装OpenResty的依赖开发库&#xff0c;执行命令&#xff1a; yum install -y pcre-devel openssl-devel gcc --skip-broken2&#xff09;安装OpenResty仓库 你可以在你的 CentOS 系统中…

物联网平台+业务平台基本架构设计与优化想法

前言 目前的交付底座有点老&#xff0c;而且集成的有点杂&#xff0c;计划是要升级下&#xff0c;先说想法&#xff0c;看领导做不做。 1 业务平台定位 我们的愿景&#xff1a;通过物联平台赋能&#xff0c;让数据产生价值。 为客户提供可视化的平台&#xff08;数据价值…

【王道数据结构】第二章 | 线性表

目录 2.1线性表的定义 2.2线性表的基础操作 2.3顺序表的定义 2.4顺序表的基本操作 2.5 线性表的链式表示 2.1线性表的定义 线性表是具有相同数据类型的n(n>0)个数据元素的有限序列&#xff0c;其中n为表长&#xff0c;当n0时线性表是一个空表。若用L命名线性表&#xf…

Block底层原理读书笔记-《高级编程- iOS与OS多线程和内存管理》(更新中)

1 一个Block 真正的底层都有些什么&#xff1f; Block会被解析成一个结构体&#xff08;这里成为Block结构体&#xff09;&#xff0c;这个结构体里有&#xff1a; &#xff08;1&#xff09;isa指针&#xff08;说明Block的本质是一个对象&#xff09;&#xff1a;指向Stack…

动态修改Azure DevOps区域路径或迭代路径的继承权限(Inhertiance)

Contents1. 场景描述2. 解决方案2.1 更改继承的接口&#xff1a;ChangeInhertiance2.2 获取区域路径的接口&#xff1a;ClassificationNodes1. 场景描述客户使用工作项模板&#xff0c;定制了一个设计变更流程&#xff0c;需要在不同的阶段(流程状态)控制工作项的更改权限。我们…

Grafana 系列文章(六):Grafana Explore 中的日志

&#x1f449;️URL: https://grafana.com/docs/grafana/latest/explore/logs-integration/#labels-and-detected-fields &#x1f4dd;Description: Explore 中的日志 除了指标之外&#xff0c;Explore 还允许你在以下数据源中调查你的日志。 ElasticsearchInfluxDBLoki 在基…

[算法设计与分析考点4] 改进的串匹配算法——KMP算法

算法核心思想 在BF算法的基础上加以改进&#xff0c;BF算法中每次当前字符不相等时&#xff0c;主串S要回溯到其下一个字符处&#xff0c;模式串T要回溯到 j0 位置进行下一趟的匹配。然而&#xff0c;大多数情况下&#xff0c;这种回溯是没有必要的&#xff0c;非常耗时且效率低…

qt入门介绍

1.Qt 是一个跨平台的 C开发库。主要用来开发图形用户界面&#xff08;GUI&#xff09;程序。Qt 虽然经常被当做一个 GUI 库&#xff0c;用来开发图形界面应用程序&#xff0c;但这并不是 Qt 的全部&#xff1b;Qt 除了可以绘制漂亮的界面&#xff08;包括控件、布局、交互&…

【css】前端拉下代码后,node-sass sass-loader 与node版本不符怎么办

因为每次node和sass版本匹配都容易出现问题&#xff0c; 所以如果我自己开发&#xff0c;我不使用sass或者less&#xff0c;只用原生css 但如果是拉下来的项目&#xff0c;别人已经成功使用&#xff0c;webview版本 和 sass已经匹配&#xff0c;只需考虑 node版本匹配。 根据…

Hive分析函数系列文章

Hive分析窗口函数(一) SUM,AVG,MIN,MAXhttps://blog.csdn.net/weishuai90/article/details/128843715 Hive分析窗口函数(二) NTILE,ROW_NUMBER,RANK,DENSE_RANKhttps://blog.csdn.net/weishuai90/article/details/128858824 Hive分析窗口函数(三) CUME_DIST,PERCENT_RANKhttp…