【Ingress】

news2024/12/26 23:05:01

Ingress

  • 一、作用
  • 二、使外部应用能够访问集群内服务方案
    • 1.NodePort
    • 2.LoadBalancer
    • 3.externalIPs
    • 4.Ingress
  • 三、Ingress的组成
    • 1.ingress:nginx配置文件
    • 2.ingress-controller: 当作反向代理或者说是转发器
  • 四、Ingress工作原理
  • 五、ingress暴露服务的方式
    • 方式一:Deployment+LoadBalance模式的Service
    • 方式二:DaemonSet+HostNetwork+nodeSelector
    • 方式三: Deployment+NodePort模式的service
  • 六、Ingress实验
    • 部署 nginx-ingress-controller
      • 1、部署ingress-controller pod及相关资源
      • 2、修改 ClusterRole 资源配置
      • 采用方式二:DaemonSet+HostNetwork+nodeSelector
      • 3、指定 nginx-ingress-controller 运行在 node02 节点
      • 4、修改 Deployment 为 DaemonSet ,指定节点运行,并开启 hostNetwork 网络
      • 5.修改 kind
      • 6. 删除Replicas
      • 7、在所有 node 节点上传 nginx-ingress-controller 镜像压缩包 ingree.contro.tar.gz 到 /opt/ingress 目录,并解压和加载镜像
      • 8、启动 nginx-ingress-controller
      • 9.到 node02 节点查看
      • 10、创建 ingress 规则
        • 创建一个 deploy 和 svc
        • 创建 ingress
          • 方法一:(extensions/v1beta1 Ingress 在1.22版本即将弃用)
          • 方法二:
      • 11.
      • 12、查看 nginx-ingress-controller

一、作用

1.对集群内部:不断跟踪pod的变化,更新endpoint中对应pod的对象,提供了ip不断变化pod的服务发现机制

2.对集群外部:类似负载均衡器,可以在集群内外部对pod进行访问

在k8s中,pod的ip地址和service的ClusterIP仅可以在集群网络内部使用,对于集群外的应用是不可用的。

二、使外部应用能够访问集群内服务方案

1.NodePort

将service暴露在节点网络上,NodePort背后就是Kube-Proxy,Kube-proxy是沟通service网络、pod网络和节点网络的桥梁

(注意:测试环境还行,当有几十上百的服务在集群中运行时,NodePort的端口管理就是灾难。因为每个端口只能是一种服务,端口范围只能是30000-32767)

2.LoadBalancer

通过设置LoadBalancer映射到云服务商提供的LoadBanlancer地址。这种用法仅用于在公有云服务提供商的平台上设置Service的场景。受限于云平台,且通常在云平台部署LoadBalancer还需要额外的费用。

在service提交后,Kubernetes就会调用CloudProvider在公有云上为你创建一个负载均衡服务,并且把被代理的Pod的IP地址配置给负载均衡服务做后端。

3.externalIPs

service允许为其分配外部IP,如果外部IP路由到集群中一个或多个Node上,Service会被暴露给这些externalIPs。通过外部IP进入到集群的流量,将会北路有到Service的Endpoint上。

4.Ingress

只需要一个或者商量的公网IP和LB,即可同时即将多个HTTP服务暴露到外网,七层反向代理。可以简单理解为service的service,它其实就是一组基于域名和URL路径,把用户的请求转发到一个或多个service的规则。

三、Ingress的组成

1.ingress:nginx配置文件

ingress是一个API对象,通过yaml文件来配置,ingress对象的作用就是定义请求如何转发到service的规则,可以理解为配置模板

ingress通过http或https暴露集群内部service,给service提供外部URL、负载均衡、SSL/TLS以及基于域名的反向代理。ingress要依靠ingress-controller来具体实现以上功能

2.ingress-controller: 当作反向代理或者说是转发器

ingress-controller并不是k8s自带的组件,实际上ingress-controller只是一个统称,用户可以选择不同的ingress-controller实现,目前,由k8s维护的ingress-controller只有google云的GCE与ingress-nginx两个,其他还有很多第三方维护的ingress-controller,具体可以参考官方文档。但是不管哪一种ingress-controller,实现的机制都大同小异,只是在具体配置上有差异。

一般来说,ingress-controller的形式都是一个pod,里面跑着daemon程序和反向代理程序。daemon负责不断监控集群的变化,根据ingress对象生成配置并应用新配置到反向代理,比如ingress-nginx就是动态生成nginx配置,动态更新upstream,并在需要的时候reload程序应用新配置。

Ingress-Nginx github地址:https://github.com/kubernetes/ingress-nginx

Ingress_Nginx 官方网站:https://kubernetes.github.io/ingress-nginx/

总结:ingress-controller才是负责具体转发的组件,通过各种方式将他暴露在集群入口,外部对集群的请求流量会先到ingress-controller,而ingress对象是用来告诉ingress-controller该如何转发请求,比如哪些域名、哪些URL要转发到哪些service等等。
Ingress
在这里插入图片描述

Ingress Controller
在这里插入图片描述

流程:通过DNS客户端解析,到客户端发送http请求,ingress来接受;理论上是发送给每个pod,但实际上通过Ingress(配置文件)来发送给特定的service,然后service发送给指定的endpoints再去分发给每个pod。

四、Ingress工作原理

(1) ingress-controller通过和 kubernetes APIServer 交互,动态的去感知集群中ingre
(2)然后读取它,按照自定义的规则,规则就是写明了哪个域名对应哪个service,生成一段nginx配置,

(3)再写到nginx-ingress-controller的pod里,这个ingress-controller的pod里运行着一个Nginx服务,控制器会把生成的nginx配置写入/etc/nginx.conf文件中,

(4)然后reload一下使配置生效。以此达到域名区分配置和动态更新的作用。

五、ingress暴露服务的方式

方式一:Deployment+LoadBalance模式的Service

适用于把ingress部署在公有云。用Deployment部署ingress-controller,创建一个type为LoadBalancer的service关联这组pod。大部分公有云,都会为LoadBalancer的service自动创建一个负载均衡器,通常还绑定了公网地址。只要把域名解析指向该地址,就实现了集群服务的对外暴露

方式二:DaemonSet+HostNetwork+nodeSelector

用DaemonSet结合nodeselector来部署ingress-controller到特定的node上,然后使用HostNetwork直接把该pod与宿主机node的网络打通,直接使用宿主机的80/433端口就能访问服务。这时,ingress-controller所在的node机器就很类似传统架构的边缘节点,比如机房入口的nginx服务器。该方式整个请求链路最简单,性长相对NodePort模式更好。缺点是由于直接利用宿主机节点的网络和端口,一个node只能部署一个ingress-con.troller pod。比较适合大并发的生产环境使用。
在这里插入图片描述

方式三: Deployment+NodePort模式的service

同样用deployment模式部署ingress-controller,并创建对应的service,但是type为NodePort。这样,ingress就会暴露在集群节点ip的特定端口上。由于nodeport暴露的端口是随机端口,一般会在前面再搭建一套负载均衡器来转发请求。该方式一般用于宿主机是相对固定的环境ip地址不变的场景。

NodePort方式暴露ingress虽然简单方便,但是NodePort多了一层NAT,在请求量级很大时可能对性能会有一定影响。

DaemonSet+HostNetwork+nodeSelector架构

在这里插入图片描述

daemonset + hostNetwork 模式部署 ingress-controller

客户端-----》ingress-controller(pod和Host共享IP和端口)-----》业务应用的Service----》业务的应用Pod
在这里插入图片描述

Deployment+NodePort模式的Service

在这里插入图片描述

六、Ingress实验

部署 nginx-ingress-controller

1、部署ingress-controller pod及相关资源

mkdir /opt/ingress
cd /opt/ingress

官方下载地址:

wget https://raw.githubusercontent.com/kubernetes/ingress-nginx/nginx-0.25.0/deploy/static/mandatory.yaml

上面可能无法下载,可用国内的 gitee

wget https://gitee.com/mirrors/ingress-nginx/raw/nginx-0.25.0/deploy/static/mandatory.yaml
wget https://gitee.com/mirrors/ingress-nginx/raw/nginx-0.30.0/deploy/static/mandatory.yaml

#mandatory.yaml文件中包含了很多资源的创建,包括namespace、ConfigMap、role,ServiceAccount等等所有部署ingress-controller需要的资源。

2、修改 ClusterRole 资源配置

vim mandatory.yaml
......
apiVersion: rbac.authorization.k8s.io/v1beta1
#RBAC相关资源从1.17版本开始改用rbac.authorization.k8s.io/v1,rbac.authorization.k8s.io/v1beta1在1.22版本即将弃用
kind: ClusterRole
metadata:
  name: nginx-ingress-clusterrole
  labels:
    app.kubernetes.io/name: ingress-nginx
    app.kubernetes.io/part-of: ingress-nginx
rules:

  - apiGroups:
    - ""
      resources:
      - configmaps
      - endpoints
      - nodes
      - pods
      - secrets
        verbs:
      - list
      - watch
  - apiGroups:
    - ""
      resources:
      - nodes
        verbs:
      - get
  - apiGroups:
    - ""
      resources:
      - services
        verbs:
      - get
      - list
      - watch
  - apiGroups:
    - "extensions"
    - "networking.k8s.io"    # (0.25版本)增加 networking.k8s.io Ingress 资源的 api 
      resources:
      - ingresses
        verbs:
      - get
      - list
      - watch
  - apiGroups:
    - ""
      resources:
      - events
        verbs:
      - create
      - patch
  - apiGroups:
    - "extensions"
    - "networking.k8s.io"   # (0.25版本)增加 networking.k8s.io/v1 Ingress 资源的 api 
      resources:
      - ingresses/status
        verbs:
      - update

采用方式二:DaemonSet+HostNetwork+nodeSelector

3、指定 nginx-ingress-controller 运行在 node02 节点

kubectl label node node02 ingress=true
kubectl get nodes --show-labels

4、修改 Deployment 为 DaemonSet ,指定节点运行,并开启 hostNetwork 网络

vim mandatory.yaml
...
apiVersion: apps/v1

5.修改 kind

 kind: Deployment

kind: DaemonSet
metadata:
  name: nginx-ingress-controller
  namespace: ingress-nginx
  labels:
    app.kubernetes.io/name: ingress-nginx
    app.kubernetes.io/part-of: ingress-nginx
spec:

6. 删除Replicas

replicas: 1

  selector:
    matchLabels:
      app.kubernetes.io/name: ingress-nginx
      app.kubernetes.io/part-of: ingress-nginx
  template:
    metadata:
      labels:
        app.kubernetes.io/name: ingress-nginx
        app.kubernetes.io/part-of: ingress-nginx
      annotations:
        prometheus.io/port: "10254"
        prometheus.io/scrape: "true"
    spec:
      # 使用主机网络
      hostNetwork: true
      # 选择节点运行
      nodeSelector:
        ingress: "true"
      serviceAccountName: nginx-ingress-serviceaccount
......

7、在所有 node 节点上传 nginx-ingress-controller 镜像压缩包 ingree.contro.tar.gz 到 /opt/ingress 目录,并解压和加载镜像

cd /opt/ingress
tar zxvf ingree.contro.tar.gz
docker load -i ingree.contro.tar

8、启动 nginx-ingress-controller

//nginx-ingress-controller 已经运行 node02 节点
kubectl get pod -n ingress-nginx -o wide
NAME                             READY   STATUS    RESTARTS   AGE   IP              NODE     NOMINATED NODE   READINESS GATES
nginx-ingress-controller-99h72   1/1     Running   0          93s   192.168.10.21   node02   <none>           <none>

kubectl get cm,daemonset -n ingress-nginx -o wide
NAME                                        DATA   AGE
configmap/ingress-controller-leader-nginx   0      100s
configmap/nginx-configuration               0      102s
configmap/tcp-services                      0      102s
configmap/udp-services                      0      102s

NAME                       DESIRED   CURRENT   READY   UP-TO-DATE   AVAILABLE   NODE SELECTOR   AGE
nginx-ingress-controller   1         1         1       1            1           ingress=true    16m

9.到 node02 节点查看

netstat -lntp | grep nginx
tcp        0      0 0.0.0.0:80              0.0.0.0:*               LISTEN      7131/nginx: master  
tcp        0      0 0.0.0.0:8181            0.0.0.0:*               LISTEN      7131/nginx: master  
tcp        0      0 0.0.0.0:443             0.0.0.0:*               LISTEN      7131/nginx: master  
tcp6       0      0 :::10254                :::*                    LISTEN      7098/nginx-ingress- 

由于配置了 hostnetwork,nginx 已经在 node 主机本地监听 80/443/8181 端口。其中 8181 是 nginx-controller 默认配置的一个 default backend(Ingress 资源没有匹配的 rule 对象时,流量就会被导向这个 default backend)。
这样,只要访问 node 主机有公网 IP,就可以直接映射域名来对外网暴露服务了。如果要 nginx 高可用的话,可以在多个 node
上部署,并在前面再搭建一套 LVS+keepalived 做负载均衡。

10、创建 ingress 规则

创建一个 deploy 和 svc
vim service-nginx.yaml
apiVersion: apps/v1
kind: Deployment
metadata:
  name: nginx-app
spec:
  replicas: 2
  selector:
    matchLabels:
      app: nginx
  template:
    metadata:
      labels:
        app: nginx
    spec:
      containers:
        - name: nginx
          image: nginx
          imagePullPolicy: IfNotPresent
          ports:

            - containerPort: 80
---

apiVersion: v1
kind: Service
metadata:
  name: nginx-app-svc
spec:
  type: ClusterIP
  ports:

  - protocol: TCP
    port: 80
    targetPort: 80
      selector:
    app: nginx
创建 ingress
方法一:(extensions/v1beta1 Ingress 在1.22版本即将弃用)
vim ingress-app.yaml
apiVersion: extensions/v1beta1
kind: Ingress
metadata:
  name: nginx-app-ingress
spec:
  rules:

  - host: www.kgc.com
    http:
      paths:
      - path: /
        backend:
          serviceName: nginx-app-svc
          servicePort: 80
方法二:
vim ingress-app.yaml	  
apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:
  name: nginx-app-ingress
spec:
  rules:

  - host: www.kgc.com
    http:
      paths:
      - path: /
        pathType: Prefix
        backend:
          service:
            name: nginx-app-svc
            port:
              number: 80



kubectl apply -f service-nginx.yaml
kubectl apply -f ingress-app.yaml

kubectl get pods
NAME                         READY   STATUS    RESTARTS   AGE
nginx-app-7bffc778db-sw2hl   1/1     Running   0          42s
nginx-app-7bffc778db-xsd5q   1/1     Running   0          42s

kubectl get ingress
NAME                HOSTS         ADDRESS   PORTS   AGE
nginx-app-ingress   www.kgc.com             80      39s

11.

vim /etc/hosts
192.168.10.19 master
192.168.10.20 node01
192.168.10.21 node02
192.168.10.21 www.kgc.com


curl www.kgc.com

12、查看 nginx-ingress-controller

kubectl get pod -n ingress-nginx -o wide
NAME                             READY   STATUS    RESTARTS   AGE   IP              NODE     NOMINATED NODE   READINESS GATES
nginx-ingress-controller-99h72   1/1     Running   0          93s   192.168.10.21   node02   <none>           <none>

kubectl exec -it nginx-ingress-controller-99h72 -n ingress-nginx /bin/bash

 # more /etc/nginx/nginx.conf

//可以看到从 start server www.kgc.com 到 end server www.kgc.com 之间包含了此域名用于反向代理的配置

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1073662.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

WPF向Avalonia迁移(四、其他事项)

开发必备 1. Avalonia项目源代码&#xff01;&#xff01;&#xff01;&#xff01;&#xff01;&#xff01;&#xff01;&#xff01;&#xff01;&#xff01;没有源代码&#xff0c;你连控件的背景色怎么改都找不着&#xff01;&#xff01; 2.下载你所使用的版本&#x…

Tomcat 线程模型性能调优

Linux I/O模型详解 I/O要解决什么问题 I/O&#xff1a;在计算机内存与外部设备之间拷贝数据的过程。 程序通过CPU向外部设备发出读指令&#xff0c;数据从外部设备拷贝至内存需要一段时间&#xff0c;这段时间CPU就没事情做了&#xff0c;程序就会两种选择&#xff1a; 让出…

投资 3DEXPERIENCE® WORKS 的 10 大理由

3DEXPERIENCE Works 通过利用基于云的 3DEXPERIENCE 平台提供一个统一的协作环境&#xff0c;扩展 SOLIDWORKS 的价值&#xff0c;使参与 产品开发的每个人都能为创新流程做出贡献。简而言之&#xff0c;如果您喜欢使用 SOLIDWORKS&#xff0c;那么您可以在继续使用的同时&…

在minkube上部署Milvus

Milvus Milvus是一个向量数据库&#xff0c;可以为ai做数据支撑。 Preparatory Work minikube minikube是一款微型本地k8s install curl -LO https://storage.googleapis.com/minikube/releases/latest/minikube-linux-amd64sudo install minikube-linux-amd64 /usr/loca…

深入理解强化学习——强化学习的定义

分类目录&#xff1a;《深入理解强化学习》总目录 在机器学习领域&#xff0c;有一类任务和人的选择很相似&#xff0c;即序列决策&#xff08;Sequential Decision Making&#xff09;任务。决策和预测任务不同&#xff0c;决策往往会带来“后果”&#xff0c;因此决策者需要为…

电脑技巧:推荐一款桌面增强工具AquaSnap(附下载)

下载&#xff1a;飞猫盘&#xff5c;文件加速传输工具&#xff5c;云盘&#xff5c;橘猫旗下新概念云平台&#xff0c;取件码&#xff1a;ZdRW 一、软件介绍 AquaSnap(界面增强软件)是一款功能强大的界面增强软件。这款软件支持屏幕边缘吸附与屏幕分屏即多显示器控制、摇晃窗口…

重构项目 vue2 => vue3 nuxt2 => nuxt3 遇到的问题

vue3获取组件的上下文 import { getCurrentInstance } from vue; // 获取当前组件实例 const instance getCurrentInstance();// 获取当前组件的上下文&#xff0c;下面两种方式都能获取到组件的上下文。// 方式一&#xff0c;这种方式只能在开发环境下使用&#xff0c;生产环…

文件名太长,批量改名不求人:轻松解决文件名问题

在电脑使用过程中&#xff0c;我们经常需要处理各种文件&#xff0c;有时候会遇到文件名过长的问题。过长的文件名可能会让人感到混乱&#xff0c;也可能会引发一些操作问题。那么&#xff0c;如何快速解决文件名过长的问题呢&#xff1f;其实&#xff0c;我们可以通过批量重命…

webpack不同环境下使用CSS分离插件mini-css-extract-plugin

1.背景描述 使用mini-css-extract-plugin插件来打包css文件&#xff08;从css文件中提取css代码到单独的文件中&#xff0c;对css代码进行代码压缩等&#xff09;。 本次采用三个配置文件&#xff1a; 公共配置文件&#xff1a;webpack.common.jsdev开发环境配置文件&#x…

《DevOps 精要:业务视角》- 读书笔记(七)

DevOps 精要:业务视角&#xff08;七&#xff09; DevOps历程什么是企业体系的DevOps&#xff1f;DevOps的目标是什么&#xff1f; DevOps的知识体系规范敏捷持续交付IT服务管理以TPS理念为基础 DevOps团队角色流程主管&#xff08;Process Master&#xff09;服务主管&#xf…

环信web、uniapp、微信小程序SDK报错详解---登录篇

项目场景&#xff1a; 记录对接环信sdk时遇到的一系列问题&#xff0c;总结一下避免大家再次踩坑。这里主要针对于web、uniapp、微信小程序在对接环信sdk时遇到的问题。主要针对报错400、404、401、40 (一) 登录用户报400 原因分析&#xff1a; 从console控制台输出及networ…

Fuzz测试:发现软件隐患和漏洞的秘密武器

0x01 什么是模糊测试 模糊测试&#xff08;Fuzz Testing&#xff09;是一种广泛用于软件安全和质量测试的自动化测试方法。它的基本思想是向输入参数或数据中注入随机、不规则或异常的数据&#xff0c;以检测目标程序或系统在处理不合法、不正常或边缘情况下的行为。模糊测试通…

Elasticsearch搜索引擎:ES的segment段合并原理

在讲 segment 之前&#xff0c;我们先用一张图了解下 ES 的整体存储架构图&#xff0c;方便后面内容的理解&#xff1a; 一、segment文件的合并流程&#xff1a; 当我们往 ElasticSearch 写入数据时&#xff0c;数据是先写入 memory buffer&#xff0c;然后定时&#xff08;默…

react create-react-app v5配置 px2rem (不暴露 eject方式)

环境信息&#xff1a; create-react-app v5 “react”: “^18.2.0” “postcss-plugin-px2rem”: “^0.8.1” 配置步骤&#xff1a; 不暴露 eject 配置自己的webpack&#xff1a; 1.下载react-app-rewired 和 customize-cra-5 npm install react-app-rewired customize-cra…

Python —— UI自动化之八大元素定位

1、基础元素定位 1、id定位 使用html中标签的id元素去定位&#xff0c;在一般定位中优先选择&#xff0c;举例&#xff1a; from time import sleep from selenium import webdriver from selenium.webdriver.common.by import Bydriver webdriver.Firefox() driver.get(&q…

【Linux 安装Kibana 及 Es 分词器安装】

一、客户端Kibana安装 Kibana是一个开源分析和可视化平台&#xff0c;旨在与Elasticsearch协同工作。参考文档 1. 下载并解压缩Kibana 下载路径 选择的版本是和 ElasticSearch 对应&#xff08;7.17.3&#xff09; 下载后上传到Linux 系统中&#xff0c;并放在 /root/ 下&a…

微软出品,166页深度解读,多模态GPT-4V

多模态王炸大模型GPT-4V&#xff0c;166页“说明书”重磅发布&#xff01;而且还是微软团队出品。 什么样的论文&#xff0c;能写出166页&#xff1f; 不仅详细测评了GPT-4V在十大任务上的表现&#xff0c;从基础的图像识别、到复杂的逻辑推理都有展示&#xff1b; 还传授了…

【C++ 学习 ㉖】- 布隆过滤器详解(哈希扩展)

目录 一、布隆过滤器的简介 二、布隆过滤器的实现 2.1 - BloomFilter.h 2.2 - test.cpp 一、布隆过滤器的简介 布隆过滤器&#xff08;Bloom Filter&#xff09;是由 Burton Howard Bloom 在 1970 年提出的一种紧凑型的、比较巧妙的概率型数据结构&#xff08;probabilist…

阿里云服务器全方位介绍——看这一篇就够了

阿里云服务器ECS英文全程Elastic Compute Service&#xff0c;云服务器ECS是一种安全可靠、弹性可伸缩的云计算服务&#xff0c;阿里云提供多种云服务器ECS实例规格&#xff0c;如经济型e实例、通用算力型u1、ECS计算型c7、通用型g7、GPU实例等&#xff0c;阿小云axiaoyun.com分…

模拟pdf运行js脚本触发xss攻击及防攻击

一、引入pdfbox依赖 <dependency><groupId>org.apache.pdfbox</groupId><artifactId>pdfbox</artifactId><version>3.0.0</version> </dependency> 二、生成一个带js脚本的pdf文件 //Creating PDF document object PDDocum…