kubernetes,是一个全新的基于容器技术的分布式架构领先方案,是谷歌严格保密十几年的秘密武器----Borg系统的一个开源版本,于2014年9月发布第一个版本,2015年7月发布第一个正式版本。
kubernetes的本质是一组服务器集群,它可以在集群的每个节点上运行特定的程序,来对节点中的容器进行管理。目的是实现资源管理的自动化,主要提供了如下的主要功能:
- 自我修复:一旦某一个容器崩溃,能够在1秒中左右迅速 启动新的容器
- 弹性伸缩:可以根据需要,自动对集群中正在运行的 容器数量进行调整
- 服务发现:服务可以通过自动发现的形式 找到它所依赖的服务
- 负载均衡:如果一个服务起动了多个容器,能够自动 实现请求的负载均衡
- 版本回退:如果发现新发布的程序版本有问题,可以立即 回退到原来的版本
- 存储编排:可以根据容器自身的需求 自动创建存储卷
一、 环境规划
1.1 集群类型
kubernetes集群大体上分为两类:一主多从 和 多主多从
- 一主多从:一台Master节点和多台Node节点,搭建简单,有单机故障风险,适合用于测试环境
- 多主多从:多台Master节点和多台Node节点,搭建麻烦,安全性高,适合用于生产环境
说明:为了测试简单,本次搭建的是 一主两从 类型的集群
1.2 安装方式
kubernetes有多种部署方式,目前主流的方式有kubeadm、minikube、二进制包
- kubeadm:一个用于快速搭建单节点kubernetes的工具
- minikube:一个用于快速搭建kubernetes集群的工具
- 二进制包:从官网下载每个组件的二进制包,依次去安装,此方式对于理解kubernetes组件更加有效
说明:现在需要安装kubernetes的集群环境,但是又不想过于麻烦,所以选择使用kubeadm方式
1.3 主机规划
作用 | IP地址 | 操作系统 | 配置 |
---|---|---|---|
Master | 192.168.100.100 | Centos7.9 基础设施服务器 | 2颗CPU 2G内存 50G硬盘 |
Node1 | 192.168.100.101 | Centos7.9 基础设施服务器 | 2颗CPU 2G内存 50G硬盘 |
Node2 | 192.168.100.102 | Centos7.9 基础设施服务器 | 2颗CPU 2G内存 50G硬盘 |
二、环境搭建
2.1 主机准备
本次环境搭建需要安装三台linux系统(一主二从),内置Centos7.9系统,然后在每台linux中分别安装
docker(18.06.3),kubeadm(1.17.4)、kubelet(1.17.4)、kubectl(1.17.4)程序。
安装虚拟机过程中注意下面选项的配置:以Master为例,Node1、Node2请自行安装
-
操作系统环境:CPU(2C) 内存(2G) 硬盘(50G)
-
语言选择:中文简体
-
软件选择:基础设施服务器
-
分区选择:自动分区
-
网络配置:按照下面配置网路地址信息
网络地址:192.168.100.100(每台主机都不一样分别为100、101、102) 子网掩码:255.255.255.0 默认网关:192.168.100.2 DNS:223.5.5.5
2.2 环境初始化
-
检查操作系统的版本:kubeadm 方式下安装kubernetes集群要求Centos版本要在7.5或之上
[root@master ~]# cat /etc/redhat-release
-
主机名解析:为了方便集群节点间的直接调用,在这里配置一下主机名解析
企业中推荐使用内部DNS服务器
[root@master ~]# vim /etc/hosts 192.168.100.100 master 192.168.100.101 node1 192.168.100.102 node2
-
时间同步:kubernetes要求集群中的节点时间必须精确,这里使用chronyd服务从网络同步时间
企业中建议配置内部的会见同步服务器
# 启动chronyd服务 [root@master ~]# systemctl start chronyd [root@master ~]# systemctl enable chronyd [root@master ~]# date
-
禁用iptable和firewalld服务:kubernetes和docker 在运行的中会产生大量的iptables规则,为了不让系统规则跟它们混淆,直接关闭系统的规则
# 1 关闭firewalld服务 [root@master ~]# systemctl stop firewalld [root@master ~]# systemctl disable firewalld # 2 关闭iptables服务 [root@master ~]# systemctl stop iptables [root@master ~]# systemctl disable iptables
-
禁用selinux:selinux是linux系统下的一个安全服务,如果不关闭它,在安装集群中会产生各种各样的奇葩问题。
注意:修改完毕之后需要重启linux服务
#1.查看状态 [root@master ~]# getenforce #2.永久关闭 [root@master ~]# sudo vim /etc/selinux/config SELINUX=disabled
-
禁用swap分区:启用swap设备会对系统的性能产生非常负面的影响,因此kubernetes要求每个节点都要禁用swap设备
swap分区指的是虚拟内存分区,它的作用是物理内存使用完,之后将磁盘空间虚拟成内存来使用。但是如果因为某些原因确实不能关闭swap分区,就需要在集群安装过程中通过明确的参数进行配置说明
注意:修改完毕之后需要重启linux服务
#1.编辑分区配置文件/etc/fstab,注释掉swap分区一行 [root@master ~]# sudo vim /etc/fstab #/dev/mapper/centos-swap swap swap defaults 0 0
-
修改linux的内核参数:添加网桥过滤和地址转发功能
#1.编辑/etc/sysctl.d/kubernetes.conf文件,添加相关配置 [root@master ~]# sudo vim /etc/sysctl.d/kubernetes.conf net.bridge.bridge-nf-call-ip6tables = 1 net.bridge.bridge-nf-call-iptables = 1 net.ipv4.ip_forward = 1 #2.重新加载配置 [root@master ~]# sysctl -p #3.加载网桥过滤模块 [root@master ~]# modprobe br_netfilter #4.查看网桥过滤模块是否加载成功 [root@master ~]# lsmod | grep br_netfilter
-
配置ipvs功能
在Kubernetes中Service有两种带来模型,一种是基于iptables的,一种是基于ipvs的
两者比较的话 ipvs 的性能明显要高一些,但是如果要使用它,需要手动载入ipvs模块
#1.安装ipset和ipvsadm [root@master ~]# yum install ipset ipvsadm -y #2.添加需要加载的模块写入脚本文件 [root@master ~]# cat <<EOF> /etc/sysconfig/modules/ipvs.modules #!/bin/bash modprobe -- ip_vs modprobe -- ip_vs_rr modprobe -- ip_vs_wrr modprobe -- ip_vs_sh modprobe -- nf_conntrack_ipv4 EOF #3.为脚本添加执行权限 [root@master ~]# chmod +x /etc/sysconfig/modules/ipvs.modules #4.执行脚本文件 [root@master ~]# /bin/bash /etc/sysconfig/modules/ipvs.modules #5.查看对应的模块是否加载成功 [root@master ~]# lsmod | grep -e ip_vs -e nf_conntrack_ipv4
-
重启:重要,一定要重启!!!
[root@master ~]# shutdown -r
2.3 安装docker
-
切换镜像源
[root@master ~]# wget https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo -O /etc/yum.repos.d/docker-ce.repo
-
查看当前镜像源中支持的docker版本
[root@master ~]# yum list docker-ce --showduplicates
-
安装特定版本的docker-ce:必须制定–setopt=obsoletes=0,否则yum会自动安装更高版本
[root@master ~]# yum install --setopt=obsoletes=0 docker-ce-18.06.3.ce-3.el7 -y
-
添加一个配置文件:Docker 在默认情况下使用Vgroup Driver为cgroupfs,而Kubernetes推荐使用systemd来替代cgroupfs
[root@master ~]# mkdir /etc/docker [root@master ~]# cat <<EOF> /etc/docker/daemon.json { "exec-opts": ["native.cgroupdriver=systemd"], "registry-mirrors": ["https://kn0t2bca.mirror.aliyuncs.com"] } EOF
-
重启dokcer,设置开机自启动
[root@master ~]# systemctl restart docker [root@master ~]# systemctl enable docker
-
检查docker状态和版本
[root@master ~]# docker version
2.4 安装Kubernetes组件
-
切换镜像源:由于kubernetes的镜像在国外,速度比较慢,这里切换成国内的镜像源
#编辑/etc/yum.repos.d/kubernetes.repo,添加下面的配置 [root@master ~]# sudo vim /etc/yum.repos.d/kubernetes.repo [kubernetes] name=Kubernetes baseurl=http://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64 enabled=1 gpgchech=0 repo_gpgcheck=0 gpgkey=http://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg http://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
-
安装kubeadm、kubelet和kubectl
[root@master ~]# yum install --setopt=obsoletes=0 kubeadm-1.17.4-0 kubelet-1.17.4-0 kubectl-1.17.4-0 -y
-
配置kubelet的cgroup,指定ipvs功能
#编辑/etc/sysconfig/kubelet, 添加下面的配置 [root@master ~]# sudo vim /etc/sysconfig/kubelet KUBELET_CGROUP_ARGS="--cgroup-driver=systemd" KUBE_PROXY_MODE="ipvs"
-
设置kubelet开机自启
[root@master ~]# systemctl enable kubelet
2.5 准备集群镜像
-
查看集群需要的镜像:在安装kubernetes集群之前,必须要提前准备好集群需要的镜像,所需镜像可以通过下面命令查看
[root@master ~]# kubeadm config images list
-
下载镜像:此镜像kubernetes的仓库中,由于网络原因,无法连接,下面提供了一种替换方案
#版本以课程实验为准 [root@master ~]# images=( kube-apiserver:v1.17.4 kube-controller-manager:v1.17.4 kube-scheduler:v1.17.4 kube-proxy:v1.17.4 pause:3.1 etcd:3.4.3-0 coredns:1.6.5 ) [root@Master ~]# for imageName in ${images[@]};do docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/$imageName docker tag registry.cn-hangzhou.aliyuncs.com/google_containers/$imageName k8s.gcr.io/$imageName docker rmi registry.cn-hangzhou.aliyuncs.com/google_containers/$imageName done
2.6 集群初始化
注意:只需要在 master 节点上操作
-
创建集群
[root@master ~]# kubeadm init \ --apiserver-advertise-address=192.168.100.100 \ --image-repository registry.aliyuncs.com/google_containers \ --kubernetes-version=v1.17.4 \ --service-cidr=10.96.0.0/12 \ --pod-network-cidr=10.244.0.0/16
-
创建、拷贝、修改配置文件( kubectl )
[root@master ~]# mkdir -p $HOME/.kube [root@master ~]# sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config [root@master ~]# sudo chown $(id -u):$(id -g) $HOME/.kube/config
注意:只需要在 node1、node2 节点上操作
-
将node1、node2节点加入到集群中
[root@master ~]# kubeadm join 192.168.100.100:6443 --token zdcp7e.494zz5synih83fq2 \ --discovery-token-ca-cert-hash sha256:42c4df4ce0933d32f7e9004caa3b02f3a071a5b1b57aeac546e08e64abfc9a87
-
在master上查看节点信息
[root@master ~]# kubectl get nodes
2.7 安装网络插件
kubernetes支持多种网络插件,比如 flannel、calico、canal等等,任选一种使用即可,本次选择 flannel
注意:下面操作依旧只在 master节点 执行即可,插件使用的是DaemonSet的控制器,它会在每个节点上都运行
-
获取fannel的配置文件
#方式一:在云服务器上执行,内网连接失败。下载到当前目录 #方式二:github获取 #https://github.com/flannel-io/flannel/tree/master/Documentation/kube-flannel.yml [root@VM-8-11-centos ~]# wget https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml
-
将fannel配置文件放到 master节点的 /root/ 目录下,并使用配置文件启动fannel
#在配置文件所在目录下执行 [root@master ~]# kubectl apply -f kube-flannel.yml
-
稍等片刻,查看集群节点状态
[root@master ~]# kubectl get nodes
至此,kubernetes的集群环境搭建完成
三、服务部署与测试
-
创建一个nginx服务
[root@master ~]# kubectl create deployment nginx --image=nginx:1.14-alpine
-
暴露端口
[root@master ~]# kubectl expose deploy nginx --port=80 --target-port=80 --type=NodePort
-
查看服务,nginx服务对应端口号为:32294
[root@master ~]# kubectl get pod,service
-
访问 nginx服务