2020久久超碰欧美精品最新亚洲欧美日韩久久精品,国产福利电影一区二区三区,亚洲欧美日韩一区在线观看,亚洲国产欧美日韩欧美特级,亚洲欧美日韩成人一区久久,欧美日韩精品一区二区三区不卡,国产欧美日韩va另类影音先锋,亚洲欧美日韩久久精品,亚洲欧美日韩国产成人精品影院,亚洲国产欧美日韩精品一区二区三区,欧美日韩国产成人高清视频,日韩久久精品国产免费观看频道,久久人人爽人人爽从片av高清,国产精品综合一区二区

首頁技術文章正文

Java培訓:k8s快速入門

更新時間:2022-09-16 來源:黑馬程序員 瀏覽量:

  介紹

  容器化部署

  隨著Docker技術的流行,對項目的容器化部署方式越來越流行,容器化部署的優點如下:

  - 可以保證每個容器擁有自己的文件系統、CPU、內存、進程空間等

  - 運行應用程序所需要的資源都被容器包裝,并和底層基礎架構解耦

  - 容器化的應用程序可以跨云服務商、跨Linux操作系統發行版進行部署

  雖然容器化部署可以帶來很多便利,但是也會出現一些問題,比如說:

  - 一個容器故障停機了,怎么樣讓另外一個容器立刻啟動去替補停機的容器

  - 當并發訪問量變大的時候,怎么樣做到橫向擴展容器數量

  這些容器管理的問題統稱為容器編排問題,為了解決這些容器編排問題,就產生了一些容器編排技術:

  - Swarm:Docker自己的容器編排工具

  - Mesos:Apache的一個資源統一管控的工具,需要和Marathon結合使用

  - Kubernetes:Google開源的的容器編排工具

  目前為止Kubernetes是最為流行的一種容器編排技術。

  k8s

   kubernetes,由于k和s之間有8個字符,所以簡稱k8s,是一個全新的基于容器技術的分布式架構領先方案,是谷歌嚴格保密十幾年的秘密武器----Borg系統的一個開源版本,于2015年7月發布第一個正式版本,它的本質是**一組服務器集群**,可以在集群的每個節點上運行特定的程序,來對節點中的容器進行管理,主要提供了如下主要功能:

  - 自我修復:一旦某一個容器崩潰,能夠在1秒中左右迅速啟動新的容器

  - 彈性伸縮:可以根據需要,自動對集群中正在運行的容器數量進行調整

  - 服務發現:服務可以通過自動發現的形式找到它所依賴的服務

  - 負載均衡:如果一個服務起動了多個容器,能夠自動實現請求的負載均衡

  - 版本回退:如果發現新發布的程序版本有問題,可以立即回退到原來的版本

  - 存儲編排:可以根據容器自身的需求自動創建存儲卷

  組件

  一個k8s集群主要是由控制節點(master)、工作節點(node)構成,每個節點上都會安裝不同的組件。

  master:集群的控制平面,負責集群的決策 ( 管理 )

  > ApiServer: 資源操作的唯一入口,接收用戶輸入的命令,提供認證、授權、API注冊和發現等機制

  >

  > Scheduler: 負責集群資源調度,按照預定的調度策略將Pod調度到相應的node節點上

  >

  > ControllerManager: 負責維護集群的狀態,比如程序部署安排、故障檢測、自動擴展、滾動更新等

  >

  > Etcd:負責存儲集群中各種資源對象的信息

  node:集群的數據平面,負責為容器提供運行環境 ( 干活 )

  > Kubelet: 負責維護容器的生命周期,即通過控制docker,來創建、更新、銷毀容器

  >

  > KubeProxy: 負責提供集群內部的服務發現和負載均衡

  >

  > Docker: 負責節點上容器的各種操作

 

<img src="assets/image-20200406184656917.png" alt="image-20200406184656917" style="zoom:200%;" />

  下面,以部署一個nginx服務來說明kubernetes系統各個組件調用關系:

      1.首先要明確,一旦kubernetes環境啟動之后,master和node都會將自身的信息存儲到etcd數據庫中。


      2. 一個nginx服務的安裝請求會首先被發送到master節點的apiServer組件。

  
      3. apiServer組件會調用scheduler組件來決定到底應該把這個服務安裝到哪個node節點上,

  在此時,它會從etcd中讀取各個node節點的信息,然后按照一定的算法進行選擇,并將結果告知apiServer。

  
       4. apiServer調用controller-manager去調度Node節點安裝nginx服務。

  
      5. kubelet接收到指令后,會通知docker,然后由docker來啟動一個nginx的pod,

  pod是kubernetes的最小操作單元,容器必須跑在pod中至此,

  
      6. 一個nginx服務就運行了,如果需要訪問nginx,就需要通過kube-proxy來對pod產生訪問的代理。

  這樣,外界用戶就可以訪問集群中的nginx服務了

  
      核心概念

  
      Master:集群控制節點,每個集群需要至少一個master節點負責集群的管控

  
      Node:工作負載節點,由master分配容器到這些node工作節點上,然后node節點上的docker負責容器的運行

  
      Pod:kubernetes的最小控制單元,容器都是運行在pod中的,一個pod中可以有1個或者多個容器

  
      Controller:控制器,通過它來實現對pod的管理,比如啟動pod、停止pod、伸縮pod的數量等等

  
      Service:pod對外服務的統一入口,下面可以維護者同一類的多個pod

  
      Label:標簽,用于對pod進行分類,同一類pod會擁有相同的標簽

  
      NameSpace:命名空間,用來隔離pod的運行環境

  環境搭建

  主機準備

  >本次搭建的是一臺Master節點和多臺Node節點構成的集群

  | 作用 | IP地址 | 操作系統 | 配置 |

  | ------ | --------------- | --------------------------- | ------------------------ |

  | Master | 192.168.109.101 | Centos7.5 基礎設施服務器 | 2顆CPU 2G內存 50G硬盤 |

  | Node1 | 192.168.109.102 | Centos7.5 基礎設施服務器 | 2顆CPU 2G內存 50G硬盤 |

  | Node2 | 192.168.109.103 | Centos7.5 基礎設施服務器 | 2顆CPU 2G內存 50G硬盤 |

  環境初始化

  1) 檢查操作系統的版本

# 此方式下安裝kubernetes集群要求Centos版本要在7.5或之上
[root@master ~]# cat /etc/redhat-release
CentOS Linux release 7.5.1804 (Core)

  2) 主機名解析

  為了方便后面集群節點間的直接調用,在這配置一下主機名解析,企業中推薦使用內部DNS服務器。

# 主機名成解析 編輯三臺服務器的/etc/hosts文件,添加下面內容
192.168.109.100  master
192.168.109.101  node1
192.168.109.102  node2

  3) 時間同步

  kubernetes要求集群中的節點時間必須精確一致,這里直接使用chronyd服務從網絡同步時間。

  企業中建議配置內部的時間同步服務器

# 啟動chronyd服務
[root@master ~]# systemctl start chronyd
# 設置chronyd服務開機自啟
[root@master ~]# systemctl enable chronyd
# chronyd服務啟動稍等幾秒鐘,就可以使用date命令驗證時間了
[root@master ~]# date

  4) 禁用iptables和firewalld服務

  kubernetes和docker在運行中會產生大量的iptables規則,為了不讓系統規則跟它們混淆,直接關閉系統的規則

# 1 關閉firewalld服務
[root@master ~]# systemctl stop firewalld
[root@master ~]# systemctl disable firewalld
# 2 關閉iptables服務
[root@master ~]# systemctl stop iptables
[root@master ~]# systemctl disable iptables

  5) 禁用selinux

  selinux是linux系統下的一個安全服務,如果不關閉它,在安裝集群中會產生各種各樣的奇葩問題

# 編輯 /etc/selinux/config 文件,修改SELINUX的值為disabled
# 注意修改完畢之后需要重啟linux服務
SELINUX=disabled

  6) 禁用swap分區

  swap分區指的是虛擬內存分區,它的作用是在物理內存使用完之后,將磁盤空間虛擬成內存來使用

  啟用swap設備會對系統的性能產生非常負面的影響,因此kubernetes要求每個節點都要禁用swap設備

  但是如果因為某些原因確實不能關閉swap分區,就需要在集群安裝過程中通過明確的參數進行配置說明

# 編輯分區配置文件/etc/fstab,注釋掉swap分區一行
# 注意修改完畢之后需要重啟linux服務
 UUID=455cc753-7a60-4c17-a424-7741728c44a1 /boot    xfs     defaults        0 0
 /dev/mapper/centos-home /home                      xfs     defaults        0 0
# /dev/mapper/centos-swap swap                      swap    defaults        0 0

  7)修改linux的內核參數

# 修改linux的內核參數,添加網橋過濾和地址轉發功能
# 編輯/etc/sysctl.d/kubernetes.conf文件,添加如下配置:
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
net.ipv4.ip_forward = 1

# 重新加載配置
[root@master ~]# sysctl -p

# 加載網橋過濾模塊
[root@master ~]# modprobe br_netfilter

# 查看網橋過濾模塊是否加載成功
[root@master ~]# lsmod | grep br_netfilter

  8)配置ipvs功能

  在kubernetes中service有兩種代理模型,一種是基于iptables的,一種是基于ipvs的

  兩者比較的話,ipvs的性能明顯要高一些,但是如果要使用它,需要手動載入ipvs模塊

# 1 安裝ipset和ipvsadm
[root@master ~]# yum install ipset ipvsadmin -y

# 2 添加需要加載的模塊寫入腳本文件
[root@master ~]# cat <<EOF >  /etc/sysconfig/modules/ipvs.modules
#!/bin/bash
modprobe -- ip_vs
modprobe -- ip_vs_rr
modprobe -- ip_vs_wrr
modprobe -- ip_vs_sh
modprobe -- nf_conntrack_ipv4
EOF

# 3 為腳本文件添加執行權限
[root@master ~]# chmod +x /etc/sysconfig/modules/ipvs.modules

# 4 執行腳本文件
[root@master ~]# /bin/bash /etc/sysconfig/modules/ipvs.modules

# 5 查看對應的模塊是否加載成功
[root@master ~]# lsmod | grep -e ip_vs -e nf_conntrack_ipv4

  9) 重啟服務器

  上面步驟完成之后,需要重新啟動linux系統

[root@master ~]# reboot

  安裝docker

# 1 切換鏡像源
[root@master ~]# wget https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo -O /etc/yum.repos.d/docker-ce.repo

# 2 查看當前鏡像源中支持的docker版本
[root@master ~]# yum list docker-ce --showduplicates

# 3 安裝特定版本的docker-ce
# 必須指定--setopt=obsoletes=0,否則yum會自動安裝更高版本
[root@master ~]# yum install --setopt=obsoletes=0 docker-ce-18.06.3.ce-3.el7 -y

# 4 添加一個配置文件
# Docker在默認情況下使用的Cgroup Driver為cgroupfs,而kubernetes推薦使用systemd來代替cgroupfs
[root@master ~]# mkdir /etc/docker
[root@master ~]# cat <<EOF >  /etc/docker/daemon.json
{
  "exec-opts": ["native.cgroupdriver=systemd"],
  "registry-mirrors": ["https://kn0t2bca.mirror.aliyuncs.com"]
}
EOF

# 5 啟動docker
[root@master ~]# systemctl restart docker
[root@master ~]# systemctl enable docker

# 6 檢查docker狀態和版本
[root@master ~]# docker version

  安裝k8s

# 由于kubernetes的鏡像源在國外,速度比較慢,這里切換成國內的鏡像源
# 編輯/etc/yum.repos.d/kubernetes.repo,添加下面的配置 
[kubernetes]
name=Kubernetes
baseurl=http://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
enabled=1
gpgcheck=0
repo_gpgcheck=0
gpgkey=http://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg
       http://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg

# 安裝kubeadm、kubelet和kubectl
[root@master ~]# yum install --setopt=obsoletes=0 kubeadm-1.17.4-0 kubelet-1.17.4-0 kubectl-1.17.4-0 -y

# 配置kubelet的cgroup
# 編輯/etc/sysconfig/kubelet,添加下面的配置
KUBELET_CGROUP_ARGS="--cgroup-driver=systemd"
KUBE_PROXY_MODE="ipvs"

# 4 設置kubelet開機自啟
[root@master ~]# systemctl enable kubelet

  準備集群鏡像

# 在安裝kubernetes集群之前,必須要提前準備好集群需要的鏡像,所需鏡像可以通過下面命令查看
[root@master ~]# kubeadm config images list

# 下載鏡像
# 此鏡像在kubernetes的倉庫中,由于網絡原因,無法連接,下面提供了一種替代方案
images=(
    kube-apiserver:v1.17.4
    kube-controller-manager:v1.17.4
    kube-scheduler:v1.17.4
    kube-proxy:v1.17.4
    pause:3.1
    etcd:3.4.3-0
    coredns:1.6.5
)

for imageName in ${images[@]} ; do
  docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/$imageName
  docker tag registry.cn-hangzhou.aliyuncs.com/google_containers/$imageName     k8s.gcr.io/$imageName
  docker rmi registry.cn-hangzhou.aliyuncs.com/google_containers/$imageName
done

  集群初始化

  下面開始對集群進行初始化,并將node節點加入到集群中

  > 下面的操作只需要在`master`節點上執行即可

# 創建集群
[root@master ~]# kubeadm init \
  --kubernetes-version=v1.17.4 \
    --pod-network-cidr=10.244.0.0/16 \
    --service-cidr=10.96.0.0/12 \
    --apiserver-advertise-address=192.168.109.100

# 創建必要文件
[root@master ~]# mkdir -p $HOME/.kube
[root@master ~]# sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
[root@master ~]# sudo chown $(id -u):$(id -g) $HOME/.kube/config

  > 下面的操作只需要在`node`節點上執行即可

# 將node節點加入集群
[root@master ~]# kubeadm join 192.168.109.100:6443 \ 
  --token 8507uc.o0knircuri8etnw2 \
  --discovery-token-ca-cert-hash \
  sha256:acc37967fb5b0acf39d7598f8a439cc7dc88f439a3f4d0c9cae88e7901b9d3f
 
# 查看集群狀態 此時的集群狀態為NotReady,這是因為還沒有配置網絡插件
[root@master ~]# kubectl get nodes
NAME     STATUS     ROLES    AGE     VERSION
master   NotReady   master   6m43s   v1.17.4
node1    NotReady   <none>   22s     v1.17.4
node2    NotReady   <none>   19s     v1.17.4

  安裝網絡插件

  kubernetes支持多種網絡插件,比如flannel、calico、canal等等,任選一種使用即可,本次選擇flannel

  > 下面操作依舊只在`master`節點執行即可,插件使用的是DaemonSet的控制器,它會在每個節點上都運行

# 獲取fannel的配置文件
[root@master ~]# wget https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml

# 修改文件中quay.io倉庫為quay-mirror.qiniu.com

# 使用配置文件啟動fannel
[root@master ~]# kubectl apply -f kube-flannel.yml

# 稍等片刻,再次查看集群節點的狀態
[root@master ~]# kubectl get nodes
NAME     STATUS   ROLES    AGE     VERSION
master   Ready    master   15m     v1.17.4
node1    Ready    <none>   8m53s   v1.17.4
node2    Ready    <none>   8m50s   v1.17.4

  至此,kubernetes的集群環境搭建完成

  服務部署

  接下來在kubernetes集群中部署一個nginx程序,測試下集群是否在正常工作。

# 部署nginx
[root@master ~]# kubectl create deployment nginx --image=nginx:1.14-alpine

# 暴露端口
[root@master ~]# kubectl expose deployment nginx --port=80 --type=NodePort

# 查看服務狀態
[root@master ~]# kubectl get pods,service
NAME                         READY   STATUS    RESTARTS   AGE
pod/nginx-86c57db685-fdc2k   1/1     Running   0          18m

NAME                 TYPE        CLUSTER-IP      EXTERNAL-IP   PORT(S)        AGE
service/kubernetes   ClusterIP   10.96.0.1       <none>        443/TCP        82m
service/nginx        NodePort    10.104.121.45   <none>        80:30073/TCP   17m

# 4 最后在電腦上訪問下部署的nginx服務
~~~

<img src="assets/image-20200405142656921.png" alt="image-20200405142656921" style="zoom:80%; border:1px solid" />

  資源管理

  在kubernetes中,所有的內容都抽象為資源,用戶需要通過操作資源來管理kubernetes。

  kubernetes的本質上就是一個集群系統,用戶可以在集群中部署各種服務,也就是在kubernetes集群中運行一個個的容器,并將指定的程序跑在容器中。

  kubernetes的最小管理單元是pod而不是容器,所以只能將容器放在`Pod`中,而kubernetes一般也不會直接管理Pod,而是通過`Pod控制器`來管理Pod的。

  Pod可以提供服務之后,就要考慮如何訪問Pod中服務,kubernetes提供了`Service`資源實現這個功能。

  >k8s提供了三種資源管理方式

  - 命令式對象管理:直接使用命令去操作kubernetes資源

  `kubectl run nginx-pod --image=nginx:1.17.1 --port=80`

  - 命令式對象配置:通過命令配置和配置文件去操作kubernetes資源

  `kubectl create/patch -f nginx-pod.yaml`

  - 聲明式對象配置:通過apply命令和配置文件去操作kubernetes資源

  `kubectl apply -f nginx-pod.yaml`

  命令式對象管理

  kubectl命令

  kubectl是kubernetes集群的命令行工具,通過它能夠對集群本身進行管理,并能夠在集群上進行容器化應用的安裝部署。kubectl命令的語法如下:

  ~~~md

  kubectl [command] [type] [name] [flags]

  ~~~

  comand:指定要對資源執行的操作,例如create、get、delete

  type:指定資源類型,比如deployment、pod、service

  name:指定資源的名稱,名稱大小寫敏感

  flags:指定額外的可選參數

# 查看所有pod
kubectl get pod

# 查看某個pod
kubectl get pod pod_name

# 查看某個pod,以yaml格式展示結果
kubectl get pod pod_name -o yaml

  下面以一個namespace / pod的創建和刪除簡單演示下命令的使用:

# 創建一個namespace
[root@master ~]# kubectl create namespace dev
namespace/dev created

# 獲取namespace
[root@master ~]# kubectl get ns
NAME              STATUS   AGE
default           Active   21h
dev               Active   21s
kube-node-lease   Active   21h
kube-public       Active   21h
kube-system       Active   21h

# 在此namespace下創建并運行一個nginx的Pod
[root@master ~]# kubectl run pod --image=nginx -n dev
kubectl run --generator=deployment/apps.v1 is DEPRECATED and will be removed in a future version. Use kubectl run --generator=run-pod/v1 or kubectl create instead.
deployment.apps/pod created

# 查看新創建的pod
[root@master ~]# kubectl get pod -n dev
NAME                   READY   STATUS    RESTARTS   AGE
pod-864f9875b9-pcw7x   1/1     Running   0          21s

# 刪除指定的pod
[root@master ~]# kubectl delete pod pod-864f9875b9-pcw7x
pod "pod-864f9875b9-pcw7x" deleted

# 刪除指定的namespace
[root@master ~]# kubectl delete ns dev
namespace "dev" deleted

  命令式對象配置

  命令式對象配置就是使用命令配合配置文件一起來操作kubernetes資源。

  1) 創建一個nginxpod.yaml,內容如下:

apiVersion: v1
kind: Namespace
metadata:
  name: dev

---

apiVersion: v1
kind: Pod
metadata:
  name: nginxpod
  namespace: dev
spec:
  containers:
  - name: nginx-containers
    image: nginx:1.17.1

  2)執行create命令,創建資源:

[root@master ~]# kubectl create -f nginxpod.yaml
namespace/dev created
pod/nginxpod created

  此時發現創建了兩個資源對象,分別是namespace和pod

  3)執行get命令,查看資源:

[root@master ~]#  kubectl get -f nginxpod.yaml
NAME            STATUS   AGE
namespace/dev   Active   18s

NAME            READY   STATUS    RESTARTS   AGE
pod/nginxpod    1/1     Running   0          17s

  這樣就顯示了兩個資源對象的信息

  4)執行delete命令,刪除資源:

[root@master ~]# kubectl delete -f nginxpod.yaml
namespace "dev" deleted
pod "nginxpod" deleted
~~~

此時發現兩個資源對象被刪除了

  此時發現兩個資源對象被刪除了

  ~~~md

  總結:

  命令式對象配置的方式操作資源,可以簡單的認為:命令 + yaml配置文件(里面是命令需要的各種參數)

  ~~~

  聲明式對象配置

  聲明式對象配置跟命令式對象配置很相似,但是它只有一個命令apply。

# 首先執行一次kubectl apply -f yaml文件,發現創建了資源
[root@master ~]#  kubectl apply -f nginxpod.yaml
namespace/dev created
pod/nginxpod created

# 再次執行一次kubectl apply -f yaml文件,發現說資源沒有變動
[root@master ~]#  kubectl apply -f nginxpod.yaml
namespace/dev unchanged
pod/nginxpod unchanged

  實戰

  > 本章節將介紹如何在kubernetes集群中部署一個nginx服務,并且能夠對其進行訪問。

  Namespace

   Namespace是kubernetes系統中的一種非常重要資源,它的主要作用是用來實現多套環境的資源隔離或者多租戶的資源隔離。

   默認情況下,kubernetes集群中的所有的Pod都是可以相互訪問的。但是在實際中,可能不想讓兩個Pod之間進行互相的訪問,那此時就可以將兩個Pod劃分到不同的namespace下。kubernetes通過將集群內部的資源分配到不同的Namespace中,可以形成邏輯上的"組",以方便不同的組的資源進行隔離使用和管理。

   可以通過kubernetes的授權機制,將不同的namespace交給不同租戶進行管理,這樣就實現了多租戶的資源隔離。此時還能結合kubernetes的資源配額機制,限定不同租戶能占用的資源,例如CPU使用量、內存使用量等等,來實現租戶可用資源的管理。

  kubernetes在集群啟動之后,會默認創建幾個namespace

[root@master ~]# kubectl  get namespace
NAME              STATUS   AGE
default           Active   45h     #  所有未指定Namespace的對象都會被分配在default命名空間
kube-node-lease   Active   45h     #  集群節點之間的心跳維護,v1.13開始引入
kube-public       Active   45h     #  此命名空間下的資源可以被所有人訪問(包括未認證用戶)
kube-system       Active   45h     #  所有由Kubernetes系統創建的資源都處于這個命名空間

  下面來看namespace資源的具體操作:

  查看

# 1 查看所有的ns  命令:kubectl get ns
[root@master ~]# kubectl get ns
NAME              STATUS   AGE
default           Active   45h
kube-node-lease   Active   45h
kube-public       Active   45h    
kube-system       Active   45h    

# 2 查看指定的ns   命令:kubectl get ns ns名稱
[root@master ~]# kubectl get ns default
NAME      STATUS   AGE
default   Active   45h

# 3 指定輸出格式  命令:kubectl get ns ns名稱  -o 格式參數
# kubernetes支持的格式有很多,比較常見的是wide、json、yaml
[root@master ~]# kubectl get ns default -o yaml
apiVersion: v1
kind: Namespace
metadata:
  creationTimestamp: "2020-04-05T04:44:16Z"
  name: default
  resourceVersion: "151"
  selfLink: /api/v1/namespaces/default
  uid: 7405f73a-e486-43d4-9db6-145f1409f090
spec:
  finalizers:
  - kubernetes
status:
  phase: Active
 
# 4 查看ns詳情  命令:kubectl describe ns ns名稱
[root@master ~]# kubectl describe ns default
Name:         default
Labels:       <none>
Annotations:  <none>
Status:       Active  # Active 命名空間正在使用中  Terminating 正在刪除命名空間

# ResourceQuota 針對namespace做的資源限制
# LimitRange針對namespace中的每個組件做的資源限制
No resource quota.
No LimitRange resource.

  創建

[root@master ~]# kubectl create ns dev
namespace/dev created

  刪除

[root@master ~]# kubectl delete ns dev
namespace "dev" deleted

  配置方式

  首先準備一個yaml文件:ns-dev.yaml

apiVersion: v1
kind: Namespace
metadata:
  name: dev

  然后就可以執行對應的創建和刪除命令了:

   創建:kubectl create -f ns-dev.yaml

   刪除:kubectl delete -f ns-dev.yaml

  Pod

  Pod是kubernetes集群進行管理的最小單元,程序要運行必須部署在容器中,而容器必須存在于Pod中。

  Pod可以認為是容器的封裝,一個Pod中可以存在一個或者多個容器。

<img src="assets/image-20200407121501907.png" alt="image-20200407121501907" style="zoom:80%;" />

       kubernetes在集群啟動之后,集群中的各個組件也都是以Pod方式運行的。可以通過下面命令查看:

[root@master ~]# kubectl get pod -n kube-system
NAMESPACE     NAME                             READY   STATUS    RESTARTS   AGE
kube-system   coredns-6955765f44-68g6v         1/1     Running   0          2d1h
kube-system   coredns-6955765f44-cs5r8         1/1     Running   0          2d1h
kube-system   etcd-master                      1/1     Running   0          2d1h
kube-system   kube-apiserver-master            1/1     Running   0          2d1h
kube-system   kube-controller-manager-master   1/1     Running   0          2d1h
kube-system   kube-flannel-ds-amd64-47r25      1/1     Running   0          2d1h
kube-system   kube-flannel-ds-amd64-ls5lh      1/1     Running   0          2d1h
kube-system   kube-proxy-685tk                 1/1     Running   0          2d1h
kube-system   kube-proxy-87spt                 1/1     Running   0          2d1h
kube-system   kube-scheduler-master            1/1     Running   0          2d1h

  創建并運行

  kubernetes沒有提供單獨運行Pod的命令,都是通過Pod控制器來實現的

# 命令格式: kubectl run (pod控制器名稱) [參數] 
# --image  指定Pod的鏡像
# --port   指定端口
# --namespace  指定namespace
[root@master ~]# kubectl run nginx --image=nginx:1.17.1 --port=80 --namespace dev 
deployment.apps/nginx created

  查看pod信息

# 查看Pod基本信息
[root@master ~]# kubectl get pods -n dev
NAME                     READY   STATUS    RESTARTS   AGE
nginx-5ff7956ff6-fg2db   1/1     Running   0          43s

# 查看Pod的詳細信息
[root@master ~]# kubectl describe pod nginx-5ff7956ff6-fg2db -n dev
Name:         nginx-5ff7956ff6-fg2db
Namespace:    dev
Priority:     0
Node:         node1/192.168.109.101
Start Time:   Wed, 08 Apr 2020 09:29:24 +0800
Labels:       pod-template-hash=5ff7956ff6
              run=nginx
Annotations:  <none>
Status:       Running
IP:           10.244.1.23
IPs:
  IP:           10.244.1.23
Controlled By:  ReplicaSet/nginx-5ff7956ff6
Containers:
  nginx:
    Container ID:   docker://4c62b8c0648d2512380f4ffa5da2c99d16e05634979973449c98e9b829f6253c
    Image:          nginx:1.17.1
    Image ID:       docker-pullable://nginx@sha256:485b610fefec7ff6c463ced9623314a04ed67e3945b9c08d7e53a47f6d108dc7
    Port:           80/TCP
    Host Port:      0/TCP
    State:          Running
      Started:      Wed, 08 Apr 2020 09:30:01 +0800
    Ready:          True
    Restart Count:  0
    Environment:    <none>
    Mounts:
      /var/run/secrets/kubernetes.io/serviceaccount from default-token-hwvvw (ro)
Conditions:
  Type              Status
  Initialized       True
  Ready             True
  ContainersReady   True
  PodScheduled      True
Volumes:
  default-token-hwvvw:
    Type:        Secret (a volume populated by a Secret)
    SecretName:  default-token-hwvvw
    Optional:    false
QoS Class:       BestEffort
Node-Selectors:  <none>
Tolerations:     node.kubernetes.io/not-ready:NoExecute for 300s
                 node.kubernetes.io/unreachable:NoExecute for 300s
Events:
  Type    Reason     Age        From               Message
  ----    ------     ----       ----               -------
  Normal  Scheduled  <unknown>  default-scheduler  Successfully assigned dev/nginx-5ff7956ff6-fg2db to node1
  Normal  Pulling    4m11s      kubelet, node1     Pulling image "nginx:1.17.1"
  Normal  Pulled     3m36s      kubelet, node1     Successfully pulled image "nginx:1.17.1"
  Normal  Created    3m36s      kubelet, node1     Created container nginx
  Normal  Started    3m36s      kubelet, node1     Started container nginx

  訪問Pod

# 獲取podIP
[root@master ~]# kubectl get pods -n dev -o wide
NAME                     READY   STATUS    RESTARTS   AGE    IP             NODE    ...
nginx-5ff7956ff6-fg2db   1/1     Running   0          190s   10.244.1.23   node1   ...

#訪問POD
[root@master ~]# curl http://10.244.1.23:80
<!DOCTYPE html>
<html>
<head>
  <title>Welcome to nginx!</title>
</head>
<body>
  <p><em>Thank you for using nginx.</em></p>
</body>
</html>

  刪除指定Pod

# 刪除指定Pod
[root@master ~]# kubectl delete pod nginx-5ff7956ff6-fg2db -n dev
pod "nginx-5ff7956ff6-fg2db" deleted

# 此時,顯示刪除Pod成功,但是再查詢,發現又新產生了一個 
[root@master ~]# kubectl get pods -n dev
NAME                     READY   STATUS    RESTARTS   AGE
nginx-5ff7956ff6-jj4ng   1/1     Running   0          21s

# 這是因為當前Pod是由Pod控制器創建的,控制器會監控Pod狀況,一旦發現Pod死亡,會立即重建
# 此時要想刪除Pod,必須刪除Pod控制器

# 先來查詢一下當前namespace下的Pod控制器
[root@master ~]# kubectl get deploy -n  dev
NAME    READY   UP-TO-DATE   AVAILABLE   AGE
nginx   1/1     1            1           9m7s

# 接下來,刪除此PodPod控制器
[root@master ~]# kubectl delete deploy nginx -n dev
deployment.apps "nginx" deleted

# 稍等片刻,再查詢Pod,發現Pod被刪除了
[root@master ~]# kubectl get pods -n dev
No resources found in dev namespace.

  配置操作

  創建一個pod-nginx.yaml,內容如下:

apiVersion: v1
kind: Pod
metadata:
  name: nginx
  namespace: dev
spec:
  containers:
  - image: nginx:1.17.1
    name: pod
    ports:
    - name: nginx-port
      containerPort: 80
      protocol: TCP

  然后就可以執行對應的創建和刪除命令了:

   創建:kubectl create -f pod-nginx.yaml

   刪除:kubectl delete -f pod-nginx.yaml

  Label

  Label是kubernetes系統中的一個重要概念。它的作用就是在資源上添加標識,用來對它們進行區分和選擇。

  Label的特點:

  - 一個Label會以key/value鍵值對的形式附加到各種對象上,如Node、Pod、Service等等

  - 一個資源對象可以定義任意數量的Label ,同一個Label也可以被添加到任意數量的資源對象上去

  - Label通常在資源對象定義時確定,當然也可以在對象創建后動態添加或者刪除

  可以通過Label實現資源的多維度分組,以便靈活、方便地進行資源分配、調度、配置、部署等管理工作。

  > 一些常用的Label 示例如下:

  >

  > - 版本標簽:"version":"release", "version":"stable"......

  > - 環境標簽:"environment":"dev","environment":"test","environment":"pro"

  > - 架構標簽:"tier":"frontend","tier":"backend"

  標簽定義完畢之后,還要考慮到標簽的選擇,這就要使用到Label Selector,即:

   Label用于給某個資源對象定義標識

   Label Selector用于查詢和篩選擁有某些標簽的資源對象

  當前有兩種Label Selector:

  - 基于等式的Label Selector

  name = slave: 選擇所有包含Label中key="name"且value="slave"的對象

  env != production: 選擇所有包括Label中的key="env"且value不等于"production"的對象

  - 基于集合的Label Selector

  name in (master, slave): 選擇所有包含Label中的key="name"且value="master"或"slave"的對象

  name not in (frontend): 選擇所有包含Label中的key="name"且value不等于"frontend"的對象

  標簽的選擇條件可以使用多個,此時將多個Label Selector進行組合,使用逗號","進行分隔即可。例如:

   name=slave,env!=production

   name not in (frontend),env!=production

  命令方式

# 為pod資源打標簽
[root@master ~]# kubectl label pod nginx-pod version=1.0 -n dev
pod/nginx-pod labeled

# 為pod資源更新標簽
[root@master ~]# kubectl label pod nginx-pod version=2.0 -n dev --overwrite
pod/nginx-pod labeled

# 查看標簽
[root@master ~]# kubectl get pod nginx-pod  -n dev --show-labels
NAME        READY   STATUS    RESTARTS   AGE   LABELS
nginx-pod   1/1     Running   0          10m   version=2.0

# 篩選標簽
[root@master ~]# kubectl get pod -n dev -l version=2.0  --show-labels
NAME        READY   STATUS    RESTARTS   AGE   LABELS
nginx-pod   1/1     Running   0          17m   version=2.0
[root@master ~]# kubectl get pod -n dev -l version!=2.0 --show-labels
No resources found in dev namespace.

#刪除標簽
[root@master ~]# kubectl label pod nginx-pod version- -n dev
pod/nginx-pod labeled

  配置方式

apiVersion: v1
kind: Pod
metadata:
  name: nginx
  namespace: dev
  labels:
    version: "3.0" 
    env: "test"
spec:
  containers:
  - image: nginx:1.17.1
    name: pod
    ports:
    - name: nginx-port
      containerPort: 80
      protocol: TCP

  然后就可以執行對應的更新命令了:kubectl apply -f pod-nginx.yaml

  Deployment

   在kubernetes中,Pod是最小的控制單元,但是kubernetes很少直接控制Pod,一般都是通過Pod控制器來完成的。Pod控制器用于pod的管理,確保pod資源符合預期的狀態,當pod的資源出現故障時,會嘗試進行重啟或重建pod。

   在kubernetes中Pod控制器的種類有很多,本章節只介紹一種:Deployment。

<img src="assets/image-20200408193950807.png" alt="image-20200408193950807" style="border: 1px solid; zoom: 80%;" />

  命令操作

# 命令格式: kubectl run deployment名稱  [參數] 
# --image  指定pod的鏡像
# --port   指定端口
# --replicas  指定創建pod數量
# --namespace  指定namespace
[root@master ~]# kubectl run nginx --image=nginx:1.17.1 --port=80 --replicas=3 -n dev
deployment.apps/nginx created

# 查看創建的Pod
[root@master ~]# kubectl get pods -n dev
NAME                     READY   STATUS    RESTARTS   AGE
nginx-5ff7956ff6-6k8cb   1/1     Running   0          19s
nginx-5ff7956ff6-jxfjt   1/1     Running   0          19s
nginx-5ff7956ff6-v6jqw   1/1     Running   0          19s

# 查看deployment的信息
[root@master ~]# kubectl get deploy -n dev
NAME    READY   UP-TO-DATE   AVAILABLE   AGE
nginx   3/3     3            3           2m42s

# UP-TO-DATE:成功升級的副本數量
# AVAILABLE:可用副本的數量
[root@master ~]# kubectl get deploy -n dev -o wide
NAME    READY UP-TO-DATE  AVAILABLE   AGE     CONTAINERS   IMAGES              SELECTOR
nginx   3/3     3         3           2m51s   nginx        nginx:1.17.1        run=nginx

# 查看deployment的詳細信息
[root@master ~]# kubectl describe deploy nginx -n dev
Name:                   nginx
Namespace:              dev
CreationTimestamp:      Wed, 08 Apr 2020 11:14:14 +0800
Labels:                 run=nginx
Annotations:            deployment.kubernetes.io/revision: 1
Selector:               run=nginx
Replicas:               3 desired | 3 updated | 3 total | 3 available | 0 unavailable
StrategyType:           RollingUpdate
MinReadySeconds:        0
RollingUpdateStrategy:  25% max unavailable, 25% max surge
Pod Template:
  Labels:  run=nginx
  Containers:
   nginx:
    Image:        nginx:1.17.1
    Port:         80/TCP
    Host Port:    0/TCP
    Environment:  <none>
    Mounts:       <none>
  Volumes:        <none>
Conditions:
  Type           Status  Reason
  ----           ------  ------
  Available      True    MinimumReplicasAvailable
  Progressing    True    NewReplicaSetAvailable
OldReplicaSets:  <none>
NewReplicaSet:   nginx-5ff7956ff6 (3/3 replicas created)
Events:
  Type    Reason             Age    From                   Message
  ----    ------             ----   ----                   -------
  Normal  ScalingReplicaSet  5m43s  deployment-controller  Scaled up replicaset nginx-5ff7956ff6 to 3
 
# 刪除 
[root@master ~]# kubectl delete deploy nginx -n dev
deployment.apps "nginx" deleted

  配置操作

  創建一個deploy-nginx.yaml,內容如下:

apiVersion: apps/v1
kind: Deployment
metadata:
  name: nginx
  namespace: dev
spec:
  replicas: 3
  selector:
    matchLabels:
      run: nginx
  template:
    metadata:
      labels:
        run: nginx
    spec:
      containers:
      - image: nginx:1.17.1
        name: nginx
        ports:
        - containerPort: 80
          protocol: TCP

  然后就可以執行對應的創建和刪除命令了:

   創建:kubectl create -f deploy-nginx.yaml

   刪除:kubectl delete -f deploy-nginx.yaml

  Service

  通過上節課的學習,已經能夠利用Deployment來創建一組Pod來提供具有高可用性的服務。

  雖然每個Pod都會分配一個單獨的Pod IP,然而卻存在如下兩問題:

  - Pod IP 會隨著Pod的重建產生變化

  - Pod IP 僅僅是集群內可見的虛擬IP,外部無法訪問

  這樣對于訪問這個服務帶來了難度。因此,kubernetes設計了Service來解決這個問題。

  Service可以看作是一組同類Pod**對外的訪問接口**。借助Service,應用可以方便地實現服務發現和負載均衡。

1663297987768_1.jpg

  操作一:創建集群內部可訪問的Service

# 暴露Service
[root@master ~]# kubectl expose deploy nginx --name=svc-nginx1 --type=ClusterIP --port=80 --target-port=80 -n dev
service/svc-nginx1 exposed

# 查看service
[root@master ~]# kubectl get svc svc-nginx -n dev -o wide
NAME         TYPE        CLUSTER-IP       EXTERNAL-IP   PORT(S)   AGE     SELECTOR
svc-nginx1   ClusterIP   10.109.179.231   <none>        80/TCP    3m51s   run=nginx

# 這里產生了一個CLUSTER-IP,這就是service的IP,在Service的生命周期中,這個地址是不會變動的
# 可以通過這個IP訪問當前service對應的POD
[root@master ~]# curl 10.109.179.231:80
<!DOCTYPE html>
<html>
<head>
<title>Welcome to nginx!</title>
</head>
<body>
<h1>Welcome to nginx!</h1>
.......
</body>
</html>

  操作二:創建集群外部也可訪問的Service

# 上面創建的Service的type類型為ClusterIP,這個ip地址只用集群內部可訪問
# 如果需要創建外部也可以訪問的Service,需要修改type為NodePort
[root@master ~]# kubectl expose deploy nginx --name=svc-nginx2 --type=NodePort --port=80 --target-port=80 -n dev
service/svc-nginx2 exposed

# 此時查看,會發現出現了NodePort類型的Service,而且有一對Port(80:31928/TC)
[root@master ~]# kubectl get svc  svc-nginx-1  -n dev -o wide
NAME          TYPE        CLUSTER-IP       EXTERNAL-IP   PORT(S)        AGE    SELECTOR
svc-nginx2    NodePort    10.100.94.0      <none>        80:31928/TCP   9s     run=nginx

# 接下來就可以通過集群外的主機訪問 節點IP:31928訪問服務了
# 例如在的電腦主機上通過瀏覽器訪問下面的地址
http://192.168.109.100:31928/

  刪除Service

[root@master ~]# kubectl delete svc svc-nginx-1 -n dev

  配置方式

  創建一個svc-nginx.yaml,內容如下:

apiVersion: v1
kind: Service
metadata:
  name: svc-nginx
  namespace: dev
spec:
  clusterIP: 10.109.179.231
  ports:
  - port: 80
    protocol: TCP
    targetPort: 80
  selector:
    run: nginx
  type: ClusterIP

  然后就可以執行對應的創建和刪除命令了:

   創建:kubectl create -f svc-nginx.yaml

   刪除:kubectl delete -f svc-nginx.yaml

  > 小結

  >

  >  至此,已經掌握了Namespace、Pod、Deployment、Service資源的基本操作,有了這些操作,就可以在kubernetes集群中實現一個服務的簡單部署和訪問了,但是如果想要更好的使用kubernetes,就需要深入學習這幾種資源的細節和原理。

分享到:
在線咨詢 我要報名
和我們在線交談!