K8S详解(5万字详细教程)

我爱云计算 2024-09-04 10:37:01 阅读 97

目录

​编辑

一、集群管理命令

 二、命名空间

 1. 获取命名空间列表

2. 创建命名空间

3. 删除命名空间

4. 查看命名空间详情

三、Pod

1. Pod概述

2. Pod相位状态

3. 管理命令

3.1 获取命名空间下容器(pod)列表

3.2 查看pod的详细信息

3.3 创建 && 运行

3.4 删除pod

3.5 进入容器

3.6 根据资源对象文件运行命令

3.7 排错三兄弟 

4. 污点策略

4.1 概述

 4.2 设置并查看污点标签

4.3 删除污点标签 

四、资源对象文件

1. 资源对象文件相关帮助

1.1 Pod的资源清单

1.1 最基础Pod资源对象文件

1.3 自动生成模板命令

1.4 查询帮助信息

2. Pod

2.1 Pod自定义命令

2.2 restartPolicy 保护策略

2.3 terminationGracePeriodSeconds 宽限期策略

2.4 activeDeadlineSeconds 策略

2.5 多容器Pod

3. Pod容忍策略

3.1 精确匹配策略

3.2 模糊匹配策略

4. 优先级与抢占

4.1 非抢占优先级

4.2 抢占优先级 

5. Pod调度策略 

5.1 定向调度

5.2 标签调度 

 6. Pod资源管理

1. 内存资源配额

2. 计算资源配额

3. 综合资源配额

 4. 内存 CPU限额

7. 全局资源管理

 7.1 LimitRange

7.2 ResourceQuota

五、控制器

1. Deployment

1.1 扩缩容

1.2 镜像更新

1.3  滚动更新策略

 1.4 版本回滚

1.5 金丝雀发布 

1.6 删除控制器方法 

2. DaemonSet

 2.1 DS控制器会受到污点策略的影响

3. Job/CronJob

3.1 Job

 3.2 CronJob

4. 基础控制器的区别

4.1 Deployment

4.2 DaemonSet 

4.3 CronJob/Job 

5. StatefulSet 

4.1 headless服务 

4.2  StatefulSet资源配置文件

6. Horizontal Pod Autoscaler(HPA)控制器

六、service

 6.1 ClusterIP

6.2 nodePort

6.3 Ingress

七、存储卷管理

1. 持久卷

1.1 hostPath

 1.2 NFS

 1.3 PV/PVC

2. 临时卷

2.1 configMap 

2.2 secret

2.3 emptyDir

一、集群管理命令

kubectl 是用于控制 kubernetes集群的命令工具

语法格式:

kubectl  [command]  [TYPE]  [NAME]  [flags]

command: 子命令,如create、get、describe、delete

type: 资源类型,可以表示单数,复数或缩写形式

name: 资源的名称,如果省略,泽显示所有资源信息

flags: 指定可选标志,或附加的参数 

子命令 说明
help 用于查看命令及子命令的帮助信息
cluster-info 显示集群的相关配置信息
version 查看服务器及客户端的版本信息
api-resources 查看当前服务器上所有的资源对象
api-versions 查看当前服务器上所有资源对象的版本
config 管理当前节点上kubeconfig 的认证信息

 二、命名空间

Namespace是kubernetes系统中的一种非常重要资源,它的主要作用是用来实现多套环境的资源隔离或者多租户的资源隔离

 1. 获取命名空间列表

<code>[root@master ~]# kubectl get ns # 简写

[root@master ~]# kubectl get namespaces # 全写

[root@master ~]# kubectl -n 命名空间 get pods # 查看命名空间中的资源对象

2. 创建命名空间

[root@master ~]# kubectl create ns your_namespace # 简写, 其中:your_namespace 为你自己的命名空间名称

[root@master ~]# kubectl create namespace your_namespace # 全写, 其中:your_namespace 为你自己的命名空间名称

3. 删除命名空间

[root@master ~]# kubectl delete namespace your_namespace # 简写, 其中:your_namespace 为你自己的命名空间名称

[root@master ~]# kubectl delete namespace your_namespace # 全写, 其中:your_namespace 为你自己的命名空间名称

4. 查看命名空间详情

[root@master ~]# kubectl describe ns your_namespace # your_namespace 为你自己的命名空间名称

三、Pod

1. Pod概述

由一个容器或多个容器组成(最少一个容器)是k8s中最小的管理元素同一个Pod 共享IP及权限,主机名称,共享存储设备,命名空间每个Pod都会存在一个Pause根容器,这是每一个Pod都会去运行的。它就像一个基石,为Pod中的其他容器提供基础运行环境。Pause容器会加载所有必要的运行时、内核模块和设备驱动,以确保Pod中的所有容器都能在相同的网络和命名空间中运行。其他的资源对象都是用来支撑或者扩展Pod对象功能的。

2. Pod相位状态

-- Pending: Pod创建过程中,但它尚未被调度完成

-- Running: Pod中所有容器都被创建成功

-- Completed或者successd: Pod所有容器都已经成功终止,并不会被重启

-- Failed: Pod中的所有容器至少有一个容器退出是非0状态

-- Unkown: 无法正常获取Pod对象的状态信息

3. 管理命令

3.1 获取命名空间下容器(pod)列表

[root@master ~]# kubectl get pods -n your_namespace -o wide -w # your_namespace为你自己的命名空间名称

-n 指定命名空间 

-o wide 显示更加详细信息

-o name 只显示名字

-o yaml/json  以yaml/json语法格式显示资源对象

-w 持续监听

3.2 查看pod的详细信息

[root@master ~]# kubectl describe pod your_pod -n your_namespace # your_pod为自己的pod名称,your_namespace为你自己的命名空间名称

3.3 创建 && 运行

[root@master ~]# kubectl run [pod名称] --image=[镜像]:[镜像版本] --port=[对外端口] --namespace [namespace]

3.4 删除pod

[root@master ~]# kubectl delete pod [pod名称] -n [命名空间名称]

 删除会再次出现?

因为pod是隶属于Pod控制器下,控制器会监控pod的健康值,出现问题会重启几次失败后删除重新创建,所以会出现删除在出现的问题。

3.5 进入容器

[root@master ~]# kubectl exec your_pod -c 容器名称 -n your_namespace -it /bin/bash

# 在容器内执行命令

[root@master ~]# kubectl exec myweb -- ls

50x.html

index.html

 若有很多容器

# 获取pod列表

[root@node2 ~]# kubectl get pods -n your_namespace

NAME READY STATUS RESTARTS AGE

nginx-64777cd554-c2k5n 2/2 Running 2 23h

# 获取pod详情

# - your_pod 你的pd名称, 对应上面 nginx-64777cd554-c2k5n

[root@node2 ~]# kubectl describe pod your_pod -n your_namespace

...其他配置

Controlled By: ReplicaSet/nginx-replicaset

Containers:

nginx: # ***容器名称***

Container ID: docker://42534954660b49806772a7df127267f399652fcaef18b26c619363e1283d6c8c

Image: nginx:1.17.1

Image ID: docker-pullable://nginx@sha256:b4b9b3eee194703fc2fa8afa5b7510c77ae70cfba567af1376a573a967c03dbb

...其他配置

# 进入容器内部

# - your_container 你的容器名称,对应上面获取pod详情结果的 nginx

[root@master ~]# kubectl exec your_pod -n your_namespace -it -c your_container /bin/bash

3.6 根据资源对象文件运行命令

[root@master ~]# kubectl create/apply/delete -f 资源文件名称.yaml

create 创建文件中定义的资源 

kubectl create .... --dry-run=client -o yaml(create主要用来生成资源对象的模板,我们一般都是用apply)apply  创建(更新)文件中定义的资源 (主要用的就是这个)delete 删除文件中定义的资源

3.7 排错三兄弟 

kubectl get 查看资源对象的状态信息)kubectl describe  查询资源对象的属性信息

Events下是事物日志,用来排错Kubectl logs  查看容器报错信息 

# 查看 work 名称空间下的 pod 信息

[root@master ~]# kubectl -n work describe pod myhttp

Name: myhttp

Namespace: work

Priority: 0

Service Account: default

Node: node-0004/192.168.1.54

... ...

Events:

Type Reason Age From Message

---- ------ ---- ---- -------

Normal Scheduled 12m default-scheduler Successfully assigned work/myhttp

to node-0004

Normal Pulling 12m kubelet Pulling image "myos:httpd"

Normal Pulled 12m kubelet Successfully pulled image

"myos:httpd" in 3.678925795s (3.678930716s including waiting)

Normal Created 12m kubelet Created container myhttp

Normal Started 12m kubelet Started container myhttp

# 查看 myweb 日志

[root@master ~]# kubectl logs myweb

2023/09/14 09:42:38 [error] 7#0: *2 open() "/usr/local/nginx/html/info.php"

failed (2: No such file or directory), client: 10.244.219.64, server: localhost,

request: "GET /info.php HTTP/1.1", host: "10.244.243.193"

2023/09/14 09:44:46 [error] 6#0: *4 open() "/usr/local/nginx/html/info.php"

failed (2: No such file or directory), client: 10.244.219.64, server: localhost,

request: "GET /info.php HTTP/1.1", host: "10.244.243.193"

2023/09/14 09:51:08 [error] 6#0: *5 open() "/usr/local/nginx/html/info.php"

failed (2: No such file or directory), client: 10.244.219.64, server: localhost,

request: "GET /info.php HTTP/1.1", host: "10.244.243.193"

4. 污点策略

4.1 概述

污点(Taint)是使节点与Pod产生排斥的一类规则污点策略通过嵌合在键值对上的污点标签进行声明污点的格式为:key=value:effect, key和value是污点的标签,effect描述污点的作用污点标签

PreferNoSchedule:kubernetes将尽量避免把Pod调度到具有该污点的Node上,除非没有其他节点可调度

NoSchedule:kubernetes将不会把Pod调度到具有该污点的Node上,但不会影响当前Node上已存在的Pod

NoExecute:kubernetes将不会把Pod调度到具有该污点的Node上,同时也会将Node上已存在的Pod驱离

管理污点标签

查看污点标签

kubectl describe nodes [节点名字]

设置污点标签

kubectl taint node [节点名字] key=value:污点标签

删除污点标签

kubectl taint node [节点名字] key=value:污点标签-

 4.2 设置并查看污点标签

# node01 设置污点策略 PreferNoSchedule

[root@master ~]# kubectl taint node node01 k=v1:PreferNoSchedule

node/node01 tainted

# 查看污点

[root@master ~]# kubectl describe node node01

Name: node01

Roles: <none>

Labels: beta.kubernetes.io/arch=amd64

beta.kubernetes.io/os=linux

kubernetes.io/arch=amd64

kubernetes.io/hostname=node01

kubernetes.io/os=linux

Annotations: flannel.alpha.coreos.com/backend-data: {"VNI":1,"VtepMAC":"ce:d8:30:f2:9b:b0"}

flannel.alpha.coreos.com/backend-type: vxlan

flannel.alpha.coreos.com/kube-subnet-manager: true

flannel.alpha.coreos.com/public-ip: 192.168.1.101

kubeadm.alpha.kubernetes.io/cri-socket: /var/run/dockershim.sock

node.alpha.kubernetes.io/ttl: 0

volumes.kubernetes.io/controller-managed-attach-detach: true

CreationTimestamp: Mon, 25 Dec 2023 12:15:15 +0800

Taints: taint=v1:PreferNoSchedule # 污点标签

Unschedulable: false

...其他设置内容

4.3 删除污点标签 

[root@master ~]# kubectl taint node node01 k-

node/node01 untainted

四、资源对象文件

1. 资源对象文件相关帮助

1.1 Pod的资源清单

apiVersion: v1 #必选,版本号,例如v1

kind: Pod #必选,资源类型,例如 Pod

metadata: #必选,元数据

name: string #必选,Pod名称

annotations: #选做,描述信息

nginx: nginx

namespace: string #Pod所属的命名空间,默认为"default"

labels: #自定义标签列表

- name: string

spec: #必选,Pod中容器的详细定义

containers: #必选,Pod中容器列表

- name: string #必选,容器名称

image: string #必选,容器的镜像名称

imagePullPolicy: [ Always|Never|IfNotPresent ] #获取镜像的策略

command: [string] #容器的启动命令列表,如不指定,使用打包时使用的启动命令

args: [string] #容器的启动命令参数列表

workingDir: string #容器的工作目录

volumeMounts: #挂载到容器内部的存储卷配置

- name: string #引用pod定义的共享存储卷的名称,需用volumes[]部分定义的的卷名

mountPath: string #存储卷在容器内mount的绝对路径,应少于512字符

readOnly: boolean #是否为只读模式

ports: #需要暴露的端口库号列表

- name: string #端口的名称

containerPort: 80 #容器需要监听的端口号

hostPort: int #容器所在主机需要监听的端口号,默认与Container相同

protocol: string #端口协议,支持TCP和UDP,默认TCP

env: #容器运行前需设置的环境变量列表

- name: string #环境变量名称

value: string #环境变量的值

resources: #资源限制和请求的设置

limits: #资源限制的设置(上限)

cpu: string #Cpu的限制,单位为core数,将用于docker run --cpu-shares参数

memory: string #内存限制,单位可以为Mib/Gib,将用于docker run --memory参数

requests: #资源请求的设置(下限)

cpu: string #Cpu请求,容器启动的初始可用数量

memory: string #内存请求,容器启动的初始可用数量

lifecycle: #生命周期钩子

postStart: #容器启动后立即执行此钩子,如果执行失败,会根据重启策略进行重启

preStop: #容器终止前执行此钩子,无论结果如何,容器都会终止

livenessProbe: #对Pod内各容器健康检查的设置,当探测无响应几次后将自动重启该容器

exec: #对Pod容器内检查方式设置为exec方式

command: [string] #exec方式需要制定的命令或脚本

httpGet: #对Pod内个容器健康检查方法设置为HttpGet,需要制定Path、port

path: string

port: number

host: string

scheme: string

HttpHeaders:

- name: string

value: string

tcpSocket: #对Pod内个容器健康检查方式设置为tcpSocket方式

port: number

initialDelaySeconds: 0 #容器启动完成后首次探测的时间,单位为秒

timeoutSeconds: 0 #对容器健康检查探测等待响应的超时时间,单位秒,默认1秒

periodSeconds: 0 #对容器监控检查的定期探测时间设置,单位秒,默认10秒一次

successThreshold: 0

failureThreshold: 0

securityContext:

privileged: false

restartPolicy: [Always | Never | OnFailure] #Pod的重启策略

nodeName: <string> #设置NodeName表示将该Pod调度到指定到名称的node节点上

nodeSelector: obeject #设置NodeSelector表示将该Pod调度到包含这个label的node上

imagePullSecrets: #Pull镜像时使用的secret名称,以key:secretkey格式指定

- name: string

hostNetwork: false #是否使用主机网络模式,默认为false,如果设置为true,表示使用宿主机网络

volumes: #在该pod上定义共享存储卷列表

- name: string #共享存储卷名称 (volumes类型有很多种)

emptyDir: {} #类型为emtyDir的存储卷,与Pod同生命周期的一个临时目录。为空值

hostPath: string #类型为hostPath的存储卷,表示挂载Pod所在宿主机的目录

path: string #Pod所在宿主机的目录,将被用于同期中mount的目录

secret: #类型为secret的存储卷,挂载集群与定义的secret对象到容器内部

scretname: string

items:

- key: string

path: string

configMap: #类型为configMap的存储卷,挂载预定义的configMap对象到容器内部

name: string

items:

- key: string

path: string

1.1 最基础Pod资源对象文件

[root@master ~]# vim myweb.yml

--- # Yaml文件起始标志

kind: Pod # 当前创建资源的类型

apiVersion: v1 # 当前资源对应的版本

metadata: # 属性信息,元数据,包括名字和其他标识符等。这些信息对于识别和管理Pod很有用

name: myweb # 属性信息,资源的名称

spec: # 资源的特性描述(规约),定义Pod具体行为的部分

containers: # 容器资源特征描述

- name: webserver # 容器名称

image: myos:nginx # 启动容器使用的镜像

status: {} # 资源状态,运行后自动生成(一般不写这行)

1.3 自动生成模板命令

 生成模板命令: [ --dry-run=client -o yaml]

[root@master ~]# kubectl run myweb --image=myos:nginx --dry-run=client -o yaml

apiVersion: v1

kind: Pod

metadata:

creationTimestamp: null

labels:

run: myweb

name: myweb

spec:

containers:

- image: myos:nginx

name: myweb

resources: {}

dnsPolicy: ClusterFirst

restartPolicy: Always

status: {}

1.4 查询帮助信息

[root@master ~]# kubectl explain Pod.spec.restartPolicy

KIND: Pod

VERSION: v1

FIELD: restartPolicy <string>

DESCRIPTION:

Restart policy for all containers within the pod. One of Always, OnFailure,

Never. Default to Always. More info:

https://kubernetes.io/docs/concepts/workloads/pods/pod-lifecycle/#restart-policy

Possible enum values:

- `"Always"`

- `"Never"`

- `"OnFailure"`

资源文件参数使用"."分割层级结构关系 

---

kind: xxx # 一级,可以表示为 .kind

apiVersion: xx # 一级,可以表示为 .apiVersion

metadata: # 一级,可以表示为 .metadata

name: xx # 二级,可以表示为 .metadata.name

spec: # 一级,可以表示为 .spec

restartPolicy: xx # 二级,可以表示为 .spec.restartPolicy

containers: # 二级,可以表示为 .spec.containers

- name: xx # 三级,可以表示为 .spec.containers.name

image: xx # 三级,可以表示为 .spec.containers.image

status: {} # 一级,可以表示为 .status

2. Pod

2.1 Pod自定义命令

创建Pod时,启动时要执行的自定义命令,如果配置了自定义命令,那镜像中自带的默认命令将不再执行蓝色的,是固定的,下面红色的是变化,可以理解上面蓝色的就是一个模板

<code>[root@master ~]# vim myweb.yml

---

kind: Pod

apiVersion: v1

metadata: # 属性信息,元数据,包括名字和其他标识符等。这些信息对于识别和管理Pod很有用

name: myweb

spec: # 资源的特性描述(规约),定义Pod具体行为的部分

containers:

- name: webserver

image: myos:nginx

command: ["/bin/bash"]

args:

- -c

- |

while sleep 5;do

echo "hello world"

done

2.2 restartPolicy 保护策略

指在系统发生故障或意外停机时,系统或应用程序如何处理和恢复的策略重启[Always] -- 不重启[Never] -- 失败就重启[OnFailure]Pod会根据策略决定容器结束后是否重启

[root@master ~]# vim mycmd.yaml

---

kind: Pod

apiVersion: v1

metadata:

name: mycmd

spec:

restartPolicy: Never # 配置保护策略

containers:

- name: linux

image: myos:8.5

command: ["sleep"]

args: ["30"]

2.3 terminationGracePeriodSeconds 宽限期策略

是K8s中的Pod生命周期策略之一,当容器运行完自己的任务后,会等待一段时间,然后优雅的退出宽限期为避免服务突然中断,造成事物不一致的问题宽限期默认 30s 不等待为 0s

[root@master ~]# vim mycmd.yaml

---

kind: Pod

apiVersion: v1

metadata:

name: mycmd

spec:

terminationGracePeriodSeconds:0 # 设置宽限期

restartPolicy: Never

containers:

- name: linux

image: myos:8.5

command: ["sleep"]

args: ["30"]

2.4 activeDeadlineSeconds 策略

是K8s中的Pod生命周期策略之一允许Pod运行的最大时长如果一个Pod的内部程序在运行时出现循环死锁,那么就会永远不停的重复执行,为避免出现循环死索,允许Pod运行的最大时长,等到时间后,强制关闭,并设置Error状态

[root@master ~]# vim mycmd.yaml

---

kind: Pod

apiVersion: v1

metadata:

name: mycmd

spec:

terminationGracePeriodSeconds: 0

activeDeadlineSeconds: 60 # 可以执行的最大时长

restartPolicy: Never

containers:

- name: linux

image: myos:8.5

command: ["sleep"]

args: ["300"]

2.5 多容器Pod

受影响的命令: [log , exec , cp ]需要以上命令后加 -c 容器名

[root@master ~]# vim mynginx.yaml

---

kind: Pod

apiVersion: v1

metadata:

name: mynginx

spec:

terminationGracePeriodSeconds: 0

restartPolicy: Always

containers: # 容器资源是个数组,可以定义多个Pod

- name: nginx # 容器名称

image: myos:nginx # 启动容器使用的镜像

- name: php # 容器名称

image: myos:php-fpm # 启动容器使用的镜像

注意:如果启动多容器,也根据提供的配置文件,没有明确指定每个容器的端口信息,那就需要在一个Pod中,每个容器需要使用不同的端口来避免冲突 

[root@master ~]# vim web2.yaml

---

kind: Pod

apiVersion: v1

metadata:

name: web2

spec:

containers:

- name: httpd

image: myos:httpd

ports:

- containerPort: 80 # 指定该容器端口80

- name: nginx

image: myos:nginx

ports:

- containerPort: 8080 # 指定该容器端口8080

3. Pod容忍策略

容忍刚好和污点相反,某些时候我们需要在有污点的节点上运行Pod,这种无视污点标签的调度方式成为容忍精确匹配: 下面3个条件必须写全

模糊匹配: 不需要写全

3.1 精确匹配策略

把effect: "" 改成这个样子代表容忍所有污点

# 容忍 k=v1:NoSchedule 污点

[root@master ~]# vim myphp.yaml

---

kind: Pod

apiVersion: v1

metadata:

name: myphp

spec:

tolerations: # 定义容忍策略

- operator: Equal # 匹配方式,必选(Equal精确匹配,Exists模糊匹配)

key: k # 设置键值对的key,为空代表任意键值对

value: v1 # 设置values的值

effect: NoSchedule # 设置容忍的标签,为空代表所有污点标签

containers:

- name: php

image: myos:php-fpm

3.2 模糊匹配策略

# 容忍 k=*:NoSchedule 污点

[root@master ~]# vim myphp.yaml

---

kind: Pod

apiVersion: v1

metadata:

name: myphp

spec:

tolerations:

- operator: Exists # 部分匹配,存在即可

key: k # 键

effect: NoSchedule # 污点标签

containers:

- name: php

image: myos:php-fpm

4. 优先级与抢占

优先级就是为了保证重要的Pod被调度运行通过配置优先级PriorityClass或创建Pod时为其设置对应的优先级来确认优先级PriorityClass是一个全局资源对象,它定义了从优先级类名称到优先级整数值的映射。优先级在value字段中指定,可以设置小于10亿的整数值,值越大,优先级越高,默认优先级0PriorityClass还有两个可选字段:

globalDefault用于设置默认优先级状态,如果没有任何优先级设置Pod的优先级为零description用来配置描述性信息,告诉用户优先级的用途优先级策略:

非抢占优先:指的是在调度阶段优先进行调度分配,一旦容器调度完成就不可以抢占,资源不足时,只能等待抢占优先:强制调度一个Pod,如果资源不足无法被调度,调度程序会抢占(删除)较低优先级的Pod的资源,来保证高优先级Pod的运行

4.1 非抢占优先级

创建新的优先级策略

# 定义优先级(队列优先)

[root@master ~]# vim mypriority.yaml

---

kind: PriorityClass

apiVersion: scheduling.k8s.io/v1

metadata:

name: high-non # 优先级名称

preemptionPolicy: Never # 策略:非抢占

value: 1000 # 优先级

---

kind: PriorityClass

apiVersion: scheduling.k8s.io/v1

metadata:

name: low-non # 优先级名称

preemptionPolicy: Never # 策略:非抢占

value: 500 # 优先级

# 运行并查看优先级

[root@master ~]# kubectl apply -f mypriority.yaml

priorityclass.scheduling.k8s.io/high-non created

priorityclass.scheduling.k8s.io/low-non created

[root@master ~]# kubectl get priorityclasses.scheduling.k8s.io

NAME VALUE GLOBAL-DEFAULT AGE

high-non 1000 false 12s

low-non 500 false 12s

system-cluster-critical 2000000000 false 45h

system-node-critical 2000001000 false 45h

创建pod 

[root@master ~]# vim php2.yaml

---

kind: Pod

apiVersion: v1

metadata:

name: php2

spec:

nodeSelector:

kubernetes.io/hostname: node01

priorityClassName: low-non # 优先级名称

containers:

- name: php

image: myos:php-fpm

4.2 抢占优先级 

创建新的优先级策略

[root@master ~]# vim mypriority.yaml

---

kind: PriorityClass

apiVersion: scheduling.k8s.io/v1

metadata:

name: high

preemptionPolicy: PreemptLowerPriority #抢占策略

value: 1000

---

kind: PriorityClass

apiVersion: scheduling.k8s.io/v1

metadata:

name: low

preemptionPolicy: PreemptLowerPriority #抢占策略

value: 500

# 运行并查看优先级策略

[root@master ~]# kubectl apply -f mypriority.yaml

priorityclass.scheduling.k8s.io/high-non created

priorityclass.scheduling.k8s.io/low-non created

priorityclass.scheduling.k8s.io/high created

priorityclass.scheduling.k8s.io/low created

[root@master ~]# kubectl get priorityclasses.scheduling.k8s.io

NAME VALUE GLOBAL-DEFAULT AGE

high 1000 false 2m56s

low 500 false 2m56s

system-cluster-critical 2000000000 false 7d22h

system-node-critical 2000001000 false 7d22h

5. Pod调度策略 

将Pod分配到合适的计算节点上,并运行 -- kube-scheduler 默认调度器什么是调度分配?

在k8s中,调度是将Pod分配到合适的计算节点上,然后对应节点上的Kubelet运行这些podkube-scheduler是默认调度器,是集群的核心组件调度器是如何工作的?

调度器通过k8s的监测(Watch)机制来发现集群中尚未被调度到节点上的Pod。调度器依据调度原则将Pod分配到一个合适的节点上运行。调度流程

调度器给一个pod做调度选择包含两个步骤: 过滤和打分第一步过滤(筛选)

首先要筛选出满足Pod所有的资源请求的节点,这里包含计算资源、内存、存储、网络、端口号等等,如果没有节点能满足Pod的需求,Pod将一直停留在Pending状态,直到调度器能够找到合适的节点运行它第二步打分(优选):

在打分阶段,调度器会根据打分规则,为每一个课调度节点进行打分。选出其中得分最高的节点来运行Pod。如果存在多个得分最高的节点,调度器会从中随机选取一个。绑定

在确认了某个节点运行Pod之后,调度器将这个调度决定通知给kube-apiserver,这个过程叫做绑定

5.1 定向调度

基于节点名称的调度在 spec下面,添加nodeName标签,让Pod运行在指定节点上面,若指标节点无法运行,它会一直等下去,现实pending

[root@master ~]# vim myhttp.yaml

---

kind: Pod

apiVersion: v1

metadata:

name: myhttp

spec:

nodeName: node-0001 # 基于节点名进行调度

containers:

- name: apache

image: myos:httpd

5.2 标签调度 

Pod标签调度是指通过在Pod上设置标签(Label),将Pod调度到具有匹配标签的节点上,可以匹配到多个节点,也可以一个节点都匹配不到。Pod标签调度是通过在Pod配置文件中设置nodeSelector字段来实现的查看筛选标签

使用--show-labels查询标签

管理标签语法格式

设置标签

kubectl label 资源类型 [资源名称] =删除标签

kubectl label 资源类型 [资源名称] -查看标签

kubectl label 资源类型 [资源名称] --show-labels使用标签选择

kubectl get 资源类型 [资源名称] -l =

[root@master ~]# kubectl get pods --show-labels

NAME READY STATUS RESTARTS AGE LABELS

myhttp 1/1 Running 1 (3m18s ago) 15h <none>

[root@master ~]# kubectl get namespaces --show-labels

NAME STATUS AGE LABELS

default Active 6d17h kubernetes.io/metadata.name=default

kube-node-lease Active 6d17h kubernetes.io/metadata.name=kube-node-lease

kube-public Active 6d17h kubernetes.io/metadata.name=kube-public

kube-system Active 6d17h kubernetes.io/metadata.name=kube-system

# 使用标签过滤资源对象

[root@master ~]# kubectl get nodes -l kubernetes.io/hostname=master

NAME STATUS ROLES AGE VERSION

master Ready control-plane 6d18h v1.26.0

# 添加标签

[root@master ~]# kubectl label pod myhttp app=apache

pod/myhttp labeled

[root@master ~]# kubectl get pods --show-labels

NAME READY STATUS RESTARTS AGE LABELS

myhttp 1/1 Running 1 (39m ago) 15h app=apache

# 删除标签

[root@master ~]# kubectl label pod myhttp app-

pod/myhttp unlabeled

[root@master ~]# kubectl get pods --show-labels

NAME READY STATUS RESTARTS AGE LABELS

myhttp 1/1 Running 1 (40m ago) 15h <none>

 使用系统标签调度

[root@master ~]# kubectl get nodes node-0002 --show-labels

NAME STATUS ROLES AGE VERSION LABELS

node-0002 Ready <none> 5d22h v1.26.0

beta.kubernetes.io/arch=amd64,beta.kubernetes.io/os=linux,kubernetes.io/arch=amd6

4,kubernetes.io/hostname=node-0002,kubernetes.io/os=linux

[root@master ~]# vim myhttp.yaml

---

kind: Pod

apiVersion: v1

metadata:

name: myhttp

labels:

app: apache

spec:

nodeSelector: # 基于节点标签进行调度

kubernetes.io/hostname: node-0002 # 标签

containers:

- name: apache

image: myos:httpd

[root@master ~]# kubectl apply -f myhttp.yaml

pod/myhttp created

[root@master ~]# kubectl get pods -l app=apache -o wide

NAME READY STATUS RESTARTS AGE IP NODE

myhttp 1/1 Running 0 23s 10.244.147.7 node-0002

 6. Pod资源管理

是K8s中用于限制和约束集群中各个命名空间或项目使用资源的方式,避免资源争用和浪费Pod资源配额可以限制命名空间或项目中Pod使用的CPU、内存、存储等资源的数量设置resources字段,来实现资源管理

CPU资源类型

CPU资源的约束和请求以豪核(m)为单位。在k8s中1m是最小的调度单元,CPU的一个核心可以看作1000m如果你有2颗cpu,且每CPU为4核心,那么你的CPU资源总量就是8000

1. 内存资源配额

[root@master ~]# vim minpod.yaml

---

kind: Pod

apiVersion: v1

metadata:

name: minpod

spec:

nodeSelector: # 配置Pod调度节点

kubernetes.io/hostname: node-0003 # 在node-0003节点创建

terminationGracePeriodSeconds: 0

containers:

- name: linux

image: myos:8.5

command: ["awk","BEGIN{while(1){}}"]

resources: # 资源策略

requests: # 配额策略

memory: 1100Mi # 内存配额

2. 计算资源配额

[root@master ~]# vim minpod.yaml

---

kind: Pod

apiVersion: v1

metadata:

name: minpod

spec:

terminationGracePeriodSeconds: 0

nodeSelector:

kubernetes.io/hostname: node-0003

containers:

- name: linux

image: myos:8.5

command: ["awk","BEGIN{while(1){}}"]

resources: # 资源策略

requests: # 配额策略

cpu: 800m # cpu配额,计算资源配额

3. 综合资源配额

同时设置CPU和内存配额时,资源必须满足全部需求

[root@master ~]# vim minpod.yaml

---

kind: Pod

apiVersion: v1

metadata:

name: minpod

spec:

terminationGracePeriodSeconds: 0

nodeSelector:

kubernetes.io/hostname: node-0003

containers:

- name: linux

image: myos:8.5

command: ["awk","BEGIN{while(1){}}"]

resources:

requests:

cpu: 800m # 计算资源配额

memory: 1100Mi # 内存资源配额

 4. 内存 CPU限额

# 创建限额资源对象文件

[root@master ~]# vim maxpod.yaml

---

kind: Pod

apiVersion: v1

metadata:

name: maxpod

spec:

terminationGracePeriodSeconds: 0

containers:

- name: linux

image: myos:8.5

command: ["awk","BEGIN{while(1){}}"]

resources:

limits:

cpu: 800m # 计算资源配额

memory: 2000Mi # 内存资源配额

[root@master ~]# kubectl apply -f maxpod.yaml

pod/maxpod created

7. 全局资源管理

如果有大量的容器需要设置资源配额,为每个Pod设置资源配额策略不方便且不好管理。管理员可以以名称空间为单位(namespace),限制其资源的使用与创建。在该名称空间中创建的容器都会受到规则的限制。k8s 支持的全局资源配额方式有:

对单个Pod内存、CPU进行配额:LimitRange对资源总量进行配额:ResourceQuota

 7.1 LimitRange

# 创建名称空间

[root@master ~]# kubectl create namespace work

namespace/work created

# 设置默认配额

[root@master ~]# vim limit.yaml

---

apiVersion: v1

kind: LimitRange

metadata:

name: mylimit # 策略名称

namespace: work # 规则生效的名称空间

spec:

limits: # 全局规则

- type: Container # 资源类型

default: # 对没有限制策略的容器添加规则

cpu: 300m # 计算资源限额

memory: 500Mi # 内存资源限额

defaultRequest:

cpu: 8m # 计算资源配额

memory: 8Mi # 内存资源配额

[root@master ~]# kubectl -n work apply -f limit.yaml

limitrange/mylimit created

7.2 ResourceQuota

[root@master ~]# vim quota.yaml

---

apiVersion: v1

kind: ResourceQuota # 全局资源限额对象

metadata:

name: myquota # 规则名称

namespace: work # 规则作用的名称空间

spec: # ResourceQuota.spec定义

hard: # 创建强制规则

requests.cpu: 1000m # 计算资源配额总数

requests.memory: 2000Mi # 内存资源配额总数

limits.cpu: 5000m # 计算资源限额总数

limits.memory: 8Gi # 内存资源限额总数

pods: 3 # 限制创建资源对象总量

[root@master ~]# kubectl -n work apply -f quota.yaml

resourcequota/myquota created

五、控制器

控制器是什么?

控制器是k8s内置的管理工具。可以帮助用户实现Pod的自动部署、自维护、扩容、翻滚更新等功能的自动化程序为什么要使用控制器?

有大量的Pod需要维护管理需要维护Pod的健康状态控制器可以像机器人一样可以替用户完成维护管理的工作Deployment控制器

最常用的无状态服务控制器,由Deployment、ReplicaSet、Pod组成、支持集群扩容缩容、滚动、更新、自动维护Pod可用性及副本数量等功能ReplicaSet和Pod由Deployment自动管理,用户无需干预

1. Deployment

功能

需要service资源对象来对其资源进行访问当集群中有Pod被删除,Deploy会自动创建新的Pod来维护集群的完整性当Pod标签去掉时,会被踢出集群(谁有标签谁才可以在集群中)集群扩缩容滚动更新策略历史版本及回滚

 在这里面,需要新了解的配置项就是spec下面几个选项:

replicas:指定副本数量,其实就是当前rs创建出来的pod的数量,默认为1selector:选择器,它的作用是建立pod控制器和pod之间的关联关系,采用的Label Selector机制,在pod模板上定义label,在控制器上定义选择器,就可以表明当前控制器能管理哪些pod了template:模板,就是当前控制器创建pod所使用的模板板,里面其实就是前一章学过的pod的定义

 imagePullPolicy: 是确保容器总是使用最新版本的镜像

IfNotPresent: 仅当镜像在本地不存在时,才被拉取Never:: 设镜像已经存在于本地,不会尝试拉取镜像always: 确保每次容器启动时都会拉取最新的镜像

最常用的控制器,资源清单文件:

<code>[root@master ~]# vim mydeploy.yaml

---

kind: Deployment # 资源对象类型

apiVersion: apps/v1 # 版本

metadata: # 元数据

name: myweb # 名称

spec: # 详细定义

replicas: 2 # 副本数量

strategy: # 策略

type: RollingUpdate # 滚动更新策略

rollingUpdate: # 滚动更新

maxSurge: 30% # 最大额外可以存在的副本数,可以为百分比,也可以为整数

maxUnavailable: 30% # 最大不可用状态的 Pod 的最大值,可以为百分比,也可以为整数

selector: # 定义标签选择器

matchLabels: # 支持 matchExpressions 表达式语法

app: httpd # 通过标签来确定那个 Pod 由它来管理

template: # 定义用来创建 Pod 的模板,以下为 Pod 定义

metadata: # Pod元数据

labels: # 名称由控制器生成

app: httpd # 这里只能定义标签

spec: # Pod的详细定义

restartPolicy: Always # 重启策略

containers: # 容器定义

- name: webserver # 容器名称

image: myos:httpd # 创建容器使用的容器

imagePullPolicy: Always # 镜像下载策略

1.1 扩缩容

[root@master ~]# kubectl scale deployment myweb(Deployment名字) --replicas=3(指定Pod数量)

# 1、创建deployment

[root@master ~]# kubectl create -f nginx-deployment.yaml --record=true

deployment.apps/nginx-deployment created

# 2、查看deployment

# UP-TO-DATE 最新版本的pod的数量

# AVAILABLE 当前可用的pod的数量

# - your_namespace 你的命名空间名称

[root@master ~]# kubectl get deploy myweb -n your_spacename

NAME READY UP-TO-DATE AVAILABLE AGE

nginx-deployment 3/3 3 3 15s

[root@master ~]# kubectl get pods -n your_namespace

NAME READY STATUS RESTARTS AGE

nginx-deployment-6696798b78-d2c8n 1/1 Running 0 4m19s

nginx-deployment-6696798b78-jxmdq 1/1 Running 0 94s

nginx-deployment-6696798b78-mktqv 1/1 Running 0 93s

1.2 镜像更新

 deployment支持两种更新策略:重建更新滚动更新,可以通过strategy指定策略类型,支持两个属性:

strategy:指定新的Pod替换旧的Pod的策略, 支持两个属性:

type:指定策略类型,支持两种策略

Recreate:在创建出新的Pod之前会先杀掉所有已存在的Pod

RollingUpdate:滚动更新,就是杀死一部分,就启动一部分,在更新过程中,存在两个版本Pod

rollingUpdate:当type为RollingUpdate时生效,用于为RollingUpdate设置参数,支持两个属性:

maxUnavailable:用来指定在升级过程中不可用Pod的最大数量,默认为25%。

maxSurge: 用来指定在升级过程中可以超过期望的Pod的最大数量,默认为25%。

1.3  滚动更新策略

deployment支持版本升级过程中的暂停、继续功能以及版本回退等诸多功能,下面具体来看.

kubectl rollout: 版本升级相关功能,支持下面的选项

status 显示当前升级状态history 显示 升级历史记录pause 暂停版本升级过程resume 继续已经暂停的版本升级过程restart 重启版本升级过程undo 回滚到上一级版本(可以使用–to-revision回滚到指定版本)

[root@master ~]# kubectl get deployments.apps myweb -o yaml

......

spec:

revisionHistoryLimit: 10 # 保留10个历史版本

strategy: # 更新策略

rollingUpdate: # 滚动更新策略

maxSurge: 25% # 允许最大副本25%超量

maxUnavailable: 25% # 允许最小副本25%不足

type: RollingUpdate # 更新方式[Recreate,RollingUpdate]

template:

spec:

containers:

- name: webserver

image: myos:httpd

imagePullPolicy: Always # 镜像下载策略[Always,Never,ifNotPresent]

......

# 修改镜像,滚动更新集群

[root@master ~]# kubectl set image deployment myweb webserver=myos:nginx

deployment.apps/myweb image updated

# 给新版本添加注释信息

[root@master ~]# kubectl annotate deployments myweb kubernetes.io/change-

cause="nginx.v1"code>

deployment.apps/myweb annotated

# 查看历史版本信息

[root@master ~]# kubectl rollout history deployment myweb

deployment.apps/myweb

REVISION CHANGE-CAUSE

1 httpd:v1

2 nginx.v1

# 访问验证服务

[root@master ~]# curl -m 3 http://10.245.1.80

Nginx is running !

 1.4 版本回滚

# 历史版本与回滚

[root@master ~]# kubectl rollout undo deployment myweb --to-revision 1

deployment.apps/myweb rolled back

[root@master ~]# curl -m 3 http://10.245.1.80

Welcome to The Apache.

[root@master ~]# kubectl rollout history deployment myweb

deployment.apps/myweb

REVISION CHANGE-CAUSE

2 nginx.v1

3 httpd:v1

1.5 金丝雀发布 

Deployment控制器支持控制更新过程中的控制,如“暂停(pause)”或“继续(resume)”更新操作。

比如有一批新的Pod资源创建完成后立即暂停更新过程,此时,仅存在一部分新版本的应用,主体部分还是旧的版本。然后,再筛选一小部分的用户请求路由到新版本的Pod应用,继续观察能否稳定地按期望的方式运行。确定没问题之后再继续完成余下的Pod资源滚动更新,否则立即回滚更新操作。这就是所谓的金丝雀发布。

# 1、更新deployment的版本,并配置暂停deployment

[root@master ~]# kubectl set image deploy your_deploy_name nginx=nginx:1.17.4 -n your_namespace && kubectl rollout pause deployment your_deploy_name -n your_namespace

deployment.apps/nginx-deployment image updated

deployment.apps/nginx-deployment paused

# 2、观察更新状态

# - your_deploy_name 你的deploy名称

# - your_namespace 你的命名空间名称

[root@master ~]# kubectl rollout status deploy your_deploy_name -n your_namespace

Waiting for deployment "nginx-deployment" rollout to finish: 2 out of 4 new replicas have been updated...

# 3、监控更新的过程,可以看到已经新增了一个资源,但是并未按照预期的状态去删除一个旧的资源,就是因为使用了pause暂停命令

# - your_namespace 你的命名空间名称

[root@master ~]# kubectl get rs -n your_namespace -o wide

NAME DESIRED CURRENT READY AGE CONTAINERS IMAGES

nginx-deployment-5d89bdfbf9 3 3 3 19m nginx nginx:1.17.1

nginx-deployment-675d469f8b 0 0 0 14m nginx nginx:1.17.2

nginx-deployment-6c9f56fcfb 2 2 2 3m16s nginx nginx:1.17.4

# - your_namespace 你的命名空间名称

[root@master ~]# kubectl get pods -n your_namespace

NAME READY STATUS RESTARTS AGE

nginx-deployment-5d89bdfbf9-rj8sq 1/1 Running 0 7m33s

nginx-deployment-5d89bdfbf9-ttwgg 1/1 Running 0 7m35s

nginx-deployment-5d89bdfbf9-v4wvc 1/1 Running 0 7m34s

nginx-deployment-6c9f56fcfb-996rt 1/1 Running 0 3m31s

nginx-deployment-6c9f56fcfb-j2gtj 1/1 Running 0 3m31s

# 4、确保更新的pod没问题了,继续更新

# - your_deploy_name 你的deploy名称

# - your_namespace 你的命名空间名称

[root@master ~]# kubectl rollout resume deploy your_deploy_name -n your_namespace

deployment.apps/nginx-deployment resumed

# 5、查看最后的更新情况

# - your_namespace 你的命名空间名称

[root@master ~]# kubectl get rs -n your_namespace -o wide

NAME DESIRED CURRENT READY AGE CONTAINERS IMAGES

nginx-deployment-5d89bdfbf9 0 0 0 21m nginx nginx:1.17.1

nginx-deployment-675d469f8b 0 0 0 16m nginx nginx:1.17.2

nginx-deployment-6c9f56fcfb 4 4 4 5m11s nginx nginx:1.17.4

# - your_namespace 你的命名空间名称

[root@master ~]# kubectl get pods -n your_namespace

NAME READY STATUS RESTARTS AGE

nginx-deployment-6c9f56fcfb-7bfwh 1/1 Running 0 37s

nginx-deployment-6c9f56fcfb-996rt 1/1 Running 0 5m27s

nginx-deployment-6c9f56fcfb-j2gtj 1/1 Running 0 5m27s

nginx-deployment-6c9f56fcfb-rf84v 1/1 Running 0 37s

1.6 删除控制器方法 

# 删除控制器方法1

[root@master ~]# kubectl delete deployments myweb

deployment.apps "myweb" deleted

# 删除控制器方法2

[root@master ~]# kubectl delete -f mydeploy.yaml

deployment.apps "myweb" deleted

2. DaemonSet

DaemonSet控制器

无法自定义副本数量所创建的Pod与node节点绑定每个node上都会允许一个Pod当有新Node加入集群时,会为他新增Pod副本,当Node从集群移除时,这些Pod也会被回收,典型应用:kube-proxy 

<code>[root@master ~]# vim myds.yaml

---

kind: DaemonSet # 资源对象类型

apiVersion: apps/v1 # 版本

metadata: # 元数据

name: myds # 名称

spec: # 详细定义

selector: # 定义标签选择器

matchLabels: # 支持 matchExpressions 表达式语法

app: httpd # 通过标签来确定那个 Pod 由它来管理

template: # 定义用来创建 Pod 的模板,以下为 Pod 定义

metadata:

labels:

app: httpd

spec:

restartPolicy: Always

containers:

- name: webserver

image: myos:httpd

imagePullPolicy: Always

[root@master ~]# kubectl apply -f myds.yaml

daemonset.apps/myds created

[root@master ~]# kubectl get pods -o wide

NAME READY STATUS RESTARTS AGE IP NODE

NOMINATED NODE READINESS GATES

myds-78b2h 1/1 Running 0 31s 10.244.153.154 node-0005

<none> <none>

myds-78pgb 1/1 Running 0 31s 10.244.243.226 node-0003

<none> <none>

myds-cg2sv 1/1 Running 0 31s 10.244.147.30 node-0002

<none> <none>

myds-pp7s6 1/1 Running 0 31s 10.244.240.162 node-0004

<none> <none>

myds-qrp82 1/1 Running 0 32s 10.244.21.155 node-0001

<none> <none>

 2.1 DS控制器会受到污点策略的影响

[root@master ~]# kubectl taint node node-0001 k=v:NoSchedule

node/node-0001 tainted

[root@master ~]# kubectl delete -f myds.yaml

daemonset.apps "myds" deleted

[root@master ~]# kubectl apply -f myds.yaml

daemonset.apps/myds created

# 有污点不会部署,特殊需求可以设置容忍策略

[root@master ~]# kubectl get pods

NAME READY STATUS RESTARTS AGE

myds-fxlgq 1/1 Running 0 33s

myds-j5779 1/1 Running 0 33s

myds-nb6bv 1/1 Running 0 33s

myds-vkk6x 1/1 Running 0 33s

# 删除污点后会立即部署

[root@master ~]# kubectl taint node node-0001 k=v:NoSchedule-

node/node-0001 untainted

[root@master ~]# kubectl get pods

NAME READY STATUS RESTARTS AGE

myds-bq2nv 1/1 Running 0 3s

myds-fxlgq 1/1 Running 0 114s

myds-j5779 1/1 Running 0 114s

myds-nb6bv 1/1 Running 0 114s

myds-vkk6x 1/1 Running 0 114s

# 删除控制器

[root@master ~]# kubectl delete -f myds.yaml

daemonset.apps "myds" deleted

3. Job/CronJob

3.1 Job

单任务控制器,执行一次任务CronJob是Job的升级版,基于时间管理的Job控制器restartPOlicy策略会判断exit状态码,状态为0表示正常,其他都是失败任务执行出错,会重新执行该任务

[root@master ~]# vim myjob.yaml

---

kind: Job

apiVersion: batch/v1

metadata:

name: myjob

spec:

template: # 以下定义 Pod 模板

spec:

restartPolicy: OnFailure

containers:

- name: myjob

image: myos:8.5

command: ["/bin/bash"]

args:

- -c

- |

sleep 3

exit $((RANDOM%2))

[root@master ~]# kubectl apply -f myjob.yaml

job.batch/myjob created

# 失败了会重启

[root@master ~]# kubectl get pods -l job-name=myjob -w

NAME READY STATUS RESTARTS AGE

myjob-plnhc 1/1 Running 0 3s

myjob-plnhc 0/1 Completed 0 4s

myjob-plnhc 0/1 Completed 0 5s

myjob-plnhc 0/1 Completed 0 6s

myjob-plnhc 0/1 Completed 0 6s

[root@master ~]# kubectl get jobs.batch

NAME COMPLETIONS DURATION AGE

myjob 1/1 6s 91s

# 删除Job控制器

[root@master ~]# kubectl delete -f myjob.yaml

job.batch "myjob" deleted

 3.2 CronJob

时间定义 schedule: 分 时 日 月 周会按照时间周期运行只保留执行三次的结果,多余被删除

[root@master ~]# vim mycj.yaml

---

kind: CronJob

apiVersion: batch/v1

metadata:

name: mycj

spec:

schedule: "* * * * 1-5"

jobTemplate: # 以下定义Job模板

spec:

template:

spec:

restartPolicy: OnFailure

containers:

- name: myjob

image: myos:8.5

command: ["/bin/bash"]

args:

- -c

- |

sleep 3

exit $((RANDOM%2))

[root@master ~]# kubectl apply -f mycj.yaml

cronjob.batch/mycj created

[root@master ~]# kubectl get cronjobs

NAME SCHEDULE SUSPEND ACTIVE LAST SCHEDULE AGE

mycj * * * * 1-5 False 0 <none> 14s

# 按照时间周期,每分钟触发一个任务

[root@master ~]# kubectl get jobs -w

NAME COMPLETIONS DURATION AGE

mycj-28263259 1/1 29s 70s

mycj-28263260 1/1 6s 10s

mycj-28263261 0/1 0s

mycj-28263261 0/1 0s 0s

mycj-28263261 0/1 2s 2s

mycj-28263261 0/1 5s 5s

mycj-28263261 0/1 5s 5s

# 保留三次结果,多余的会被删除

[root@master ~]# kubectl get jobs

NAME COMPLETIONS DURATION AGE

mycj-28263261 1/1 24s 2m13s

mycj-28263262 1/1 27s 73s

mycj-28263263 1/1 6s 13s

# 删除CJ控制器

[root@master ~]# kubectl delete -f mycj.yaml

cronjob.batch "mycj" deleted

4. 基础控制器的区别

4.1 Deployment

Deployment 控制器是最常用的 Controller,可以管理 Pod 的多个副本,并确保 Pod 按照期望的状态运行。它支持两种更新策略:滚动更新和重新创建,默认为滚动更新。在 Deployment 中,如果存在容器异常退出,会自动创建新的 Pod 进行替代;同时,异常多出来的容器也会自动回收。当某个 Pod 发生故障需要删除并重新启动时,Pod 的名称会发生变化,同时 StatefulSet 会保证副本按照固定的顺序启动、更新或者删除。

4.2 DaemonSet 

DaemonSet 控制器主要用于在每个节点最多只运行一个 Pod 副本的场景。它的名称暗示了其通常用于运行守护进程(daemon)。当有新的节点加入集群时,DaemonSet 控制器会自动在该节点上创建一个 Pod 副本,当有节点从集群中移除时,DaemonSet 控制器会自动回收该节点上的 Pod 副本。

4.3 CronJob/Job 

主要用于运行结束就删除的应用。它并不适合长期持续运行的任务。相反,它的设计目的是为了处理一些特定的、一次性的任务,例如批处理任务、定时任务等。一旦任务完成,Job 控制器就会自动删除相关的 Pod。

5. StatefulSet 

StatefulSet控制器

StatefulSet旨在与有状态的应用及分布式统一使用,涉及了Headless服务、存储卷、DNS等相关知识,是一个宽泛而复杂的话题Headless服务

在配置StatefulSets的时候,首先要定义一个Headless的服务在创建Pod的时候会自动把<Pod名称>注册为域名

4.1 headless服务 

<code># 配置 headless 服务

[root@master ~]# vim mysvc2.yaml

---

kind: Service

apiVersion: v1

metadata:

name: mysvc2 # 服务名称

spec:

type: ClusterIP

clusterIP: None # 设置IP为None

selector:

app: httpd

ports:

- protocol: TCP

port: 80

targetPort: 80

[root@master ~]# kubectl get service mysvc2

NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE

mysvc2 ClusterIP None <none> 80/TCP 17s

4.2  StatefulSet资源配置文件

[root@master ~]# vim mysts.yaml

---

kind: StatefulSet # 资源对象类型

apiVersion: apps/v1 # 版本

metadata: # 元数据

name: mysts # 名称

spec: # 详细定义

serviceName: mysvc2 # 控制器名称

replicas: 3 # 副本数量

selector: # 定义标签选择器

matchLabels: # 支持 matchExpressions 表达式语法

app: httpd # 通过标签来确定那个 Pod 由它来管理

template: # 定义用来创建 Pod 的模板,以下为 Pod 定义

metadata:

labels:

app: httpd

spec:

restartPolicy: Always

containers:

- name: webserver

image: myos:httpd

imagePullPolicy: Always

[root@master ~]# kubectl apply -f mysts.yaml

statefulset.apps/mysts created

[root@master ~]# kubectl get pods

NAME READY STATUS RESTARTS AGE

mysts-0 1/1 Running 0 8s

mysts-1 1/1 Running 0 7s

mysts-2 1/1 Running 0 6s

[root@master ~]# host mysts-0.mysvc2.default.svc.cluster.local 10.245.0.10

Using domain server:

Name: 10.245.0.10

Address: 10.245.0.10 #53

Aliases:

mysts-0.mysvc2.default.svc.cluster.local has address 10.244.153.159

[root@master ~]# host mysvc2.default.svc.cluster.local 10.245.0.10

Using domain server:

Name: 10.245.0.10

Address: 10.245.0.10 #53

Aliases:

mysvc2.default.svc.cluster.local has address 10.244.147.37

mysvc2.default.svc.cluster.local has address 10.244.153.159

mysvc2.default.svc.cluster.local has address 10.244.240.164

# 删除sts控制器

[root@master ~]# kubectl delete -f mysts.yaml -f mysvc2.yaml

statefulset.apps "mysts" deleted

service "mysvc2" deleted

6. Horizontal Pod Autoscaler(HPA)控制器

可在k8s集群中基于CPU利用率或其他应用程序提供的度量指标实现水平自动伸缩的功能,自动缩放POD的数量要在集群中运行,所以先创建集群也需要ClusterIP服务

 创建被监控的资源对象

<code># 为 Deploy 模板添加资源配额

[root@master ~]# vim mydeploy.yaml

---

kind: Deployment

apiVersion: apps/v1

metadata:

name: myweb

spec:

replicas: 1 # 修改副本数量

selector:

matchLabels:

app: httpd

template:

metadata:

labels:

app: httpd

spec:

restartPolicy: Always

containers:

- name: webserver

image: myos:httpd

imagePullPolicy: Always

resources: # 为该资源设置配额

requests: # HPA控制器会根据配额使用情况伸缩集群

cpu: 200m # CPU配额

 创建HPA

[root@master ~]# vim myhpa.yaml

---

kind: HorizontalPodAutoscaler # 资源对象类型

apiVersion: autoscaling/v1 # 版本

metadata: # 元数据

name: myweb # 资源对象名称

spec: # 详细定义

minReplicas: 1 # 最少保留的副本数量

maxReplicas: 5 # 最大创建的副本数量

targetCPUUtilizationPercentage: 50 # 警戒值,以百分比计算

scaleTargetRef: # 监控的资源对象

kind: Deployment # 资源对象类型

apiVersion: apps/v1 # 版本

name: myweb # 资源对象名称

[root@master ~]# kubectl apply -f myhpa.yaml

horizontalpodautoscaler.autoscaling/myweb created

# 刚刚创建 unknown 是正常现象,最多等待 60s 就可以正常获取数据

[root@master ~]# kubectl get horizontalpodautoscalers.autoscaling

NAME REFERENCE TARGETS MINPODS MAXPODS REPLICAS

myweb Deployment/myweb <unknown>/50% 1 5 0

[root@master ~]# kubectl get horizontalpodautoscalers.autoscaling

NAME REFERENCE TARGETS MINPODS MAXPODS REPLICAS AGE

myweb Deployment/myweb 0%/50% 1 5 1 59s

六、service

容器带来的问题:

自动调度: 在Pod创建之前,用户无法预知Pod所在节点以及Pod的IP地址一个已经存在的Pod在运行过程中,出现故障,Pod也会在新的节点使用新的IP进行部署应用程序访问服务时,地址是不能经常转变的多个相同的Pod如何访问他们上面的服务

 service服务原理:

自动感知: 服务会创建一个clusterIP,对应资源地址,不管Pod如何变化,服务总能找到对应的Pod,且clusterIP保持不变负载均衡: 若服务器后端对应多个Pod,则会通过IPTables/LVS规则 访问请求最终映射到Pod容器内部,自动实现多个容器的负载均衡自动发现: 服务创建时会自动在内部dns上注册域名域名: <服务名称>.<名称空间>.svc.cluster.local

 Service可以看作是一组同类Pod对外的访问接口。借助Service,应用可以方便地实现服务发现和负载均衡。

Service有4种类型:

ClusterIP:默认值,它是Kubernetes系统自动分配的虚拟IP,只能在集群内部访问NodePort:将Service通过指定的Node上的端口暴露给外部,通过此方法,就可以在集群外部访问服务LoadBalancer:使用外接负载均衡器完成到服务的负载分发,注意此模式需要外部云环境支持ExternalName: 把集群外部的服务引入集群内部,直接使用

 6.1 ClusterIP

 默认的ServiceType,通过集群的内部IP暴露服务,选择该值时服务只能够在集群内部访问

默认类型: 实现Pod的自动感知与负载均衡,是最核心的服务类型,但ClusterIP不能对外发布服务,相对外发布服务只能使用NodePort或lngress工作原理: kube-proxy 是在所有节点上运行的代理,可以实现简单的数据转发,设置更新IPTables/LVS规则,服务创建时,还提供服务地址DNS自动注册与服务发现功能查看DNS IP: kubectl -n kube-system get service kube-dns解析域名的软件包: bind-utils

创建service资源文件模板: kubectl create service clusterip mysvc --tcp=80:80 --dry-run=client -o yaml

<code>[root@master ~]# vim mysvc.yaml

---

kind: Service # 资源对象类型

apiVersion: v1 # 版本

metadata: # 元数据

name: mysvc # 资源对象名称

spec: # 详细信息

type: ClusterIP # 服务类型

clusterIP: 10.245.1.80 # 可以设置ClusterIP

selector: # 选择算符

app: web # Pod标签

ports: # 端口

- protocol: TCP # 协议

port: 80 # 监听的端口,service端口

targetPort: 80 # 后端服务器端口,pod端口

nodePort: 31122 # 主机端口

NodePort:将Service通过指定的Node上的端口暴露给外部,通过此方法,就可以在集群外部访问服务在 /root/init/init.yaml  查看固定IP的范围及Pod IP的范围

CluseterIP是随机分配的,可以自定义但必须满足CIDR

创建service

[root@master ~]# kubectl apply -f mysvc.yaml

service/mysvc created

[root@master ~]# kubectl get service

NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE

kubernetes ClusterIP 10.245.0.1 <none> 443/TCP 9d

mysvc ClusterIP 10.245.186.38 <none> 80/TCP 8s

 域名解析

# 安装工具软件包

[root@master ~]# dnf -y install bind-utils

# 查看 DNS 服务地址

[root@master ~]# kubectl -n kube-system get service kube-dns

NAME TYPE LUSTER-IP EXTERNAL-IP PORT(S) AGE

kube-dns ClusterIP 10.245.0.10 <none> 53/UDP,53/TCP,9153/TCP 9d

# 域名解析测试

[root@master ~]# host mysvc.default.svc.cluster.local 10.245.0.10

Using domain server:

Name: 10.245.0.10

Address: 10.245.0.10#53

Aliases:

mysvc.default.svc.cluster.local has address 10.245.186.38

6.2 nodePort

对外发布应用

ClusterIP服务可以解决集群内应用互访的问题,但外部的应用无法访问集群内的资源,某些应用需要访问集群内的资源,我们就需要对外发布服务。ClusterIP:默认类型,可以实现Pod的自动感知与负载均衡,是最核心的服务类型,但

ClusterIP不能对外发布服务,如果想对外发布服务可以使用NodePort 或Ingress

NodePort与Ingress:

NodePort: 使用基于端口映射(默认值: 30000-32767)的方式对外发布服务,可以任意发布服务(四层)Ingress: 使用Ingress控制器(一般由Nginx或HAProxy构成),用来发布http,https服务(七层,只能发布这俩个服务)7层负载均衡比4层负载均衡更加智能

4层负载均衡比7层负载均衡更加简洁高效

[root@master ~]# vim mysvc1.yaml

---

kind: Service

apiVersion: v1

metadata:

name: mysvc1

spec:

type: NodePort # 服务类型

selector:

app: web

ports:

- protocol: TCP

port: 80

nodePort: 30080 # 映射端口号

targetPort: myhttp

 发布服务

[root@master ~]# kubectl apply -f mysvc1.yaml

service/mysvc1 created

[root@master ~]# kubectl get service

NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE

kubernetes ClusterIP 10.245.0.1 <none> 443/TCP 3h53m

mysvc ClusterIP 10.245.1.80 <none> 80/TCP 3h35m

mysvc1 NodePort 10.245.235.255 <none> 80:30080/TCP 15s

6.3 Ingress

Ingress服务由(规则 + 控制器)组成

使用Ingress控制器(一般由Nginx或HAProxy构成),用来发布http,https服务(七层,只能发布这俩个服务)

获取ingress

# 创建文件夹

[root@master ~]# mkdir ingress-controller

[root@master ~]# cd ingress-controller/

# 获取ingress-nginx,本次案例使用的是0.30版本

[root@master ingress-controller]# wget https://raw.githubusercontent.com/kubernetes/ingress-nginx/nginx-0.30.0/deploy/static/mandatory.yaml

[root@master ingress-controller]# wget https://raw.githubusercontent.com/kubernetes/ingress-nginx/nginx-0.30.0/deploy/static/provider/baremetal/service-nodeport.yaml

# 修改mandatory.yaml文件中的仓库

# 修改quay.io/kubernetes-ingress-controller/nginx-ingress-controller:0.30.0

# 为registry.aliyuncs.com/google_containers/nginx-ingress-controller:0.30.0

# 创建ingress-nginx

[root@master ingress-controller]# kubectl apply -f ./

# 查看ingress-nginx

[root@master ingress-controller]# kubectl get pod -n ingress-nginx

NAME READY STATUS RESTARTS AGE

pod/nginx-ingress-controller-fbf967dd5-4qpbp 1/1 Running 0 12h

# 查看service

[root@master ingress-controller]# kubectl get svc -n ingress-nginx

NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE

ingress-nginx NodePort 10.98.75.163 <none> 80:32240/TCP,443:31335/TCP 11h

创建ingress

[root@master ingress]# vim mying.yaml

---

kind: Ingress # 资源对象类型

apiVersion: networking.k8s.io/v1 # 资源对象版本

metadata: # 元数据

name: mying # 资源对象名称

spec: # 资源对象定义

ingressClassName: nginx # 使用的类名称

rules: # ingress规则定义

- host: nsd.tedu.cn # 域名定义,没有可以不写

http: # 协议

paths: # 访问的路径定义

- path: / # 访问的url路径

pathType: Prefix # 路径类型:Exact、Prefix

backend: # 后端服务

service: # 服务声明

name: mysvc # 服务名称

port: # 端口号声明

number: 80 # 访问服务的端口号

[root@master ingress]# kubectl apply -f mying.yaml

ingress.networking.k8s.io/mying created

[root@master ingress]# kubectl get ingress

NAME CLASS HOSTS ADDRESS PORTS AGE

mying nginx nsd.tedu.cn 192.168.1.51 80 10s

[root@master ingress]# curl -H "Host: nsd.tedu.cn" http://192.168.1.51

Welcome to The Apache.

七、存储卷管理

容器中的文件在磁盘上是临时存放的,所以:

当容器崩溃或重启,kubelet重启容器后,历史数据会消失容器被删除,容器内的数据也会消失多个容器有共享文件或目录的需求

卷概述:

卷是一个抽象化的存储设备卷可以解决容器崩溃或重启,数据丢失的问题可以解决容器或Pod被删后数据持久保存的问题可以解决在多个容器内共享数据的问题Pod可以同时使用任意数目的卷

持久卷:持久卷是集群中的存储资源,里面的内容不会随着Pod的删除而消失

临时卷:有些应用程序需要额外的存储,但并不关心数据在重启后是否仍可用,卷会遵从Pod的生命周期,与Pod一起创建和删除

使用存储卷:

在Pod.spec下添加volumes字段,配置外部存储卷在Pod.spec.containers[*]中添加 vloumeMounts字段,声明卷在容器中挂载位置

1. 持久卷

1.1 hostPath

本质是使用本地设备,如磁盘,分区,目录等,hostPath的可用性取决于底层节点的可用性,如果节点变的不健康,那hostPath也将不可访问

hostPath卷里面的数据不会随着Pod的结束而消失

[root@master ~]# vim web1.yaml

---

kind: Pod

apiVersion: v1

metadata:

name: web1

spec:

volumes: # 卷定义

- name: logdata # 卷名称

hostPath: # 资源类型

path: /var/weblog # 宿主机路径

type: DirectoryOrCreate # 目录不存在就创建

containers:

- name: nginx

image: myos:nginx

volumeMounts: # mount 卷

- name: logdata # 卷名称

mountPath: /usr/local/nginx/logs # 容器内路径

type类型:

type类型 说明 说明
DirectoryOrCreate 卷映射对象是一个目录,如果不存在就创建它
Directory 卷映射对象是一个目录,且必须存在
FileOrCreate 卷映射对象是一个文件,如果不存在创建它
File 卷映射对象是一个文件,且必须存在
Socket 卷映射对象是一个Socket套接字,且必须存在
CharDevice 卷映射对象是一个字符设备,且必须存在
BlockDevice 卷映射对象是一个块设备,且必须存在

 1.2 NFS

NFS 存储

k8s中允许将nfs存储以卷的方式挂载到你的Pod中。在删除Pod时,nfs存储卷会被卸载(umount),而不是被删除。nfs卷可以在不同节点的Pod之间共享数据。

NFS卷的用途

NFS最大的功能就是在不同节点的不同Pod中共享读写数据。本地NSF的客户端可以透明地读写位于远端NFS服务器上的文件,就像访问本地文件一样。

 部署 

需要一台NFS服务器在所有节点都需安装NFS(因为Pod是随机调度的,所以为保证NFS存储卷可以正确加载,需在所有node节点上都安装NFS软件工具包)

<code>[root@master ~]# vim nfs.yaml

---

kind: Pod

apiVersion: v1

metadata:

name: web1

spec:

volumes: # 卷定义

- name: website # 卷定义

nfs: # NFS 资源类型

server: 192.168.1.10 # NFS 服务器地址

path: /var/webroot # NFS 共享目录

containers:

- name: nginx

image: myos:nginx

volumeMounts: # mount 卷

- name: website # 卷名称

mountPath: /usr/local/nginx/html # 容器内路径

[root@master ~]# kubectl apply -f nfs.yaml

pod/nfs created

 1.3 PV/PVC

PV: 持久卷,资源提供者,有管理员配置,PV的全称是Persistent Volume,是持久卷VC: 持久卷声明,资源使用者,根据业务需求来配置,PVC的全称是Persistent VolumeClaim,是持久卷声明PVC会根据客户的需求,自动找到PV绑定

 accessMode:存储卷能提供的访问方式:

ReadWriteOnce: 单节点读写

ReadOnlyMany: 多节点只读ReadWriteMang: 多节点读写ReadWriteOnceMangy: 在一个Pod中只读

volumeMode: 提供资源的类型:

Filesystem:文件系统,直接mount就可以使用Block:块设备,要先格式化在mount

 持久卷PV

[root@master ~]# vim pv.yaml

---

kind: PersistentVolume

apiVersion: v1

metadata:

name: pv-local

spec:

volumeMode: Filesystem # 提供资源的类型[Filesystem,Block]

accessModes: # 存储卷能提供的访问模式

- ReadWriteOnce # 卷支持的模式,支持多种(hostPAth 只支持 RWO)

capacity: # 存储卷能提供的存储空间

storage: 30Gi # 空间大小

persistentVolumeReclaimPolicy: Retain # 数据回收方式(手工回收)

hostPath: # hostPath配置

path: /var/weblog

type: DirectoryOrCreate

---

kind: PersistentVolume

apiVersion: v1

metadate:

name: pv-nfs

spec:

volumeMode: Filesystem # 提供Filesystem访问方式

accessModes: # NFS支持多种访问方式

- ReadWriteOnce # RWO、ROX、RWX

- ReadOnlyMany

- ReadWriteMany

capacity:

storage: 20Gi # 提供的磁盘空间大小

persistentVolumeReclaimPolicy: Retain # 数据手动回收

mountOptions: # mount的参数

- nolock

nfs: # NFS配置

server: 192.168.1.10

path: /var/webroot

[root@master ~]# kubectl apply -f pv.yaml

persistentvolume/pv-local created

persistentvolume/pv-nfs created

[root@master ~]# kubectl get persistentvolume

NAME CAPACITY ACCESS MODES RECLAIM POLICY STATUS CLAIM STORAGECLASS REASON AGE

pv-local 30Gi RWO Retain Available 2s

pv-nfs 20Gi RWO,ROX,RWX Retain Available 2s

持久卷声明 PVC

[root@master ~]# vim pvc.yaml

---

kind: PersistentVolumeClaim

apiVersion: v1

metadata:

name: pvc1

spec: # 定义需求

volumeMode: Filesystem # 需要使用Filesystem的存储卷

accessModes:

- ReadWriteOnce # 需要支持RWO的存储卷

resources:

requests:

storage: 25Gi # 最小磁盘空间需求

---

kind: PersistentVolumeClaim

apiVersion: v1

metadata:

name: pvc2

spec: # 定义需求

volumeMode: Filesystem # 需要使用Filesystem的存储卷

accessModes:

- ReadWriteMany # 需要支持RWX的存储卷

resources:

requests:

storage: 15Gi # 最小磁盘空间需求

[root@master ~]# kubectl apply -f pvc.yaml

persistentvolumeclaim/pvc1 created

persistentvolumeclaim/pvc2 created

[root@master ~]# kubectl get persistentvolumeclaims

NAME STATUS VOLUME CAPACITY ACCESS MODES STORAGECLASS AGE

pvc1 Bound pv-local 30Gi RWO 17s

pvc2 Bound pv-nfs 20Gi RWO,ROX,RWX 17s

 Pod 挂载 PVC

[root@master ~]# vim web1.yaml

---

kind: Pod

apiVersion: v1

metadata:

name: web1

spec:

volumes: # 卷定义

- name: logdata # 卷名称

persistentVolumeClaim: # 通过PVC引用存储资源

claimName: pvc1 # PVC名称

- name: website # 卷名称

persistentVolumeClaim: # 通过PVC引用存储资源

claimName: pvc2 # 卷名称

containers:

- name: nginx

image: myos:nginx

volumeMounts: # mount 卷

- name: logdata # 卷名称

mountPath: /usr/local/nginx/logs # 容器内路径

- name: website # 卷名称

mountPath: /usr/local/nginx/html # 容器内路径

2. 临时卷

2.1 configMap 

提供了向Pod注入配置数据的方法,允许你将配置文件与镜像分离,使容器化的应用具有可移植性在使用之前就要创建好,不是用来保存数据的,其保存的数据不可超过1MiB 配置环境变量,修改配置文件的参数,数据库地址等

[root@master ~]# vim timezone.yaml

---

kind: ConfigMap

apiVersion: v1

metadata:

name: timezone

data:

TZ: Asia/Shanghai

[root@master ~]# kubectl apply -f timezone.yaml

configmap/timezone created

[root@master ~]# kubectl get configmaps

NAME DATA AGE

kube-root-ca.crt 1 9d

timezone 1 9s

tz 1 3m57s

[root@master ~]# vim web1.yaml

---

kind: Pod

apiVersion: v1

metadata:

name: web1

spec:

volumes: # 卷定义

- name: logdata # 卷名称

persistentVolumeClaim: # 通过PVC引用存储资源

claimName: pvc1 # PVC名称

- name: website # 卷名称

persistentVolumeClaim: # 通过PVC引用存储资源

claimName: pvc2 # 卷名称

containers:

- name: nginx

image: myos:nginx

envFrom: # 配置环境变量

- configMapRef: # 调用资源对象

name: timezone # 资源对象名称

volumeMounts: # mount 卷

- name: logdata # 卷名称

mountPath: /usr/local/nginx/logs # 容器内路径

- name: website # 卷名称

mountPath: /usr/local/nginx/html # 容器内路径

[root@master ~]# kubectl delete pods web1

pod "web1" deleted

[root@master ~]# kubectl apply -f web1.yaml

pod/web1 created

[root@master ~]# kubectl exec -it web1 -- date +%T

17:25:37

2.2 secret

类似于ConfigMap,专门用于保存机密数据,因为是加密的一般用于:

配置一些需要加密的环境变量或文件(如 https 证书)访问需要认证登录的私有镜像仓库(如 harbor 私有仓库)

通用类型

kubectl createsecret generic 名称 [选项/参数]

用于认证登录私有仓库的子类型

kubectl create secret docker-registry 名称 [选项/参数]

用于创建TLS证书的子类型

kubectl create secret tls 名称 [选项/参数]

 配置登录密钥

root@master ~]# kubectl create secret docker-registry harbor-auth --docker server=harbor:443 --docker-username="admin" --docker-password="admin123"code>

secret/harbor-auth created

[root@master ~]# kubectl get secrets harbor-auth -o yaml

apiVersion: v1

data:

.dockerconfigjson:

eyJhdXRocyI6eyJoYXJib3I6NDQzIjp7InVzZXJuYW1lIjoiYWRtaW4iLCJwYXNzd29yZCI6ImFkbWluM

TIzIiwiYXV0aCI6IllXUnRhVzQ2WVdSdGFXNHhNak09In19fQ== # 经过加密的数据

kind: Secret

metadata:

creationTimestamp: "2023-09-22T10:03:02Z"

name: harbor-auth

namespace: default

resourceVersion: "285856"

uid: 14112a73-d723-48a4-b172-0bff7c3ed1ea

type: kubernetes.io/dockerconfigjson

[root@master ~]# kubectl get secrets harbor-auth

NAME TYPE DATA AGE

harbor-auth kubernetes.io/dockerconfigjson 1 2m23s

认证私有仓库

[root@master ~]# vim web2.yaml

---

kind: Pod

apiVersion: v1

metadata:

name: web2

spec:

imagePullSecrets: # 引用secret数据

- name: harbor-auth # 资源对象名称

containers:

- name: apache

image: harbor:443/myimg/httpd:latest # 使用私有仓库里的镜像

[root@master ~]# kubectl apply -f web2.yaml

pod/web2 created

[root@master ~]# kubectl get pods

NAME READY STATUS RESTARTS AGE

web1 2/2 Running 0 46m

web2 1/1 Running 0 5s

2.3 emptyDir

本质是一个空目录可以提供临时空间,同一个Pod中的容器也可以来共享数据随着Pod创建而创建,Pod在该节点上运行期间,一直存在,当Pod被节点删除时,临时卷中的数据也会被永久删除重启Pod不会造成emptyDir数据的丢失

临时空间

[root@master ~]# vim web2.yaml

---

kind: Pod

apiVersion: v1

metadata:

name: web2

spec:

imagePullSecrets:

- name: harbor-auth

volumes: # 卷配置

- name: cache # 卷名称,在容器内引用

emptyDir: {} # 资源类型

containers:

- name: apache

image: harbor:443/myimg/httpd:latest

volumeMounts: # 挂载卷

- name: cache # 卷名称

mountPath: /var/cache # 路径如果不存在,就创建出来,如果存在,就覆盖

[root@master ~]# kubectl apply -f web2.yaml

pod/web2 created

[root@master ~]# kubectl get pods

NAME READY STATUS RESTARTS AGE

web1 2/2 Running 0 58m

web2 1/1 Running 0 8s

[root@master ~]# kubectl exec -it web2 -- bash

[root@web2 html]# mount | grep cache

/dev/sda1 on /var/cache type ext4 (rw,relatime)



声明

本文内容仅代表作者观点,或转载于其他网站,本站不以此文作为商业用途
如有涉及侵权,请联系本站进行删除
转载本站原创文章,请注明来源及作者。