jenkins流水线+k8s部署springcloud微服务架构项目
NEIL_XU_ 2024-09-19 14:07:03 阅读 98
文章目录
1.k8s安装2.jenkins安装3.k8s重要知识1.简介2.核心概念3.重要命令1.查看集群消息2.命名空间3.资源创建/更新4.资源查看5.描述某个资源的详细信息6.资源编辑7.资源删除8.资源重启9.查看资源日志10.资源标签
4.k8s控制台1.登录2.界面基本操作1.选择命名空间2.查看命名空间下的资源(Pods,Deployments,Services,Replica Sets)3.Pods操作4.Deployments操作5.Service操作
5.k8s部署springcloud项目实例1.环境准备2.部署到k8s
6.结合jenkins流水线部署springcloud到k8s实例1.环境准备2.编写Pipeline流水线脚本--Jenkinsfile1.参数化构建2.流水线脚本1.完整脚本示例2.具体步骤讲述
1.k8s安装
参考: CentOS 离线环境下搭建 Kubernetes 集群 - 知乎 (zhihu.com)
相关文件下载:
链接: https://pan.baidu.com/s/1bzyafpopc-PinhSFTGryHw?pwd=xm3s 提取码: xm3s
2.jenkins安装
可参考我之前的博客:
centos7系统使用docker-compose安装部署jenkins_centos jenkins-CSDN博客
3.k8s重要知识
参考:
计算机 容器 k8s 容器和k8s_mob64ca14133dc6的技术博客_51CTO博客
图解 K8s 核心概念和术语 - 后端进阶 - 博客园 (cnblogs.com)
K8S系列一:概念入门 - 知乎 (zhihu.com)
1.简介
k8s全称Kubernetes,源于希腊语“κυβερνήτης”,意为“舵手”或“飞行员”。借助容器container的另一英文释义“集装箱”,k8s可想象为一艘航行在海面上的轮船,把装载的大量集装箱(容器)送到该去的地方,管理并发挥它们的最大效力。
k8s是比容器更上一层的架构,作为一个编排和管理容器的工具,它主要具备以下三大核心能力:自动调度、自动修复、水平自动伸缩。
自动调度
k8s可以把用户提交的容器放到k8s集群的任意一个节点,但运行过程中k8s会根据容器大小、规格,各节点的负载程度等实际情况来决定容器应该放到哪一个节点上。
自动修复
k8s有一个健康检查机制,会监测集群中所有的宿主机,当它发现其中有问题,比如某一个服务器挂了,它可以自动将这个服务器上的服务调度到另外一台主机上进行运行,无需人工干涉。
水平自动伸缩
k8s还具备业务负载检查的能力,会监测业务上所承担的负载,当达到预期设定的负载指标后,就会根据指标自动触发动态扩容或缩容行为。
2.核心概念
节点
上图是一个典型的k8s架构图
Master节点
Master 节点也称为控制节点,每个 k8s 集群都有一个 Master 节点负责整个集群的管理控制,我们上面介绍的 k8s 三大能力都是经过 Master 节点发起的,Master 节点包含了以下几个组件:
API Server:提供了 HTTP Rest 接口的服务进程,所有资源对象的增、删、改、查等操作的唯一入口;Controller Manager:k8s 集群所有资源对象的自动化控制中心;Scheduler:k8s 集群所有资源对象自动化调度控制中心;ETCD:k8s 集群注册服务发现中心,可以保存 k8s 集群中所有资源对象的数据。
Node节点
Node 节点的作用是承接 Master 分配的工作负载,节点可以是一个虚拟机或者物理机器,取决于所在的集群配置,它主要有以下几个关键组件:
kubelet:负责 Pod 对应容器的创建、启停等操作,与 Master 节点紧密协作;kube-porxy:实现 k8s 集群通信与负载均衡的组件。
从图上可看出,在 Node 节点上面,还需要一个容器运行环境,如果使用 Docker 技术栈,则还需要在 Node 节点上面安装 Docker Engine,专门负责该节点容器管理工作。
Pods:
K8s中最小的部署单元,一个Pod可以包含一个或多个紧密相关的容器。
组成pod的所有容器都运行在同一台机器上,不能跨多个节点拆分。
如上是Pod的结构图,从结构图可以看出,它其实是容器的一个上层包装结构,这也就是为什么 K8s 可以支持多种容器类型的原因。
Pod 可包含多个容器在里面,每个 Pod 至少会有一个 Pause 容器,其它用户定义的容器都共享该 Pause 容器,Pause 容器的主要作用是用于定义 Pod 的 ip 和 volume。
Pods在k8s集群中的位置如下图所示:
Deployment
Deployment的作用是管理和控制Pod和ReplicaSet,管控它们运行在用户期望的状态中。哎,打个形象的比喻,Deployment就是包工头,主要负责监督底下的工人Pod干活,确保每时每刻有用户要求数量的Pod在工作。如果一旦发现某个工人Pod不行了,就赶紧新拉一个Pod过来替换它。
ReplicaSet 的目的是维护一组在任何时候都处于运行状态的 Pod 副本的稳定集合。 因此,它通常用来保证给定数量的、完全相同的 Pod 的可用性。
ReplicaSet的作用就是管理和控制Pod,管控他们好好干活。但是,ReplicaSet受控于Deployment。形象来说,ReplicaSet就是总包工头手下的小包工头。
Service
Kubernetes 中 Service 是 将运行在一个或一组 Pod 上的网络应用程序公开为网络服务的方法。
Service定义了Pod的逻辑集合和访问该集合的策略,是真实服务的抽象。Service提供了一个统一的服务访问入口以及服务代理和发现机制,关联多个相同Label的Pod,用户不需要了解后台Pod是如何运行。类似于网关的作用。
Labels
标签 Label 在 k8s 中是一个非常核心的概念,我们可以将 Label 指定到对应的资源对象中,例如 Node、Pod、Deployment、Replica Set、Service 等,一个资源可以绑定任意个 Label,k8s 通过 Label 可实现多维度的资源分组管理,后续可通过 Label Selector 查询和筛选拥有某些 Label 的资源对象,例如创建一个 Pod,给定一个 Label,workerid=123,后续可通过 workerid=123 删除拥有该标签的 Pod 资源。
Node
Node是Pod真正运行的主机,可以物理机,也可以是虚拟机。为了管理Pod,每个Node节点上至少要运行container runtime(比如docker或者rkt)、kubelet和kube-proxy服务。
Namespace
Namespace 顾名思义是命名空间的意思,在 k8s 中主要用于实现资源隔离的目的,用户可根据不同项目创建不同的 Namespace,通过 k8s 将资源分配到不同 Namespace 中,即可实现不同项目的资源隔离
3.重要命令
参考:k8s常用命令大全-持续更新中(欢迎补充)-CSDN博客
k8s基本操作命令-CSDN博客
1.查看集群消息
<code>kubectl cluster-info
这里的<code>cluster-endpoint是master主机ip,由于配置了/etc/hosts
文件,如下图,所以可以用配置的域名代替
2.命名空间
查看命名空间
<code>kubectl get namespace
#缩写
kubectl get ns
查看命名空间的所有资源
<code>kubectl get all [-n default]
-n:指定命名空间,默认default
创建命名空间
<code>kubectl create ns [名称]
删除命名空间
kubectl delete namespace [名称]
3.资源创建/更新
用于创建新资源。如果再次运行该命令,则会抛出错误;要求yaml文件的内容是完整的。
kubectl create -f 文件名
用于创建或更新一个资源,如果该资源不存在,则会创建;如果该资源已存在,则会对其进行更新;根据配置文件里面列出来的内容,升级现有的。所以yaml文件的内容可以只写需要升级的属性
kubectl apply -f 文件名
4.资源查看
kubectl get [资源类型] [资源名] [选项]
kubectl get all # 查看所有的资源信息
kubectl get ns # 获取名称空间
kubectl get cs # 获取集群健康状态(组件的状态)
kubectl get pods --all-namespaces # 查看所有名称空间所有的pod
kubectl get pods -A # -A是--all-namespaces的简写哇
events:查看集群中的所有日志信息
-o wide : 显示资源详细信息,包括节点、地址…
-o yaml/json: 将当前资源对象输出至 yaml/json 格式文件
–show-labels: 查看当前资源对象的标签
-l key=value: 基于标签进行筛选查找
-A: 查看所有名称空间下的POD
-n 名字空间: 查看该名字下的资源集合
–show-labels: 查看某一资源的标签
-all-namespaces: 查看所有名字空间下的资源
5.描述某个资源的详细信息
<code>kubectl describe [资源类型] [资源前缀] [选项]
-f: 文件名、目录或文件 URL 的列表,包含要描述的资源。
-n:命名空间
6.资源编辑
效果类似于kubectl apply -f [文件名],修改后会实时生效
<code>kubectl edit (RESOURCE/NAME | -f FILENAME)
7.资源删除
通过文件名、标准输入、源名称或标签选择器来删除资源。
<code>kubectl delete [资源类型] [资源名] [选项]
-f:文件名
–all:删除该资源类型下所有资源
kubectl delete pod <pod-name> --grace-period=0 --force
#--grace-period=0 参数表示立即删除 Pod,而不是等待一段时间。
#--force 参数表示强制删除 Pod,即使 Pod 处于未知状态。
8.资源重启
kubectl rollout restart [选项] [资源类型] [资源名]
例如对default命名空间下的名为spmp-camunda的deployment 进行滚动升级(保证一定数量的资源正常运行的同时,先起新的资源,再挂旧的资源的方式逐渐替换原资源)
kubectl rollout restart -n default deployment spmp-camunda
9.查看资源日志
kubectl logs [选项] [pod名] [容器名]
10.资源标签
给资源打标签
<code>kubectl label [资源类型] [资源名] <label-key>=<label-value>
举例,给名为node1
的节点添加一个disktype=ssd
的标签:
kubectl label nodes node1 disktype=ssd
如果要更新标签,可以添加--overwrite
标志。例如:
kubectl label nodes node1 disktype=ssd --overwrite
查看资源标签
kubectl get [资源类型] [资源名] --show-labels
如
kubectl get nodes --show-labels
kubectl get node node1 --show-labels
查看带有特定标签的所有节点
kubectl get nodes -l <label-key>=<label-value>
4.k8s控制台
1.登录
访问地址是:IP+端口
端口:
kubectl edit svc kubernetes-dashboard -n kubernetes-dashboard
这里就是上面的端口
注意:从K8S的1.19版本开始,已经取消了使用basic-auth-file参数进行用户名密码登录。在1.19之前,可以通过设置来进行用户名密码登录,而且账号和密码必须都是admin。见:https://github.com/kubernetes/kubernetes/pull/89069
本次使用的k8s版本是<code>1.26.9,这里我们进入到控制台,可以看到只有两种登录认证方式,一种是token,一种是由Kubeconfig文件
(但这两种我试了都会过期,第二种稍微久一些)
token登录
创建用户,绑定角色,设置永久token 参考:
K8S系列(二)——安装k8s-dashboard图形化集群管理界面 - 标配的小号 - 博客园 (cnblogs.com)
两种方法修改k8s dashboard token认证的过期时间_kubectl -n kubernetes-dashboard create token 有效期-CSDN博客
创建token(修改参数为自己的):
kubectl create token webui-cluster-admin -n kubernetes-dashboard
Kubeconfig登录
<code>vim /root/.kube/config
在最后补上刚刚上面生成的token,注意缩进
然后把这个文件复制出来,后面就可以使用这个文件进行登录
2.界面基本操作
1.选择命名空间
左上角下拉框选择
2.查看命名空间下的资源(Pods,Deployments,Services,Replica Sets)
如下图,点击左边菜单即可查看
3.Pods操作
进入终端窗口,相当于<code>kubectl exec -it <pod> bash
还有其他操作,查看日志、修改配置(实时生效)、删除等
4.Deployments操作
修改目标副本数量,如下图所示
重启(滚动更新)
其他操作
同上
5.Service操作
同上
5.k8s部署springcloud项目实例
1.环境准备
服务器:1台master节点服务器(简称主机),1台node节点服务器(简称从机)。两台机子均安装了docker、k8s,组成了k8s集群
springcloud项目中一个测试用的后端服务------这里名为 spmp-camunda
原先spmp-camunda服务已经实现了docker部署,如下是Dockerfile文件
<code># 基础镜像
#FROM openjdk:8-jre
FROM williamyeh/java8:latest
MAINTAINER znak
ENV LANG=zh_CN.UTF8
ENV LC_ALL=zh_CN.UTF8
ENV PARAMS=""code>
ENV TZ=PRC
#RUN ln -snf /usr/share/zoneinfo/$TZ /etc/localtime && echo $TZ > /etc/timezone
RUN /bin/cp /usr/share/zoneinfo/Asia/Shanghai /etc/localtime && echo 'Asia/Shanghai' >/etc/timezone
#ADD target/xxl-job-admin-*.jar /app.jar
VOLUME /opt/app
ADD ffmpeg/ffmpeg-git-amd64-static.tar /opt/app
ADD ffmpeg/ffmpeg_deploy.sh /opt/app
#
RUN chmod +x /opt/app/ffmpeg_deploy.sh
# FFmpeg部署脚本执行
RUN sh /opt/app/ffmpeg_deploy.sh
# 验证FFmpeg安装
RUN ffmpeg -version
#ARG profileActive=dev
#ENV profileActive ${profileActive}
ENTRYPOINT ["java", "-Xms1800M","-Xmx4096M","-Xmn256M","-Xss256K","-Duser.timezone=GMT+8", "-Dfile.encoding=UTF-8", "-Dsun.jnu.encoding=UTF-8", "-Djava.security.egd=file:/dev/./urandom", "-jar", "/opt/app/app.jar"]
主要注意
这是将容器内的<code>/opt/app作为容器卷,这里是该项目的jar包存放的目录,也就是说,后续我们使用docker run
启动挂载 /opt/app
后(如下),以后更新jar包只需要替换宿主机对应目录的jar包,docker restart
即可
docker run -d --restart always --network=host --name spmp-camunda -m 1024m -v /data/spmp/spmp-camunda:/opt/app -v /etc/hosts:/etc/hosts -d csms-dev:1.2
springcloud的其他组件,如nacos、gateway也都已经集成
2.部署到k8s
在主机准备两个文件,deployment.yaml和service.yaml(名字可以自定义),分别用于创建deployment资源和service资源
deployment.yaml
apiVersion: apps/v1 # 指定api版本,此值必须在kubectl api-versions中。业务场景一般首选”apps/v1“
kind: Deployment # 资源的类型
metadata: # 资源的元数据/属性
name: spmp-camunda # 资源的名字,在同一个namespace中必须唯一
namespace: default # 部署在哪个namespace中。不指定时默认为default命名空间
labels: # 自定义资源的标签
app: spmp-camunda
spec: # 资源规范字段,定义deployment资源需要的参数属性,诸如是否在容器失败时重新启动容器的属性
# 声明副本数目
replicas: 1
selector:# 标签选择器
matchLabels:# 匹配标签,需与上面的标签定义的app保持一致
app: spmp-camunda
template: # 定义业务模板,如果有多个副本,所有副本的属性会按照模板的相关配置进行匹配
metadata: # 资源的元数据/属性
labels: # 自定义资源的标签
app: spmp-camunda
spec: # 资源规范字段
containers: # Pod中容器列表
- name: spmp-camunda # 容器的名字
image: csms-dev:1.2 # 容器使用的镜像地址,这里由于是直接本机镜像,所以直接用 名字:tag
ports: # 需要暴露的端口库号列表
# 容器开放对外的端口
- containerPort: 20414
volumeMounts: # 挂载到容器内部的存储卷配置
- name: app-volume # 引用pod定义的共享存储卷的名称,需用下面volumes[]部分定义的的卷名
mountPath: /opt/app # 存储卷在容器内mount的绝对路径
- name: hosts-volume
mountPath: /etc/hosts
resources: # 资源管理。资源限制和请求的设置
limits: # 资源限制的设置,最大使用
memory: "1024Mi" # 内存,1G = 1024Mi。将用于docker run --memory参数
volumes: # 在该pod上定义共享存储卷列表
- name: app-volume # 共享存储卷名称
hostPath: # 类型为hostPath的存储卷,表示挂载Pod所在宿主机的目录
path: /data/spmp/spmp-camunda # Pod所在宿主机的目录,将被用于同期中mount的目录
- name: hosts-volume
hostPath:
path: /etc/hosts
restartPolicy: Always # Pod的重启策略。[Always | OnFailure | Nerver]
# Always :在任何情况下,只要容器不在运行状态,就自动重启容器。默认
# OnFailure :只在容器异常时才自动容器容器。
# 对于包含多个容器的pod,只有它里面所有的容器都进入异常状态后,pod才会进入Failed状态
# Nerver :从来不重启容器
nodeSelector: # 节点选择器,也可换成affinity亲和性调试,具体的网上查资料即可
kubernetes.io/hostname: k8s-node2 # 标签key: 标签value,这里用节点名标签选择到了从机服务器,即会将这个deployment部署到从机这台机子
部署好deployment后,要将其作为一个服务暴露给外界访问,则还需要继续部署service
service.yaml
apiVersion: v1 # 指定api版本,此值必须在kubectl api-versions中
kind: Service # 资源的类型
metadata: # 资源的元数据/属性
name: spmp-camunda-service # 资源的名字,在同一个namespace中必须唯一
spec: # 资源规范字段
selector: # 选择器。选择具有指定label标签的pod作为管理范围
app: spmp-camunda
ports:
# 服务监听的端口号
- port: 20414
# 容器暴露的端口
targetPort: 20414
protocol: TCP # 端口协议,支持TCP或UDP,默认TCP
# 当type=NodePort时,指定映射到物理机的端口号
nodePort: 30010
type: NodePort # service的类型,指定service的访问方式,默认ClusterIP。
# ClusterIP类型:虚拟的服务ip地址,用于k8s集群内部的pod访问,在Node上kube-porxy通过设置的iptables规则进行转发
# NodePort类型:使用宿主机端口,能够访问各个Node的外部客户端通过Node的IP和端口就能访问服务器
# LoadBalancer类型:使用外部负载均衡器完成到服务器的负载分发,需要在spec.status.loadBalancer字段指定外部负载均衡服务器的IP,并同时定义nodePort和clusterIP用于公有云环境。
注:
port和nodePort都是service的端口,前者暴露给k8s集群内部服务访问,后者暴露给k8s集群外部流量访问。从上两个端口过来的数据都需要经过反向代理kube-proxy,流入后端pod的targetPort上,最后到达pod内的容器。NodePort类型的service可供外部集群访问是因为service监听了宿主机上的端口,即监听了(所有节点)nodePort,该端口的请求会发送给service,service再经由负载均衡转发给Endpoints的节点。
这里service的type使用的是NodePort
,整体下来也就是deployment部署到一个机子,然后service也部署到同台机子,访问时候直接访问这台机子的ip+nodePort
即可
如果是一个后端项目部署多个节点(集群)的模式,目前暂时的方案是,继续在其他机子也部署deployment和service,最后负载均衡再利用nginx配置一个统一域名转发多个机子来实现。如网上找到的相关图片:
部署命令
<code>kubectl apply -f deployment.yaml #创建或更新deployment
kubectl apply -f service.yaml #创建或更新service
kubectl rollout restart -n default deployment spmp-camunda #如果是更新jar包,则需要再走一步滚动更新,不然如果deployment.yaml没修改不会重新启动pods
6.结合jenkins流水线部署springcloud到k8s实例
1.环境准备
安装jenkins流水线相关插件(jenkins这里是安装在从机),如下图
新建 spmp-camunda 项目的构建任务,之前的博客centos7系统使用docker-compose安装部署jenkins_centos jenkins-CSDN博客 里讲了怎么建自由风格的构建任务,这次换成流水线,如下图
最终效果:
2.编写Pipeline流水线脚本–Jenkinsfile
1.参数化构建
这里先是需要加几个参数,构建时候用到,如下图
2.流水线脚本
1.完整脚本示例
<code>pipeline{ -- -->
agent any
environment {
CHAT_WEBHOOK_URL = "https://qyapi.weixin.qq.com/cgi-bin/webhook/send?key=XXXXXXXXXXXXXXXXXXXXXX"
}
tools {
jdk 'JDK17'
maven 'maven'
}
parameters {
choice(name: 'Status', choices: ['deploy', 'rollback'], description: '参数是部署deploy、回滚rollback')
string(name: 'Version', defaultValue: '0', description: '版本号,部署时忽略,回滚时输入回滚的版本号,默认回滚上一次')
string(name: 'AppName', defaultValue: 'spmp-camunda', description: '项目名称,如spmp-camunda')
}
stages{
stage('拉取代码') {
steps {
git branch: 'develop', credentialsId: '4c877bb0-772d-4dbb-b1be-d881abfd8f3e', url: 'http://192.168.100.53:9080/micro-business/spmp-camunda.git'
echo '拉取代码完成!'
}
}
stage('maven打包') {
steps {
script {
withMaven(maven: 'maven', mavenSettingsConfig: 'a30d5ce5-2427-4a42-b2b3-b53fe423a4c1') {
sh 'mvn clean install -Dmaven.test.skip=true -DprofileActive=test -Ptest'
}
}
echo 'maven打包成功!'
}
}
stage('备份文件') {
when {
expression { params.Status == 'deploy' }
}
steps {
script {
def status = params.Status
def buildNumber = env.BUILD_NUMBER
def workspace = env.WORKSPACE
def Path = "$workspace/spmp-camunda-web/bak/$buildNumber"
echo "${ Path}"
sh """
echo \"Status:${ status}\"
echo \"BUILD_NUMBER:${ buildNumber}\"
echo \"WORKSPACE:${ workspace}\"
path="${ workspace}/spmp-camunda-web/bak/${ buildNumber}"code>
if [ -d \$path ]; then
echo \"The files already exist\"
else
mkdir -p \$path
echo \"The files mkdir\"
fi
cp -f ${ -- -->workspace}/spmp-camunda-web/target/*.jar \$path
echo 'bak ------------ Completing!'
"""
echo '备份文件成功!'
}
}
}
stage('回滚文件') {
when {
expression { params.Status == 'rollback' }
}
steps {
script {
def status = params.Status
def version = params.Version.toInteger()
def buildNumber = env.BUILD_NUMBER
def workspace = env.WORKSPACE
sh """
echo \"Status:${ status}\"
echo \"Version:${ version}\"
echo \"BUILD_NUMBER:${ buildNumber}\"
echo \"WORKSPACE:${ workspace}\"
v="${ version}"code>
number="${ buildNumber}"code>
if [ \$v -eq 0 ]; then
v=\$((\$number - 2))
fi
echo \"回滚到版本--v:\$v\"
cd ${ workspace}/spmp-camunda-web/bak/\$v
cp -f *.jar ${ workspace}/spmp-camunda-web/target/
"""
}
echo '回滚文件成功!'
}
}
stage('更新jar包') {
steps {
script {
def appName = params.AppName
def workspace = env.WORKSPACE
def JAR_HOME = sh(script: "cd ${ workspace}/${ appName}-web/target && pwd", returnStdout: true).trim()
def WEB_HOME = sh(script: "cd /data/spmp/${ appName}/origin && pwd", returnStdout: true).trim()
sh """
echo \"AppName:${ appName}\"
echo \"WORKSPACE:${ workspace}\"
echo \"JAR_HOME:${ JAR_HOME}\"
echo \"WEB_HOME:${ WEB_HOME}\"
cd ${ JAR_HOME}
cp -f ${ appName}-web-test.jar ${ WEB_HOME}
cd /data/spmp/${ appName}
sh rln.sh
"""
}
script {
def appName = params.AppName
echo "停止原docker容器${ appName}"
sh "docker stop ${ appName}"
}
echo '更新jar包成功!'
}
}
stage('复制部署脚本,替换参数; 发送到k8s主节点') {
steps {
script {
def appName = params.AppName
def port = params.Port
def replicas = params.Replicas
def nodeName = params.NodeName
def nodePort = params.NodePort
def YML_HOME = "/data/spmp"
def CP_YML_HOME = "/data/spmp/${ appName}"
sh """
echo \"AppName:${ appName}\"
echo \"Port:${ port}\"
echo \"Replicas:${ replicas}\"
echo \"NodeName:${ nodeName}\"
echo \"NodePort:${ nodePort}\"
echo \"YML_HOME:${ YML_HOME}\"
echo \"CP_YML_HOME:${ CP_YML_HOME}\"
cd ${ YML_HOME}
cp -f deployment.yaml ${ CP_YML_HOME}
cp -f service.yaml ${ CP_YML_HOME}
cd ${ CP_YML_HOME}
sed -i 's/\${port}/${ port}/g' deployment.yaml
sed -i 's/\${replicas}/${ replicas}/g' deployment.yaml
sed -i 's/\${app_name}/${ appName}/g' deployment.yaml
sed -i 's/\${node_name}/${ nodeName}/g' deployment.yaml
sed -i 's/\${port}/${ port}/g' service.yaml
sed -i 's/\${nodePort}/${ nodePort}/g' service.yaml
sed -i 's/\${app_name}/${ appName}/g' service.yaml
"""
echo '复制部署脚本,替换参数成功!'
sh """
cd ${ CP_YML_HOME}
scp deployment.yaml root@192.168.100.51:/data/spmp/${ appName}/
scp service.yaml root@192.168.100.51:/data/spmp/${ appName}/
"""
echo '发送部署脚本到k8s主节点成功!'
}
}
}
stage('部署到k8s(在主节点操作)') {
steps {
script {
def appName = params.AppName
sh """
ssh root@192.168.100.51 << remotessh
echo \"AppName:${ appName}\"
cd /data/spmp/${ appName}
pwd
kubectl apply -f deployment.yaml
kubectl apply -f service.yaml
kubectl rollout restart -n default deployment ${ appName}
exit
"""
echo '部署到k8s成功!'
}
}
}
stage('删除历史备份文件') {
steps {
script {
def reservedNum = 10
def rmFileDir = "${ WORKSPACE}/spmp-camunda-web/bak"
def rootDir = sh(script: "cd ${ rmFileDir} && pwd", returnStdout: true).trim()
def fileNum = sh(script: "cd ${ rmFileDir} && ls -l | grep '^d' | wc -l", returnStdout: true).trim().toInteger()
while (fileNum > reservedNum) {
def oldFile = sh(script: "cd ${ rmFileDir} && ls -rt | head -1", returnStdout: true).trim()
sh "cd ${ rmFileDir} && rm -rf ${ oldFile}"
fileNum--
}
}
echo '删除历史备份文件!'
}
}
}
post {
success{
script {
def appName = params.AppName
def changeString = getChangeString()
def BUILD_TRIGGER_BY = "${ currentBuild.getBuildCauses()[0].shortDescription} / ${ currentBuild.getBuildCauses()[0].userId}"
sh """
curl "${ CHAT_WEBHOOK_URL}" \
-H "Content-Type: application/json" \
-d '
{
"msgtype": "markdown",
"markdown": {
"content": "<font color=#FFA500>**Jenkins任务构建结果通知**</font>
>任务名称:<font color=#696969>'"${ JOB_NAME}"'</font>
>构建版本:<font color=#696969>'"${ BUILD_DISPLAY_NAME}"'</font>
>构建人:<font color=#696969>'"${ BUILD_TRIGGER_BY}"'</font>
>任务地址:[点击访问(需登录)]('"${ JOB_URL}"')
>构建详情:[点击访问(需登录)]('"${ BUILD_URL}"')
>提交记录:<font color=#696969>'"${ changeString}"'</font>
>构建状态:<font color=#008000>**Success**</font>
>jar包下载:[点击下载(需登录)]('"${ BUILD_URL}artifact/com/znak/spmp/camunda/environment/${ appName}-web/1.0.0/${ appName}-web-1.0.0.jar"')"
}
}
'
"""
}
}
failure{
script {
def changeString = getChangeString()
def BUILD_TRIGGER_BY = "${ currentBuild.getBuildCauses()[0].shortDescription} / ${ currentBuild.getBuildCauses()[0].userId}"
sh """
curl "${ CHAT_WEBHOOK_URL}" \
-H "Content-Type: application/json" \
-d '
{
"msgtype": "markdown",
"markdown": {
"content": "<font color=#FFA500>**Jenkins任务构建结果通知**</font>
>任务名称:<font color=#696969>'"${ JOB_NAME}"'</font>
>构建版本:<font color=#696969>'"${ BUILD_DISPLAY_NAME}"'</font>
>构建人:<font color=#696969>'"${ BUILD_TRIGGER_BY}"'</font>
>任务地址:[点击访问(需登录)]('"${ JOB_URL}"')
>构建详情:[点击访问(需登录)]('"${ BUILD_URL}"')
>提交记录:<font color=#696969>'"${ changeString}"'</font>
>构建状态:<font color=#FF0000>**Failure**</font>"
}
}
'
"""
}
}
}
}
@NonCPS
def getChangeString() {
MAX_MSG_LEN = 100
def changeString = ""
echo "Gathering SCM changes"
def changeLogSets = currentBuild.changeSets
for (int i = 0; i < changeLogSets.size(); i++) {
def entries = changeLogSets[i].items
for (int j = 0; j < entries.length; j++) {
def entry = entries[j]
truncated_msg = entry.msg.take(MAX_MSG_LEN)
changeString += " - ${ truncated_msg}\n"
}
}
if (!changeString) {
changeString = " - No new changes"
}
return changeString
}
2.具体步骤讲述
这里主要讲k8s相关部分以及集成企微群消息部分
复制部署脚本,替换参数; 发送到k8s主节点
这一步前置原因是由于为了把deployment.yaml和service.yaml做成不同项目都可使用的模板,修改成了如下的样子(并放在从机 /data/spmp
目录下):
deployment.yaml
apiVersion: apps/v1
kind: Deployment
metadata:
name: ${ app_name}
namespace: default
labels:
app: ${ app_name}
spec:
replicas: ${ replicas}
selector:
matchLabels:
app: ${ app_name}
template:
metadata:
labels:
app: ${ app_name}
spec:
containers:
- name: ${ app_name}
image: csms-dev:1.2
ports:
- containerPort: ${ port}
volumeMounts:
- name: app-volume
mountPath: /opt/app
- name: hosts-volume
mountPath: /etc/hosts
resources:
limits:
memory: "1024Mi"
volumes:
- name: app-volume
hostPath:
path: /data/spmp/${ app_name}
- name: hosts-volume
hostPath:
path: /etc/hosts
restartPolicy: Always
nodeSelector:
kubernetes.io/hostname: ${ node_name}
service.yaml
apiVersion: v1
kind: Service
metadata:
name: ${ app_name}-service
spec:
selector:
app: ${ app_name}
ports:
- port: ${ port}
targetPort: ${ port}
protocol: TCP
nodePort: ${ nodePort}
type: NodePort
流水线脚本对应步骤
stage('复制部署脚本,替换参数; 发送到k8s主节点') {
steps {
script {
def appName = params.AppName
def port = params.Port
def replicas = params.Replicas
def nodeName = params.NodeName
def nodePort = params.NodePort
def YML_HOME = "/data/spmp"
def CP_YML_HOME = "/data/spmp/${ appName}"
sh """
echo \"AppName:${ appName}\"
echo \"Port:${ port}\"
echo \"Replicas:${ replicas}\"
echo \"NodeName:${ nodeName}\"
echo \"NodePort:${ nodePort}\"
echo \"YML_HOME:${ YML_HOME}\"
echo \"CP_YML_HOME:${ CP_YML_HOME}\"
cd ${ YML_HOME}
cp -f deployment.yaml ${ CP_YML_HOME}
cp -f service.yaml ${ CP_YML_HOME}
cd ${ CP_YML_HOME}
sed -i 's/\${port}/${ port}/g' deployment.yaml
sed -i 's/\${replicas}/${ replicas}/g' deployment.yaml
sed -i 's/\${app_name}/${ appName}/g' deployment.yaml
sed -i 's/\${node_name}/${ nodeName}/g' deployment.yaml
sed -i 's/\${port}/${ port}/g' service.yaml
sed -i 's/\${nodePort}/${ nodePort}/g' service.yaml
sed -i 's/\${app_name}/${ appName}/g' service.yaml
"""
echo '复制部署脚本,替换参数成功!'
sh """
cd ${ CP_YML_HOME}
scp deployment.yaml root@192.168.100.51:/data/spmp/${ appName}/
scp service.yaml root@192.168.100.51:/data/spmp/${ appName}/
"""
echo '发送部署脚本到k8s主节点成功!'
}
}
}
注意点:
params.[参数名]
可以获取前面配置的参数化构建里的参数;env.[参数名]
则可以获取jenkins的环境变量(这里应该直接${}也能直接获取)sh 单行用 ''
单引号包裹,多行用两个'''
三单引号包裹;如果sh里还要引用参数如前面定义的def参数,或者jenkins环境变量,则单行用""
双引号,多行用三个"""
双引号包裹。注意如果是双引号包裹的,"
和$
符号会被转义,当只是想要用字面值的时候,要在前面加上\
反斜杠去除默认转义这里传输到远程,本来是可以用jenkins自带的SSH Publishers
功能的,但是流水线这里我配置了一直说连接超时,所以后面改成了scp的方式传输了,然后需要注意scp的方式要先在主机(远程传输的目标)上配置好从机的rsa公钥,即免密登录,不然走到这里要进入输入密码的步骤,就执行不下去了
部署到k8s(在主节点操作)
流水线脚本对应步骤
stage('部署到k8s(在主节点操作)') {
steps {
script {
def appName = params.AppName
sh """
ssh root@192.168.100.51 << remotessh
echo \"AppName:${ appName}\"
cd /data/spmp/${ appName}
pwd
kubectl apply -f deployment.yaml
kubectl apply -f service.yaml
kubectl rollout restart -n default deployment ${ appName}
exit
"""
echo '部署到k8s成功!'
}
}
}
注意点:
这里用免密ssh到主机执行命令的方式部署项目到k8s,没有用SSH Publishers
的原因同上,部署的命令解释见前面的5.2.
集成企微群消息
流水线脚本对应步骤
environment {
CHAT_WEBHOOK_URL = "https://qyapi.weixin.qq.com/cgi-bin/webhook/send?key=XXXXXXXXXXXXXXXXXXXXXX"
}
post {
success{
script {
def appName = params.AppName
def changeString = getChangeString()
def BUILD_TRIGGER_BY = "${ currentBuild.getBuildCauses()[0].shortDescription} / ${ currentBuild.getBuildCauses()[0].userId}"
sh """
curl "${ CHAT_WEBHOOK_URL}" \
-H "Content-Type: application/json" \
-d '
{
"msgtype": "markdown",
"markdown": {
"content": "<font color=#FFA500>**Jenkins任务构建结果通知**</font>
>任务名称:<font color=#696969>'"${ JOB_NAME}"'</font>
>构建版本:<font color=#696969>'"${ BUILD_DISPLAY_NAME}"'</font>
>构建人:<font color=#696969>'"${ BUILD_TRIGGER_BY}"'</font>
>任务地址:[点击访问(需登录)]('"${ JOB_URL}"')
>构建详情:[点击访问(需登录)]('"${ BUILD_URL}"')
>提交记录:<font color=#696969>'"${ changeString}"'</font>
>构建状态:<font color=#008000>**Success**</font>
>jar包下载:[点击下载(需登录)]('"${ BUILD_URL}artifact/com/znak/spmp/camunda/environment/${ appName}-web/1.0.0/${ appName}-web-1.0.0.jar"')"
}
}
'
"""
}
}
failure{
script {
def changeString = getChangeString()
def BUILD_TRIGGER_BY = "${ currentBuild.getBuildCauses()[0].shortDescription} / ${ currentBuild.getBuildCauses()[0].userId}"
sh """
curl "${ CHAT_WEBHOOK_URL}" \
-H "Content-Type: application/json" \
-d '
{
"msgtype": "markdown",
"markdown": {
"content": "<font color=#FFA500>**Jenkins任务构建结果通知**</font>
>任务名称:<font color=#696969>'"${ JOB_NAME}"'</font>
>构建版本:<font color=#696969>'"${ BUILD_DISPLAY_NAME}"'</font>
>构建人:<font color=#696969>'"${ BUILD_TRIGGER_BY}"'</font>
>任务地址:[点击访问(需登录)]('"${ JOB_URL}"')
>构建详情:[点击访问(需登录)]('"${ BUILD_URL}"')
>提交记录:<font color=#696969>'"${ changeString}"'</font>
>构建状态:<font color=#FF0000>**Failure**</font>"
}
}
'
"""
}
}
}
}
@NonCPS
def getChangeString() {
MAX_MSG_LEN = 100
def changeString = ""
echo "Gathering SCM changes"
def changeLogSets = currentBuild.changeSets
for (int i = 0; i < changeLogSets.size(); i++) {
def entries = changeLogSets[i].items
for (int j = 0; j < entries.length; j++) {
def entry = entries[j]
truncated_msg = entry.msg.take(MAX_MSG_LEN)
changeString += " - ${ truncated_msg}\n"
}
}
if (!changeString) {
changeString = " - No new changes"
}
return changeString
}
注意点:
需要先安装jenkins插件[Qy Wechat Notification Plugin]
然后在需要接收jenkins构建消息的企业微信群里创建一个机器人,保存好他的Webhook
地址
脚本里的<code>CHAT_WEBHOOK_URL就是配置的这个webhook地址
getChangeString()
方法是获取本次jenkins构建的修改内容(git提交记录),就是下图的内容
这部分脚本配置参考:【Jenkins】Jenkins构建结果通知企业微信_jenkins发送到企微的结果配置-CSDN博客
上一篇: job for docker.service failed because the control process exited with error code.报错解决
下一篇: 【网络】传输层协议——TCP协议(初阶)
本文标签
声明
本文内容仅代表作者观点,或转载于其他网站,本站不以此文作为商业用途
如有涉及侵权,请联系本站进行删除
转载本站原创文章,请注明来源及作者。