基于Kubernetes的持续部署方案

#方案概述 本技术方案为基于Kubernetes为核心的持续部署(下文简称CD)方案,可以满足开发方的程序级日志查看分析,运维方的快速扩容与日常运维分析,并且可以保证用户的服务体验。并且整套放在可以在资源利用率上进一步提升,在不降低服务可靠性的前提下降低资源使用成本。 #使用场景分析 本方案适用于以Tomcat为容器的JavaWeb项目的持续部署过程,在Kubernetes方案中,所有的Node节点均采用统一配置,根据业务环境的需求进行节点数量的控制 #技术架构与选型
01.png
* Kubernetes:一个开源的,用于管理云平台中多个主机上的容器化的应用,Kubernetes的目标是让部署容器化的应用简单并且高效,Kubernetes提供了应用部署,规划,更新,维护的一种机制。 * Nginx:一款轻量级的Web 服务器/反向代理服务器及电子邮件(IMAP/POP3)代理服务器。 * Harbor:Harbor是一个用于存储和分发Docker镜像的企业级Registry服务器,通过添加一些企业必需的功能特性,例如安全、标识和管理等,扩展了开源Docker Distribution。 * Jenkins:一个开源软件项目,是基于Java开发的一种持续集成工具,用于监控持续重复的工作,旨在提供一个开放易用的软件平台,使软件的持续集成变成可能。 * Filebeats:是一个日志文件托运工具,在你的服务器上安装客户端后,Filebeat会监控日志目录或者指定的日志文件,追踪读取这些文件(追踪文件的变化,不停的读),并且转发这些信息到Elasticsearch或者Logstarsh中存放。 * Elasticsearch:是一个基于Lucene构建的开源、分布式、RESTful接口的全文搜索引擎。 * Kibana是一个开源的分析和可视化平台,设计用于和Elasticsearch一起工作来搜索,查看,并和存储在Elasticsearch索引中的数据进行交互。 * GitLab自托管的Git项目仓库,可通过Web界面进行访问公开的或者私人项目(这里的Gitlab并不涉及到开发的CI方案,主要为运维的CD方案)。 * Weave Scope Docker和Kubernetes可视化监控工具。Scope提供了至上而下的集群基础设施和应用的完整视图,用户可以轻松对分布式的容器化应用进行实时监控和问题诊断。 #Kubernetes集群部署模式:Stacked etcd topology Kubernetes的安装使用kubeadm安装为高可用集群,并选用Stacked etcd topology 模式。
02.png
详情参考https://kubernetes.io/docs/setup/independent/high-availability/ ##Kubernetes生态技术选型:网络层面选型Weave 容器网络解决方案。Weave创建的虚拟网络可以将部署在多个主机上的容器连接起来。对容器来说,Weave就像一个巨大的以太网交换机,所有容器都被接入这个交换机,容器可以直接通信,无需 NAT 和端口映射。
03.png
原理详解:http://dockone.io/article/262 #Kubernetes生态技术选型:对外服务选型NodePort Kubernetes目前支持NodePort、LoadBanlace、Ingress三种对外提供服务的模式,其中LoadBanlace需要云平台的支持,阿里云提供了解决方案,但腾讯云未找到,Ingress技术为新出技术。整体评估采用NodePort方式更为灵活,每个服务一个唯一的对外IP地址,并且使用Nginx进行负载均衡(采用Nginx主要为日志分析)。
04.png
介绍与使用方法:https://kubernetes.io/docs/concepts/services-networking/service/#nodeport。 #持续部署过程
05.png
* Jenkins构建时,需要传入程序版本号,构建类型(发布还是删除),程序类型(测试还是正式)。 * CD的全过程由位于Jenkins上的脚本执行 * 开发部将对应版本的ROOT.war传入Jenkins指定目录 * 下拉配置(包含config,hosts,dockerfile,k8syaml等等) * 由Dockerfile生成Docker容器,并将root.war,hosts与配置文件内置入容器中 * 将Docker容器打包并推送入Registry * 通过kubectl通过k8syaml更新/生成新的服务 #各组件业务配置 ##Kubernetes业务配置 命名空间 在业务上,Kubernetes默认配置两套Namespace,分别为Master存放正式环境,Develop配置测试环境。 对外端口 正式环境Web端口以32001开始,测试环境以31001开始,且一一对应。 Master数据目录
/data
└── k8s-cd-config
└── test.gyyx.cn
    ├── develop
    │   └── v1.2.0-92-3fdd00f.yaml
    ├─develop.yaml -> /data/k8s-cd-config/test.gyyx.cn/develop/v1.2.0-92-3fdd00f.yaml
    ├── master
    │   └── v1.2.0-91-746284e.yaml
    └──master.yaml->/data/k8s-cd-config/test.gyyx.cn/master/v1.2.0-91-746284e.yaml
K8s-Master下的data目录下为k8s-cd-config, k8s-cd-config目录存放各业务的yaml配置,二级目录为域名,三级目录划分Master(正式),Develop(测试),目录下以 版本号-构建ID-GITID.yaml 命名文件,时间最后一个即为当前线上的使用配置文件,为了运维方便,在二级目录同级内,生成一个软链连接到最新的正式与测试配置文件。注意,k8s-cd-config仅在其中一台Master中存在。 Node数据目录
/data
├── filebeat
├── dockerlibs
└── nodelogs
    ├── develop
    │   ├── accesslogs
    │   │   └── test.gyyx.cn
    │   │       └── test-gyyx-cn-76d9d8d5b5-hdnql
    │   │           └── localhost_access_log.2018-12-24.txt
    │   ├── devlogs
    │   │   └── test.gyyx.cn
    │   │       └── test-gyyx-cn-76d9d8d5b5-hdnql
    │   │           └── interface.datareport.wyx.cn
    │   │               ├── error.log
    │   │               ├── info.log
    │   │               └── trace.log
    │   └── tomcatlogs
    │       └── test.gyyx.cn
    │           └── test-gyyx-cn-76d9d8d5b5-hdnql
    │               ├── catalina.2018-12-24.log
    │               ├── host-manager.2018-12-24.log
    │               ├── localhost.2018-12-24.log
    │               └── manager.2018-12-24.log
    └── master
        ├── accesslogs
        │   └── test.gyyx.cn
        │       └── test-gyyx-cn-895cc5994-sx7gk
        │           └── localhost_access_log.2018-12-24.txt
        ├── devlogs
        │   └── test.gyyx.cn
        │       └── test-gyyx-cn-895cc5994-sx7gk
        └── tomcatlogs
            └── test.gyyx.cn
                └── test-gyyx-cn-895cc5994-sx7gk
                    ├── catalina.2018-12-24.log
                    ├── host-manager.2018-12-24.log
                    ├── localhost.2018-12-24.log
                    └── manager.2018-12-24.log
节点下的/data一级目录下分Filebeat、Dockerlibs、Nodelogs,其中Dockerlibs存放Docker相关数据,Nodelogs目录通过volume的方式挂载入Kubernetes的Pod, Nodelogs下分Develop与Master目录,区分正式环境与测试环境,每个Master与Develop下分为accesslogs、devlogs、tomcatlogs分别存放访问日志,开发部日志,Tomcat日志,日志目录下为项目(域名),域名下为Pod名称目录。 注意事项: 节点加入集群后,一定要下载手工下载kubernetes-dashboard-amd64镜像,防止dashboard所在节点挂掉以后dashboard无法在其他节点启动。 ##Harbor业务配置 业务分组 Harbor重定义其Registry的存储路径直接使用docker-compose安装。template 存放基础进项,各域名分组存放业务镜像。
06.png
镜像命名 分组下镜像以站点域名:版本号-类型-CDGITLAB为名称,并基于版本号确定不同的站点版本。
07.png
数据目录 Harbor数据目录统一存放在/data下。 备份策略 Harbor默认不设置备份,对于业务镜像无需进行备份,每次进行构建即可,对于模板类镜像,在Jenkins机器上均可以找到,若Harbor出现问题,则直接重建,并将Jenkins上的模板镜像进行重新push。 注意:为了业务的稳定性,Harbor由独立的服务运行(基于Docker),并不运行在Kubernetes内。 ##Jenkins业务配置 数据目录
.
├── dockerlibs
├── thinbackups
└── gitlab-files
│  └── gyyx.cn
│      └── test.gyyx.cn
└── jks-cd-config
    └── test.gyyx.cn
        └── v1.2.0
            ├── develop
            │   └── 101_138a37a
            │       ├── …
            │       └── v1.2.0-101-138a37a.yaml
            ├── master
            │   └── 102_4f228a7
            │       ├── …
            │       └── v1.2.0-102-4f228a7.yaml
            └── ROOT.war
Jenkins下的data目录分为dockerlibs、thinbackups、gitlab-files 、jks-cd-config。 Dockerlibs存放Docker相关文件,thinbackups存放每日的Jenkins备份,gitlab-files存放构建GitLab的文件(运维可以在此操作pull,push),jks-cd-config为jks构建目录。 Jenkins机使用/data/jks-cd-config目录存放构建内容,二级目录为域名,三级目录为版本号(以开发部版本号为准),三级目录下存放ROOT.war,四级目录为构建ID_GITID,目录下存放构建的原始数据。 节点每天进行images清理工作。 业务分组 Jenkins的分组分为template与各domain,template存放模板,domain以域名的形式存放正式项目:
08.png
新项目由运维手工创建,后续的秩序构建过程由开发部调用API完成。 构建参数 Jenkins构建时,需要传递三参数,1:程序版本号,2:类型:apply与delete,3:正式环境还是测试环境,正式环境为Master,测试环境为Develop,对应Kubernetes的Namespace。
09.png
此部分功能后期将通过开发部的构建凭条调用JenkinsAPI实现。 JenkinsAPI
curl -X POST http://jenkinsapi.com/job/域名/build \
–user admin:11b80a61d260aa41eb4a43ef0115bcbb26 \
–data-urlencode json=’{“parameter”: [{“name”:”VERSION”, “value”:”v1.2.0”}, {“name”:”TYPE”, “value”:”apply”}, {“name”:”BRANCH”, “value”:”develop”}]}’
APIDoc:https://wiki.jenkins.io/display/JENKINS/Remote+access+API Token:https://jingyan.baidu.com/article/0eb457e5dbad8003f0a9056c.html 备份策略 Jenins安装ThinBackup插件,配置每小时进行一次全局备份,且最多保留10份,备份后数据传至异地。
10.png
注意:为了业务的稳定性,Jenkins由独立的服务运行,并不运行在Kubernetes内。 ##GitLab业务配置 业务分组 CD GitLab项目下分两个组template与各domain,template存放模板文件。例如:
11.png
Git分支 default下以域名划分项目,每个项目划分Master与Develop两个分支,分别存放正式环境与测试环境CD文件。
12.png
CD文件树
├── catalina.sh              #tomcat配置文件
├── config                  #程序配置文件,此文件夹会替换掉容器内的/data/conf
│   └── hello.conf
├── deployment.yaml         #k8s deploymen配置
├── dockerfile               #docker镜像生成文件
├── hosts                   #docker镜像的hosts,此文件将合并到deployment.yaml
├── service.yaml             #k8s service配置
└── tomcat                 #tomcat配置文件
    ├── Catalina
    │   └── localhost
    ├── catalina.policy
    ├── catalina.properties
    ├── context.xml
    ├── logging.properties
    ├── server.xml
    ├── tomcat-users.xml
    └── web.xml
备份策略 GitLab使用gitlab-rake gitlab:backup:create进行每日定期备份,并传送至异地。 ##EFK与日志管理 Elasticsearch ES数据通过索引仅保留近10天的数据,每日通过脚本方式进行数据删除。ES的数据保存在/data/elasticsearch目录下。 Filebeat 在每个Node节点启动一个Filebeat进程,用于日志的采集工作,filebeat分别监控: * /data/nodelogs//accesslogs/// * /data/nodelogs//devlogs/// * /data/nodelogs//tomcatlogs/// 其中,tomcatlogs日志需要进行特殊处理,进行多行合并,数据写入ES时,使用processors. Dissect进行目录名称截取,并使用域名作为ES的索引使用。
processors:
[list]
[*]dissect:
[/*]
[/list]    tokenizer: "%{?key1}/%{?key2}/%{?key3}/%{wtype}/%{ltype}/%{domain}/%{?key7}/%{?key8}"
    field: "source"
target_prefix: "gy"
截取gy. wtype ( master或develop) , ltype(accesslogs 、tomcatlogs、devlogs),domain(xxx.gyyx.cn)。 Kibana Kibana目前我们仅使用其discover节点,用于日志数据的查询,在配置方面。 Kibana配置使用”域名-*”方式进行配置,每次新增域名,需要在此进行手工配置。
13.png
Kibana使用discover查看时,默认展示一个域名下所有的日志,可以通过gy.wtype筛选选择查看测试环境还是正式环境,或者通过gy.ltype哪种日志类型。
14.png
##容器资源监控 容器资源使用WeaveScope进行资源消耗监控。
15.png
16.png
原文链接:http://www.toryzen.cn/2018/12/30/基于kubernetes的持续部署(CD)方案/

0 个评论

要回复文章请先登录注册