在CaaS环境下部署ELK stack的实践经验总结


【编者的话】当我准备把应用推送到灵雀云之前,我首先考虑的是除了应用之外我还需要部署什么样的服务来达到生产环境的标准。

第一次接触CaaS这个概念,第一次接触灵雀云的时候,我并没有像很多人一样马上推送一个应用以体验docker所带来的快感。因为我从不怀疑docker的出现所解决环境依赖性问题,提高了产品部署速度。我也从不怀疑灵雀云作为一个CaaS共有云平台对容易的管理,调度,运行的能力。这就是Docker以及CaaS平台出现带来的优势,一分钟之前我还刚把代码提交到github,一分钟之后我提交的代码已经在生产环境上线。可能是因为我长期和一个十分严谨又追求完美的英国团队,特别是英国运维团队合作的背景,在审视任何一个新东西的时候我都会先去尝试发现它与production ready之间到底有多少距离。所以当我准备把应用推送到灵雀云之前,我首先考虑的是除了应用之外我还需要部署什么样的服务来达到生产环境的标准。

第一点考虑到的是log的处理。我想我不需要花太多篇幅解释log的重要性,大家应该都有体会。Docker作为一个短暂存在(ephemeral)的运行环境,数据的持久化是一个要解决的问题。CaaS平台不会像IaaS那样给你vm的登录管理权限,所以你不能想把docker容器运行在物理主机或者虚拟主机上那样通过将存储卷映射到主机上或者链接一个数据容器(data-only container)来保存log数据。灵雀云平台提供了存储卷的功能,可以将log数据存放在一个稳定的云存储平台(从链接看是AWS S3)并提供下载。当时当你管理上百个甚至上千个容器的时候,这种方式也会给你带来很大的工作量。综合以上原因,我决定在灵雀云上搭建一个ELK stack。(E - Elasticsearch, L - Logstash, K - Kibana)

我没有使用网上现有的ELK image,原因有三:
1. 深度CentOS依赖者
2. 体验一下灵雀云提供的代码仓库集成的功能
3. 将容器镜像存储在灵雀云镜像仓库可以提高服务启动速度

代码可以在github找到https://github.com/darkheaven1983/elk

以下是如何在灵雀云上部署ELK stack的具体步骤:
1. 关联github代码仓库与灵雀云构建系统,指明Dockerfile在github的路径,并创建一个构建
github.JPG

2. git push代码到github触发灵雀云构建docker镜像
build.JPG

镜像build成功之后会出现在个人镜像参仓库里面
image.JPG

3. 通过灵雀云CLI提供的compose功能一键部署ELK stack。Alauda支持的compose在docker compose yaml文件的基础之上做了一些针对自己平台的改动。
compose.JPG

以下是elk-alauda.yml的内容
elasticsearch:
extends:
file: ./docker-compose.yml
service: elasticsearch
expose:
- "9200"
volumes:
- /var/lib/elasticsearch:10
kibana:
extends:
file: ./docker-compose.yml
service: kibana
ports:
- "5601/http"
links:
- elasticsearch:elasticsearch
logstash:
extends:
file: ./docker-compose.yml
service: logstash
ports:
- "5000"
links:
- elasticsearch:elasticsearch 

extends:关联docker compose yaml文件当中对此容器的配置。
expose:指定一个只有Alauda内部才能访问的端口,我将elsaticsearch的9200端口声明为内部端口保证了数据的安全性,避免将9200端口暴露在公网上。
volumes:创建一个存储卷,确保数据的持久化 - 可以通过alauda CLI中backup功能定期保存存储卷,并且从某一个指定的存储卷恢复数据。
ports:指定一个公网可访问的端口,此端口可以为load balance之后的http端口(80),也可以是load balance之后的TCP端口(随机)。
links:容器之间的连接 - 通过Alauda提供的服务发现功能链接多个容器是容器间可以互相访问。

至此,ELK stack在alauda平台的搭建已经结束。由于本实验只是一个PoC的功能,所以logstash的输入是tcp,欢迎大家加入更加复杂的logstash配置。

测试结果:
nc logstash-darkheaven.myalauda.cn 62316 < /var/log/yum.log
kibana.JPG

5 个评论

elasticsearch的datanode数据是靠外挂一个卷来落地的?
是的,云雀提供存储卷挂载,数据是存在S3上的。
你确定?挂载卷放在S3上的?
你创建一个备份,然后点下载,链接是链到S3的
我当运行时在S3呢

要回复文章请先登录注册