基于 Docker 的高可用 Rails 集群方案探索


【编者的话】本文是暴走漫画团队关于自动化高可用集群方案的探索。主要目的是减少人工接入,实现自动化。主要是用了consul和registrator两个工具。

0x0 问题

运维从来都是一个“不起眼”的大问题。运维工作还特别琐碎,一般要花去工程师大量的时间,同时还有突发性,对工程师机动性要求比较高。所以运维自动化一直在困扰暴走漫画团队。

虽说大部分运维工作都交给第三方云服务提供商了,但是平时还是有一些机器的维护之类的,繁琐的事情。

我做的最多的应该就是加减服务器了。暴漫的流量趋势非常规律,每年寒暑假是访问的高峰期,一般会比平时流量高出2倍。所以每年寒暑假之前都要添加足量的服务器以应对马上到来的流量高峰,而在寒暑假结束之后,要去掉一部分机器,以节省开支。刚开始完全是人肉运维,我一个人先去开5台机器,然后一个个上去改配置文件之类的,感觉好傻。后面就用了ansible作为自动化运维工具,这个要比puppet和chef轻量很多,对付我们这些简单的运维工作绰绰有余。 于是现在就变成了开完机器,用ansible同步配置,代码,启动app server,然后手动更新nginx配置。

使用ansible之后其实已经轻松很多了,但是还不够,我想象中的自动化集群,应该可以随意增加删除node,node不可用的时候自动删除,当然这些都不能影响服务的访问。

下面介绍一种自动化的Rails集群方案。

0x1 相关技术



0X2 整体架构

Untitled.png

0x3 实践

由于不是科普帖,各种工具的详细信息就不自己介绍了。
consul & registrator 

这两个工具是集群中每个节点的基础服务。我在一台机器上,所以把consul cluster给省掉了,只用了一个consul节点。下面是docker-compose配置。
consul:
hostname: node1
image: progrium/consul
command: -server -bootstrap -advertise 172.17.42.1
ports:
 - "8400:8400"
 - "8500:8500"
 - "8600:53/udp"
registrator:
image: gliderlabs/registrator
command: consul://consul:8500
hostname: registrator1
volumes:
 - /var/run/docker.sock:/tmp/docker.sock
links:
 - consul 

需要注意的是consul的启动参数里的advertise。应该声明为host机器的docker0的ip。如果不声明的话会默认使用容器ip,这样registrator注册的设备ip都是不可访问的。

以上配置启动之后一套自动服务器发现功能就算完工了。

接下来,我们配置一个web应用测试一下。
web:
    image: nginx
    volumes:
         - ./sites-enabled:/etc/nginx/conf.d
    ports:
         - "80:80"
    links:
         - rails
rails:
    image: tutum/hello-world
    ports:
         - "80"

这个配置生成了nginx和rails,并且挂载了本地的sites-enabled文件夹作为nginx的配置来源。注意rails的ports是随机的。

在sites-enabled中配置nginx server已rails作为backend。
upstream backend {
}
server {
    server_name "10.0.2.15";
    location / {
            proxy_pass http://backend;
    }


对你并没有看错, upstream并没有定义可用的backend node。这个配置将会有consul-template根据服务列表自动填充。

让我们启动这个web应用,访问80端口是无法访问的 应为没有backend node。

接下来需要安装consule-template, 在github下载对应的release。

然后创建一个配置文件ct-nginx.conf
consul = "127.0.0.1:8500"
log_level = "warn"

template {
    source = "/home/vagrant/nginx.ctmpl"
    destination = "/home/vagrant/sites-enabled/backend.conf"
    command = "docker-compose -f /home/vagrant/docker-compose.yml restart web"


我有映射consul的端口,所以直接使用了127.0.0.1。source就是我们配置文件的模板。如下
upstream backend {
    {{range service "hello-world"}}
    server {{.Address}}:{{.Port}};{{end}}
}
server {
    server_name "10.0.2.15";
    location / {
            proxy_pass http://backend;
    }


consul-template提供了方便的模板查询语句,可以直接从consul中查询并渲染出配置文件。这个模板中就找出了所有名字为“hello-world”的service,并且循环输出service对应的Address,也就是服务ip,Port。

接着看ct-nginx.conf,destination代表模板生成完毕之后的位置, 这里直接放在nginx的配置文件夹,最后command是生成配置后的动作,可以重启各种服务。我们这里在更新nginx之后重启生效。

OK,配置已经妥当,consul和registrator也已经启动, 让我们看看当前的服务列表。
$ curl localhost:8500/v1/catalog/service/hello-world?pretty
$ []

当前并没有注册名为hello_world的服务。

稍微提一下registrator注册服务的命名机制,registaor默认是通过提取容器各种参数来生成的的服务参数
比如
docker run -d --name nginx.0 -p 4443:443 -p 8000:80 progrium/nginx

生成的服务信息如下
[
{
    "ID": "hostname:nginx.0:443",
    "Name": "nginx-443",
    "Port": 4443,
    "IP": "192.168.1.102",
    "Tags": [],
    "Attrs": {},
},
{
    "ID": "hostname:nginx.0:80",
    "Name": "nginx-80",
    "Port": 8000,
    "IP": "192.168.1.102",
    "Tags": [],
    "Attrs": {}
}
]

当然也可以通过环境变量来指定
$ docker run -d --name nginx.0 -p 4443:443 -p 8000:80 \
           -e "SERVICE_443_NAME=https" \
           -e "SERVICE_443_ID=https.12345" \
           -e "SERVICE_443_SNI=enabled" \
           -e "SERVICE_80_NAME=http" \
           -e "SERVICE_TAGS=www" progrium/nginx

[
{
    "ID": "https.12345",
    "Name": "https",
    "Port": 4443,
    "IP": "192.168.1.102",
    "Tags": ["www"],
    "Attrs": {"sni": "enabled"},
},
{
    "ID": "hostname:nginx.0:80",
    "Name": "http",
    "Port": 8000,
    "IP": "192.168.1.102",
    "Tags": ["www"],
    "Attrs": {}
}
]

接下来我们启动consul-template
$ consul-template -config=./ct-nginx.conf

会直接根据模板生成一个nginx配置 虽然现在并没有backend node。
$ cat /home/vagrant/sites-enabled/backend.conf
upstream backend {
}
server {
    server_name "10.0.2.15";
    location / {
            proxy_pass http://backend;
    }


然后启动我们的web应用。
启动之后,请求服务列表就可以看到helle-world服务,说明已经实现自动服务发现。
$ curl localhost:8500/v1/catalog/service/hello-world?pretty
[
{
    "Node": "node1",
    "Address": "172.17.42.1",
    "ServiceID": "registrator1:vagrant_rails_1:80",
    "ServiceName": "hello-world",
    "ServiceTags": null,
    "ServiceAddress": "",
    "ServicePort": 32783
}


浏览器中可以正常访问了,Yeah!
Hello_world_.png

OK, 让我们更进一步,scale我们的rails node。
$ docker-compose scale rails=4

$ curl localhost:8500/v1/catalog/service/hello-world?pretty
[
{
    "Node": "node1",
    "Address": "172.17.42.1",
    "ServiceID": "registrator1:vagrant_rails_1:80",
    "ServiceName": "hello-world",
    "ServiceTags": null,
    "ServiceAddress": "",
    "ServicePort": 32783
},
{
    "Node": "node1",
    "Address": "172.17.42.1",
    "ServiceID": "registrator1:vagrant_rails_2:80",
    "ServiceName": "hello-world",
    "ServiceTags": null,
    "ServiceAddress": "",
    "ServicePort": 32784
},
{
    "Node": "node1",
    "Address": "172.17.42.1",
    "ServiceID": "registrator1:vagrant_rails_3:80",
    "ServiceName": "hello-world",
    "ServiceTags": null,
    "ServiceAddress": "",
    "ServicePort": 32785
},
{
    "Node": "node1",
    "Address": "172.17.42.1",
    "ServiceID": "registrator1:vagrant_rails_4:80",
    "ServiceName": "hello-world",
    "ServiceTags": null,
    "ServiceAddress": "",
    "ServicePort": 32786
}


此时nginx已经重启,可以看到4个backend都开始处理请求。
2015-07-26-03_47_23.gif

可以看到,rails服务器只要启动之后就自动加入集群,如果一台节点挂掉之后,会自动从集群里去掉,基本上没有任何影响。

肯定有不足的地方,欢迎讨论, 发出来就是为了学习。

原帖地址

1 个评论

好玩 好玩

要回复文章请先登录注册