博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
【09】循序渐进学 docker:docker swarm
阅读量:4618 次
发布时间:2019-06-09

本文共 10006 字,大约阅读时间需要 33 分钟。

写在前面的话

 

至此,docker 的基础知识已经了解的差不多了,接下来就来谈谈对于 docker 容器,我们如何来管理它。

 

 

docker swarm

 

在学习 docker swarm 之前,得先知道容器编排工具的作用:提供了基于容器调度和集群的技术,并编排容器之间如何进行交互。

docker swarm 不是唯一的容器编排工具,但却是 docker 自带的容器编排工具。

可以看看它的主要结构(图片来自互联网):

docker swarm 以集群的形式运行,包括两个角色:Manager 和 worker。

Manager 是 swarm 的集群的核心,所以一般会有多个,而且建议是奇数个,避免出现脑裂的情况。

多个 Manager 之间通过 Raft 协议进行信息同步。

Worker 就是干活的节点,节点之间通过 GOSS 网络进行信息同步。

Service 和 Replicas:每一个应用就是一个 Service,而每一次该应用的运行就是 Replicas。

 

 

创建 docker swarm

 

准备 3 台虚拟机:

IP 主机名 说明
192.168.100.100 docker-node1 Manager
192.168.100.101 docker-node2 Worker
192.168.100.102 docker-node3 Worker

初始化 Manager 节点并将两个 Worker 节点加入:

node1 执行:

docker swarm init --advertise-addr=192.168.100.100

结果如图:

复制红色部分到另外两个节点执行!

 

node2 和 node3 执行:

docker swarm join --token SWMTKN-1-4423bymu0axfzp7cr1df6jjq36d5errbhetzlg3zz722lzt2j5-4nopnics4j267mh1gidf8z7nm 192.168.100.100:2377

结果如图:

 

在 node1 节点上查看 Swarm 信息:

docker node ls

结果如图:

类似相关集群的命令在 Worker 节点上执行一般都会报错:

This node is not a swarm manager

 

常见错误:

1. 初始化或者加错了节点想退出:

docker swarm leave --force

 

2. node2 和 node3 加入 swarm 时候报错:

Error response from daemon: error while validating Root CA Certificate: x509: certificate has expired or is not yet valid

这种问题一般是几台服务器的时间不一致,同步下时间一般就好了:

yum -y install ntpntpdate -u ntp.api.bz

 

3. node2 和 node3 加入 swam 很久没反应,报错: 

connect: no route to host

这种问题一般是防火墙原因,关闭服务器的防火墙即可:

systemctl stop firewalld.servicesystemctl disable firewalld.service

 

 

操作 docker swarm 

 

在 docker swarm 中,命令都是基于 service 运行,而且所有服务都是运行在 Manager 节点。

【1】创建运行容器:

docker service create --name demo busybox sh -c "while true;do sleep 300; done"

 

【2】查看运行信息:

docker service ls

结果如图:

 

【3】查看该容器运行在哪个节点:

docker service ps demo

结果如图:

通过 create 时候的名字查找,但这个名字并不是容器名字。

 

【4】将容器运行多个节点:

docker service scale demo=3

查看:

docker service ps demo

结果如图:

可以看到,3个容器被平均分配到了各个节点。

 

【5】删除容器:

docker container rm -f a98aad768cb9

先随便删除一个容器,再查看,结果如图:

可以发现,容器在短时间内会少掉一个节点,但是随即再度恢复成 3 个节点。

docker service ps demo

查看详细信息,结果如图:

可以看到一个被 Shutdown 的容器。值得注意的是,这个容器并不存在了已经。

 

【6】删除整个 Service:

docker service rm demo

结果如图,啥都不剩:

 

 

实战 - docker swarm 部署 wordpress

 

注意:在做这个实战之前,最好将 3 个节点的 docker 都重启一下,确保每个节点都存在:docker_gwbridge 和 ingress 网络。

 

【1】在 Manager 节点创建 overlay 网络和 MySQL:

network create -d overlay demo

结果如图:

该创建只存在于 Manager 节点。

docker service create --name mysql --env MYSQL_ROOT_PASSWORD=123456 --env MYSQL_DATABASE=wordpress --network demo --mount type=volume,source=mysql_data,destination=/var/lib/mysql mysql:5.7

和直接 docker run 有着明显的不同,-e 参数变成了 --env,-v 参数变成了 --mount。

查看创建结果:

docker service ls docker service ps mysql

结果如图:

 

【2】创建 wordpress:

docker service create --name wordpress -p 8888:80 --network demo --env WORDPRESS_DB_PASSWORD=123456 --env WORDPRESS_DB_HOST=mysql wordpress

查看结果:

 

【3】访问测试:

这里使用 Manager 节点的 IP 进行访问的,你也可以使用 Worker 节点的 IP 访问,三个 IP 都是没问题的。基于这一点,就可以实现很多骚操作。

同样,可以启动多个节点:

docker service scale wordpress=3

结果如图:

 

 

Routing Mesh

 

为啥同一 overlay 网络中的多个容器之间能够互相通信,切访问的时候每个 IP 都能访问?

这就是 Routing Mesh,其主要的两种体现:Internal 和 Ingress。

 

Internal:容器与容器之间访问通过 overlay 网络

【1】通过创建两个容器进行测试,分别是 busybox 和 jwilder/whoami:

# 创建测试 overlay 网络docker network create -d overlay ov-demo1# 创建两个容器docker service create --name busybox --network ov-demo1 busybox sh -c "while true;do sleep 3000;done"docker service create --name whoami --network ov-demo1 -p 8000:8000 -d jwilder/whoami# 将 whoami 创建成多个节点docker service scale whoami=3

 

 

【2】进入 busybox 测试:

docker exec -it 1e68d97b6cda sh

结果如图:

记住上面这个 IP。然后去查看几个 whoami 容器的 IP,都不是这个 IP。

那这个 IP 是啥?

学过 LVS 的就知道有个东西叫做 VIP,也就是虚拟 IP,而这里的原理就是 LVS 实现,而这个 IP 就是 VIP,所有才会有访问哪个 IP 都行的结果,而且负载均衡

 

Ingress: 如果服务有绑定端口,则可以通过任意节点的这个端口访问。

原理在于:当访问指定端口的时候,请求被 gwbridge 转发带 ingress-sbox 的 namespace 中,然后让 LVS 调度给了任意一台机器。

 

 

docker swarm 中的 docker-compose.yml

 

上面学习的 docker swarm 虽然很爽,但是还是没有摆脱手动写很长的命令的束缚。所以有了接下来的专门用于 docker swarm 的 docker-compose.yml。

具体可以参照官方文档:

https://docs.docker.com/compose/compose-file/

这里以部署 wordpress 为例的 docker-compose.yml:

version: '3'services:  web:    image: wordpress    ports:      - 8888:80    environment:      WORDPRESS_DB_HOST: db      WORDPRESS_DB_PASSWORD: 123456    networks:      - ov-test    depends_on:      - db    deploy:      mode: replicated      replicas: 3      restart_policy:        condition: on-failure        delay: 5s        max_attempts: 3      update_config:        parallelism: 2        delay: 10s  db:    image: mysql:5.7    environment:      MYSQL_ROOT_PASSWORD: 123456      MYSQL_DATABASE: wordpress    volumes:      - mysql_test_data:/var/lib/mysql    networks:      - ov-test    deploy:      mode: global      placement:        constraints:          - node.role == managervolumes:  mysql_test_data:networks:  ov-test:    driver: overlay

相比于之前 docker-comse 时写的文件,这里主要多了 deploy 项,具体可以根据官方文档学习。

 

删除掉之前建立的所有容器,运行该配置文件,启动服务:

docker stack deploy wordpess --compose-file=docker-compose.yml

结果如图:

可以发现,在 docker swarm 中管理 docker compose 服务,不是使用 docker service 命令,而是换成了 docker stack 命令进行管理。

查看容器的相关信息:

# 查看 docker  stack 运行情况docker stack ls# 查看运行状态docker stack services wordpess# 也可以用 service 查看docker service ls# 查看更详细的信息docker stack ps wordpess

 

结果如图:

访问测试:

 

删除服务:

docker stack rm wordpess

 

 

 

实战 - docker swarm 中的复杂项目实战

 

这是一个投票系统,工作原理如下图:

 

 

 

docker-compose 文件:

version: '3'services:        redis:        image: redis:alpine        ports:            - "6379"        networks:            - frontend        deploy:            replicas: 2            update_config:                parallelism: 2                delay: 10s            restart_policy:                condition: on-failure        db:        image: postgres:9.4        volumes:            - db-data:/var/lib/postgresql/data        networks:            - backend        deploy:            placement:                constraints: [node.role == manager]                vote:        image: dockersamples/exampleenvotingapp_vote:before        ports:            - 5000:80        networks:            - frontend        depends_on:            - redis        deploy:            replicas: 2            update_config:                parallelism: 2            restart_policy:                condition: on-failure        result:        image: dockersamples/exampleenvotingapp_result:before        ports:             - 5001:80        networks:            - backend        depends_on:            - db        deploy:            replicas: 1            update_config:                parallelism: 2                delay: 10s            restart_policy:                condition: on-failure        worker:        image: dockersamples/exampleenvotingapp_worker        networks:            - frontend            - backend        labels: [APP=VOTING]        deploy:            placement:                constraints: [node.role == manager]            restart_policy:                condition: on-failure                delay: 10s                max_attempts: 3                    visualizer:        image: dockersamples/visualizer:stable        ports:             - 8080:8080        stop_grace_period: 1m30s        volumes:            - "/var/run/docker.sock:/var/run/docker.sock"        deploy:            placement:                constraints: [node.role == manager]networks:    frontend:    backend:    volumes:    db-data:

 

由于这个项目会去下载几个镜像,特别慢,有兴趣的可以自己尝试一下。

 

 

docker 中的密码管理

 

在实际生产中,很多时候数据库的密码不适合直接以明文的形式写出来,比如写在 docker-compose.yml 文件中,所以这就需要对密码进行处理。

对于 docker 中的密码,有两点需要明确:

1. 密码存在 Manager 节点的 Raft database 中,能够同步到其它节点。

2. Secert 在容器内部是以文件的形式保存的。

 

【1】创建 secert:

方法 1:从文件创建,创建一个 passwd 的文件,内容是密码:admin123

# 创建密码docker secret create pass-demo passwd# 查看docker secret ls

 

结果如图:

 

方法 2:从用户输入创建:

echo "admin123" | docker secret create pass-demo1 -

注意最后的 - 符号,结果如图:

 

【2】删除密码:

docker secret rm pass-demo1

 

【3】给创建的容器指定密码:

docker service create --name demo --secret pass-demo busybox sh -c "while true;do sleep 300;done"

找到容器的节点,进入容器查看密码:

docker exec -it e80ae4cfdf15 sh

结果如图:

 

【4】如何使用这个文件,以 MySQL 为例:

docker service create --name mysql --secret pass-demo -e MYSQL_ROOT_PASSWORD_FILE=/run/secrets/pass-demo -d mysql

MySQL 镜像有个环境变量是可以指定密码文件的,但是这个特性是 MySQL 8 才具有的。结果如图:

 

【5】如何在 docker-compose.yml 中使用:

version: '3.7'services:    web:    image: wordpress    ports:      - 8888:80    secrets:      - my-password    environment:      WORDPRESS_DB_HOST: mysql      WORDPRESS_DB_PASSWORD_FILE: /run/secrets/my-password    networks:      - demo    depends_on:      - mysql    deploy:      mode: replicated      replicas: 3      restart_policy:        condition: on-failure        delay: 5s        max_attempts: 3      update_config:        parallelism: 2        delay: 10s  mysql:    image: mysql:5.7    secrets:      - my-password    environment:      MYSQL_ROOT_PASSWORD_FILE: /run/secret/my-password      MYSQL_DATABASE: wordpress    volumes:      - mysql-data:/var/lib/mysql    networks:      - demo    deploy:      mode: global      placement:        constraints:          - node.role == managervolumes:  mysql-data:networks:  demo:    driver: overlaysecrets:  my-password:    file: ./password

有几个地方值得注意:

1. 配置密码的时候指定的是文件。

2. 多了一个顶层配置,secerts 

3. docker-compose.yml 版本是当前最新的,否则可能不支持该语法。

 

 

服务更新

 

服务搭建起来了,那如何在不停止服务的情况下灰度更新它?docker swarm 提供了自己方法。

这里以 Flask 项目为例:

【1】在三个节点的新建目录,app.py 和 Dockerfil:

mkdir docker-updatecd docker-update

app.py:

from flask import Flaskapp = Flask(__name__)@app.route('/')def hello():    return "Hello Flask version 1.0\n"if __name__=="__main__":    app.run(host="0.0.0.0", port=5000)

Dockerfile:

FROM python:2.7COPY app.py /app/RUN pip install flaskWORKDIR /app/EXPOSE 5000CMD ["python", "app.py"]

 

【2】将 3 个节点构建成镜像:

docker build -t dylan/flask-test:v1.0 .

 

【3】将 3 个节点 app.py 里面的 1.0 换成 2.0,重新构建镜像:

docker build -t dylan/flask-test:v2.0 .

 

【4】部署 1.0 版本:

docker service create --name flask --publish 9999:5000 --network demo dylan/flask-test:v1.0

 

【5】找到对应的节点访问测试:

sh -c "while true;do curl 127.0.0.1:9999&&sleep 1;done"

结果如图:

 

【6】在线升级:

# 扩展节点docker service scale flask=3# 更新 docker service update --image dylan/flask-test:v2.0 flask

结果如图:

再看看访问的效果:

可以看出在升级过程中,有段时间是双版本并行的,更新完成后都是新的了。这就实现了业务的不中断。

写到这里,docker swarm 的知识差不多了,如果想更深入的学习,可以自己再去研究。

 

 

小结

 

docker swarm 给我们打开了容器编排的大门,但是最终目标还是 K8S,如果感兴趣,可以关注后面的 K8S 内容。

转载于:https://www.cnblogs.com/Dy1an/p/10731069.html

你可能感兴趣的文章
安装oracle11G,10G时都会出现:注册ocx时出现OLE初始化错误或ocx装载错误对话框
查看>>
生产环境下正则的应用实例(一)
查看>>
在CentOS7命令行模式下安装虚拟机
查看>>
Arduino可穿戴开发入门教程Arduino开发环境介绍
查看>>
Windows平台flex+gcc词法分析实验工具包
查看>>
3.Python基础 序列sequence
查看>>
Chapter 4 Syntax Analysis
查看>>
vi/vim使用
查看>>
讨论Spring整合Mybatis时一级缓存失效得问题
查看>>
Maven私服配置Setting和Pom文件
查看>>
Linux搭建Nexus3.X构建maven私服
查看>>
Notepad++使用NppFTP插件编辑linux上的文件
查看>>
NPOI 操作Excel
查看>>
MySql【Error笔记】
查看>>
vue入门
查看>>
JS线程Web worker
查看>>
Flex的动画效果与变换!(三)(完)
查看>>
mysql常见错误码
查看>>
Openresty 与 Tengine
查看>>
使用XV-11激光雷达做hector_slam
查看>>