7、docker 集群

docker集群

  • 1、docker file
    • 参数设置
  • 2、docker compose
    • Compose和Docker兼容性
    • 常用参数
    • Docker-compose.yml配置文件
    • Docker-compose命令大全
    • compose常用调试命令
    • compose文件格式示例
    • 应用
      • python flask-redis
      • cpu和gpu配置
  • 附件参考:

1、docker file

参考:https://iphysresearch.github.io/blog/post/programing/docker-tutorial/#9-%E5%AE%B9%E5%99%A8%E6%96%87%E4%BB%B6
官方文档:https://docs.docker.com/get-started/02_our_app/

# 该 image 文件继承我自己的 gwave image,冒号表示标签,这里标签是2.0.0,即2.0.0版本的 gwave。
FROM iphysreserch/gwave:2.0.0# 将当前目录下的所有文件(除了.dockerignore排除的路径),都拷贝进入 image 文件里微系统的/waveform目录
COPY . /waveform# 指定接下来的工作路径为/waveform (也就是微系统的 pwd)
WORKDIR /waveform# 定义一个微系统里的环境变量
ENV VERSION=2.0.0	# optional# 将容器 3000 端口暴露出来, 允许外部连接这个端口
EXPOSE 3000			# optional# 在/waveform目录下,运行以下命令更新系统程序包。注意,安装后所有的依赖都将打包进入 image 文件
RUN apt-get update && apt-get upgrade	# optional# 将我这个 image 做成一个 app 可执行程序,容器启动后自动执行下面指令
ENTRYPOINT ["bash", "setup.sh"]

可以在项目的根目录下创建一个 .dockerignore 文件夹,表示可排除的文件,类似 .gitignore。

也可将 ENTRYPOINT 换做 CMD ,都是容器启动后自动执行指令,简单区别就是 ENTRYPOINT 可以在本地启动容器时加额外的shell参数。另外,一个 Dockerfile 可以包含多个RUN命令,但是只能有一个CMD 或者 ENTRYPOINT 命令。

CMD bash setup.sh

假如说你用了 ENTRYPOINT 来构造镜像,但是启动它的容器时候想要用带有参数(如 )的指令,那怎么办呢?参考此博文就可以知道,可以利用 --entrypoint 参数来覆盖并运行容器:

docker run --entrypoint <command> <image>:<tag> <arg1> <arg2>

另外,DEBIAN_FRONTEND 这个环境变量很有用,可以告诉操作系统应该从哪里获得用户输入。请确保只在 Dockerfile 中调用的 RUN 命令中设置 了该选项,而不是使用 ENV 命令进行全局的设置。因为 ENV 命令在整个容器运行过程中都会生效, 所 以当你通过 BASH 和容器进行交互时,如果进行了全局设置那就会出问题。
要注意的是,正确的做法:只为这个命令设置 ENV 变量:

RUN DEBIAN_FRONTEND=noninteractive apt-get install -y python3

再比如:

FROM ubuntu:trusty
RUN \DEBIAN_FRONTEND=noninteractive apt update && \DEBIAN_FRONTEND=noninteractive apt clean

构建:

docker build  -t ImageName:TagName dir

选项
-t - 是为图像添加一个标签

ImageName - 这是您要为图像指定的名称。

TagName - 这是您要为图像添加的标签。

Dir - Docker 文件所在的目录。

用例:python web app
https://hasura.io/blog/how-to-write-dockerfiles-for-python-web-apps-6d173842ae1d
docker官方:https://docs.docker.com/get-started/02_our_app/

python 应用程序的源代码将位于该src文件夹中。它还包含requirements.txt文件中的应用程序依赖项。为了简洁起见,我们假设 server.py 定义了一个在端口 8080 上运行的 Flask 服务器。
仓库地址:git clone https://github.com/praveenweb/python-docker.git
python-app
├── Dockerfile
└── src└── server.py└── requirements.txt
1. 简单的 Dockerfile 示例
#
FROM python:3.6# Create app directory
WORKDIR /app# Install app dependencies
COPY src/requirements.txt ./RUN pip install -r requirements.txt# Bundle app source
COPY src /appEXPOSE 8080
CMD [ "python", "server.py" ]
view raw1-python-simple.Dockerfile hosted with ❤ by GitHub
对于基础镜像,我们使用了最新版本python:3.6在镜像构建过程中,docker 会获取context目录中的所有文件。要提高 docker 构建的性能,请通过将 .dockerignore文件添加到上下文目录来排除文件和目录。通常,您的 .dockerignore文件应该是:.git
__pycache__
*.pyc
*.pyo
*.pyd
.Python
env
构建并运行此图像:
指定文件docker build -t python-docker-dev -f 1-python-simple.Dockerfile .
$ cd python-docker
$ docker build -t python-docker-dev .
$ docker run --rm -it -p 8080:8080 python-docker-dev
该应用程序将于 发布http://localhost:8080。用于Ctrl+C退出。现在假设您希望每次更改代码时都可以正常工作。即本地发展。然后将源代码文件挂载到容器中以启动和停止 python 服务器。$ docker run --rm -it -p 8080:8080 -v $(pwd):/app \python-docker-dev bash
root@id:/app# python src/server.py

参数设置

ENTRYPOINT
类似于 CMD 指令,但其不会被 docker run 的命令行参数指定的指令所覆盖,而且这些命令行参数会被当作参数送给 ENTRYPOINT 指令指定的程序。

但是, 如果运行 docker run 时使用了 --entrypoint 选项,将覆盖 ENTRYPOINT 指令指定的程序。

优点:在执行 docker run 的时候可以指定 ENTRYPOINT 运行所需的参数。

注意:如果 Dockerfile 中如果存在多个 ENTRYPOINT 指令,仅最后一个生效。

格式:

ENTRYPOINT [“”,“”,“”,…]
可以搭配 CMD 命令使用:一般是变参才会使用 CMD ,这里的 CMD 等于是在给 ENTRYPOINT 传参,以下示例会提到。

示例:

假设已通过 Dockerfile 构建了 nginx:test 镜像:

FROM nginx

ENTRYPOINT [“nginx”, “-c”] # 定参
CMD [“/etc/nginx/nginx.conf”] # 变参
1、不传参运行

$ docker run nginx:test
容器内会默认运行以下命令,启动主进程。

nginx -c /etc/nginx/nginx.conf
2、传参运行

$ docker run nginx:test -c /etc/nginx/new.conf
容器内会默认运行以下命令,启动主进程(/etc/nginx/new.conf:假设容器内已有此文件)

nginx -c /etc/nginx/new.conf

2、docker compose

参考:https://www.cnblogs.com/crazymakercircle/p/15505199.html#autoid-h3-2-0-0
Docker-Compose 将所管理的容器分为三层
工程(project):一个工程包含多个服务
服务(service):一个服务当中可包括多个容器实例
容器(container)
Docker-Compose 运行目录下的所有文件(docker-compose.yml、extends文件 或 环境变量文件等)组成一个工程,若无特殊指定 工程名即为当前目录名。Docker Compose 的核心就是其配置文件,采用 YAML 格式,默认为 docker-compose.yml 。一个工程当中可包含多个服务,每个服务中定义了容器运行的镜像、参数、依赖。一个服务当中可包括多个容器实例,但是:Docker-Compose 并没有解决负载均衡的问题,因此需要借助其它工具实现服务发现及负载均衡,比如 Consul 技术。Docker-Compose 的工程配置文件默认为 docker-compose.yml,可通过环境变量 COMPOSB_FILE 或 -f 参数自定义配置文件,其定义了多个有依赖关系的服务及每个服务运行的容器。

Compose和Docker兼容性

​ Compose 文件格式有3个版本,分别为1, 2.x 和 3.x​ 目前主流的为 3.x 其支持 docker 1.13.0 及其以上的版本

常用参数

参考:https://github.com/DragonV96/study-notes/blob/master/Linux%E8%BF%90%E7%BB%B4/docker/Docker-compose.yml%E6%96%87%E4%BB%B6%E5%8F%82%E6%95%B0%E8%AF%A6%E8%A7%A3.md#compose%E5%92%8Cdocker%E5%85%BC%E5%AE%B9%E6%80%A7

    version           # 指定 compose 文件的版本services          # 定义所有的 service 信息, services 下面的第一级别的 key 既是一个 service 的名称build                 # 指定包含构建上下文的路径, 或作为一个对象,该对象具有 context 和指定的 dockerfile 文件以及 args 参数值context               # context: 指定 Dockerfile 文件所在的路径dockerfile            # dockerfile: 指定 context 指定的目录下面的 Dockerfile 的名称(默认为 Dockerfile)args                  # args: Dockerfile 在 build 过程中需要的参数 (等同于 docker container build --build-arg 的作用)cache_from            # v3.2中新增的参数, 指定缓存的镜像列表 (等同于 docker container build --cache_from 的作用)labels                # v3.3中新增的参数, 设置镜像的元数据 (等同于 docker container build --labels 的作用)shm_size              # v3.5中新增的参数, 设置容器 /dev/shm 分区的大小 (等同于 docker container build --shm-size 的作用)command               # 覆盖容器启动后默认执行的命令, 支持 shell 格式和 [] 格式configs               # 不知道怎么用cgroup_parent         # 不知道怎么用container_name        # 指定容器的名称 (等同于 docker run --name 的作用)credential_spec       # 不知道怎么用deploy                # v3 版本以上, 指定与部署和运行服务相关的配置, deploy 部分是 docker stack 使用的, docker stack 依赖 docker swarmendpoint_mode         # v3.3 版本中新增的功能, 指定服务暴露的方式vip                   # Docker 为该服务分配了一个虚拟 IP(VIP), 作为客户端的访问服务的地址dnsrr                 # DNS轮询, Docker 为该服务设置 DNS 条目, 使得服务名称的 DNS 查询返回一个 IP 地址列表, 客户端直接访问其中的一个地址labels                # 指定服务的标签,这些标签仅在服务上设置mode                  # 指定 deploy 的模式global                # 每个集群节点都只有一个容器replicated            # 用户可以指定集群中容器的数量(默认)placement             # 不知道怎么用replicas              # deploy 的 mode 为 replicated 时, 指定容器副本的数量resources             # 资源限制limits                # 设置容器的资源限制cpus: "0.5"           # 设置该容器最多只能使用 50% 的 CPU memory: 50M           # 设置该容器最多只能使用 50M 的内存空间 reservations          # 设置为容器预留的系统资源(随时可用)cpus: "0.2"           # 为该容器保留 20% 的 CPUmemory: 20M           # 为该容器保留 20M 的内存空间restart_policy        # 定义容器重启策略, 用于代替 restart 参数condition             # 定义容器重启策略(接受三个参数)none                  # 不尝试重启on-failure            # 只有当容器内部应用程序出现问题才会重启any                   # 无论如何都会尝试重启(默认)delay                 # 尝试重启的间隔时间(默认为 0s)max_attempts          # 尝试重启次数(默认一直尝试重启)window                # 检查重启是否成功之前的等待时间(即如果容器启动了, 隔多少秒之后去检测容器是否正常, 默认 0s)update_config         # 用于配置滚动更新配置parallelism           # 一次性更新的容器数量delay                 # 更新一组容器之间的间隔时间failure_action        # 定义更新失败的策略continue              # 继续更新rollback              # 回滚更新pause                 # 暂停更新(默认)monitor               # 每次更新后的持续时间以监视更新是否失败(单位: ns|us|ms|s|m|h) (默认为0)max_failure_ratio     # 回滚期间容忍的失败率(默认值为0)order                 # v3.4 版本中新增的参数, 回滚期间的操作顺序stop-first            #旧任务在启动新任务之前停止(默认)start-first           #首先启动新任务, 并且正在运行的任务暂时重叠rollback_config       # v3.7 版本中新增的参数, 用于定义在 update_config 更新失败的回滚策略parallelism           # 一次回滚的容器数, 如果设置为0, 则所有容器同时回滚delay                 # 每个组回滚之间的时间间隔(默认为0)failure_action        # 定义回滚失败的策略continue              # 继续回滚pause                 # 暂停回滚monitor               # 每次回滚任务后的持续时间以监视失败(单位: ns|us|ms|s|m|h) (默认为0)max_failure_ratio     # 回滚期间容忍的失败率(默认值0)order                 # 回滚期间的操作顺序stop-first            # 旧任务在启动新任务之前停止(默认)start-first           # 首先启动新任务, 并且正在运行的任务暂时重叠注意:支持 docker-compose up 和 docker-compose run 但不支持 docker stack deploy 的子选项security_opt  container_name  devices  tmpfs  stop_signal  links    cgroup_parentnetwork_mode  external_links  restart  build  userns_mode  sysctlsdevices               # 指定设备映射列表 (等同于 docker run --device 的作用)depends_on            # 定义容器启动顺序 (此选项解决了容器之间的依赖关系, 此选项在 v3 版本中 使用 swarm 部署时将忽略该选项)示例:docker-compose up 以依赖顺序启动服务,下面例子中 redis 和 db 服务在 web 启动前启动默认情况下使用 docker-compose up web 这样的方式启动 web 服务时,也会启动 redis 和 db 两个服务,因为在配置文件中定义了依赖关系version: '3'services:web:build: .depends_on:- db      - redis  redis:image: redisdb:image: postgres                             dns                   # 设置 DNS 地址(等同于 docker run --dns 的作用)dns_search            # 设置 DNS 搜索域(等同于 docker run --dns-search 的作用)tmpfs                 # v2 版本以上, 挂载目录到容器中, 作为容器的临时文件系统(等同于 docker run --tmpfs 的作用, 在使用 swarm 部署时将忽略该选项)entrypoint            # 覆盖容器的默认 entrypoint 指令 (等同于 docker run --entrypoint 的作用)env_file              # 从指定文件中读取变量设置为容器中的环境变量, 可以是单个值或者一个文件列表, 如果多个文件中的变量重名则后面的变量覆盖前面的变量, environment 的值覆盖 env_file 的值文件格式:RACK_ENV=development environment           # 设置环境变量, environment 的值可以覆盖 env_file 的值 (等同于 docker run --env 的作用)expose                # 暴露端口, 但是不能和宿主机建立映射关系, 类似于 Dockerfile 的 EXPOSE 指令external_links        # 连接不在 docker-compose.yml 中定义的容器或者不在 compose 管理的容器(docker run 启动的容器, 在 v3 版本中使用 swarm 部署时将忽略该选项)extra_hosts           # 添加 host 记录到容器中的 /etc/hosts 中 (等同于 docker run --add-host 的作用)healthcheck           # v2.1 以上版本, 定义容器健康状态检查, 类似于 Dockerfile 的 HEALTHCHECK 指令test                  # 检查容器检查状态的命令, 该选项必须是一个字符串或者列表, 第一项必须是 NONE, CMD 或 CMD-SHELL, 如果其是一个字符串则相当于 CMD-SHELL 加该字符串NONE                  # 禁用容器的健康状态检测CMD                   # test: ["CMD", "curl", "-f", "http://localhost"]CMD-SHELL             # test: ["CMD-SHELL", "curl -f http://localhost || exit 1"] 或者 test: curl -f https://localhost || exit 1interval: 1m30s       # 每次检查之间的间隔时间timeout: 10s          # 运行命令的超时时间retries: 3            # 重试次数start_period: 40s     # v3.4 以上新增的选项, 定义容器启动时间间隔disable: true         # true 或 false, 表示是否禁用健康状态检测和 test: NONE 相同image                 # 指定 docker 镜像, 可以是远程仓库镜像、本地镜像init                  # v3.7 中新增的参数, true 或 false 表示是否在容器中运行一个 init, 它接收信号并传递给进程isolation             # 隔离容器技术, 在 Linux 中仅支持 default 值labels                # 使用 Docker 标签将元数据添加到容器, 与 Dockerfile 中的 LABELS 类似links                 # 链接到其它服务中的容器, 该选项是 docker 历史遗留的选项, 目前已被用户自定义网络名称空间取代, 最终有可能被废弃 (在使用 swarm 部署时将忽略该选项)logging               # 设置容器日志服务driver                # 指定日志记录驱动程序, 默认 json-file (等同于 docker run --log-driver 的作用)options               # 指定日志的相关参数 (等同于 docker run --log-opt 的作用)max-size              # 设置单个日志文件的大小, 当到达这个值后会进行日志滚动操作max-file              # 日志文件保留的数量network_mode          # 指定网络模式 (等同于 docker run --net 的作用, 在使用 swarm 部署时将忽略该选项,主机模式如 network_mode: "host" )         networks              # 将容器加入指定网络 (等同于 docker network connect 的作用), networks 可以位于 compose 文件顶级键和 services 键的二级键aliases               # 同一网络上的容器可以使用服务名称或别名连接到其中一个服务的容器ipv4_address      # IP V4 格式ipv6_address      # IP V6 格式示例:version: '3.7'services: test: image: nginx:1.14-alpinecontainer_name: mynginxcommand: ifconfignetworks: app_net:                                # 调用下面 networks 定义的 app_net 网络ipv4_address: 172.16.238.10networks:app_net:driver: bridgeipam:driver: defaultconfig:- subnet: 172.16.238.0/24pid: 'host'           # 共享宿主机的 进程空间(PID)ports                 # 建立宿主机和容器之间的端口映射关系, ports 支持两种语法格式SHORT 语法格式示例:- "3000"                            # 暴露容器的 3000 端口, 宿主机的端口由 docker 随机映射一个没有被占用的端口- "3000-3005"                       # 暴露容器的 3000 到 3005 端口, 宿主机的端口由 docker 随机映射没有被占用的端口- "8000:8000"                       # 容器的 8000 端口和宿主机的 8000 端口建立映射关系- "9090-9091:8080-8081"- "127.0.0.1:8001:8001"             # 指定映射宿主机的指定地址的- "127.0.0.1:5000-5010:5000-5010"   - "6060:6060/udp"                   # 指定协议LONG 语法格式示例:(v3.2 新增的语法格式)ports:- target: 80                    # 容器端口published: 8080               # 宿主机端口protocol: tcp                 # 协议类型mode: host                    # host 在每个节点上发布主机端口,  ingress 对于群模式端口进行负载均衡secrets               # 不知道怎么用security_opt          # 为每个容器覆盖默认的标签 (在使用 swarm 部署时将忽略该选项)stop_grace_period     # 指定在发送了 SIGTERM 信号之后, 容器等待多少秒之后退出(默认 10s)stop_signal           # 指定停止容器发送的信号 (默认为 SIGTERM 相当于 kill PID; SIGKILL 相当于 kill -9 PID; 在使用 swarm 部署时将忽略该选项)sysctls               # 设置容器中的内核参数 (在使用 swarm 部署时将忽略该选项)ulimits               # 设置容器的 limituserns_mode           # 如果Docker守护程序配置了用户名称空间, 则禁用此服务的用户名称空间 (在使用 swarm 部署时将忽略该选项)volumes               # 定义容器和宿主机的卷映射关系, 其和 networks 一样可以位于 services 键的二级键和 compose 顶级键, 如果需要跨服务间使用则在顶级键定义, 在 services 中引用SHORT 语法格式示例:volumes:- /var/lib/mysql                # 映射容器内的 /var/lib/mysql 到宿主机的一个随机目录中- /opt/data:/var/lib/mysql      # 映射容器内的 /var/lib/mysql 到宿主机的 /opt/data- ./cache:/tmp/cache            # 映射容器内的 /var/lib/mysql 到宿主机 compose 文件所在的位置- ~/configs:/etc/configs/:ro    # 映射容器宿主机的目录到容器中去, 权限只读- datavolume:/var/lib/mysql     # datavolume 为 volumes 顶级键定义的目录, 在此处直接调用LONG 语法格式示例:(v3.2 新增的语法格式)version: "3.2"services:web:image: nginx:alpineports:- "80:80"volumes:- type: volume                  # mount 的类型, 必须是 bind、volume 或 tmpfssource: mydata              # 宿主机目录target: /data               # 容器目录volume:                     # 配置额外的选项, 其 key 必须和 type 的值相同nocopy: true                # volume 额外的选项, 在创建卷时禁用从容器复制数据- type: bind                    # volume 模式只指定容器路径即可, 宿主机路径随机生成; bind 需要指定容器和数据机的映射路径source: ./statictarget: /opt/app/staticread_only: true             # 设置文件系统为只读文件系统volumes:mydata:                                 # 定义在 volume, 可在所有服务中调用restart               # 定义容器重启策略(在使用 swarm 部署时将忽略该选项, 在 swarm 使用 restart_policy 代替 restart)no                    # 禁止自动重启容器(默认)always                # 无论如何容器都会重启on-failure            # 当出现 on-failure 报错时, 容器重新启动其他选项:domainname, hostname, ipc, mac_address, privileged, read_only, shm_size, stdin_open, tty, user, working_dir上面这些选项都只接受单个值和 docker run 的对应参数类似对于值为时间的可接受的值:2.5s10s1m30s2h32m5h34m56s时间单位: us, ms, s, m, h对于值为大小的可接受的值:2b1024kb2048k300m1gb单位: b, k, m, g 或者 kb, mb, gbnetworks          # 定义 networks 信息driver                # 指定网络模式, 大多数情况下, 它 bridge 于单个主机和 overlay Swarm 上bridge                # Docker 默认使用 bridge 连接单个主机上的网络overlay               # overlay 驱动程序创建一个跨多个节点命名的网络host                  # 共享主机网络名称空间(等同于 docker run --net=host)none                  # 等同于 docker run --net=nonedriver_opts           # v3.2以上版本, 传递给驱动程序的参数, 这些参数取决于驱动程序attachable            # driver 为 overlay 时使用, 如果设置为 true 则除了服务之外,独立容器也可以附加到该网络; 如果独立容器连接到该网络,则它可以与其他 Docker 守护进程连接到的该网络的服务和独立容器进行通信ipam                  # 自定义 IPAM 配置. 这是一个具有多个属性的对象, 每个属性都是可选的driver                # IPAM 驱动程序, bridge 或者 defaultconfig                # 配置项subnet                # CIDR格式的子网,表示该网络的网段external              # 外部网络, 如果设置为 true 则 docker-compose up 不会尝试创建它, 如果它不存在则引发错误name                  # v3.5 以上版本, 为此网络设置名称

Docker-compose.yml配置文件

参考:https://pythondjango.cn/python/tools/3-docker-compose/

# 第一部分: Building(构建镜像)
web:# 使用当前目录下的Dockerfilebuild: .args: # 增加额外参数APP_HOME: appvolumes: # 目录挂载- .:/codedepends_on: # 依赖db和redis- db- redis# 使用定制化的Dockerfile,指定新目录相对路径和文件名build:context: ./dir dockerfile: Dockerfile.devcontainer_name: app # 自定义容器名# 基于现有镜像构建image: ubuntuimage: ubuntu:14.04image: remote-registry:4000/postgresqlimage: bcbc65fd# 第二部分: Ports(端口)ports: # 指定端口映射,HOST:Container- "6379" # 指定容器的端口6379,宿主机会随机映射端口- "8080:80"  # 宿主机端口8080,对应容器80# 暴露端口给-link或处于同一网络的容器,不暴露给宿主机。expose: ["3000"]# 第三部分: Environment Variables(环境变量)environment:MODE: developmentSHOW: 'true'# 等同于environment:- MODE=development- SHOW: 'true'# 使用环境变量.env文件env_file: .envenv_file:- ./common.env- ./apps/web.env# 第四部分:commands (命令)# 容器启动后默认执行命令command: bundle exec thin -p 3000command: ['/bin/bash/', 'start.sh']# 容器启动后程序入口entrypoint: /code/entrypoint.sh# 第五部分:Networks(网络)networks: # 使用bridge驱动创建名为frontend的网络frontend:driver: bridgenetworks: # 使用创建的网络进行通信- frontend# 加入已经存在的外部网络networks: default:external:name: my-pre-existing-network# 第六部分:Volumes(数据卷)volumes: # 创建名为postgres_data的数据卷postgres_data:db:image: postgres:latestvolumes:- postgres_data:/var/lib/postgresql/data# 第七部分:External Links(外部链接)
# 目的是让Compose能够连接那些不在docker-compose.yml中定义的单独运行容器services:web:external_links:- redis_1- project_db_1:mysql

Docker-compose命令大全

详细参考:https://www.cnblogs.com/crazymakercircle/p/15505199.html#autoid-h3-2-0-0

# 默认使用docker-compose.yml构建镜像
$ docker-compose build
$ docker-compose build --no-cache # 不带缓存的构建# 指定不同yml文件模板用于构建镜像
$ docker-compose build -f docker-compose1.yml# 列出Compose文件构建的镜像
$ docker-compose images                          # 启动所有编排容器服务,-d 在后台运行服务容器
$ docker-compose up -d
默认情况下并不会自动删除之前的容器。为了自动删除不再属于docker-compose.yml配置的服务的旧容器,可以使用docker-compose up --remove-orphans命令。另外,如果希望重新创建所有服务的容器,可以使用docker-compose up --force-recreate命令。在使用这些选项时,可以有效地管理容器的生命周期,确保系统的整洁和高效运行。链接:https://blog.csdn.net/qq_40963664/article/details/131844803# 查看正在运行中的容器
$ docker-compose ps # 查看所有编排容器,包括已停止的容器
$ docker-compose ps -a# 进入指定容器执行命令
$ docker-compose exec nginx bash 
$ docker-compose exec web python manage.py migrate --noinput# 查看web容器的实时日志
$ docker-compose logs -f web# 停止所有up命令启动的容器
$ docker-compose down # 停止所有up命令启动的容器,并移除数据卷
$ docker-compose down -v# 重新启动停止服务的容器
$ docker-compose restart web# 暂停web容器
$ docker-compose pause web# 恢复web容器
$ docker-compose unpause web# 删除web容器,删除前必需停止stop web容器服务
$ docker-compose rm web  # 查看各个服务容器内运行的进程 
$ docker-compose top                  

compose常用调试命令

1、该docker-compose run命令允许您为服务运行一次性命令。
例如,查看哪些环境变量可用于 web服务:

#1、(使用已经创建的容器)不会创建新容器
docker compose exec -it web ls
#2、(创建并运行命令)会创建很多容器
docker-compose run web env
docker-compose run web ls #后面跟命令
#只能用下面命令删除
docker rm $(docker compose ps -aq)

docker-compose.yml启动容器后执行多条命令
/bin/bash -c 字符串方式,多条命令可以通过&&连接符执行
#执行多条指令

command: /bin/bash -c "cp /app/dtest/config.default.yml /app/config.yml && python -u /app/dtest/tcc.py"

2、如果您开始使用Compose with docker-compose up -d,请在完成服务后停止它们:

 docker-compose stop

3、删除compose创建的容器
docker-compose up会优先使用已有的容器,而不是重新创建容器。
下面的方法可以解决你的问题:
docker-compose up -d --force-recreate 使用 --force-recreate 可以强制重建容器 (否则只能在容器配置有更改时才会重建容器)
docker-compose down 停止所有容器,并删除容器 (这样下次使用docker-compose up时就一定会是新容器了)

  • compose命令运行的容器
停止容器:在终端中导航到包含 docker-compose.yml 文件的目录,并运行以下命令停止所有正在运行的容器:
docker compose down
删除容器:运行以下命令来删除所有已停止的容器:
docker compose rm -f
  • 非compose命令创建的
docker rm $(docker compose ps -aq)

compose文件格式示例

    version: "3"services:redis:image: redis:alpineports:- "6379"networks:- frontenddeploy:replicas: 2update_config:parallelism: 2delay: 10srestart_policy:condition: on-failuredb:image: postgres:9.4volumes:- db-data:/var/lib/postgresql/datanetworks:- backenddeploy:placement:constraints: [node.role == manager]

应用

官网地址:https://docs.docker.com/compose/compose-file/
官方示例:https://github.com/docker/awesome-compose?tab=readme-ov-file#single-service-samples
官方参数:https://docs.docker.com/compose/compose-file/compose-file-v3/#command
官方示例:https://dockerdocs.cn/compose/gettingstarted/

python flask-redis

目录结构
.
├── Dockerfile
├── README.md
├── app.py
├── docker-compose.yml
└── requirements.txt
git地址:https://github.com/fishingcatgo/docker_compose_stuexem.git
python app.py文件

import timeimport redis
from flask import Flaskapp = Flask(__name__)
cache = redis.Redis(host='redis', port=6379)def get_hit_count():retries = 5while True:try:return cache.incr('hits')except redis.exceptions.ConnectionError as exc:if retries == 0:raise excretries -= 1time.sleep(0.5)@app.route('/')
def hello():count = get_hit_count()return 'Hello World! I have been seen {} times.\n'.format(count)

requirements.txt 文件

flask
redis

Dockerfile文件

# syntax=docker/dockerfile:1
FROM python:3.7-alpine
WORKDIR /code
ENV FLASK_APP=app.py
ENV FLASK_RUN_HOST=0.0.0.0
RUN apk add --no-cache gcc musl-dev linux-headers
COPY requirements.txt requirements.txt
RUN pip install -r requirements.txt
EXPOSE 5000
COPY . .
CMD ["flask", "run"]

docker-compose.yml文件

version: "3.9"
services:web:build: .ports:- "5000:5000"volumes:- .:/codeenvironment:- https_proxy=http://10.0.65.157:7890- http_proxy=http://10.0.65.157:7890redis:image: "redis:alpine"ports:- '6377:6379'

cpu和gpu配置

参考https://dockerdocs.cn/compose/gpu-support/

services:test:image: nvidia/cuda:12.3.1-base-ubuntu20.04command: nvidia-smideploy:resources:limits:cpus: '0.50'memory: 50Gpids: 2reservations:devices:- driver: nvidia#count: alldevice_ids: ['0', '3']capabilities: [gpu]

附件参考:

https://www.cnblogs.com/crazymakercircle/p/15505199.html#autoid-h3-2-0-0
https://pythondjango.cn/python/tools/3-docker-compose/
https://github.com/DragonV96/study-notes/blob/master/Linux%E8%BF%90%E7%BB%B4/docker/Docker-compose.yml%E6%96%87%E4%BB%B6%E5%8F%82%E6%95%B0%E8%AF%A6%E8%A7%A3.md#compose%E5%92%8Cdocker%E5%85%BC%E5%AE%B9%E6%80%A7
官网地址:https://docs.docker.com/compose/compose-file/
官方示例:https://github.com/docker/awesome-compose?tab=readme-ov-file#single-service-samples

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/825888.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

ASPICE 追溯性实践分享

01前言 接着之前的分享&#xff0c;遗留的追溯性ASPICE 认证实践及个人理解分享-CSDN博客文章浏览阅读961次&#xff0c;点赞22次&#xff0c;收藏17次。ASPICE是Automotive 和SPICE的组合&#xff0c;全英文为&#xff08;Automotive Software ProcessImprovement and Determ…

C++修炼之路之继承<二>

目录 一&#xff1a;子类的六大默认成员函数 二&#xff1a;继承与友元 三&#xff1a;继承与静态成员 四&#xff1a;复杂的继承关系菱形继承菱形虚拟继承 1.单继承 2.多继承 3.菱形继承&#xff1b;一种特殊的多继承 4.菱形虚拟继承 5.虚拟继承解决数据冗余和二…

小程序 前端如何用wx.request获取 access_token接口调用凭据

在微信小程序中,获取access_token通常是通过wx.request方法来实现的。以下是一个简单的示例代码: 1.获取小程序的appID 与 secret(小程序密钥) 登录之后,请点击左侧的"开发管理"==>点击"开发设置" 就可以找到 2. 在javascript 中的代码: // 定…

性能优化工具

CPU 优化的各类工具 network netperf 服务端&#xff1a; $ netserver Starting netserver with host IN(6)ADDR_ANY port 12865 and family AF_UNSPEC$ cat netperf.sh #!/bin/bash count$1 for ((i1;i<count;i)) doecho "Instance:$i-------"# 下方命令可以…

算法刷题记录2

4.图 4.1.被围绕的区域 思路&#xff1a;图中只有与边界上联通的O才不算是被X包围。因此本题就是从边界上的O开始递归&#xff0c;找与边界O联通的O&#xff0c;并标记为#&#xff08;代表已遍历&#xff09;&#xff0c;最后图中剩下的O就是&#xff1a;被X包围的O。图中所有…

温湿度传感器(DHT11)以及光照强度传感器(BH1750)的使用

前言 对于一些单片机类的环境检测或者智能家居小项目中&#xff0c;温湿度传感器&#xff08;DHT11&#xff09;以及光照强度传感器&#xff08;BH1750&#xff09;往往是必不可少的两个外设&#xff0c;下面我们来剖析这两个外设的原理&#xff0c;以及使用。 1. 温湿度传感…

嵌入式4-18

做一个简单数据库终端操作系统 #include <myhead.h> int main(int argc, const char *argv[]) {int id;char name[16];float score;sqlite3 *pNULL;if(sqlite3_open("./my.db",&p)!SQLITE_OK){printf("sqlite3_open error\n");return -1;} …

python中中英文打印对齐解决方案

在python中&#xff0c;有时候会出现中英文混合输出的情形&#xff0c;但是由于中文默认是全角格式&#xff08;一个中文字符占用两个字符宽度&#xff09;&#xff0c;这会对python原生的print函数带来一些障碍。尤其是用户用print对齐输出的时候&#xff0c;这种差异会导致文…

顺序表链表经典算法题

1.链表反转 typedef struct ListNode listnode; struct ListNode* reverseList(struct ListNode* head) {if(head NULL){return head;}listnode* p1 NULL;listnode* p2 head;listnode* p3 head->next;while(p2){p2->next p1;p1 p2;p2 p3;if(p3)p3 p3->next;}…

ASP.NET MVC企业级程序设计 (商品管理:小计,总计,删除,排序)

目录 效果图 实现过程 1创建数据库 2创建项目文件 3创建控制器&#xff0c;右键添加&#xff0c;控制器 ​编辑 注意这里要写Home​编辑 创建成功 数据模型创建过程之前作品有具体过程​编辑 4创建DAL 5创建BLL 6创建视图&#xff0c;右键添加视图 ​编辑 7HomeCont…

ST-GCN模型详解(+openpose)

ST-GCN模型详解&#xff08;openpose&#xff09; 一、什么是ST-GCN呢 基于骨架的动作识别&#xff08;Skeleton-Based Action Recognition&#xff09;主要任务是从一系列时间连续的骨骼关键点&#xff08;2D/3D&#xff09;中识别出正在执行的动作。因为牵涉到骨骼框架这种…

智慧公厕解决方案易集成好使用的智能硬件

在现代城市建设中&#xff0c;智慧公厕的需求日益增长。为了提供更好的用户体验和更高效的管理&#xff0c;易集成、好使用的智能硬件成为智慧公厕解决方案的关键组成部分。 1. 蹲位有人无人感应器&#xff1a;是用于检测厕位有人无人的设备&#xff0c;根据现场不同的安装条件…

Flask前端页面文本框展示后端变量,路由函数内外两类

一、外&#xff01;路由函数外的前后端数据传输 Flask后端 ↓ 首先导入包&#xff0c;需要使用 后端&#xff1a;flask_socketio来进行路由外的数据传输&#xff0c; from flask_socketio import SocketIO, emit 前端&#xff1a;还有HTML头文件的设置。 <!DOCTYPE …

DevOps是什么?

DevOps是一系列实践、工具和文化理念的组合&#xff0c;旨在自动化并整合软件开发和信息技术运维团队之间的流程。以下是DevOps的几个关键点&#xff1a; 沟通与协作&#xff1a;DevOps强调开发和运维团队之间的沟通与合作&#xff0c;通过改善这两个部门间的协作关系&#xff…

使用clickhouse-backup备份和恢复数据

作者&#xff1a;俊达 介绍 clickhouse-backup是altinity提供的一个clickhouse数据库备份和恢复的工具&#xff0c;开源项目地址&#xff1a;https://github.com/Altinity/clickhouse-backup 功能上能满足日常数据库备份恢复的需求&#xff1a; 支持单表/全库备份支持备份上…

电脑桌面便签软件哪个好?好用的电脑桌面便签

电脑作为我们日常工作的重要工具&#xff0c;承载着大量的任务和项目。当工作任务繁重时&#xff0c;如何在电脑桌面上高效管理这些任务就显得尤为重要。这时&#xff0c;选择一款优秀的桌面便签软件&#xff0c;无疑会给我们带来极大的便利。 一款好的桌面便签软件&#xff0…

JDK11安装教程

文章目录 1、安装2、配置环境变量 1、安装 双击安装包&#xff0c;点击下一步 更改安装目录&#xff0c;点击下一步 等待安装完成 安装完成 2、配置环境变量 此电脑右键属性 -> 高级系统设置 -> 环境变量 -> 系统变量 -> 新建 变量名&#xff1a;JAVA_HOME变量…

kubernetes学习

1、应用部署方式演变 2、kubernetes介绍 3、kubernetes组件 4、kubernetes概念 5、环境搭建-环境规划 6、环境搭建-主机安装 7、环境搭建-环境初始化 8、环境搭建-集群所需组件安装 9、环境搭建-集群安装 10、环境搭建-网络插件安装 11、环境搭建-环境测试 12、资源管理…

Databend 开源周报第 140 期

Databend 是一款现代云数仓。专为弹性和高效设计&#xff0c;为您的大规模分析需求保驾护航。自由且开源。即刻体验云服务&#xff1a;https://app.databend.cn 。 Whats On In Databend 探索 Databend 本周新进展&#xff0c;遇到更贴近你心意的 Databend 。 支持 EXECUTE I…

3D模型格式转换工具HOOPS Exchange:3D CAD数据的快速导入与导出

在当今的工程设计领域中&#xff0c;快速且可靠地处理3D CAD数据是至关重要的。HOOPS Exchange SDK通过提供一组C软件库&#xff0c;为开发团队提供了实现这一目标的有效工具。 什么是HOOPS Exchange&#xff1f; HOOPS Exchange是一组C软件库&#xff0c;旨在为开发团队提供…