多个.so文件使用微服务独立部署,但是部署的时候端口又不一样,调用API时又要统一ip和端口,应该怎么办?

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了多个.so文件使用微服务独立部署,但是部署的时候端口又不一样,调用API时又要统一ip和端口,应该怎么办?相关的知识,希望对你有一定的参考价值。

使用javaJNI接口调用库,api是java写的

方法/步骤

    创建一个解决方案,添加3个类库项目,1个ASP.NET MVC4项目,如下图所示:

    MainWeb项目时一个空的MVC项目,没有模型、控制器和视图,如下图所示:

    解决方案中的其他两个项目是类库项目,与一般的类库不同的是,FirstArea和SecondArea需要依赖System.Web和ASP.NET MVC,前者在.NET框架程序集中引用,后者可以通过NuGet安装,如下图所示:

    类库FirstArea和SecondArea项目中各自有一个控制器,都没有过多的代码。这两个项目代表两个不同的程序员开发的不同的后端服务,如下图代码所示:

    FirstArea和SecondArea项目除了控制器以外,还各自都有一个用来注册区域的类,如下图所示:

    最后,将FirstArea和SecondArea项目的生成路径全都改成生成到MainWeb的bin目录中。值得注意的是,MainWeb不需要引用FirstArea和SecondArea,只要这样生成到MainWeb的bin目录中,然后将MainWeb部署到IIS上,即可实现集中部署的效果。

    我们还需要验证这样的集中部署是否有效,下面我们在MainWeb中开发前端页面。

    首先,在MainWeb项目中添加FirstArea和SecondArea区域,注意,如果添加的区域有注册区域的类,是需要删掉的,因为这两个区域的注册类已经在另外两个项目中定义了,如下图所示:

    建好区域之后,按照ASP.NET MVC的约定,在Views文件夹中新建与控制器一样名称的文件夹,再新建与Action名称一样的cshtml文件,如下图所示:

    View的内容很简单,就是输出在action中赋值的ViewBag,如下图所示:

    编译运行,页面显示如下:

    11

    通过注册区域的方式,不同的程序开发人员就能独立的开发后端的服务,然后把编译好的dll丢到网站的bin目录中,只要在网站中按约定建立好视图,这样后端即实现了服务独立,又能满足集中部署的需求。

参考技术A 对外统一的走负载均衡,这样对外的端口和ip都是统一的。
负责均衡指向后端的 可以指向不同的 ip和不同不同的端口!
参考技术B 可以考虑走网关转发、比如Nginx 二级目录反向代理,这样可解决统一ip和端口
可以的话,请采纳,谢谢
参考技术C 建立转发机制一转多,根据不同的数据状态或者其它能区分的方式来进行数据转发就好。是啥就给谁。 参考技术D 初步判断,应该使用反向代理。

Docker Compose 项目打包部署

Docker Compose

  • 前面我们使用 Docker 的时候,定义 Dockerfile 文件,然后使用 docker build、docker run 等命令操作容器。然而微服务架构的应用系统一般包含若干个微服务,每个微服务一般都会部署多个实例,如果每个微服务都要手动启停,那么效率之低,维护量之大可想而知使用 Docker Compose 可以轻松、高效的管理容器,它是一个用于定义和运行多容器 Docker 的应用程序工具
  • Docker 和 Compose兼容性看下图:

           技术图片

Docker版本变化说明:

  • Docker从1.13.x版本开始,版本分为企业版EE和社区版CE,版本号也改为按照时间线来发布,比如17.03就是2017年3月。
  • Docker的linux发行版的软件仓库从以前的https://apt.dockerproject.org和https://yum.dockerproject.org变更为目前的https://download.docker.com, 软件包名字改为docker-ce和docker-ee。

docker compose是什么:

  • Compose是一个定义和管理多容器的工具,使用Python语言编写。
  • 使用Compose配置文件描述多个容器应用的架构,比如使用什么镜像、数据卷、网络、映射端口等;
  • 然后一条命令管理所有服务,比如启动、停止、重启等。

docker compose作用: 

  • 现在我们要部署django项目,需要 nginx+mysql+redis+nginx等
  • 我们需要开启四个docker容器进行部署每一个组件,如果每个容器单独管理太过于复杂,而且可能是给客户部署项目
  • docker compose就是一个可以同时管理一个项目中的多个docker容器的工具,一键部署启动

docker compose安装:

  方法一:下载 并安装docker compose

        

[root@linux-node1 ~]# curl -L https://github.com/docker/compose/releases/download/1.15.0/docker-compose-`uname -s`-`uname -m` -o /usr/local/bin/docker-compose

[root@linux-node1 ~]# chmod
+x /usr/local/bin/docker-compose        #或者 pip install docker-compose

  方法二:直接解压安装

unzip docker-compose-linux-x86_64.zip # 解压后只有一个文件 docker-compose

chmod +x docker-compose

mv docker-compose /usr/bin/

YAML文件格式及编写注意事项:

  • 注:docker-compose使用yaml文件对容器进行描述
  • YAML是一种标记语言很直观的数据序列化格式,可读性高。类似于XML数据描述语言,语法比XML简单的很多。
  • YAML数据结构通过缩进来表示,连续的项目通过减号来表示,键值对用冒号分隔,数组用中括号括起来,hash用花括号括起来。

YAML文件格式注意事项:

  • 不支持制表符tab键缩进,需要使用空格缩进
  • 通常开头缩进2个空格
  • 字符后缩进1个空格,如冒号、逗号、横杆
  • 用井号注释
  • 如果包含特殊字符用单引号引起来
  • 布尔值(true、false、yes、no、on、off)必须用引号括起来,这样分析器会将他们解释为字符串。

compose配置:

# 字段                             描述

build       # 指定Dockerfile文件名构建镜像上下文路径   dockerfile   context image       # 指定镜像 command      # 执行命令,覆盖默认命令 container_name  # 指定容器名称,由于容器名称是唯一的,如果指定自定义名称,则无法scale deploy       # 指定部署和运行服务相关配置,只能在Swarm模式使用 environment    # 添加环境变量 networks     # 加入网络,引用顶级networks下条目 ports      # 暴露端口,与-p相同,但端口不能低于60 volumes     # 挂载宿主机路径或命名卷,如果是命名卷在顶级volumes定义卷名称 restart     # 重启策略,默认no,always|on-failure|unless-staopped hostname    # 容器主机名

常用命令:

# 字段           描述
build       # 重新构建服务
ps        # 列出容器
up        # 创建和启动容器
exec      # 在容器里执行命令
scale      # 指定一个服务容器启动数量
top        # 显示容器进程
logs       # 查看容器输出
down       # 删除容器、网络、数据卷和镜像
stop       # 停止
start      # 启动
restart    # 重启服务

# 文章最后有详细介绍

 

使用Docker Compose 一键部署LNMP网站平台

  参考官方:https://docs.docker.com/compose/compose-file/

  项目地址:https://gitee.com/edushiyanlou/django-docker

一键部署LNMP文件结构

├── docker-compose.yml           # compose 的yml文件用于描述要构建的容器
├── mysql 
│   ├── conf
│   │   └── my.cnf               # my.cnf : mysql主配置文件 
│   └── data                     # data 数据目录,当构建的时候会将mysql数据持久化到宿主机上
├── nginx
│   ├── Dockerfile               # 构建nginx容器的 Dockerfile 文件
│   ├── nginx-1.12.1.tar.gz
│   └── nginx.conf               # nginx的主配置文件
├── php
│   ├── Dockerfile               # 构建php容器的 Dockerfile 文件
│   ├── php-5.6.31.tar.gz
│   └── php.ini                 
└── wwwroot
    └── index.php                # 网站根目录

docker-compose.yml

version: 3
services:
  nginx:
    hostname: nginx
    build:
      context: ./nginx
      dockerfile: Dockerfile
    ports:
      - 81:80
    networks:
      - lnmp
    volumes:
      - ./wwwroot:/usr/local/nginx/html

  php:
    hostname: php
    build:
      context: ./php
      dockerfile: Dockerfile
    networks:
      - lnmp
    volumes:
      - ./wwwroot:/usr/local/nginx/html

  mysql:
    hostname: mysql
    image: mysql:5.6
    ports:
      - 3306:3306
    networks:
      - lnmp
    volumes:
      - ./mysql/conf:/etc/mysql/conf.d
      - ./mysql/data:/var/lib/mysql
    command: --character-set-server=utf8
    environment:
      MYSQL_ROOT_PASSWORD: 123456
      MYSQL_DATABASE: wordpress
      MYSQL_USER: user
      MYSQL_PASSWORD: user123

networks:
  lnmp: 

mysql/conf/my.conf

[mysqld]
user=mysql
port=3306
datadir=/var/lib/mysql
socket=/var/lib/mysql/mysql.sock
pid-file=/var/run/mysql/mysql.pid
log_error=/var/log/mysql/error.log
character_set_server = utf8
max_connections=3600

nginx/Dockerfile

FROM centos:7
MAINTAINER www.aliangedu.com
RUN yum install -y gcc gcc-c++ make openssl-devel pcre-devel
ADD nginx-1.12.1.tar.gz /tmp

RUN cd /tmp/nginx-1.12.1 &&     ./configure --prefix=/usr/local/nginx &&     make -j 2 &&     make install

RUN rm -rf /tmp/nginx-1.12.1* && yum clean all

COPY nginx.conf /usr/local/nginx/conf

WORKDIR /usr/local/nginx
EXPOSE 80
CMD ["./sbin/nginx", "-g", "daemon off;"]

nginx/nginx.conf

FROM centos:7
MAINTAINER www.aliangedu.com
RUN yum install -y gcc gcc-c++ make openssl-devel pcre-devel
ADD nginx-1.12.1.tar.gz /tmp

RUN cd /tmp/nginx-1.12.1 &&     ./configure --prefix=/usr/local/nginx &&     make -j 2 &&     make install

RUN rm -rf /tmp/nginx-1.12.1* && yum clean all

COPY nginx.conf /usr/local/nginx/conf

WORKDIR /usr/local/nginx
EXPOSE 80
CMD ["./sbin/nginx", "-g", "daemon off;"]
[root@linux-node2 compose_lnmp]# cat nginx/nginx.conf 
user  root; 
worker_processes  auto; 

error_log  logs/error.log  info;

pid        logs/nginx.pid; 


events {
    use epoll; 
}

http {

    include       mime.types;
    default_type  application/octet-stream;

    log_format  main $remote_addr - $remote_user [$time_local] "$request" 
                      $status $body_bytes_sent "$http_referer" 
                      "$http_user_agent" "$http_x_forwarded_for";

    access_log logs/access.log main;
    sendfile        on;
    keepalive_timeout  65;

    server {
        listen 80;
        server_name localhost;
        root html;
        index index.html index.php;

        location ~ .php$ {
            root html;
            fastcgi_pass php:9000;
            fastcgi_param SCRIPT_FILENAME $document_root$fastcgi_script_name; 
            include fastcgi_params;
        }
    }
}

php/Dockerfile

FROM centos:7
MAINTAINER www.aliangedu.com
RUN yum install -y gcc gcc-c++ make gd-devel libxml2-devel libcurl-devel libjpeg-devel libpng-devel openssl-devel
ADD php-5.6.31.tar.gz /tmp/

RUN cd /tmp/php-5.6.31 &&     ./configure --prefix=/usr/local/php     --with-config-file-path=/usr/local/php/etc     --with-mysql --with-mysqli     --with-openssl --with-zlib --with-curl --with-gd     --with-jpeg-dir --with-png-dir --with-iconv     --enable-fpm --enable-zip --enable-mbstring &&     make -j 4 &&     make install &&     cp /usr/local/php/etc/php-fpm.conf.default /usr/local/php/etc/php-fpm.conf &&     sed -i "s/127.0.0.1/0.0.0.0/" /usr/local/php/etc/php-fpm.conf &&     sed -i "21a daemonize = no" /usr/local/php/etc/php-fpm.conf
COPY php.ini /usr/local/php/etc

RUN rm -rf /tmp/php-5.6.31* && yum clean all

WORKDIR /usr/local/php
EXPOSE 9000
CMD ["./sbin/php-fpm", "-c", "/usr/local/php/etc/php-fpm.conf"]

wwwroot/index.php

<?php phpinfo();?>

执行一键部署命令: 

docker-compose -f docker-compose.yml  up
docker-compose -f docker-compose.yml  up -d       # -d参数让程序运行在后台

说明:  

http://192.168.0.211:81/                  # 运行上面命令即可在页面打开php页面

注:如果想要使用其他页面直接将 wwwroot中的index.php问价进行替换即可

对docker-compose.yml说明

  • 这里定义了部署LNMP环境的三个容器,Nginx、php、mysql
  • 其中nginx和php使用我们自己定义的dockerfile从头构建,mysql直接使用官方仓库进行构建
version: 3           # cocker compose版本号
services:              # 顶级配置文件
  nginx:               # 服务名,可以通过服务名对容器进行管理
    hostname: nginx              # docker容器主机名
    build:                       # 构建nginx 容器
      context: ./nginx           # 指定环境在当前目录的 nginx文件夹中
      dockerfile: Dockerfile     # 指定使用nginx文件夹中的Dockerfile进行构建
    ports:             # 暴露端口
      - 81:80                    # 将宿主机的81端口映射到容器的80端口
    networks:          # 容器使用的网络
      - lnmp
    volumes:           # 指定容器数据卷挂载在宿主机路径
      - ./wwwroot:/usr/local/nginx/html

  php:
    hostname: php
    build:
      context: ./php
      dockerfile: Dockerfile
    networks:
      - lnmp
    volumes:
      - ./wwwroot:/usr/local/nginx/html

  mysql:
    hostname: mysql
    image: mysql:5.6                 # 直接引用mysql官方镜像仓库
    ports:
      - 3306:3306
    networks:
      - lnmp
    volumes:
      - ./mysql/conf:/etc/mysql/conf.d
      - ./mysql/data:/var/lib/mysql
    command: --character-set-server=utf8     # 接收mysql的命令,比如这里设置mysql的字符集
    environment:
      MYSQL_ROOT_PASSWORD: 123456
      MYSQL_DATABASE: wordpress
      MYSQL_USER: user
      MYSQL_PASSWORD: user123

networks:
  lnmp:                             # 创建一个网络

 

docker、docker-compose、docker swarm和k8s的区别

Docker-Compose

  • Docker-Compose 是用来管理你的容器的,想象一下当你的Docker中有成百上千的容器需要启动,如果一个一个的启动那得多费时间。
  • 有了Docker-Compose你只需要编写一个文件,在这个文件里面声明好要启动的容器,配置一些参数
  • 执行一下这个文件,Docker就会按照你声明的配置去把所有的容器启动起来,只需docker-compose up即可启动所有的容器
  • 但是Docker-Compose只能管理当前主机上的Docker,也就是说不能去启动其他主机上的Docker容器

Docker Swarm

  • Docker Swarm 是一款用来管理多主机上的Docker容器的工具,可以负责帮你启动容器,监控容器状态
  • 如果容器的状态不正常它会帮你重新帮你启动一个新的容器,来提供服务,同时也提供服务之间的负载均衡

Kubernetes

  • Kubernetes它本身的角色定位是和Docker Swarm 是一样的,都是一个跨主机的容器管理平台
  • k8s是谷歌公司根据自身的多年的运维经验研发的一款容器管理平台,而Docker Swarm则是由Docker 公司研发的。

核心作用快速迭代、服务自愈

 

项目环境介绍

docker-compose部署django+nginx+uwsgi+celery+redis+mysql 

项目图解

技术图片

 

项目目录结构说明

项目地址https://gitee.com/edushiyanlou/django-docker

django-docker                ## 项目根路径

│  .gitignore                    # git忽略不上传的文件

│  docker-compose.yml            # docker-compose文件

│  Dockerfile                    # 部署django项目的dockerfile

│  README.md                     # 项目Readme说明

│  requirements.txt              # 项目必须要安装的文件

│

├─nginx                      ## nginx容器配置文件

│  │  nginx.conf                 # /etc/nginx/nginx.conf配置文件

│  │

│  └─conf                        # /etc/nginx/conf.d配置nginx文件夹

│          default.conf

│

└─web                        ## 部署django项目的web容器

    │  manage.py

    │  uwsgi.ini                 # django项目的uwsgi配置文件 

    │

    ├─demoapp

    │  │  admin.py

    │  │  apps.py

    │  │  models.py

    │  │  tasks.py               # 配置celery任务文件

    │  │  tests.py

    │  │  urls.py

    │  │  views.py

    │  │  __init__.py

    │  │

    │  ├─migrations

    │  │      __init__.py        # 引入celery

    │  │

    │  └─templates

    │      └─demoapp

    │              celery_detail.html          # 查看具体celery执行结果页面

    │              celery_index.html           # 查看对应celery任务页面

    │              index.html                  # 项目主页面

    │

    └─web

            celery.py           # celery配置文件

            settings.py

            urls.py

            wsgi.py

            __init__.py

 

项目文件说明

初始化一个django项目

  • 项目文件

 urls.py

from django.contrib import admin
from django.urls import path, include

urlpatterns = [
    path(‘‘, include(demoapp.urls)),
    path(admin/, admin.site.urls),
]

 demoapp/urls.py

from django.urls import path
from . import views

app_name = demoapp

urlpatterns = [
    path(‘‘, views.index, name=index),
    path(celery/, views.celery_index, name=celery_index),
    path(celery/random_add/, views.random_add, name=celery_random_add),
    path(celery/random_mul/, views.random_mul, name=celery_random_mul),
    path(celery/random_xsum/, views.random_xsum, name=celery_random_xsum),
]

 demoapp/views.py

import random
from django.shortcuts import render
from . import tasks


def index(request):
    context = {}
    return render(request, demoapp/index.html, context)


def celery_index(request):
    context = {}
    return render(request, demoapp/celery_index.html, context)


def random_add(request):
    a, b = random.choices(range(100), k=2)
    tasks.add.delay(a, b)
    context = {function_detail: add({}, {}).format(a, b)}
    return render(request, demoapp/celery_detail.html, context)


def random_mul(request):
    a, b = random.choices(range(100), k=2)
    tasks.mul.delay(a, b)
    context = {function_detail: mul({}, {}).format(a, b)}
    return render(request, demoapp/celery_detail.html, context)


def random_xsum(request):
    array = random.choices(range(100), k=random.randint(1, 10))
    tasks.xsum.delay(array)
    context = {function_detail: xsum({}).format(array)}
    return render(request, demoapp/celery_detail.html, context)
  • celery配置文件

 web/__init__.py

# This will make sure the app is always imported when
# Django starts so that shared_task will use this app.
from .celery import app as celery_app

__all__ = [celery_app]

 web/celery.py

import os
from celery import Celery

# 只要是想在自己的脚本中访问Django的数据库等文件就必须配置Django的环境变量
os.environ.setdefault(DJANGO_SETTINGS_MODULE, web.settings)

# app名字
app = Celery(web)

# 配置celery
class Config:
    BROKER_URL = redis://redis:6379  # redis://127.0.0.1:6379
    CELERY_RESULT_BACKEND = redis://redis:6379

app.config_from_object(Config)
# 到各个APP里自动发现tasks.py文件
app.autodiscover_tasks()

 demoapp/tasks.py

# Create your tasks here
from celery import shared_task


@shared_task
def add(x, y):
    return x + y


@shared_task
def mul(x, y):
    return x * y


@shared_task
def xsum(numbers):
    return sum(numbers)

nginx容器相关配置文件:

 django-docker ginx ginx.conf

user  nginx;
worker_processes  1;

error_log  /var/log/nginx/error.log warn;
pid        /var/run/nginx.pid;


events {
    worker_connections  1024;
}


http {
    include       /etc/nginx/mime.types;
    default_type  application/octet-stream;

    log_format  main  $remote_addr - $remote_user [$time_local] "$request" 
                      $status $body_bytes_sent "$http_referer" 
                      "$http_user_agent" "$http_x_forwarded_for";

    access_log  /var/log/nginx/access.log  main;

    sendfile        on;
    #tcp_nopush     on;

    keepalive_timeout  65;

    #gzip  on;

    include /etc/nginx/conf.d/*.conf;
}

 django-docker ginxconfdefault.conf

server {
    listen                  80;
    server_name             localhost;
    charset                 utf-8;
    client_max_body_size    10M;

    location /static/ {
        alias   /django_static/;
    }

    location / {
        include     uwsgi_params;
        uwsgi_pass  web:8000;
    }
}

web向配置文件:

 django-dockerDockerfile

FROM python:3
ENV PYTHONUNBUFFERED=1
RUN mkdir /code
WORKDIR /code
ADD requirements.txt /code/
RUN pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple
# ADD . /code/

 django-dockerwebuwsgi.ini

[uwsgi]
socket=:8000
chdir=/code/web
module=web.wsgi:application
pidfile=/tmp/web-master.pid
master=True
vacuum=True
processes=1
max-requests=5000

docker-compose.yml文件:

 docker-compose.yml

 

version: 3

services:
  mysql:
    image: mysql:5.7
    volumes:
      - ./mysql:/var/lib/mysql
    expose:
      - "3306"
    restart: always
    environment:
      - MYSQL_ROOT_PASSWORD=root
      - MYSQL_DATABASE=djangodocker
      - MYSQL_USER=django
      - MYSQL_PASSWORD=django

  nginx:
    image: nginx:alpine
    volumes:
      - ./nginx/nginx.conf:/etc/nginx/nginx.conf
      - ./nginx/conf:/etc/nginx/conf.d
      - ./web/staticfiles:/django_static
    ports:
      - "80:80"
    depends_on:
      - web

  redis:
    image: redis:alpine
    expose:
      - "6379"
    restart: always

  web:
    build: .
    # command: python manage.py runserver 0:8000
    # ports:
    #   - "8000:8000"
    command: uwsgi --ini uwsgi.ini
    working_dir: /code/web
    volumes:
      - .:/code
    expose:
      - "8000"
    depends_on:
      - mysql
      - redis

  celery:
    build: .
    command: celery -A web worker -l info
    working_dir: /code/web
    volumes:
      - .:/code
    depends_on:
      - mysql
      - redis

 

docker-compose.yml详释

 docker-compose.yml详解:

version: 3                       # cocker compose版本号

services:                          # 顶级配置文件

  mysql:                           # 服务名: 容器建通信、管理容器

    image: mysql:5.7               # 引入官方mysql镜像

    volumes:

      - ./mysql:/var/lib/mysql         # 把当前文件夹下的 ./mysql文件夹挂载到docker容器 /var/lib/mysql 路径下

    expose:

      - "3306"                        # 将当前容器的端口3306端口暴露给link到本容器的容器

    restart: always                   # 宿主机重启自动拉起这个docker容器

    environment:

      - MYSQL_ROOT_PASSWORD=root             # mysql服务器root密码root

      - MYSQL_DATABASE=djangodocker          # 创建数据库 djangodocker

      - MYSQL_USER=django                    # 创建一个用户 django

      - MYSQL_PASSWORD=django                # 用户密码为django

  nginx:

    image: nginx:alpine

    volumes:

      - ./nginx/nginx.conf:/etc/nginx/nginx.conf

      - ./nginx/conf:/etc/nginx/conf.d

      - ./web/staticfiles:/django_static

    ports:

      - "80:80"                             # 绑定容器的80端口到主机的80端口

    depends_on:

      - web                                 # 必须先启动web容器然才能启动nginx容器

  redis:

    image: redis:alpine

    expose:

      - "6379"

    restart: always


  web:

    build: .

    # command: python manage.py runserver 0:8000

    # ports:

    #   - "8000:8000"

    command: uwsgi --ini uwsgi.ini             # 启动uwsgi命令

    working_dir: /code/web                     # 项目工作路径

    volumes:

      - .:/code                                # 将当前文件夹下所有文件挂载到容器的 /code 文件夹

    expose:

      - "8000"

    depends_on:                                # 必须mysql和reids容器启动后才能启动web容器

      - mysql

      - redis

  celery:

    build: .

    command: celery -A web worker -l info

    working_dir: /code/web

    volumes:

      - .:/code

    depends_on:

      - mysql

      - redis

相似指令比较

‘‘‘1. expose 与 ports 比较‘‘‘

# ports: 绑定容器的端口到主机的端口,这样就可以在外网访问docker容器的服务

# expose: 将当前容器的端口3暴露给link到本容器的容器,expose不会将端口暴露给主机


‘‘‘2. depends_on 与 links区别‘‘‘

# depends_on: 指定本容器启动依赖的容器必须先启动

# links: 保证容器如果ip变化也能访问(基本已经弃用,因为不使用link仍然可以通过容器名称访问)

build 可以指定包含构建上下文的路径:

version: 2
services:
  webapp:
    build: ./dir

 

Compose常用服务配置参考

  • Compose文件是一个定义服务,网络和卷的YAML文件。 Compose文件的默认文件名为docker-compose.yml
  • 提示:您可以对此文件使用.yml或.yaml扩展名。 他们都工作。
  • 与docker运行一样,默认情况下,Dockerfile中指定的选项(例如,CMD,EXPOSE,VOLUME,ENV)都被遵守,你不需要在docker-compose.yml中再次指定它们。
  • 同时你可以使用类似Bash的$ {VARIABLE} 语法在配置值中使用环境变量,有关详细信息,请参阅变量替换
  • 本节包含版本3中服务定义支持的所有配置选项。

build

build 可以指定包含构建上下文的路径:

version: 2
services:
  webapp:
    build: ./dir

或者,作为一个对象,该对象具有上下文路径和指定的Dockerfile文件以及args参数值:

version: 2
services:
  webapp:
    build:
      context: ./dir
      dockerfile: Dockerfile-alternate
      args:
        buildno: 1

webapp服务将会通过./dir目录下的Dockerfile-alternate文件构建容器镜像。 

如果你同时指定image和build,则compose会通过build指定的目录构建容器镜像,而构建的镜像名为image中指定的镜像名和标签。

build: ./dir
image: webapp:tag

这将由./dir构建的名为webapp和标记为tag的镜像。

context

  • 包含Dockerfile文件的目录路径,或者是git仓库的URL。 
  • 当提供的值是相对路径时,它被解释为相对于当前compose文件的位置。 该目录也是发送到Docker守护程序构建镜像的上下文。

dockerfile

  • 备用Docker文件。Compose将使用备用文件来构建。 还必须指定构建路径。

args

  • 添加构建镜像的参数,环境变量只能在构建过程中访问。 

首先,在Dockerfile中指定要使用的参数:

ARG buildno
ARG password
RUN echo "Build number: $buildno"
RUN script-requiring-password.sh "$password"

然后在args键下指定参数。 你可以传递映射或列表:

build:
  context: .
  args:
    buildno: 1
    password: secret

build:
  context: .
  args:
    - buildno=1
    - password=secret

 注意:YAML布尔值(true,false,yes,no,on,off)必须用引号括起来,以便解析器将它们解释为字符串。

image

指定启动容器的镜像,可以是镜像仓库/标签或者镜像id(或者id的前一部分)

image: redis
image: ubuntu:14.04
image: tutum/influxdb
image: example-registry.com:4000/postgresql
image: a4bc65fd

如果镜像不存在,Compose将尝试从官方镜像仓库将其pull下来,如果你还指定了build,在这种情况下,它将使用指定的build选项构建它,并使用image指定的名字和标记对其进行标记。

container_name

指定一个自定义容器名称,而不是生成的默认名称。

container_name: my-web-container

由于Docker容器名称必须是唯一的,因此如果指定了自定义名称,则无法将服务扩展到多个容器。

volumes

卷挂载路径设置。可以设置宿主机路径 (HOST:CONTAINER) 或加上访问模式 (HOST:CONTAINER:ro),挂载数据卷的默认权限是读写(rw),可以通过ro指定为只读。 

你可以在主机上挂载相对路径,该路径将相对于当前正在使用的Compose配置文件的目录进行扩展。 相对路径应始终以 . 或者 .. 开始。

volumes:

  # 只需指定一个路径,让引擎创建一个卷
  - /var/lib/mysql

  # 指定绝对路径映射
  - /opt/data:/var/lib/mysql
  
# 相对于当前compose文件的相对路径 - ./cache:/tmp/cache

# 用户家目录相对路径 - ~/configs:/etc/configs/:ro # 命名卷 - datavolume:/var/lib/mysql

但是,如果要跨多个服务并重用挂载卷,请在顶级volumes关键字中命名挂在卷,但是并不强制,如下的示例亦有重用挂载卷的功能,但是不提倡。

version: "3" 

services:

  web1:

    build: ./web/

    volumes:

      - ../code:/opt/web/code

  web2:

    build: ./web/

    volumes:

      - ../code:/opt/web/code

注意:通过顶级volumes定义一个挂载卷,并从每个服务的卷列表中引用它, 这会替换早期版本的Compose文件格式中volumes_from。

version: "3"
services:

  db:

    image: db

    volumes:

      - data-volume:/var/lib/db

  backup:

    image: backup-service

    volumes:

      - data-volume:/var/lib/backup/data

volumes:

  data-volume:

command

覆盖容器启动后默认执行的命令。

command: bundle exec thin -p 3000

该命令也可以是一个类似于dockerfile的列表:

command: ["bundle", "exec", "thin", "-p", "3000"]

links

链接到另一个服务中的容器。 请指定服务名称和链接别名(SERVICE:ALIAS),或者仅指定服务名称。

web:
  links:
   - db
   - db:database
   - redis
  • 在当前的web服务的容器中可以通过链接的db服务的别名database访问db容器中的数据库应用,如果没有指定别名,则可直接使用服务名访问。
  • 链接不需要启用服务进行通信 - 默认情况下,任何服务都可以以该服务的名称到达任何其他服务。 (实际是通过设置/etc/hosts的域名解析,从而实现容器间的通信。故可以像在应用中使用localhost一样使用服务的别名链接其他容器的服务,前提是多个服务容器在一个网络中可路由联通)
  • links也可以起到和depends_on相似的功能,即定义服务之间的依赖关系,从而确定服务启动的顺序。

external_links

  • 链接到docker-compose.yml 外部的容器,甚至并非 Compose 管理的容器。参数格式跟 links 类似。
external_links:
 - redis_1
 - project_db_1:mysql
 - project_db_1:postgresql

expose

  • 暴露端口,但不映射到宿主机,只被连接的服务访问。 
  • 仅可以指定内部端口为参数
expose:
 - "3000"
 - "8000"

ports

  • 暴露端口信息。 
  • 常用的简单格式:使用宿主:容器 (HOST:CONTAINER)格式或者仅仅指定容器的端口(宿主将会随机选择端口)都可以。
  • 注意:当使用 HOST:CONTAINER 格式来映射端口时,如果你使用的容器端口小于 60 你可能会得到错误得结果,因为 YAML 将会解析 xx:yy 这种数字格式为 60 进制。所以建议采用字符串格式。

简单的短格式:

ports:
 - "3000"
 - "3000-3005"
 - "8000:8000"
 - "9090-9091:8080-8081"
 - "49100:22"
 - "127.0.0.1:8001:8001"
 - "127.0.0.1:5000-5010:5000-5010"
 - "6060:6060/udp"

在v3.2中ports的长格式的语法允许配置不能用短格式表示的附加字段。 

长格式:

ports:
  - target: 80
    published: 8080
    protocol: tcp
    mode: host

target:容器内的端口 

published:物理主机的端口 

protocol:端口协议(tcp或udp) 

mode:host 和ingress 两总模式,host用于在每个节点上发布主机端口,ingress 用于被负载平衡的swarm模式端口。

restart

no是默认的重启策略,在任何情况下都不会重启容器。 指定为always时,容器总是重新启动。 如果退出代码指示出现故障错误,则on-failure将重新启动容器。

restart: "no"
restart: always
restart: on-failure
restart: unless-stopped

environment

  • 添加环境变量。 你可以使用数组或字典两种形式。 任何布尔值; true,false,yes,no需要用引号括起来,以确保它们不被YML解析器转换为True或False。 
  • 只给定名称的变量会自动获取它在 Compose 主机上的值,可以用来防止泄露不必要的数据。
environment:
  RACK_ENV: development
  SHOW: true
  SESSION_SECRET:

environment:
  - RACK_ENV=development
  - SHOW=true
  - SESSION_SECRET
  • 注意:如果你的服务指定了build选项,那么在构建过程中通过environment定义的环境变量将不会起作用。 将使用build的args子选项来定义构建时的环境变量。

pid

将PID模式设置为主机PID模式。 这就打开了容器与主机操作系统之间的共享PID地址空间。 使用此标志启动的容器将能够访问和操作裸机的命名空间中的其他容器,反之亦然。即打开该选项的容器可以相互通过进程 ID 来访问和操作。

pid: "host"

dns

配置 DNS 服务器。可以是一个值,也可以是一个列表。

dns: 8.8.8.8
dns:
  - 8.8.8.8
  - 9.9.9.9

 

技术图片

 

以上是关于多个.so文件使用微服务独立部署,但是部署的时候端口又不一样,调用API时又要统一ip和端口,应该怎么办?的主要内容,如果未能解决你的问题,请参考以下文章

如何在开发时部署和运行前后端分离的JavaWe

什么是微服务架构

每个主机一个服务实例

如何在开发时部署和运行前后端分离的JavaWeb项目

微前端架构实现(项目引入,消息总线,构建部署,监听服务)

一个目录下多个nodejs项目