同时快速部署100台linux服务器,有啥现成的解决方案吗?

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了同时快速部署100台linux服务器,有啥现成的解决方案吗?相关的知识,希望对你有一定的参考价值。

参考技术A 说说我以前最常用的三种批量部署方案(有疑问接受私信):

第一:服务器一般都会用两块磁盘做RAID1作为系统盘,手动安装完第一台操作系统,RAID1的功能是两块盘中具有相等的数据,所以两块盘都存在了刚刚安装好的linux系统,拔出一块系统盘(服务器认为你这块盘坏了),再插入一块新盘到刚刚拔出磁盘的位置,此时服务器会再次向新磁盘自动同步数据,保持1:1备份。接下来刚刚拔出的那块系统盘派上用场,把刚刚扒出来的那块有系统的盘插到另外一台无系统的服务器上,自动完成与另外一块盘的同步,以此类推,1生2,2生4,4生8,8生16,16生32

第二种:刻录无人值守光盘

第三种:PXE批量部署

PXE实例:

我3年前做过一套PXE部署系统(以下是当时用于机房部署系统的截图界面)。可以部署windows+linux的各个版本,部署服务器采用的windows系统(因为windows能通过easybcd制作syslinux引导),syslinux就可以成功引导起win和linux,引导成功后,调用kickstart制作的linux无人应答文件,wds &AKT制作的windows无人应答文件,完成系统安装。你的需求只需要安装统一的linux版本,所以相对来说比较容易,花两天学习下kickstart基本就能在虚拟机上实践成功,但是如果要应用到物理服务器,还需要考虑驱动,raid,格式化等问题

解决办法当然是PXE+Kickstart了,学会一次就能一直用很方便。

你需要准备:

1、交换机,用于连接Server和客户机(必须临时关闭DHCP)

2、部署用server主机(由此台主机接管DHCP服务)

3、其他一堆客户机(需要调节至PXE引导模式)

然后按照教程

https://andyx.net/pxe_kickstart_automatic_deployment_of_linux_system/对Server

主机进行部署PXE+Kickstart,完成之后客户端开机即可自动安装。

没有部署同时过100多台,但是曾经部署26台ECS集群,支撑1500左右tps。部署的方案是:阿里云ECS+镜像+弹性伸缩+负载均衡。开发测试环境用的是Vagrant直接控制多台虚拟机,曾经也使用过VMware ESXi和VMware VCenter管理虚拟机集群

腾讯有个蓝鲸平台,只需要录入你的服务器ip就可以批量操作。

还有一个ansible的来源运维工具。

还可以通过pexpect脚本,自己用python结合ssh搭建一个运维平台。

如果是批量买机器的话,各个云厂商都提供有接口,写个简单都shell就可以了。

阿里云前天刚发布的,叫什么servicefee,忘了,可视化部署,一键拉起,可设置拉起顺序,定时弹性容灾,服务之间的调用可视化,其他数据也是可监控

会 python 和 shell 可以搞搞 fabric ,我在用,还不错!

看你部署应用还是系统,平台是什么。

系统简单,做个模板机,复制就行了。

应用也不麻烦,跟上边的一样做个镜像就行,或者用批量管理工具ansible salt 这类的工具。云服务器的话,镜像市场也有公用的。

ansible,puppet和chef是常用的自动化运维工具。你说的需求用这三个都能做

1.部署操作系统,制作系统模板,批量创建或调用api接口即可

2.部署应用软件,可使用自动化工具如ansible或者编写脚本来批量部署

linux有类似ghost那样的克隆工具,推荐clonezilla。ghost for Linux也可以。

另外,Linux下的dd命令可以完成一个源驱动器对目标驱动器的镜像操作。

Linux集群部署和ipvsadm命令的使用

    在日常的使用中,一台服务器足够胜任很多的工作,但是当很多人同时访问的时候就会显得稍有些无力,这个时候。可以有两种解决的方法,第一种是不断的改善这台服务器的性能,但是总是会有一个上限存在,而且提升的效果并不明显。另外一种方法就是使用多台服务器,来均摊需要处理的任务,这就是集群,通过一定的组合方式,将很多功能一样的服务器祖喝道一起,但是使用时感受不到他们的差异。组合的方式目前有四种,分别是lvs-nat、lvs-dr、lvs-tunnel和热心网友提供的lvs-fullnat,在Linux内核中仅支持前三种,最后一种如果想要使用需要自己重新编译内核。在开始介绍之前我们需要了解几个常用术语:

vs:virtual server,构成集群的调度器(中心节点)
rs:real server,用户只能找到vs,但是真正提供服务的是rs
CIP:Client IP,客户端的IP地址,即请求发送方的IP地址
VIP:Virtual Server IP,,虚拟服务器的虚拟IP地址,客户端访问的目的地址
DIP:Director IP,调度器IP地址,向后方Real Server转发客户端请求时使用的IP地址
RIP:Real Server IP,后方真实服务器的IP地址

    简单来说就是当用户访问服务器的时候首先访问到的是调度器,然后由调度器查看有哪一台集群中的服务器是相对空闲,那么就将请求送到这一台服务器上进行处理。用户的地址叫做CIP,用户访问的地址叫做VIP,调度器上用于访问集群的地址叫做DIP,集群中各个服务器的地址叫做RIP。下面开始依次介绍各种集群方式。

一、lvs-nat

    这种方式构建集群的架构如图所示:

技术分享

    首先由客户端的CIP发起请求,由调度器分发到后端服务器上进行处理,在处理之后返回处理结果。具体是哪个主机由调度器根据算法进行选择,根据lvs在调度时是否考虑各RS当前的负载状态,可以将调度算法分为两类,分别是静态算法和动态算法,静态算法是事先就将分配的过程安排好,而动态算法是在实时的处理过程中根据服务器的忙碌程度进行分配。(每种架构方式使用的基本都是如下算法,后边不再重复说明)

静态算法,根据算法本身的特点进行调度,注重起点公平,包括以下几种:

RR:RoundRobin,轮询(一人一个任务,但是有的服务器性能好,有的差,所以这种分配方式不太好)
WRR:Weighted RR,加权轮询(有额外的权重干扰分配结果)(能力越大责任越大)(权重高,代表工作能力强,就会被多分配任务)
SH:Source Hashing,源地址哈希,将来自于同一个IP地址的请求始终发往后端第一次被挑中的RS,从而可以实现会话绑定,例如购物等操作,最好要保持在同一台服务器上
DH:Destination Hashing,目的地址哈希,将发往同一个目标地址的请求,始终发送至后端第一次被挑中的RS,一般用于正向代理服务器集群

动态算法,主要根据每个RS当前的负载状态进度调度,注重结果公平,包括以下几种:

(后端RS的负载情况,用Overhead表示,使用这个变量可以来实时的观测任务最好分配给哪台服务器,通过active connection(活动的连接数)和inavtive connection(不活动的连接数)来进行计算

LC:least connections,最少连接数

计算公式:Overhead=activeconnections*256+inactiveconnections

注意:第一次调度时,按照在ipvsadm中配置的顺序自上而下进行分配

WLC:Weighted LC,加权最小连接(如果在部署时未指定,默认为这个)

计算公式:Overhead=(activeconnections*256+inactiveconnections)/weight

注意:第一次调度时,按照在ipvsadm中配置的顺序自上而下进行分配,权重在第一次调度时不发挥作用

SED:Shortest Expection Delay,最短期望延迟

计算公式:Overhead=(activeconnections+1)*256/weight

注意:SED可以解决起点不公平的问题,但是在权重差距比较大时,可能会导致不公平

    例如:weight一个1,一个10,那么为10的会连续获得多个任务

NQ:Never Queue,改进版的SED算法,首次调度时,根据后端RS的权重依次为每台RS分配一个连接;然后再按照SED算法调度;必然会保证后端每台RS至少有一个 activeconnection;
LBLC:Locality-Based Least Connections:基于本地的最少连接,动态的DH算法
LBLCR:LBLC with Replication,带有复制功能的LBLC

    集群部署时最难的是理解架构方式,在理解了之后,部署是十分简单的,在lvs-nat的方式下,我们只需要将各个网段设置好,使相同网段之间能够ping通即可,然后在调度器上使用“ipvsadm”命令(在内核中有ipvs,是实现集群的功能,主要工作在INPUT链上,ipvs(INPUT):内核中的TCP/IP协议栈上的组件,而ipvsadm用来编写规则送给ipvs(类似于防火墙的iptables软件的功能,是用户空间中的用于编写ipvs规则的组件)查看内核中是否支持ipvs功能:~]# grep -i -C 10 "ipvs" /boot/config*):

ipvsadm:
    格式:
        ipvsadm -A|E -t|u|f service-address [-s scheduler] [-p [timeout]]
        ipvsadm -D -t|u|f service-address
        ipvsadm -C
        ipvsadm -R
        ipvsadm -S [-n]
        ipvsadm -a|e -t|u|f service-address -r server-address [-g|i|m] [-w weight]
        ipvsadm -d -t|u|f service-address -r server-address
        ipvsadm -L|l [options]
        ipvsadm -Z [-t|u|f service-address]
        ipvsadm --set tcp tcpfin udp
        ipvsadm --start-daemon state [--mcast-interface interface]
                [--syncid syncid]
        ipvsadm --stop-daemon state
        ipvsadm -h
管理集群服务:增,删,改(对集群整体的处理)
  增加lvs集群服务:ipvsadm -A -t|u|f service-address [-s scheduler] [-p [timeout]]
    -t:基于TCP协议的集群服务
        service-address:与VIP绑定的套接字
    -u:基于UDP服务的集群服务
        service-address:与VIP绑定的套接字
    -f:基于防火墙协议(FWM—Firewall mark,防火墙标记)的集群服务
        通过iptables的mangle表对数据设置的标记
    -s:指定集群服务的调度算法(如果省略,默认是wlc)
    -p:是否开启持久连接
  修改lvs集群服务:ipvsadm -E -t|u|f service-address [-s scheduler] [-p [timeout]]
        参数和增加类似
  删除lvs集群服务:ipvsadm -D -t|u|f service-address
  清除lvs集群服务:ipvsadm -C(类似于iptables的“-F”)(最好不要轻易的使用)
管理集群中的RS:增,删,改(这是对集群中的哪些服务器进行处理的命令)
   在集群中添加RS:ipvsadm -a -t|u|f service-address -r server-address [-g|i|m] [-w weight]
    -r:指定要添加到集群中的后端RS的IP地址和端口
    -g:选择集群类型为DR(默认值)
    -i:选择集群类型为TUN
    -m:选择集群的类型为NAT
    -w:为RS(Real Server)设定的权重(不要设定的悬殊过大,否则分配会不当)
  修改集群中的RS:ipvsadm -e -t|u|f service-address -r server-address [-g|i|m] [-w weight]
  从集群中删除的RS:ipvsadm -d -t|u|f service-address -r server-address
查看lvs集群状态及属性信息:
  ipvsadm -L|l [options]:
   options包括:
    -c, --connection:查看当前的ipvs中的各种连接的状态
    --stats:显示lvs集群的统计数据信息
    --rate:显示lvs集群与传输速率有关的内容
    --timeout:显示TCP、TCP的FIN标志位及UDP会话的超时时长
保存和重载ipvs的规则(两种方法都可以):
  保存:
ipvsadm -S [-n](只是显示出来并不是保存,需要重定向,自己保存) > /PATH/TO/IPVS_RULE_FILE
ipvsadm-save > /PATH/TO/IPVS_RULE_FILE
  重载:
ipvsadm -R < /PATH/TO/IPVS_RULE_FILE
ipvsadm-restore < /PATH/TO/IPVS_RULE_FILE

    保存规则并于开机时自动载入:
    	CentOS 6-:
    	  # chkconfig ipvsadm on
    	  将规则保存至:/etc/sysconfig/ipvsadm

    	CentOS 7:
    	  将规则保存至:/etc/sysconfig/ipvsadm
    	  # systemctl enable ipvsadm.service
清空计数器(当想要重置的时候可以清空计数器):
  ipvsadm -Z [-t|u|f service-address]
    后头如果没参数则清空所有的计数器

    在了解了命令之后,我们就可以开始部署lvs-nat集群了,首先按照图中所示,配置好相应的IP,并在调度器上使用以下命令:

~]# yum install ipvsadm -y        #安装管理软件ipvsadm
~]# ipvsadm -A -t 172.15.0.2:80 -s rr            #创建一个集群服务
~]# ipvsadm -a -t 172.15.0.2:80 -r 172.16.128.18:80 -m -w 1
   #在刚才创建的集群中添加一台服务器,“-m”指定为NAT方式
~]# ipvsadm -a -t 172.15.0.2:80 -r 172.16.128.19:80 -m -w 2
   #在刚才创建的集群中添加一台服务器,“-w”指定权重(在NAT中权重没用,但是先写上,后边会用)

    然后在RS上安装httpd服务(所有服务器上都要安装)(默认是已经安装完的):

~]# yum install httpd -y
~]# route add default gw 172.16.128.17     #并指定网关,否则即使服务转到服务器上也回不去
~]# echo "This is 172.16.128.18" > /var/www/html/index.html     在172.16.128.18上执行
~]# echo "This is 172.16.128.19" > /var/www/html/index.html     在172.16.128.19上执行

最后将服务都开启:

~]# service httpd start         #CentOS 6 上

    回到调度器上进行验证:

技术分享

    验证通过之后,在调度器上开启转发功能:

~]# echo 1 > /proc/sys/net/ipv4/ip_forward

    这样,lvs-nat集群就配置完成了,我们可以在作为客户端的主机上通过命令来进行查看:

 ~]# for i in {1..10} ; do curl http://172.15.0.2 ; done       #使用循环的方式连续访问10次

技术分享

    从图中我们可以看出,调度器安装轮询的方式,一次访问172.16.128.19,一次访问172.16.128.18,此时我设置的是两个不同的网页,如果两个相同,那么在用户使用的时候就看不出差距,就可以实现任务均摊,来减轻服务器的负担。

    然后,我们可以更换一个算法,改为wlc算法:

~]# ipvsadm -E -t 172.15.0.2:80 -s wlc

    再使用上面的方式进行查看发现,两台服务器的工作分配方式变成了2比1,这是因为在上面添加服务器的时候172.16.128.18的权重为1,而172.16.128.19的权重为2:

技术分享

二、lvs-dr

    lvs-dr的配置相对于lvs-nat来说减轻了调度器的工作压力,如果是lvs-nat方式,那么不管是进入集群的数据包还是从集群中出来的数据包都要经过调度器进行分发,那么调度器就是这个集群的效率瓶颈,如果调度器不够好,集群的工作效率就会大打折扣。所以lvs-dr模型减轻了调度器的工作压力,只有进入集群的数据包才会经过调度器,而从集群中出来的数据包直接由服务器发送回客户端。不过这样又会遇到一个问题,就是IP地址的问题,如果直接从服务器进行发送,那么源地址就不是客户端请求的地址,客户端就会禁止这种数据包,所以lvs-dr模型通过伪装用户访问的IP地址来实现集群。架构的方式如图所示(客户端的IP现实中不会是这个,在这里只是为了进行简单的验证)(如果做过上面lvs-nat的实验,主机IP等配置需要重置):

技术分享

    此时的客户端可以和上图中所有的IP进行通信:

技术分享

在DR模型中,各个主机均需要配置VIP;解决地址冲突的方法通常有三种:

    1.在前端网关上静态绑定VIP和MAC;

    2.在各个RS中使用arptables进行arp报文的过滤;

    3.在各个RS中修改对应的内核参数,来限制ARP的通告和应答的级别;

在内核中通过更改下面两个值可以达到相应的效果:

arp_ignore:
0:默认值,对于从任何网络接口接收到对本机任意IP地址的ARP查询请求均予以回应;
1:只应答目标IP地址是入站接口上配置的IP地址所在网段的IP地址的ARP请求;
2:只应答目标IP地址是入站接口上配置的IP地址所在网段的IP地址的ARP请求,且来访IP地址也必须与该接口的IP地址在同一子网中;
3:不响应该网络接口的ARP请求,而只对设置为全局的IP地址做应答;
4-7:保留;
8:不应答所有的ARP请求;
arp_announce:
0:默认值,将本机所有接口的信息向所有接口所连接的网络中通告;
1:尽量避免向与本接口不同网络中的其他接口通告;
2:绝对避免向非本网络的主机通告;

    在两台服务器上都运行下面的命令:

echo 1 > /proc/sys/net/ipv4/conf/all/arp_ignore  #设置所有接口(在所有中包含lo接口)
echo 1 > /proc/sys/net/ipv4/conf/lo/arp_ignore   #设置lo接口(为了安全起见,在lo接口上再设置一次)
echo 2 > /proc/sys/net/ipv4/conf/all/arp_announce
echo 2 > /proc/sys/net/ipv4/conf/lo/arp_announce
ifconfig lo:0 172.16.128.128 netmask 255.255.255.255  broadcast 172.16.128.128 up
route add -host 172.16.128.128 dev lo:0

    这样,在服务器上的配置就完成了,然后还是像lvs-nat一样将httpd服务开启,并设置主页,之后回到调度器上执行命令:

~]# ifconfig eth0:0 172.16.128.128 netmask 255.255.255.255  broadcast 172.16.128.128 up
~]# ipvsadm -C            #情空规则
~]# ipvsadm -A -t 172.16.128.128:80 -s rr        #添加集群
~]# ipvsadm -a -t 172.16.128.128:80 -r 172.16.128.18 -g -w 1    #向集群中添加服务器
~]# ipvsadm -a -t 172.16.128.128:80 -r 172.16.128.19 -g -w 3    #添加几个,就写几个
    “-g”选项是选择集群类型为DR,不写也可以,因为默认就是这个

    到此,lvs-dr模型就配置好了,可以到客户端(172.16.128.17)上使用命令进行查看:

~]# for i in {1..10} ; do curl http://172.16.128.128 ; done

技术分享

    更改算法的方式和lvs-nat一样。


三、基于标记的转发

    上面是两种架构的方式,接下来要说一说基于标记的转发方式,可以使用任何一个架构方式。通过防火墙的mangle表的PREROUTING链来对访问调度器的数据包进行标记,例如访问80端口就给其标记为6,然后在配置集群的时候就可以使用这个标记来进行分配。这样的方式相对于其他的方法更为灵活。配置的方法是首先使用iptables进行标记:

iptables -t mangle -F         #清空规则,目的是防止其他规则的影响,可以不用执行
iptables -t mangle -A PREROUTING -d 172.16.128.128 -p tcp --dport 80 -j MARK --set-mark 6

    然后使用ipvsadm命令基于标记进行服务器调度:

ipvsadm -C
ipvsadm -A -f 6 -s rr            #“-f”后跟的是标记的记号,根据上头设定的记号进行修改
ipvsadm -a -f 6 -r 172.16.128.18:80 -g -w 1
ipvsadm -a -f 6 -r 172.16.128.19:80 -g -w 3

技术分享

    上面的命令都是在调度器上进行配置,服务器不用管,下面使用客户端查看

技术分享

四、长连接

    在上面的基础上,在调度器上使用下面这条命令:

~]# ipvsadm -E -f 6 -s wrr -p

    这条命令的作用是构建长连接,即如果一个客户端连接了集群中的服务器之后,那么在“-p”选项后指定的时间(默认360秒)之内访问还是这个服务器。

    如图所示,在调度器上使用这个命令:

技术分享

    最后就可以在客户端上重复连接10次,可以发现10次都是连接的同一个服务器:

技术分享

    如果换一个主机,就会是另外一个服务器了(根据算法进行选择)




以上是关于同时快速部署100台linux服务器,有啥现成的解决方案吗?的主要内容,如果未能解决你的问题,请参考以下文章

部署nginx+keepalived实现双机双主高可用性环境

分布式爬虫的部署之Scrapyd对接Docker

Centos7 实战Kickstart 批量系统部署

当我的 iOS 开发者帐户中有超过 100 台设备时,有啥方法可以添加更多 UDID?

Linux集群部署和ipvsadm命令的使用

Etcd v3.3.10 版本部署(3台集群)