FastDFS之Linux下搭建
Posted zengnansheng
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了FastDFS之Linux下搭建相关的知识,希望对你有一定的参考价值。
1.软件环境
CentOS6.5
FastDFS v5.05
libfastcommon- - master.zip(是从 FastDFS 和 FastDHT 中提取出来的公共 C 函数库)
fastdfs- - nginx- - module_v1.16.tar.gz
nginx- - 1.6.2.tar.gz
fastdfs_client_java._v1.25.tar.gz
2.FastDFS集群规划
描述 |
IP地址 |
虚拟机名称 |
用户名 |
分组 |
跟踪服务器1 |
192.168.1.170 |
tracker01_170 |
tracker01 |
|
跟踪服务器2 |
192.168.1.180 |
tracker02_180 |
tracker02 |
|
存储服务器1 |
192.168.1.171 |
storage01_g1_171 |
storage01 |
group1 |
存储服务器2 |
192.168.1.172 |
storage02_g1_172 |
storage02 |
group1 |
存储服务器3 |
192.168.1.173 |
storage03_g2_173 |
storage03 |
group2 |
存储服务器4 |
192.168.1.174 |
storage04_g2_174 |
storage04 |
group2 |
存储服务器5 |
192.168.1.175 |
storage05_g3_175 |
storage05 |
group3 |
存储服务器6 |
192.168.1.176 |
storage06_g3_176 |
storage06 |
group3 |
1.FastDFS安装(所有tracker服务器和storage服务器均有如下操作)
1.1 编译和安装所需的依赖包
# yum install make cmake gcc gcc-c++
1.2 安装libfastcommon
1.2.1上传或下载 libfastcommon-master.zip 到/usr/local/src目录,解压
# cd /usr/local/src/
# unzip libfastcommon-master.zip
# cd libfastcommon-master
1.2.2编译和安装
# ./make.sh
# ./make.sh install
libfastcommon 默认安装到了
/usr/lib64/libfastcommon.so
/usr/lib64/libfdfsclient.so
1.2.3因为 FastDFS 主程序设置的 lib 目录是/usr/local/lib,所以需要创建软链接
# ln -s /usr/lib64/libfastcommon.so /usr/local/lib/libfastcommon.so
# ln -s /usr/lib64/libfastcommon.so /usr/lib/libfastcommon.so
# ln -s /usr/lib64/libfdfsclient.so /usr/local/lib/libfdfsclient.so
# ln -s /usr/lib64/libfdfsclient.so /usr/lib/libfdfsclient.so
1.3安装 FastDFS
1.3.1上传或下载 FastDFS 源码包(FastDFS_v5.05.tar.gz)到 /usr/local/src 目录,解压
# cd /usr/local/src/
# tar -zxvf FastDFS_v5.05.tar.gz
# cd FastDFS
1.3.2编译、安装(编译前要确保已经成功安装了 libfastcommon)
# ./make.sh
# ./make.sh install
采用默认安装的方式安装,安装后的相应文件与目录:
A、服务脚本在:
/etc/init.d/fdfs_storaged
/etc/init.d/fdfs_tracker
B、配置文件在(样例配置文件):
/etc/fdfs/client.conf.sample
/etc/fdfs/storage.conf.sample
/etc/fdfs/tracker.conf.sample
C、命令工具在/usr/bin/目录下的:
fdfs_appender_test
fdfs_appender_test1
fdfs_append_file
fdfs_crc32
fdfs_delete_file
fdfs_download_file
fdfs_file_info
fdfs_monitor
fdfs_storaged
fdfs_test
fdfs_test1
fdfs_trackerd
fdfs_upload_appender
fdfs_upload_file
stop.sh
restart.sh
1.3.3因为 FastDFS 服务脚本设置的 bin 目录是/usr/local/bin,但实际命令安装在/usr/bin,可以进入/user/bin 目录使用以下命令查看 fdfs 的相关命令:
# cd /usr/bin/
# ls | grep fdfs
因此需要修改 FastDFS 服务脚本中相应的命令路径,也就是把/etc/init.d/fdfs_storaged和/etc/init.d/fdfs_tracker 两个脚本中的/usr/local/bin 修改成/usr/bin:
# vi /etc/init.d/fdfs_trackerd
使用查找替换命令进统一修改::%s+/usr/local/bin+/usr/bin
# vi /etc/init.d/fdfs_storaged
使用查找替换命令进统一修改::%s+/usr/local/bin+/usr/bin
2. 配置FastDFS跟踪器Tracker(192.168.1.170,192.168.1.180)
2.1复制 FastDFS 跟踪器样例配置文件,并重命名
# cd /etc/fdfs/
# cp tracker.conf.sample tracker.conf
2.2编辑跟踪器配置文件
# vi /etc/fdfs/tracker.conf
修改的内容如下:
disabled=false #启用配置文件
port=22122 #tracker 的端口号,一般采用 22122 这个默认端口
base_path=/fastdfs/tracker #tracker 的数据文件和日志目录
# the method of selecting group to upload files
# 0: round robin
# 1: specify group
# 2: load balance, select the max free space group to upload file
store_lookup=0(采取轮巡方式选择要上传的组进行存储,默认2 选择最大空闲空间的组)
(其它参数保留默认配置,附跟踪器配置文件/conf/tracker.conf)
2.3创建基础数据目录(参考基础目录 base_path 配置)
# mkdir -p /fastdfs/tracker
2.4防火墙中打开跟踪器端口(默认为 22122)
# vi /etc/sysconfig/iptables
添加如下端口行:
## FastDFS Tracker Port
-A INPUT -m state --state NEW -m tcp -p tcp --dport 22122 -j ACCEPT
重启防火墙:
# service iptables restart
2.5启动 Tracker
# /etc/init.d/fdfs_trackerd start
(初次成功启动,会在/fastdfs/tracker 目录下创建 data、logs 两个目录)可以通过以下两个方法查看 tracker 是否启动成功:
2.5.1查看 22122 端口监听情况
# netstat -unltp|grep fdfs
2.5.2 通过以下命令查看 tracker 的启动日志,看是否有错误
# tail -100f /fastdfs/tracker/logs/trackerd.log
2.6关闭 Tracker
# /etc/init.d/fdfs_trackerd stop
2.7设置 FastDFS 跟踪器开机启动
# vi /etc/rc.d/rc.local
添加以下内容:
## FastDFS Tracker
/etc/init.d/fdfs_trackerd start
3.配置FastDFS存储(192.168.1.171 ~ 176)
3.1复制 FastDFS 存储器样例配置文件,并重命名
# cd /etc/fdfs/
# cp storage.conf.sample storage.conf
3.2编辑存储器样例配置文件
# vi /etc/fdfs/storage.conf
修改的内容如下:
disabled=false #启用配置文件
group_name=group1 #组名(第一组为 group1,第二组为 group2)
port=23000 #storage 的端口号,同一个组的 storage 端口号必须相同
base_path=/fastdfs/storage #设置 storage 的日志目录
store_path0=/fastdfs/storage #存储路径
store_path_count=1 #存储路径个数,需要和 store_path 个数匹配
tracker_server=192.168.1.170:22122 #tracker 服务器的 IP 地址和端口
tracker_server=192.168.1.180:22122 #多个 tracker 直接添加多条配置
http.server_port=8888 #设置 http 端口号
(其它参数保留默认配置,附存储节点配置文件/conf/storage.conf)
3.3创建基础数据目录(参考基础目录 base_path 配置)
# mkdir -p /fastdfs/storage
3.4防火墙中打开存储器端口(默认为 23000)
# vi /etc/sysconfig/iptables
添加如下端口行:
## FastDFS Storage Port
-A INPUT -m state --state NEW -m tcp -p tcp --dport 23000 -j ACCEPT
重启防火墙:
# service iptables restart
3.5启动 Storage
# /etc/init.d/fdfs_storaged start
(初次成功启动,会在/fastdfs/storage 目录下创建数据目录 data 和日志目录 logs)
各节点启动动,使用 tail -f /fastdfs/storage/logs/storaged.log 命令监听存储节点日志,可以
看到存储节点链接到跟踪器,并提示哪一个为 leader 跟踪器。同时也会看到同一组中的其他节点加入
进来的日志信息。
查看 23000 端口监听情况:
# netstat -unltp|grep fdfs
所有 Storage 节点都启动之后,可以在任一 Storage 节点上使用如下命令查看集群信息:
# /usr/bin/fdfs_monitor /etc/fdfs/storage.conf
3.6关闭storage
# /etc/init.d/fdfs_storaged stop
3.7设置storage开机启动
# vi /etc/rc.d/rc.local
添加:
## FastDFS Storage
/etc/init.d/fdfs_storaged start
4.文件上传测试(192.168.1.170)
4.1修改 Tracker 服务器中的客户端配置文件
# cp /etc/fdfs/client.conf.sample /etc/fdfs/client.conf
# vi /etc/fdfs/client.conf
base_path=/fastdfs/tracker
tracker_server=192.168.1.170:22122
tracker_server=192.168.1.180:22122
4.2Xftp5上传test.png到192.168.1.170目录/usr/local/src/,用作上传测试
FastDFS上传命令如下:
# /usr/bin/fdfs_upload_file /etc/fdfs/client.conf /usr/local/src/test.png
group2/M00/00/00/wKgBrlhEbz6ARyVHAAB9W1YdTCY793.png
能返回文件ID号,说明上传成功。
在group2下(173和174)的数据目录下可找到刚才上传的文件:
# ll /fastdfs/storage/data/00/00/
5.在各个存储节点上安装Nginx(192.168.1.171 ~ 176)
5.1fastdfs-nginx-module 作用说明
FastDFS 通过 Tracker 服务器,将文件放在 Storage 服务器存储,但是同组存储服务器之间需要进入文件复制,有同步延迟的问题。假设 Tracker 服务器将文件上传到了 192.168.1.135,上传成功后文件 ID已经返回给客户端。此时 FastDFS 存储集群机制会将这个文件同步到同组存储 192.168.1.136,在文件还没有复制完成的情况下,客户端如果用这个文件 ID 在 192.168.1.136 上取文件,就会出现文件无法访问的错误。而 fastdfs-nginx-module 可以重定向文件连接到源服务器取文件,避免客户端由于复制延迟导致的文件无法访问错误。(解压后的 fastdfs-nginx-module 在 nginx 安装时使用)
5.2上传 fastdfs-nginx-module_v1.16.tar.gz 到/usr/local/src,解压
# cd /usr/local/src/
# tar -zxvf fastdfs-nginx-module_v1.16.tar.gz
5.3修改 fastdfs-nginx-module 的 config 配置文件
# vi /usr/local/src/fastdfs-nginx-module/src/config
CORE_INCS="$CORE_INCS /usr/local/include/fastdfs /usr/local/include/fastcommon/"
修改为:CORE_INCS="$CORE_INCS /usr/include/fastdfs /usr/include/fastcommon/"
(注意:这个路径修改是很重要的,不然在 nginx 编译的时候会报错的)
5.4上传当前的稳定版本 Nginx(nginx-1.6.2.tar.gz)到/usr/local/src 目录
5.5安装编译 Nginx 所需的依赖包
# yum install gcc gcc-c++ make automake autoconf libtool pcre pcre-devel zlib zlib-devel openssl openssl-devel
5.6编译安装 Nginx(添加 fastdfs-nginx-module 模块)
# cd /usr/local/src/
# tar -zxvf nginx-1.6.2.tar.gz
# cd nginx-1.6.2
# ./configure --prefix=/usr/local/nginx --add-module=/usr/local/src/fastdfs-nginx-module/src
# make && make install
5.7复制 fastdfs-nginx-module 源码中的配置文件到/etc/fdfs 目录,并修改
# cp /usr/local/src/fastdfs-nginx-module/src/mod_fastdfs.conf /etc/fdfs/
# vi /etc/fdfs/mod_fastdfs.conf
5.7.1第一组 Storage 的 mod_fastdfs.conf 配置如下
connect_timeout=10
base_path=/tmp
tracker_server=192.168.1.170:22122
tracker_server=192.168.1.180:22122
storage_server_port=23000
group_name=group1
url_have_group_name = true
store_path0=/fastdfs/storage
group_count = 3
[group1]
group_name=group1
storage_server_port=23000
store_path_count=1
store_path0=/fastdfs/storage
[group2]
group_name=group2
storage_server_port=23000
store_path_count=1
store_path0=/fastdfs/storage
[group3]
group_name=group3
storage_server_port=23000
store_path_count=1
store_path0=/fastdfs/storage
5.7.2第二组 Storage 的 mod_fastdfs.conf 配置与第一组配置只有 group_name 不同
group_name=group2
5.7.3第三组 Storage 的 mod_fastdfs.conf 配置与第一组配置只有 group_name 不同
group_name=group3
(附配置文件/conf/mod_fastdfs.conf)
5.8复制 FastDFS 的部分配置文件到/etc/fdfs 目录
# cd /usr/local/src/FastDFS/conf
# cp http.conf mime.types /etc/fdfs/
5.9在/fastdfs/storage 文件存储目录下创建软连接,将其链接到实际存放数据的目录
# ln -s /fastdfs/storage/data/ /fastdfs/storage/data/M00
5.10配置 Nginx,简洁版 nginx 配置样例
# vi /usr/local/nginx/conf/nginx.conf
部分配置如下:
user storage01;
server {
listen 8888;
server_name localhost;
location /group1/M00 {
#alias /fastdfs/storage/data;
ngx_fastdfs_module;
}
error_page 500 502 503 504 /50x.html;
location = /50x.html {
root html;
}
}
(附配置文件/conf/storage_nginx/nginx.conf)
注意、说明:
A、8888 端口值是要与/etc/fdfs/storage.conf 中的 http.server_port=8888 相对应,
因为 http.server_port 默认为 8888,如果想改成 80,则要对应修改过来。
B、Storage 对应有多个 group 的情况下,访问路径带 group 名,如/group1/M00/00/00/xxx,
对应的 Nginx 配置为:
location ~/group([0-9])/M00 {
ngx_fastdfs_module;
}
C、如查下载时如发现老报 404,将 nginx.conf 第一行 user nobody 修改为 user root 后重新启动。
5.11防火墙中打开 Nginx 的 8888 端口
# vi /etc/sysconfig/iptables
添加:
## Nginx Port
-A INPUT -m state --state NEW -m tcp -p tcp --dport 8888 -j ACCEPT
重启防火墙: # service iptables restart
5.12启动 Nginx
# /usr/local/nginx/sbin/nginx
ngx_http_fastdfs_set pid=xxx
(重启 Nginx 的命令为:/usr/local/nginx/sbin/nginx -s reload)
5.13设置Nginx开机启动
# vi /etc/rc.local
加入:
## Nginx
/usr/local/nginx/sbin/nginx
5.14通过浏览器访问测试时上传的文件
http://192.168.1.173:8888/group2/M00/00/00/wKgBrlhEbz6ARyVHAAB9W1YdTCY793.png
http://192.168.1.184:8888/group2/M00/00/00/wKgBrlhEbz6ARyVHAAB9W1YdTCY793.png
6.在跟踪器上安装Nginx(192.168.1.170,192.168.1.180)
6.1在 tracker 上安装的 nginx 主要为了提供 http 访问的反向代理、负载均衡以及缓存服务
6.2安装编译 Nginx 所需的依赖包
# yum install gcc gcc-c++ make automake autoconf libtool pcre pcre-devel zlib zlib-devel openssl openssl-devel
6.3上传 ngx_cache_purge-2.3.tar.gz 到/usr/local/src,解压
# cd /usr/local/src/
# tar -zxvf ngx_cache_purge-2.3.tar.gz
6.4上传当前的稳定版本 Nginx(nginx-1.6.2.tar.gz)到/usr/local/src 目录
6.5编译安装 Nginx(添加 ngx_cache_purge 模块)
# cd /usr/local/src/
# tar -zxvf nginx-1.6.2.tar.gz
# cd nginx-1.6.2
# ./configure --prefix=/usr/local/nginx --add-module=/usr/local/src/ngx_cache_purge-2.3
# make && make install
6.6配置 Nginx,设置负载均衡以及缓存
# vi /usr/local/nginx/conf/nginx.conf
部分配置如下:
user tracker01;
events {
worker_connections 1024;
use epoll;
}
http {
#设置缓存
。。。。
#设置缓存存储路径、存储方式、分配内存大小、磁盘最大空间、缓存期限
。。。。
#设置 group1 的服务器
upstream fdfs_group1 {
server 192.168.1.171:8888 weight=1 max_fails=2 fail_timeout=30s;
server 192.168.1.172:8888 weight=1 max_fails=2 fail_timeout=30s;
}
#group2
#group3
server{
listen 8000;
server_name localhost;
#设置 group 的负载均衡参数
location /group1/M00 {
proxy_pass http://fdfs_group1;
。。。。
}
#group2
#group3
#设置清除缓存的访问权限
location ~/purge(/.*) {
allow 127.0.0.1;
allow 192.168.1.111;
allow 192.168.1.0/24;
deny all;
proxy_cache_purge http-cache $1$is_args$args;
}
}
}
(附配置文件/conf/tracker_nginx/nginx.conf)
6.7按以上 nginx 配置文件的要求,创建对应的缓存目录
# mkdir -p /fastdfs/cache/nginx/proxy_cache
# mkdir -p /fastdfs/cache/nginx/proxy_cache/tmp
6.8系统防火墙打开对应的端口
# vi /etc/sysconfig/iptables
## Nginx
-A INPUT -m state --state NEW -m tcp -p tcp --dport 8000 -j ACCEPT
重启防火墙
# service iptables restart
6.9启动 Nginx
# /usr/local/nginx/sbin/nginx
6.10重启 Nginx
# /usr/local/nginx/sbin/nginx -s reload
6.11设置 Nginx 开机启动
# vi /etc/rc.local
加入:
## Nginx
/usr/local/nginx/sbin/nginx
6.12文件访问测试
http://192.168.1.170:8000/group2/M00/00/00/wKgBrlhEbz6ARyVHAAB9W1YdTCY793.png
http://192.168.1.180:8000/group2/M00/00/00/wKgBrlhEbz6ARyVHAAB9W1YdTCY793.png
以上是最间配置,多次测试可以发现,每一个 Tracker 中的 Nginx 都单独对后端的 Storage 组做了负载均衡,但整套 FastDFS 集群如果想对外提供统一的文件访问地址,还需要对两个 Tracker 中的 Nginx 进行 HA 集群。
=======================================Keepalived+Nginx实现高可用Web负载均衡==========================================
一.所需安装包
keepalived-1.2.18.tar.gz
二.方案规划
VIP |
IP |
主机名 |
Nginx端口 |
默认主从 |
192.168.1.77 |
192.168.1.170 |
tracker01 |
8000 |
MASTER |
192.168.1.180 |
tracker02 |
8000 |
BACKUP |
3.本文档操作是在FastDFS安装并完成基础配置之后,故Nginx均已安装完毕。直接开始Keepalived开始配置
1.安装Keepalived(192.168.1.170, 192.168.1.180)
1.1上传或下载 keepalived(keepalived-1.2.18.tar.gz)到 /usr/local/src 目录
1.2解压安装
# cd /usr/local/src
# tar -zxvf keepalived-1.2.18.tar.gz
# cd keepalived-1.2.18
# ./configure --prefix=/usr/local/keepalived
# make && make install
备注:编译可能报错
configure: error:
!!! OpenSSL is not properly installed on your system. !!!
!!! Can not include OpenSSL headers files.
解决:yum -y install openssl-devel
1.3将 keepalived 安装成 Linux 系统服务
因为没有使用 keepalived 的默认路径安装(默认是/usr/local),安装完成之后,需要做一些工作
复制默认配置文件到默认路径
# mkdir /etc/keepalived
# cp /usr/local/keepalived/etc/keepalived/keepalived.conf /etc/keepalived/
复制 keepalived 服务脚本到默认的地址
# cp /usr/local/keepalived/etc/rc.d/init.d/keepalived /etc/init.d/
# cp /usr/local/keepalived/etc/sysconfig/keepalived /etc/sysconfig/
# ln -s /usr/local/sbin/keepalived /usr/sbin/
# ln -s /usr/local/keepalived/sbin/keepalived /sbin/
设置 keepalived 服务开机启动
# chkconfig keepalived on
1.4修改 Keepalived 配置文件
# vi /etc/keepalived/keepalived.conf
1.4.1 MASTER 节点配置文件(192.168.1.170)
! Configuration File for keepalived
global_defs {
## keepalived 自带的邮件提醒需要开启 sendmail 服务。建议用独立的监控或第三方 SMTP
router_id tracker01 ## 标识本节点的字条串,通常为 hostname
}
## keepalived 会定时执行脚本并对脚本执行的结果进行分析,动态调整 vrrp_instance 的优先级。如果脚本执行结果为 0,并且 weight 配置的值大于 0,则优先级相应的增加。如果脚本执行结果非 0,并且 weight配置的值小于 0,则优先级相应的减少。其他情况,维持原本配置的优先级,即配置文件中 priority 对应的值。
vrrp_script chk_nginx {
script "/etc/keepalived/nginx_check.sh" ## 检测 nginx 状态的脚本路径
interval 2 ## 检测时间间隔
weight -20 ## 如果条件成立,权重-20
}
## 定义虚拟路由,VI_1 为虚拟路由的标示符,自己定义名称
vrrp_instance VI_1 {
state MASTER ## 主节点为 MASTER,对应的备份节点为 BACKUP
interface eth1 ## 绑定虚拟 IP 的网络接口,与本机 IP 地址所在的网络接口相同,我的是 eth1
virtual_router_id 170 ## 虚拟路由的 ID 号,两个节点设置必须一样,可选 IP 最后一段使用, 相同的 VRID 为一个组,他将决定多播的 MAC 地址
mcast_src_ip 192.168.1.170 ## 本机 IP 地址
priority 100 ## 节点优先级,值范围 0-254,MASTER 要比 BACKUP 高
nopreempt ## 优先级高的设置 nopreempt 解决异常恢复后再次抢占的问题
advert_int 1 ## 组播信息发送间隔,两个节点设置必须一样,默认 1s
## 设置验证信息,两个节点必须一致
authentication {
auth_type PASS
auth_pass 1111 ## 真实生产,按需求对应该过来
}
## 将 track_script 块加入 instance 配置块
track_script {
chk_nginx ## 执行 Nginx 监控的服务
}
## 虚拟 IP 池, 两个节点设置必须一样
virtual_ipaddress {
192.168.1.77 ## 虚拟 ip,可以定义多个
}
}
(附配置文件/conf/keepalived/master/keepalived.conf)
1.4.2 BACKUP节点配置文件(192.168.1.180)
! Configuration File for keepalived
global_defs {
## keepalived 自带的邮件提醒需要开启 sendmail 服务。建议用独立的监控或第三方 SMTP
router_id tracker02 ## 标识本节点的字条串,通常为 hostname
}
## keepalived 会定时执行脚本并对脚本执行的结果进行分析,动态调整 vrrp_instance 的优先级。如果脚本执行结果为 0,并且 weight 配置的值大于 0,则优先级相应的增加。如果脚本执行结果非 0,并且 weight配置的值小于 0,则优先级相应的减少。其他情况,维持原本配置的优先级,即配置文件中 priority 对应的值。
vrrp_script chk_nginx {
script "/etc/keepalived/nginx_check.sh" ## 检测 nginx 状态的脚本路径
interval 2 ## 检测时间间隔
weight -20 ## 如果条件成立,权重-20
}
## 定义虚拟路由,VI_1 为虚拟路由的标示符,自己定义名称
vrrp_instance VI_1 {
state BACKUP ## 主节点为 MASTER,对应的备份节点为 BACKUP
interface eth1 ## 绑定虚拟 IP 的网络接口,与本机 IP 地址所在的网络接口相同,我的是 eth1
virtual_router_id 170 ## 虚拟路由的 ID号,两个节点设置必须一样,可选 IP 最后一段使用, 相同的VRID为一个组,他将决定多播的 MAC地址
mcast_src_ip 192.168.1.180 ## 本机IP地址
priority 100 ## 节点优先级,值范围 0-254,MASTER 要比 BACKUP 高
nopreempt ## 优先级高的设置 nopreempt 解决异常恢复后再次抢占的问题
advert_int 1 ## 组播信息发送间隔,两个节点设置必须一样,默认 1s
## 设置验证信息,两个节点必须一致
authentication {
auth_type PASS
auth_pass 1111 ## 真实生产,按需求对应该过来
}
## 将 track_script 块加入 instance 配置块
track_script {
chk_nginx ## 执行 Nginx 监控的服务
}
## 虚拟 IP 池, 两个节点设置必须一样
virtual_ipaddress {
192.168.1.77 ## 虚拟 ip,可以定义多个
}
}
(附配置文件/conf/keepalived/backup/keepalived.conf)
1.5编写 Nginx 状态检测脚本 /etc/keepalived/nginx_check.sh (已在 keepalived.conf 中配置)
# vi /etc/keepalived/nginx_check.sh
脚本要求:如果 nginx 停止运行,尝试启动,如果无法启动则杀死本机的 keepalived 进程,keepalied将虚拟 ip 绑定到 BACKUP 机器上。内容如下:
#!/bin/bash
A=`ps -C nginx –no-header |wc -l`
if [ $A -eq 0 ];then
/usr/local/nginx/sbin/nginx
sleep 2
if [ `ps -C nginx --no-header |wc -l` -eq 0 ];then
killall keepalived
fi
fi
保存后,给脚本赋执行权限:
# chmod +x /etc/keepalived/nginx_check.sh
1.6启动 Keepalived
# service keepalived start
1.7 Keepalived+Nginx 的高可用测试
1.7.1关闭 192.168.1.170中的 Nginx,Keepalived 会将它重新启动
# /usr/local/nginx/sbin/nginx -s stop
1.7.2关闭 192.168.1.170中的 Keepalived,VIP会切换到 192.168.1.180中
# service keepalived stop
1.7.3重新启动 192.168.1.170中的 Keepalived,VIP又会切回到 192.168.1.170中来
service keepalived start
查看虚拟IP状态 # ip add
Keepalived 服务管理命令:
停止:service keepalived stop
启动:service keepalived start
重启:service keepalived restart
查看状态:service keepalived status
1.8方便测试,将170和180的Nginx主页修改一下
# vi /usr/local/nginx/html/index.html
<hr/>
<b>tracker01_170_master</b>
<hr/>
<hr/>
<b>tracker02_180_backup</b>
<hr/>
1.9文件访问测试:
http://192.168.1.77:8000/group2/M00/00/00/wKgBrlhEbz6ARyVHAAB9W1YdTCY793.png
至此配置完毕。
VIP(8000) |
tracker_Nginx(8000) |
storage_Nginx(8888) |
192.168.1.77 |
192.168.1.170 192.168.1.180 |
192.168.1.171 192.168.1.172 192.168.1.173 192.168.1.174 192.168.1.175 192.168.1.176 |
文件访问:
storage |
http://192.168.1.173:8888/group2/M00/00/00/wKgBrlhEbz6ARyVHAAB9W1YdTCY793.png http://192.168.1.174:8888/group2/M00/00/00/wKgBrlhEbz6ARyVHAAB9W1YdTCY793.png |
tracker |
http://192.168.1.170:8000/group2/M00/00/00/wKgBrlhEbz6ARyVHAAB9W1YdTCY793.png http://192.168.1.180:8000/group2/M00/00/00/wKgBrlhEbz6ARyVHAAB9W1YdTCY793.png |
VIP |
http://192.168.1.77:8000/group2/M00/00/00/wKgBrlhEbz6ARyVHAAB9W1YdTCY793.png |
以上是关于FastDFS之Linux下搭建的主要内容,如果未能解决你的问题,请参考以下文章