Nginx+Tomcat实现负载均衡小demo

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Nginx+Tomcat实现负载均衡小demo相关的知识,希望对你有一定的参考价值。

一、搭建Tomcat服务

        下载安装JDK和Tomcat就不说了,太简单了。由于是win7单机环境测试,启动多个Tomcat服务可以通过在server.xml配置文件中修改端口实现。准备两个Tomcat,比如使用两个不同版本的Tomcat(相同版本可以更改下文件名或者放到不同目录下)

技术分享

1、创建项目

在webapps目录下,创建一个文件夹,例如test,并在该文件夹下面创建文件index.html,编辑内容,例如

 

[html] view plain copy
 
  1. <html>  
  2. <title>nginx负载均衡测试</title>  
  3. <body>  
  4.  <h1>我来自Server1(127.0.0.1:8080)</h1>  
  5. </body>  
  6. </html>  

将test拷贝到第二个tomcat的webapps目录下并将内容做相应修改

 

 

[html] view plain copy
 
  1. <html>  
  2. <title>Nginx负载均衡测试</title>  
  3. <body>  
  4.  <h1>我来自Server2(127.0.0.1:8081)</h1>  
  5. </body>  
  6. </html>  

2、配置server.xml

进入conf目录配置server.xml。首先修改端口,保持第一个tomcat端口不变,将第二个tomcat的相关端口在原基础上加1。然后在host节点中分别添加以下内容

 

 

[html] view plain copy
 
  1. <Context path="/test" docBase="D:\DevServiceConfig\apache-tomcat-6.0.14\webapps\test" reloadable="false"/>  

 

 

[html] view plain copy
 
  1. <Context path="/test" docBase="D:\DevServiceConfig\apache-tomcat-6.0.44\webapps\test" reloadable="false"/>  

docBase为项目的绝对路径

 

3、启动tomcat

分别进入tomcat的bin目录,双击startup.bat启动tomcat服务,如果显示端口占用,可能是因为设置了环境变量,到系统环境变量中将CATALINA_HOME删除即可。在浏览器测试下

技术分享

技术分享

没问题,进入下一步。

二、Nginx配置

1、下载安装

这里下载了最新版本技术分享

将其解压即可

2、启动

通过CMD命令行进入Nginx目录,启动Nginx

 

[plain] view plain copy
 
  1. start nginx  

闪一下就没了,可以通过以下命令查看是否启动成功

 

 

[plain] view plain copy
 
  1. tasklist /fi "imagename eq nginx.exe"  

有以下回显表明成功

 

技术分享

或者可以在浏览器输入127.0.0.1,出现Nginx欢迎页面表示启动成功

技术分享


nginx命令参数可以通过-h选项查看

技术分享

常用命令有

停止nginx服务:

nginx -s quit

nginx -s stop

stop与quit参数的区别在于stop是快速停止nginx,可能并不保存相关信息,quit是完整有序的停止nginx,并保存相关信息。

重新加载配置文件:

nginx -s reload

3、配置nginx

进入conf目录,修改nginx.conf。

在http节点下添加以下内容,upstream节点设置负载均衡的服务器列表,将之前启动的两台tomcat服务器配置进去

 

[plain] view plain copy
 
  1. upstream web_server{  
  2.  server 127.0.0.1:8080 weight=1;  
  3.  server 127.0.0.1:8081 weight=1;  
  4. }  

默认是轮询负载策略,nginx提供四种负载策略

 

  • 轮询:(默认,weight  指定权重)
  • ip_hash:  根据请求IP地址hash结果分配后台服务
  • fair:按后端服务器的响应时间来分配请求,响应时间短的优先分配
  • url_hash:按访问url的hash结果来分配请求

虚拟主机配置,修改server节点

 

[plain] view plain copy
 
  1. server {  
  2.     listen       80;#默认监听80端口  
  3.     server_name  localhost;  
  4.   
  5.     #charset koi8-r;  
  6.   
  7.     #access_log  logs/host.access.log  main;  
  8.   
  9.   
  10.     location / { #默认请求  
  11.         root   /test;#代码路径  
  12.         index  index.html index.htm;  
  13.        proxy_pass http://web_server;#对应一个upstream  
  14.     }  



 

简单的配置结束,测试下,在浏览器输入127.0.0.1:80/test

 

技术分享

技术分享

不停刷新这两个页面将来回切换,因为权重设置都为1。权重设置越大,被请求的几率越大。

三、Nginx配置文件详解

nginx的配置是nginx的核心,以下内容为网络上找的配置介绍,详细见官网http://wiki.nginx.org/Configuration

 

[plain] view plain copy
 
  1. #定义Nginx运行的用户和用户组  
  2. user www www;  
  3. #nginx进程数,建议设置为等于CPU总核心数。  
  4. worker_processes 8;  
  5. #全局错误日志定义类型,[ debug | info | notice | warn | error | crit ]  
  6. error_log /var/log/nginx/error.log info;  
  7. #进程文件  
  8. pid /var/run/nginx.pid;  
  9. #一个nginx进程打开的最多文件描述符数目,理论值应该是最多打开文件数(系统的值ulimit -n)与nginx进程数相除,但是nginx分配请求并不均匀,所以建议与ulimit -n的值保持一致。  
  10. worker_rlimit_nofile 65535;  
  11. #工作模式与连接数上限  
  12. events  
  13. {  
  14. #参考事件模型,use [ kqueue | rtsig | epoll | /dev/poll | select | poll ]; epoll模型是Linux 2.6以上版本内核中的高性能网络I/O模型,如果跑在FreeBSD上面,就用kqueue模型。  
  15. use epoll;  
  16. #单个进程最大连接数(最大连接数=连接数*进程数)  
  17. worker_connections 65535;  
  18. }  
  19.   
  20. #设定http服务器  
  21. http  
  22. {  
  23. include mime.types; #文件扩展名与文件类型映射表  
  24. default_type application/octet-stream; #默认文件类型  
  25. #charset utf-8; #默认编码  
  26. server_names_hash_bucket_size 128; #服务器名字的hash表大小  
  27. client_header_buffer_size 32k; #上传文件大小限制  
  28. large_client_header_buffers 4 64k; #设定请求缓  
  29. client_max_body_size 8m; #设定请求缓  
  30. sendfile on; #开启高效文件传输模式,sendfile指令指定nginx是否调用sendfile函数来输出文件,对于普通应用设为 on,如果用来进行下载等应用磁盘IO重负载应用,可设置为off,以平衡磁盘与网络I/O处理速度,降低系统的负载。注意:如果图片显示不正常把这个改成off。  
  31. autoindex on; #开启目录列表访问,合适下载服务器,默认关闭。  
  32. tcp_nopush on; #防止网络阻塞  
  33. tcp_nodelay on; #防止网络阻塞  
  34. keepalive_timeout 120; #长连接超时时间,单位是秒  
  35. #FastCGI相关参数是为了改善网站的性能:减少资源占用,提高访问速度。下面参数看字面意思都能理解。  
  36. fastcgi_connect_timeout 300;  
  37. fastcgi_send_timeout 300;  
  38. fastcgi_read_timeout 300;  
  39. fastcgi_buffer_size 64k;  
  40. fastcgi_buffers 4 64k;  
  41. fastcgi_busy_buffers_size 128k;  
  42. fastcgi_temp_file_write_size 128k;  
  43. #gzip模块设置  
  44. gzip on; #开启gzip压缩输出  
  45. gzip_min_length 1k; #最小压缩文件大小  
  46. gzip_buffers 4 16k; #压缩缓冲区  
  47. gzip_http_version 1.0; #压缩版本(默认1.1,前端如果是squid2.5请使用1.0)  
  48. gzip_comp_level 2; #压缩等级  
  49. gzip_types text/plain application/x-javascript text/css application/xml;  
  50. #压缩类型,默认就已经包含text/html,所以下面就不用再写了,写上去也不会有问题,但是会有一个warn。  
  51. gzip_vary on;  
  52. #limit_zone crawler $binary_remote_addr 10m; #开启限制IP连接数的时候需要使用  
  53. upstream blog.ha97.com {  
  54. #upstream的负载均衡,weight是权重,可以根据机器配置定义权重。weigth参数表示权值,权值越高被分配到的几率越大。  
  55. server 192.168.80.121:80 weight=3;  
  56. server 192.168.80.122:80 weight=2;  
  57. server 192.168.80.123:80 weight=3;  
  58. }  
  59. #虚拟主机的配置  
  60. server  
  61. {  
  62. #监听端口  
  63. listen 80;  
  64. #域名可以有多个,用空格隔开  
  65. server_name www.ha97.com ha97.com;  
  66. index index.html index.htm index.php;  
  67. root /data/www/ha97;  
  68. location ~ .*\.(php|php5)?$  
  69. {  
  70. fastcgi_pass 127.0.0.1:9000;  
  71. fastcgi_index index.php;  
  72. include fastcgi.conf;  
  73. }  
  74. #图片缓存时间设置  
  75. location ~ .*\.(gif|jpg|jpeg|png|bmp|swf)$  
  76. {  
  77. expires 10d;  
  78. }  
  79. #JS和CSS缓存时间设置  
  80. location ~ .*\.(js|css)?$  
  81. {  
  82. expires 1h;  
  83. }  
  84. #日志格式设定  
  85. log_format access ‘$remote_addr - $remote_user [$time_local] "$request" ‘  
  86. ‘$status $body_bytes_sent "$http_referer" ‘  
  87. ‘"$http_user_agent" $http_x_forwarded_for‘;  
  88. #定义本虚拟主机的访问日志  
  89. access_log /var/log/nginx/ha97access.log access;  
  90. #对 "/" 启用反向代理  
  91. location / {  
  92. proxy_pass http://127.0.0.1:88;  
  93. proxy_redirect off;  
  94. proxy_set_header X-Real-IP $remote_addr;  
  95. #后端的Web服务器可以通过X-Forwarded-For获取用户真实IP  
  96. proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;  
  97. #以下是一些反向代理的配置,可选。  
  98. proxy_set_header Host $host;  
  99. client_max_body_size 10m; #允许客户端请求的最大单文件字节数  
  100. client_body_buffer_size 128k; #缓冲区代理缓冲用户端请求的最大字节数,  
  101. proxy_connect_timeout 90; #nginx跟后端服务器连接超时时间(代理连接超时)  
  102. proxy_send_timeout 90; #后端服务器数据回传时间(代理发送超时)  
  103. proxy_read_timeout 90; #连接成功后,后端服务器响应时间(代理接收超时)  
  104. proxy_buffer_size 4k; #设置代理服务器(nginx)保存用户头信息的缓冲区大小  
  105. proxy_buffers 4 32k; #proxy_buffers缓冲区,网页平均在32k以下的设置  
  106. proxy_busy_buffers_size 64k; #高负荷下缓冲大小(proxy_buffers*2)  
  107. proxy_temp_file_write_size 64k;  
  108. #设定缓存文件夹大小,大于这个值,将从upstream服务器传  
  109. }  
  110. #设定查看Nginx状态的地址  
  111. location /NginxStatus {  
  112. stub_status on;  
  113. access_log on;  
  114. auth_basic "NginxStatus";  
  115. auth_basic_user_file conf/htpasswd;  
  116. #htpasswd文件的内容可以用apache提供的htpasswd工具来产生。  
  117. }  
  118. #本地动静分离反向代理配置  
  119. #所有jsp的页面均交由tomcat或resin处理  
  120. location ~ .(jsp|jspx|do)?$ {  
  121. proxy_set_header Host $host;  
  122. proxy_set_header X-Real-IP $remote_addr;  
  123. proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;  
  124. proxy_pass http://127.0.0.1:8080;  
  125. }  
  126. #所有静态文件由nginx直接读取不经过tomcat或resin  
  127. location ~ .*.(htm|html|gif|jpg|jpeg|png|bmp|swf|ioc|rar|zip|txt|flv|mid|doc|ppt|pdf|xls|mp3|wma)$  
  128. { expires 15d; }  
  129. location ~ .*.(js|css)?$  
  130. { expires 1h; }  
  131. }  
  132. }  

 

 

总结:今天心血来潮学想捣鼓下Nginx,便把实践过程记录了下来,但只算是个入门体验。有时间再慢慢研究下。






以上是关于Nginx+Tomcat实现负载均衡小demo的主要内容,如果未能解决你的问题,请参考以下文章

高性能站点架构之负载均衡 Nginx+tomcat+redis实现tomcat集群

基于Docker部署 Tomcat集群 Nginx负载均衡

通过Nginx+tomcat+redis实现反向代理 负载均衡及session同步

Nginx + Tomcat 实现 负载均衡 和 动静分离群集

nginx+keepalived+tomcat+memcache负载均衡搭建小集群

图文详解 配置Nginx+Tomcat负载均衡动静分离集群