本文描述APACHE+TOMCAT的简单HA配置,实现负载均衡和故障转移,不考虑后端TOMCAT的SESSION。一般用于基于HTTP协议的接口服务。
方案说明:
1.以两台linux为基础环境分别为
节点1:Hadoop00 10.10.10.11
节点2:Hadoop01 10.10.10.12
2.在两个节点分别安装TOMCAT,作为后端服务。
2.第1台机器上安装apache作为集群WEB服务器。
环境参数:JDK1.6以上,Apache-2.2.21,Tomcat-6.0.35
1.Tomcat安装和配置
登录节点1,下载TOMCAT
[root@hadoop00 ~]# cd /opt
[root@hadoop00 ~]# wget http://mirror.bit.edu.cn/apache/tomcat/tomcat-6/v6.0.33/bin/apache-tomcat-6.0.33.tar.gz
[root@hadoop00 ~]# tar -zxvf apache-tomcat-6.0.33.tar.gz
部署测试工程cluster到TOMCAT
下载测试工程WAR包:http://dl.iteye.com/topics/download/00ce84ef-3579-3582-a0cd-18ce6b0bddfb
[root@hadoop00 ~]# cd /opt/apache-tomcat-6.0.33/webapps
[root@hadoop00 ~]# ls
cluster
测试节点TOMCAT部署
[root@hadoop00 opt]# /opt/apache-tomcat-6.0.33/bin/startup.sh
浏览器中访问 http://10.10.10.11:8080/cluster
拷贝节点1部署好的TOMCAT到节点2
[root@hadoop00 opt]# zip -r tomcat.zip apache-tomcat-6.0.33
[root@hadoop00 opt]# scp tomcat.zip root@10.10.10.12://opt/
tomcat.zip 100% 5412KB 5.3MB/s 00:01
登录节点2部署TOMCAT
[root@hadoop01 ~]# cd /opt/
[root@hadoop01 opt]# unzip tomcat.zip
启动和测试节点2
[root@hadoop00 opt]# /opt/apache-tomcat-6.0.33/bin/startup.sh
浏览器中访问 http://10.10.10.12:8080/cluster
Apache安装
参考:http://zp820705.iteye.com/blog/1347749
本例假设Apache安装在/opt/apache2/
Apache配置
检查LoadModule配置,vi打开/opt/apache2/conf/httpd.conf主配置文件
LoadModule proxy_module modules/mod_proxy.so LoadModule proxy_connect_module modules/mod_proxy_connect.so LoadModule proxy_ftp_module modules/mod_proxy_ftp.so LoadModule proxy_http_module modules/mod_proxy_http.so LoadModule proxy_scgi_module modules/mod_proxy_scgi.so LoadModule proxy_ajp_module modules/mod_proxy_ajp.so LoadModule proxy_balancer_module modules/mod_proxy_balancer.so LoadModule ssl_module modules/mod_ssl.so LoadModule speling_module modules/mod_speling.so LoadModule rewrite_module modules/mod_rewrite.so
打开vhost配置的自配置文件引用
# Virtual hosts Include conf/extra/httpd-vhosts.conf
配置http-vhost.conf以host方式配置代理转发
以VI方式打开/opt/apache-2.2.21/conf/extra/httpd-vhosts.conf
删除或注释掉原有的VirtualHost配置,加入如下配置
<VirtualHost *:80> ErrorLog "logs/localhost-error_log" LogFormat "%{Host}i %h %l %u %t \"%r\" %s %b" vcommon CustomLog logs/localhost-access_log vcommon ProxyRequests Off ProxyPreserveHost on # apache+tomcat cluster ProxyPass / balancer://tomcat-cluster/ ProxyPassReverse / balancer://tomcat-cluster/ <Proxy balancer://tomcat-cluster/> BalancerMember http://10.10.10.11:8080 loadfactor=1 BalancerMember http://10.10.10.12:8080 loadfactor=1 ProxySet lbmethod=bybusyness </Proxy> </VirtualHost>
保存后退出。
检查配置,启动apache
[root@hadoop00 bin]# ./httpd -S
[root@hadoop00 extra]# cd /opt/apache2/bin/
测试集群
1.浏览器访问测试:http://10.10.10.11/cluster
2.测试Load Balance
反复刷新浏览器,测试是否后端服务器是否切换。
首次访问:
刷新页面:
3.测试Failover
关闭其中一台后,反复刷新界面,测试是否可以正常使用。
相关推荐
Memchached+Tomcat6|7session共享 kryo序列化所需要包 (已经更新至1.8.2版本) 1.将所有的包拷贝至tomcat目录下的lib下面; 2.修改conf/context.xml加下面的代码: memcachedNodes="n1:127.0.0.1:11211" ...
Flume NG 是Cloudera提供的分布式数据收集系统,它能够将不同数据源的海量日志数据进行高效的收集、聚合、移动,最后存储到存储中心。Flume NG支持(故障转移)failover和负载均衡。
Flume 是Cloudera提供的分布式数据收集系统,它能够将不同数据源的海量日志数据进行高效的收集、聚合、移动,最后存储到存储中心。Flume NG支持(故障转移)failover和负载均衡。
Flume 是Cloudera提供的分布式数据收集系统,它能够将不同数据源的海量日志数据进行高效的收集、聚合、移动,最后存储到存储中心。Flume NG支持(故障转移)failover和负载均衡。
simple-failover-java A simple failover library for Java. 用于构建高性能的客户端(主调方)自适应负载均衡和自动重试能力。 jdk1.8+ Get Started // 添加多个被调用资源,这里的被调用资源是指目标服务器(有多...
Lvs+keepalived+failover搞定服务器负载均衡ppt
思科ASA9.4版本 Failover配置,包括透明模式配置。新的版本,新的CLI
气流计划程序故障转移控制器项目目的该项目的目的是创建一个故障转移控制器,该控制器将控制哪个调度程序已启动并正在运行,以允许跨整个Airflow集群进行HA。动机我们尝试设置一个高可用性气流集群,其中有两台运行...
murmur-failover守护程序当Murmur服务器死机时,利用DNS进行自动故障转移的简单技巧,通过使用两台服务器实现简单,高可用性的Murmur服务器托管。它是如何工作的? 在某些操作系统上,Mumble客户端似乎尝试对主机名A...
Redis 连接管理器, 防灾难, 实现故障重连.
ucs-failover
简介 Keepalived的作用是检测服务器的...主要用作RealServer的健康状态检查以及LoadBalance主机和BackUP主机之间failover的实现。 高可用web架构: LVS+keepalived+nginx+apache+php+eaccelerator(+nfs可选 可不选)
包括:dg 环境搭建,dg swithover和failover以及failover后利用flashback恢复,dg broker 配置和fsfo 配置
【DATAGUARD】物理dg配置客户端无缝切换 (八.2)--Fast-Start Failover 的配置.pdf
STK-Disk913x-Using Application-Transparent Failover(ATF)-IBM,Sun
STK-Disk914x-Application-Transparent Failover Installation and O
Flume 是Cloudera提供的分布式数据收集系统,它能够将不同数据源的海量日志数据进行高效的收集、聚合、移动,最后存储到存储中心。Flume支持(故障转移)failover和负载均衡。