下图描述了使用keepalived+Haproxy主从配置来达到负载均衡到多台后端web1、web2、web3、img1、img2的网站架构。但是由于haproxy会存在单点故障问题,所以这里可以配合使用keepalived来做Haproxy的高可用,配合VRRP协议和脚本实现。
HAProxy的特点
1、支持两种代理模式:TCP(四层)和HTTP(七层),支持虚拟主机;
2、能够补充Nginx的一些缺点比如Session的保持,Cookie的引导等工作
3、支持url检测后端的服务器出问题的检测会有很好的帮助。
4、更多的负载均衡策略比如:动态加权轮循(Dynamic Round Robin),加权源地址哈希(Weighted Source Hash),加权URL哈希和加权参数哈希(Weighted Parameter Hash)已经实现
5、单纯从效率上来讲HAProxy更会比Nginx有更出色的负载均衡速度。
6、HAProxy可以对Mysql进行负载均衡,对后端的DB节点进行检测和负载均衡。
9、支持负载均衡算法:Round-robin(轮循)、Weight-round-robin(带权轮循)、source(原地址保持)、RI(请求URL)、rdp-cookie(根据cookie)
10、不能做Web服务器即Cache。
衡量负载均衡器好坏的几个重要因素
1、会话率 :单位时间内的处理的请求数
2、会话并发能力:并发处理能力
3、数据率:处理数据能力 经过官方测试统计,haproxy 单位时间处理的最大请求数为20000个,可以同时维护40000-50000个并发连接,最大数据处理能力为10Gbps。
综合上述,haproxy是性能优越的负载均衡、反向代理服务器。
HAProxy的主要优点
一、免费开源,稳定性也是非常好,这个可通过我做的一些小项目可以看出来,单Haproxy也跑得不错,稳定性可以与LVS相媲美;
二、根据官方文档,HAProxy可以跑满10Gbps-New benchmark of HAProxy at 10 Gbps using Myricom’s 10GbE NICs (Myri-10G PCI-Express),这个作为软件级负载均衡,也是比较惊人的;
三、HAProxy可以作为MySQL、邮件或其它的非web的负载均衡,我们常用于它作为MySQL(读)负载均衡;
四、自带强大的监控服务器状态的页面,实际环境中我们结合Nagios进行邮件或短信报警,这个也是我非常喜欢它的原因之一;
五、HAProxy支持虚拟主机。
HAProxy负载均衡配置
本次使用环境:
环境centos7.1
Haproxy 1.5.4
Haproxy+keeplived 172.31.2.31
Haproxy+keeplived 172.31.2.32
下述针对Haproxy的配置文件进行详解:vim /etc/haproxy/haproxy.cfg
全局参数的设置 global # log语法:log [max_level_1] # 全局的日志配置,使用log关键字,指定使用127.0.0.1上的syslog服务中的local0日志设备,记录日志等级为info的日志 log 127.0.0.1 local2 #改变当前工作目录 chroot /var/lib/haproxy #当前进程id文件 pidfile /var/run/haproxy.pid #最大连接数 maxconn 4000 #所属用户 user haproxy #所属组 group haproxy #以守护进程方式运行haproxy daemon stats socket /var/lib/haproxy/stats defaults #默认的模式mode { tcp|http|health },tcp是4层,http是7层,health只会返回OK mode http #应用全局的日志配置 log global # 启用日志记录HTTP请求,默认haproxy日志记录是不记录HTTP请求日志 option httplog # 启用该项,日志中将不会记录空连接。所谓空连接就是在上游的负载均衡器或者监控系统为了探测该 服务是否存活可用时,需要定期的连接或者获取某一固定的组件或页面,或者探测扫描端口是否在监听或开放等动作被称为空连接;官方文档中标注,如果该服务上游没有其他的负载均衡器的话,建议不要使用该参数,因为互联网上的恶意扫描或其他动作就不会被记录下来 option dontlognull #每次请求完毕后主动关闭http通道 option http-server-close #如果服务器上的应用程序想记录发起请求的客户端的IP地址,需要在HAProxy上 配置此选项, 这样 HAProxy会把客户端的IP信息发送给服务器,在HTTP请求中添加"X-Forwarded-For"字段。 启用 X-Forwarded-For,在requests头部插入客户端IP发送给后端的server,使后端server获取到客户端的真实IP。 option forwardfor except 127.0.0.0/8 # 当使用了cookie时,haproxy将会将其请求的后端服务器的serverID插入到cookie中,以保证会话的SESSION持久性;而此时,如果后端的服务器宕掉了, 但是客户端的cookie是不会刷新的,如果设置此参数,将会将客户的请求强制定向到另外一个后端server上,以保证服务的正常。 option redispatch # 定义连接后端服务器的失败重连次数,连接失败次数超过此值后将会将对应后端服务器标记为不可用 retries 3 #http请求超时时间 timeout http-request 10s #一个请求在队列里的超时时间 timeout queue 1m #连接超时 timeout connect 10s #客户端超时 timeout client 1m #服务器端超时 timeout server 1m #设置http-keep-alive的超时时间 timeout http-keep-alive 10s #检测超时 timeout check 10s #每个进程可用的最大连接数 maxconn 3000 监听地址为80 frontend main *:80 acl url_static path_beg -i /static /images /javascript /stylesheets acl url_static path_end -i .jpg .gif .png .css .js use_backend static if url_static #定义一个名为my_app前端部分。此处将对于的请求转发给后端 default_backend my_webserver 使用了静态动态分离(如果url_path匹配 .jpg .gif .png .css .js静态文件则访问此后端) backend static #负载均衡算法(#banlance roundrobin 轮询,balance source 保存session值,支持static-rr,leastconn,first,uri等参数) balance roundrobin #静态文件部署在本机(也可以部署在其他机器或者squid缓存服务器) server static 127.0.0.1:80 check 定义一个名为my_webserver后端部分。PS:此处my_webserver只是一个自定义名字而已,但是需要与frontend里面配置项default_backend 值相一致 backend my_webserver balance roundrobin #定义的多个后端 server web01 172.31.2.33:80 check inter 2000 fall 3 weight 30 server web02 172.31.2.34:80 check inter 2000 fall 3 weight 30 server web03 172.31.2.35:80 check inter 2000 fall 3 weight 30
配置完成则重启服务: systemctl restart haproxy
假若想访问监控界面:配置stats uri /haproxy项
注意:假若页面范围不了,检查是否关闭了selinux,iptables开启此端口了(iptables -F)。
同理在172.31.2.32上面安装上述步骤安装配置好haproxy。
Haproxy+web负载均衡实战
首先配置三台web服务器:172.31.2.33、172.31.2.34、172.31.2.35三台都是同样操作:
1、实验环境
centos 7.1 X64 mini版
2、配置web服务器
测试方便,关闭selinux、关闭iptables,以下都采用默认,不做配置即可。
yum install httpd -y
# vim /etc/httpd/conf/httpd.conf
httpd监听端口:
DocumentRoot:网页存放的路径,文档的根目录
重启httpd
# systemctl restart httpd
页面访问httpd:
修改显示内容:
# vim /var/www/html/index.html
I’m node33!!! My IP is 172.31.2.33…
再次访问:
一样的修改 172.31.2.34, 172.31.2.35
3、配置负载均衡
本次实验只用一个Haproxy
172.31.2.31:vim /etc/haproxy/haproxy.cfg
浏览器请求172.31.2.31:
从上述结果可知,前端对172.31.2.31的请求,被Haproxy的负载均衡器,均衡请求到三个后端web172.31.2.33、172.31.2.34、172.31.2.35上面去了。
这样当三个当中的一个出现故障,流量则能正常分发到剩余两个正常的web上,从而可以提高系统的可靠性。