HAProxy 是一款提供高可用性、负载均衡以及基于TCP(第四层)和HTTP(第七层)应用的代理软件,支持虚拟主机,它是免费、快速并且可靠的一种解决方案。 HAProxy特别适用于那些负载特大的web站点,这些站点通常又需要会话保持或七层处理。HAProxy运行在时下的硬件上,完全可以支持数以万计的并发连接。并且它的运行模式使得它可以很简单安全地整合进您当前的架构中, 同时可以保护你的web服务器不被暴露到网络上。HAProxy 官方网站:https://www.haproxy.org/
负载平衡的类型介绍
(1)无负载平衡:用户直接连接到Web服务器,在yourdomain.com网站上,并且没有负载平衡。如果您的单个Web服务器出现故障,用户将无法再访问网站。此外,如果大量用户同时访问网站,Web服务器可能会遇到性能瓶颈,导致网站访问缓慢甚至无法连接情况。
(2)四层负载平衡:这种方式进行负载均衡将根据IP和端口转发用户流量,比如用户请求访问http://yourdomain.com/anything,则流量将转发到处理yourdomain.com的所有请求的后端80端口。用户访问负载均衡器,那么负载均衡器将用户的请求转发给后端服务器的Web后端组。无论选择哪个后端服务器,都将直接响应用户的请求。通常,Web后端中的所有服务器应该提供相同的内容 ,否则用户可能会收到不一致的内容。
(3)七层负载平衡:使用第7层允许负载均衡器根据用户请求的内容将请求转发到不同的后端服务器。这种负载平衡模式允许您在同一域和端口下运行多个Web应用程序服务器。比如如果用户请求yourdomain.com/blog,则会将其转发到blog-backend组后端,后端是一组运行博客应用程序的服务器。其他请求则被转发到web-backend组后端,后端可能正在运行另一个应用程序。
Haproxy具体配置操作
实验环境三台Linux主机
Haproxy:192.168.52.20
Web server1:192.168.52.121
Web server2:192.168.52.122
在Web server 1和2上面,配置web服务。
yum install httpd -y #安装http服务
echo “This is 192.168.52.12x!!!” > /var/www/html/index.html #配置两台web文件用于测试显示效果
systemctl start httpd #启动http服务
通过浏览器输入IP访问效果如下。
1.安装HAProxy。
yum -y install haproxy
2.编辑HAProxy配置文件,主要配置如下:
vim /etc/haproxy/haproxy.cfg
global #全局参数的设置
log 127.0.0.1 local2 #全局的日志配置,使用log关键字,指定使用127.0.0.1上的syslog服务中的local0日志设备,记录日志等级为info的日志
chroot /var/lib/haproxy #改变当前工作目录
pidfile /var/run/haproxy.pid #当前进程id文件
maxconn 4000 #最大连接数
user haproxy #所属用户
group haproxy #所属组
daemon #以守护进程方式运行haproxy
stats socket /var/lib/haproxy/stats
defaults #配置默认参数
mode http #默认的模式mode { tcp|http|health },tcp是4层,http是7层,health只会返回OK
log global #应用全局的日志配置
option httplog #启用日志记录HTTP请求,默认haproxy日志记录是不记录HTTP请求日志
option dontlognull #启用该项,日志中将不会记录空连接。所谓空连接就是在上游的负载均衡器或者监控系统为了探测该 服务是否存活可用时,
需要定期的连接或者获取某一固定的组件或页面,或者探测扫描端口是否在监 听或开放等动作被称为空连接;官方文档中标注,如果该服务上游
没有其他的负载均衡器的话,建议不要使用该参数,因为互联网上的恶意扫描或其他动作就不会被记录下来
option http-server-close #每次请求完毕后主动关闭http通道
option forwardfor except 127.0.0.0/8 #如果服务器上的应用程序想记录发起请求的客户端的IP地址, 需要在HAProxy
上配置此选项, 这样 HAProxy会把客户端的IP信息发送给服务器,在HTTP请求中添加"X-Forwarded-For"字 段。 启用 X-Forwarded-For,在requests
头部插入客户端IP发送给后端的server,使后端server获 取到客户端的真实IP。
option redispatch # 当使用了cookie时,haproxy将会将其请求的后端服务器的serverID插入到cookie中,以保证 会话的SESSION持久性;而此时,如果后端的服务器宕掉
了, 但是客户端的cookie是不会刷新 的,如果设置此参数,将会将客户的请求强制定向到另外一个后端server上,以保证服务的正常。
retries 3 # 定义连接后端服务器的失败重连次数,连接失败次数超过此值后将会将对应后端服务器标记为不可用
timeout http-request 10s #http请求超时时间
timeout queue 1m #一个请求在队列里的超时时间
timeout connect 10s #连接超时
timeout client 1m #客户端超时
timeout server 1m #服务器端超时
timeout http-keep-alive 10s #设置http-keep-alive的超时时间
timeout check 10s #检测超时
maxconn 3000 #每个进程可用的最大连接数
frontend main *:80 #监听地址为80
acl url_static path_beg -i /static /images /javascript /stylesheets
acl url_static path_end -i .jpg .gif .png .css .js
use_backend static if url_static
default_backend my_webserver #定义一个名为my_app前端部分。此处将对于的请求转发给后端
backend static #使用了静态动态分离(如果url_path匹配 .jpg .gif .png .css .js静态文件则访问此后端)
balance roundrobin #负载均衡算法( #banlance roundrobin 轮询,balance source 保存session值,支持static-rr,leastconn,first,uri等参数)
server static 127.0.0.1:80 check #静态文件部署在本机(也可以部署在其他机器或者squid缓存服务器)
backend my_webserver #定义一个名为 my_webserver后端部分。PS:此处 my_webserver只是一个
自定义名字而已, 但是需要与frontend里面 配置项default_backend 值相一致
balance roundrobin #负载均衡算法
server web1 192.168.52.121:80 check inter 2000 fall 3
server web2 192.168.52.122:80 check inter 2000 fall 3
#定义的多个后端,检测健康端口80,检测心跳频率是2000ms,失败3次则认为服务器不可用
3.启动Haproxy。
systemctl start haproxy
Haproxy启动成功后,最后在其他客户端机子上面,访问http://192.168.52.20/,则可以看到结果了,外部客户端的请求被均衡的分配到两台Web Server上,出现不同的界面。同时,当后端一台Web服务器出现故障时也可以顺利访问网页,保证了高可用性!
本文暂时没有评论,来添加一个吧(●'◡'●)