一、前言
在文章《将IPVS容器化并扩展为Openshift的服务》中设计的适用于Openshift/Kubernetes平台的大流量负载均衡器在实验室进行了性能测试,从而验证了基于这个负载均衡解决方案的部署,能够在现有的设备条件下(一个物理网卡,最多只能绑定8个CPU给8个队列,而有些物理网卡可以扩展更多的CPU给网卡队列),具有接近裸机的单机能力和具有接近线性的横向扩展性的能力。
转载自https://blog.csdn.net/cloudvtech
二、环境设置
系统测试环境与文章《Container网络性能比较:bridge+NAT方案与macvlan方案 (1) 性能测试系统配置》中类似,只是扩展到了两个物理机作为Openshift的worker节点,另外有两个虚拟机作为部署IPVS service的Openshift worker节点。而上游也扩展了更多的Nginx作为数据源来保证上游不会成为测试的瓶颈。
同时在文章《Container网络性能比较:bridge+NAT方案与macvlan方案 (2) 性能测试结果分析》中,可以看到的测试性能数据如下:
在本方案中,后端POD服务的访问还是需要经过Openshift的bridge+NAT的,所以预计单机基准的输出流量应该还是在7~8Gbps左右,而两个节点的叠加输出流量在线性扩展情况下应该在14Gbps左右。
转载自https://blog.csdn.net/cloudvtech
三、使用IPVS service作为接入端的单节点测试
转载自https://blog.csdn.net/cloudvtech
四、使用IPVS service作为接入端的双节点测试
转载自https://blog.csdn.net/cloudvtec
五、测试结果分析
可以看到在单节点的情况下,系统的性能基本上不逊于之前bridge+NAT模式,甚至接近于macvlan模式;而在双节点模式下,系统性能基本上是单节点的两倍,是一个接近线性的扩展。