|
本帖最后由 xuwang 于 2019-10-15 00:17 编辑
X86 NAT1固件 E1000和virtlo网卡性能对比
虚拟化平台:Proxmox ve
配置如下 CPU:3770S Ram:16G SSD:128G 双网卡机器
同样配置的虚拟机 仅仅是网卡类型的改变 对于性能的损失会有多少呢
以下是测试结果
首先是E1000的速度测试
E1000的CPU的占用
接着是Virtlo的速度测试
Virtlo的CPU的占用
以下引用他人的测试数据
虚拟机驱动对网路速度的影响 (测试工具爲 iperf3)
常常听到有人抱怨自家的网路速度不达标,造成网速变化的因素很多如处理机速度/硬盘效率/网线的品质/驱动的好坏等等,尤其外网速度更因爲经过太多节点更难以判定问题的始末,而现在大家常以 windows copy 指令来充当网速频宽的指标,这个网速里面还含有硬盘读写延迟等其他因素一定程度拉低了网速,而大家却只归咎自家的网卡不理想。主要是看到有人用iperf3做网路测试可以一定程度隔离硬盘读写的关联,进而想要了解网路驱动对虚拟机网速所造成的影响,在自家网路环虚拟机驱动对网路速度的影响 (测试工具爲 iperf3)
常常听到有人抱怨自家的网路速度不达标,造成网速变化的因素很多如处理机速度/硬盘效率/网线的品质/驱动的好坏等等,尤其外网速度更因爲经过太多节点更难以判定问题的始末,而现在大家常以 windows copy 指令来充当网速频宽的指标,这个网速里面还含有硬盘读写延迟等其他因素一定程度拉低了网速,而大家却只归咎自家的网卡不理想。主要是看到有人用iperf3做网路测试可以一定程度隔离硬盘读写的关联,进而想要了解网路驱动对虚拟机网速所造成的影响,在自家网路环境下做一次虚拟机间的网速频宽测试跟大家分享
测试环境:
1. ProxmoxVE 6.0.7 作爲寄宿主机,小马v5 i5 CPU 1.6GHz 12MB RAM, RTL8111 1Gb/s网路
2. 以 LXC debian10 x64 单核 512MB做爲 iperf3伺服器分别对个别系统做测试 (指令 iperf3 -s)
3. 客户端虚拟机使用iperf3做爲测试网速工具 (指令 iperf3 -c server_ip)
4. 被测机皆爲单核心 win10pe 2GB, 黑群 1GB, LXC debian 512MB
境下做一次虚拟机间的网速频宽测试跟大家分享
测试环境:
1. ProxmoxVE 6.0.7 作爲寄宿主机,小马v5 i5 CPU 1.6GHz 12MB RAM, RTL8111 1Gb/s网路
2. 以 LXC debian10 x64 单核 512MB做爲 iperf3伺服器分别对个别系统做测试 (指令 iperf3 -s)
3. 客户端虚拟机使用iperf3做爲测试网速工具 (指令 iperf3 -c server_ip)
4. 被测机皆爲单核心 win10pe 2GB, 黑群 1GB, LXC debian 512MB
结论:
1. 测试网速的比较如下
LXC > KVM virtio,vmxnet3 > 实体网路 > KVM e1000
2. LXC 网速比想像来的快很多,应该相当于管线直通的结构,网速的快慢完全与CPU的资料搬移处理速度形成一定的关係,如果虚拟机间需要大量且频繁的通讯LXC是一种不错的选择。
3. 实体网路测出 878Mb/s 约有百分之十的损耗还是可以接受的。
4. virtio, vmxnet3 皆是半虚拟化驱动测出来的网速很接近是必然的,内部通讯网速皆能超过实体通讯界面的极限(1GB/s),通过交换机与电脑相连应该能达到极限的速度,美中不足的是虚拟机间的网路通讯无法达到LXC容器互连的速度。
5. e1000虽然效能较差但是拥有较多系统的支持,如果其他网路界面都没有找到适配的驱动可以尝试使用。
6. 不同的硬体设备测试出来的数据不会相同,但是趋势应该有一致性,所以不用太在意数据的好坏,而是如何选配比较合适的驱动以提高网路效益。
|
|