Производительность Xen
Материал из Xgu.ru
- Короткий URL: xen/benchmarks
Содержание |
[править] Производительность паравиртуальных драйверов Xen для Windows
- Источник: [1].
Оборудование:
- Core 2 Duo 5600 (1.83 GHz, 2Mb L2-cache)
- SATA-диск настроенный на UDMA/100.
Система:
- FC8 64bit,
- xen 3.1.2, xen.gz 3.1.3,
- dom0 2.6.21.
HVM-система, над которой проводилось тестирование:
- XP Pro SP3, 2002 32bit
- ОЗУ 512M,
- виртуальный диск в файле,
Измерения проводились при помощи программ iometer 2006-07-27 (1Gb \iobw.tst, на интервале 5 мин) и iperf 1.7.0 (на интервале 1 мин).
Результаты замеров для старых драйверов 0.8.9:
pattern 4k, 50% read, 0% random dynamo on? | io/s | MB/s | Avg. i/o time(ms} | max i/o time(ms) | %CPU domu w/gplpv| 417.5 | 1.63 | 7.39 | 0 | 27.29 domu w/qemu | 155.4 | 0.60 | -4.60 | 0 | 29.23 dom0 w/2Gb | 891.6 | 3.48 | 1.12 | 574.4 | 0 dom0 w/2Gb | 1033.1 | 4.04 | 0.97 | 242.4 | 0 (вторые цифры dom0 для случай когда HVM-домен загружен без /gplpv) pattern 32k, 50% read, 0% random domu w/gplpv| 228.6 | 7.15 | -4.65 | 0 | 21.64 domu w/qemu | 120.4 | 3.76 | 83.63 | 0 | 28.50 dom0 w/2Gb | 42.0 | 1.31 | 23.80 | 2084.7 | 0 dom0 w/2Gb | 88.3 | 2.76 | 11.32 | 1267.3 | 0
И новые, для 0.9.9:
pattern 4k, 50% read, 0% random dynamo on? | io/s | MB/s | Avg. i/o time(ms} | max i/o time(ms) | %CPU domu w/gplpv| 336.9 | 1.32 | -65.35 | 0 | 12.78 domu w/qemu | 191.8 | 0.75 | 7.88 | 0 | 17.40 dom0 w/2Gb | 1051.4 | 4.11 | 0.95 | 446.0 | 0 dom0 w/2Gb | 1111.0 | 4.34 | 0.90 | 434.2 | 0 (вторые цифры dom0 для случай когда HVM-домен загружен без /gplpv) pattern 32k, 50% read, 0% random domu w/gplpv| 113.4 | 3.54 | -392.87 | 0 | 7.49 domu w/qemu | 106.3 | 3.32 | 4.13 | 0 | 7.41 dom0 w/2Gb | 47.3 | 1.48 | 21.10 | 2062.9 | 0 dom0 w/2Gb | 77.3 | 2.41 | 12.94 | 1256.6 | 0
По-прежнему есть 20% снижение производительности на блоках размером 4k. Нагрузка на процессор заметно снизилась, но это может быть обусловлено тем, что в первоначальных измерениях использовался VNC, а потом rdesktop.
Теперь активно работает только один домен, а остальные ничего не делают.
сначала старые замеры:
gplpv 0.8.9: 4k pattern | 1170.0 | 4.57 | 7.16 | 0 | 41.34 32k pattern | 287.0 | 8.97 | -30.85 | 0 | 23.39 dom0: 4k pattern | 1376.7 | 5.38 | 0.73 | 365.7 | 0 32k pattern | 1484.3 | 5.80 | 0.67 | 314.4 | 0
и новые:
gplpv 0.9.9: 4k pattern | 843.3 | 3.29 | -26.36 | 0 | 26.37 32k pattern | 192.9 | 6.03 | 5.17 | 0 | 9.12 dom0: 4k pattern | 1702.7 | 6.65 | 0.59 | 367.0 | 0 32k pattern | 162.7 | 5.08 | 6.14 | 248.7 | 0
Заметен 30% рост производительности на блоках 4k (и 32k), а также снижение нагрузки на процессор.
Для сети TCP-тестирование с драйверами 0.8.9, 'iperf-1.7.0 -c dom0-name -t 60 -r', показало:
domu->dom0: 31 Mb/s dom0->domu: 36 Mb/s
Для UDP-тестирования при запросе полосы 10Mb/s, 'iperf-1.7.0 -c dom0-name -t 60 -r -b 10000000' получается:
domu->dom0: 2.6 Mb/s dom0->domu: 9.9 Mb/s
Для драйверов 0.9.9.
Для TCP-теста, 'iperf-1.7.0 -c dom0-name -t 60 -r':
domu->dom0: 34 Mb/s (лучше) dom0->domu: 89 Mb/s (ещё лучше!)
Для UDP-теста при запросе полосы 10MB/s, 'iperf-1.7.0 -c dom0-name -t 60 -r -b 10000000':
domu->dom0: 5.2 Mb/s (лучше) dom0->domu: 4.5 Mb/s 54% потерь (хуже)
[править] Замеры для версии 0.9.10
Производительность продолжает расти:
для 0.9.9: TCP, 'iperf-1.7.0 -c dom0-name -t 60 -r': domu->dom0: 34 Mb/s dom0->domu: 89 Mb/s Для 0.9.10: TCP, 'iperf-1.7.0 -c dom0-name -t 60 -r': domu->dom0: 37.5 Mb/s (better) dom0->domu: 101 Mb/s (wow!)
[править] Замеры для версии 0.9.12-pre3
Клиент: IBM Thinkpad T60, Ethernet controller: Intel Corporation 82573L Gigabit Ethernet Controller, Ubuntu 8.10, iperf 2.0.4
Сервер: IBM Bladecenter HS21 XM (Type 7995), Ethernet controller: Broadcom Corporation NetXtreme II BCM5708S Gigabit Ethernet (rev 12)
dom0: CentOS 5.2, xen-3.1.2-92.1.18.el5
domU: Windows 2003R2 SP2, pv drivers 0.9.12-pre3, iperf 1.7.0
Клиент и сервер соединялись прямым проводом.
Без pv: iperf -c client -t 60 -r client->server: 49.8 Mbits/sec server->client: 95.9 Mbits/sec iperf -c client -t 60 -r -u -b 10000000 client->server: 9.86 Mbits/sec (1.4% потерь) server->client: 9.99 Mbits/sec (0% потерь)
С pv: iperf -c client -t 60 -r client->server: 289 Mbits/sec server->client: 588 Mbits/sec iperf -c client -t 60 -r -u -b 10000000 client->server: 10.0 Mbits/sec (0.012% потерь) server->client: 10.0 Mbits/sec (0% потерь)
[править] Дополнительная информация
- virtbench (англ.) — средство для измерения производительности систем виртуализации
- iometer (англ.) — средство для измерения скорости ввода/вывода под Windows
|
---|