Производительность Xen

Материал из Xgu.ru

(Перенаправлено с xen/benchmarks)
Перейти к: навигация, поиск


Короткий URL: xen/benchmarks


Содержание

[править] Производительность паравиртуальных драйверов Xen для Windows

Источник: [1].

Оборудование:

  • Core 2 Duo 5600 (1.83 GHz, 2Mb L2-cache)
  • SATA-диск настроенный на UDMA/100.

Система:

  • FC8 64bit,
  • xen 3.1.2, xen.gz 3.1.3,
  • dom0 2.6.21.

HVM-система, над которой проводилось тестирование:

  • XP Pro SP3, 2002 32bit
  • ОЗУ 512M,
  • виртуальный диск в файле,

Измерения проводились при помощи программ iometer 2006-07-27 (1Gb \iobw.tst, на интервале 5 мин) и iperf 1.7.0 (на интервале 1 мин).

Результаты замеров для старых драйверов 0.8.9:

pattern 4k, 50% read, 0% random

dynamo on?  |   io/s   |  MB/s  | Avg. i/o time(ms} | max i/o time(ms) | %CPU
domu w/gplpv|   417.5  |   1.63 |        7.39       |       0          | 27.29
domu w/qemu |   155.4  |   0.60 |       -4.60       |       0          | 29.23
dom0 w/2Gb  |   891.6  |   3.48 |        1.12       |      574.4       |  0
dom0 w/2Gb  |  1033.1  |   4.04 |        0.97       |      242.4       |  0
(вторые цифры dom0 для случай когда HVM-домен загружен без /gplpv)

pattern 32k, 50% read, 0% random

domu w/gplpv|   228.6  |   7.15 |       -4.65       |        0         | 21.64
domu w/qemu |   120.4  |   3.76 |       83.63       |        0         | 28.50
dom0 w/2Gb  |    42.0  |   1.31 |       23.80       |     2084.7       |  0
dom0 w/2Gb  |    88.3  |   2.76 |       11.32       |     1267.3       |  0

И новые, для 0.9.9:

pattern 4k, 50% read, 0% random

dynamo on?  |   io/s   |  MB/s  | Avg. i/o time(ms} | max i/o time(ms) | %CPU
domu w/gplpv|   336.9  |   1.32 |      -65.35       |       0          | 12.78
domu w/qemu |   191.8  |   0.75 |        7.88       |       0          | 17.40
dom0 w/2Gb  |  1051.4  |   4.11 |        0.95       |      446.0       |  0
dom0 w/2Gb  |  1111.0  |   4.34 |        0.90       |      434.2       |  0
(вторые цифры dom0 для случай когда HVM-домен загружен без /gplpv)

pattern 32k, 50% read, 0% random

domu w/gplpv|   113.4  |   3.54 |     -392.87       |        0         |  7.49
domu w/qemu |   106.3  |   3.32 |        4.13       |        0         |  7.41
dom0 w/2Gb  |    47.3  |   1.48 |       21.10       |     2062.9       |  0
dom0 w/2Gb  |    77.3  |   2.41 |       12.94       |     1256.6       |  0

По-прежнему есть 20% снижение производительности на блоках размером 4k. Нагрузка на процессор заметно снизилась, но это может быть обусловлено тем, что в первоначальных измерениях использовался VNC, а потом rdesktop.

Теперь активно работает только один домен, а остальные ничего не делают.

сначала старые замеры:

gplpv 0.8.9:
 4k pattern |  1170.0  |   4.57 |        7.16       |       0          | 41.34
32k pattern |   287.0  |   8.97 |      -30.85       |       0          | 23.39

dom0:
 4k pattern |  1376.7  |   5.38 |        0.73       |      365.7       |  0
32k pattern |  1484.3  |   5.80 |        0.67       |      314.4       |  0

и новые:

gplpv 0.9.9:
 4k pattern |   843.3  |   3.29 |      -26.36       |       0          | 26.37
32k pattern |   192.9  |   6.03 |        5.17       |       0          |  9.12

dom0:
 4k pattern |  1702.7  |   6.65 |        0.59       |      367.0       |  0
32k pattern |   162.7  |   5.08 |        6.14       |      248.7       |  0

Заметен 30% рост производительности на блоках 4k (и 32k), а также снижение нагрузки на процессор.

Для сети TCP-тестирование с драйверами 0.8.9, 'iperf-1.7.0 -c dom0-name -t 60 -r', показало:

domu->dom0: 31 Mb/s
dom0->domu: 36 Mb/s

Для UDP-тестирования при запросе полосы 10Mb/s, 'iperf-1.7.0 -c dom0-name -t 60 -r -b 10000000' получается:

domu->dom0: 2.6 Mb/s
dom0->domu: 9.9 Mb/s

Для драйверов 0.9.9.

Для TCP-теста, 'iperf-1.7.0 -c dom0-name -t 60 -r':

domu->dom0: 34 Mb/s (лучше)
dom0->domu: 89 Mb/s (ещё лучше!)

Для UDP-теста при запросе полосы 10MB/s, 'iperf-1.7.0 -c dom0-name -t 60 -r -b 10000000':

domu->dom0: 5.2 Mb/s (лучше)
dom0->domu: 4.5 Mb/s 54% потерь (хуже)


[править] Замеры для версии 0.9.10

Производительность продолжает расти:

для 0.9.9:                                                                                                                                                                       
TCP, 'iperf-1.7.0 -c dom0-name -t 60 -r':                                                                                                                             
                                                                                                                                                                                 
domu->dom0: 34 Mb/s                                                                                                                                                              
dom0->domu: 89 Mb/s                                                                                                                                                              
                                                                                                                                                                                 
Для 0.9.10:                                                                                                                                                                      
TCP, 'iperf-1.7.0 -c dom0-name -t 60 -r':                                                                                                                             
                                                                                                                                                                                 
domu->dom0: 37.5 Mb/s (better)                                                                                                                                                   
dom0->domu: 101 Mb/s (wow!)


[править] Замеры для версии 0.9.12-pre3

Клиент: IBM Thinkpad T60, Ethernet controller: Intel Corporation 82573L Gigabit Ethernet Controller, Ubuntu 8.10, iperf 2.0.4
Сервер: IBM Bladecenter HS21 XM (Type 7995), Ethernet controller: Broadcom Corporation NetXtreme II BCM5708S Gigabit Ethernet (rev 12)
dom0: CentOS 5.2, xen-3.1.2-92.1.18.el5
domU: Windows 2003R2 SP2, pv drivers 0.9.12-pre3, iperf 1.7.0
Клиент и сервер соединялись прямым проводом.

Без pv:
iperf -c client -t 60 -r
client->server: 49.8 Mbits/sec
server->client: 95.9 Mbits/sec
iperf -c client -t 60 -r -u -b 10000000
client->server: 9.86 Mbits/sec (1.4% потерь)
server->client: 9.99 Mbits/sec (0% потерь)
С pv:
iperf -c client -t 60 -r
client->server: 289 Mbits/sec
server->client: 588 Mbits/sec
iperf -c client -t 60 -r -u -b 10000000
client->server: 10.0 Mbits/sec (0.012% потерь)
server->client: 10.0 Mbits/sec (0% потерь)


[править] Дополнительная информация

  • virtbench (англ.) — средство для измерения производительности систем виртуализации
  • iometer (англ.) — средство для измерения скорости ввода/вывода под Windows
Xen
Xen

Виртуализация и паравиртуализация
Эмуляция | Виртуализация | Паравиртуализация | Рекурсивная виртуализация
Паравиртуальные драйверы | Виртуализация ввода/вывода

Общие вопросы по Xen
Аппаратные требования Xen | Поддержка Xen операционными системами | Поддерживаемые аппаратные архитектуры |
Примеры использования Xen | Сравнение виртуальных машин |
Хостинг на Xen
Альтернативы Xen

свободные: KVM | LXC | OpenVZ | VServer | QEMU | VirtualBox
проприетарные: Hyper-V | VMware ESX Server

Технические вопросы
Инсталляция Xen | Конфигурационный файл домена
ОС в Xen: Linux small icon.png Linux | Solaris small icon.png OpenSolaris | Freebsd small icon.png FreeBSD | Openbsd small icon.png OpenBSD | Netbsd small icon.png NetBSD | Windows xp small icon.png Windows XP | Windows vista small icon.png Windows Vista
Устройства: Блочные | USB | SCSI | Сеть | PV-драйверы для Linux | PV-драйверы для Windows | Консоль

Распределение ресурсов между доменами | Перенос системы внутрь Xen | HVM -> PV

Управление и кластеризация | Enomalism | Xen+DRBD | Ganeti | Convirt 2.0 | SkyCover Infrastructure