igor@0: \section{Windows XP в Xen} igor@0: igor@0: igor@0: Здесь рассматривается процедура подготовки и запуска домена с Windows в системе виртуализации Xen на платформе с аппаратной поддержкой виртуализации (HVM). Выполнять \textit{Windows в паравиртуальном режиме} (т.е. без использования аппаратных архитектурных расширений виртуализации) на сегодняшний день нельзя. Возможно, это можно будет сделать в будущем. igor@0: Подробности на странице \htmladdnormallinkfoot{Windows в паравиртуальном домене Xen}{http://xgu.ru/wiki/Paravirtualized\_Windows}. igor@0: igor@0: \subsection{Предварительные требования} igor@0: В первую очередь, для установки Windows XP, как и любой другой системы с закрытым кодом, необходима поддержка центральным процессором технологии виртуализации Intel®Virtualization Technology (VT) или Pacifica (AMD). Таблицу поддержки аппаратной виртуализации процессорами можно найти \htmladdnormallinkfoot{здесь}{http://xgu.ru/wiki/xen/hw}. igor@0: igor@0: Поддержка аппаратной виртуализации должна быть и у Xen. igor@0: При сборке из исходных текстов понадобится установить в систему: igor@0: \begin{itemize} igor@0: \item \textbf{dev86} -- Ассемблер и компоновщик для реального режима 80x86. Этот пакет необходим для сборки кода BIOS, запускаемого в (виртуальном) реальном режиме. Если пакет dev86 недоступен для x86\_64, то можно использовать i386 версию. igor@0: \item \textbf{LibVNCServer} -- Немодифицируемый VGA дисплей, клавиатуру и мышь можно виртуализировать с помощью библиотеки vncserver. igor@0: \item \textbf{SDL-devel}, \textbf{SDL} -- Если пакеты SDL и SDL-devel не были установлены по умолчанию, то взять их можно из системы портов или скомпилировав из исходных текстов. igor@0: \end{itemize} igor@0: igor@0: \subsubsection{Замечание для пользователей Debian} igor@0: При выполнении вышеуказанной процедуры на igor@0: Debian GNU/Linux необходимо учесть, что igor@0: пакет \textbf{dev86} в Debian разбит на два пакета -- \textbf{bin86} и \textbf{bcc} -- и перед компиляцией Xen из архива исходных текстов igor@0: должны быть установлены оба эти пакета (\htmladdnormallinkfoot{подробнее}{http://lists.xensource.com/archives/html/xen-users/2006-02/msg00207.html}). igor@0: igor@0: \begin{verbatim} igor@0: $ apt-cache show bin86 bcc igor@0: Package: bin86 igor@0: ... igor@0: Description: 16-bit x86 assembler and loader igor@0: This is the as86 and ld86 distribution written by Bruce Evans. igor@0: It's a complete 8086 assembler and loader which can make 32-bit igor@0: code for the 386+ processors (under Linux it's used only to create igor@0: the 16-bit bootsector and setup binaries). igor@0: igor@0: Package: bcc igor@0: ... igor@0: Description: 16-bit x86 C compiler igor@0: This is a C-compiler for 8086 cpus which is important for the igor@0: development of boot loaders or BIOS related 8086 code. igor@0: igor@0: It is possible to run 8086 code under i386 Linux using an emulator, igor@0: `elksemu', also included in this package. igor@0: \end{verbatim} igor@0: igor@0: \subsection{Конфигурационный файл домена} igor@0: В терминологии Xen гостевые домены, исполняющиеся в режиме аппаратной виртуализации называются HVM-доменами. igor@0: Для облегчения процесса конфигурирования такого домена служит образцово-показательный конфигурационный файл \texttt{/etc/xen/xmexample.hvm} (путь может отличаться). igor@0: В нём помимо опций использующихся в паравиртуальных доменах igor@0: есть и сугубо специфические: igor@0: \begin{itemize} igor@0: \item \textbf{kernel} -- VMX firmware loader, /usr/lib/xen/boot/vmxloader igor@0: \item \textbf{builder} -- Функции сборки домена. VMX-домены используют vmx builder igor@0: \item \textbf{acpi} -- Задействует ACPI VMX-домена, по умолчанию равно \dq{}0\dq{} (отключено) igor@0: \item \textbf{apic} -- Задействует APIC VMX-домена, по умолчанию равно \dq{}0\dq{} (отключено) igor@0: \item \textbf{pae} -- Задействует PAE VMX-домена, по умолчанию равно \dq{}0\dq{} (отключено) igor@0: \item \textbf{vif} -- Опционально определяет MAC адрес и/или режим моста для сетевого интерфейса. Если значение MAC не указано, то назначается случайный адрес. Есть возможность задать параметр type=ioemu для использования ioemu в VMX NIC. Если это значение не определено, то vbd используется как в паравиртуальных(\dq{}нормальных\dq{}, с модифицированным ядром) доменах. igor@0: \item \textbf{disk} -- Определяет дисковые устройства, к которым гостевой домен должен иметь доступ. Если для домена используется физический носитель в качестве диска, то он должен быть описан строкой типа: igor@0: \end{itemize} igor@0: igor@0: \begin{verbatim} igor@0: phy:UNAME,ioemu:DEV,MODE, igor@0: \end{verbatim} igor@0: igor@0: где \textbf{UNAME} -- имя устройства, \textbf{DEV} -- имя диска, как его видит домен и \textbf{MODE} принимает значения \textbf{r} для read-only и \textbf{w} для read-write. Если это значение не определено, то ioemu используется как паравиртуальных доменах. igor@0: igor@0: Если используется образ диска, то строка принимает вид: igor@0: igor@0: \begin{verbatim} igor@0: file:FILEPATH,ioemu:DEV,MODE igor@0: \end{verbatim} igor@0: igor@0: Если используется больше одного диска, то они разделяются запятой. Например: igor@0: igor@0: \begin{verbatim} igor@0: disk = ['file:/var/images/image1.img,ioemu:hda,w', 'file:/var/images/image2.img,ioemu:hdb,w'] igor@0: \end{verbatim} igor@0: igor@0: \begin{itemize} igor@0: \item \textbf{cdrom} -- Образ CD-ROM. По умолчанию, для Domain0 это значение равно /dev/cdrom. Внутри VMX-домена CD-ROM будет виден как /dev/hdc. igor@0: \item \textbf{boot} -- Загрузка с floppy (a), hard disk (c) или CD-ROM (d). igor@0: \item \textbf{device\_model} -- Инструмент эмуляции устройств для VMX-домена. Могут быть изменены параметры, приведенные ниже. igor@0: \item \textbf{sdl} -- Задействует библиотеку SDL для отображения графики, по умолчанию равно \dq{}0\dq{} (отключено) igor@0: \item \textbf{vnc} -- Задействует библиотеку VNC для отображения графики, по умолчанию равно \dq{}0\dq{} (отключено) igor@0: \item \textbf{vncviewer} -- Если vnc=1 и vncviewer=0, пользователь может использовать vncviewer для подключения к VMX-домену. Например: igor@0: \end{itemize} igor@0: igor@0: \begin{verbatim} igor@0: $ vncviewer domain0_IP_address:VMX_domain_id igor@0: \end{verbatim} igor@0: igor@0: \begin{itemize} igor@0: \item \textbf{ne2000} -- Задействует режим совместимости ne2000, по умолчанию равно \dq{}0\dq{} (отключено, используется pcnet) igor@0: \item \textbf{serial} -- Перенаправление последовательных портов гостевого домена на реальное устройство. igor@0: \item \textbf{usb} -- Включение поддержки USB без указания специфического устройства. По умолчанию эта функция отключена, в случае же определения параметра usbdevice, ее необходимо задействовать. igor@0: \item \textbf{usbdevice} -- Включение поддержки конкретных устройств. Например, поддержка мыши PS/2 через USB: igor@0: \end{itemize} igor@0: igor@0: \begin{verbatim} igor@0: usbdevice='mouse' igor@0: \end{verbatim} igor@0: igor@0: \begin{itemize} igor@0: \item \textbf{localtime} -- Установка локального времени. По умолчанию равно \dq{}0\dq{}, т.е UTC igor@0: \item \textbf{enable-audio} -- Поддержка звука. Находится в разработке. igor@0: \item \textbf{full-screen} -- Поддержка полноэкранного режима. Находится в разработке. igor@0: \item \textbf{nographic} -- Другой способ перенаправить вывод на последовательный порт. В этом случае опции \rq{}sdl\rq{} или \rq{}vnc\rq{} не работают. Использование данного режима не рекомендуется. igor@0: \end{itemize} igor@0: igor@0: \subsection{Проверка на поддержку VMX} igor@0: После загрузки самого Dom0 убедимся в наличии поддержки VMX (процессоры Intel): igor@0: igor@0: \begin{verbatim} igor@0: # xm dmesg | grep VMX igor@0: (XEN) VMXON is done igor@0: (XEN) VMXON is done igor@0: ... igor@0: (XEN) VMXON is done igor@0: (XEN) VMXON is done igor@0: (XEN) VMXON is done igor@0: # igor@0: \end{verbatim} igor@0: igor@0: Если используется процессор AMD: igor@0: igor@0: \begin{verbatim} igor@0: # xm dmesg | grep -i svm igor@0: (XEN) AMD SVM Extension is enabled for cpu 0. igor@0: (XEN) AMD SVM Extension is enabled for cpu 1. igor@0: \end{verbatim} igor@0: igor@0: В общем случае: igor@0: igor@0: \begin{verbatim} igor@0: # xm info | grep caps igor@0: hw_caps : 178bfbff:ebd3fbff:00000000:00000010:00002001:00000000:0000001f igor@0: xen_caps : xen-3.0-x86_32p hvm-3.0-x86_32 hvm-3.0-x86_32p igor@0: \end{verbatim} igor@0: igor@0: hvm-3.0-x86\_32 говорит о том, что XEN успешно обнаружил процессор, который поддерживает технологии Intel VT или AMD-V. igor@0: igor@0: Если у вас другое сообщение, то проверьте настройки BIOS и задействуйте поддержку аппаратной виртуализации, igor@0: если она выключена. igor@0: igor@0: \subsection{Создание дискового раздела для гостевой системы} igor@0: Создаем образ диска Xen: igor@0: igor@0: \begin{verbatim} igor@0: # mkdir -p /root/xenimages igor@0: # cd /root/xenimages igor@0: # dd if=/dev/zero of=WS128.img bs=1M count=4096 igor@0: \end{verbatim} igor@0: igor@0: Также необходимо создать iso-образ системы WinXP -- ServicePack2. В данном случае, разместим его в каталоге \texttt{/root/xenimages}. igor@0: igor@0: На основе эталонного файла конфигурации создадим свой собственный: igor@0: igor@0: \begin{verbatim} igor@0: # cat /etc/xen/winXP128 igor@0: kernel = "/usr/lib/xen/boot/hvmloader" igor@0: builder='hvm' igor@0: memory = 512 igor@0: name = "WinXP128" igor@0: vcpus=1 igor@0: pae=0 igor@0: acpi=0 igor@0: apic=0 igor@0: cpus = "" igor@0: vif = [ 'type=ioemu, bridge=xenbr0' ] igor@0: disk = [ igor@0: 'file:/root/xenimages/winXP128.img,ioemu:hda,w', igor@0: 'file:/root/xenimages/en_winxp_pro_with_sp2.iso,ioemu:hdc:cdrom,r' igor@0: ] igor@0: on_poweroff = 'destroy' igor@0: on_reboot = 'destroy' igor@0: on_crash = 'destroy' igor@0: device_model = '/usr/lib/xen/bin/qemu-dm' igor@0: boot='d' igor@0: sdl=0 igor@0: vnc=1 igor@0: vncviewer=0 igor@0: stdvga=0 igor@0: serial='pty' igor@0: ne2000=0 igor@0: \end{verbatim} igor@0: igor@0: Обратите внимание на то, что указан параметр boot=\rq{}d\rq{}, что необходимо для установки. Впоследствии его необходимо заменить на \dq{}boot=\rq{}c\rq{}\dq{}. Доступ к гостевому домену будет осуществляться через VNC, использование SDL не предполагается. igor@0: igor@0: \subsection{Запуск домена и инсталляция гостевой системы} igor@0: Начинаем установку и подсоединяемся к домену с помощью VNC -- сразу после создания домена подключаемся к нему с помощью vncviewer. igor@0: igor@0: \begin{verbatim} igor@0: # xm create -c /etc/xen/winXP128 igor@0: Using config file "/etc/xen/winXP128". igor@0: Started domain WinXP128 igor@0: \end{verbatim} igor@0: igor@0: Подключение к VNC: igor@0: igor@0: \begin{verbatim} igor@0: % vncviewer vermont:1 igor@0: \end{verbatim} igor@0: igor@0: С установкой могут быть проблемы. Можно попробовать решить проблему так: на экране установки, предлагающем нажать F6 для установки SCSI или RAID контроллера, надо нажать F5 и выбрать пункт \texttt{Standard PC} из предложенного меню. igor@0: igor@0: \begin{verbatim} igor@0: ACPI Multiprocessor PC igor@0: ACPI Uniprocessor PC igor@0: Advanced Configuration and Power Interface (ACPI) PC igor@0: Compaq SystemPro Multiprocessor or 100% Compatible PC igor@0: MPS Uniprocessor PC igor@0: MPS Multiprocessor PC igor@0: Standard PC igor@0: Standard PC with C-Step i486 igor@0: Other igor@0: \end{verbatim} igor@0: igor@0: После того, как программа установки Windows отформатирует диск и скопирует на него необходимые файлы, выполняется перезагрузка. Согласно нашему файлу конфигурации, виртуальная машина будет закрыта и нам предоставится удачная возможность отредактировать параметр \texttt{boot=\rq{}c\rq{}}, после чего запускаем виртуальную машину и соединяемся с консолью: igor@0: igor@0: \begin{verbatim} igor@0: # xm create -c /etc/xen/winXP128 igor@0: Using config file "/etc/xen/winXP128". igor@0: Started domain WinXP128 igor@0: \end{verbatim} igor@0: igor@0: VNC: igor@0: igor@0: \begin{verbatim} igor@0: % vncviewer vermont:2 igor@0: \end{verbatim} igor@0: igor@0: Обратите внимание на параметр \rq{}:2\rq{}, так как изменился XenID (посмотреть его можно командой xm list). Не особо волнуйтесь насчет проблем VNC при работе с мышью. Как только вы завершите установку можно настроить службу терминального доступа и использовать Windows Remote Desktop или rdesktop. Если вы по-прежнему хотите использовать VNC, то обратитесь к этому разделу руководства. igor@0: igor@0: igor@0: \subsection{Вопросы и ответы} igor@0: Ниже приводятся выдержки из обсуждения \url{http://forum.sysadmins.ru/viewtopic.php?p=7941589\#7941589}, igor@0: в котором были затронуты многие распространённые вопросы, касающиеся запуска Windows в HVM-домене. igor@0: Стиль дискуссии сохранён. igor@0: igor@0: \textbf{Вопрос: Виртуалка начала бутиться с сидюка/винта, но при этом весь проц съела и черный экран виртуалки. Аптайм виртуалки увеличивается, значит сама виртуалка не повисла, наверно. Есть какие-нибуть идеи?} igor@0: igor@0: Да, скорее всего виртуалка нормально работает. igor@0: вы подключаетесь к экрану виртуалки через VNC, igor@0: при смене разрешения экрана (а при загрузке винды igor@0: именно это и происходит) его нужно передергивать, igor@0: то есть закрывать и подключаться вновь. igor@0: igor@0: \textbf{Вопрос: эникей не успевал нажать при буте с сидюка и виртуалка пытлас бутиться с пустого винта. А как вообще указать откуда она бутится?} igor@0: igor@0: Да, в соответствии с вашим конфигом система пытается загрузиться с igor@0: привода CDROM. igor@0: igor@0: \begin{itemize} igor@0: \item boot=\rq{}d\rq{} — загружатсья с CDROM\rq{}а (мнемоническое правило — «с диска D:» ) igor@0: \item boot=\rq{}c\rq{} — загружатсья с диска (мнемоническое правило — «с диска C:» ) igor@0: \end{itemize} igor@0: igor@0: \textbf{Вопрос: а звук в виртуалке не настраивал? Или хотя-бы через rdesktop?} igor@0: igor@0: Звук настраивали и всё работет. igor@0: Звук действительно слушается именно через rdesktop, igor@0: впрочем что и касается основной работы (кроме инсталляци) — работать лучше rdesktop. igor@0: igor@0: При заходе через \textit{rdesktop}, для того чтобы igor@0: звук проигрывался локально, используйте ключ \textit{-rsound}: igor@0: \begin{verbatim} igor@0: rdesktop -rsound 192.168.1.1 igor@0: \end{verbatim} igor@0: igor@0: VNC (а точнее libvnc), с которым скомпилен Xen имеет множество ограничений и его стоит рассматривать как аврийный вариант. А так конечно же заходить на систему через rdesktop, сразу же после того как на ней поднимается стек TCP/IP. (или в крайнейм случае поставить полноценный VNC-сервер внутрь домена с Windows). igor@0: igor@0: Если вы всё же используете встроенный VNC, то желательно отключить аппаратное ускорение мыши в Control Panel, или перейти на эмуляцию другого устройства (не мыши, а планшета) в Xen. igor@0: Иначе у вас будет два курсора, одному из которых будет соответствовать ваша реальная мышь, а вторым виртуальная. igor@0: igor@0: \textbf{Вопрос: Как поменять сд-имедж или диск физического привода не перезапуская виртуалки?} igor@0: igor@0: Есть два метода. Один для дома для семьи (и он по умолчанию в новых версиях Xen блокируется и его надо явно разрешать) и второй igor@0: промышленный. igor@0: igor@0: Первый: в VNC окне нажать ctr-alt-2 что переключит вас на консоль qemu, дальше использовать eject и прочие команды (я думаю там всё понятно, если не понятно, спрашивайте), а потом когда выполнили свое дело, нажать ctrl-alt-1 (не F1! не путайте!) для возврата в консоль (графическую) гостевой операционной системы (подробнее: (Xen-devel) About change of CD-ROM). igor@0: igor@0: Второй: использовать xm block-attach, xm block-detach igor@0: (подробнее: Xen-block-attach). igor@0: igor@0: Второй метод намного более правильный и более секюрный (первый блокируется из соображений безопасности ибо из консоли qemu можно намутить с доменом всё что угодно, и естественно, что это абсолютно не зависит от того, под каким юзером вы вошли в гостевой домен). igor@0: Кроме того, второй метод позволяет менять не только сидюки, но и винту и сетевышки и всё что вашей душеньке угодно (особенно это касается PV-доменов, ибо у HVM с этим простора всё же поменьше). igor@0: igor@0: \textbf{Вопрос: ОЗУ на серваке 4 или больше гигов? А то у меня х86\_64, с 4гигами ядро вешается на такой строчке:\dq{}agpgart: Detected an Intel 965G Chipset.\dq{}, с 3\rq{}мя гигами -- нормально.} igor@0: igor@0: Это нормально. igor@0: Точнее, это не совсем нормально, но это возможно. igor@0: igor@0: Можно попробовать следующие решения: igor@0: igor@0: \begin{enumerate} igor@0: \item Использовать параметр ядра agp=off igor@0: \item Добавить модуль intel\_agp в чёрный список незагружаемых модулей igor@0: \item Включить в BIOS фичу Memory Remap Feature (если она есть); это должно быть в конфигурации северного моста. igor@0: \item Использовать AMD igor@0: \end{enumerate} igor@0: igor@0: \textbf{Вопрос: На сервере 8Гб памяти, но больше 4 на гостевую систему в свободной версии xen не выделить(да и незачем особо). Поддержка PAE включена.} igor@0: igor@0: Насколько я понимаю, речь идёт о гостевом HVM-домене (потому что если это PV-домен и он не видит >4G, то это странно вдвойне). igor@0: Вероятно, вы имеете в виду баг \#971, из-за которого дейтвительно нельзя было увидеть больше 4G памяти в HVM домене. igor@0: Если так, то он уже давно пофикшен и этой проблемы быть не должно. igor@0: igor@0: Проверьте, что у вас: igor@0: \begin{enumerate} igor@0: \item Если в HVM-домене запускается Linux, ядро под которым запускается HVM-домен, имеет поддержку PAE. (это HVM, поэтому может работать и ядро без PAE на хосте с PAE, но конечно видеть >4G оно при этом не будет) igor@0: \item Если в HVM-домене запускается Windows, в конфигурации загрузчика (boot.ini) присутствует ключ /PAE igor@0: \end{enumerate} igor@0: igor@0: \subsection{Дополнительная информация} igor@0: \subsubsection{Описание процесса запуска Windows в домене XenU} igor@0: igor@0: \begin{itemize} igor@0: \item \htmladdnormallinkfoot{Windows XP в Xen}{http://xgu.ru/wiki/Windows\_XP\_в\_Xen} (рус.) igor@0: \item \htmladdnormallinkfoot{Xen w/ IntelVT->Windows Success Report}{http://lists.xensource.com/archives/html/xen-users/2006-06/msg00452.html} (англ.) igor@0: \item \htmladdnormallinkfoot{Запуск Windows XP в окружении Xen3}{http://dreamcatcher.ru/docs/xen3\_windows.html} (рус.) igor@0: \item \htmladdnormallinkfoot{How to Install Windows on Xen 3.0}{http://www.xensource.com/files/xen\_install\_windows.pdf} (англ.) igor@0: \item \htmladdnormallinkfoot{Building Xen from source on Ubuntu to run Windows}{http://linuxvirtualization.com/articles/2006/08/03/xen-on-ubuntu-for-windows} (англ.) igor@0: \end{itemize} igor@0: igor@0: \subsubsection{Проблемы производительности в виртуализированных машинах Windows} igor@0: \begin{itemize} igor@0: \item \htmladdnormallinkfoot{poor harddisk performance HVM domain}{http://lists.xensource.com/archives/html/xen-users/2006-05/msg00097.html} (англ.) igor@0: \item \htmladdnormallinkfoot{By 2009, there will be three competitive hypervisor architectures ...}{http://www.stanford.edu/class/ee380/Abstracts/060125-stanford0601.pdf} (англ.) igor@0: \item \htmladdnormallinkfoot{Intel® Virtualization Technology for Directed I/O}{http://www.intel.com/technology/itj/2006/v10i3/2-io/1-abstract.htm} (англ.) igor@0: \item \htmladdnormallinkfoot{Optimizing Network Virtualization in Xen}{http://www.usenix.org/events//usenix06/tech/menon/menon\_html/index.html}. Aravind Menon, EPFL, Switzerland; Alan L. Cox, Rice university, Houston; Willy Zwaenepoel, EPFL, Switzerland. (англ.) igor@0: \end{itemize} igor@0: