• Введение в основы виртуализации с KVM. KVM или Xen — сравнение гипервизоров Сравнение типов виртуализаций

    Мы в Cloud4Y считаем лидирующим решением для виртуализации продукты VmWare. Тем не менее, мы интересуемся и другими решениями, в том числе, Xen и KVM. И вот что мы заметили: существует не так уж много информации, позволяющей сравнить эти гипервизоры: последние дельные исследования, которые мы нашли в сети, относятся к 2012 году и, конечно, уже не могут считаться актуальными. Сегодня мы представим вашему вниманию тоже не самое новое, но, на наш взгляд, достаточно полезное исследование, посвященное производительности гипервизоров KVM и Xen.

    Гипервизор KVM

    Да простят нас гуру виртуализации, но для начала мы напомним читателям, что такое гипервизор и для чего он нужен. Для выполнения разных по смыслу задач (разработки программного обеспечения, хостинга и т. п.) проще всего использовать виртуальные машины: они позволят иметь несколько разных ОС с соответствующей программной средой. Для простоты работы с виртуальными машинами применяются гипервизоры — программные средства, позволяющие быстро развертывать, останавливать и запускать ВМ. KVM является одним из наиболее широко распространенных гипервизоров.


    KVM — это ПО, позволяющее организовывать виртуализацию на основе ПК под управлением ОС Linux и похожих. С недавнего времени KVM считается составляющей Linux-ядра и развивается параллельно ему. Этот гипервизор может использоваться только в системах, где виртуализация поддерживается аппаратно — с помощью процессоров Intel и AMD.


    В процессе работы KVM осуществляет доступ к ядру напрямую посредством процессор-специфичного модуля (kvm-intel или kvm-amd). К тому же, в состав комплекса включено основное ядро — kvm.ko и элементы UI, включая широко распространенный QEMU. KVM дает возможность напрямую работать с файлами ВМ и дисковыми образами. Каждая виртуальная машина обеспечивается своим изолированным пространством.

    Гипервизор Xen

    Изначально студентами Кембриджа был запущен проект, который в итоге стал коммерческой версией Xen. Первый релиз датирован 2003 годом, а в 2007 исходный код выкупила компания Citrix. Xen — это кроссплатформенный гипервизор с большим функционалом и огромными возможностями, что дает возможность применять его в корпоративной сфере. Xen поддерживает паравиртуализацию — особый режим ядра операционной системы, когда ядро настроено на одновременную работу с гипервизором.

    В код Xen добавлен только необходимый комплект функций: управление виртуальной памятью и тактовой частотой процессора, работа с DMA, таймером реального времени и прерываниями. Остальной функционал вынесен в домены, то есть в работающие в это время виртуальные машины. Таким образом, Xen — самый легкий гипервизор.

    Суть исследования

    Тестирование основано на использовании двух серверов SuperMicro, у каждого из которых четырехядерный процессор Intel Xeon E3-1220 с тактовой частотой 3,10 Гц, 24GB Kingston DDR3 RAM и четырьмя драйверами Western Digital RE-3 160GB (RAID 10). Версии BIOS идентичны.
    Для хостинга и виртуальных машин мы взяли Fedora 20 (с SELinux). Вот взятые нами версии ПО:

    • Kernel: 3.14.8
    • Для KVM: qemu-kvm 1.6.2
    • Для Xen: xen 4.3.2
    Все корневые файловые системы — XFS с конфигурацией по умолчанию. Виртуальные машины созданы с помощью virt-Manager с использованием настроек по умолчанию, применимых к KVM и Xen. Виртуальные диски использовали raw-образы и было выделено 8 Гб РАМ с 4 vCPU (виртуальными процессорами). ОС, запущенные на Xen, использовали PVHVM.

    Пояснения

    Кто-то из вас может начать возмущаться — мол, владелец Fedora 20, Red Hat, тратит значительное количество усилий на поддержку именно KVM. Уточним: Red Hat не делали значительных продвижений по части Xen долгие годы.


    Кроме того, конкуренция между гипервизорами жестко контролируется и сведена к минимуму. На большинстве виртуальных серверов у вас будет несколько виртуальных машин, борющихся за время процессора, устройства ввода/вывода и доступ к сети. Наше тестирование не принимает это во внимание. Один гипервизор может иметь низкую производительность при низкой конкуренции за ресурсы, а затем показать куда большую эффективность, чем конкуренты, когда борьба за ресурсы выше.

    Исследование проводилось на процессорах Intel, поэтому его результаты могут отличаться для AMD и ARM.

    Результаты

    Тесты для виртуальных машин, установленных непосредственно на «железо», то есть, без операционной системы (далее — «железо»), послужили основой для тестирования виртуальных машин. Отклонение в производительности между двумя серверами без виртуализации составило 0.51% или менее.


    Производительность KVM упала в пределах 1,5% по сравнению с «железом» практически во всех тестах. Только два теста показали иной результат: один из них — тест 7-Zip , где KVM показал себя на 2,79% медленнее, чем «железо». Странно, что KVM был на 4,11% быстрее в тесте PostMark (который симулировал сильно загруженный почтовый сервер). Производительность Xen сильнее отличалась от производительности «железа», чем в ситуации с KVM. В трех тестах Xen отличался на 2,5% от скорости «железа», в остальных тестах он оказался еще медленнее.

    В тесте PostMark Xen был медленнее на 14.41%, чем «железо». При перезапуске результаты теста отличались от первоначальных на 2%. Лучший тест для KVM, MAFFT, оказался вторым в списке худших для Xen.

    Вот краткий итог тестирования:

    Best Value Bare Metal KVM Xen
    Timed MAFFT Alignment lower 7.78 7.795 8.42
    Smallpt lower 160 162 167.5
    POV-Ray lower 230.02 232.44 235.89
    PostMark higher 3667 3824 3205
    OpenSSL higher 397.68 393.95 388.25
    John the Ripper (MD5) higher 49548 48899.5 46653.5
    John the Ripper (DES) higher 7374833.5 7271833.5 6911167
    John the Ripper (Blowfish) higher 3026 2991.5 2856
    CLOMP higher 3.3 3.285 3.125
    C-Ray lower 35.35 35.66 36.13
    7-Zip higher 12467.5 12129.5 11879

    Если вы хотите увидеть результаты полностью, пройдите по ссылке .

    Вместо заключения

    В нашем тестировании KVM был почти всегда на 2% медленнее, чем «железо». Xen оказался на 2,5% медленнее в трех тестах из десяти, а в остальных и того хуже: на 5-7%. Хотя KVM показал себя с лучшей стороны в тесте PostMark, следует отметить, что мы провели всего один I/O тест, и для получения более достоверной картины стоит провести еще несколько.


    Для выбора правильного гипервизора необходимо правильно оценить характер своих нагрузок. Если ваши нагрузки предполагают меньший объем для процессора и больший для I/O, то можно провести больше I/O тестов. Если же вы работаете, в основном, с аудио и видео, попробуйте тесты x264 или mp3.

    Как справедливо заметил mister_fog , в 2007 Citrix выкупила не исходный код Xen, а компанию XenSource, которая была основана разработчиками Xen и занималась коммерческим развитием этого открытого проекта. .

    В Ubuntu рекомендуется использовать гипервизор (менеджер виртуальных машин) KVM и библиотеку libvirt в качестве инструментария управления им. Libvirt включает в себя набор программного API и пользовательских приложений управления виртуальными машинами (ВМ) virt-manager (графический интерфейс, GUI) или virsh (командная строка, CLI). В качестве альтернативных менеджеров можно использовать convirt (GUI) или convirt2 (WEB интерфейс).

    В настоящее время в Ubuntu офицально поддерживается только гипервизор KVM. Этот гипервизор является частью кода ядра операционной системы Linux. В отличие от Xen, KVM не поддерживает паравиртуализацию, то есть, для того, чтобы его использовать, ваш CPU должен подерживать технологии VT. Вы можете проверить, поддерживает ли ваш процессор эту технологию, выполнив команду в терминале:

    Если в результате получили сообщение:

    INFO: /dev/kvm exists KVM acceleration can be used

    значит KVM будет работать без проблем.

    Если же на выходе получили сообщение:

    Your CPU does not support KVM extensions KVM acceleration can NOT be used

    то вы всё равно сможете использовать виртуальную машину, но работать она будет намного медленнее.

      Устанавливать в качестве гостевых 64-битные системы

      Выделять гостевым системам более 2 Гбайт ОЗУ

    Установка

    Sudo apt-get install qemu-kvm libvirt-bin ubuntu-vm-builder bridge-utils

    Это установка на сервер без X-ов, т. е. не включает в себя графический интерфейс. Установить его можно командой

    Sudo apt-get install virt-manager

    После этого в меню появится пункт «Менеджер виртуальных машин» и, с большой долей вероятности, всё заработает. Если какие-то проблемы всё же возникнут, то нужно будет почитать инструкцию в англоязычной вики.

    Создание гостевой системы

    Процедура создания гостевой системы с помощью графического интерфейса достаточно проста.

    А вот текстовый режим можно и описать.

    qcow2

    При создании системы с помощью графического интерфейса в качестве жёсткого диска предлагается либо выбрать уже существующий файл-образ или блочное устройсво, либо создать новый файл с сырыми (RAW) данными. Однако, это далеко не единственный доступный формат файлов. Из всех перечисленных в man qemu-img типов дисков наиболее гибким и современным является qcow2 . Он поддерживает снапшоты, шифрование и сжатие. Его необходимо создавать до того, как создать новую гостевую систему.

    Qemu-img create -o preallocation=metadata -f qcow2 qcow2.img 20G

    Согласно тому же man qemu-img , предварительное размещение метаданных (-o preallocation=metadata) делает диск изначально немного больше, но обеспечивает лучшую производительность в те моменты, когда образу нужно расти. На самом деле, в данном случае эта опция позволяет избежать неприятного бага. Создаваемый образ изначально занимает меньше мегабайта места и по мере необходимости растёт до указанного размера. Гостевая система сразу должна видеть этот окончательный указанный размер, тем не менее, на этапе установки она может увидеть реальный размер файла. Естественно, устанавливаться на жёсткий диск размером 200 кбайт она откажется. Баг не специфичен для Ubuntu, проявляется ещё в RHEL, как минимум.

    Кроме типа образа впоследствии можно будет выбрать способ его подключения - IDE, SCSI или Virtio Disk. От этого выбора будет зависеть производительность дисковой подсистемы. Однозначно правильного ответа нет, выбирать нужно исходя из задачи, которая будет возложена на гостевую систему. Если гостевая система создаётся «на посмотреть», то сойдёт любой способ. Вообще, обычно именно I/O является узким местом виртуальной машины, поэтому при создании высоконагруженной системы к этому вопросу нужно отнестись максимально ответственно.

    Эту заметку я пишу для того, чтобы продемонстрировать пошаговую установку и настройку виртуальной машины в Linux на базе KVM. Ранее я уже писал про виртуализацию, где использовал замечательный .

    Сейчас передо мной встал вопрос аренды хорошего сервера с большим объёмом оперативной памяти и объёмным жестким диском. Но запускать проекты прямо на хост-машине не хочется, поэтому буду разграничивать их по отдельным небольшим виртуальным серверам с ОС Linux или docker-контейнерам (о них расскажу в другой статье).

    Все современные облачные хостинги работают по такому же принципу, т.е. хостер на хорошем железе поднимает кучу виртуальных серверов, которые мы привыкли называть VPS/VDS, и раздаёт их пользователям, либо автоматизирует этот процесс (привет, DigitalOcean).

    KVM (kernel-based virtual machine) это программное обеспечения для Linux, использующее аппаратные средства x86-совместимых процессоров для работы с технологией виртуализации Intel VT/AMD SVM.

    Установка KVM

    Все махинации по созданию виртуальной машины я буду проводить на ОС Ubuntu 16.04.1 LTS. Чтобы проверить поддерживает ли ваш процессов аппаратную виртуализацию на базе Intel VT/AMD SVM, выполняем:

    Grep -E "(vmx|svm)" /proc/cpuinfo

    Если терминал непустой, то значит всё в порядке и KVM можно устанавливать. Ubuntu официально поддерживает только гипервизор KVM (входит в состав ядра Linux) и советует использовать библиотеку libvirt в качестве инструмента по управлению им, что мы и будем делать дальше.

    Проверить поддержку аппаратной виртуализации в Ubuntu также можно через команду:

    В случае успеха, вы увидите что-то вроде этого:

    INFO: /dev/kvm exists KVM acceleration can be used

    Устанавливаем пакеты для работы с KVM:

    Sudo apt-get install qemu-kvm libvirt-bin ubuntu-vm-builder bridge-utils

    Если у вас есть доступ к графической оболочке системы, то можно установить GUI менеджер libvirt:

    Sudo apt-get install virt-manager

    Пользоваться virt-manager достаточно просто (не сложнее VirtualBox), поэтому в этой заметке речь пойдёт про консольный вариант установки и настройки виртуального сервера.

    Установка и настройка виртуального сервера

    В консольном варианте установки, настройки и управлением системой, незаменимым инструментом является утилита virsh (надстройка над библиотекой libvirt). У неё большое количество опций и параметров, подробное описание можно получить так:

    Man virsh

    или вызвать стандартный "help":

    Virsh help

    Я всегда придерживаюсь следующих правил при работе с виртуальными серверами:

    1. Храню iso образы ОС в каталоге /var/lib/libvirt/boot
    2. Храню образы виртуальных машин в каталоге /var/lib/libvirt/images
    3. Явно задаю каждой новой виртуальной машине свой статичный IP адрес через DHCP сервер гипервизора.

    Приступим к установке первой виртуалки (64-битной серверной убунте 16.04 LTS):

    Cd /var/lib/libvirt/boot sudo wget http://releases.ubuntu.com/16.04/ubuntu-16.04.1-desktop-amd64.iso

    Скачав образ запускаем установку:

    Sudo virt-install \ --virt-type=kvm \ --name ubuntu1604\ --ram 1024 \ --vcpus=1 \ --os-variant=ubuntu16.04 \ --hvm \ --cdrom=/var/lib/libvirt/boot/ubuntu-16.04.1-server-amd64.iso \ --network network=default,model=virtio \ --graphics vnc \ --disk path=/var/lib/libvirt/images/ubuntu1604.img,size=20,bus=virtio

    Переводя все эти параметры на "человеческий язык", то получается, что мы создаём виртуальную машину с ОС Ubuntu 16.04, 1024 МБ ОЗУ, 1 процессором, стандартной сетевой картой (виртуальная машина будет ходить в интернет как-будто из-за NAT), 20 ГБ HDD.

    Стоит обратить внимание на параметр --os-variant , он указывает гипервизору под какую именно ОС следует адаптировать настройки.
    Список доступных вариантов ОС можно получить, выполнив команду:

    Osinfo-query os

    Если такой утилиты нет в вашей системе, то устанавливаем:

    Sudo apt-get install libosinfo-bin

    После запуска установки, в консоли появится вот такая надпись:

    Domain installation still in progress. You can reconnect to the console to complete the installation process.

    Это нормальная ситуация, продолжать установку мы будем через VNC.
    Смотрим на каком порту он был поднят у нашей виртуалки (в соседнем терминале, например):

    Virsh dumpxml ubuntu1604 ... ...

    Порт 5900, на локальном адресе 127.0.0.1. Чтобы подключиться к VNC, необходимо использовать Port Forwarding через ssh. Перед тем как это сделать, убедитесь, что tcp forwarding разрешён у демона ssh. Для этого идём в настройки sshd:

    Cat /etc/ssh/sshd_config | grep AllowTcpForwarding

    Если ничего не нашлось или вы видите:

    AllowTcpForwarding no

    То правим конфиг на

    AllowTcpForwarding yes

    и перезагружаем sshd.

    Настройка Port forwarding

    Выполняем команду на локальной машине:

    Ssh -fN -l login -L 127.0.0.1:5900:localhost:5900 server_ip

    Здесь мы настроили ssh port forwarding с локального порта 5900 на серверный порт 5900. Теперь уже можно подключиться к VNC, используя любой VNC-клиент. Я предпочитаю UltraVNC из-за простоты и удобства.

    После успешного подключения, на экране отобразится стандартное окно приветствия начала установки Ubuntu:

    После завершения установки и привычной перезагрузки, появится окно входа в систему. Авторизовавшись, определяем IP адрес новоиспечённой виртуалки, чтобы позже сделать его статичным:

    Ifconfig

    Запоминаем и идём на хост машину. Вытаскиваем mac-адрес "сетевой" карты виртуалки:

    Virsh dumpxml ubuntu1604 | grep "mac address"

    Запоминаем наш mac адрес:

    Редактируем сетевые настройки гипервизора:

    Sudo virsh net-edit default

    Ищем DHCP, и добавляем вот это:

    Должно получиться что-то вроде этого:

    Для того, чтобы настройки вступили в силу, необходимо перезагрузить DHCP сервер гипервизора:

    Sudo virsh net-destroy default sudo virsh net-start default sudo service libvirt-bin restart

    После этого перегружаем виртуальную машину, теперь она всегда будет иметь заданный ей IP адрес - 192.168.122.131.

    Есть и другие способы задать виртуалке статичный IP, например, напрямую редактируя сетевые настройки внутри гостевой системы, но тут уже как душе вашей будет угодно. Я лишь показал вариант, который сам предпочитаю использовать.

    Чтобы подключиться к терминалу виртуальной машины, выполняем:

    Ssh 192.168.122.131

    Машина готова к бою.

    Virsh: список команд

    Чтобы посмотреть запущенные виртуальные хосты (все доступные можно получить добавив --all):

    Sudo virsh list

    Перезагрузить хост можно:

    Sudo virsh reboot $VM_NAME

    Остановить виртуальную машину:

    Sudo virsh stop $VM_NAME

    Выполнить halt:

    Sudo virsh destroy $VM_NAME

    Sudo virsh start $VM_NAME

    Отключение:

    Sudo virsh shutdown $VM_NAME

    Добавить в автозапуск:

    Sudo virsh autostart $VM_NAME

    Очень часто требуется склонировать систему, чтобы в будущем использовать её как каркас для других виртуальных ОС, для этого используют утилиту virt-clone.

    Virt-clone --help

    Она клонирует существующую виртуалку и изменяет host-sensitive данные, например, mac address. Пароли, файлы и прочая user-specific информация в клоне остаётся прежней. Если на клонируемой виртуалке IP адрес был прописан вручную, то могут возникнуть проблемы с доступом по SSH на клон из-за конфликта (2 хоста с одинаковым IP).

    Помимо установки виртуалки через VNC, также возможен вариант с X11Forwarding через утилиту virt-manager. В Windows, например, для этого можно использовать Xming и PuTTY.


    На днях вышел интересный отчет компании Principled Technologies, специализирующейся, в том числе, на всякого рода тестировании аппаратно-программных сред. В документе " " рассказывается о том, что на одном и том же оборудовании с помощью гипервизора ESXi можно запустить больше виртуальных машин, чем на гипервизоре KVM платформы RHEV.

    Понятное дело, что исследование ангажированное (хотя бы, если посмотреть на заголовок), но поскольку таких документов не так много, мы решили обратить на него внимание.

    Для тестирования использовался стоечный сервер Lenovo x3650 M5, на котором в виртуальных машинах работала СУБД Microsoft SQL Server 2016 с нагрузкой типа OLTP. В качестве основного показателя производительности использовался OPM (orders per minute), отображающий количественную оценку исполненных транзакций.

    Если не использовать техники Memory Overcommit, то результат выполнения на 15 виртуальных машинах одного хоста в числе OPM примерно одинаковый на обоих гипервизорах:

    А вот когда происходит увеличение числа виртуальных машин, то vSphere показывает себя значительно лучше:

    Крестиками отмечены машины, которые на RHV просто не запустились, консоль продукта выдала вот такую ошибку:

    Несмотря на включение техник оптимизации памяти в Red Hat Virtualization Manager (RHV-M), таких как memory ballooning и kernel shared memory, шестнадцатая виртуальная машина все равно отказывалась запускаться на KVM:

    Ну а на vSphere продолжали наращивать число ВМ, пока не уперлись в недостаток ресурсов:

    Получилось, что с техниками overcommit на vSphere получилось запустить 24 виртуальных машины, а на RHV - всего 15 штук. По итогу сделали вывод, что на VMware vSphere в 1,6 раза можно запустить больше виртуальных машин:

    Не сказать, что это объективное тестирование, но очевидно, что ESXi в данном случае работает лучше KVM с точки зрения всяких оптимизаций памяти и прочих ресурсов ВМ.


    Таги: VMware, Red Hat, Performance, RHV, vSphere, ESXi, KVM
    Таги: KVM, oVirt, Open Source, Update

    Напомним, что RHEV основана на гипервизоре Kernel-based Virtual Machine (KVM) и поддерживает открытую облачную архитектуру OpenStack. Давайте посмотрим, что нового появилось в обновленном RHEV версии 3.4.

    Инфраструктура

    • Сервис настройки SNMP для поддержки сторонних систем мониторинга.
    • Сохранение настроек облачной инсталляции RHEV для возможности ее восстановления при сбое или для целей тиражирования в других облаках.
    • Переписаны и улучшены сервисы аутентификации RHEV.
    • Возможность горячего добавления процессора в ВМ (Hot Plug CPU). Тут нужна поддержка со стороны ОС.
    • Нерутовые юзеры теперь имеют доступ к логам.
    • Новый установщик, основанный на TUI (textual user interface).
    • Поддержка IPv6.
    • Возможность выбора соединения с консолью ВМ в режиме Native Client или noVNC.
    • Возможность изменения некоторых настроек запущенной виртуальной машины.
    • Полная поддержка RHEL 7 в качестве гостевой ОС.
    • Возможность включения/отключения KSM (Kernel Samepage Merging) на уровне кластера.
    • Возможность перезагрузки ВМ из RHEVM или консольной командой.

    Сетевое взаимодействие

    • Более плотная интеграция с инфраструктурой OpenStack:
      • Улучшения безопасности и масштабируемости для сетей, развернутых с помощью Neutron .
      • Поддержка технологии Open vSwitch (расширяемый виртуальный коммутатор) и возможностей SDN -сетей.
    • Network Labels - метки, которые можно использовать при обращении к устройствам.
    • Корректный порядок нумерации виртуальных сетевых адаптеров (vNIC).
    • Поддержка iproute2.
    • Единая точка конфигурации сетевых настроек множества хостов в указанной сети.

    Возможности хранилищ

    • Смешанные домены хранилищ (mixed storage domains) - возможность одновременного использования дисковых устройств из хранилищ iSCSI, FCP, NFS, Posix и Gluster для организации хранения виртуальных машин.
    • Multiple Storage Domains - возможность распределить диски одной виртуальной машины по нескольким хранилищам в пределах датацентра.
    • Возможность указания дисков, которые будут участвовать в создании снапшотов, а также тех, которые не будут.
    • Улучшен механизм восстановления ВМ из резервной копии - теперь есть возможность указать снапшот состояния, в которое хочется откатиться.
    • Асинхронное управление задачами Gluster-хранилищ.
    • Read-Only Disk for Engine - эта функция дает средству управления Red Hat Enterprise Virtualization Manager возможность использовать диски только для чтения.
    • Доступ по нескольким путям (multipathing) для хранилищ iSCSI.

    Средства виртуализации

    • Агенты гостевых ОС (ovirt-guest-agent) для OpenSUSE и Ubuntu.
    • SPICE Proxy - возможность использовать прокси-серверы для доступа пользователей к своим ВМ (если они, например, находятся за пределами инфраструктурной сети).
    • SSO (Single Sign-On) Method Control - возможность переключаться между различными механизмами сквозной аутентификации. Пока есть только два варианта: guest agent SSO и без SSO.
    • Поддержка нескольких версий одного шаблона виртуальной машины.

    Улучшения планировщика и средств обеспечения уровня обслуживания

    • Улучшения планировщика виртуальных машин.
    • Группы Affinity/Anti-Affinity (правила существования виртуальных машин на хостах - размещать машины вместе или раздельно).
    • Power-Off Capacity - политика электропитания, позволяющая выключить хост и подготовить его виртуальные машины к миграции в другое место.
    • Even Virtual Machine Distribution - возможность распределения виртуальных машин по хостам на базе количества ВМ.
    • High-Availability Virtual Machine Reservation - механизм позволяет гарантировать восстановление виртуальных машин в случае отказа одного или нескольких хост-серверов. Он работает на базе расчета доступной емкости вычислительных ресурсов хостов кластера.

    Улучшения интерфейса

    • Фиксы багов, касающихся того, что интерфейс не всегда реагировал на происходящие в инфраструктуре события.
    • Поддержка низких разрешений экрана (когда не было видно некоторых элементов консоли управления на низких разрешениях).

    Скачать Red Hat Enterprise Virtualization 3.4 можно по этой ссылке . Документация доступна .


    Таги: Red Hat, RHEV, Update, Linux, KVM

    Новая версия ОС RHEL имеет множество новых интересных возможностей, среди которых немало касаются технологий виртуализации. Некоторые основные новые возможности RHEL 7:

    • Встроенная поддержка упакованных приложений в формате Docker.
    • Kernel patching utility Technology Preview - патчинг ядра без перезагрузки ОС.
    • Прямая и непрямая интеграция с Microsoft Active Directory, подробнее описано .
    • Для разделов boot, root и user data дефолтной файловой системой теперь является XFS.
      • Для XFS максимальный размер файловой системы увеличен со 100 ТБ до 500 ТБ.
      • Для ext4 этот размер увеличен с 16 ТБ до 50 ТБ.
    • Улучшенный процесс установки ОС (новый визард).
    • Возможность управления серверами Linux с использованием Open Linux Management Infrastructure (OpenLMI).
    • Улучшения файловых систем NFS и GFS2.
    • Новые возможности технологии виртуализации KVM.
    • Возможность выполнять RHEL 7 в качестве гостевой OS.
    • Улучшения NetworkManager и новая утилита командной строки для выполнения сетевых задач NM-CLI.
    • Поддержка сетевых соединений Ethernet на скорости до 40 Гбит/с.
    • Поддержка беспроводной технологии WiGig (IEEE 802.11ad) (на скорости до 7 Гбит/с).
    • Новый механизм Team Driver, который виртуально объединяет сетевые устройства и порты в единый интерфейс на уровне L2.
    • Новый динамический сервис FirewallD, представляющий собой гибкий сетевой экран, имеющий преимущество перед iptables и поддерживающий несколько трастовых зон (network trust zones).
    • GNOME 3 в режиме классического рабочего стола.

    Более подробно о новых возможностях RHEL 7 рассказано Red Hat.

    В плане виртуализации в Red Hat Enterprise Linux 7 появились следующие основные нововведения:

    • Технологическое превью возможности virtio-blk-data-plane, которая позволяет выполнять команды ввода-вывода QEMU в отдельном оптимизированном потоке.
    • Появилось технологическое превью технологии PCI Bridge, позволяющей поддерживать более чем 32 PCI-устройства в QEMU.
    • QEMU Sandboxing - улучшенная изоляция между гостевыми ОС хоста RHEL 7.
    • Поддержка "горячего" добавления виртуальных процессоров машинам (vCPU Hot Add).
    • Multiple Queue NICs - каждый vCPU имеет собственные очереди на передачу и получение, что позволяет не задействовать другие vCPU (только для гостевых ОС Linux).
    • Технология сжатия страниц памяти при горячей миграции (Page Delta Compression) позволяет гипервизору KVM проводить миграцию быстрее.
    • В KVM появились функции поддержки паравиртуализованных функций ОС Microsoft, например, Memory Management Unit (MMU) и Virtual Interrupt Controller. Это позволяет гостевым ОС Windows работать быстрее (по умолчанию эти функции отключены).
    • Поддержка технологии EOI Acceleration, основанной на интерфейсе Advanced Programmable Interrupt Controller (APIC) от Intel и AMD.
    • Технологическое превью поддержки USB 3.0 в гостевых ОС на KVM.
    • Поддержка гостевых ОС Windows 8, Windows 8.1, Windows Server 2012 и Windows Server 2012 R2 на гипервизоре KVM.
    • Функции I/O Throttling для гостевых ОС на QEMU.
    • Поддержка технологий Ballooning и transparent huge pages.
    • Новое устройство virtio-rng доступно как генератор случайных чисел для гостевых ОС.
    • Поддержка горячей миграции гостевых ОС с хоста Red Hat Enterprise Linux 6.5 на хост Red Hat Enterprise Linux 7.
    • Поддержка назначения устройств NVIDIA GRID и Quadro как второго устройства в дополнение к эмулируемому VGA.
    • Технология Para-Virtualized Ticketlocks, улучшающая производительность, когда виртуальных vCPU больше чем физических на хосте.
    • Улучшенная обработка ошибок устройств PCIe.
    • Новый драйвер Virtual Function I/O (VFIO) улучшающий безопасность.
    • Поддержка технологии Intel VT-d Large Pages, когда используется драйвер VFIO.
    • Улучшения отдачи точного времени виртуальным машинам на KVM.
    • Поддержка образов формата QCOW2 version 3.
    • Улучшенные статистики Live Migration - total time, expected downtime и bandwidth.
    • Выделенный поток для Live Migration, что позволяет горячей миграции не влиять на производительность гостевых ОС.
    • Эмуляция процессоров AMD Opteron G5.
    • Поддержка новых инструкций процессоров Intel для гостевых ОС на KVM.
    • Поддержка форматов виртуальных дисков VPC и VHDX в режиме "только для чтения".
    • Новые возможности утилиты libguestfs для работы с виртуальными дисками машин.
    • Новые драйверы Windows Hardware Quality Labs (WHQL) для гостевых ОС Windows.
    • Интеграция с VMware vSphere: Open VM Tools, драйверы 3D-графики для OpenGL и X11, а также улучшенный механизм коммуникации между гостевой ОС и гипервизором ESXi.

    Release Notes новой версии ОС доступны по этой ссылке . О функциях виртуализации в новом релизе RHEL 7 можно почитать (а - на русском). Исходные коды rpm-пакетов Red Hat Enterprise Linux 7 теперь доступны только через Git-репозиторий .


    Таги: Linux, QEMU, KVM, Update, RHEL, Red Hat

    Компания Ravello нашла интересный способ использовать вложенную виртуализацию в своем продукте Cloud Application Hypervisor , который позволяет универсализовать развертывание ВМ разных платформ виртуализации в публичных облаках различных сервис провайдеров.

    Основным компонентом этой системы является технология HVX - собственный гипервизор (на базе Xen), являющийся частью ОС Linux и запускающий вложенные виртуальные машины без их изменения средствами техник бинарной трансляции. Далее эти машины можно разместить в облаках Amazon EC2, HP Cloud, Rackspace и даже частных облаках, управляемых VMware vCloud Director (поддержка последнего ожидается в скором времени).

    Продукт Ravello - это SaaS-сервис, а такие матрешки можно просто загружать на любой из поддерживаемых хостингов, вне зависимости от используемого им гипервизора. Виртуальная сеть между машинами создается через L2-оверлей над существующей L3-инфраструктурой хостера с использованием GRE-подобного протокола (только на базе UDP):

    Сама механика предлагаемого сервиса Cloud Application Hypervisor такова:

    • Пользователь загружает виртуальные машины в облако (поддерживаются машины, созданные на платформах ESXi/KVM/Xen).
    • С помощью специального GUI или средствами API описывает многомашинные приложения.
    • Публикует свои ВМ в одном или нескольких поддерживаемых облаках.
    • Получившаяся конфигурация сохраняется в виде снапшота в облаке Ravello (потом в случае чего ее можно восстановить или выгрузить) - это хранилище может быть создано как на базе облачных хранилищ Amazon S3, CloudFiles, так и на базе собственных блочных хранилищ или NFS-томов.
    • После этого каждый пользователь может получить многомашинную конфигурацию своего приложения по требованию.

    Очевидный вопрос, который возникает первым: что с производительностью? Ну, во-первых, решение Cloud Application Hypervisor рассчитано на команды разработки и тестирования, для которых производительность не является критичным фактором.

    А во-вторых, результаты тестов производительности таких вложенных матрешек показывают не такие уж и плохие результаты:

    Для тех, кто заинтересовался технологией HVX, есть хорошее обзорное видео на рунглише:


    Таги: Rovello, Nested Virtualization, Cloud, HVX, VMware, ESXi, KVM, Xen, VMachines, Amazon, Rackspace

    Новая версия открытой платформы виртуализации RHEV 3.0 основана на дистрибутиве Red Ha Enterprise Linux версии 6 и, традиционно, гипервизоре KVM.

    Новые возможности Red Hat Enterprise Virtualization 3.0:

    • Средство управления Red Hat Enterprise Virtualization Manager теперь построен на базе Java, запущенной на платформе JBoss (ранее использовался.NET, и, соответственно, была привязка к Windows, теперь же можно использовать Linux для управляющего сервера).
    • Портал самообслуживания пользователей, позволяющий им самостоятельно развертывать виртуальные машины, создавать шаблоны и администрировать собственные окружения.
    • Новый RESTful API, позволяющиий получить доступ ко всем компонентам решения из сторонних приложений.
    • Расширенный механизм администрирования, предоставляющий возможность гранулированного назначения пермиссий, делегирования полномочий на базе ролей пользователей и иерархическое управление привилегиями.
    • Поддержка локальных дисков серверов в качестве хранилищ виртуальных машин (но для них не поддерживается Live Migration).
    • Интегрированный механизм отчетности, позволяющий анализировать исторические данные о производительности и строить прогнозы по развитию виртуальной инфраструктуры.
    • Оптимизация для WAN-соединений, включая технологии dynamic compression (сжатие картинки) и автоматической настройки эффектов рабочего стола и глубины цветности. Кроме того, новая версия SPICE имеет расширенную поддержку десктопов с гостевыми ОС Linux.
    • Обновленный гипервизор KVM на основе последнего Red Hat Enterprise Linux 6.1, вышедшего в мае 2011 года.
    • Поддержка до 160 логических CPU и 2 ТБ памяти для хост-серверов, 64 vCPU и 512 ГБ памяти - для виртуальных машин.
    • Новые возможности по администрированию больших инсталляций RHEV 3.0.
    • Поддержка больших страниц памяти (Transparant Huge Pages, 2 МБ вместо 4 КБ) в гостевых ОС, что увеличивает производительность за счет меньшего количества чтений.
    • Оптимизация компонента vhost-net. Теперь сетевой стек KVM перемещён из пользовательского режима в режим ядра, что существенно увеличивает производительность и уменьшает задержки в сети.
    • Использование функций библиотеки sVirt, обеспечивающей безопасность гипервизора.
    • Появился паравиртуализованный контроллер x2paic, который уменьшает overhead на содержание ВМ (особенно эффективен для интенсивных нагрузок).
    • Технология Async-IO для оптимизации ввода-вывода и повышения производительности.

    Скачать финальный релиз Red Hat Enterprise Virtualization 3.0 можно по этой ссылке .

    Ну и, напоследок, небольшой видео-обзор Red Hat Enterprise Virtualization Manager 3.0 (RHEV-M):


    Таги: Red Hat, Enterprise, Update, KVM, Linux

    Молодцы NetApp! Роман, ждем перевода на русский язык)


    Таги: Red Hat, KVM, NetApp, Storage, NFS

    Продукт ConVirt 2.0 Open Source позволяет управлять гипервизорами Xen и KVM, входящими в бесплатные и коммерческие издания дистрибутивов Linux, развертывать виртуальные серверы из шаблонов, осуществлять мониторинг производительности, автоматизировать задачи администратора и настраивать все аспекты виртуальной инфраструктуры. ConVirt 2.0 поддерживает функции горячей миграции виртуальных машин, "тонкие" виртуальные диски (растущие по мере наполнения данными), контроль ресурсов виртуальных машин (в т.ч. запущенных), обширные функции мониторинга и средства интеллектуального размещения виртуальных машин на хост-серверах (ручная балансировка нагрузки).

    ConVirt 2.0 пока существует только в издании Open Source, однако разработчики обещают в скором времени выпустить издание ConVirt 2.0 Enteprise, которое будет отличаться от бесплатного следующими возможностями:

    Feature ConVirt 2.0
    Open Source
    ConVirt 2.0 Enterprise

    Architecture
    Multi-platform Support
    Agent-less Architecture
    Universal Web Access
    Datacenter-wide Console

    Administration
    Start, Stop, Pause, Resume
    Maintanence Mode
    Snapshot
    Change Resource Allocation on a Running VM

    Monitoring
    Real-time Data
    Historical Information
    Server Pools
    Storage Pools
    Alerts and Notifications

    Provisioning
    Templates-based Provisioning
    Template Library
    Integrated Virtual Appliance Catalogues
    Thin Provisioning
    Scheduled Provisioning

    Automation
    Intelligent Virtual Machine Placement
    Live Migration
    Host Private Networking
    SAN, NAS Storage Support

    Advanced Automation
    High Availability
    Backup and Recovery
    VLAN Setup
    Storage Automation
    Dynamic Resource Allocation
    Power Saving Mode

    Security
    SSH Access
    Multi-user Administration
    Auditing
    Fine Grained Access Control

    Integration
    Open Repository
    Command Line Interface
    Programmatic API

    Таги: Xen, KVM, Convirt, Citrix, Red Hat, Бесплатно, Open Source,

    Компания Convirture, занимавшаяся в 2007 году проектом XenMan, представлявшим собой GUI для управления гипервизором XEN, выпустила недавно релиз бесплатного продукта Convirture ConVirt 1.0, на который изменил свое название XenMan.

    С помощью ConVirt можно управлять гипервизорами Xen и KVM, используя следующие возможности:

    • Управление несколькими хост-серверами.
    • Снапшоты (snapshots).
    • Горячая миграция виртуальных машин между хостами (Live Migration).
    • Резервное копирование ВМ.
    • Простейший мониторинг хостов и виртуальных машин.
    • Поддержка виртуальных модулей (Virtual Appliances).

    Скачать Convirture ConVirt 1.0 можно по этой ссылке:

    Convirture ConVirt 1.0
    Таги: Xen, KVM

    При выборе тарифа, человек выбирает также и способ виртуализации для сервера. Предлагаем на выбор виртуализации на уровне операционной системы OpenVZ и аппаратную виртуализацию KVM.

    Сменить тип виртуализации после запуска невозможно, поскольку серверы находятся на разных аппаратных платформах. Вам придётся заказать новый сервер, перенести проект и отказаться от старого сервера.

    Сравнение типов виртуализаций

    OpenVZ KVM

    ОС из ряда предложенных: Debian, CentOS, Ubuntu

    Linux, Windows, FreeBSD, установка собственного дистрибутива

    Изменение ресурсов без перезагрузки (жёсткий диск, память, процессор)

    Память и процессор изменятся после перезагрузки, жёсткий диск - только после обращения в поддержку (на готовых тарифах память изменить нельзя)

    Смена тарифного плана без перезагрузки

    Смена тарифного плана . Сервер будет недоступен 1-2 часа.

    Мягкие лимиты: максимальная производительность сервера может отклоняться в большую или меньшую сторону

    Жёсткие лимиты: каждый сервер получает заявленные ресурсы

    Ограничение на запуск высоконагруженных проектов. Запрещено запускать Java-приложения, массовые рассылки и проксировать трафик. TUN/TAP выключен.

    Возможность запуска любых проектов (кроме систем распределённых вычислений)

    Возможность . Для этого типа виртуализации подключение к графическому интерфейсу по VNC невозможно.

    Возможность . Если сервер по каким-либо причинам недоступен по SSH или нужно подключиться к графическому интерфейсу, можно получить доступ к серверу по VNC.

    Перейти в панель управления ISPmanager можно:

    • из Личного кабинета: раздел - Товары - Виртуальные серверы - выберите сервер, сверху кнопка «Перейти» ,
    • по ссылке из Инструкции: Личный кабинет- Товары - Виртуальные серверы - выберите сервер, сверху «Инструкция» .

    Виртуализация OpenVZ

    OpenVZ - виртуализация уровня операционной системы. Технология базируется на ядре ОС Linux и позволяет на одном физическом сервере создавать и запускать изолированные друг от друга копии выбранной операционной системы (Debian, CentOS, Ubuntu). Установка другой ОС невозможна, так как виртуальные серверы используют общее ядро Linux.

    Технология отличается легкостью управления сервером : пользователь может в личном кабинете самостоятельно* добавить количество ресурсов (память, процессор, жесткий диск) или перейти на другой тариф с той же виртуализацией. Изменения применяются автоматически, без перезагрузки сервера.

    На серверах с виртуализацией OpenVZ запрещается запускать:

    • сервисы для организации проксирования любого вида трафика
    • сервисы потокового вещания
    • игровые серверы
    • системы или элементы систем распределённых вычислений (например, bitcoin mining)
    • сервисы массовой рассылки почтовых сообщений, даже если они используются в легальных целях
    • Java-приложения
    • иные ресурсоёмкие приложения

    Такие проекты создают неравномерную нагрузку на родительском сервере и могут мешать соседним виртуальным машинам.

    * - для прошлых версий тарифов (VDS-2015, VDS-Лето, VDS-2016) смена тарифа в личном кабинете больше не доступна. Самостоятельное изменение тарифного плана возможно только на актуальных тарифах виртуализации OVZ. Если для вас важно иметь доступ к быстрому управлению ресурсами сервера - для перехода на актуальный тарифный план. Если стоимость нового тарифа выше стоимости текущего, смена тарифа происходит бесплатно, в остальных случаях - в рамках . Тариф меняется без перезагрузки сервера.

    Виртуализация KVM

    KVM (Kernel-based Virtual Machine) - технология аппаратной виртуализации, позволяющая создать на хост-машине полный виртуальный аналог физического сервера . KVM позволяет создать полностью изолированный от «соседей» виртуальный сервер с собственным ядром ОС, который пользователь может настраивать и модифицировать под собственные нужды без ограничений. Каждому такому серверу выделяется своя область в оперативной памяти и пространство на жестком диске, что повышает общую надежность работы такого сервера.

    Возможна установка любой операционной системы на выбор (Debian, CentOS, Ubuntu, FreeBSD, Windows Server), либо установка собственного дистрибутива (в панели VMmanager в разделе ISO-образы нажмите кнопку Создать и добавьте свой ISO-образ системы).

    Смена тарифного плана возможна только в большую сторону и только в рамках базовой линейки тарифов (Старт, Разгон, Отрыв, Улёт). Если ваш проект «вырастет» из тарифа, напишите запрос в поддержку из Личного кабинета - администраторы сменят тариф на требуемый бесплатно. Изменить тариф в меньшую сторону можно только переносом на новый сервер. Закажите новый сервер и перенесите данные самостоятельно, либо специалисты технической поддержки помогут с переносом за 1 обращение по пакету администрирования или 250 руб.

    Помните, что на тарифах VDS-Форсаж и VDS-Атлант , вы можете изменять ресурсы вместо смены тарифа : количество доступных ядер процессора и оперативной памяти самостоятельно в панели управления, а размер жёсткого диска - после обращения в поддержку (в рамках администрирования или за 250 руб.).

    Учитывая особенности и преимущества, которые дает виртуализация KVM, ее тарифы стоят дороже аналогичных тарифов с виртуализацией OpenVZ.

    На серверах с виртуализацией KVM Абоненту запрещается размещать системы или элементы систем распределённых вычислений (например, bitcoin mining).

    Смена виртуализации на сервере

    В рамках одного сервера сменить виртуализацию с OpenVZ на KVM и обратно невозможно.

    1. Закажите второй сервер с нужной виртуализацией в панели BILLmanager, раздел Виртуальные серверы → Заказать

    2. Перенесите на него данные.

    3. После переноса и проверки старый сервер можно удалить (Виртуальные серверы → Удалить).