Налаштування віртуальної машини kvm в linux. Гумовий гіпервізор

В Ubuntu рекомендується використовувати гіпервізор (менеджер віртуальних машин) KVM та бібліотеку libvirt як інструментарій управління ним. Libvirt включає набір програмного API і користувацьких додатків управління віртуальними машинами (ВМ) virt-manager (графічний інтерфейс, GUI) або virsh (командний рядок, CLI). Як альтернативні менеджери можна використовувати convirt (GUI) або convirt2 (WEB інтерфейс).

В даний час в Ubuntu офіційно підтримується лише гіпервізор KVM. Цей гіпервізор є частиною коду ядра Linux. На відміну від Xen, KVM не підтримує паравіртуалізацію, тобто для того, щоб його використовувати, ваш CPU повинен підтримувати технології VT. Ви можете перевірити, чи процесор підтримує цю технологію, виконавши команду в терміналі:

Якщо отримано повідомлення:

INFO: /dev/kvm exists KVM acceleration can be used

значить KVM працюватиме без проблем.

Якщо ж на виході отримали повідомлення:

Ваші CPU не підтримуються KVM extensions KVM acceleration can NOT be used

то ви все одно зможете використовувати віртуальну машину, але працюватиме вона набагато повільніше.

    Встановлювати як гостьові 64-бітові системи

    Виділяти гостьовим системам понад 2 Гбайт ОЗУ

Встановлення

Sudo apt-get install qemu-kvm libvirt-bin ubuntu-vm-builder bridge-utils

Це встановлення на сервер без X-ів, тобто не включає графічний інтерфейс. Встановити його можна командою

Sudo apt-get install virt-manager

Після цього в меню з'явиться пункт «Менеджер віртуальних машин» і з великою ймовірністю все запрацює. Якщо якісь проблеми все ж таки виникнуть, то потрібно буде почитати інструкцію в англомовній вікі.

Створення гостьової системи

Процедура створення гостьової системи за допомогою графічного інтерфейсу є досить простою.

А ось текстовий режим можна описати.

qcow2

При створенні системи за допомогою графічного інтерфейсу як жорсткий диск пропонується або вибрати вже існуючий файл-образ або блоковий пристрій, або створити новий файл з сирими (RAW) даними. Однак це далеко не єдиний доступний формат файлів. З усіх перерахованих у man qemu-img типів дисків найбільш гнучким і сучасним є qcow2. Він підтримує снапшоти, шифрування та стиснення. Його необхідно створювати перед тим, як створити нову гостьову систему.

Qemu-img create -o preallocation=metadata -f qcow2 qcow2.img 20G

Відповідно до того ж man qemu-img , попереднє розміщення метаданих (-o preallocation=metadata) робить диск спочатку трохи більше, але забезпечує кращу продуктивність у ті моменти, коли потрібно рости. Насправді, у разі ця опція дозволяє уникнути неприємного бага. Створюваний образ спочатку займає менше мегабайта місця і при необхідності зростає до вказаного розміру. Гостьова система відразу повинна бачити цей остаточний вказаний розмір, проте на етапі установки вона може побачити реальний розмір файлу. Звичайно, встановлюватися на жорсткий диск розміром 200 кбайт вона відмовиться. Баг не специфічний для Ubuntu, виявляється ще в RHEL, як мінімум.

Крім типу образу згодом можна буде вибрати спосіб його підключення – IDE, SCSI або Virtio Disk. Від цього вибору залежатиме продуктивність дискової підсистеми. Однозначно правильної відповіді немає, вибирати потрібно виходячи із завдання, яке буде покладено на гостьову систему. Якщо гостьова система створюється «подивитися», то зійде будь-який спосіб. Взагалі, зазвичай, саме I/O є вузьким місцем віртуальної машини, тому при створенні високонавантаженої системи до цього питання потрібно поставитися максимально відповідально.

KVM (віртуальна машина на основі ядра або Kernel-based Virtual) – безкоштовне програмне забезпечення для віртуалізації з відкритим вихідним кодом. Ви можете створювати кілька віртуальних машин (VM), кожна віртуальна машина має власне віртуальне обладнання, таке як диск, процесор, оперативна пам'ять і т. д. Він був включений в основну частину ядра Linux у версії 2.6.20 ядра.

Якщо ви шукаєте альтернативу VirtualBox, ми рекомендуємо використовувати KVM. Ми також особисто використовуємо це дивовижне програмне забезпечення для віртуалізації.

Установка KVM Ubuntu 17.04

Для встановлення KVM у вас повинні бути наступні заготовки.

  1. Увімкніть віртуалізацію у системному BIOS.
  2. Перевірте системний CPU, якщо він підтримує віртуалізацію. Виконайте наведену нижче команду.

egrep - c '(vmx|svm)' / proc / cpuinfo

Коли ви отримуєте висновок з вищенаведеної команди або 1 або більше, це означає, що процесор підтримує віртуалізацію інакше 0 або менше означає, що вона не підтримує.

3. Перевірте архітектуру Ubuntu 16.04 LTS, виконавши одну команду i.e

X86_64 є 64-бітне ядро.
I386, i486, i586 або i686 є 32-бітне ядро.

32-розрядна ОС обмежена 2 ГБ ОЗУ максимально для цієї віртуальної машини.
32-розрядне ядро ​​буде розміщувати тільки 32-бітове гостьове ядро, тоді як у 64-бітному ядрі можуть бути як 32-бітні, так і 64-розрядні гостьові O.S.

Виконайте кроки для встановлення KVM на Ubuntu

У цьому розділі ми запишемо кроки для встановлення KVM. У нашому попередньому пості ми навчилися. Можливо, це також буде цікаво.

1. Встановлення KVM Ubuntu 17.04 та інших залежних пакетів

У Ubuntu 17.04 LTS можна використовувати команду aptабо apt-get both. Тут не буде відмінностей у пакетах, встановлених за допомогою команди apt або apt-get, тому ви тут чудові.

sudo apt update

sudo apt install qemu — kvm libvirt — bin bridge — utils

2. Дізнайтеся про нових користувачів та групу програмного забезпечення KVM

Після встановлення пакетів деякі додавання будуть відбуватися у кількості користувачів та груп.

(A) Створюються два користувачі.
- libvirt-qemu
- libvirt-dnsmasq

[email protected]: ~ $ tail - 2 / etc / passwd

libvirt - qemu : x : 64055 : 129 : Libvirt Qemu ,:/ var / lib / libvirt : /bin/ false

libvirt - dnsmasq : x : 121 : 130 : Libvirt Dnsmasq ,:/ var / lib / libvirt / dnsmasq : /bin/ false

s [email protected] :~ $

B) буде створено дві групи.

- Kvm
- libvirtd

[email protected]:~ $ tail - 2 / etc / group

kvm : x : 129 :

libvirtd : x : 130 : sharad

[email protected] :~ $

Можливо, ви помітили, що так званий «шарад» є членом групи «libvirtd». Це означає, що користувач може використовувати KVM.

3. Перевірте встановлення KVM

Це досить просто перевірити інсталяцію KVM. Запустіть команду

virsh - c qemu : ///system list

Вперше він покаже помилку.

error : failed to connect to the hypervisor

error : Failed to connect socket to '/var/run/libvirt/libvirt-sock': Permission denied

[email protected] :~ $

Щоб вирішити цю проблему, ви повинні вийти та увійти в систему на своєму робочому столі. Вказує, що поточний користувач має повторно увійти до системи.

Після входу в систему знову запустіть команду. На цей раз ви повинні отримати результат, як зазначено нижче. Він порожній, бо не створюється віртуальної машини.

[email protected]:~ $ virsh - з qemu : ///system list

Id Name State

—————————————————-

[email protected] :~ $

4. Встановіть Диспетчер віртуальних машин

Тут ми використовуємо Virtual Machine Manager, який є настільною програмою для управління віртуальними машинами KVM через libvirt.

Запустіть цю команду, щоб встановити Диспетчер віртуальних машин.

sudo apt install virt - manager

Ви можете відкрити Диспетчер віртуальних машин, ввівши його в Dash Home.Клацніть значок, він відкриє програму.

Щоб відкрити диспетчер віртуальних машин через командний рядок, введіть —

virt - manager

Раніше, коли ми встановили KVM в Ubuntu 14.04 LTS Desktop, ми зіштовхнулися із проблемою при створенні першої віртуальної машини, але ми її дуже легко вирішили. У Ubuntu 16.04 LTS Desktop ми не знайшли такої проблеми.

Якщо у Вас є питання на тему «Установка KVM Ubuntu 17.04» - пишіть їх нам у формі для коментарів. Ми допоможемо вам розібратися у вашому питанні набагато швидше.

Якщо ви знайшли помилку, будь ласка, виділіть фрагмент тексту та натисніть Ctrl+Enter.

У житті сисадміна одного разу настає момент, коли доводиться з нуля розгортати інфраструктуру підприємства або переробляти вже наявну, що перейшла у спадок. У цій статті я розповім про те, як правильно розгорнути гіпервізор на основі Linux KVM та libvirt c підтримкою LVM (логічних груп).

Ми пройдемося по всіх тонкощах управління гіпервізором, включаючи консольні та GUI-утиліти, розширення ресурсів та міграцію віртуальних машин на інший гіпервізор.

Спочатку розберемося з тим, що таке віртуалізація. Офіційне визначення звучить так: «Віртуалізація - це надання набору обчислювальних ресурсів або їхнього логічного об'єднання, абстраговане від апаратної реалізації і забезпечує при цьому логічну ізоляцію один від одного обчислювальних процесів, що виконуються на одному фізичному ресурсі». Тобто, якщо виражатися людською мовою, маючи один потужний сервер, ми можемо перетворити його на кілька середніх серверів, і кожен із них виконуватиме своє завдання, відведене йому в інфраструктурі, не заважаючи при цьому іншим.

Системні адміністратори, що працюють впритул з віртуалізацією на підприємстві, майстри та віртуози своєї справи, поділилися на два табори. Одні - прихильники високотехнологічної, але дуже дорогий VMware для Windows. Інші - любителі open source та безкоштовних рішень на основі Linux VM. Можна довго перераховувати переваги VMware, але ми зупинимося на віртуалізації, заснованої на Linux VM.

Технології віртуалізації та вимоги до заліза

Зараз є дві популярні технології віртуалізації: Intel VT та AMD-V. Intel VT (від Intel Virtualization Technology) реалізована віртуалізація режиму реальної адресації; відповідна апаратна віртуалізація введення-виводу називається VT-d. Часто ця технологія позначається абревіатурою VMX (Virtual Machine eXtension). AMD створили свої розширення віртуалізації і спочатку називали їх AMD Secure Virtual Machine (SVM). Коли технологія дісталася ринку, вона стала називатися AMD Virtualization (скорочено AMD-V).

Перед тим, як вводити апаратне забезпечення в експлуатацію, переконайся, що обладнання підтримує одну з цих двох технологій (подивитися можна в характеристиках на сайті виробника). Якщо підтримка віртуалізації є, її необхідно включити до BIOS перед розгортанням гіпервізора.

Серед інших вимог гіпервізорів - підтримка апаратного RAID (1, 5, 10), яка підвищує стійкість до відмови гіпервізора при виході жорстких дисків з ладу. Якщо підтримки апаратного RAID немає, можна використовувати програмний крайній випадок. Але RAID – це мастхев!

Рішення, описане в цій статті, несе на собі три віртуальні машини та успішно працює на мінімальних вимогах: Core 2 Quad Q6600/8 Гбайт DDR2 PC6400/2×250 Гбайт HDD SATA (хардверний RAID 1).

Встановлення та налаштування гіпервізора

Я покажу, як настроювати гіпервізор, на прикладі Debian Linux 9.6.0 – Х64-86. Ти можеш використовувати будь-який дистрибутив Linux, який тобі до вподоби.

Коли ти визначишся з вибором заліза і його привезуть, настане час ставити гіпервізор. При установці ОС все робимо, як завжди, крім розмітки дисків. Недосвідчені адміністратори часто вибирають опцію "Автоматично розбити весь дисковий простір без використання LVM". Тоді всі дані будуть записані на тому, що недобре з кількох причин. По-перше, якщо жорсткий диск вийде з ладу, ти втратиш усі дані. По-друге, зміна файлової системи завдасть маси клопоту.

Загалом, щоб уникнути зайвих рухів тіла і втрати часу, рекомендую використовувати розмітку диска з LVM.

Logical Volume Manager

Менеджер логічних томів (LVM) - це підсистема, доступна в Linux та OS/2, побудована поверх Device Mapper. Її завдання - представлення різних областей з одного жорсткого диска або з кількох жорстких дисків як одного логічного тома. LVM створює з фізичних томів (PV – Phisical Volumes) логічну групу томів (VG – Volumes Group). Вона, своєю чергою, складається з логічних томів (LV – Logical Volume).

Зараз у всіх дистрибутивах Linux із ядром 2.6 і вище є підтримка LVM2. Для використання LVM2 на ОС із ядром 2.4 треба встановлювати патч.

Після того, як система виявила жорсткі накопичувачі, запуститься менеджер розбивки жорстких дисків. Вибираємо пункт Guided – use entire disk and set up LVM.


Тепер вибираємо диск, на який буде встановлена ​​наша група томів.



Система запропонує варіанти розмітки носія. Вибираємо "Записати всі файли на один розділ" і йдемо далі.




Після збереження змін ми отримаємо одну логічну групу та два томи у ній. Перший – це кореневий розділ, а другий – це файл підкачування. Тут багато хто поставить питання: а чому не вибрати розмітку вручну і не створити LVM самому?

Я відповім просто: під час створення логічної групи VG завантажувальний розділ boot не пишеться у VG, а створюється окремим розділом із файловою системою ext2. Якщо цього не врахувати, то завантажувальний том опиниться у логічній групі. Це прирече тебе на муки та страждання при відновленні завантажувального тома. Саме тому завантажувальний розділ відправляється без LVM.



Переходимо до конфігурації логічної групи для гіпервізора. Вибираємо пункт "Конфігурація менеджера логічних томів".



Система сповістить, що всі зміни будуть записані на диск. Погоджуємося.



Створимо нову групу – наприклад, назвемо її vg_sata.



INFO

На серверах використовуються носії SATA, SSD, SAS, SCSI, NVMe. Хорошим тоном під час створення логічної групи вказуватиме не ім'я хоста, а тип носіїв, які у групі. Раджу логічну групу назвати так: vg_sata, vg_ssd, vg_nvme і так далі. Це допоможе зрозуміти, з яких носіїв побудовано логічну групу.




Створюємо наш перший логічний том. Це буде те для кореневого розділу операційної системи. Вибираємо пункт "Створити логічний том".



Вибираємо групу для нового логічного тому. У нас вона лише одна.



Привласнюємо ім'я логічному тому. Правильніше за призначення імені буде використовувати префікс у вигляді назви логічної групи - наприклад, vg_sata_root , vg_ssd_root і так далі.



Вказуємо обсяг нового логічного тому. Раджу виділити під корінь 10 Гбайт, але можна і менше, благо логічний том завжди можна розширити.



За аналогією з прикладом вище створюємо такі логічні томи:

  • vg_sata_home – 20 Гбайт під каталоги користувачів;
  • vg_sata_opt - 10 Гбайт для встановлення прикладного ПЗ;
  • vg_sata_var - 10 Гбайт для часто мінливих даних, наприклад логів системи та інших програм;
  • vg_sata_tmp – 5 Гбайт для тимчасових даних, якщо обсяг тимчасових даних великий, можна зробити і більше. У нашому прикладі цей розділ не створювався через непотрібність;
  • vg_sata_swap – дорівнює обсягу оперативної пам'яті. Це розділ для свопу, і ми створюємо його для підстраховки - на випадок, якщо закінчиться оперативна пам'ять на гіпервізорі.

Після створення всіх томів завершуємо роботу менеджера.



Наразі маємо кілька томів для створення розділів операційної системи. Неважко здогадатися, що для кожного розділу є свій логічний том.



Створюємо однойменний розділ під кожен логічний том.



Зберігаємо та записуємо виконані зміни.



Після збереження змін розмітки диска почнуть встановлюватися базові компоненти системи, а потім буде запропоновано вибрати та встановити додаткові компоненти системи. З усіх компонентів нам знадобиться ssh-server та стандартні системні утиліти.



Після встановлення буде сформовано та записано на диск завантажувач GRUB. Встановлюємо його на той фізичний диск, де збережено розділ завантаження, тобто /dev/sda .




Тепер чекаємо, поки закінчиться запис завантажувача на диск і після оповіщення перезавантажуємо гіпервізор.





Після перезавантаження системи заходимо на гіпервізор з SSH. Насамперед під рутом встановлюємо потрібні для роботи утиліти.

$ sudo apt-get install -y sudo htop screen net-tools dnsutils bind9utils sysstat telnet traceroute tcpdump wget curl gcc rsync

Налаштовуємо SSH до смаку. Раджу одразу зробити авторизацію за ключами. Перезапускаємо та перевіряємо працездатність служби.

$ sudo nano /etc/ssh/sshd_config $ sudo systemctl restart sshd; sudo systemctl status sshd

Перед встановленням софту для віртуалізації необхідно перевірити фізичні томи та стан логічної групи.

$ sudo pvscan $ sudo lvs

Встановлюємо компоненти віртуалізації та утиліти для створення мережевого мосту на інтерфейсі гіпервізора.

$ sudo apt-get update; apt-get upgrade -y $ sudo apt install qemu-kvm libvirt-bin libvirt-dev libvirt-daemon-system libvirt-clients virtinst bridge-utils

Після установки настроюємо мережевий міст на гіпервізорі. Коментуємо налаштування мережного інтерфейсу та задаємо нові:

$ sudo nano /etc/network/interfaces

Вміст буде приблизно таким:

Auto br0 iface br0 inet static address 192.168.1.61 netmask 255.255.255.192 gateway 192.168.1.1 broadcast 192.168.0.61 dns-nameserver 127.0.0.

Додаємо нашого користувача, під яким працюватимемо з гіпервізором, у групи libvirt та kvm (для RHEL група називається qemu).

$ sudo gpasswd -a iryzhevtsev kvm $ sudo gpasswd -a iryzhevtsev libvirt

Тепер необхідно ініціалізувати нашу логічну групу для роботи з гіпервізором, запустити її та додати автозавантаження при запуску системи.

$ sudo virsh pool-list $ sudo virsh pool-define-as vg_sata logical --target /dev/vg_sata $ sudo virsh pool-start vg_sata; sudo virsh pool-autostart vg_sata $ sudo virsh pool-list

INFO

Для нормальної роботи групи LVM із QEMU-KVM потрібно спочатку активувати логічну групу через консоль virsh .

Тепер завантажуємо дистрибутив для установки на гостьові системи та кладемо його у потрібну папку.

$ sudo wget https://mirror.yandex.ru/debian-cd/9.5.0/amd64/iso-cd/debian-9.5.0-amd64-netinst.iso $ sudo mv debian-9.5.0-amd64-netinst .iso /var/lib/libvirt/images/; ls -al /var/lib/libvirt/images/

Щоб підключатися до віртуальних машин за VNC, відредагуємо файл /etc/libvirt/libvirtd.conf:

$ sudo grep "listen_addr = " /etc/libvirt/libvirtd.conf

Розкоментуємо і змінимо рядок listen_addr = "0.0.0.0". Зберігаємо файл, перезавантажуємо гіпервізор та перевіряємо, чи всі служби запустилися та працюють.

Продовження доступне лише учасникам

Варіант 1. Приєднайтесь до спільноти «сайт», щоб читати всі матеріали на сайті

Членство у спільноті протягом зазначеного терміну відкриє тобі доступ до ВСІХ матеріалів «Хакера», збільшить особисту накопичувальну знижку та дозволить накопичувати професійний рейтинг Xakep Score!

Підготовка сервера

Перевіряємо наявність підтримки з боку процесора:

cat /proc/cpuinfo | egrep "(vmx|svm)"

Якщо команда нічого не поверне, на сервері відсутня підтримка віртуалізації або вона вимкнена у налаштуваннях БІОС. Сам KVM поставити на такий сервер можна, але при спробі ввести команду управління гіпервізором ми отримаємо помилку WARNING KVM acceleration no available, using "qemu"». У такому разі необхідно перезавантажити сервер, увійти до БІОС, знайти підтримку технології віртуалізації (Intel VT або AMD-V) та увімкнути її.

Створимо каталоги, в яких зберігатимемо все, що стосується віртуалізації (за промовчанням не зручні):

mkdir -p /kvm/(images,iso)

* каталог /kvm/imagesдля віртуальних дисків; /kvm/iso- Для ISO-образів.

Встановлення та запуск

Установка виконується з репозиторію наступною командою:

yum install qemu-kvm libvirt virt-install

* де qemu-kvm- сам гіпервізор; libvirt- бібліотека управління віртуалізацією; virt-install- Утиліта для управління віртуальними машинами.

Дозволяємо автозапуск:

systemctl enable libvirtd

Запускаємо KVM:

systemctl start libvirtd

Налаштування мережі

У цій інструкції розглянемо використання мережного моста.

Настроюючи мережевий міст через віддалене підключення, уважно перевіряйте дані, що вводяться. У разі помилки з'єднання буде перервано.

Встановлюємо пакет для роботи з bridge:

yum install bridge-utils

Дивимося список мережних інтерфейсів та їх налаштувань:

У моєму прикладі були такі дані:

1: lo: mtu 65536 qdisc noqueue state UNKNOWN qlen 1
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo

inet6::1/128 scope host
valid_lft forever preferred_lft forever
2: enp4s0f0: mtu 1500 qdisc pfifo_fast state UP qlen 1000

inet 192.168.1.24/24 brd 192.168.1.255 scope global enp4s0f0
valid_lft forever preferred_lft forever

valid_lft forever preferred_lft forever
3: enp5s5:

4: virbr0:


valid_lft forever preferred_lft forever
5: virbr0-nic:
link/ether 52:54:00:cd:86:98 brd ff:ff:ff:ff:ff:ff

* З цього для нас важливі enp4s0f0— реальний мережевий інтерфейс із налаштованою IP-адресою 192.168.1.24 , Через який йде підключення сервера до локальної мережі (з нього ми робитимемо міст); 00:16:76:04:26:c6- mac-адреса реального ethernet адаптера; virbr0- Віртуальний мережевий адаптер.

Редагуємо налаштування реального адаптера:

vi /etc/sysconfig/network-scripts/ifcfg-enp4s0f0

Наводимо його до вигляду:

ONBOOT=yes
BRIDGE=br0
TYPE=Ethernet
DEVICE=enp4s0f0
BOOTPROTO=none

Створюємо інтерфейс для мережевого мосту:

vi /etc/sysconfig/network-scripts/ifcfg-br0

DEVICE=br0
TYPE=Bridge
ONBOOT=yes
BOOTPROTO=static
IPADDR=192.168.1.24
NETMASK=255.255.255.0
GATEWAY=192.168.1.1
DNS1 = 8.8.8.8
DNS2 = 77.88.8.8

Перезапускаємо мережеву службу:

systemctl restart network

Мережеві налаштування мають змінитися — у моєму випадку:

2: enp4s0f0: mtu 1500 qdisc pfifo_fast master br0 state UP qlen 1000
link/ether 00:16:76:04:26:c6 brd ff:ff:ff:ff:ff:ff
3: enp5s5: mtu 1500 qdisc pfifo_fast state DOWN qlen 1000
link/ether 00:16:76:04:26:c7 brd ff:ff:ff:ff:ff:ff
4: virbr0: mtu 1500 qdisc noqueue state DOWN qlen 1000
link/ether 52:54:00:cd:86:98 brd ff:ff:ff:ff:ff:ff
inet 192.168.122.1/24 brd 192.168.122.255 scope global virbr0
valid_lft forever preferred_lft forever
5: virbr0-nic: mtu 1500 qdisc pfifo_fast master virbr0 state DOWN qlen 1000
link/ether 52:54:00:cd:86:98 brd ff:ff:ff:ff:ff:ff
6: br0: mtu 1500 qdisc noqueue state UP qlen 1000
link/ether 00:16:76:04:26:c6 brd ff:ff:ff:ff:ff:ff
inet 192.168.1.24/24 brd 192.168.1.255 scope global br0
valid_lft forever preferred_lft forever
inet6 fe80::216:76ff:fe04:26c6/64 scope link
valid_lft forever preferred_lft forever

Наполягаємо перенаправлення мережевого трафіку:

vi /etc/sysctl.d/99-sysctl.conf

net.ipv4.ip_forward=1

Застосовуємо налаштування:

sysctl -p /etc/sysctl.d/99-sysctl.conf

Перезапускаємо libvirtd:

systemctl restart libvirtd

Створення віртуальної машини

Дивимося доступні варіанти гостьових операційних систем:

Для створення першої віртуальної машини вводимо наступну команду:

virt-install -n FirstTest \
--noautoconsole \
--network=bridge:br0 \
--ram 1024 --arch=x86_64 \
--vcpus=1 --cpu host --check-cpu \
--disk path=/kvm/images/FirstTest-disk1.img,size=16 \
--cdrom /kvm/iso/CentOS-7-x86_64-Minimal-1611.iso \
--graphics vnc,listen=0.0.0.0,password=my_password \
--os-type linux --os-variant=rhel7 --boot cdrom,hd,menu=on

  • FirstTestім'я машини, що створюється;
  • noautoconsoleпісля створення не підключається автоматично до консолі віртуальної машини;
  • network -тип мережі (у прикладі мережевий міст);
  • ram -обсяг оперативної пам'яті, що буде виділено;
  • vcpus -кількість віртуальних процесорів;
  • disk -віртуальний диск: path - шлях до диска; size - його обсяг;
  • cdrom -віртуальний привід із образом системи;
  • graphics -параметри підключення до віртуальної машини за допомогою графічної консолі (у цьому прикладі використовуємо vnc); listen - на якій адресі приймає запити vnc (у нашому прикладі на всіх); password - пароль для підключення за допомогою vnc;
  • os-variant -гостьова операційна система (весь список ми отримували командою osinfo-query osв даному прикладі встановлюємо Reв Hat 7 / CentOS 7).

Дозволяємо автостарт для створеної ВМ:

virsh autostart FirstTest

Підключення до віртуальної машини

Для подальшої установки операційної системи завантажуємо VNC-клієнт на комп'ютер адміністратора, наприклад, TightVNC та встановлюємо його.

На сервері дивимося, на якому порту слухає VNC створеної машини:

virsh vncdisplay FirstTest

у моєму випадку було:

Це означає, що потрібно до 5900 додати 0. Якщо результат команди буде: 1 - 5900 + 1 = 5901 і таке інше.

Відкриваємо порт на брандмауері:

firewall-cmd --permanent --add-port=5900-5905/tcp

firewall-cmd --reload

* в даному прикладі додано відразу 6 tcp-портів від 5900 до 5905 .

Запускаємо встановлений TightVNC Viewer, у вікні вводимо IP-адресу сервера KVM і порт, на якому слухає наша ВМ (в даному прикладі, 5900):

Натискаємо Connect. Програма запросить пароль - вводимо той, що вказали при створенні ВМ (у цьому прикладі, my_password). Ми підключимося до віртуальної машини, ніби до неї підключений монітор або віддалена консоль KVM.

Admin та пароль, який створили при виконанні команди engine-setup. Після успішного входу можна керувати віртуальними машинами через веб-інтерфейс.

Випуск WordPress 5.3 покращує та розширює представлений у WordPress 5.0 редактор блоків новим блоком, більш інтуїтивною взаємодією та покращеною доступністю. Нові функції у редакторі […]

Після дев'яти місяців розробки доступний мультимедіа-пакет FFmpeg 4.2, що включає набір додатків та колекцію бібліотек для операцій над різними мультимедіа-форматами (запис, перетворення та […]

  • Нові функції в Linux Mint 19.2 Cinnamon

    Linux Mint 19.2 є випуском із довгостроковою підтримкою, який підтримуватиметься до 2023 року. Він постачається з оновленим програмним забезпеченням та містить доопрацювання та безліч нових […]

  • Вийшов дистрибутив Linux Mint 19.2

    Представлено реліз дистрибутива Linux Mint 19.2, другого оновлення гілки Linux Mint 19.x, що формується на пакетній базі Ubuntu 18.04 LTS та підтримується до 2023 року. Дистрибутив повністю сумісний […]

  • Доступні нові сервісні релізи BIND, які містять виправлення помилок та покращення функцій. Нові випуски можуть бути завантажені зі сторінки завантажень на сайті розробника: […]

    Exim – агент передачі повідомлень (MTA), розроблений у Кембриджському університеті для використання в системах Unix, підключених до Інтернету. Він знаходиться у вільному доступі відповідно до […]

    Після двох років розробки представлений реліз ZFS on Linux 0.8.0, реалізації файлової системи ZFS, оформленої як модуля для ядра Linux. Робота модуля перевірена з ядрами Linux з 2.6.32 […]

  • WordPress 5.1.1 усуває вразливість, що дозволяє отримати контроль над сайтом
  • Комітет IETF (Internet Engineering Task Force), що займається розвитком протоколів та архітектури інтернету, завершив формування RFC для протоколу ACME (Automatic Certificate Management Environment) […]

    Некомерційний посвідчувальний центр Let's Encrypt, контрольований спільнотою і надає сертифікати безкоштовно всім охочим, підбив підсумки минулого року і розповів про плани на 2019 рік. […]

  • Вийшла нова версія Libreoffice - Libreoffice 6.2
  • Поділитися