Internet Windows Android

Folosim KVM pentru a crea mașini virtuale pe server. RedHat trece în cele din urmă de la sistemele de virtualizare kvm Xen la KVM

Atunci când alege un tarif, o persoană alege și o metodă de virtualizare pentru server. Oferim o gamă de virtualizare la nivelul sistemului de operare OpenVZ și KVM de virtualizare hardware.

Nu este posibilă schimbarea tipului de virtualizare după lansare, deoarece serverele se află pe platforme hardware diferite. Va trebui să comandați un nou server, să transferați proiectul și să abandonați vechiul server.

Comparația tipurilor de virtualizare

Openvz KVM

Sistem de operare dintr-un număr de propuse: Debian, CentOS, Ubuntu

Linux, Windows, FreeBSD, instalând propria distribuție

Modificarea resurselor fără repornire (hard disk, memorie, procesor)

Memoria și procesorul se vor schimba după o repornire, hard diskul - numai după contactarea asistenței (la tarife gata făcute, memoria nu poate fi schimbată)

Schimbarea planului tarifar fără repornire

Schimbarea planului tarifar. Serverul va fi indisponibil timp de 1-2 ore.

Limite soft: performanța maximă a serverului poate varia în sus sau în jos

Limite dure: fiecare server primește resursele declarate

Restricții privind lansarea proiectelor cu sarcină mare. Este interzisă rularea aplicațiilor Java, a trimiterilor de corespondență în bloc și a traficului proxy. TUN / TAP este dezactivat.

Abilitatea de a lansa orice proiecte (cu excepția sistemelor de calcul distribuite)

Posibilitate. Pentru acest tip de virtualizare, o conexiune VNC la GUI nu este posibilă.

Posibilitate. Dacă serverul nu este disponibil din anumite motive prin SSH sau trebuie să vă conectați la interfața grafică, puteți accesa serverul prin VNC.

Puteți accesa panoul de control ISPmanager:

  • din contul dvs. personal: secțiunea - Produse - Servere virtuale - selectați un server, butonul „Go” în partea de sus,
  • urmând linkul din Instrucțiuni: Cont Personal - Produse - Servere Virtuale - selectați serverul, deasupra „Instrucțiuni”.

Virtualizare OpenVZ

OpenVZ este o virtualizare la nivel de sistem de operare. Tehnologia se bazează pe nucleul Linux și vă permite să creați și să rulați pe un singur server fizic copii izolate sistemul de operare selectat (Debian, CentOS, Ubuntu). Instalarea unui sistem de operare diferit nu este posibilă deoarece serverele virtuale partajează un nucleu Linux comun.

Tehnologia este diferită ușurință în gestionarea serverului: utilizatorul poate în contul personal pe cont propriu * adăugați cantitatea de resurse (memorie, procesor, hard disk) sau treceți la alt tarif cu aceeași virtualizare. Modificările sunt aplicate automat, fără a reporni serverul.

Pe servere cu virtualizare OpenVZ interzisă alerga:

  • servicii de organizare proxy a oricărui tip de trafic
  • servicii de streaming
  • servere de jocuri
  • sisteme sau elemente ale sistemelor de calcul distribuite (de exemplu, minerit de bitcoin)
  • servicii de expediere în masă a mesajelor poștale, chiar dacă acestea sunt utilizate în scopuri legale
  • aplicații Java
  • alte aplicații consumatoare de resurse

Astfel de proiecte creează încărcare neuniformă pe serverul părinte și pot interfera cu mașinile virtuale învecinate.

* - pentru versiunile anterioare de tarife (VDS-2015, VDS-Summer, VDS-2016), modificarea tarifului în contul personal nu mai este disponibilă. O modificare independentă a planului tarifar este posibilă doar la tarifele actuale de virtualizare OVZ. Dacă este important pentru dvs. să aveți acces la gestionarea rapidă a resurselor serverului - să treceți la un plan tarifar actualizat. Dacă costul noului tarif este mai mare decât costul celui actual, modificarea tarifului este gratuită, în alte cazuri - în cadru. Tariful este modificat fără a reporni serverul.

Virtualizare KVM

KVM (Mașină virtuală bazată pe kernel) este o tehnologie de virtualizare hardware care vă permite să creați pe o mașină gazdă analog virtual complet al unui server fizic... KVM vă permite să creați un server virtual complet izolat de „vecinii” săi, cu propriul nucleu OS, pe care utilizatorul îl poate configura și modifica pentru a se potrivi propriilor nevoi fără restricții. Fiecărui astfel de server îi este alocată propria zonă în RAM și spațiu pe hard disk, ceea ce crește fiabilitatea generală a serverului.

Instalarea este posibilă orice sistem de operare din care să alegeți (Debian, CentOS, Ubuntu, FreeBSD, Windows Server) sau să instalați propria distribuție (în panoul VMmanager, în secțiunea imagini ISO, faceți clic pe butonul Creare și adăugați imaginea ISO a sistemului).

Schimbarea tarifului planul este posibil doar ascendent și numai în cadrul liniei de bază de tarife (Start, Acceleration, Takeoff, Flyoff). Dacă proiectul tău „crește” din tarif, scrie o cerere de suport din Contul tău Personal – administratorii vor schimba gratuit tariful în cel necesar. Schimbați tariful în jos poate fi transferat doar pe un nou server. Comandați un nou server și transferați datele dvs. sau specialiștii de asistență tehnică vă vor ajuta cu transferul pentru 1 apel pentru pachetul de administrare sau 250 de ruble.

Amintiți-vă că la tarifele VDS-Fast and Furious și VDS-Atlant, puteți schimba resursele in loc sa schimbi tariful: numărul de nuclee de procesor disponibile și RAM independent în panoul de control și dimensiunea hard disk-ului după contactarea asistenței (în cadrul administrării sau pentru 250 de ruble).

Având în vedere caracteristicile și beneficiile pe care le oferă virtualizarea KVM, este tarifele sunt mai scumpe tarife similare cu virtualizarea OpenVZ.

Pe serverele cu virtualizare KVM, Abonatului îi este interzis să plaseze sisteme sau elemente ale sistemelor de calcul distribuite (de exemplu, mineritul bitcoin).

Schimbarea virtualizării pe server

Este imposibil să schimbați virtualizarea de la OpenVZ la KVM și invers pe un singur server.

1. Comandați un al doilea server cu virtualizarea necesară în panoul BILLmanager, secțiunea Servere virtuale → Comandă

2. Transferați date la acesta.

3. După migrare și verificare, puteți șterge vechiul server (Servere virtuale → Ștergere).


Verificarea suportului pentru hypervisor

Verificăm dacă serverul acceptă tehnologii de virtualizare:

cat / proc / cpuinfo | egrep „(vmx | svm)”

Ca răspuns, ar trebui să primiți ceva de genul:

steaguri: fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall nx pdpe1gb rdtscp lm constant_tsc dfmd_tscb constant_tsc dfmd_tsbsc non-peptch_ntscb constante ar-peptch_nfspnsc bopts smx est tm2 ssse3 cx16 xtpr pdcm pcid dca sse4_1 sse4_2 popcnt aes lahf_lm epb tpr_shadow vnmi flexpriority ept vpid dtherm ida arat

În caz contrar, accesați BIOS, găsiți opțiunea de a activa tehnologia de virtualizare (are nume diferite, de exemplu, Intel Virtualization Technology sau Virtualization) și activați-o - setați valoarea Permite.

De asemenea, puteți verifica compatibilitatea cu comanda:

* dacă comanda returnează o eroare „Comanda Kvm-ok nu a fost găsită”, instalați pachetul corespunzător: apt-get install cpu-checker.

Daca vedem:

INFO: / dev / kvm există
Se poate folosi accelerația KVM

apoi există suport din partea hardware.

Pregătirea serverului

Pentru confortul nostru, să creăm un director în care vom stoca date pentru KVM:

mkdir -p / kvm / (vhdd, iso)

* vor fi create două directoare: / kvm / vhdd(pentru hard disk-uri virtuale) și / kvm / iso(pentru imagini iso).

Să setăm ora:

\ cp / usr / share / zoneinfo / Europa / Moscova / etc / ora locală

* această comandă setează zona în conformitate cu ora Moscovei.

ntpdate ru.pool.ntp.org

* efectuam sincronizarea cu serverul de timp.

Instalare și lansare

Instalați KVM și utilitarele de management necesare.

a) Ubuntu până la versiunea 18.10

apt-get install qemu-kvm libvirt-bin virtinst libosinfo-bin

b) Ubuntu după 18.10:

apt-get install qemu-kvm libvirt-daemon-system libvirt-bin virtinst libosinfo-bin

* Unde qemu-kvm- hipervizor; libvirt-bin- biblioteca de gestionare a hipervizoarelor; virtinst- utilitate pentru administrarea mașinilor virtuale; libosinfo-bin- un utilitar pentru vizualizarea unei liste de sisteme de operare care pot fi folosite ca invitați.

Să configuram pornirea automată a serviciului:

systemctl activa libvirtd

Să începem libvirtd:

systemctl porniți libvirtd

Configurarea Rețelei

Mașinile virtuale pot funcționa în spatele NAT (care este serverul KVM) sau pot primi adrese IP din rețeaua locală - pentru aceasta, trebuie să configurați o punte de rețea. Pe acesta din urmă îl vom configura.

Când utilizați o conexiune la distanță, verificați cu atenție setările. În cazul unei erori, conexiunea va fi întreruptă.

Instalați bridge-utils:

apt-get install bridge-utils

a) configurarea rețelei în versiuni mai vechi de Ubuntu (/ etc / network / interfețe).

Deschideți fișierul de configurare pentru configurarea interfețelor de rețea:

vi / etc / rețea / interfețe

Și să o aducem la forma:

#iface eth0 inet static
# adresa 192.168.1.24
# mască de rețea 255.255.255.0
# gateway 192.168.1.1
# dns-nameserver 192.168.1.1 192.168.1.2

Auto br0
iface br0 inet static
adresa 192.168.1.24
mască de rețea 255.255.255.0
gateway 192.168.1.1
servere de nume dns 192.168.1.1 192.168.1.2
bridge_ports eth0
bridge_fd 9
bridge_hello 2
bridge_maxage 12
bridge_stp off

* unde tot ceea ce este comentat este setările vechi ale rețelei mele; br0- numele interfeței podului care se creează; eth0- interfața de rețea existentă prin care va funcționa puntea.

Reporniți serviciul de rețea:

systemctl reporniți rețeaua

b) configurarea rețelei în versiunile mai noi de Ubuntu (netplan).

vi /etc/netplan/01-netcfg.yaml

* în funcție de versiunea sistemului, fișier de configurare yaml poate avea un alt nume.

O aducem la forma:

reţea:
versiunea: 2
redator: în rețea
ethernet:
eth0:
dhcp4: fals
dhcp6: fals
wakeonlan: adevărat

Poduri:
br0:
macadress: 2c: 6d: 45: c3: 55: a7
interfete:
- eth0
adrese:
- 192.168.1.24/24
gateway4: 192.168.1.1
mtu: 1500
servere de nume:
adrese:
- 192.168.1.1
- 192.168.1.2
parametri:
stp: adevărat
întârziere înainte: 4
dhcp4: fals
dhcp6: fals

* în acest exemplu creăm o interfață bridge virtuală br0; ca interfață fizică pe care o folosim eth0.

Aplicați setările de rețea:

Am configurat redirecționarea traficului de rețea (astfel încât mașinile virtuale cu o interfață de rețea NAT să poată accesa Internetul):

vi /etc/sysctl.d/99-sysctl.conf

Adăugați linia:

net.ipv4.ip_forward = 1

Aplicați setările:

sysctl -p /etc/sysctl.d/99-sysctl.conf

Crearea unei mașini virtuale

Pentru a crea prima mașină virtuală, introduceți următoarea comandă:

virt-install -n VM1 \
--pornire automată \
--noautoconsole \
--network = bridge: br0 \
--ram 2048 --arch = x86_64 \
--vcpus = 2 --cpu host --check-cpu \
--calea disc = / kvm / vhdd / VM1-disk1.img, dimensiune = 16 \
--cdrom /kvm/iso/ubuntu-18.04.3-server-amd64.iso \
--graphics vnc, listen = 0.0.0.0, parola = vnc_password \
--os-type linux --os-variant = ubuntu18.04 --boot cdrom, hd, menu = on

  • VM1 - numele mașinii care urmează să fie creată;
  • pornire automată - permiteți mașinii virtuale să pornească automat împreună cu serverul KVM;
  • noautoconsole - nu se conectează la consola mașinii virtuale;
  • retea - tip de rețea. În acest exemplu, creăm o mașină virtuală cu o interfață de punte de rețea. Pentru a crea o interfață internă cu un tip NAT, introduceți --network = implicit, model = virtio;
  • RAM - cantitatea de memorie RAM;
  • vcpus - numărul de procesoare virtuale;
  • disc - disc virtual: cale - calea către disc; mărimea - volumul acestuia;
  • CD ROM - unitate virtuală cu imagine de sistem;
  • grafica - parametrii pentru conectarea la mașina virtuală folosind consola grafică (în acest exemplu, folosim vnc); asculta - pe ce adresă vnc acceptă cereri (în exemplul nostru, deloc); parola - parola pentru conectare folosind vnc;
  • varianta os - sistem de operare invitat (am primit întreaga listă cu comanda osinfo-query os, în acest exemplu instalăm Ubuntu 18.04).

Conectarea la o mașină virtuală

Pe computerul de pe care intenționăm să lucrăm cu mașini virtuale, descărcați un client VNC, de exemplu, TightVNC și instalați-l.

Pe server, introduceți:

virsh vncdisplay VM1

comanda va arăta pe ce port rulează VNC pentru mașina VM1. Am avut:

*: 1 înseamnă că trebuie să adăugați 1 la 5900 - 5900 + 1 = 5901.

Lansăm TightVNC Viewer, pe care l-am instalat și introducem datele de conectare:

Click pe Conectați... La solicitarea unei parole, introduceți cea care a fost indicată la crearea VM-ului, ( vnc_parola). Ne vom conecta la mașina virtuală cu o consolă la distanță.

Dacă nu ne amintim parola, deschideți configurația mașinii virtuale cu comanda:

Și găsim linia:



* în acest exemplu, o parolă este folosită pentru a accesa mașina virtuală 12345678 .

Gestionarea unei mașini virtuale din linia de comandă

Exemple de comenzi care pot fi utile atunci când lucrați cu mașini virtuale.

1. Obțineți o listă de mașini create:

lista virsh --toate

2. Porniți mașina virtuală:

virsh start VMname

* Unde VMname Este numele mașinii create.

3. Opriți mașina virtuală:

ubuntu-vm-builder este un pachet dezvoltat de Canonical pentru a simplifica crearea de noi mașini virtuale.

Pentru a-l instala, introduceți:

apt-get install ubuntu-vm-builder


Recent, un raport interesant a fost lansat de Principled Technologies, care este specializată, printre altele, în tot felul de testare a mediilor hardware și software. Documentul „” explică faptul că hypervisorul ESXi poate rula mai multe mașini virtuale pe același hardware decât hipervizorul RHEV KVM.

Este clar că studiul este părtinitor (cel puțin dacă te uiți la titlu), dar întrucât nu există atât de multe astfel de documente, am decis să-i acordăm atenție.

Pentru testare, am folosit un server rack Lenovo x3650 M5, pe care rula Microsoft SQL Server 2016 în mașini virtuale cu încărcare OLTP. OPM (comenzi pe minut) a fost folosit ca principal indicator de performanță, care afișează o evaluare cantitativă a tranzacțiilor executate.

Dacă nu utilizați tehnicile Memory Overcommit, atunci rezultatul executării unei gazde în număr de OPM-uri pe 15 mașini virtuale este aproximativ același pe ambele hipervizoare:

Dar când numărul de mașini virtuale crește, vSphere funcționează mult mai bine:

Crucile marchează mașinile care pur și simplu nu au pornit pe RHV, consola produsului a dat următoarea eroare:

În ciuda includerii tehnicilor de optimizare a memoriei în Red Hat Virtualization Manager (RHV-M), cum ar fi balonarea memoriei și memoria partajată a nucleului, a șaisprezecea mașină virtuală a refuzat totuși să pornească pe KVM:

Ei bine, pe vSphere, au continuat să crească numărul de VM până când s-au confruntat cu o lipsă de resurse:

S-a dovedit că, cu tehnicieni de overcommit pe vSphere, sa dovedit că rulează 24 de mașini virtuale, iar pe RHV - doar 15 bucăți. Ca rezultat, am ajuns la concluzia că pe VMware vSphere pot fi rulate de 1,6 ori mai multe mașini virtuale:

Ca să nu spun că acesta este un test obiectiv, dar este evident că ESXi în acest caz funcționează mai bine decât KVM în ceea ce privește orice optimizare a memoriei și a altor resurse VM.


Etichete: VMware, Red Hat, Performanță, RHV, vSphere, ESXi, KVM
Etichete: KVM, oVirt, Open Source, Update

Amintiți-vă că RHEV se bazează pe hypervisorul KVM (kernel-based Virtual Machine) și acceptă arhitectura OpenStack open cloud. Să vedem ce este nou în versiunea actualizată RHEV 3.4.

Infrastructură

  • Serviciu de configurare SNMP pentru a susține sisteme de monitorizare terțe.
  • Salvarea setărilor de instalare în cloud RHEV pentru posibilitatea recuperării acestuia în caz de defecțiune sau pentru replicare în alte cloud.
  • Serviciile de autentificare RHEV au fost rescrise și îmbunătățite.
  • Capacitatea de a adăuga la cald un procesor la VM (Hot Plug CPU). Acest lucru necesită suport din partea sistemului de operare.
  • Utilizatorii non-root au acum acces la jurnalele.
  • Instalator nou bazat pe TUI (interfață de utilizator textuală).
  • Suport IPv6.
  • Posibilitatea de a alege o conexiune la consola VM în modul Native Client sau noVNC.
  • Posibilitatea de a modifica unele setări ale mașinii virtuale care rulează.
  • Suport complet pentru RHEL 7 ca sistem de operare invitat.
  • Posibilitatea de a activa/dezactiva KSM (Kernel Samepage Merging) la nivel de cluster.
  • Posibilitatea de a reporni VM de la RHEVM sau cu o comandă de consolă.

Rețele

  • Integrare mai strânsă cu infrastructura OpenStack:
    • Îmbunătățiri de securitate și scalabilitate pentru rețelele implementate cu Neutron.
    • Acceptă tehnologia Open vSwitch (comutator virtual scalabil) și capabilități SDN.
  • Etichete de rețea - etichete care pot fi folosite atunci când se face referire la dispozitive.
  • Ordinea corectă de numerotare a adaptorului de rețea virtuală (vNIC).
  • Suport pentru iproute2.
  • Un singur punct pentru a configura setările de rețea pentru mai multe gazde dintr-o rețea specificată.

Capabilitati de stocare

  • Domenii de stocare mixte - capacitatea de a utiliza simultan dispozitive de disc din stocarea iSCSI, FCP, NFS, Posix și Gluster pentru a organiza stocarea mașinilor virtuale.
  • Domenii de stocare multiple - capacitatea de a distribui discuri ale unei mașini virtuale în mai multe stocări din centrul de date.
  • Abilitatea de a specifica discuri care vor participa la crearea instantaneelor, precum și cele care nu vor participa.
  • Mecanismul de restaurare a unei VM dintr-o copie de rezervă a fost îmbunătățit - acum este posibil să specificați un instantaneu al stării la care doriți să reveniți.
  • Gestionarea asincronă a sarcinilor de stocare Gluster.
  • Disc Read-Only for Engine - Această caracteristică permite instrumentului de gestionare Red Hat Enterprise Virtualization Manager să utilizeze discuri doar pentru citire.
  • Acces multipathing pentru stocarea iSCSI.

Instrumente de virtualizare

  • Agenți OS invitați (ovirt-guest-agent) pentru OpenSUSE și Ubuntu.
  • SPICE Proxy - capacitatea de a utiliza servere proxy pentru a accesa utilizatorii la VM-urile lor (dacă, de exemplu, se află în afara rețelei de infrastructură).
  • Controlul metodei SSO (Single Sign-On) - capacitatea de a comuta între diferite mecanisme de autentificare pass-through. Până acum, există doar două opțiuni: SSO agent invitat și fără SSO.
  • Suport pentru mai multe versiuni ale aceluiași șablon de mașină virtuală.

Îmbunătățiri ale programatorului și ale nivelului de servicii

  • Îmbunătățiri ale programatorului de mașini virtuale.
  • Grupuri de afinitate / Anti-Affinity (reguli pentru existența mașinilor virtuale pe gazde - plasați mașinile împreună sau separat).
  • Power-Off Capacity este o politică de alimentare care vă permite să închideți o gazdă și să pregătiți mașinile virtuale ale acesteia pentru migrare în altă locație.
  • Chiar și distribuția mașinilor virtuale - capacitatea de a distribui mașini virtuale către gazde în funcție de numărul de VM.
  • Rezervare mașină virtuală de înaltă disponibilitate - mecanismul vă permite să garantați recuperarea mașinilor virtuale în cazul unei defecțiuni a unuia sau mai multor servere gazdă. Funcționează pe baza calculării capacității disponibile a resurselor de calcul ale gazdelor cluster.

Îmbunătățiri ale interfeței

  • Remedieri de erori legate de faptul că interfața nu a reacționat întotdeauna la evenimentele care au avut loc în infrastructură.
  • Suport pentru rezoluții scăzute ale ecranului (când unele elemente ale consolei de control nu erau vizibile la rezoluții scăzute).

Puteți descărca Red Hat Enterprise Virtualization 3.4 de la acest link. Documentația este disponibilă.


Etichete: Red Hat, RHEV, Actualizare, Linux, KVM

Noua versiune a sistemului de operare RHEL are multe caracteristici noi interesante, printre care multe se referă la tehnologiile de virtualizare. Unele dintre noile funcții majore din RHEL 7:

  • Suport încorporat pentru aplicațiile Docker împachetate.
  • Utilitar de corecție a kernelului Technology Preview - corecție a nucleului fără a reporni sistemul de operare.
  • Integrare directă și indirectă cu Microsoft Active Directory, descrisă mai detaliat.
  • XFS este acum sistemul de fișiere implicit pentru partițiile de boot, root și utilizator.
    • Pentru XFS, dimensiunea maximă a sistemului de fișiere a fost mărită de la 100 TB la 500 TB.
    • Pentru ext4, această dimensiune a fost mărită de la 16 TB la 50 TB.
  • Proces de instalare a sistemului de operare îmbunătățit (vrăjitor nou).
  • Abilitatea de a gestiona servere Linux folosind Open Linux Management Infrastructure (OpenLMI).
  • Îmbunătățiri ale sistemului de fișiere NFS și GFS2.
  • Noi capabilități ale tehnologiei de virtualizare KVM.
  • Posibilitatea de a rula RHEL 7 ca sistem de operare invitat.
  • Îmbunătățiri la NetworkManager și un nou utilitar de linie de comandă pentru efectuarea sarcinilor de rețea NM-CLI.
  • Suportă conexiuni de rețea Ethernet la viteze de până la 40 Gbps.
  • Suporta tehnologia wireless WiGig (IEEE 802.11ad) (la viteze de pana la 7 Gbps).
  • Noul mecanism Team Driver care combină virtual dispozitivele și porturile de rețea într-o singură interfață la nivelul L2.
  • Noul serviciu dinamic FirewallD, care este un firewall flexibil care are prioritate față de iptables și acceptă mai multe zone de încredere în rețea.
  • GNOME 3 în modul desktop clasic.

Pentru mai multe informații despre noile caracteristici din RHEL 7, consultați Red Hat.

În ceea ce privește virtualizarea, Red Hat Enterprise Linux 7 introduce următoarele inovații majore:

  • Previzualizare tehnologică a caracteristicii virtio-blk-data-plane, care permite executarea comenzilor QEMU I/O într-un fir optimizat separat.
  • Există o previzualizare tehnologică a tehnologiei PCI Bridge, care permite ca mai mult de 32 de dispozitive PCI să fie suportate în QEMU.
  • QEMU Sandboxing - izolarea îmbunătățită între sistemele de operare invitate gazdă RHEL 7.
  • Suport pentru adăugarea „la cald” de procesoare virtuale la mașini (vCPU Hot Add).
  • NIC-uri cu cozi multiple - fiecare vCPU are propriile cozi de transmisie și recepție, ceea ce elimină necesitatea altor vCPU (numai pentru sistemele de operare invitate Linux).
  • Tehnologia Hot Migration Page Delta Compression permite hipervizorului KVM să migreze mai rapid.
  • KVM introduce funcții de suport pentru funcțiile paravirtualizate ale sistemului de operare Microsoft, de exemplu, Memory Management Unit (MMU) și Virtual Interrupt Controller. Acest lucru permite oaspeților Windows să ruleze mai repede (aceste caracteristici sunt dezactivate în mod implicit).
  • Suportă tehnologia EOI Acceleration bazată pe interfața Intel și AMD Advanced Programmable Interrupt Controller (APIC).
  • Previzualizare tehnologică a suportului USB 3.0 în sistemele de operare invitate KVM.
  • Suportă Windows 8, Windows 8.1, Windows Server 2012 și Windows Server 2012 R2 pentru sisteme de operare invitați pe hypervisor KVM.
  • Funcții de limitare a I/O pentru sistemele de operare invitate pe QEMU.
  • Suport pentru tehnologiile de balonare și pagini uriașe transparente.
  • Noul dispozitiv virtio-rng este disponibil ca generator de numere aleatorii pentru sistemele de operare invitate.
  • Suport pentru migrarea la cald a sistemelor de operare invitate de la o gazdă Red Hat Enterprise Linux 6.5 la o gazdă Red Hat Enterprise Linux 7.
  • Acceptă maparea dispozitivelor NVIDIA GRID și Quadro ca un al doilea dispozitiv pe lângă VGA emulat.
  • Tehnologie Para-Virtualized Ticketlocks care îmbunătățește performanța atunci când există mai multe vCPU virtuale decât cele fizice pe gazdă.
  • Gestionarea erorilor îmbunătățită pentru dispozitivele PCIe.
  • Noul driver Virtual Function I/O (VFIO) îmbunătățește securitatea.
  • Acceptă tehnologia Intel VT-d Large Pages atunci când utilizați driverul VFIO.
  • Îmbunătățiri în acordarea timpului precis mașinilor virtuale pe KVM.
  • Suport pentru imagini din formatul QCOW2 versiunea 3.
  • Statistici îmbunătățite de migrare live - timpul total, timpul de nefuncționare estimat și lățimea de bandă.
  • Flux dedicat pentru Live Migration, care permite migrațiilor la cald să nu afecteze performanța sistemului de operare invitat.
  • Emularea procesoarelor AMD Opteron G5.
  • Suport pentru noile instrucțiuni ale procesorului Intel pentru sistemele de operare invitate KVM.
  • Acceptă formatele de disc virtual VPC și VHDX numai pentru citire.
  • Caracteristici noi ale utilitarului libguestfs pentru lucrul cu discuri virtuale ale mașinilor.
  • Noi drivere Windows Hardware Quality Labs (WHQL) pentru sistemele de operare Windows invitate.
  • Integrare cu VMware vSphere: Open VM Tools, drivere de grafică 3D pentru OpenGL și X11 și mecanism de comunicare îmbunătățit între sistemul de operare invitat și hypervisorul ESXi.

Notele de lansare ale noii versiuni ale sistemului de operare sunt disponibile la acest link. Puteți citi despre funcțiile de virtualizare în noua versiune RHEL 7 (și - în rusă). Sursele pentru pachetele Red Hat Enterprise Linux 7 rpm sunt acum disponibile numai prin depozitul Git.


Etichete: Linux, QEMU, KVM, Actualizare, RHEL, Red Hat

Ravello a găsit o modalitate interesantă de a valorifica virtualizarea imbricată în produsul său Cloud Application Hypervisor, care îi permite să implementeze universal VM-uri pe diferite platforme de virtualizare în cloud-urile publice ale diferiților furnizori de servicii.

Componenta principală a acestui sistem este tehnologia HVX - propriul său hypervisor (bazat pe Xen), care face parte din sistemul de operare Linux și rulează mașini virtuale imbricate fără a le modifica folosind tehnici de traducere binară. În plus, aceste mașini pot fi găzduite în Amazon EC2, HP Cloud, Rackspace și chiar în cloud-uri private gestionate de VMware vCloud Director (suportul pentru acesta din urmă este așteptat în curând).

Produsul Ravello este un serviciu SaaS, iar astfel de păpuși nesting pot fi pur și simplu încărcate pe oricare dintre site-urile de găzduire acceptate, indiferent de hypervisorul pe care îl folosește. O rețea virtuală între mașini este creată printr-o suprapunere L2 peste infrastructura L3 existentă a hosterului folosind un protocol asemănător GRE (doar bazat pe UDP):

Însăși mecanica serviciului Hypervisor de aplicații cloud propus este după cum urmează:

  • Utilizatorul încarcă mașini virtuale în cloud (sunt acceptate mașinile create pe platformele ESXi / KVM / Xen).
  • Descrie aplicații multi-mașină folosind o GUI sau API specială.
  • Își publică VM-urile pe unul sau mai multe cloud-uri acceptate.
  • Configurația rezultată este salvată ca instantaneu în cloud Ravello (apoi caz în care poate fi restaurată sau descărcată) - această stocare poate fi creată atât pe baza stocării cloud Amazon S3, CloudFiles, cât și pe baza propriului bloc stocări sau volume NFS.
  • După aceea, fiecare utilizator poate obține o configurație multi-mașină a aplicației sale la cerere.

Întrebarea evidentă care apare prima este ce se întâmplă cu performanța? Ei bine, în primul rând, Cloud Application Hypervisor se adresează echipelor de dezvoltare și testare pentru care performanța nu este un factor critic.

Și în al doilea rând, rezultatele testelor de performanță ale unor astfel de păpuși cuibărite arată rezultate nu atât de proaste:

Pentru cei interesați de tehnologia HVX, există un videoclip bun de prezentare generală în rusă:


Etichete: Rovello, Virtualizare imbricată, Cloud, HVX, VMware, ESXi, KVM, Xen, VMachines, Amazon, Rackspace

Noua versiune a platformei de virtualizare deschisă RHEV 3.0 se bazează pe distribuția Red Ha Enterprise Linux versiunea 6 și, în mod tradițional, pe hypervisorul KVM.

Caracteristici noi ale Red Hat Enterprise Virtualization 3.0:

  • Instrumentul de management Red Hat Enterprise Virtualization Manager este acum bazat pe Java, rulând pe platforma JBoss (anterior era folosit .NET și, în consecință, era legat de Windows, acum puteți utiliza Linux pentru serverul de management).
  • Un portal de autoservire pentru utilizatori pentru a-și implementa automat mașini virtuale, pentru a crea șabloane și pentru a-și administra propriile medii.
  • Noua API RESTful care permite accesul la toate componentele soluției din aplicații terțe.
  • Mecanism avansat de administrare care oferă atribuire granulară a permisiunilor, delegare de autoritate bazată pe rolurile utilizatorului și gestionarea ierarhică a privilegiilor.
  • Acceptă discuri de server locale ca stocare pentru mașinile virtuale (dar Live Migration nu este acceptată pentru acestea).
  • Un motor de raportare integrat care analizează datele istorice de performanță și prezice dezvoltarea infrastructurii virtuale.
  • Optimizat pentru conexiuni WAN, inclusiv tehnologii de compresie dinamică și ajustare automată a efectelor desktop și a adâncimii culorii. În plus, noua versiune de SPICE a îmbunătățit suportul pentru desktop-uri pentru invitați Linux.
  • Hypervisor KVM actualizat bazat pe cel mai recent Red Hat Enterprise Linux 6.1 lansat în mai 2011.
  • Suportă până la 160 de procesoare logice și 2 TB de memorie pentru serverele gazdă, 64 de procesoare vCPU și 512 GB de memorie pentru mașinile virtuale.
  • Noi posibilități de administrare a instalațiilor mari de RHEV 3.0.
  • Suport pentru pagini mari de memorie (Pagini uriașe transparente, 2MB în loc de 4KB) în sistemele de operare pentru invitați, ceea ce îmbunătățește performanța cu mai puține citiri.
  • Optimizarea componentei vhost-net. Acum, stiva de rețea KVM a fost mutată din modul utilizator în modul kernel, ceea ce crește semnificativ performanța și reduce latența rețelei.
  • Folosind funcțiile bibliotecii sVirt, care asigură securitatea hypervisorului.
  • A apărut un controler x2paic paravirtualizat, care reduce supraîncărcarea pentru conținutul VM (mai ales eficient pentru sarcinile de lucru intensive).
  • Tehnologie Async-IO pentru a optimiza I/O și a îmbunătăți performanța.

Puteți descărca versiunea finală a Red Hat Enterprise Virtualization 3.0 folosind acest link.

Și, în sfârșit, o scurtă recenzie video a Red Hat Enterprise Virtualization Manager 3.0 (RHEV-M):


Etichete: Red Hat, Enterprise, Update, KVM, Linux

Bravo NetApp! Roman, așteptăm traducerea în rusă)


Etichete: Red Hat, KVM, NetApp, Stocare, NFS

ConVirt 2.0 Open Source vă permite să gestionați hipervizoarele Xen și KVM incluse în distribuțiile Linux gratuite și comerciale, să implementați servere virtuale din șabloane, să monitorizați performanța, să automatizați sarcinile de administrator și să configurați toate aspectele infrastructurii virtuale. ConVirt 2.0 acceptă migrarea la cald a mașinilor virtuale, discuri virtuale subțiri (care cresc pe măsură ce se umplu cu date), controlul resurselor mașinilor virtuale (inclusiv cele care rulează), funcții extinse de monitorizare și mijloace de plasare inteligentă a mașinilor virtuale pe serverele gazdă (încărcare manuală). balansare).

ConVirt 2.0 încă mai există doar în ediția Open Source, dar dezvoltatorii promit să lanseze în curând ediția ConVirt 2.0 Enteprise, care va diferi de ediția gratuită prin următoarele caracteristici:

CaracteristicăConVirt 2.0
Sursa deschisa
ConVirt 2.0 Enterprise

Arhitectură
Suport multi-platformă
Arhitectură fără agenți
Acces universal web
Consolă la nivelul centrului de date

Administrare
Porniți, opriți, întrerupeți, reluați
Mod de întreținere
Instantaneu
Modificați alocarea resurselor pe o VM care rulează

Monitorizarea
Date în timp real
Informații istorice
Pool-uri de servere
Bazine de depozitare
Alerte și notificări

Aprovizionare
Aprovizionare bazată pe șabloane
Biblioteca de șabloane
Cataloage de aparate virtuale integrate
Aprovizionare slaba
Aprovizionare programată

Automatizare
Plasarea mașinii virtuale inteligente
Migrație în direct
Gazdă rețele private
Suport pentru stocare SAN, NAS

Automatizare avansată
Valabilitate ridicată
Backup și recuperare
Configurare VLAN
Automatizare depozitare
Alocarea dinamică a resurselor
Modul de economisire a energiei

Securitate
Acces SSH
Administrare multi-utilizator
Auditul
Control de acces cu granulație fină

Integrare
Deschideți Repository
Linia de comandă
API-ul programatic

Etichete: Xen, KVM, Convirt, Citrix, Red Hat, Gratuit, Open Source,

Convirture, GUI XenMan din 2007 pentru gestionarea hypervisorului XEN, lansat recent liber Convirture ConVirt 1.0, care și-a schimbat numele în XenMan.

Cu ConVirt, puteți gestiona hipervizoarele Xen și KVM utilizând următoarele caracteristici:

  • Gestionarea mai multor servere gazdă.
  • Instantanee (instantanee).
  • Migrare live a mașinilor virtuale între gazde.
  • Backup pentru VM.
  • Cea mai simplă monitorizare a gazdelor și a mașinilor virtuale.
  • Suport pentru module virtuale (Virtual Appliances).

Puteți descărca Converture ConVirt 1.0 de la acest link:

Convirture ConVirt 1.0
Etichete: Xen, KVM

Pe Ubuntu, este recomandat să utilizați hypervisorul KVM (managerul mașinii virtuale) și libvirt ca instrumente de management. Libvirt include un set de API-uri software și aplicații personalizate de gestionare a mașinilor virtuale (VM) virt-manager (interfață grafică, GUI) sau virsh (linie de comandă, CLI). Puteți utiliza convirt (GUI) sau convirt2 (interfață WEB) ca manageri alternativi.

În prezent, numai hypervisorul KVM este acceptat oficial în Ubuntu. Acest hypervisor face parte din codul kernelului pentru sistemul de operare Linux. Spre deosebire de Xen, KVM nu acceptă paravirtualizarea, ceea ce înseamnă că, pentru a o utiliza, procesorul tău trebuie să accepte tehnologii VT. Puteți verifica dacă procesorul dvs. acceptă această tehnologie rulând comanda într-un terminal:

Dacă primiți un mesaj ca urmare:

INFO: / dev / kvm există Accelerația KVM poate fi utilizată

atunci KVM va funcționa fără probleme.

Dacă primiți un mesaj la ieșire:

CPU nu acceptă extensii KVM. Accelerarea KVM NU poate fi utilizată

atunci puteți folosi în continuare mașina virtuală, dar va fi mult mai lent.

    Instalați sisteme pe 64 de biți ca invitați

    Alocați mai mult de 2 GB de RAM sistemelor invitate

Instalare

Sudo apt-get install qemu-kvm libvirt-bin ubuntu-vm-builder bridge-utils

Aceasta este o instalare pe un server fără X-uri, adică nu include o interfață grafică. Îl poți instala cu comanda

Sudo apt-get install virt-manager

După aceea, va apărea elementul de meniu „Virtual Machine Manager” și, cu un grad ridicat de probabilitate, totul va funcționa. Dacă apar probleme, atunci va trebui să citiți instrucțiunile din wiki-ul în limba engleză.

Crearea unui sistem invitat

Procedura de creare a unui sistem invitat folosind interfața grafică este destul de simplă.

Dar modul text poate fi descris.

qcow2

Când se creează un sistem utilizând interfața grafică, se propune fie să selectați un fișier imagine existent sau să blocați dispozitivul ca hard disk, fie să creați un fișier nou cu date brute (RAW). Cu toate acestea, acesta este departe de singurul format de fișier disponibil. Dintre toate tipurile de discuri enumerate în man qemu-img, qcow2 este cel mai flexibil și mai modern. Acceptă instantanee, criptare și compresie. Acesta trebuie creat înainte de a crea un nou sistem invitat.

Qemu-img create -o preallocation = metadate -f qcow2 qcow2.img 20G

Potrivit aceluiași om qemu-img, prealocarea metadatelor (-o prealocarea = metadate) face discul puțin mai mare inițial, dar oferă performanțe mai bune atunci când imaginea trebuie să crească. De fapt, în acest caz, această opțiune evită o eroare urâtă. Imaginea creată ocupă inițial mai puțin de un megaoctet de spațiu și crește la dimensiunea specificată, după cum este necesar. Sistemul oaspete ar trebui să vadă imediat această dimensiune finală specificată, cu toate acestea, în timpul fazei de instalare, poate vedea dimensiunea reală a fișierului. Desigur, va refuza instalarea pe un hard disk de 200 KB. Bug-ul nu este specific Ubuntu, cel puțin apare în RHEL.

Pe lângă tipul de imagine, puteți alege ulterior modalitatea de conectare - IDE, SCSI sau Virtio Disk. Performanța subsistemului de disc va depinde de această alegere. Nu există un răspuns corect fără ambiguități, trebuie să alegeți în funcție de sarcina care va fi atribuită sistemului oaspeților. Dacă sistemul invitat este creat „pentru a vedea”, atunci orice metodă va funcționa. În general, I/O este de obicei blocajul unei mașini virtuale, prin urmare, atunci când se creează un sistem foarte încărcat, această problemă trebuie luată cât mai responsabil posibil.

Scriu această postare pentru a demonstra instalarea și configurarea pas cu pas a unei mașini virtuale în Linux bazată pe KVM. Mai devreme am scris deja despre virtualizare, unde am folosit-o pe cea minunată.

Acum mă confrunt cu întrebarea de a închiria un server bun, cu o cantitate mare de RAM și un hard disk mare. Dar nu vreau să rulez proiecte direct pe mașina gazdă, așa că le voi delimita în mici servere virtuale separate cu OS Linux sau containere docker (voi vorbi despre ele într-un alt articol).

Toate serviciile moderne de găzduire în cloud funcționează pe același principiu, adică. un hoster pe hardware bun ridică o grămadă de servere virtuale, pe care obișnuiam să le numim VPS/VDS, și le distribuie utilizatorilor sau automatizează acest proces (bună ziua, DigitalOcean).

KVM (mașină virtuală bazată pe kernel) este un software Linux care utilizează hardware de procesor compatibil x86 pentru a rula tehnologia de virtualizare Intel VT / AMD SVM.

Instalarea KVM

Voi efectua toate înșelătoriile pentru a crea o mașină virtuală pe Ubuntu 16.04.1 LTS. Pentru a verifica dacă procesele dvs. acceptă virtualizarea hardware bazată pe Intel VT / AMD SVM, rulați:

Grep -E "(vmx | svm)" / proc / cpuinfo

Dacă terminalul nu este gol, atunci totul este în ordine și KVM poate fi instalat. Ubuntu acceptă oficial doar hypervisorul KVM (inclus în nucleul Linux) și recomandă utilizarea bibliotecii libvirt ca instrument de management, ceea ce vom face în continuare.

De asemenea, puteți verifica suportul pentru virtualizarea hardware în Ubuntu prin comanda:

Dacă aveți succes, veți vedea ceva de genul acesta:

INFO: / dev / kvm există Accelerația KVM poate fi utilizată

Instalați pachete pentru lucrul cu KVM:

Sudo apt-get install qemu-kvm libvirt-bin ubuntu-vm-builder bridge-utils

Dacă aveți acces la shell-ul grafic al sistemului, atunci puteți instala libvirt GUI manager:

Sudo apt-get install virt-manager

Utilizarea virt-manager este destul de simplă (nu mai dificilă decât VirtualBox), așa că acest articol se va concentra pe versiunea de consolă a instalării și configurării unui server virtual.

Instalarea și configurarea unui server virtual

În versiunea de consolă de instalare, configurare și management de sistem, utilitarul virsh (supliment la biblioteca libvirt) este un instrument indispensabil. Are un număr mare de opțiuni și parametri, o descriere detaliată poate fi obținută după cum urmează:

Omul virsh

sau apelați standardul „ajutor”:

Virsh ajutor

Întotdeauna respect următoarele reguli atunci când lucrez cu servere virtuale:

  1. Stochez imagini ISO ale sistemului de operare în directorul / var / lib / libvirt / boot
  2. Stoc imaginile mașinii virtuale în directorul /var/lib/libvirt/images
  3. Asignez în mod explicit fiecărei noi mașini virtuale propria sa adresă IP statică prin serverul DHCP al hypervisorului.

Să începem să instalăm prima mașină virtuală (server pe 64 de biți Ubuntu 16.04 LTS):

Cd / var / lib / libvirt / boot sudo wget http://releases.ubuntu.com/16.04/ubuntu-16.04.1-desktop-amd64.iso

După descărcarea imaginii, începem instalarea:

Sudo virt-install \ --virt-type = kvm \ --name ubuntu1604 \ --ram 1024 \ --vcpus = 1 \ --os-variant = ubuntu16.04 \ --hvm \ --cdrom = / var / lib / libvirt / boot / ubuntu-16.04.1-server-amd64.iso \ --network network = implicit, model = virtio \ --graphics vnc \ --disk path = / var / lib / libvirt / images / ubuntu1604. img, dimensiune = 20, autobuz = virtio

Traducând toți acești parametri în „limbaj uman”, se dovedește că creăm o mașină virtuală cu OS Ubuntu 16.04, 1024 MB RAM, 1 procesor, o placă de rețea standard (mașina virtuală va merge la Internet ca și cum din cauza NAT), HDD de 20 GB.

Merită să acordați atenție parametrului --os-variant, îi spune hypervisorului pentru ce sistem de operare ar trebui adaptate setările.
O listă cu opțiunile disponibile ale sistemului de operare poate fi obținută prin rularea comenzii:

Osinfo-query os

Dacă nu există un astfel de utilitar în sistemul dvs., atunci instalați:

Sudo apt-get install libosinfo-bin

După pornirea instalării, în consolă va apărea următoarea inscripție:

Instalarea domeniului este încă în curs. Vă puteți reconecta la consolă pentru a finaliza procesul de instalare.

Aceasta este o situație normală, vom continua instalarea prin VNC.
Ne uităm la ce port a fost creat de la mașina noastră virtuală (în terminalul vecin, de exemplu):

Virsh dumpxml ubuntu1604 ... ...

Portul 5900, la adresa locală 127.0.0.1. Pentru a vă conecta la VNC, trebuie să utilizați Port Forwarding prin ssh. Înainte de a face acest lucru, asigurați-vă că redirecționarea tcp este activată pe demonul ssh. Pentru a face acest lucru, accesați setările sshd:

Cat / etc / ssh / sshd_config | grep AllowTcpForwarding

Dacă nu s-a găsit nimic sau vedeți:

AllowTcpForwarding nr

Apoi edităm configurația

AllowTcpForwarding da

și reporniți sshd.

Configurare redirecționare porturi

Executăm comanda pe mașina locală:

Ssh -fN -l autentificare -L 127.0.0.1:5900:localhost:5900 server_ip

Aici am configurat redirecționarea portului ssh de la portul local 5900 la portul server 5900. Acum vă puteți conecta la VNC folosind orice client VNC. Prefer UltraVNC pentru simplitatea și comoditatea sa.

După o conexiune reușită, ecranul va afișa un ecran standard de bun venit pentru pornirea instalării Ubuntu:

După finalizarea instalării și repornirea obișnuită, va apărea fereastra de autentificare. După conectare, determinăm adresa IP a mașinii virtuale nou-realizate, pentru a o face statică mai târziu:

Ifconfig

Ne amintim și mergem la mașina gazdă. Scoatem adresa mac a cardului de „rețea” a mașinii virtuale:

Virsh dumpxml ubuntu1604 | grep "adresa mac"

Ne amintim adresa noastră mac:

Editarea setărilor de rețea ale hypervisorului:

Sudo virsh net-edit implicit

Căutăm DHCP și adăugăm asta:

Ar trebui să ajungi cu ceva de genul acesta:

Pentru ca setările să aibă efect, trebuie să reporniți serverul DHCP hypervisor:

Sudo virsh net-destroy default sudo virsh net-start implicit sudo service libvirt-bin restart

După aceea, repornim mașina virtuală, acum va avea întotdeauna adresa IP atribuită - 192.168.122.131.

Există și alte modalități de a seta un IP static la mașina virtuală, de exemplu, prin editarea directă a setărilor de rețea în interiorul sistemului invitat, dar aici este așa cum îți dorește inima. Tocmai am arătat opțiunea pe care eu prefer să o folosesc.

Pentru a vă conecta la terminalul mașinii virtuale, rulați:

Ssh 192.168.122.131

Mașina este gata de luptă.

Virsh: lista de comenzi

Pentru a vedea gazdele virtuale care rulează (toate cele disponibile pot fi obținute adăugând --all):

Sudo virsh list

Puteți reporni gazda:

Sudo virsh reporniți $ VM_NAME

Opriți mașina virtuală:

Sudo virsh stop $ VM_NAME

Executați oprirea:

Sudo virsh distruge $ VM_NAME

Sudo virsh start $ VM_NAME

Deconectare:

Închiderea Sudo virsh $ VM_NAME

Adăugați la pornire automată:

Sudo virsh pornire automată $ VM_NAME

De foarte multe ori este necesară clonarea sistemului pentru a-l utiliza pe viitor ca cadru pentru alte sisteme de operare virtuale, pentru aceasta se utilizează utilitarul virt-clone.

Virt-clone --ajutor

Clonează o mașină virtuală existentă și modifică datele sensibile la gazdă, de exemplu, adresa mac. Parolele, fișierele și alte informații specifice utilizatorului din clonă rămân aceleași. Dacă adresa IP a fost înregistrată manual pe mașina virtuală clonată, atunci pot apărea probleme cu accesul SSH la clonă din cauza unui conflict (2 gazde cu același IP).

Pe lângă instalarea unei mașini virtuale prin VNC, este posibil și cu X11Forwarding prin utilitarul virt-manager. Pe Windows, de exemplu, puteți utiliza Xming și PuTTY pentru asta.