Internet ablakok Android

KVM-et használunk virtuális gépek létrehozására a szerveren. A RedHat végül Xenről KVM kvm virtualizációs rendszerekre vált

A tarifa kiválasztásakor az ember egy virtualizációs módszert is választ a szerver számára. Az OpenVZ operációs rendszer és a hardveres virtualizációs KVM szintjén választható virtualizációt kínálunk.

A virtualizáció típusának megváltoztatása indítás után nem lehetséges, mert a szerverek különböző hardverplatformokon vannak. Új szervert kell rendelnie, át kell adnia a projektet, és el kell hagynia a régi szervert.

A virtualizációs típusok összehasonlítása

Openvz KVM

Számos javasolt operációs rendszer: Debian, CentOS, Ubuntu

Linux, Windows, FreeBSD, saját disztribúció telepítése

Erőforrások megváltoztatása újraindítás nélkül (merevlemez, memória, processzor)

A memória és a processzor újraindítás után megváltozik, a merevlemez - csak a támogatással való kapcsolatfelvétel után (kész tarifákon a memória nem módosítható)

Díjcsomag módosítása újraindítás nélkül

Díjcsomag változás. A szerver 1-2 óráig nem lesz elérhető.

Lágy korlátok: a szerver maximális teljesítménye eltérhet felfelé vagy lefelé

Kemény korlátok: minden szerver megkapja a deklarált erőforrásokat

A nagy terhelésű projektek elindításának korlátozása. Java alkalmazások futtatása, tömeges levelezés és proxyforgalom tilos. A TUN / TAP ki van kapcsolva.

Lehetőség bármilyen projekt indítására (kivéve az elosztott számítástechnikai rendszereket)

Lehetőség . Az ilyen típusú virtualizáció esetén nem lehetséges a VNC-kapcsolat a grafikus felhasználói felülettel.

Lehetőség . Ha a szerver valamilyen okból nem elérhető SSH-n keresztül, vagy csatlakozni kell a grafikus felülethez, akkor VNC-n keresztül érheti el a szervert.

Az ISPmanager vezérlőpultjára léphet:

  • személyes fiókjából: szakasz - Termékek - Virtuális szerverek - válasszon ki egy szervert a "Go" gomb tetején,
  • az Útmutató linkjét követve: Személyes fiók - Termékek - Virtuális szerverek - válassza ki a szervert az "Útmutató" felett.

OpenVZ virtualizáció

Az OpenVZ egy operációs rendszer szintű virtualizáció. A technológia a Linux kernelen alapul, és lehetővé teszi egyetlen fizikai szerver létrehozását és futtatását elszigetelt másolatok kiválasztott operációs rendszer (Debian, CentOS, Ubuntu). Más operációs rendszer telepítése nem lehetséges, mert a virtuális szerverek közös Linux kernelt használnak.

A technológia más a szerverkezelés egyszerűsége: a felhasználó önállóan a személyes fiókjában * adja hozzá az erőforrások mennyiségét (memória, processzor, merevlemez), vagy váltson másik tarifára ugyanazzal a virtualizációval. A változtatások automatikusan, a szerver újraindítása nélkül kerülnek alkalmazásra.

OpenVZ virtualizációval rendelkező szervereken tiltott fuss:

  • szolgáltatások bármely típusú forgalom proxyjának megszervezéséhez
  • streaming szolgáltatások
  • játékszerverek
  • elosztott számítástechnikai rendszerek rendszerei vagy elemei (például bitcoin bányászat)
  • postai üzenetek tömeges küldésére szolgáló szolgáltatások, még akkor is, ha azokat jogi célokra használják fel
  • Java alkalmazások
  • egyéb erőforrás-igényes alkalmazások

Az ilyen projektek egyenetlen terhelést okoznak a szülőkiszolgálón, és zavarhatják a szomszédos virtuális gépeket.

* - A tarifák korábbi verzióinál (VDS-2015, VDS-Summer, VDS-2016) a tarifa módosítása a személyes fiókban már nem érhető el. A díjcsomag önálló módosítása csak a jelenlegi OVZ virtualizációs tarifák mellett lehetséges. Ha Önnek fontos a szerver erőforrások gyors kezeléséhez való hozzáférés - váltson át egy naprakész díjcsomagra. Ha az új tarifa költsége magasabb, mint a jelenlegi, a tarifaváltás ingyenes, egyéb esetekben - kereten belül. A tarifa a szerver újraindítása nélkül változik.

KVM virtualizáció

A KVM (kernel-alapú virtuális gép) egy hardveres virtualizációs technológia, amely lehetővé teszi a gazdagépen való létrehozást. egy fizikai szerver teljes virtuális analógja... A KVM lehetővé teszi a "szomszédaitól" teljesen elszigetelt virtuális szerver létrehozását saját operációs rendszermaggal, amelyet a felhasználó korlátozás nélkül konfigurálhat és módosíthat saját igényei szerint. Minden ilyen kiszolgálóhoz saját terület tartozik a RAM-ban és a merevlemez-területen, ami növeli a szerver általános megbízhatóságát.

Telepítés lehetséges bármilyen operációs rendszer hogy válasszon (Debian, CentOS, Ubuntu, FreeBSD, Windows Server), vagy telepítse a saját disztribúcióját (a VMmanager panel ISO-képek részében kattintson a Létrehozás gombra, és adja hozzá a rendszer ISO-képet).

Díjszabás változás terv csak nagy irányban és csak az alaptarifasor (Start, Gyorsulás, Felszállás, Repülés) keretein belül lehetséges. Ha projektje "kinő" a tarifából, írjon támogatási kérelmet Személyes fiókjából - a rendszergazdák ingyenesen módosítják a tarifát a szükségesre. Változás tarifa lefelé csak új szerverre vihető át. Rendeljen új szervert, és saját maga vigye át az adatokat, vagy a műszaki támogatás szakemberei segítenek az átvitelben 1 hívásért az adminisztrációs csomagért vagy 250 rubelért.

Ne feledje, hogy a VDS-Fast and Furious és a VDS-Atlant tarifákon megteheti az erőforrások megváltoztatása a tarifa megváltoztatása helyett: a rendelkezésre álló processzormagok és a RAM függetlenül a vezérlőpulton, valamint a merevlemez mérete a támogatással való kapcsolatfelvétel után (az adminisztráció keretében vagy 250 rubelért).

Figyelembe véve a KVM virtualizáció szolgáltatásait és előnyeit, annak a tarifák drágábbak hasonló tarifák az OpenVZ virtualizációval.

A KVM virtualizációval rendelkező szervereken az Előfizető tilos rendszereket vagy elosztott számítástechnikai rendszerek elemeit elhelyezni (például bitcoin bányászat).

A virtualizáció módosítása a szerveren

Egy kiszolgálón belül lehetetlen megváltoztatni a virtualizációt OpenVZ-ről KVM-re és fordítva.

1. Rendeljen egy második szervert a szükséges virtualizációval a BILLmanager panel Virtuális szerverek → Rendelés szakaszában.

2. Adatok átvitele rá.

3. Az áttelepítés és ellenőrzés után törölheti a régi szervert (Virtuális szerverek → Törlés).


A Hypervisor támogatás ellenőrzése

Ellenőrizzük, hogy a szerver támogatja-e a virtualizációs technológiákat:

cat / proc / cpuinfo | egrep "(vmx | svm)"

Válaszul valami ilyesmit kell kapnia:

zászlók: FPU VME de PSE TSC msr pae md cx8 APIC szeptember MTRR PGE MCA cmov pat pse36 clflush dts acpi MMX fxsr SSE SSE2 ss ht tm pbe syscall nx pdpe1gb rdtscp lm constant_tsc dfmd_tsc arch_pernood nem kavicsok boptsplcp lm constant_tsc arch_perfnig nem kavicsos nbs bopts smx est tm2 ssse3 cx16 xtpr pdcm pcid dca sse4_1 sse4_2 popcnt aes lahf_lm epb tpr_shadow vnmi flexpriority ept vpid dtherm ida arat

Ellenkező esetben lépjen a BIOS-ba, keresse meg a virtualizációs technológia engedélyezésének lehetőségét (különböző nevei vannak, például Intel Virtualization Technology vagy Virtualization), és engedélyezze - állítsa be az értéket Engedélyezze.

A kompatibilitást a következő paranccsal is ellenőrizheti:

* ha a parancs hibát ad vissza "Kvm-ok parancs nem található", telepítse a megfelelő csomagot: apt-get install cpu-checker.

Ha látjuk:

INFO: / dev / kvm létezik
KVM gyorsítás használható

akkor van támogatás a hardver részről.

Szerver előkészítés

Kényelmünk érdekében hozzunk létre egy könyvtárat, amelyben a KVM adatait tároljuk:

mkdir -p / kvm / (vhdd, iso)

* két könyvtár jön létre: / kvm / vhdd(virtuális merevlemezekhez) és / kvm / iso(iso képekhez).

Állítsuk be az időt:

\ cp / usr / share / zoneinfo / Európa / Moszkva / etc / localtime

* ez a parancs beállítja a zónát a moszkvai idő szerint.

ntpdate ru.pool.ntp.org

* szinkronizálást végzünk az időszerverrel.

Telepítés és indítás

Telepítse a KVM-et és a szükséges felügyeleti segédprogramokat.

a) Ubuntu 18.10-es verzióig

apt-get install qemu-kvm libvirt-bin virtinst libosinfo-bin

b) Ubuntu 18.10 után:

apt-get install qemu-kvm libvirt-daemon-system libvirt-bin virtinst libosinfo-bin

* ahol qemu-kvm- hipervizor; libvirt-bin- hypervisor menedzsment könyvtár; virtinst- segédprogram virtuális gépek kezelésére; libosinfo-bin- segédprogram a vendégként használható operációs rendszerek listájának megtekintéséhez.

Állítsuk be a szolgáltatás automatikus indítását:

systemctl enable libvirtd

Kezdjük a libvirtd-vel:

systemctl start libvirtd

Hálózati konfiguráció

A virtuális gépek működhetnek NAT (ami a KVM szerver) mögött, vagy kaphatnak IP-címeket a helyi hálózatról – ehhez hálózati hidat kell konfigurálni. Mi az utóbbit állítjuk be.

Távoli kapcsolat használatakor gondosan ellenőrizze a beállításokat. Ha hiba történik, a kapcsolat megszakad.

Híd segédprogramok telepítése:

apt-get install bridge-utils

a) hálózati beállítás az Ubuntu régebbi verzióiban (/ etc / network / interfaces).

Nyissa meg a konfigurációs fájlt a hálózati interfészek konfigurálásához:

vi / etc / network / interfaces

És hozzuk a formába:

#iface eth0 inet statikus
# cím 192.168.1.24
# hálózati maszk 255.255.255.0
# átjáró 192.168.1.1
# dns-névszerverek 192.168.1.1 192.168.1.2

Auto br0
iface br0 inet statikus
cím: 192.168.1.24
hálózati maszk 255.255.255.0
átjáró 192.168.1.1
dns-névszerverek 192.168.1.1 192.168.1.2
bridge_ports eth0
bridge_fd 9
bridge_hello 2
bridge_maxage 12
bridge_stp off

* ahol minden, ami ki van írva, a hálózatom régi beállításai; br0- a létrehozandó híd interfészének neve; eth0- a meglévő hálózati interfész, amelyen keresztül a híd működni fog.

Indítsa újra a hálózati szolgáltatást:

systemctl indítsa újra a hálózatot

b) hálózati konfiguráció az Ubuntu újabb verzióiban (netplan).

vi /etc/netplan/01-netcfg.yaml

* a rendszer verziójától függően konfigurációs fájl yaml más név is lehet.

Formába hozzuk:

hálózat:
verzió: 2
renderer: networkd
Ethernetek:
eth0:
dhcp4: false
dhcp6: false
wakeonlan: igaz

Hidak:
br0:
macaddress: 2c: 6d: 45: c3: 55: a7
interfészek:
- eth0
címek:
- 192.168.1.24/24
4. átjáró: 192.168.1.1
MTU: 1500
névszerverek:
címek:
- 192.168.1.1
- 192.168.1.2
paraméterek:
stp: igaz
előre-késleltetés: 4
dhcp4: false
dhcp6: false

* Ebben a példában egy virtuális hídfelületet hozunk létre br0; fizikai interfészként használjuk eth0.

Hálózati beállítások alkalmazása:

Beállítjuk a hálózati forgalom átirányítását (hogy a NAT hálózati interfésszel rendelkező virtuális gépek hozzáférjenek az Internethez):

vi /etc/sysctl.d/99-sysctl.conf

Add hozzá a sort:

net.ipv4.ip_forward = 1

Alkalmazza a beállításokat:

sysctl -p /etc/sysctl.d/99-sysctl.conf

Virtuális gép létrehozása

Az első virtuális gép létrehozásához írja be a következő parancsot:

virt-install -n VM1 \
--Automatikus indítás \
--noautoconsole \
--hálózat = híd: br0 \
--ram 2048 --arch = x86_64 \
--vcpus = 2 --cpu host --check-cpu \
--lemez elérési útja = / kvm / vhdd / VM1-disk1.img, méret = 16 \
--cdrom /kvm/iso/ubuntu-18.04.3-server-amd64.iso \
--graphics vnc, figyelj = 0.0.0.0, jelszó = vnc_password \
--os-type linux --os-variant = ubuntu18.04 --boot cdrom, hd, menu = be

  • VM1 - a létrehozandó gép neve;
  • Automatikus indítás - lehetővé teszi, hogy a virtuális gép automatikusan elinduljon a KVM-kiszolgálóval együtt;
  • nincs autokonzol - nem csatlakozik a virtuális gép konzoljához;
  • hálózat - hálózat típusa. Ebben a példában egy virtuális gépet hozunk létre hálózati hídfelülettel. NAT típusú belső interfész létrehozásához nyomja meg az Enter billentyűt --network = alapértelmezett, modell = virtio;
  • kos - a RAM mennyisége;
  • vcpus - a virtuális processzorok száma;
  • lemez - virtuális lemez: pálya - lemez elérési útja; méret - térfogata;
  • CD ROM - virtuális meghajtó rendszerképpel;
  • grafika - paraméterek a virtuális géphez való csatlakozáshoz a grafikus konzol segítségével (ebben a példában a vnc-t használjuk); hallgat - a vnc milyen címen fogad kéréseket (példánkban egyáltalán); Jelszó - jelszó a vnc használatával történő csatlakozáshoz;
  • os-variáns - vendég operációs rendszer (a teljes listát megkaptuk a paranccsal osinfo-query os, ebben a példában az Ubuntu 18.04-et telepítjük).

Csatlakozás virtuális géphez

Azon a számítógépen, amelyről virtuális gépekkel tervezünk dolgozni, töltsön le egy VNC-klienst, például a TightVNC-t, és telepítse.

A szerveren írja be:

virsh vncdisplay VM1

a parancs megmutatja, hogy a VNC melyik porton fut a VM1 gépen. Nekem volt:

*: Az 1 azt jelenti, hogy hozzá kell adni az 1-et az 5900-hoz - 5900 + 1 = 5901.

Indítsa el a TightVNC Viewer programot, amelyet telepítettünk, és adja meg a csatlakozási adatokat:

Kattintson Csatlakozás... Jelszó kérésére adja meg azt, amelyet a virtuális gép létrehozásakor jeleztek, ( vnc_password). Távoli konzollal csatlakozunk a virtuális géphez.

Ha nem emlékszünk a jelszóra, nyissa meg a virtuális gép beállításait a következő paranccsal:

És megtaláljuk a sort:



* Ebben a példában jelszót használunk a virtuális gép eléréséhez 12345678 .

Virtuális gép kezelése parancssorból

Példák azokra a parancsokra, amelyek hasznosak lehetnek virtuális gépekkel végzett munka során.

1. Szerezze meg a létrehozott autók listáját:

virsh lista --all

2. Kapcsolja be a virtuális gépet:

virsh start VMname

* ahol VMname A létrehozott gép neve.

3. Kapcsolja ki a virtuális gépet:

Az ubuntu-vm-builder a Canonical által kifejlesztett csomag az új virtuális gépek létrehozásának egyszerűsítésére.

A telepítéshez írja be:

apt-get install ubuntu-vm-builder


Nemrég egy érdekes jelentést tett közzé a Principled Technologies cég, amely többek között hardver- és szoftverkörnyezetek mindenféle tesztelésére szakosodott. A "" dokumentum kifejti, hogy az ESXi hipervizor több virtuális gépet tud futtatni ugyanazon a hardveren, mint az RHEV KVM hipervizor.

Jól látható, hogy a tanulmány elfogult (legalábbis ha a címet nézzük), de mivel nincs olyan sok ilyen dokumentum, úgy döntöttünk, hogy odafigyelünk rá.

A teszteléshez egy Lenovo x3650 M5 rack szervert használtunk, amelyen a Microsoft SQL Server 2016 futott virtuális gépekben OLTP terhelés mellett. Az OPM (rendelések percenkénti száma) volt a fő teljesítménymutató, amely a végrehajtott tranzakciók mennyiségi értékelését jeleníti meg.

Ha nem használja a Memory Overcommit technikákat, akkor a 15 virtuális gépen lévő OPM-ek számában egy gazdagép végrehajtásának eredménye megközelítőleg ugyanaz mindkét hipervizoron:

De ha növekszik a virtuális gépek száma, akkor a vSphere sokkal jobban teljesít:

A keresztek azokat a gépeket jelölik, amelyek egyszerűen nem indultak el RHV-n, a termékkonzol a következő hibát adta:

Annak ellenére, hogy a Red Hat Virtualization Manager (RHV-M) memóriaoptimalizálási technikákat tartalmaz, mint például a memóriabuborékolást és a kernel megosztott memóriáját, a tizenhatodik virtuális gép mégsem indult el a KVM-en:

Nos, a vSphere-en addig folytatták a virtuális gépek számának növelését, amíg erőforráshiányba nem ütköztek:

Kiderült, hogy a vSphere overcommit technikusaival 24 virtuális gépet futtattak, az RHV-n pedig csak 15 darabot. Ennek eredményeként arra a következtetésre jutottunk, hogy 1,6-szor több virtuális gép futtatható a VMware vSphere-en:

Nem azt mondom, hogy ez egy objektív teszt, de nyilvánvaló, hogy az ESXi ebben az esetben jobban teljesít, mint a KVM a memória és más virtuálisgép-erőforrások optimalizálása tekintetében.


Címkék: VMware, Red Hat, Performance, RHV, vSphere, ESXi, KVM
Címkék: KVM, oVirt, nyílt forráskód, frissítés

Emlékezzünk vissza, hogy az RHEV a kernel-alapú virtuális gép (KVM) hipervizoron alapul, és támogatja az OpenStack nyílt felhő architektúrát. Lássuk, mi az újdonság a frissített RHEV 3.4-es verziójában.

Infrastruktúra

  • SNMP konfigurációs szolgáltatás harmadik féltől származó megfigyelőrendszerek támogatására.
  • Az RHEV felhő telepítésének beállításainak mentése hiba esetén történő helyreállítás vagy más felhőkben való replikáció érdekében.
  • Az RHEV hitelesítési szolgáltatásokat átírták és továbbfejlesztették.
  • Lehetőség egy processzor gyors hozzáadására a virtuális géphez (Hot Plug CPU). Ehhez az operációs rendszer támogatása szükséges.
  • A nem root felhasználók mostantól hozzáférhetnek a naplókhoz.
  • Új telepítő TUI (szöveges felhasználói felület) alapú.
  • IPv6 támogatás.
  • Lehetőség a VM-konzolhoz való kapcsolat kiválasztására Native Client vagy noVNC módban.
  • Lehetőség a futó virtuális gép egyes beállításainak módosítására.
  • Az RHEL 7 teljes támogatása vendég operációs rendszerként.
  • Lehetőség a KSM (Kernel Samepage Merging) engedélyezésére/letiltására a fürt szintjén.
  • Lehetőség a virtuális gép újraindítására RHEVM-ből vagy konzolparancs segítségével.

Hálózatépítés

  • Szorosabb integráció az OpenStack infrastruktúrával:
    • Biztonsági és méretezhetőségi fejlesztések a Neutronnal telepített hálózatokhoz.
    • Támogatja az Open vSwitch technológiát (skálázható virtuális kapcsoló) és az SDN képességeket.
  • Hálózati címkék – eszközökre hivatkozva használható címkék.
  • Helyes virtuális hálózati adapter (vNIC) számozási sorrend.
  • Az iproute2 támogatása.
  • Egyetlen pont a hálózati beállítások konfigurálásához több gazdagéphez egy megadott hálózaton.

Tárolási lehetőségek

  • Vegyes tárolási tartományok – lehetőség az iSCSI, FCP, NFS, Posix és Gluster tárolók lemezeszközeinek egyidejű használatára a virtuális gépek tárolásának megszervezéséhez.
  • Több tárolási tartomány – egy virtuális gép lemezeinek elosztása több tároló között az adatközponton belül.
  • Lehetőség olyan lemezek megadására, amelyek részt vesznek a pillanatképek létrehozásában, valamint azokat, amelyek nem.
  • A virtuális gépek biztonsági másolatból történő visszaállításának mechanizmusa továbbfejlesztett – most már megadható egy pillanatkép arról az állapotról, amelyre vissza szeretné állítani.
  • A Gluster tárolási feladatok aszinkron kezelése.
  • Csak olvasható lemez a motorhoz – Ez a szolgáltatás lehetővé teszi a Red Hat Enterprise Virtualization Manager felügyeleti eszköz számára, hogy csak olvasható lemezeket használjon.
  • Többutas hozzáférés az iSCSI-tárolóhoz.

Virtualizációs eszközök

  • Vendég operációs rendszer ügynökei (ovirt-guest-agent) az OpenSUSE és az Ubuntu számára.
  • SPICE Proxy – a proxykiszolgálók használatának lehetősége, hogy a felhasználók hozzáférjenek virtuális gépeikhez (ha például az infrastruktúra hálózatán kívül vannak).
  • SSO (Single Sign-On) Method Control – a különböző átjelentkezési hitelesítési mechanizmusok közötti váltás lehetősége. Egyelőre csak két lehetőség van: vendégügynök SSO és nincs SSO.
  • Ugyanazon virtuálisgép-sablon több verziójának támogatása.

Ütemező és szolgáltatási szintű fejlesztések

  • A virtuális gép ütemezőjének fejlesztései.
  • Affinitás / Anti-Affinity csoportok (a virtuális gépek hostokon való létezésének szabályai – helyezze el a gépeket együtt vagy külön).
  • A Power-Off Capacity egy energiaellátási szabályzat, amely lehetővé teszi egy gazdagép leállítását, és a virtuális gépek előkészítését egy másik helyre való áttelepítésre.
  • Még a Virtual Machine Distribution is – a virtuális gépek gazdagépek közötti szétosztásának képessége a virtuális gépek száma alapján.
  • Magas rendelkezésre állású virtuálisgép-foglalás – a mechanizmus lehetővé teszi a virtuális gépek helyreállításának garantálását egy vagy több gazdagép-kiszolgáló meghibásodása esetén. A fürt gazdagépeinek számítási erőforrásainak rendelkezésre álló kapacitásának kiszámítása alapján működik.

Fejlesztések a felületen

  • Hibajavítások azzal kapcsolatosak, hogy a felület nem mindig reagált az infrastruktúrában zajló eseményekre.
  • Alacsony képernyőfelbontások támogatása (amikor a vezérlőkonzol egyes elemei nem voltak láthatók alacsony felbontás mellett).

A Red Hat Enterprise Virtualization 3.4-et erről a linkről töltheti le. Dokumentáció elérhető.


Címkék: Red Hat, RHEV, frissítés, Linux, KVM

Az RHEL OS új verziója számos új érdekességgel rendelkezik, amelyek közül sok a virtualizációs technológiákhoz kapcsolódik. Néhány főbb újdonság az RHEL 7-ben:

  • Beépített támogatás a csomagolt Docker-alkalmazásokhoz.
  • Kernelfoltozó segédprogram Technology Preview – a kernel javítása az operációs rendszer újraindítása nélkül.
  • Közvetlen és közvetett integráció a Microsoft Active Directoryval, részletesebben leírva.
  • Az XFS mostantól az alapértelmezett fájlrendszer a rendszerindító, a root és a felhasználói adatpartíciók számára.
    • Az XFS esetében a fájlrendszer maximális mérete 100 TB-ról 500 TB-ra nőtt.
    • Az ext4 esetében ez a méret 16 TB-ról 50 TB-ra nőtt.
  • Továbbfejlesztett operációs rendszer telepítési folyamat (új varázsló).
  • Lehetőség Linux szerverek kezelésére az Open Linux Management Infrastructure (OpenLMI) segítségével.
  • NFS és GFS2 fájlrendszer fejlesztések.
  • A KVM virtualizációs technológia új lehetőségei.
  • Lehetőség az RHEL 7 futtatására vendég operációs rendszerként.
  • A NetworkManager továbbfejlesztése és egy új parancssori segédprogram az NM-CLI hálózati feladatok végrehajtásához.
  • Támogatja az Ethernet hálózati kapcsolatokat akár 40 Gbps sebességgel.
  • Támogatja a WiGig vezeték nélküli technológiát (IEEE 802.11ad) (akár 7 Gbps sebességgel).
  • Új Team Driver mechanizmus, amely gyakorlatilag egyesíti a hálózati eszközöket és portokat egyetlen interfészben L2 szinten.
  • Új dinamikus szolgáltatás, a FirewallD, amely egy rugalmas tűzfal, amely elsőbbséget élvez az iptables-szal szemben, és több hálózati bizalmi zónát is támogat.
  • GNOME 3 klasszikus asztali módban.

Az RHEL 7 új szolgáltatásaival kapcsolatos további információkért lásd: Red Hat.

A virtualizáció tekintetében a Red Hat Enterprise Linux 7 a következő főbb újításokat vezeti be:

  • A virtio-blk-data-plane szolgáltatás technológiai előnézete, amely lehetővé teszi a QEMU I / O parancsok külön optimalizált szálban történő végrehajtását.
  • Megjelent a PCI Bridge technológia technológiai előnézete, amely lehetővé teszi több mint 32 PCI eszköz támogatását a QEMU-ban.
  • QEMU Sandboxing – továbbfejlesztett elkülönítés az RHEL 7 fogadó vendég operációs rendszerei között.
  • A virtuális processzorok gépekhez való "hot" hozzáadásának támogatása (vCPU Hot Add).
  • Több soros hálózati kártya – minden vCPU-nak saját adási és vételi sora van, így nincs szükség más vCPU-kra (csak Linux vendég operációs rendszereknél).
  • Hot Migration Page Delta Compression technológia lehetővé teszi a KVM hypervisor gyorsabb áttelepítését.
  • A KVM támogatja a Microsoft OS paravirtualizált funkcióit, például a memóriakezelő egységet (MMU) és a Virtual Interrupt Controllert. Ez lehetővé teszi a Windows vendégeinek gyorsabb futtatását (ezek a szolgáltatások alapértelmezés szerint le vannak tiltva).
  • Támogatja az Intel és az AMD Advanced Programmable Interrupt Controller (APIC) interfészén alapuló EOI Acceleration technológiát.
  • Az USB 3.0 támogatásának technológiai előnézete KVM vendég operációs rendszerekben.
  • Támogatja a Windows 8, Windows 8.1, Windows Server 2012 és Windows Server 2012 R2 vendég operációs rendszereket KVM hipervizoron.
  • I/O-szabályozási funkciók vendég operációs rendszerekhez QEMU-n.
  • Ballooning technológiák és átlátszó hatalmas oldalak támogatása.
  • Az új virtio-rng eszköz véletlenszám-generátorként érhető el vendég operációs rendszerekhez.
  • Támogatás a vendég operációs rendszerek hot migrációjához Red Hat Enterprise Linux 6.5 gazdagépről Red Hat Enterprise Linux 7 gazdagépre.
  • Támogatja az NVIDIA GRID és Quadro eszközök második eszközként való leképezését az emulált VGA mellett.
  • Para-Virtualized Ticketlocks technológia, amely javítja a teljesítményt, ha több virtuális vCPU van a gazdagépen, mint a fizikai.
  • Továbbfejlesztett hibakezelés a PCIe eszközöknél.
  • Az új Virtual Function I/O (VFIO) illesztőprogram javítja a biztonságot.
  • Támogatja az Intel VT-d Large Pages technológiát a VFIO illesztőprogram használatakor.
  • Javítások a KVM-en lévő virtuális gépek pontos időzítésében.
  • A QCOW2 3-as verzió formátumú képek támogatása.
  • Továbbfejlesztett élő migrációs statisztikák – teljes idő, várható állásidő és sávszélesség.
  • Dedikált adatfolyam az élő migrációhoz, amely lehetővé teszi, hogy a forró migráció ne befolyásolja a vendég operációs rendszer teljesítményét.
  • AMD Opteron G5 processzorok emulációja.
  • Új Intel processzor-utasítások támogatása KVM vendég operációs rendszerekhez.
  • Támogatja a csak olvasható VPC és VHDX virtuális lemez formátumokat.
  • A libguestfs segédprogram új szolgáltatásai a gépek virtuális lemezeivel való munkához.
  • Új Windows Hardware Quality Labs (WHQL) illesztőprogramok Windows vendég operációs rendszerekhez.
  • Integráció a VMware vSphere programmal: Open VM Tools, 3D grafikus illesztőprogramok az OpenGL és X11 számára, valamint továbbfejlesztett kommunikációs mechanizmus a vendég operációs rendszer és az ESXi hypervisor között.

Az operációs rendszer új verziójának kiadási megjegyzései ezen a linken érhetők el. A virtualizációs funkciókról az új RHEL 7 kiadásban olvashat (és - oroszul). A Red Hat Enterprise Linux 7 rpm csomagok forrásai már csak a Git tárhelyen keresztül érhetők el.


Címkék: Linux, QEMU, KVM, frissítés, RHEL, Red Hat

A Ravello érdekes módot talált a beágyazott virtualizáció kiaknázására a Cloud Application Hypervisor termékében, amely lehetővé teszi a virtuális gépek univerzális telepítését különböző virtualizációs platformokon, különböző szolgáltatók nyilvános felhőiben.

Ennek a rendszernek a fő összetevője a HVX technológia – saját hipervizor (Xen alapú), amely a Linux operációs rendszer része, és beágyazott virtuális gépeket futtat anélkül, hogy megváltoztatná azokat bináris fordítási technikákkal. Ezen túlmenően ezek a gépek az Amazon EC2-ben, a HP Cloudban, a Rackspace-ben, sőt a VMware vCloud Director által kezelt privát felhőkben is helyet kaphatnak (utóbbi támogatása hamarosan várható).

A Ravello termék egy SaaS szolgáltatás, és az ilyen beágyazott babák egyszerűen feltölthetők bármelyik támogatott tárhelyre, függetlenül az általa használt hipervizortól. A gépek közötti virtuális hálózat egy L2 átfedésen keresztül jön létre a gazdagép meglévő L3 infrastruktúrája felett GRE-szerű protokoll használatával (csak UDP alapján):

A javasolt Cloud Application Hypervisor szolgáltatás mechanikája a következő:

  • A felhasználó virtuális gépeket tölt fel a felhőbe (az ESXi / KVM / Xen platformokon létrehozott gépek támogatottak).
  • Leírja a többgépes alkalmazásokat speciális GUI vagy API használatával.
  • Egy vagy több támogatott felhőben teszi közzé virtuális gépeit.
  • Az így létrejövő konfiguráció pillanatképként kerül mentésre a Ravello felhőbe (ez esetben visszaállítható vagy kirakható) - ez a tárhely létrehozható mind az Amazon S3 felhőtárhely, a CloudFiles, mind a saját blokkja alapján. tárolók vagy NFS-kötetek.
  • Ezt követően minden felhasználó igény szerint megkaphatja az alkalmazásának többgépes konfigurációját.

Az elsőként felmerülő nyilvánvaló kérdés, hogy mi a helyzet a teljesítménnyel? Nos, először is, a Cloud Application Hypervisor olyan fejlesztő- és tesztcsapatokat céloz meg, amelyeknél a teljesítmény nem kritikus tényező.

Másodszor, az ilyen beágyazott fészkelő babák teljesítménytesztjének eredményei nem olyan rossz eredményeket mutatnak:

A HVX technológia iránt érdeklődők számára van egy jó áttekintő videó oroszul:


Címkék: Rovello, Nested Virtualization, Cloud, HVX, VMware, ESXi, KVM, Xen, VMachines, Amazon, Rackspace

Az RHEV 3.0 nyílt virtualizációs platform új verziója a Red Ha Enterprise Linux 6-os verzióján és hagyományosan a KVM hypervisoron alapul.

A Red Hat Enterprise Virtualization 3.0 új funkciói:

  • A Red Hat Enterprise Virtualization Manager felügyeleti eszköze immár Java alapú, JBoss platformon fut (korábban .NET volt használatban, ennek megfelelően Windowshoz volt kötve, most már Linuxot is használhatunk a felügyeleti szerverhez).
  • Önkiszolgáló portál a felhasználók számára a virtuális gépek önálló üzembe helyezéséhez, sablonok létrehozásához és saját környezeteik adminisztrálásához.
  • Új RESTful API, amely hozzáférést biztosít a megoldás összes összetevőjéhez harmadik féltől származó alkalmazásokból.
  • Speciális adminisztrációs mechanizmus, amely lehetővé teszi az engedélyek részletes kiosztását, a felhasználói szerepkörök alapján történő jogosultság delegálását és a jogosultságok hierarchikus kezelését.
  • Támogatja a helyi szerverlemezeket a virtuális gépek tárolójaként (de a Live Migration nem támogatott ezeken).
  • Integrált jelentéskészítő motor, amely elemzi a korábbi teljesítményadatokat és előrejelzi a virtuális infrastruktúra fejlődését.
  • WAN-kapcsolatokhoz optimalizálva, beleértve a dinamikus tömörítési technológiákat, valamint az asztali effektusok és a színmélység automatikus beállítását. Ezenkívül a SPICE új verziója fokozottan támogatja a Linux vendégasztalokat.
  • Frissített KVM hypervisor a 2011 májusában kiadott legújabb Red Hat Enterprise Linux 6.1-en alapul.
  • Akár 160 logikai CPU-t és 2 TB memóriát támogat gazdaszerverekhez, 64 vCPU-t és 512 GB memóriát virtuális gépekhez.
  • Új lehetőségek az RHEV 3.0 nagy telepítéseinek adminisztrációjában.
  • Támogatás a nagy oldalak memóriájához (Transparant Huge Pages, 2 MB 4 KB helyett) vendég operációs rendszerekben, ami az olvasások számának csökkentésével javítja a teljesítményt.
  • A vhost-net komponens optimalizálása. Most a KVM hálózati verem felhasználói módból kernel módba került, ami jelentősen növeli a teljesítményt és csökkenti a hálózati késleltetést.
  • A hypervisor biztonságot nyújtó sVirt könyvtár funkcióinak használata.
  • Megjelent a paravirtualizált x2paic vezérlő, amely csökkenti a virtuális gép tartalmának többletköltségét (főleg intenzív terhelés esetén).
  • Async-IO technológia az I/O optimalizálásához és a teljesítmény javításához.

A Red Hat Enterprise Virtualization 3.0 végleges kiadását erről a linkről töltheti le.

És végül egy rövid videó áttekintés a Red Hat Enterprise Virtualization Manager 3.0-ról (RHEV-M):


Címkék: Red Hat, Enterprise, Update, KVM, Linux

Jó NetApp! Roman, várjuk az orosz nyelvű fordítást)


Címkék: Red Hat, KVM, NetApp, Storage, NFS

A ConVirt 2.0 nyílt forráskódú lehetővé teszi az ingyenes és kereskedelmi Linux disztribúciókban található Xen és KVM hipervizorok kezelését, a virtuális szerverek sablonokból történő telepítését, a teljesítmény figyelését, a rendszergazdai feladatok automatizálását és a virtuális infrastruktúra minden aspektusának konfigurálását. A ConVirt 2.0 támogatja a virtuális gépek forró migrációját, a "vékony" virtuális lemezeket (amelyek megtelnek az adatokkal), a virtuális gép erőforrásainak vezérlését (beleértve a futást is), a kiterjedt megfigyelési funkciókat és a virtuális gépek intelligens elhelyezését a gazdagépen (kézi) terhelés elosztás).

A ConVirt 2.0 továbbra is csak a nyílt forráskódú kiadásban létezik, azonban a fejlesztők azt ígérik, hogy hamarosan kiadják a ConVirt 2.0 Enteprise kiadást, amely a következő funkciókban fog eltérni az ingyenes kiadástól:

FunkcióConVirt 2.0
Nyílt forráskód
ConVirt 2.0 Enterprise

Építészet
Többplatformos támogatás
Ügynök nélküli építészet
Univerzális webelérés
Adatközpont egészére kiterjedő konzol

Adminisztráció
Indítás, Leállítás, Szünet, Folytatás
Karbantartási mód
Pillanatkép
Módosítsa az erőforrás-kiosztást egy futó virtuális gépen

Monitoring
Valós idejű adatok
Történelmi információk
Szerver medencék
Tárolómedencék
Figyelmeztetések és értesítések

Ellátás
Sablon alapú kiépítés
Sablontár
Integrált virtuális készülékkatalógusok
Vékony ellátás
Ütemezett kiépítés

Automatizálás
Intelligens virtuális gép elhelyezés
Élő migráció
Host Private Networking
SAN, NAS tárolási támogatás

Fejlett automatizálás
Magas rendelkezésre állás
Biztonsági mentés és helyreállítás
VLAN beállítás
Tárolási automatizálás
Dinamikus erőforrás-elosztás
Energiatakarékos üzemmód

Biztonság
SSH hozzáférés
Többfelhasználós adminisztráció
Auditálás
Finom szemcsés hozzáférés-szabályozás

Integráció
Nyissa meg a Repository-t
Parancssori interfész
Programozott API

Címkék: Xen, KVM, Convirt, Citrix, Red Hat, ingyenes, nyílt forráskódú,

A közelmúltban megjelent Convirture, a 2007-es XenMan GUI a XEN hypervisor kezelésére ingyenes Convirture ConVirt 1.0, amely XenMan-ra változtatta a nevét.

A ConVirt segítségével a következő szolgáltatásokkal kezelheti a Xen és KVM hipervizorokat:

  • Több hoszt szerver kezelése.
  • Pillanatképek (pillanatképek).
  • Virtuális gépek élő migrációja a gazdagépek között.
  • VM biztonsági mentés.
  • A gazdagépek és virtuális gépek legegyszerűbb megfigyelése.
  • Virtuális modulok (virtuális készülékek) támogatása.

A Convirture ConVirt 1.0 letölthető erről a linkről:

Convirture ConVirt 1.0
Címkék: Xen, KVM

Ubuntu esetén a KVM hypervisor (virtuális gépkezelő) és a libvirt használata javasolt felügyeleti eszközként. A Libvirt szoftveres API-k és egyedi virtuális gépek (VM) felügyeleti alkalmazásainak készletét tartalmazza a virt-manager (grafikus felület, GUI) vagy a virsh (parancssor, CLI). Alternatív kezelőként használhatja a convirt (GUI) vagy a convirt2-t (WEB interfész).

Jelenleg csak a KVM hypervisort támogatja hivatalosan az Ubuntu. Ez a hipervizor a Linux operációs rendszer kernelkódjának része. A Xen-nel ellentétben a KVM nem támogatja a paravirtualizációt, ami azt jelenti, hogy használatához a CPU-nak támogatnia kell a VT-technológiákat. Ellenőrizheti, hogy processzora támogatja-e ezt a technológiát, ha futtatja a parancsot egy terminálon:

Ha ennek eredményeként üzenetet kap:

INFO: / dev / kvm létezik KVM gyorsítás használható

akkor a KVM gond nélkül fog működni.

Ha üzenetet kap a kimeneten:

A CPU nem támogatja a KVM-bővítményeket. A KVM-gyorsítás NEM használható

akkor még használhatod a virtuális gépet, de sokkal lassabb lesz.

    Telepítse a 64 bites rendszereket vendégként

    Rendeljen több mint 2 GB RAM-ot a vendégrendszerekhez

Telepítés

Sudo apt-get install qemu-kvm libvirt-bin ubuntu-vm-builder bridge-utils

Ez egy Xs nélküli szerverre történő telepítés, azaz nem tartalmaz grafikus felületet. paranccsal telepítheti

Sudo apt-get install virt-manager

Ezt követően megjelenik a "Virtual Machine Manager" menüpont, és nagy valószínűséggel minden működni fog. Ha bármilyen probléma merül fel, akkor el kell olvasnia az angol nyelvű wiki utasításait.

Vendég rendszer létrehozása

A vendégrendszer grafikus felülettel történő létrehozásának folyamata meglehetősen egyszerű.

De a szöveges mód leírható.

qcow2

A grafikus interfésszel rendelkező rendszer létrehozásakor javasolt vagy egy meglévő képfájlt kijelölni, vagy merevlemezként blokkolni az eszközt, vagy létrehozni egy új fájlt nyers (RAW) adatokkal. Ez azonban messze nem az egyetlen elérhető fájlformátum. A man qemu-img-ben felsorolt ​​lemeztípusok közül a qcow2 a legrugalmasabb és legmodernebb. Támogatja a pillanatfelvételeket, a titkosítást és a tömörítést. Új vendégrendszer létrehozása előtt létre kell hozni.

Qemu-img create -o előfoglalás = metaadatok -f qcow2 qcow2.img 20G

Ugyanez a qemu-img ember szerint a metaadatok előzetes kiosztása (-o preallocation = metadata) kezdetben kissé nagyobbá teszi a lemezt, de jobb teljesítményt nyújt, amikor a képnek növekednie kell. Valójában ebben az esetben ez a lehetőség elkerüli a csúnya hibát. A létrehozott kép kezdetben kevesebb mint egy megabájt helyet foglal el, és szükség szerint a megadott méretre nő. A vendég rendszernek azonnal látnia kell ezt a végleges megadott méretet, azonban a telepítés során láthatja a fájl tényleges méretét. Természetesen nem hajlandó 200 KB-os merevlemezre telepíteni. A hiba nem az Ubuntura jellemző, legalábbis az RHEL-ben megjelenik.

A kép típusa mellett a későbbiekben kiválasztható a csatolás módja – IDE, SCSI vagy Virtio Disk. A lemez alrendszer teljesítménye ettől a választástól függ. Egyértelműen helyes válasz nincs, a vendégrendszerhez rendelendő feladat alapján kell választani. Ha a vendégrendszert "látni" hozták létre, akkor bármelyik módszer megteszi. Általában általában az I / O jelenti a virtuális gép szűk keresztmetszetét, ezért egy nagy terhelésű rendszer létrehozásakor ezt a kérdést a lehető legfelelősebben kell kezelni.

Ezt a bejegyzést azért írom, hogy bemutassam egy virtuális gép lépésről lépésre történő telepítését és konfigurálását Linux alatt KVM alapú. Korábban már írtam a virtualizációról, ahol a csodálatosat használtam.

Most azzal a kérdéssel szembesülök, hogy béreljek-e egy jó szervert nagy mennyiségű RAM-mal és nagy merevlemezzel. De nem akarok projekteket közvetlenül a gazdagépen futtatni, ezért külön kis virtuális szerverekre fogom lehatárolni őket Linux operációs rendszerrel vagy docker konténerekkel (erről egy másik cikkben lesz szó).

Minden modern felhő hosting szolgáltatás ugyanezen az elven működik, pl. egy jó hardveren lévő hoster felállít egy csomó virtuális szervert, amiket korábban VPS/VDS-nek hívtunk, és szétosztja a felhasználók között, vagy automatizálja ezt a folyamatot (hello, DigitalOcean).

A KVM (kernel-alapú virtuális gép) egy Linux-szoftver, amely x86-kompatibilis processzorhardvert használ az Intel VT / AMD SVM virtualizációs technológiájának futtatásához.

KVM telepítése

Minden csalást végrehajtok, hogy virtuális gépet hozzak létre az Ubuntu 16.04.1 LTS-en. Ha ellenőrizni szeretné, hogy folyamatai támogatják-e az Intel VT / AMD SVM alapú hardvervirtualizációt, futtassa a következőt:

Grep -E "(vmx | svm)" / proc / cpuinfo

Ha a terminál nem üres, akkor minden rendben van, és telepíthető a KVM. Az Ubuntu hivatalosan csak a KVM hypervisort támogatja (amely a Linux kernelben található), és a libvirt könyvtár felügyeleti eszközként való használatát javasolja, amit a továbbiakban meg fogunk tenni.

Az Ubuntu hardveres virtualizációjának támogatását a következő paranccsal is ellenőrizheti:

Ha sikeres, valami ehhez hasonlót fog látni:

INFO: / dev / kvm létezik KVM gyorsítás használható

Telepítsen csomagokat a KVM-mel való munkához:

Sudo apt-get install qemu-kvm libvirt-bin ubuntu-vm-builder bridge-utils

Ha hozzáfér a rendszer grafikus héjához, akkor telepítheti a libvirt GUI kezelőt:

Sudo apt-get install virt-manager

A virt-manager használata meglehetősen egyszerű (nem bonyolultabb, mint a VirtualBox), ezért ez a cikk a virtuális szerver telepítésének és konfigurálásának konzolos verziójára összpontosít.

Virtuális szerver telepítése és konfigurálása

A telepítés, konfiguráció és rendszerkezelés konzolos verziójában a virsh segédprogram (a libvirt könyvtár kiegészítője) nélkülözhetetlen eszköz. Számos opcióval és paraméterrel rendelkezik, részletes leírása a következőképpen érhető el:

Man virsh

vagy hívja a szokásos "súgót":

Virsh segítség

A virtuális szerverekkel való munka során mindig betartom a következő szabályokat:

  1. Az operációs rendszer ISO-képeit a / var / lib / libvirt / boot könyvtárban tárolom
  2. A virtuális gép képeit a / var / lib / libvirt / images könyvtárban tárolom
  3. Minden új virtuális géphez kifejezetten hozzárendelem a saját statikus IP-címét a hypervisor DHCP-kiszolgálóján keresztül.

Kezdjük el telepíteni az első virtuális gépet (64 bites Ubuntu 16.04 LTS szerver):

Cd / var / lib / libvirt / boot sudo wget http://releases.ubuntu.com/16.04/ubuntu-16.04.1-desktop-amd64.iso

A kép letöltése után indítsa el a telepítést:

Sudo virt-install \ --virt-type = kvm \ --name ubuntu1604 \ --ram 1024 \ --vcpus = 1 \ --os-variant = ubuntu16.04 \ --hvm \ --cdrom = / var / lib / libvirt / boot / ubuntu-16.04.1-server-amd64.iso \ --network network = alapértelmezett, modell = virtio \ --graphics vnc \ --disk path = / var / lib / libvirt / images / ubuntu1604. img, méret = 20, busz = virtio

Mindezeket a paramétereket "emberi nyelvre" lefordítva kiderül, hogy egy virtuális gépet hozunk létre Ubuntu 16.04 operációs rendszerrel, 1024 MB RAM-mal, 1 processzorral, szabványos hálózati kártyával (a virtuális gép úgy megy az internetre, mintha NAT), 20 GB HDD.

Érdemes odafigyelni a paraméterre --os-változat, megmondja a hypervisornak, hogy melyik operációs rendszerhez kell igazítani a beállításokat.
Az elérhető operációs rendszer opciók listája a következő parancs futtatásával érhető el:

Osinfo-query os

Ha nincs ilyen segédprogram a rendszerben, akkor telepítse:

Sudo apt-get install libosinfo-bin

A telepítés elindítása után a következő üzenet jelenik meg a konzolon:

A domain telepítése még folyamatban van. A telepítési folyamat befejezéséhez újra csatlakozhat a konzolhoz.

Ez normális helyzet, a telepítést VNC-n keresztül folytatjuk.
Megnézzük, hogy melyik portot emelték ki a virtuális gépünkről (például a szomszédos terminálon):

Virsh dumpxml ubuntu1604 ... ...

5900-as port, a 127.0.0.1 helyi címen. A VNC-hez való csatlakozáshoz az ssh-n keresztüli porttovábbítást kell használnia. Mielőtt ezt megtenné, győződjön meg arról, hogy a tcp továbbítás engedélyezve van az ssh démonon. Ehhez lépjen az sshd beállításokhoz:

Cat / etc / ssh / sshd_config | grep AllowTcpForwarding

Ha nem talált semmit, vagy látja:

TcpForwarding engedélyezése sz

Ezután szerkesztjük a konfigurációt

TcpForwarding engedélyezése igen

és indítsa újra az sshd-t.

Port továbbítás beállítása

A helyi gépen végrehajtjuk a következő parancsot:

Ssh -fN -l bejelentkezés -L 127.0.0.1:5900:localhost:5900 szerver_ip

Itt konfiguráltuk az ssh port továbbítását az 5900-as helyi portról a szerver 5900-as portjára. Mostantól bármely VNC kliens segítségével csatlakozhat VNC-hez. Az UltraVNC-t jobban szeretem egyszerűsége és kényelme miatt.

Sikeres csatlakozás után a képernyőn megjelenik egy normál üdvözlőképernyő az Ubuntu telepítésének megkezdéséhez:

A telepítés befejezése és a szokásos újraindítás után megjelenik a bejelentkezési ablak. Bejelentkezés után meghatározzuk az újonnan készült virtuális gép IP-címét, hogy később statikussá tegyük:

Ifconfig

Emlékezünk és megyünk a fogadó géphez. Kivesszük a virtuális gép "hálózati" kártyájának mac-címét:

Virsh dumpxml ubuntu1604 | grep "mac cím"

Emlékszünk a Mac-címünkre:

A hypervisor hálózati beállításainak szerkesztése:

Sudo virsh net-edit alapértelmezett

DHCP-t keresünk, és ezt adjuk hozzá:

Valami ilyesmivel kell végeznie:

A beállítások életbe léptetéséhez újra kell indítani a hypervisor DHCP-kiszolgálót:

Sudo virsh net-destroy alapértelmezett sudo virsh net-start alapértelmezett sudo szolgáltatás libvirt-bin újraindítás

Ezt követően újraindítjuk a virtuális gépet, most már mindig a hozzárendelt IP-cím lesz - 192.168.122.131.

Más módon is beállíthat statikus IP-címet a virtuális gépen, például a hálózati beállítások közvetlen szerkesztésével a vendégrendszeren belül, de itt úgy van, ahogy a szíve kívánja. Csak azt a lehetőséget mutattam meg, amelyet én magam szívesebben használok.

A virtuális gép termináljához való csatlakozáshoz futtassa:

Ssh 192.168.122.131

A jármű készen áll a harcra.

Virsh: parancslista

A futó virtuális gazdagépek megtekintéséhez (az összes elérhetőt a --all hozzáadásával szerezheti be):

Sudo virsh lista

A gazdagépet újraindíthatja:

A Sudo virsh újraindítja a $ VM_NAME-t

Virtuális gép leállítása:

Sudo virsh stop $ VM_NAME

Leállítás végrehajtása:

A Sudo virsh megsemmisíti a $ VM_NAME dollárt

Sudo virsh start $ VM_NAME

Leválasztás:

Sudo virsh leállítás $ VM_NAME

Hozzáadás az automatikus indításhoz:

Sudo virsh autostart $ VM_NAME

Nagyon gyakran kell klónozni a rendszert, hogy a jövőben más virtuális operációs rendszerek kereteként használhassák, ehhez a virt-clone segédprogramot használják.

Virt-klón --help

Egy meglévő virtuális gépet klónoz, és megváltoztatja a gazdagépre érzékeny adatokat, például a Mac-címet. A klónban lévő jelszavak, fájlok és egyéb felhasználó-specifikus információk változatlanok maradnak. Ha az IP-címet manuálisan regisztrálták a klónozott virtuális gépen, akkor ütközés miatt problémák adódhatnak a klónhoz való SSH-hozzáféréssel (2 gazdagép azonos IP-címmel).

A virtuális gép VNC-n keresztüli telepítése mellett az X11Forwarding opció a virt-manager segédprogramon keresztül is lehetséges. Például Windowson használhatja ehhez az Xminget és a PuTTY-t.