Lessons

Virtualization Concepts

Level: Intermediate Module: Virtualization & Containers 10 min read Lesson 54 of 66

Overview

  • What you’ll learn: The foundational concepts of virtualization, including hypervisor types, hardware-assisted virtualization, paravirtualization vs full virtualization, and how containers differ from virtual machines.
  • Prerequisites: Basic Linux system administration knowledge (Modules 1-3)
  • Estimated reading time: 18 minutes

Introduction

Virtualization is the technology that allows a single physical machine to run multiple isolated operating system instances simultaneously. It is one of the most transformative technologies in modern computing, enabling efficient resource utilization, rapid provisioning, and flexible infrastructure management. From enterprise data centers to cloud platforms like AWS, Azure, and GCP, virtualization is the foundation upon which modern IT infrastructure is built.

Before virtualization became mainstream, each application or service typically required its own dedicated physical server. This led to significant hardware underutilization, with most servers running at only 10-15% of their capacity. Virtualization solved this problem by abstracting the hardware layer, allowing multiple virtual machines to share a single physical host while maintaining complete isolation from one another.

In this lesson, we will explore the core concepts behind virtualization technology, examine the different types of hypervisors, understand hardware-assisted virtualization extensions provided by Intel and AMD, compare paravirtualization with full virtualization, and finally compare traditional virtual machines with the newer container-based approach to isolation.

Types of Hypervisors

A hypervisor (also called a Virtual Machine Monitor or VMM) is the software layer that creates and manages virtual machines. It sits between the physical hardware and the virtual machines, allocating resources and ensuring isolation. Hypervisors are classified into two types based on their architecture.

Type 1 Hypervisors (Bare-Metal)

Type 1 hypervisors run directly on the physical hardware without a host operating system. They have direct access to hardware resources, which provides superior performance and lower overhead. The hypervisor itself acts as a minimal operating system whose sole purpose is to manage virtual machines.

  • KVM (Kernel-based Virtual Machine): Built into the Linux kernel since version 2.6.20, KVM turns the Linux kernel itself into a Type 1 hypervisor. It leverages hardware virtualization extensions to provide near-native performance.
  • VMware ESXi: A commercial bare-metal hypervisor widely used in enterprise data centers. It provides advanced features like vMotion (live migration) and High Availability.
  • Microsoft Hyper-V: Microsoft’s hypervisor, available both as a standalone product and as a Windows Server role.
  • Xen: An open-source hypervisor originally developed at the University of Cambridge, used by AWS for its early EC2 infrastructure.

Type 2 Hypervisors (Hosted)

Type 2 hypervisors run as applications on top of an existing host operating system. They rely on the host OS to manage hardware access, which introduces additional overhead but provides ease of use for development and testing scenarios.

  • VirtualBox: An open-source Type 2 hypervisor from Oracle, popular for desktop virtualization and development environments.
  • VMware Workstation / Fusion: Commercial desktop virtualization products for Windows/Linux and macOS respectively.
  • QEMU (without KVM): When running without KVM acceleration, QEMU operates as a Type 2 hypervisor using software emulation.
# Check if your CPU supports hardware virtualization
$ egrep -c '(vmx|svm)' /proc/cpuinfo
8

# Check if KVM modules are loaded (Type 1 on Linux)
$ lsmod | grep kvm
kvm_intel            368640  0
kvm                 1028096  1 kvm_intel

# View KVM capabilities
$ cat /sys/module/kvm_intel/parameters/nested
Y

The command above checks for Intel VT-x (vmx) or AMD-V (svm) flags in the CPU information. A non-zero result means hardware virtualization is supported. The lsmod command verifies that the KVM kernel modules are loaded.

Hardware Virtualization Extensions

Modern CPUs include specialized instructions that enable efficient virtualization. Without these extensions, the hypervisor must use complex and slower software techniques to trap and emulate privileged instructions executed by guest operating systems.

Intel VT-x and AMD-V

Intel VT-x (Virtualization Technology for x86) and AMD-V (AMD Virtualization) provide hardware support for virtualizing the CPU. These extensions introduce a new privilege level specifically for hypervisors, allowing guest operating systems to execute most instructions directly on the CPU without intervention from the hypervisor.

  • Root mode: The hypervisor runs in VMX root mode with full control over the hardware.
  • Non-root mode: Guest VMs run in VMX non-root mode. Certain privileged operations trigger a VM exit, transferring control to the hypervisor.

Second Level Address Translation (SLAT)

Memory virtualization was initially handled through shadow page tables, which the hypervisor maintained by intercepting all guest page table modifications. Modern CPUs support SLAT through Intel EPT (Extended Page Tables) or AMD RVI (Rapid Virtualization Indexing), which provides hardware-assisted translation between guest physical addresses and host physical addresses.

# Verify Intel VT-x or AMD-V support
$ cat /proc/cpuinfo | grep -E 'vmx|svm' | head -1
flags : ... vmx ...

# Check BIOS/UEFI virtualization setting via dmesg
$ dmesg | grep -i 'virtualization'
[    0.204000] kvm: Nested Virtualization enabled
[    0.204001] kvm: Virtualization Technology (VT-x) enabled

# Verify Intel EPT support
$ cat /sys/module/kvm_intel/parameters/ept
Y

I/O Virtualization (VT-d / IOMMU)

Intel VT-d (Virtualization Technology for Directed I/O) and AMD IOMMU provide hardware-assisted I/O virtualization. These technologies allow virtual machines to have direct access to physical hardware devices (called PCI passthrough) with near-native performance, which is critical for workloads that require high-performance I/O such as GPU computing or network-intensive applications.

Paravirtualization vs Full Virtualization

Two fundamental approaches exist for handling the interaction between guest operating systems and the physical hardware: full virtualization and paravirtualization.

Full Virtualization

In full virtualization, the guest operating system runs unmodified, completely unaware that it is running inside a virtual machine. The hypervisor presents a complete virtual hardware platform that looks identical to real hardware. Binary translation or hardware-assisted virtualization is used to handle privileged instructions from the guest.

  • Advantage: No modification to the guest OS required; any operating system that supports the hardware architecture can run.
  • Disadvantage: Without hardware assistance, binary translation introduces overhead. With VT-x/AMD-V, this overhead is minimal.

Paravirtualization

In paravirtualization, the guest operating system is modified to be aware that it is running in a virtualized environment. Instead of executing privileged instructions directly, the guest uses hypercalls — special API calls to the hypervisor — to request operations like memory management or I/O. Xen pioneered this approach.

  • Advantage: Can be more efficient than full virtualization without hardware assistance, as hypercalls avoid the overhead of trapping and emulating instructions.
  • Disadvantage: Requires modifications to the guest OS kernel, which means proprietary operating systems cannot easily benefit.

Virtio: The Modern Compromise

Modern Linux virtualization uses virtio, a standardized interface for paravirtualized I/O devices. While the guest CPU runs in full virtualization mode using hardware extensions, I/O devices (disk, network, etc.) use paravirtualized virtio drivers for optimal performance.

# Check for virtio devices in a guest VM
$ lspci | grep -i virtio
00:03.0 Ethernet controller: Red Hat, Inc. Virtio network device
00:04.0 SCSI storage controller: Red Hat, Inc. Virtio block device

# View loaded virtio kernel modules
$ lsmod | grep virtio
virtio_net             65536  0
virtio_blk             20480  2
virtio_pci             28672  0
virtio_ring            36864  3 virtio_net,virtio_blk,virtio_pci
virtio                 20480  3 virtio_net,virtio_blk,virtio_pci

Containers vs Virtual Machines

While virtual machines provide hardware-level isolation by running complete operating system instances, containers offer a lighter-weight alternative by sharing the host kernel and isolating applications at the process level using Linux kernel features.

Virtual Machines

  • Run a complete guest OS with its own kernel
  • Strong isolation through hardware-level separation
  • Higher resource overhead (each VM needs its own memory, CPU allocation, kernel)
  • Boot time measured in seconds to minutes
  • Ideal for running different operating systems or when strong security isolation is required

Containers

  • Share the host kernel; only the user-space environment is isolated
  • Use Linux namespaces (pid, net, mnt, uts, ipc, user) for isolation
  • Use cgroups (control groups) for resource limiting (CPU, memory, I/O)
  • Minimal overhead; near-native performance
  • Start in milliseconds
  • Ideal for microservices, CI/CD, and application packaging
# View Linux namespaces for a process
$ ls -la /proc/self/ns/
lrwxrwxrwx 1 root root 0 Dec  1 10:00 cgroup -> 'cgroup:[4026531835]'
lrwxrwxrwx 1 root root 0 Dec  1 10:00 ipc -> 'ipc:[4026531839]'
lrwxrwxrwx 1 root root 0 Dec  1 10:00 mnt -> 'mnt:[4026531841]'
lrwxrwxrwx 1 root root 0 Dec  1 10:00 net -> 'net:[4026531840]'
lrwxrwxrwx 1 root root 0 Dec  1 10:00 pid -> 'pid:[4026531836]'
lrwxrwxrwx 1 root root 0 Dec  1 10:00 user -> 'user:[4026531837]'
lrwxrwxrwx 1 root root 0 Dec  1 10:00 uts -> 'uts:[4026531838]'

# View cgroup resource limits
$ cat /sys/fs/cgroup/memory/memory.limit_in_bytes
9223372036854771712

# Create a simple namespace isolation example
$ sudo unshare --fork --pid --mount-proc bash -c 'ps aux'
USER       PID %CPU %MEM    VSZ   RSS TTY      STAT START   TIME COMMAND
root         1  0.0  0.0   7236  4020 pts/0    S    10:00   0:00 bash

The unshare command demonstrates the PID namespace: inside the new namespace, the shell process appears as PID 1, completely isolated from the host’s process tree. This is the same mechanism that container runtimes use to isolate processes.

Key Takeaways

  • Type 1 (bare-metal) hypervisors like KVM run directly on hardware for maximum performance, while Type 2 (hosted) hypervisors like VirtualBox run on top of a host OS for convenience.
  • Intel VT-x and AMD-V provide hardware-assisted CPU virtualization, while EPT/RVI handle memory virtualization and VT-d/IOMMU enable direct I/O device access.
  • Full virtualization runs unmodified guest OSes, while paravirtualization uses hypercalls for better performance; modern Linux uses virtio as a hybrid approach for I/O.
  • Containers use Linux namespaces and cgroups to provide lightweight process-level isolation, sharing the host kernel rather than running a complete guest OS.
  • Virtual machines offer stronger isolation and support multiple OS types, while containers offer faster startup, lower overhead, and are ideal for microservices architectures.

What’s Next

In Lesson 55, you will learn about QEMU/KVM Virtual Machines, including how to create and manage virtual machines using QEMU with KVM acceleration, work with disk image formats, and configure CPU and memory allocation on Ubuntu.

繁體中文

概述

  • 學習目標:了解虛擬化的基礎概念,包括 Hypervisor 類型、硬體輔助虛擬化、半虛擬化與完全虛擬化的比較,以及容器與虛擬機器的區別。
  • 先決條件:基本的 Linux 系統管理知識(模組 1-3)
  • 預計閱讀時間:18 分鐘

簡介

虛擬化是一種允許單一實體機器同時執行多個隔離作業系統實例的技術。它是現代運算中最具變革性的技術之一,可實現高效的資源利用、快速佈建和靈活的基礎架構管理。從企業資料中心到 AWS、Azure 和 GCP 等雲端平台,虛擬化是現代 IT 基礎架構建構的基礎。

在虛擬化成為主流之前,每個應用程式或服務通常需要自己專用的實體伺服器。這導致了嚴重的硬體利用率不足,大多數伺服器僅以其容量的 10-15% 運行。虛擬化透過抽象化硬體層解決了這個問題,允許多個虛擬機器共享單一實體主機,同時保持彼此完全隔離。

在本課程中,我們將探討虛擬化技術背後的核心概念、檢視不同類型的 Hypervisor、了解 Intel 和 AMD 提供的硬體輔助虛擬化延伸功能、比較半虛擬化與完全虛擬化,最後比較傳統虛擬機器與較新的容器化隔離方法。

Hypervisor 類型

Hypervisor(也稱為虛擬機器監視器或 VMM)是建立和管理虛擬機器的軟體層。它位於實體硬體和虛擬機器之間,負責分配資源並確保隔離。根據架構,Hypervisor 分為兩種類型。

Type 1 Hypervisor(裸機型)

Type 1 Hypervisor 直接在實體硬體上運行,無需主機作業系統。它們可以直接存取硬體資源,提供更優異的效能和更低的開銷。

  • KVM:自 Linux 核心 2.6.20 版本起內建,KVM 將 Linux 核心本身變成 Type 1 Hypervisor。
  • VMware ESXi:廣泛用於企業資料中心的商用裸機 Hypervisor。
  • Microsoft Hyper-V:微軟的 Hypervisor,可作為獨立產品或 Windows Server 角色使用。
  • Xen:最初在劍橋大學開發的開源 Hypervisor,AWS 早期 EC2 基礎架構使用。

Type 2 Hypervisor(託管型)

Type 2 Hypervisor 作為應用程式在現有主機作業系統之上運行。它們依賴主機作業系統來管理硬體存取,這引入了額外的開銷,但為開發和測試場景提供了便利性。

  • VirtualBox:Oracle 的開源 Type 2 Hypervisor,廣泛用於桌面虛擬化和開發環境。
  • VMware Workstation / Fusion:分別用於 Windows/Linux 和 macOS 的商用桌面虛擬化產品。
  • QEMU(無 KVM):不使用 KVM 加速時,QEMU 使用軟體模擬作為 Type 2 Hypervisor 運行。
# 檢查 CPU 是否支援硬體虛擬化
$ egrep -c '(vmx|svm)' /proc/cpuinfo
8

# 檢查 KVM 模組是否已載入
$ lsmod | grep kvm
kvm_intel            368640  0
kvm                 1028096  1 kvm_intel

硬體虛擬化延伸功能

現代 CPU 包含專門的指令來實現高效的虛擬化。沒有這些延伸功能,Hypervisor 必須使用複雜且較慢的軟體技術來捕捉和模擬客戶作業系統執行的特權指令。

Intel VT-x 和 AMD-V

Intel VT-x 和 AMD-V 提供 CPU 虛擬化的硬體支援。這些延伸功能引入了專門為 Hypervisor 設計的新特權級別,允許客戶作業系統直接在 CPU 上執行大多數指令,無需 Hypervisor 干預。

第二級地址轉換(SLAT)

現代 CPU 透過 Intel EPT(延伸頁表)或 AMD RVI(快速虛擬化索引)支援 SLAT,提供客戶實體地址與主機實體地址之間的硬體輔助轉換。

# 驗證 Intel VT-x 或 AMD-V 支援
$ cat /proc/cpuinfo | grep -E 'vmx|svm' | head -1
flags : ... vmx ...

# 驗證 Intel EPT 支援
$ cat /sys/module/kvm_intel/parameters/ept
Y

半虛擬化與完全虛擬化

完全虛擬化

在完全虛擬化中,客戶作業系統以未修改的方式運行,完全不知道自己運行在虛擬機器中。Hypervisor 呈現一個看起來與真實硬體相同的完整虛擬硬體平台。

半虛擬化

在半虛擬化中,客戶作業系統被修改為意識到自己運行在虛擬化環境中。客戶使用超級呼叫(hypercall)而非直接執行特權指令,向 Hypervisor 請求記憶體管理或 I/O 等操作。

Virtio:現代折衷方案

現代 Linux 虛擬化使用 virtio,一種標準化的半虛擬化 I/O 裝置介面。客戶 CPU 使用硬體延伸功能以完全虛擬化模式運行,而 I/O 裝置(磁碟、網路等)使用半虛擬化的 virtio 驅動程式以獲得最佳效能。

# 在客戶 VM 中檢查 virtio 裝置
$ lspci | grep -i virtio
00:03.0 Ethernet controller: Red Hat, Inc. Virtio network device
00:04.0 SCSI storage controller: Red Hat, Inc. Virtio block device

容器與虛擬機器

虛擬機器

  • 運行具有自己核心的完整客戶作業系統
  • 透過硬體級別分離提供強大的隔離
  • 較高的資源開銷
  • 啟動時間以秒到分鐘計算
  • 適合運行不同作業系統或需要強安全隔離的場景

容器

  • 共享主機核心;僅隔離使用者空間環境
  • 使用 Linux 命名空間(pid、net、mnt、uts、ipc、user)進行隔離
  • 使用 cgroups(控制群組)進行資源限制
  • 最小開銷;接近原生效能
  • 毫秒級啟動
# 查看行程的 Linux 命名空間
$ ls -la /proc/self/ns/

# 使用 unshare 建立簡單的命名空間隔離
$ sudo unshare --fork --pid --mount-proc bash -c 'ps aux'
USER       PID %CPU %MEM    VSZ   RSS TTY      STAT START   TIME COMMAND
root         1  0.0  0.0   7236  4020 pts/0    S    10:00   0:00 bash

重點摘要

  • Type 1(裸機型)Hypervisor 如 KVM 直接在硬體上運行以獲得最佳效能,而 Type 2(託管型)Hypervisor 如 VirtualBox 在主機作業系統上運行以提供便利性。
  • Intel VT-x 和 AMD-V 提供硬體輔助 CPU 虛擬化,EPT/RVI 處理記憶體虛擬化,VT-d/IOMMU 支援直接 I/O 裝置存取。
  • 完全虛擬化運行未修改的客戶作業系統,半虛擬化使用超級呼叫以獲得更好的效能;現代 Linux 使用 virtio 作為 I/O 的混合方法。
  • 容器使用 Linux 命名空間和 cgroups 提供輕量級行程級別隔離,共享主機核心而非運行完整的客戶作業系統。
  • 虛擬機器提供更強的隔離並支援多種作業系統類型,容器則提供更快的啟動速度、更低的開銷,適合微服務架構。

下一步

在第 55 課中,您將學習 QEMU/KVM 虛擬機器,包括如何使用 QEMU 搭配 KVM 加速建立和管理虛擬機器、處理磁碟映像格式,以及在 Ubuntu 上設定 CPU 和記憶體分配。

日本語

概要

  • 学習内容:ハイパーバイザーの種類、ハードウェア支援仮想化、準仮想化と完全仮想化の比較、コンテナと仮想マシンの違いなど、仮想化の基本概念。
  • 前提条件:基本的な Linux システム管理知識(モジュール 1-3)
  • 推定読了時間:18分

はじめに

仮想化は、単一の物理マシンで複数の分離されたオペレーティングシステムインスタンスを同時に実行できる技術です。効率的なリソース利用、迅速なプロビジョニング、柔軟なインフラストラクチャ管理を可能にする、現代のコンピューティングにおける最も革新的な技術の一つです。企業のデータセンターから AWS、Azure、GCP などのクラウドプラットフォームまで、仮想化は現代の IT インフラストラクチャの基盤です。

仮想化が主流になる前は、各アプリケーションやサービスには専用の物理サーバーが必要でした。これにより深刻なハードウェアの過少利用が生じ、ほとんどのサーバーは容量の 10-15% でしか稼働していませんでした。仮想化はハードウェア層を抽象化することでこの問題を解決し、複数の仮想マシンが互いに完全に分離されたまま単一の物理ホストを共有できるようにしました。

このレッスンでは、仮想化技術の核心概念を探り、異なるタイプのハイパーバイザーを検証し、Intel と AMD が提供するハードウェア支援仮想化拡張機能を理解し、準仮想化と完全仮想化を比較し、最後に従来の仮想マシンとコンテナベースの分離アプローチを比較します。

ハイパーバイザーの種類

ハイパーバイザー(仮想マシンモニター/VMM とも呼ばれる)は、仮想マシンを作成・管理するソフトウェア層です。物理ハードウェアと仮想マシンの間に位置し、リソースの割り当てと分離の確保を行います。

Type 1 ハイパーバイザー(ベアメタル型)

Type 1 ハイパーバイザーは、ホストオペレーティングシステムなしで物理ハードウェア上で直接実行されます。ハードウェアリソースに直接アクセスでき、優れたパフォーマンスと低いオーバーヘッドを提供します。

  • KVM:Linux カーネル 2.6.20 以降に組み込まれており、Linux カーネル自体を Type 1 ハイパーバイザーに変換します。
  • VMware ESXi:企業データセンターで広く使用されている商用ベアメタルハイパーバイザー。
  • Microsoft Hyper-V:Microsoft のハイパーバイザー。スタンドアロン製品または Windows Server ロールとして利用可能。
  • Xen:ケンブリッジ大学で開発されたオープンソースハイパーバイザー。AWS の初期 EC2 インフラで使用。

Type 2 ハイパーバイザー(ホスト型)

Type 2 ハイパーバイザーは、既存のホストオペレーティングシステム上でアプリケーションとして実行されます。

  • VirtualBox:Oracle のオープンソース Type 2 ハイパーバイザー。
  • VMware Workstation / Fusion:商用デスクトップ仮想化製品。
  • QEMU(KVM なし):KVM アクセラレーションなしではソフトウェアエミュレーションを使用。
# CPU がハードウェア仮想化をサポートしているか確認
$ egrep -c '(vmx|svm)' /proc/cpuinfo
8

# KVM モジュールがロードされているか確認
$ lsmod | grep kvm
kvm_intel            368640  0
kvm                 1028096  1 kvm_intel

ハードウェア仮想化拡張機能

Intel VT-x と AMD-V

Intel VT-x と AMD-V は CPU 仮想化のハードウェアサポートを提供します。これらの拡張機能はハイパーバイザー専用の新しい特権レベルを導入し、ゲスト OS がハイパーバイザーの介入なしに CPU 上で直接ほとんどの命令を実行できるようにします。

第2レベルアドレス変換(SLAT)

現代の CPU は Intel EPT(拡張ページテーブル)または AMD RVI(高速仮想化インデックス)を通じて SLAT をサポートし、ゲスト物理アドレスとホスト物理アドレス間のハードウェア支援変換を提供します。

# Intel VT-x または AMD-V サポートを確認
$ cat /proc/cpuinfo | grep -E 'vmx|svm' | head -1

# Intel EPT サポートを確認
$ cat /sys/module/kvm_intel/parameters/ept
Y

準仮想化と完全仮想化

完全仮想化

完全仮想化では、ゲスト OS は変更されずに実行され、仮想マシン内で実行されていることを完全に認識しません。ハイパーバイザーは実際のハードウェアと同一に見える完全な仮想ハードウェアプラットフォームを提示します。

準仮想化

準仮想化では、ゲスト OS は仮想化環境で実行されていることを認識するように変更されます。特権命令を直接実行する代わりに、ゲストはハイパーコールを使用してハイパーバイザーに操作を要求します。

Virtio:現代の妥協点

現代の Linux 仮想化は、準仮想化 I/O デバイスの標準化インターフェースである virtio を使用します。ゲスト CPU はハードウェア拡張機能を使用して完全仮想化モードで実行され、I/O デバイスは最適なパフォーマンスのために準仮想化された virtio ドライバーを使用します。

# ゲスト VM で virtio デバイスを確認
$ lspci | grep -i virtio
00:03.0 Ethernet controller: Red Hat, Inc. Virtio network device
00:04.0 SCSI storage controller: Red Hat, Inc. Virtio block device

コンテナと仮想マシン

仮想マシン

  • 独自のカーネルを持つ完全なゲスト OS を実行
  • ハードウェアレベルの分離による強力なアイソレーション
  • 高いリソースオーバーヘッド
  • 起動時間は秒から分単位

コンテナ

  • ホストカーネルを共有し、ユーザー空間環境のみを分離
  • Linux 名前空間(pid、net、mnt、uts、ipc、user)による分離
  • cgroups(コントロールグループ)によるリソース制限
  • 最小限のオーバーヘッド;ほぼネイティブのパフォーマンス
  • ミリ秒単位で起動
# プロセスの Linux 名前空間を表示
$ ls -la /proc/self/ns/

# unshare で簡単な名前空間分離の例
$ sudo unshare --fork --pid --mount-proc bash -c 'ps aux'

重要ポイント

  • Type 1(ベアメタル型)ハイパーバイザー(KVM など)はハードウェア上で直接実行され最高のパフォーマンスを提供し、Type 2(ホスト型)ハイパーバイザー(VirtualBox など)はホスト OS 上で実行され利便性を提供します。
  • Intel VT-x と AMD-V はハードウェア支援 CPU 仮想化を提供し、EPT/RVI はメモリ仮想化を処理し、VT-d/IOMMU はダイレクト I/O デバイスアクセスを可能にします。
  • 完全仮想化は未変更のゲスト OS を実行し、準仮想化はハイパーコールを使用してパフォーマンスを向上させます。現代の Linux は I/O に virtio をハイブリッドアプローチとして使用します。
  • コンテナは Linux 名前空間と cgroups を使用して軽量なプロセスレベルの分離を提供し、完全なゲスト OS ではなくホストカーネルを共有します。
  • 仮想マシンはより強力な分離と複数の OS タイプをサポートし、コンテナはより高速な起動、低いオーバーヘッドを提供し、マイクロサービスアーキテクチャに最適です。

次のステップ

レッスン55では、QEMU/KVM 仮想マシンについて学びます。KVM アクセラレーションを使用した QEMU での仮想マシンの作成と管理、ディスクイメージフォーマットの操作、Ubuntu での CPU とメモリの割り当て設定について学びます。

You Missed