
- Oracle Cloud
- Oracle Database
画像で解説!VMware HCXによるオンプレミスからOCVSへのスムーズな仮想マシン移行
本記事ではHCXを活用してオンプレミス環境にある仮想マシンをOracle Cloud VMware Solution(以下、OCVS)環境へスムーズに移行する方法を、操作画面を交えながらステップバイステップでご紹介します。
|
以前の記事では、Oracle Exadata Database Service on Exascale Infrastructure(エクサスケール。以下、ExaDB-XSと表記)の小規模利用やスモールスタートが可能であること、柔軟なスケーリングといった特徴とメリットについて紹介しました。
本記事ではExaDB-XSのスケーリングに焦点を当て、ストレージを含めた各ハードウェアリソースのオンラインスケーリング操作と検証結果をご紹介します。
Index
今回検証を実施したExaDB-XSは以下の構成です。
ExaDB-XS | |
---|---|
仮想マシンの数 | 1 |
CPU数 | 合計ECPU:8 ECPU |
メモリー容量 | 22 GB(2.75 × 8 GB) |
ローカルストレージ | 220 GB |
DBストレージ | 300 GB |
これはスケーリングをする前の状態であり、このスペックからリソースがオンラインスケーリングできるかを確認します。
ExaDB-XSの位置付けをより明確にするため、Oracle Cloud Infrastructure(以下、OCI)で提供されている他のPaaSサービス(Oracle Base Database Service(以下、BaseDB)およびOracle Exadata Database Service on Dedicated Infrastructure(以下、ExaDB-D))との比較表を示します。
BaseDB | ExaDB-XS | ExaDB-D | |
---|---|---|---|
インフラストラクチャ | 共有 | 専有 | |
クラスタあたりの仮想マシン数 | 1~2 | 2~10 | 1~32 |
CPU | 1~64(OCPU) | 16~2000(ECPU) | 4~4032(OCPU) |
メモリー(GB) | 8~1024 | 44~5500(2.75GB/ECPU) | 720~44480 |
データベース | 256(GB)~ 80(TB) | 100(GB)~ 99(TB) | 29(TB)~ 3242(TB) |
データベース | 712(GB)~ 100(TB) | 300(GB)~ 100(TB) | 73(TB)~ 4864(TB) |
利用可能なDB数 | 1CDB 複数PDB |
複数CDB 複数PDB |
複数CDB 複数PDB |
オンライン | ストレージのみ | CPU、VM数、ストレージ | CPU、VM数、ストレージ |
参考:Oracle Cloud Infrastructure 上で利用可能なOracle Databaseのサービスの比較(外部サイトに移動します)
https://speakerdeck.com/oracle4engineer/oracle-cloud-infrastructure-oracle-database-service-comparison
ストレージを含めた各ハードウェアリソースのオンラインスケーリング操作と検証結果を示します。
オンラインでスケーリングができるかは、スケーリング前後で仮想マシンが停止もしくは再起動していないことを確認して、判断します。
仮想マシンの状態の判断には、以下のOSコマンドを用いて確認しました。
# 実行コマンド
uptime -s
→OSが起動した時刻を表示するコマンド
last -x shutdown
→OSシャットダウンの履歴を表示するコマンド
## 出力サンプル
[opc@demo-kka1-daeym ~]$ uptime -s
2025-07-24 17:25:52
[opc@demo-kka1-daeym ~]$ last -x shutdown
shutdown system down 5.4.17-2136.336. Thu Jul 24 17:21 - 17:22 (00:01)
shutdown system down 5.4.17-2136.336. Thu Jul 24 14:44 - 14:51 (00:07))
shutdown system down 5.4.17-2136.336. Thu Jul 24 09:13 - 09:14 (00:01)
shutdown system down 5.4.17-2136.336. Mon Feb 10 11:11 - 09:05 (163+21:53)
wtmp begins Mon Feb 10 11:05:02 2025
有効ECPU数のスケーリングが正しく動作したかは、仮想マシンの状態とOCIコンソール上の表示に加えて、DB上で認識されるコア数が指定した値に変更されることを確認して、判断します。
コア数の確認には以下のコマンドを用いて確認しました。
確認コマンド:show parameter cpu_count
今回は有効ECPU数を8から12に変更します。
検証結果
[oracle@demo-kka1-abhsn ~]$ uptime -s
2025-07-25 11:39:40
[oracle@demo-kka1-abhsn ~]$
[oracle@demo-kka1-abhsn ~]$
[oracle@demo-kka1-abhsn ~]$ sqlplus / as sysdba
SQL*Plus: Release 23.0.0.0.0 - for Oracle Cloud and Engineered Systems on Fri Jul 25 12:15:22 2025
Version 23.8.0.25.04
Copyright (c) 1982, 2025, Oracle. All rights reserved.
Connected to:
Oracle Database 23ai EE Extreme Perf Release 23.0.0.0.0 - for Oracle Cloud and Engineered Systems
Version 23.8.0.25.04
SQL> show parameter cpu_count
NAME TYPE VALUE
------------------------------------ ----------- ------------------------------
cpu_count string 4
SQL>
SQL>
SQL> show parameter cpu_count
NAME TYPE VALUE
------------------------------------ ----------- ------------------------------
cpu_count string 6
SQL>
SQL>
SQL> exit
Disconnected from Oracle Database 23ai EE Extreme Perf Release 23.0.0.0.0 - for Oracle Cloud and Engineered Systems
Version 23.8.0.25.04
[oracle@demo-kka1-abhsn ~]$
[oracle@demo-kka1-abhsn ~]$ uptime -s
2025-07-25 11:39:40
上記の結果で、cpu_count初期化パラメータが4から6になっていることがわかります。8ECPUはOCPU単位に換算すると2OCPUとなります。さらに1OCPUはvCPU単位に換算すると2vCPUであるため、8ECPUと12ECPUをvCPU換算するとそれぞれ4vCPUと6vCPUとなります。それぞれのCPU単位の比較表を以下に示します。
ECPU | OCPU | vCPU |
---|---|---|
8 ECPU | 2OCPU | 4vCPU |
12 ECPU | 3OCPU | 6vCPU |
仮想マシンの起動時刻は変化していないため、有効ECPU数はオンラインでスケーリングできることが確認できました。
合計ECPU数およびメモリーのスケーリングが正しく動作したかは、仮想マシンの状態とOCIコンソール上の表示に加えて、OS上で認識されるメモリーが指定した値に変更されることを確認して判断します。
ExaDB-XSのメモリーは合計ECPU数に基づき算出されます。
メモリーの確認には以下のコマンドを用いて確認しました。
確認コマンド:free -m
今回は合計ECPU数を8から12に変更します。
メモリーは22(GB)から33(GB)に変更されることを確認します。(合計ECPU数×2.75で計算)
合計ECPUはローリングで再起動が発生するため、まず、仮想マシンが1台の状態で検証します。
検証結果
[oracle@demo-kka1-abhsn ~]$ uptime -s 2025/7/25 09:10 [oracle@demo-kka1-abhsn ~]$ [oracle@demo-kka1-abhsn ~]$ free -m total used free shared buff/cache available Mem: 21727 16415 520 585 4792 4060 Swap: 16383 209 16174
[oracle@demo-kka1-abhsn ~]$ [oracle@demo-kka1-abhsn ~]$ [oracle@demo-kka1-abhsn ~]$ watch -d -n 1 free -m Session terminated, killing shell...Connection to 10.0.XXX.XXX closed by remote host. Connection to 10.0.XXX.XXX closed. [opc@fukaya-jump ~]$ [opc@fukaya-jump ~]$ ssh -i XXXXXXXXXX.key opc@10.0.XXX.XXX Last login: Fri Jul 25 10:26:29 2025 from 10.0.XXX.XXX [opc@demo-kka1-abhsn ~]$ [opc@demo-kka1-abhsn ~]$ [opc@demo-kka1-abhsn ~]$ uptime -s 2025/7/25 11:39 [opc@demo-kka1-abhsn ~]$ [opc@demo-kka1-abhsn ~]$ [opc@demo-kka1-abhsn ~]$ sudo su - [root@demo-kka1-abhsn ~]# exit logout [opc@demo-kka1-abhsn ~]$ [opc@demo-kka1-abhsn ~]$ free -m total used free shared buff/cache available Mem: 32843 20471 9249 589 3122 10973 Swap: 16383 0 16383
[opc@demo-kka1-abhsn ~]$
上記の結果より、メモリーが22(GB)から33(GB)に変更されたことがわかります。仮想マシンが1台の場合は再起動が発生することがわかります。
冗長化構成ではないため、合計ECPU数のスケーリングにはシステム全体で停止する時間が発生しています。
次に、仮想マシンを2台に増やして検証します。
すでに合計ECPUが12のため、今回は合計ECPU数を12から8に変更します。
メモリーは33(GB)から22(GB)に変更されることを確認します。
検証結果
Node1
[opc@demo-kka1-abhsn ~]$ uptime -s 2025/7/25 14:12 [opc@demo-kka1-abhsn ~]$ [opc@demo-kka1-abhsn ~]$ [opc@demo-kka1-abhsn ~]$ free -m total used free shared buff/cache available Mem: 32843 19218 11090 589 2534 12253 Swap: 16383 0 16383 [opc@demo-kka1-abhsn ~]$ [opc@demo-kka1-abhsn ~]$ [opc@demo-kka1-abhsn ~]$ watch -d -n 1 free -m Connection to 10.0.XXX.XXX closed by remote host. Connection to 10.0.XXX.XXX closed. [opc@fukaya-jump ~]$ [opc@fukaya-jump ~]$[opc@fukaya-jump ~]$ ssh -i XXXXXXXXXX.key opc@10.0.XXX.XXX Last login: Fri Jul 25 14:14:25 2025 from 10.0.XXX.XXX [opc@demo-kka1-abhsn ~]$ [opc@demo-kka1-abhsn ~]$ [opc@demo-kka1-abhsn ~]$ uptime -s 2025/7/25 14:21 [opc@demo-kka1-abhsn ~]$ [opc@demo-kka1-abhsn ~]$ [opc@demo-kka1-abhsn ~]$ free -m total used free shared buff/cache available Mem: 21687 11571 9152 7 963 9698 Swap: 16383 0 16383 [opc@demo-kka1-abhsn ~]$ [opc@demo-kka1-abhsn ~]$ [opc@demo-kka1-abhsn ~]$ last -x shutdown shutdown system down 5.4.17-2136.336. Fri Jul 25 14:20 - 14:21 (00:01) shutdown system down 5.4.17-2136.336. Fri Jul 25 14:02 - 14:13 (00:10) shutdown system down 5.4.17-2136.336. Fri Jul 25 11:38 - 11:39 (00:01) shutdown system down 5.4.17-2136.336. Fri Jul 25 09:09 - 09:10 (00:01) shutdown system down 5.4.17-2136.336. Mon Feb 10 11:11 - 09:01 (164+21:49) wtmp begins Mon Feb 10 11:05:02 2025 [opc@demo-kka1-abhsn ~]$
Node2
[opc@demo-kka2-dnbce ~]$ uptime -s 2025/7/25 14:10 [opc@demo-kka2-dnbce ~]$ [opc@demo-kka2-dnbce ~]$ [opc@demo-kka2-dnbce ~]$ free -m total used free shared buff/cache available Mem: 32845 20424 9680 589 2740 11031 Swap: 16383 0 16383 [opc@demo-kka2-dnbce ~]$ [opc@demo-kka2-dnbce ~]$ [opc@demo-kka2-dnbce ~]$ watch -d -n 1 free -m Connection to 10.0.XXX.XXX closed by remote host. Connection to 10.0.XXX.XXX closed. [opc@fukaya-jump ~]$ [opc@fukaya-jump ~]$ [opc@fukaya-jump ~]$ ssh -i XXXXXXXXXX.key opc@10.0.XXX.XXX Last login: Fri Jul 25 14:13:53 2025 from 10.0.XXX.XXX [opc@demo-kka2-dnbce ~]$ [opc@demo-kka2-dnbce ~]$ [opc@demo-kka2-dnbce ~]$ uptime -s 2025/7/25 14:24 [opc@demo-kka2-dnbce ~]$ [opc@demo-kka2-dnbce ~]$ [opc@demo-kka2-dnbce ~]$ free -m total used free shared buff/cache available Mem: 21688 14994 4039 589 2654 5491 Swap: 16383 0 16383 [opc@demo-kka2-dnbce ~]$ [opc@demo-kka2-dnbce ~]$ [opc@demo-kka2-dnbce ~]$ last -x shutdown shutdown system down 5.4.17-2136.336. Fri Jul 25 14:23 - 14:25 (00:01) shutdown system down 5.4.17-2136.336. Fri Jul 25 14:05 - 14:11 (00:05) shutdown system down 5.4.17-2136.336. Fri Jul 25 12:49 - 12:50 (00:00) shutdown system down 5.4.17-2136.336. Mon Feb 10 11:11 - 12:43 (165+01:31) wtmp begins Mon Feb 10 11:05:02 2025 [opc@demo-kka2-dnbce ~]$
上記の結果より、メモリーが33(GB)から22(GB)に変更されたことがわかります。仮想マシンが2台の場合には1台のときと異なり、ローリングで再起動することがわかります。
仮想マシンのNode1が14:21に再起動した後、Node2が14:23〜14:25の間で再起動しています。このように、クラスタ全体では止まることなく、オンラインでスケーリングできることが確認できました。
ローカルストレージのスケーリングが正しく動作したかは、仮想マシンの状態とOCIコンソール上の表示に加えて、OS上で認識されるディスク容量が指定した値に変更されることを確認して、判断します。
ディスク容量の確認には以下のコマンドを用いて確認しました。
確認コマンド:df -m
今回はローカルストレージの大きさを220(GB)から280(GB)に変更します。
検証結果
[opc@demo-kka1-abhsn ~]$ uptime -s 2025/7/25 09:10 [opc@demo-kka1-abhsn ~]$ df -m Filesystem 1M-blocks Used Available Use% Mounted on devtmpfs 10724 0 10724 0% /dev tmpfs 10776 8 10769 1% /run tmpfs 10776 0 10776 0% /sys/fs/cgroup /dev/mapper/VGExaDb-LVDbSys1 15260 4890 10371 33% / /dev/mapper/VGExaDbDisk.u01_Vmtibzm_1_7110-LVDBDisk 40860 3739 37122 10% /u01 /dev/mapper/VGExaDb-LVDbKdump 20380 175 20206 1% /crashfiles /dev/mapper/VGExaDb-LVDbVar1 5020 928 4093 19% /var /dev/sdc1 412 118 295 29% /boot /dev/mapper/VGExaDb-LVDbTmp 10140 108 10033 2% /tmp /dev/mapper/VGExaDbDisk.u02_extra.img-LVDBDisk 62184 771 58223 2% /u02 /dev/mapper/VGExaDb-LVDbHome 4091 77 4015 2% /home /dev/mapper/VGExaDb-LVDbVarLog 18332 249 18084 2% /var/log /dev/mapper/VGExaDb-LVDbVarLogAudit 2972 68 2905 3% /var/log/audit tmpfs 21727 0 21727 0% /dev/shm oracle_clusterware 128 6 123 5% /u01/app/grid/crsdata/demo-kka1-abhsn/shm /dev/exc/vExdb62 51200 411 50790 1% /var/opt/oracle/dbaas_acfs tmpfs 2173 0 2173 0% /run/user/2000 tmpfs 2173 0 2173 0% /run/user/0 [opc@demo-kka1-abhsn ~]$ [opc@demo-kka1-abhsn ~]$ [opc@demo-kka1-abhsn ~]$ watch -d -n 1 df -m [opc@demo-kka1-abhsn ~]$ [opc@demo-kka1-abhsn ~]$ [opc@demo-kka1-abhsn ~]$ df -m Filesystem 1M-blocks Used Available Use% Mounted on devtmpfs 10724 0 10724 0% /dev tmpfs 10776 8 10769 1% /run tmpfs 10776 0 10776 0% /sys/fs/cgroup /dev/mapper/VGExaDb-LVDbSys1 15260 4922 10339 33% / /dev/mapper/VGExaDbDisk.u01_Vmtibzm_1_7110-LVDBDisk 40860 3739 37122 10% /u01 /dev/mapper/VGExaDb-LVDbKdump 20380 175 20206 1% /crashfiles /dev/mapper/VGExaDb-LVDbVar1 5020 928 4093 19% /var /dev/sdc1 412 118 295 29% /boot /dev/mapper/VGExaDb-LVDbTmp 10140 108 10033 2% /tmp /dev/mapper/VGExaDbDisk.u02_extra.img-LVDBDisk 122652 772 116233 1% /u02 ★←1M-blocksが約60GB増加している /dev/mapper/VGExaDb-LVDbHome 4091 77 4015 2% /home /dev/mapper/VGExaDb-LVDbVarLog 18332 250 18083 2% /var/log /dev/mapper/VGExaDb-LVDbVarLogAudit 2972 67 2906 3% /var/log/audit tmpfs 21727 0 21727 0% /dev/shm oracle_clusterware 128 6 123 5% /u01/app/grid/crsdata/demo-kka1-abhsn/shm /dev/exc/vExdb62 51200 411 50790 1% /var/opt/oracle/dbaas_acfs tmpfs 2173 0 2173 0% /run/user/2000 [opc@demo-kka1-abhsn ~]$ uptime -s 2025/7/25 09:10
上記の結果より、/u02配下が約60(GB)拡張されていることがわかります。
仮想マシンの起動時刻は変化していないため、ローカルストレージはオンラインでスケーリングできることが確認できました。
DBストレージのスケーリングが正しく動作したかは、仮想マシンの状態とOCIコンソール上の表示に加えて、DB上で認識されるストレージ容量が指定した値に変更されることを確認して、判断します。
ストレージ容量の確認には以下のコマンドを用いて確認しました。
確認コマンド
select
HC_SPACE_USED/1024/1024/1024/3 as "HC_SPACE_USED(GB)"
, HC_SPACE_PROV/1024/1024/1024/3 as "HC_SPACE_PROV(GB)"
from
V$EXA_VAULT
;
V$EXA_VAULT動的ディクショナリビューにDBストレージに関する情報が格納されています。ExaDB-XSのDBストレージは冗長構成が三重化されているため、算出された値を3で割ることでストレージの大きさを計算しています。
今回はDBストレージの大きさを300(GB)から330(GB)に変更します。
検証結果
[oracle@demo-kka1-abhsn ~]$ uptime -s 2025/7/25 09:10 [oracle@demo-kka1-abhsn ~]$ [oracle@demo-kka1-abhsn ~]$ sqlplus / as sysdba SQL*Plus: Release 23.0.0.0.0 - for Oracle Cloud and Engineered Systems on Fri Jul 25 11:03:33 2025 Version 23.8.0.25.04 Copyright (c) 1982, 2025, Oracle. All rights reserved. Connected to: Oracle Database 23ai EE Extreme Perf Release 23.0.0.0.0 - for Oracle Cloud and Engineered Systems Version 23.8.0.25.04 SQL> select 2 HC_SPACE_USED/1024/1024/1024/3 as "HC_SPACE_USED(GB)" 3 , HC_SPACE_PROV/1024/1024/1024/3 as "HC_SPACE_PROV(GB)" 4 from 5 V$EXA_VAULT 6 ; HC_SPACE_USED(GB) HC_SPACE_PROV(GB) ----------------- ----------------- 92.5225372 300 SQL> SQL> SQL> select 2 HC_SPACE_USED/1024/1024/1024/3 as "HC_SPACE_USED(GB)" 3 , HC_SPACE_PROV/1024/1024/1024/3 as "HC_SPACE_PROV(GB)" 4 from 5 V$EXA_VAULT 6 ; HC_SPACE_USED(GB) HC_SPACE_PROV(GB) ----------------- ----------------- 92.5225372 330 SQL> SQL> exit Disconnected from Oracle Database 23ai EE Extreme Perf Release 23.0.0.0.0 - for Oracle Cloud and Engineered Systems Version 23.8.0.25.04 [oracle@demo-kka1-abhsn ~]$ [oracle@demo-kka1-abhsn ~]$ uptime -s 2025/7/25 09:10
上記の結果より、動的ビューの情報が更新されたことがわかります。
仮想マシンの起動時刻は変化していないため、DBストレージはオンラインでスケーリングできることが確認できました。
仮想マシンのスケーリングが正しく動作したかは、仮想マシンの状態とOCIコンソール上の表示に加えて、クラスタリソースに追加した仮想マシンが追加されることを確認して、判断します。
クラスタリソースの確認には以下のコマンドを用いて確認しました。
確認コマンド:crsctl stat res -t
今回は仮想マシンの数を1台から2台に変更します。
検証結果
[grid@demo-kka1-abhsn ~]$ [grid@demo-kka1-abhsn ~]$ [grid@demo-kka1-abhsn ~]$ uptime -s 2025/7/25 11:39 [grid@demo-kka1-abhsn ~]$ [grid@demo-kka1-abhsn ~]$ [grid@demo-kka1-abhsn ~]$ crsctl stat res -t -------------------------------------------------------------------------------- Name Target State Server State details -------------------------------------------------------------------------------- Local Resources -------------------------------------------------------------------------------- ~~~割愛~~~ -------------------------------------------------------------------------------- [grid@demo-kka1-abhsn ~]$ [grid@demo-kka1-abhsn ~]$ [grid@demo-kka1-abhsn ~]$ watch -d -n 1 crsctl stat res -t [grid@demo-kka1-abhsn ~]$ [grid@demo-kka1-abhsn ~]$ [grid@demo-kka1-abhsn ~]$ crsctl stat res -t -------------------------------------------------------------------------------- Name Target State Server State details -------------------------------------------------------------------------------- Local Resources -------------------------------------------------------------------------------- ora.LISTENER.lsnr ONLINE ONLINE demo-kka1-abhsn STABLE ONLINE ONLINE demo-kka2-dnbce STABLE ora.acfsrm ONLINE ONLINE demo-kka1-abhsn STABLE ONLINE ONLINE demo-kka2-dnbce STABLE ora.ccmb ONLINE ONLINE demo-kka1-abhsn STABLE ONLINE ONLINE demo-kka2-dnbce STABLE ora.chad ONLINE ONLINE demo-kka1-abhsn STABLE ONLINE ONLINE demo-kka2-dnbce STABLE ora.ejxmpmnc.vexdb62.acfs ONLINE ONLINE demo-kka1-abhsn mounted on /var/opt/ oracle/dbaas_acfs,ST ABLE ONLINE ONLINE demo-kka2-dnbce mounted on /var/opt/ oracle/dbaas_acfs,ST ABLE ora.net1.network ONLINE ONLINE demo-kka1-abhsn STABLE ONLINE ONLINE demo-kka2-dnbce STABLE ora.ons ONLINE ONLINE demo-kka1-abhsn STABLE ONLINE ONLINE demo-kka2-dnbce STABLE -------------------------------------------------------------------------------- Cluster Resources -------------------------------------------------------------------------------- ora.LISTENER_SCAN1.lsnr 1 ONLINE ONLINE demo-kka2-dnbce STABLE ora.LISTENER_SCAN2.lsnr 1 ONLINE ONLINE demo-kka1-abhsn STABLE ora.LISTENER_SCAN3.lsnr 1 ONLINE ONLINE demo-kka1-abhsn STABLE ora.cdp1.cdp 1 ONLINE ONLINE demo-kka2-dnbce STABLE ora.cdp2.cdp 1 ONLINE ONLINE demo-kka1-abhsn STABLE ora.cdp3.cdp 1 ONLINE ONLINE demo-kka1-abhsn STABLE ora.cvu 1 ONLINE ONLINE demo-kka1-abhsn STABLE ora.demo-kka1-abhsn.vip 1 ONLINE ONLINE demo-kka1-abhsn STABLE ora.demo-kka2-dnbce.vip 1 ONLINE ONLINE demo-kka2-dnbce STABLE ora.scan1.vip 1 ONLINE ONLINE demo-kka2-dnbce STABLE ora.scan2.vip 1 ONLINE ONLINE demo-kka1-abhsn STABLE ora.scan3.vip 1 ONLINE ONLINE demo-kka1-abhsn STABLE ora.testcdb_pjg_nrt.db 1 ONLINE ONLINE demo-kka1-abhsn Open,HOME=/u02/app/o racle/product/23.0.0 .0/dbhome_1,STABLE 2 ONLINE ONLINE demo-kka2-dnbce Open,HOME=/u02/app/o racle/product/23.0.0 .0/dbhome_1,STABLE ora.testcdb_pjg_nrt.testcdb_testpdb.paas.oracle.com.svc 1 ONLINE ONLINE demo-kka1-abhsn STABLE 2 ONLINE ONLINE demo-kka2-dnbce STABLE ora.testcdb_pjg_nrt.testpdb.pdb 1 ONLINE ONLINE demo-kka1-abhsn READ WRITE,STABLE 2 ONLINE ONLINE demo-kka2-dnbce READ WRITE,STABLE -------------------------------------------------------------------------------- [grid@demo-kka1-abhsn ~]$ [grid@demo-kka1-abhsn ~]$ [grid@demo-kka1-abhsn ~]$ uptime -s 2025/7/25 11:39 [grid@demo-kka1-abhsn ~]
上記の結果より、Local ResourcesとCluster Resourcesともに、ノード2で正常に起動していることがわかります。
データベースの起動時刻も確認してみます。
SQL> alter session set nls_date_format = 'yyyy/mm/dd hh24:mi:ss'; Session altered. SQL> select STARTUP_TIME from V$INSTANCE; STARTUP_TIME ------------------- 2025/07/25 11:41:39
仮想マシンの起動時刻は変化していないことと、DBの起動時刻も仮想マシンの起動直後であることから、仮想マシンはオンラインでスケーリングできることがわかりました。
各リソースのスケーリングの結果とスケーリングにかかった時間を以下の表に示します。
検証結果を見ると、仮想マシンが1台の場合は合計ECPUのスケーリング時に再起動が発生することでシステム全体で停止時間が発生しました。
仮想マシンが2台以上であればローリングで再起動ができるため、合計ECPUのスケーリング時でもシステム全体でオンライン状態を維持できることがわかりました。
リソース | 仮想マシン1台 | 仮想マシン2台 | 所要時間 |
---|---|---|---|
有効ECPU | オンライン | オンライン | 5分程度 |
合計ECPU | 要再起動 | オンライン | 20分程度 |
ローカルストレージ | オンライン | オンライン | 7分程度 |
DBストレージ | オンライン | オンライン | 1分未満 |
仮想マシン | オンライン | オンライン | 1時間程度 |
今回はExaDB-XSのストレージを含めた各ハードウェアリソースのオンラインスケーリング操作の結果をご紹介しました。
結果は、仮想マシンの数が2台以上の場合は問題なくスケーリングできました。注意点として仮想マシン1台の場合、合計ECPU数のスケーリング時には停止時間が発生します。
ExaDB-XSのオンラインスケーリング機能は、ビジネスの成長に伴うリソース需要の変化に柔軟に対応できる優位性があります。そのため、スケーラブルな基盤を求めるシステムにとって、ExaDB-XSは非常に有望な選択肢と言えるでしょう。
今後もOracle Cloudの新機能をご紹介する予定です!
![]() |
---|
■本記事の内容について
本記事に示した定義及び条件は変更される場合があります。あらかじめご了承ください。
■商標に関して
・Oracle®、Java、MySQL及びNetSuiteは、Oracle、その子会社及び関連会社の米国及びその他の国における登録商標です。
・Amazon Web Services、AWS、Powered by AWS ロゴ、[およびかかる資料で使用されるその他の AWS 商標] は、Amazon.com, Inc. またはその関連会社の商標です。
文中の社名、商品名等は各社の商標または登録商標である場合があります。
本記事ではHCXを活用してオンプレミス環境にある仮想マシンをOracle Cloud VMware Solution(以下、OCVS)環境へスムーズに移行する方法を、操作画面を交えながらステップバイステップでご紹介します。
本記事でもExaDB-XSを利用するメリットをご紹介します。今回はデータベースのストレージ領域およびI/O削減効果のあるHybrid Columnar Compression(以下、HCC)に焦点を当て、オンプレミスと比較した際のコスト優位性をご紹介します。
Exascaleがついに登場!Exadata Exascaleと標準的なPaaSサービスであるOracle Base Database Serviceをコストで比較するのに加え、簡易的なパフォーマンス比較もしながら、Exadata Exascaleの優位性を明らかにしていきます。