Database Support Blog

  • Oracle Cloud
  • Exadata
  • Oracle Database
2025.08.05

ダウンタイムなしで実現するOracle Exadata Exascaleのオンラインスケーリング~リソースの拡張性を検証してみた

以前の記事では、Oracle Exadata Database Service on Exascale Infrastructure(エクサスケール。以下、ExaDB-XSと表記)の小規模利用やスモールスタートが可能であること、柔軟なスケーリングといった特徴とメリットについて紹介しました。

本記事ではExaDB-XSのスケーリングに焦点を当て、ストレージを含めた各ハードウェアリソースのオンラインスケーリング操作と検証結果をご紹介します。

検証環境

今回検証を実施したExaDB-XSは以下の構成です。

ExaDB-XS
仮想マシンの数1
CPU数合計ECPU:8 ECPU
メモリー容量22 GB(2.75 × 8 GB)
ローカルストレージ220 GB
DBストレージ300 GB

これはスケーリングをする前の状態であり、このスペックからリソースがオンラインスケーリングできるかを確認します。

ExaDB-XSとOCIで提供されている他PaaSのスケーリング機能比較

ExaDB-XSの位置付けをより明確にするため、Oracle Cloud Infrastructure(以下、OCI)で提供されている他のPaaSサービス(Oracle Base Database Service(以下、BaseDB)およびOracle Exadata Database Service on Dedicated Infrastructure(以下、ExaDB-D))との比較表を示します。

BaseDB ExaDB-XS ExaDB-D
インフラストラクチャ 共有 専有
クラスタあたりの仮想マシン数 1~2 2~10 1~32
CPU 1~64(OCPU) 16~2000(ECPU) 4~4032(OCPU)
メモリー(GB) 8~1024 44~5500(2.75GB/ECPU) 720~44480
データベース 256(GB)~ 80(TB) 100(GB)~ 99(TB) 29(TB)~ 3242(TB)
データベース 712(GB)~ 100(TB) 300(GB)~ 100(TB) 73(TB)~ 4864(TB)
利用可能なDB数 1CDB
複数PDB
複数CDB
複数PDB
複数CDB
複数PDB
オンライン ストレージのみ CPU、VM数、ストレージ CPU、VM数、ストレージ

参考:Oracle Cloud Infrastructure 上で利用可能なOracle Databaseのサービスの比較(外部サイトに移動します)
https://speakerdeck.com/oracle4engineer/oracle-cloud-infrastructure-oracle-database-service-comparison

ExaDB-XSオンラインスケーリング検証:CPU・メモリー・ストレージ・ハードウェアの拡張性

ストレージを含めた各ハードウェアリソースのオンラインスケーリング操作と検証結果を示します。
オンラインでスケーリングができるかは、スケーリング前後で仮想マシンが停止もしくは再起動していないことを確認して、判断します。

仮想マシンの状態の判断には、以下のOSコマンドを用いて確認しました。

# 実行コマンド
uptime -s
→OSが起動した時刻を表示するコマンド

last -x shutdown
→OSシャットダウンの履歴を表示するコマンド

## 出力サンプル
[opc@demo-kka1-daeym ~]$ uptime -s
2025-07-24 17:25:52
[opc@demo-kka1-daeym ~]$ last -x shutdown
shutdown system down 5.4.17-2136.336. Thu Jul 24 17:21 - 17:22 (00:01)
shutdown system down 5.4.17-2136.336. Thu Jul 24 14:44 - 14:51 (00:07))
shutdown system down 5.4.17-2136.336. Thu Jul 24 09:13 - 09:14 (00:01)
shutdown system down 5.4.17-2136.336. Mon Feb 10 11:11 - 09:05 (163+21:53)

wtmp begins Mon Feb 10 11:05:02 2025

有効ECPU数のスケーリング

有効ECPU数のスケーリングが正しく動作したかは、仮想マシンの状態とOCIコンソール上の表示に加えて、DB上で認識されるコア数が指定した値に変更されることを確認して、判断します。

コア数の確認には以下のコマンドを用いて確認しました。

確認コマンド:show parameter cpu_count


今回は有効ECPU数を8から12に変更します。

検証結果

[oracle@demo-kka1-abhsn ~]$ uptime -s
2025-07-25 11:39:40

[oracle@demo-kka1-abhsn ~]$
[oracle@demo-kka1-abhsn ~]$
[oracle@demo-kka1-abhsn ~]$ sqlplus / as sysdba

SQL*Plus: Release 23.0.0.0.0 - for Oracle Cloud and Engineered Systems on Fri Jul 25 12:15:22 2025
Version 23.8.0.25.04

Copyright (c) 1982, 2025, Oracle. All rights reserved.

Connected to:
Oracle Database 23ai EE Extreme Perf Release 23.0.0.0.0 - for Oracle Cloud and Engineered Systems
Version 23.8.0.25.04

SQL> show parameter cpu_count

NAME TYPE VALUE
------------------------------------ ----------- ------------------------------
cpu_count string 4
SQL>
SQL>
SQL> show parameter cpu_count

NAME TYPE VALUE
------------------------------------ ----------- ------------------------------
cpu_count string 6
SQL>
SQL>
SQL> exit
Disconnected from Oracle Database 23ai EE Extreme Perf Release 23.0.0.0.0 - for Oracle Cloud and Engineered Systems
Version 23.8.0.25.04
[oracle@demo-kka1-abhsn ~]$
[oracle@demo-kka1-abhsn ~]$ uptime -s
2025-07-25 11:39:40


上記の結果で、cpu_count初期化パラメータが4から6になっていることがわかります。8ECPUはOCPU単位に換算すると2OCPUとなります。さらに1OCPUはvCPU単位に換算すると2vCPUであるため、8ECPUと12ECPUをvCPU換算するとそれぞれ4vCPUと6vCPUとなります。それぞれのCPU単位の比較表を以下に示します。

ECPU OCPU vCPU
8 ECPU 2OCPU 4vCPU
12 ECPU 3OCPU 6vCPU


仮想マシンの起動時刻は変化していないため、有効ECPU数はオンラインでスケーリングできることが確認できました。

合計ECPU数/メモリーのスケーリング

合計ECPU数およびメモリーのスケーリングが正しく動作したかは、仮想マシンの状態とOCIコンソール上の表示に加えて、OS上で認識されるメモリーが指定した値に変更されることを確認して判断します。
ExaDB-XSのメモリーは合計ECPU数に基づき算出されます。
メモリーの確認には以下のコマンドを用いて確認しました。

確認コマンド:free -m


今回は合計ECPU数を8から12に変更します。
メモリーは22(GB)から33(GB)に変更されることを確認します。(合計ECPU数×2.75で計算)

合計ECPUはローリングで再起動が発生するため、まず、仮想マシンが1台の状態で検証します。

検証結果

[oracle@demo-kka1-abhsn ~]$ uptime -s
2025/7/25 09:10
[oracle@demo-kka1-abhsn ~]$
[oracle@demo-kka1-abhsn ~]$ free -m
              total        used        free      shared  buff/cache   available
Mem:          21727       16415         520         585        4792        4060
Swap:         16383         209       16174
[oracle@demo-kka1-abhsn ~]$ [oracle@demo-kka1-abhsn ~]$ [oracle@demo-kka1-abhsn ~]$ watch -d -n 1 free -m Session terminated, killing shell...Connection to 10.0.XXX.XXX closed by remote host. Connection to 10.0.XXX.XXX closed. [opc@fukaya-jump ~]$ [opc@fukaya-jump ~]$ ssh -i XXXXXXXXXX.key opc@10.0.XXX.XXX Last login: Fri Jul 25 10:26:29 2025 from 10.0.XXX.XXX [opc@demo-kka1-abhsn ~]$ [opc@demo-kka1-abhsn ~]$ [opc@demo-kka1-abhsn ~]$ uptime -s 2025/7/25 11:39 [opc@demo-kka1-abhsn ~]$ [opc@demo-kka1-abhsn ~]$ [opc@demo-kka1-abhsn ~]$ sudo su - [root@demo-kka1-abhsn ~]# exit logout [opc@demo-kka1-abhsn ~]$ [opc@demo-kka1-abhsn ~]$ free -m total used free shared buff/cache available Mem: 32843 20471 9249 589 3122 10973 Swap: 16383 0 16383
[opc@demo-kka1-abhsn ~]$


上記の結果より、メモリーが22(GB)から33(GB)に変更されたことがわかります。仮想マシンが1台の場合は再起動が発生することがわかります。
冗長化構成ではないため、合計ECPU数のスケーリングにはシステム全体で停止する時間が発生しています。

次に、仮想マシンを2台に増やして検証します。
すでに合計ECPUが12のため、今回は合計ECPU数を12から8に変更します。
メモリーは33(GB)から22(GB)に変更されることを確認します。

検証結果
Node1

[opc@demo-kka1-abhsn ~]$ uptime -s
2025/7/25 14:12
[opc@demo-kka1-abhsn ~]$
[opc@demo-kka1-abhsn ~]$
[opc@demo-kka1-abhsn ~]$ free -m
              total        used        free      shared  buff/cache   available
Mem:          32843       19218       11090         589        2534       12253
Swap:         16383           0       16383
[opc@demo-kka1-abhsn ~]$
[opc@demo-kka1-abhsn ~]$
[opc@demo-kka1-abhsn ~]$ watch -d -n 1 free -m
Connection to 10.0.XXX.XXX closed by remote host.
Connection to 10.0.XXX.XXX closed.
[opc@fukaya-jump ~]$
[opc@fukaya-jump ~]$[opc@fukaya-jump ~]$ ssh -i XXXXXXXXXX.key opc@10.0.XXX.XXX
Last login: Fri Jul 25 14:14:25 2025 from 10.0.XXX.XXX
[opc@demo-kka1-abhsn ~]$
[opc@demo-kka1-abhsn ~]$
[opc@demo-kka1-abhsn ~]$ uptime -s
2025/7/25 14:21
[opc@demo-kka1-abhsn ~]$
[opc@demo-kka1-abhsn ~]$
[opc@demo-kka1-abhsn ~]$ free -m
              total        used        free      shared  buff/cache   available
Mem:          21687       11571        9152           7         963        9698
Swap:         16383           0       16383
[opc@demo-kka1-abhsn ~]$
[opc@demo-kka1-abhsn ~]$
[opc@demo-kka1-abhsn ~]$ last -x shutdown
shutdown system down  5.4.17-2136.336. Fri Jul 25 14:20 - 14:21  (00:01)
shutdown system down  5.4.17-2136.336. Fri Jul 25 14:02 - 14:13  (00:10)
shutdown system down  5.4.17-2136.336. Fri Jul 25 11:38 - 11:39  (00:01)
shutdown system down  5.4.17-2136.336. Fri Jul 25 09:09 - 09:10  (00:01)
shutdown system down  5.4.17-2136.336. Mon Feb 10 11:11 - 09:01 (164+21:49)
wtmp begins Mon Feb 10 11:05:02 2025
[opc@demo-kka1-abhsn ~]$


Node2

[opc@demo-kka2-dnbce ~]$ uptime -s
2025/7/25 14:10
[opc@demo-kka2-dnbce ~]$
[opc@demo-kka2-dnbce ~]$
[opc@demo-kka2-dnbce ~]$ free -m
              total        used        free      shared  buff/cache   available
Mem:          32845       20424        9680         589        2740       11031
Swap:         16383           0       16383
[opc@demo-kka2-dnbce ~]$
[opc@demo-kka2-dnbce ~]$
[opc@demo-kka2-dnbce ~]$ watch -d -n 1 free -m
Connection to 10.0.XXX.XXX closed by remote host.
Connection to 10.0.XXX.XXX closed.
[opc@fukaya-jump ~]$
[opc@fukaya-jump ~]$
[opc@fukaya-jump ~]$ ssh -i XXXXXXXXXX.key opc@10.0.XXX.XXX
Last login: Fri Jul 25 14:13:53 2025 from 10.0.XXX.XXX
[opc@demo-kka2-dnbce ~]$
[opc@demo-kka2-dnbce ~]$
[opc@demo-kka2-dnbce ~]$ uptime -s
2025/7/25 14:24
[opc@demo-kka2-dnbce ~]$
[opc@demo-kka2-dnbce ~]$
[opc@demo-kka2-dnbce ~]$ free -m
              total        used        free      shared  buff/cache   available
Mem:          21688       14994        4039         589        2654        5491
Swap:         16383           0       16383
[opc@demo-kka2-dnbce ~]$
[opc@demo-kka2-dnbce ~]$
[opc@demo-kka2-dnbce ~]$ last -x shutdown
shutdown system down  5.4.17-2136.336. Fri Jul 25 14:23 - 14:25  (00:01)
shutdown system down  5.4.17-2136.336. Fri Jul 25 14:05 - 14:11  (00:05)
shutdown system down  5.4.17-2136.336. Fri Jul 25 12:49 - 12:50  (00:00)
shutdown system down  5.4.17-2136.336. Mon Feb 10 11:11 - 12:43 (165+01:31)
wtmp begins Mon Feb 10 11:05:02 2025
[opc@demo-kka2-dnbce ~]$


上記の結果より、メモリーが33(GB)から22(GB)に変更されたことがわかります。仮想マシンが2台の場合には1台のときと異なり、ローリングで再起動することがわかります。
仮想マシンのNode1が14:21に再起動した後、Node2が14:23〜14:25の間で再起動しています。このように、クラスタ全体では止まることなく、オンラインでスケーリングできることが確認できました。

ローカルストレージのスケーリング

ローカルストレージのスケーリングが正しく動作したかは、仮想マシンの状態とOCIコンソール上の表示に加えて、OS上で認識されるディスク容量が指定した値に変更されることを確認して、判断します。
ディスク容量の確認には以下のコマンドを用いて確認しました。

確認コマンド:df -m


今回はローカルストレージの大きさを220(GB)から280(GB)に変更します。

検証結果

[opc@demo-kka1-abhsn ~]$ uptime -s
2025/7/25 09:10
[opc@demo-kka1-abhsn ~]$ df -m
Filesystem                                          1M-blocks  Used Available Use% Mounted on
devtmpfs                                                10724     0     10724   0% /dev
tmpfs                                                   10776     8     10769   1% /run
tmpfs                                                   10776     0     10776   0% /sys/fs/cgroup
/dev/mapper/VGExaDb-LVDbSys1                            15260  4890     10371  33% /
/dev/mapper/VGExaDbDisk.u01_Vmtibzm_1_7110-LVDBDisk     40860  3739     37122  10% /u01
/dev/mapper/VGExaDb-LVDbKdump                           20380   175     20206   1% /crashfiles
/dev/mapper/VGExaDb-LVDbVar1                             5020   928      4093  19% /var
/dev/sdc1                                                 412   118       295  29% /boot
/dev/mapper/VGExaDb-LVDbTmp                             10140   108     10033   2% /tmp
/dev/mapper/VGExaDbDisk.u02_extra.img-LVDBDisk          62184   771     58223   2% /u02
/dev/mapper/VGExaDb-LVDbHome                             4091    77      4015   2% /home
/dev/mapper/VGExaDb-LVDbVarLog                          18332   249     18084   2% /var/log
/dev/mapper/VGExaDb-LVDbVarLogAudit                      2972    68      2905   3% /var/log/audit
tmpfs                                                   21727     0     21727   0% /dev/shm
oracle_clusterware                                        128     6       123   5% /u01/app/grid/crsdata/demo-kka1-abhsn/shm
/dev/exc/vExdb62                                        51200   411     50790   1% /var/opt/oracle/dbaas_acfs
tmpfs                                                    2173     0      2173   0% /run/user/2000
tmpfs                                                    2173     0      2173   0% /run/user/0
[opc@demo-kka1-abhsn ~]$
[opc@demo-kka1-abhsn ~]$
[opc@demo-kka1-abhsn ~]$ watch -d -n 1 df -m
[opc@demo-kka1-abhsn ~]$
[opc@demo-kka1-abhsn ~]$
[opc@demo-kka1-abhsn ~]$ df -m
Filesystem                                          1M-blocks  Used Available Use% Mounted on
devtmpfs                                                10724     0     10724   0% /dev
tmpfs                                                   10776     8     10769   1% /run
tmpfs                                                   10776     0     10776   0% /sys/fs/cgroup
/dev/mapper/VGExaDb-LVDbSys1                            15260  4922     10339  33% /
/dev/mapper/VGExaDbDisk.u01_Vmtibzm_1_7110-LVDBDisk     40860  3739     37122  10% /u01
/dev/mapper/VGExaDb-LVDbKdump                           20380   175     20206   1% /crashfiles
/dev/mapper/VGExaDb-LVDbVar1                             5020   928      4093  19% /var
/dev/sdc1                                                 412   118       295  29% /boot
/dev/mapper/VGExaDb-LVDbTmp                             10140   108     10033   2% /tmp
/dev/mapper/VGExaDbDisk.u02_extra.img-LVDBDisk         122652   772    116233   1% /u02 ★←1M-blocksが約60GB増加している
/dev/mapper/VGExaDb-LVDbHome                             4091    77      4015   2% /home
/dev/mapper/VGExaDb-LVDbVarLog                          18332   250     18083   2% /var/log
/dev/mapper/VGExaDb-LVDbVarLogAudit                      2972    67      2906   3% /var/log/audit
tmpfs                                                   21727     0     21727   0% /dev/shm
oracle_clusterware                                        128     6       123   5% /u01/app/grid/crsdata/demo-kka1-abhsn/shm
/dev/exc/vExdb62                                        51200   411     50790   1% /var/opt/oracle/dbaas_acfs
tmpfs                                                    2173     0      2173   0% /run/user/2000
[opc@demo-kka1-abhsn ~]$ uptime -s
2025/7/25 09:10


上記の結果より、/u02配下が約60(GB)拡張されていることがわかります。
仮想マシンの起動時刻は変化していないため、ローカルストレージはオンラインでスケーリングできることが確認できました。

DBストレージ(DBボールト)のスケーリング

DBストレージのスケーリングが正しく動作したかは、仮想マシンの状態とOCIコンソール上の表示に加えて、DB上で認識されるストレージ容量が指定した値に変更されることを確認して、判断します。
ストレージ容量の確認には以下のコマンドを用いて確認しました。

確認コマンド
select
HC_SPACE_USED/1024/1024/1024/3 as "HC_SPACE_USED(GB)"
, HC_SPACE_PROV/1024/1024/1024/3 as "HC_SPACE_PROV(GB)"
from
V$EXA_VAULT
;


V$EXA_VAULT動的ディクショナリビューにDBストレージに関する情報が格納されています。ExaDB-XSのDBストレージは冗長構成が三重化されているため、算出された値を3で割ることでストレージの大きさを計算しています。
今回はDBストレージの大きさを300(GB)から330(GB)に変更します。

検証結果

[oracle@demo-kka1-abhsn ~]$ uptime -s
2025/7/25 09:10
[oracle@demo-kka1-abhsn ~]$
[oracle@demo-kka1-abhsn ~]$ sqlplus / as sysdba
SQL*Plus: Release 23.0.0.0.0 - for Oracle Cloud and Engineered Systems on Fri Jul 25 11:03:33 2025
Version 23.8.0.25.04
Copyright (c) 1982, 2025, Oracle.  All rights reserved.
Connected to:
Oracle Database 23ai EE Extreme Perf Release 23.0.0.0.0 - for Oracle Cloud and Engineered Systems
Version 23.8.0.25.04
SQL> select
  2     HC_SPACE_USED/1024/1024/1024/3 as "HC_SPACE_USED(GB)"
  3   , HC_SPACE_PROV/1024/1024/1024/3 as "HC_SPACE_PROV(GB)"
  4  from
  5     V$EXA_VAULT  6  ;
HC_SPACE_USED(GB) HC_SPACE_PROV(GB)
----------------- -----------------
       92.5225372               300
SQL>
SQL>
SQL> select
  2     HC_SPACE_USED/1024/1024/1024/3 as "HC_SPACE_USED(GB)"
  3   , HC_SPACE_PROV/1024/1024/1024/3 as "HC_SPACE_PROV(GB)"
  4  from
  5     V$EXA_VAULT
  6  ;
HC_SPACE_USED(GB) HC_SPACE_PROV(GB)
----------------- -----------------
       92.5225372               330
SQL>
SQL> exit
Disconnected from Oracle Database 23ai EE Extreme Perf Release 23.0.0.0.0 - for Oracle Cloud and Engineered Systems
Version 23.8.0.25.04
[oracle@demo-kka1-abhsn ~]$
[oracle@demo-kka1-abhsn ~]$ uptime -s
2025/7/25 09:10


上記の結果より、動的ビューの情報が更新されたことがわかります。
仮想マシンの起動時刻は変化していないため、DBストレージはオンラインでスケーリングできることが確認できました。

仮想マシン数のスケーリング

仮想マシンのスケーリングが正しく動作したかは、仮想マシンの状態とOCIコンソール上の表示に加えて、クラスタリソースに追加した仮想マシンが追加されることを確認して、判断します。
クラスタリソースの確認には以下のコマンドを用いて確認しました。

確認コマンド:crsctl stat res -t


今回は仮想マシンの数を1台から2台に変更します。

検証結果

[grid@demo-kka1-abhsn ~]$
[grid@demo-kka1-abhsn ~]$
[grid@demo-kka1-abhsn ~]$ uptime -s
2025/7/25 11:39
[grid@demo-kka1-abhsn ~]$
[grid@demo-kka1-abhsn ~]$
[grid@demo-kka1-abhsn ~]$ crsctl stat res -t
--------------------------------------------------------------------------------
Name           Target  State          Server                 State details
--------------------------------------------------------------------------------
Local Resources
--------------------------------------------------------------------------------
~~~割愛~~~
--------------------------------------------------------------------------------
[grid@demo-kka1-abhsn ~]$
[grid@demo-kka1-abhsn ~]$
[grid@demo-kka1-abhsn ~]$ watch -d -n 1 crsctl stat res -t
[grid@demo-kka1-abhsn ~]$
[grid@demo-kka1-abhsn ~]$
[grid@demo-kka1-abhsn ~]$ crsctl stat res -t
--------------------------------------------------------------------------------
Name           Target  State          Server                 State details
--------------------------------------------------------------------------------
Local Resources
--------------------------------------------------------------------------------
ora.LISTENER.lsnr
               ONLINE  ONLINE         demo-kka1-abhsn        STABLE
               ONLINE  ONLINE         demo-kka2-dnbce        STABLE
ora.acfsrm
               ONLINE  ONLINE         demo-kka1-abhsn        STABLE
               ONLINE  ONLINE         demo-kka2-dnbce        STABLE
ora.ccmb
               ONLINE  ONLINE         demo-kka1-abhsn        STABLE
               ONLINE  ONLINE         demo-kka2-dnbce        STABLE
ora.chad
               ONLINE  ONLINE         demo-kka1-abhsn        STABLE
               ONLINE  ONLINE         demo-kka2-dnbce        STABLE
ora.ejxmpmnc.vexdb62.acfs
               ONLINE  ONLINE         demo-kka1-abhsn        mounted on /var/opt/
                                                              oracle/dbaas_acfs,ST
                                                              ABLE
               ONLINE  ONLINE         demo-kka2-dnbce        mounted on /var/opt/
                                                              oracle/dbaas_acfs,ST
                                                              ABLE
ora.net1.network
               ONLINE  ONLINE         demo-kka1-abhsn        STABLE
               ONLINE  ONLINE         demo-kka2-dnbce        STABLE
ora.ons
               ONLINE  ONLINE         demo-kka1-abhsn        STABLE
               ONLINE  ONLINE         demo-kka2-dnbce        STABLE
--------------------------------------------------------------------------------
Cluster Resources
--------------------------------------------------------------------------------
ora.LISTENER_SCAN1.lsnr
      1        ONLINE  ONLINE         demo-kka2-dnbce        STABLE
ora.LISTENER_SCAN2.lsnr
      1        ONLINE  ONLINE         demo-kka1-abhsn        STABLE
ora.LISTENER_SCAN3.lsnr
      1        ONLINE  ONLINE         demo-kka1-abhsn        STABLE
ora.cdp1.cdp
      1        ONLINE  ONLINE         demo-kka2-dnbce        STABLE
ora.cdp2.cdp
      1        ONLINE  ONLINE         demo-kka1-abhsn        STABLE
ora.cdp3.cdp
      1        ONLINE  ONLINE         demo-kka1-abhsn        STABLE
ora.cvu
      1        ONLINE  ONLINE         demo-kka1-abhsn        STABLE
ora.demo-kka1-abhsn.vip
      1        ONLINE  ONLINE         demo-kka1-abhsn        STABLE
ora.demo-kka2-dnbce.vip
      1        ONLINE  ONLINE         demo-kka2-dnbce        STABLE
ora.scan1.vip
      1        ONLINE  ONLINE         demo-kka2-dnbce        STABLE
ora.scan2.vip
      1        ONLINE  ONLINE         demo-kka1-abhsn        STABLE
ora.scan3.vip
      1        ONLINE  ONLINE         demo-kka1-abhsn        STABLE
ora.testcdb_pjg_nrt.db
      1        ONLINE  ONLINE         demo-kka1-abhsn        Open,HOME=/u02/app/o
                                                              racle/product/23.0.0
                                                              .0/dbhome_1,STABLE
      2        ONLINE  ONLINE         demo-kka2-dnbce        Open,HOME=/u02/app/o
                                                              racle/product/23.0.0
                                                              .0/dbhome_1,STABLE
ora.testcdb_pjg_nrt.testcdb_testpdb.paas.oracle.com.svc
      1        ONLINE  ONLINE         demo-kka1-abhsn        STABLE
      2        ONLINE  ONLINE         demo-kka2-dnbce        STABLE
ora.testcdb_pjg_nrt.testpdb.pdb
      1        ONLINE  ONLINE         demo-kka1-abhsn        READ WRITE,STABLE
      2        ONLINE  ONLINE         demo-kka2-dnbce        READ WRITE,STABLE
--------------------------------------------------------------------------------
[grid@demo-kka1-abhsn ~]$
[grid@demo-kka1-abhsn ~]$
[grid@demo-kka1-abhsn ~]$ uptime -s
2025/7/25 11:39
[grid@demo-kka1-abhsn ~]


上記の結果より、Local ResourcesとCluster Resourcesともに、ノード2で正常に起動していることがわかります。
データベースの起動時刻も確認してみます。

SQL> alter session set nls_date_format = 'yyyy/mm/dd hh24:mi:ss';
Session altered.
SQL> select STARTUP_TIME from V$INSTANCE;
STARTUP_TIME
-------------------
2025/07/25 11:41:39


仮想マシンの起動時刻は変化していないことと、DBの起動時刻も仮想マシンの起動直後であることから、仮想マシンはオンラインでスケーリングできることがわかりました。

検証結果のまとめ

各リソースのスケーリングの結果とスケーリングにかかった時間を以下の表に示します。
検証結果を見ると、仮想マシンが1台の場合は合計ECPUのスケーリング時に再起動が発生することでシステム全体で停止時間が発生しました。
仮想マシンが2台以上であればローリングで再起動ができるため、合計ECPUのスケーリング時でもシステム全体でオンライン状態を維持できることがわかりました。

リソース 仮想マシン1台 仮想マシン2台 所要時間
有効ECPU オンライン オンライン 5分程度
合計ECPU 要再起動 オンライン 20分程度
ローカルストレージ オンライン オンライン 7分程度
DBストレージ オンライン オンライン 1分未満
仮想マシン オンライン オンライン 1時間程度

まとめ

今回はExaDB-XSのストレージを含めた各ハードウェアリソースのオンラインスケーリング操作の結果をご紹介しました。

結果は、仮想マシンの数が2台以上の場合は問題なくスケーリングできました。注意点として仮想マシン1台の場合、合計ECPU数のスケーリング時には停止時間が発生します。
ExaDB-XSのオンラインスケーリング機能は、ビジネスの成長に伴うリソース需要の変化に柔軟に対応できる優位性があります。そのため、スケーラブルな基盤を求めるシステムにとって、ExaDB-XSは非常に有望な選択肢と言えるでしょう。

今後もOracle Cloudの新機能をご紹介する予定です!










執筆者情報

ふかや けんじ プロフィール画像

2024年に中途入社。前職では主にOracleのオンプレミス環境の設計構築から運用保守と幅広い業務を経験。
現在はOCIのポストセールス業務を中心に担当。
趣味はパフェ巡り。



■本記事の内容について
 本記事に示した定義及び条件は変更される場合があります。あらかじめご了承ください。

■商標に関して
 ・Oracle®、Java、MySQL及びNetSuiteは、Oracle、その子会社及び関連会社の米国及びその他の国における登録商標です。
 ・Amazon Web Services、AWS、Powered by AWS ロゴ、[およびかかる資料で使用されるその他の AWS 商標] は、Amazon.com, Inc. またはその関連会社の商標です。
  文中の社名、商品名等は各社の商標または登録商標である場合があります。

関連している記事

  • Oracle Cloud
  • Oracle Database
2025.07.02

画像で解説!VMware HCXによるオンプレミスからOCVSへのスムーズな仮想マシン移行

本記事ではHCXを活用してオンプレミス環境にある仮想マシンをOracle Cloud VMware Solution(以下、OCVS)環境へスムーズに移行する方法を、操作画面を交えながらステップバイステップでご紹介します。

  • Oracle Cloud
  • Exadata
  • Oracle Database
2025.06.19

データ圧縮だけじゃない!HCCがOracle Exadata ExascaleにもたらすI/O削減とコストメリット

本記事でもExaDB-XSを利用するメリットをご紹介します。今回はデータベースのストレージ領域およびI/O削減効果のあるHybrid Columnar Compression(以下、HCC)に焦点を当て、オンプレミスと比較した際のコスト優位性をご紹介します。

  • Oracle Cloud
  • Exadata
  • Oracle Database
2025.05.01

Oracle Exadata Exascaleを検証してみた!OCI最新のPaaSサービスの優位性とは?

Exascaleがついに登場!Exadata Exascaleと標準的なPaaSサービスであるOracle Base Database Serviceをコストで比較するのに加え、簡易的なパフォーマンス比較もしながら、Exadata Exascaleの優位性を明らかにしていきます。

ページの先頭へ戻る