はじめに: H100 GPU を使用したサーバレス GPU コンピュート
このノートブックでは、H100 アクセラレータでDatabricksサーバレス GPU コンピュートを使用する方法を説明します。 H100 GPU に接続し、 serverless_gpu Pythonライブラリを使用して分散ワークロードを実行する方法を学びます。
serverless_gpuライブラリを使用すると、 Databricksノートブックから直接 GPU ワークロードをシームレスに実行できます。 分散型GPUコンピューティングのためのデコレータとランタイムユーティリティを提供します。詳細については、レス GPU APIドキュメントを参照してください。
サーバレスGPUコンピュートに接続する
このノートブックを実行するには、H100 アクセラレータを備えたDatabricksサーバレス GPU コンピュートにアクセスする必要があります。
- コンピュート セレクターから [サーバ レス GPU] を選択します。
- 右側の「環境」タブで、アクセラレータとして H100を 選択してください。このオプションでは、1つのノード上に8個のH100チップを使用します。
- [適用] をクリックします。
より多くのリソースに拡張するためにリモートGPUをターゲットにする方法については、以下の「 Hello World」の 例を参照してください。
H100 GPUを使用するタイミング
A10シリーズと比較して、H100シリーズは1秒あたりの浮動小数点演算回数(FLOPS)と高帯域幅メモリ(HBM)の性能が向上しています。高スループットや大容量GPUメモリが必要な大規模モデルの トレーニング には、H100シリーズを使用してください。
GPU接続を確認する
nvidia-smiコマンドを使用して、8 基の H100 GPU に接続されていることを確認してください。このコマンドは、GPUのモデル、メモリ容量、使用率などの情報を表示します。
%sh nvidia-smi
Thu Jan 15 17:56:54 2026
+-----------------------------------------------------------------------------------------+
| NVIDIA-SMI 575.57.08 Driver Version: 575.57.08 CUDA Version: 12.9 |
|-----------------------------------------+------------------------+----------------------+
| GPU Name Persistence-M | Bus-Id Disp.A | Volatile Uncorr. ECC |
| Fan Temp Perf Pwr:Usage/Cap | Memory-Usage | GPU-Util Compute M. |
| | | MIG M. |
|=========================================+========================+======================|
| 0 NVIDIA H100 80GB HBM3 On | 00000000:53:00.0 Off | 0 |
| N/A 26C P0 70W / 700W | 0MiB / 81559MiB | 0% Default |
| | | Disabled |
+-----------------------------------------+------------------------+----------------------+
| 1 NVIDIA H100 80GB HBM3 On | 00000000:64:00.0 Off | 0 |
| N/A 28C P0 68W / 700W | 0MiB / 81559MiB | 0% Default |
| | | Disabled |
+-----------------------------------------+------------------------+----------------------+
| 2 NVIDIA H100 80GB HBM3 On | 00000000:75:00.0 Off | 0 |
| N/A 26C P0 71W / 700W | 0MiB / 81559MiB | 0% Default |
| | | Disabled |
+-----------------------------------------+------------------------+----------------------+
| 3 NVIDIA H100 80GB HBM3 On | 00000000:86:00.0 Off | 0 |
| N/A 29C P0 68W / 700W | 0MiB / 81559MiB | 0% Default |
| | | Disabled |
+-----------------------------------------+------------------------+----------------------+
| 4 NVIDIA H100 80GB HBM3 On | 00000000:97:00.0 Off | 0 |
| N/A 27C P0 67W / 700W | 0MiB / 81559MiB | 0% Default |
| | | Disabled |
+-----------------------------------------+------------------------+----------------------+
| 5 NVIDIA H100 80GB HBM3 On | 00000000:A8:00.0 Off | 0 |
| N/A 26C P0 67W / 700W | 0MiB / 81559MiB | 0% Default |
| | | Disabled |
+-----------------------------------------+------------------------+----------------------+
| 6 NVIDIA H100 80GB HBM3 On | 00000000:B9:00.0 Off | 0 |
| N/A 26C P0 69W / 700W | 0MiB / 81559MiB | 0% Default |
| | | Disabled |
+-----------------------------------------+------------------------+----------------------+
| 7 NVIDIA H100 80GB HBM3 On | 00000000:CA:00.0 Off | 0 |
| N/A 26C P0 67W / 700W | 0MiB / 81559MiB | 0% Default |
| | | Disabled |
+-----------------------------------------+------------------------+----------------------+
+-----------------------------------------------------------------------------------------+
| Processes: |
| GPU GI CI PID Type Process name GPU Memory |
| ID ID Usage |
|=========================================================================================|
| No running processes found |
+-----------------------------------------------------------------------------------------+
ハローワールドの例
この例では、 @distributedデコレータを使用して、複数の GPU に分散関数を実行する方法を示します。
下記の注釈付き関数は、ノートブックが接続されているノード上のGPUごとに1つずつ、合計8つのプロセスで起動されます。launchアノテーションはGPUの数を指定します。
この関数は、 runtimeモジュールを使用してローカルおよびグローバルGPUランクにアクセスします。
from serverless_gpu import distributed
from serverless_gpu import runtime as rt
@distributed(
gpus=8,
gpu_type='h100',
)
def hello_world(name: str) -> list[int]:
if rt.get_local_rank() == 0:
print('hello world', name)
return rt.get_global_rank()
result = hello_world.distributed('SGC')
assert result == [0, 1, 2, 3, 4, 5, 6, 7]
次のステップ
- サーバレス GPU コンピュートのベスト プラクティス
- サーバーレス GPU コンピュートの問題のトラブルシューティング
- マルチGPUおよびマルチノード分散トレーニング
- サーバーレス GPU APIドキュメント