メインコンテンツまでスキップ

分散データ並列(DDP)トレーニング

備考

ベータ版

この機能はベータ版です。

このページには、サーバレス GPU で分散データ並列 (DDP) トレーニングを使用するためのノートブックの例が含まれています コンピュート。 これらの例は、複数のGPUとノードにわたってトレーニングをスケールする方法を示しています。 パフォーマンスが向上しました。

DDP を使用して合成データセット上で単純な多層パーセプトロン (MLP) ニューラルネットワークをトレーニングします。

次のノートブックは、単純な多層パーセプトロン (MLP) の分散トレーニングを示しています。 サーバーレス GPU リソースを備えたDatabricks上のPyTorchの分散データ並列(DDP) モジュールを使用するニューラルネットワーク。

Notebook

Open notebook in new tab