分散データ並列(DDP)トレーニング
備考
ベータ版
この機能はベータ版です。
このページには、サーバレス GPU で分散データ並列 (DDP) トレーニングを使用するためのノートブックの例が含まれています コンピュート。 これらの例は、複数のGPUとノードにわたってトレーニングをスケールする方法を示しています。 パフォーマンスが向上しました。
DDP を使用して合成データセット上で単純な多層パーセプトロン (MLP) ニューラルネットワークをトレーニングします。
次のノートブックは、単純な多層パーセプトロン (MLP) の分散トレーニングを示しています。 サーバーレス GPU リソースを備えたDatabricks上のPyTorchの分散データ並列(DDP) モジュールを使用するニューラルネットワーク。