Treinamento Paralelo de Dados Distribuídos (DDP)
info
Beta
Este recurso está em Beta.
Esta página contém exemplos de Notebook para uso do treinamento Distributed Data Parallel (DDP) em GPU sem servidor compute. Esses exemplos demonstram como escalar o treinamento em várias GPUs e nós para desempenho melhorado.
treinamento de uma rede neural perceptron multicamadas (MLP) simples em dataset sintéticos usando DDP.
O seguinte Notebook demonstra o treinamento distribuído de um perceptron multicamadas (MLP) simples rede neural usando o módulo Distributed Data Parallel (DDP) do PyTorch no Databricks com recurso de GPU serverless .