Comece agora: compute GPU sem servidor com GPUs H100
Este notebook demonstra como usar o compute sem servidor (serverless) em GPUs Databricks com aceleradores H100. Você aprenderá como se conectar a GPUs H100 e executar cargas de trabalho distribuídas usando a biblioteca Python serverless_gpu .
A biblioteca serverless_gpu permite a execução perfeita de cargas de trabalho de GPU diretamente do Databricks Notebook. Ele fornece decoradores e utilitários de tempo de execução para computação distribuída em GPUs. Para saber mais, consulte a documentação API de GPU sem servidor.
Conecte-se à computeGPU serverless
Para executar este Notebook, você precisa ter acesso ao compute GPU sem servidor Databricks com aceleradores H100.
- No seletor compute , selecione GPU sem servidor .
- Na tab "Ambiente" do lado direito, selecione H100 como seu acelerador. Esta opção utiliza 8 chips H100 em um único nó.
- Clique em Aplicar .
Veja o exemplo "Hello World" abaixo para saber como direcionar GPUs remotas para aumentar o uso de recursos.
Quando usar GPUs H100
Em comparação com os A10, os H100 oferecem maior número de operações de ponto flutuante por segundo (FLOPS) e memória de alta largura de banda (HBM). Utilize H100s para treinamento de modelos grandes onde alta taxa de transferência e/ou grande quantidade de memória GPU são necessárias.
Verifique a conexão da GPU
Use o comando nvidia-smi para confirmar que você está conectado a 8 GPUs H100. Este comando exibe informações da GPU, incluindo modelo, memória e utilização.
%sh nvidia-smi
Thu Jan 15 17:56:54 2026
+-----------------------------------------------------------------------------------------+
| NVIDIA-SMI 575.57.08 Driver Version: 575.57.08 CUDA Version: 12.9 |
|-----------------------------------------+------------------------+----------------------+
| GPU Name Persistence-M | Bus-Id Disp.A | Volatile Uncorr. ECC |
| Fan Temp Perf Pwr:Usage/Cap | Memory-Usage | GPU-Util Compute M. |
| | | MIG M. |
|=========================================+========================+======================|
| 0 NVIDIA H100 80GB HBM3 On | 00000000:53:00.0 Off | 0 |
| N/A 26C P0 70W / 700W | 0MiB / 81559MiB | 0% Default |
| | | Disabled |
+-----------------------------------------+------------------------+----------------------+
| 1 NVIDIA H100 80GB HBM3 On | 00000000:64:00.0 Off | 0 |
| N/A 28C P0 68W / 700W | 0MiB / 81559MiB | 0% Default |
| | | Disabled |
+-----------------------------------------+------------------------+----------------------+
| 2 NVIDIA H100 80GB HBM3 On | 00000000:75:00.0 Off | 0 |
| N/A 26C P0 71W / 700W | 0MiB / 81559MiB | 0% Default |
| | | Disabled |
+-----------------------------------------+------------------------+----------------------+
| 3 NVIDIA H100 80GB HBM3 On | 00000000:86:00.0 Off | 0 |
| N/A 29C P0 68W / 700W | 0MiB / 81559MiB | 0% Default |
| | | Disabled |
+-----------------------------------------+------------------------+----------------------+
| 4 NVIDIA H100 80GB HBM3 On | 00000000:97:00.0 Off | 0 |
| N/A 27C P0 67W / 700W | 0MiB / 81559MiB | 0% Default |
| | | Disabled |
+-----------------------------------------+------------------------+----------------------+
| 5 NVIDIA H100 80GB HBM3 On | 00000000:A8:00.0 Off | 0 |
| N/A 26C P0 67W / 700W | 0MiB / 81559MiB | 0% Default |
| | | Disabled |
+-----------------------------------------+------------------------+----------------------+
| 6 NVIDIA H100 80GB HBM3 On | 00000000:B9:00.0 Off | 0 |
| N/A 26C P0 69W / 700W | 0MiB / 81559MiB | 0% Default |
| | | Disabled |
+-----------------------------------------+------------------------+----------------------+
| 7 NVIDIA H100 80GB HBM3 On | 00000000:CA:00.0 Off | 0 |
| N/A 26C P0 67W / 700W | 0MiB / 81559MiB | 0% Default |
| | | Disabled |
+-----------------------------------------+------------------------+----------------------+
+-----------------------------------------------------------------------------------------+
| Processes: |
| GPU GI CI PID Type Process name GPU Memory |
| ID ID Usage |
|=========================================================================================|
| No running processes found |
+-----------------------------------------------------------------------------------------+
Exemplo "Olá Mundo"
Este exemplo demonstra como executar uma função distribuída em várias GPUs usando o decorador @distributed .
A função anotar abaixo é executada em 8 processos, um por GPU no nó ao qual o Notebook está conectado. A anotação launch especifica o número de GPUs.
A função usa o módulo runtime para acessar os ranks locais e globais da GPU.
from serverless_gpu import distributed
from serverless_gpu import runtime as rt
@distributed(
gpus=8,
gpu_type='h100',
)
def hello_world(name: str) -> list[int]:
if rt.get_local_rank() == 0:
print('hello world', name)
return rt.get_global_rank()
result = hello_world.distributed('SGC')
assert result == [0, 1, 2, 3, 4, 5, 6, 7]
Próximos passos
- Melhores práticas para computede GPU sem servidor
- Solucionar problemas em computeGPU serverless
- Treinamento distribuído com múltiplas GPUs e múltiplos nós
- Documentação API de GPU sem servidor