Modelos de linguagem de grande porte (LLMs)
Pré-visualização pública
Runtime AI para tarefas de nó único está em versão prévia pública. A API de treinamento distribuído para cargas de trabalho com múltiplas GPUs permanece em versão Beta.
Esta página fornece exemplos de Notebooks para o ajuste fino de grandes modelos de linguagem (LLMs) usando AI Runtime. Esses exemplos demonstram várias abordagens para o ajuste fino, incluindo métodos com uso eficiente de parâmetros, como a Adaptação de Baixa Classificação (LoRA) e o ajuste fino supervisionado completo.
Tutorial | Descrição |
|---|---|
Ajuste com eficiência o modelo Qwen2-0.5B usando Aprendizado por Reforço Transformer (TRL), Kernels Liger para treinamento com uso eficiente de memória e LoRA para ajuste fino com uso eficiente de parâmetros. | |
Ajuste o Llama-3.2-3B usando a biblioteca Unsloth. | |
Ajuste o modelo | |
Utilize a API Python para GPU sem servidor para executar o ajuste fino supervisionado (SFT) usando a biblioteca TRL com a otimização DeepSpeed ZeRO Stage 3. | |
Utilize a API Python para GPU sem servidor para ajustar um modelo Olmo3 7B usando a biblioteca Axolotl no LoRA. | |
Ajuste o modelo Qwen2-0.5B usando kernels LoRA e Liger para treinamento distribuído com uso eficiente de memória e redução de parâmetros. | |
Ajuste o Llama-3.2-3B usando treinamento distribuído em várias GPUs com a biblioteca Unsloth para um treinamento otimizado e eficiente em termos de parâmetros. | |
Ajuste o modelo Llama 3.1 8B usando o Mosaic LLM Foundry com estratégias de treinamento distribuído e avaliação do modelo. | |
Ajuste fino do modelo GPT-OSS 120B da OpenAI usando ajuste fino supervisionado em GPUs H100 com estratégias de treinamento distribuído DDP e FSDP. | |
Ensinar modelos Transformer usando PyTorch Fully Sharded Data Parallel (FSDP) para distribuir os parâmetros do modelo entre várias GPUs. |
Vídeo demonstrativo
Este vídeo apresenta em detalhes o exemplo de notebook "Ajuste fino do Llama-3.2-3B com Unsloth" (12 minutos).