Modelos de linguagem de grande porte (LLMs)
Pré-visualização pública
Runtime AI para tarefas de nó único está em versão prévia pública. A API de treinamento distribuído para cargas de trabalho com múltiplas GPUs permanece em versão Beta.
Esta página fornece exemplos de Notebooks para o ajuste fino de grandes modelos de linguagem (LLMs) usando AI Runtime. Esses exemplos demonstram várias abordagens para o ajuste fino, incluindo métodos com uso eficiente de parâmetros, como a Adaptação de Baixa Classificação (LoRA) e o ajuste fino supervisionado completo.
Tutorial | Descrição |
|---|---|
Ajuste com eficiência o modelo Qwen2-0.5B usando Aprendizado por Reforço Transformer (TRL), Kernels Liger para treinamento com uso eficiente de memória e LoRA para ajuste fino com uso eficiente de parâmetros. | |
Ajuste o Llama-3.2-3B usando a biblioteca Unsloth. | |
Ajuste o modelo | |
Utilize a API Python para GPU sem servidor para executar o ajuste fino supervisionado (SFT) usando a biblioteca TRL com a otimização DeepSpeed ZeRO Stage 3. | |
Utilize a API Python para GPU sem servidor para ajustar um modelo Olmo3 7B usando a biblioteca Axolotl no LoRA. |
Vídeo demonstrativo
Este vídeo apresenta em detalhes o exemplo de notebook "Ajuste fino do Llama-3.2-3B com Unsloth" (12 minutos).