Pular para o conteúdo principal

Modelos de linguagem de grande porte (LLMs)

info

Pré-visualização pública

Runtime AI para tarefas de nó único está em versão prévia pública. A API de treinamento distribuído para cargas de trabalho com múltiplas GPUs permanece em versão Beta.

Esta página fornece exemplos de Notebooks para o ajuste fino de grandes modelos de linguagem (LLMs) usando AI Runtime. Esses exemplos demonstram várias abordagens para o ajuste fino, incluindo métodos com uso eficiente de parâmetros, como a Adaptação de Baixa Classificação (LoRA) e o ajuste fino supervisionado completo.

Tutorial

Descrição

Ajuste fino do modelo Qwen2-0.5B

Ajuste com eficiência o modelo Qwen2-0.5B usando Aprendizado por Reforço Transformer (TRL), Kernels Liger para treinamento com uso eficiente de memória e LoRA para ajuste fino com uso eficiente de parâmetros.

Ajuste fino Llama-3.2-3B com Unsloth

Ajuste o Llama-3.2-3B usando a biblioteca Unsloth.

Ajustar um modelo GPT OSS 20B

Ajuste o modelo gpt-oss-20b da OpenAI em uma GPU H100 usando LoRA para um ajuste fino com uso eficiente de parâmetros.

Ajuste fino supervisionado usando DeepSpeed e TRL

Utilize a API Python para GPU sem servidor para executar o ajuste fino supervisionado (SFT) usando a biblioteca TRL com a otimização DeepSpeed ZeRO Stage 3.

Ajuste fino do LoRA usando o Axolotl

Utilize a API Python para GPU sem servidor para ajustar um modelo Olmo3 7B usando a biblioteca Axolotl no LoRA.

Vídeo demonstrativo

Este vídeo apresenta em detalhes o exemplo de notebook "Ajuste fino do Llama-3.2-3B com Unsloth" (12 minutos).