Pular para o conteúdo principal

Modelos de linguagem de grande porte (LLMs)

info

Pré-visualização pública

Runtime AI para tarefas de nó único está em versão prévia pública. A API de treinamento distribuído para cargas de trabalho com múltiplas GPUs permanece em versão Beta.

Esta página fornece exemplos de Notebooks para o ajuste fino de grandes modelos de linguagem (LLMs) usando AI Runtime. Esses exemplos demonstram várias abordagens para o ajuste fino, incluindo métodos com uso eficiente de parâmetros, como a Adaptação de Baixa Classificação (LoRA) e o ajuste fino supervisionado completo.

Tutorial

Descrição

Ajuste fino do modelo Qwen2-0.5B

Ajuste com eficiência o modelo Qwen2-0.5B usando Aprendizado por Reforço Transformer (TRL), Kernels Liger para treinamento com uso eficiente de memória e LoRA para ajuste fino com uso eficiente de parâmetros.

Ajuste fino Llama-3.2-3B com Unsloth

Ajuste o Llama-3.2-3B usando a biblioteca Unsloth.

Ajustar um modelo GPT OSS 20B

Ajuste o modelo gpt-oss-20b da OpenAI em uma GPU H100 usando LoRA para um ajuste fino com uso eficiente de parâmetros.

Ajuste fino supervisionado usando DeepSpeed e TRL

Utilize a API Python para GPU sem servidor para executar o ajuste fino supervisionado (SFT) usando a biblioteca TRL com a otimização DeepSpeed ZeRO Stage 3.

Ajuste fino do LoRA usando o Axolotl

Utilize a API Python para GPU sem servidor para ajustar um modelo Olmo3 7B usando a biblioteca Axolotl no LoRA.

Ajuste fino distribuído Qwen2-0.5B

Ajuste o modelo Qwen2-0.5B usando kernels LoRA e Liger para treinamento distribuído com uso eficiente de memória e redução de parâmetros.

Ajuste fino distribuído Llama-3.2-3B com Unsloth

Ajuste o Llama-3.2-3B usando treinamento distribuído em várias GPUs com a biblioteca Unsloth para um treinamento otimizado e eficiente em termos de parâmetros.

Ajuste fino do Llama 3.1 8B com o LLM Foundry

Ajuste o modelo Llama 3.1 8B usando o Mosaic LLM Foundry com estratégias de treinamento distribuído e avaliação do modelo.

Ajuste fino do GPT-OSS 120B com DDP e FSDP

Ajuste fino do modelo GPT-OSS 120B da OpenAI usando ajuste fino supervisionado em GPUs H100 com estratégias de treinamento distribuído DDP e FSDP.

Treinamento distribuído com PyTorch FSDP

Ensinar modelos Transformer usando PyTorch Fully Sharded Data Parallel (FSDP) para distribuir os parâmetros do modelo entre várias GPUs.

Vídeo demonstrativo

Este vídeo apresenta em detalhes o exemplo de notebook "Ajuste fino do Llama-3.2-3B com Unsloth" (12 minutos).