Ajuste fino do modelo básico

Prévia

Este recurso está em prévia pública em us-east-1 e us-west-2.

Com o Foundation Model Fine-tuning (agora parte do Mosaic AI Model treinamento), o senhor pode usar seus próprios dados para personalizar um modelo de fundação e otimizar seu desempenho para sua aplicação específica. Ao realizar o ajuste fino completo dos parâmetros ou o treinamento contínuo de um modelo básico, o senhor pode ensinar seu próprio modelo usando significativamente menos dados, tempo e compute recurso do que treinar um modelo do zero.

O Databricks engloba tudo em uma única plataforma: seus próprios dados para usar no treinamento, o modelo base para treinar, pontos de verificação salvos no MLflow e o modelo registrado no Unity Catalog e pronto para implantação.

Consulte o tutorial: Criar e implantar uma execução de ajuste fino do Foundation Model para saber como criar uma execução usando o ajuste fino do Foundation Model API e, em seguida, revisar os resultados e implantar o modelo usando a UI Databricks e Mosaic AI Model Serving.

O que é o ajuste fino do modelo básico?

O ajuste fino do modelo básico permite que o senhor use o site Databricks API ou a interface do usuário para ajustar ou ensinar ainda mais um modelo básico.

Usando o Foundation Model Fine-tuning, você pode:

  • Treine um modelo com seus dados personalizados, com os pontos de verificação salvos no MLflow. Você tem o controle total do modelo treinado.

  • Registre automaticamente o modelo no Unity Catalog para fácil implantação com o serviço do modelo.

  • Treine ainda mais um modelo proprietário completo carregando os pesos de um modelo treinado anteriormente.

A Databricks recomenda que o senhor experimente o Foundation Model Fine-tuning se:

  • Você experimentou o aprendizado com uma quantidade muito pequena de exemplos e deseja melhores resultados.

  • Você experimentou a engenharia de instrução em um modelo que já existe e deseja melhores resultados.

  • Você deseja ter propriedade total sobre um modelo personalizado para privacidade de dados.

  • A latência ou o custo são fatores críticos e você deseja usar um modelo menor e mais barato com os dados específicos para a sua tarefa.

Tarefa compatíveis

O ajuste fino do Foundation Model suporta os seguintes casos de uso:

  • Conclusão de conversa: tarefa recomendada. Treine seu modelo em logs de bate-papo entre um usuário e um assistente de IA. Esse formato pode ser usado tanto para logs de bate-papo reais quanto como um formato padrão para respostas a perguntas e textos de conversas. O texto é formatado automaticamente no formato apropriado para o modelo específico. Consulte o exemplo de padrão de bate-papo na documentação do HuggingFace para saber mais sobre modelos.

  • Ajuste fino supervisionado: treine seu modelo com dados estruturados de resposta rápida. Use isso para adaptar seu modelo a uma nova tarefa, alterar seu estilo de resposta ou adicionar recursos de acompanhamento de instruções. Essa tarefa não aplica automaticamente nenhuma formatação aos seus dados e só é recomendada quando a formatação de dados personalizada é necessária.

  • Pré-treinamento contínuo: treine seu modelo com mais dados de texto. Use isso para adicionar novos conhecimentos a um modelo ou concentrar um modelo em um domínio específico.

Requisitos

  • Um workspace do Databricks em uma das seguintes regiões da AWS: us-east-1 e us-west-2.

  • APIs de ajuste fino do Foundation Model instaladas usando pip install databricks_genai.

  • Seu workspace não deve usar políticas de acesso S3.

  • Databricks Runtime 12.2 LTS ML ou superior se os dados estiverem em uma tabela Delta.

Consulte Preparar dados para o ajuste fino do Foundation Model para obter informações sobre os formatos de dados de entrada necessários.

Modelos compatíveis

A tabela a seguir lista os modelos compatíveis. Consulte Licenças de modelo para obter informações sobre a licença de modelo aplicável e a política de uso aceitável.

Para continuar a oferecer suporte aos modelos mais modernos, a Databricks pode atualizar os modelos suportados ou desativar os modelos mais antigos. Consulte Para serem modelos aposentados.

Modelo

Comprimento máximo do contexto

Notas

databricks/dbrx-base

32768

databricks/dbrx-instruct

32768

meta-llama/Llama-3.2-1B

131072

meta-llama/Llama-3.2-1B-Instruct

131072

meta-llama/Llama-3.2-3B

131072

meta-llama/Llama-3.2-3B-Instruct

131072

meta-llama/Meta-Llama-3.1-405B

131072

meta-llama/Meta-Llama-3.1-405B-Instruct

131072

meta-llama/Meta-Llama-3.1-70B

131072

meta-llama/Meta-Llama-3.1-70B-Instruct

131072

meta-llama/Meta-Llama-3.1-8B

131072

meta-llama/Meta-Llama-3.1-8B-Instruct

131072

mistralai/Mistral-7B-v0.1

32768

mistralai/Mistral-7B-Instruct-v0.2

32768

mistralai/Mixtral-8x7B-v0.1

32768

Serão modelos aposentados

A tabela a seguir lista os modelos compatíveis que estão planejados para a aposentadoria. Consulte Modelos aposentados para ver as datas de aposentadoria planejadas e as substituições de modelos recomendadas.

Modelo

Comprimento máximo do contexto

Notas

meta-llama/Meta-Llama-3-70B

8192

Esse modelo não é mais suportado após 7 de janeiro de 2025.

meta-llama/Meta-Llama-3-70B-Instruct

8192

Esse modelo não é mais suportado após 7 de janeiro de 2025.

meta-llama/Meta-Llama-3-8B

8192

Esse modelo não é mais suportado após 7 de janeiro de 2025.

meta-llama/Meta-Llama-3-8B-Instruct

8192

Esse modelo não é mais suportado após 7 de janeiro de 2025.

meta-llama/Llama-2-7b-hf

4096

Esse modelo não é mais suportado após 7 de janeiro de 2025.

meta-llama/Llama-2-13b-hf

4096

Esse modelo não é mais suportado após 7 de janeiro de 2025.

meta-llama/Llama-2-70b-hf

4096

Esse modelo não é mais suportado após 7 de janeiro de 2025.

meta-llama/Llama-2-7b-chat-hf

4096

Esse modelo não é mais suportado após 7 de janeiro de 2025.

meta-llama/Llama-2-13b-chat-hf

4096

Esse modelo não é mais suportado após 7 de janeiro de 2025.

meta-llama/Llama-2-70b-chat-hf

4096

Esse modelo não é mais suportado após 7 de janeiro de 2025.

codellama/CodeLlama-7b-hf

16384

Esse modelo não é mais suportado após 7 de janeiro de 2025.

codellama/CodeLlama-13b-hf

16384

Esse modelo não é mais suportado após 7 de janeiro de 2025.

codellama/CodeLlama-34b-hf

16384

Esse modelo não é mais suportado após 7 de janeiro de 2025.

codellama/CodeLlama-7b-Instruct-hf

16384

Esse modelo não é mais suportado após 7 de janeiro de 2025.

codellama/CodeLlama-13b-Instruct-hf

16384

Esse modelo não é mais suportado após 7 de janeiro de 2025.

codellama/CodeLlama-34b-Instruct-hf

16384

Esse modelo não é mais suportado após 7 de janeiro de 2025.

codellama/CodeLlama-7b-Python-hf

16384

Esse modelo não é mais suportado após 7 de janeiro de 2025.

codellama/CodeLlama-13b-Python-hf

16384

Esse modelo não é mais suportado após 7 de janeiro de 2025.

codellama/CodeLlama-34b-Python-hf

16384

Esse modelo não é mais suportado após 7 de janeiro de 2025.

Licenças modelo

A tabela a seguir fornece as informações sobre a licença do modelo aplicável e a política de uso aceitável para as famílias de modelos compatíveis.

Família de modelos

Licença e política de uso aceitável

Meta Llama 3.2

O Meta Llama 3.2 está licenciado sob a Licença da comunidade LLAMA 3.2, Copyright © Meta Platforms, Inc. Todos os direitos reservados.

compliance Os clientes são responsáveis por garantir o cumprimento dos termos desta licença e da Política de Uso Aceitável doLlama 3.2.

Meta Llama 3.1

O Meta Llama 3.1 está licenciado sob a Licença da comunidade LLAMA 3.1, Copyright © Meta Platforms, Inc. Todos os direitos reservados.

Os clientes são responsáveis por garantir a conformidade com os modelos de licença aplicáveis.

Llama 3

O Llama 3 está licenciado com a LLAMA 3 Community License, Copyright © Meta Platforms, Inc. Todos os direitos reservados.

Os clientes são responsáveis por garantir a conformidade com os modelos de licença aplicáveis.

Llama 2

O Llama 2 está licenciado com a LLAMA 2 Community License, Copyright © Meta Platforms, Inc. Todos os direitos reservados.

Os clientes são responsáveis por garantir a conformidade com os modelos de licença aplicáveis.

Código Lama

Os modelos do CodeLlama estão licenciados sob a LLAMA 2 comunidade License, Copyright © Meta Platforms, Inc. Todos os direitos reservados.

Os clientes são responsáveis por garantir a conformidade com os modelos de licença aplicáveis.

DBRX

O DBRX é conforme e sujeito à Licença de Modelo Aberto do Databricks, Copyright © Databricks, Inc. Todos os direitos reservados.

Os clientes são responsáveis por garantir a conformidade com as licenças de modelo aplicáveis, incluindo a política de uso aceitável do Databricks.

Use o ajuste fino do modelo básico

O ajuste fino do Foundation Model pode ser acessado usando o SDK databricks_genai. O exemplo a seguir cria e inicia uma execução de treinamento que usa dados do Unity Catalog Volumes. Consulte Criar uma execução de treinamento usando o Foundation Model Fine-tuning API para obter detalhes de configuração.

from databricks.model_training import foundation_model as fm

model = 'meta-llama/Meta-Llama-3.1-8B-Instruct'
# UC Volume with JSONL formatted data
train_data_path = 'dbfs:/Volumes/main/mydirectory/ift/train.jsonl'
register_to = 'main.mydirectory'
run = fm.create(
  model=model,
  train_data_path=train_data_path,
  register_to=register_to,
)

Consulte o notebook de demonstração Ajuste fino de instruções: reconhecimento de entidade nomeada para ver um exemplo de ajuste fino de instruções que descreve a preparação de dados, a configuração e a implantação da execução de treinamento de ajuste fino.

Limitações

  • Não são aceitos grandes conjuntos de dados (mais de 10 bilhões de tokens) devido à disponibilidade de computação.

  • Para pré-treinamento contínuo, as cargas de trabalho são limitadas a arquivos de 60 a 256 MB. Arquivos maiores que 1 GB podem aumentar os tempos de processamento.

  • A Databricks se esforça para disponibilizar os modelos de última geração para personalização usando o Foundation Model Fine-tuning. À medida que novos modelos se tornam disponíveis, o acesso a modelos mais antigos da API ou da interface do usuário pode ser removido, os modelos mais antigos podem ser preteridos ou os modelos compatíveis podem ser atualizados. Consulte Generative AI models maintenance policy (Política de manutenção de modelos generativos).