Ajuste fino do modelo básico
Prévia
Este recurso está em prévia pública em us-east-1
e us-west-2
.
Com o Foundation Model Fine-tuning (agora parte do Mosaic AI Model treinamento), o senhor pode usar seus próprios dados para personalizar um modelo de fundação e otimizar seu desempenho para sua aplicação específica. Ao realizar o ajuste fino completo dos parâmetros ou o treinamento contínuo de um modelo básico, o senhor pode ensinar seu próprio modelo usando significativamente menos dados, tempo e compute recurso do que treinar um modelo do zero.
O Databricks engloba tudo em uma única plataforma: seus próprios dados para usar no treinamento, o modelo base para treinar, pontos de verificação salvos no MLflow e o modelo registrado no Unity Catalog e pronto para implantação.
Consulte o tutorial: Criar e implantar uma execução de ajuste fino do Foundation Model para saber como criar uma execução usando o ajuste fino do Foundation Model API e, em seguida, revisar os resultados e implantar o modelo usando a UI Databricks e Mosaic AI Model Serving.
O que é o ajuste fino do modelo básico?
O ajuste fino do modelo básico permite que o senhor use o site Databricks API ou a interface do usuário para ajustar ou ensinar ainda mais um modelo básico.
Usando o Foundation Model Fine-tuning, você pode:
Treine um modelo com seus dados personalizados, com os pontos de verificação salvos no MLflow. Você tem o controle total do modelo treinado.
Registre automaticamente o modelo no Unity Catalog para fácil implantação com o serviço do modelo.
Treine ainda mais um modelo proprietário completo carregando os pesos de um modelo treinado anteriormente.
A Databricks recomenda que o senhor experimente o Foundation Model Fine-tuning se:
Você experimentou o aprendizado com uma quantidade muito pequena de exemplos e deseja melhores resultados.
Você experimentou a engenharia de instrução em um modelo que já existe e deseja melhores resultados.
Você deseja ter propriedade total sobre um modelo personalizado para privacidade de dados.
A latência ou o custo são fatores críticos e você deseja usar um modelo menor e mais barato com os dados específicos para a sua tarefa.
Tarefa compatíveis
O ajuste fino do Foundation Model suporta os seguintes casos de uso:
Conclusão de conversa: tarefa recomendada. Treine seu modelo em logs de bate-papo entre um usuário e um assistente de IA. Esse formato pode ser usado tanto para logs de bate-papo reais quanto como um formato padrão para respostas a perguntas e textos de conversas. O texto é formatado automaticamente no formato apropriado para o modelo específico. Consulte o exemplo de padrão de bate-papo na documentação do HuggingFace para saber mais sobre modelos.
Ajuste fino supervisionado: treine seu modelo com dados estruturados de resposta rápida. Use isso para adaptar seu modelo a uma nova tarefa, alterar seu estilo de resposta ou adicionar recursos de acompanhamento de instruções. Essa tarefa não aplica automaticamente nenhuma formatação aos seus dados e só é recomendada quando a formatação de dados personalizada é necessária.
Pré-treinamento contínuo: treine seu modelo com mais dados de texto. Use isso para adicionar novos conhecimentos a um modelo ou concentrar um modelo em um domínio específico.
Requisitos
Um workspace do Databricks em uma das seguintes regiões da AWS:
us-east-1
eus-west-2
.APIs de ajuste fino do Foundation Model instaladas usando
pip install databricks_genai
.Seu workspace não deve usar políticas de acesso S3.
Databricks Runtime 12.2 LTS ML ou superior se os dados estiverem em uma tabela Delta.
Consulte Preparar dados para o ajuste fino do Foundation Model para obter informações sobre os formatos de dados de entrada necessários.
Tamanho de dados recomendado para o treinamento do modelo
A Databricks recomenda o treinamento inicial usando de uma a quatro épocas. Depois de avaliar o modelo ajustado, se quiser que os resultados do modelo sejam mais semelhantes aos dados de treinamento, o senhor pode começar a continuar o treinamento usando mais uma ou duas épocas.
Se o desempenho do modelo diminuir significativamente em tarefas não representadas nos dados de ajuste fino, ou se o modelo parecer produzir cópias exatas dos dados de ajuste fino, o site Databricks recomenda reduzir o número de épocas de treinamento.
Para refinamento supervisionado e conclusão de conversa, disponibilize tokens suficientes para pelo menos um comprimento de contexto completo do modelo. Por exemplo, 4.096 tokens para meta-llama/Llama-2-7b-chat-hf
ou 32.768 tokens para mistralai/Mistral-7B-v0.1
.
Para um pré-treinamento contínuo, a Databricks recomenda um mínimo de 1,5 milhão de tokens para obter um modelo de maior qualidade que aprenda seus dados personalizados.
Modelos compatíveis
A tabela a seguir lista os modelos compatíveis. Consulte Licenças de modelo para obter informações sobre a licença de modelo aplicável e a política de uso aceitável.
Para continuar a oferecer suporte aos modelos mais modernos, a Databricks pode atualizar os modelos suportados ou desativar os modelos mais antigos. Consulte Para serem modelos aposentados.
Modelo |
Comprimento máximo do contexto |
Notas |
---|---|---|
|
32768 |
|
|
32768 |
|
|
131072 |
|
|
131072 |
|
|
131072 |
|
|
131072 |
|
|
131072 |
|
|
131072 |
|
|
131072 |
|
|
131072 |
|
|
131072 |
|
|
131072 |
|
|
32768 |
|
|
32768 |
|
|
32768 |
Serão modelos aposentados
A tabela a seguir lista os modelos compatíveis que estão planejados para a aposentadoria. Consulte Modelos aposentados para ver as datas de aposentadoria planejadas e as substituições de modelos recomendadas.
Modelo |
Comprimento máximo do contexto |
Notas |
---|---|---|
|
8192 |
Esse modelo não é mais suportado após 7 de janeiro de 2025. |
|
8192 |
Esse modelo não é mais suportado após 7 de janeiro de 2025. |
|
8192 |
Esse modelo não é mais suportado após 7 de janeiro de 2025. |
|
8192 |
Esse modelo não é mais suportado após 7 de janeiro de 2025. |
|
4096 |
Esse modelo não é mais suportado após 7 de janeiro de 2025. |
|
4096 |
Esse modelo não é mais suportado após 7 de janeiro de 2025. |
|
4096 |
Esse modelo não é mais suportado após 7 de janeiro de 2025. |
|
4096 |
Esse modelo não é mais suportado após 7 de janeiro de 2025. |
|
4096 |
Esse modelo não é mais suportado após 7 de janeiro de 2025. |
|
4096 |
Esse modelo não é mais suportado após 7 de janeiro de 2025. |
|
16384 |
Esse modelo não é mais suportado após 7 de janeiro de 2025. |
|
16384 |
Esse modelo não é mais suportado após 7 de janeiro de 2025. |
|
16384 |
Esse modelo não é mais suportado após 7 de janeiro de 2025. |
|
16384 |
Esse modelo não é mais suportado após 7 de janeiro de 2025. |
|
16384 |
Esse modelo não é mais suportado após 7 de janeiro de 2025. |
|
16384 |
Esse modelo não é mais suportado após 7 de janeiro de 2025. |
|
16384 |
Esse modelo não é mais suportado após 7 de janeiro de 2025. |
|
16384 |
Esse modelo não é mais suportado após 7 de janeiro de 2025. |
|
16384 |
Esse modelo não é mais suportado após 7 de janeiro de 2025. |
Licenças modelo
A tabela a seguir fornece as informações sobre a licença do modelo aplicável e a política de uso aceitável para as famílias de modelos compatíveis.
Família de modelos |
Licença e política de uso aceitável |
---|---|
Meta Llama 3.2 |
O Meta Llama 3.2 está licenciado sob a Licença da comunidade LLAMA 3.2, Copyright © Meta Platforms, Inc. Todos os direitos reservados. compliance Os clientes são responsáveis por garantir o cumprimento dos termos desta licença e da Política de Uso Aceitável doLlama 3.2. |
Meta Llama 3.1 |
O Meta Llama 3.1 está licenciado sob a Licença da comunidade LLAMA 3.1, Copyright © Meta Platforms, Inc. Todos os direitos reservados. Os clientes são responsáveis por garantir a conformidade com os modelos de licença aplicáveis. |
Llama 3 |
O Llama 3 está licenciado com a LLAMA 3 Community License, Copyright © Meta Platforms, Inc. Todos os direitos reservados. Os clientes são responsáveis por garantir a conformidade com os modelos de licença aplicáveis. |
Llama 2 |
O Llama 2 está licenciado com a LLAMA 2 Community License, Copyright © Meta Platforms, Inc. Todos os direitos reservados. Os clientes são responsáveis por garantir a conformidade com os modelos de licença aplicáveis. |
Código Lama |
Os modelos do CodeLlama estão licenciados sob a LLAMA 2 comunidade License, Copyright © Meta Platforms, Inc. Todos os direitos reservados. Os clientes são responsáveis por garantir a conformidade com os modelos de licença aplicáveis. |
DBRX |
O DBRX é conforme e sujeito à Licença de Modelo Aberto do Databricks, Copyright © Databricks, Inc. Todos os direitos reservados. Os clientes são responsáveis por garantir a conformidade com as licenças de modelo aplicáveis, incluindo a política de uso aceitável do Databricks. |
Use o ajuste fino do modelo básico
O ajuste fino do Foundation Model pode ser acessado usando o SDK databricks_genai
. O exemplo a seguir cria e inicia uma execução de treinamento que usa dados do Unity Catalog Volumes. Consulte Criar uma execução de treinamento usando o Foundation Model Fine-tuning API para obter detalhes de configuração.
from databricks.model_training import foundation_model as fm
model = 'meta-llama/Meta-Llama-3.1-8B-Instruct'
# UC Volume with JSONL formatted data
train_data_path = 'dbfs:/Volumes/main/mydirectory/ift/train.jsonl'
register_to = 'main.mydirectory'
run = fm.create(
model=model,
train_data_path=train_data_path,
register_to=register_to,
)
Consulte o notebook de demonstração Ajuste fino de instruções: reconhecimento de entidade nomeada para ver um exemplo de ajuste fino de instruções que descreve a preparação de dados, a configuração e a implantação da execução de treinamento de ajuste fino.
Limitações
Não são aceitos grandes conjuntos de dados (mais de 10 bilhões de tokens) devido à disponibilidade de computação.
Para pré-treinamento contínuo, as cargas de trabalho são limitadas a arquivos de 60 a 256 MB. Arquivos maiores que 1 GB podem aumentar os tempos de processamento.
A Databricks se esforça para disponibilizar os modelos de última geração para personalização usando o Foundation Model Fine-tuning. À medida que novos modelos se tornam disponíveis, o acesso a modelos mais antigos da API ou da interface do usuário pode ser removido, os modelos mais antigos podem ser preteridos ou os modelos compatíveis podem ser atualizados. Consulte Generative AI models maintenance policy (Política de manutenção de modelos generativos).