Modelos de fundação suportados no Mosaic AI Model Serving
Este artigo descreve os modelos de fundação que o senhor pode utilizar Mosaic AI Model Serving.
Os modelos Foundation são neurais de rede grandes e pré-treinados que são treinados em grandes e amplas faixas de dados. Esses modelos são projetados para aprender padrões gerais em linguagem, imagens ou outros tipos de dados e podem ser ajustados para tarefas específicas com treinamento adicional.
O servindo modelo oferece opções flexíveis para hospedagem e consulta de modelos da fundação com base em suas necessidades:
Pagamento por tokens: Ideal para experimentação e exploração rápida. Essa opção permite que o senhor consulte o endpoint pré-configurado em seu Databricks workspace sem compromissos iniciais de infraestrutura.
provisionamento Taxa de transferência: Recomendado para casos de uso de produção que exigem garantias de desempenho. Essa opção permite a implementação de modelos de fundação ajustados com endpoint de serviço otimizado.
Modelos externos: Essa opção permite o acesso a modelos de fundação hospedados fora da Databricks, como os fornecidos pela OpenAI ou Anthropic. Esses modelos podem ser gerenciados de forma centralizada em Databricks para uma governança simplificada.
Modelos básicos hospedados na Databricks
A Databricks hospeda modelos de base aberta de última geração, como o Meta Llama. Esses modelos são disponibilizados usando o Foundation Model APIs e são acessíveis usando pay-per-tokens ou provisionamento de taxa de transferência.
Pay-per-tokens
Modelo básico APIs pay-per-tokens é recomendado para começar e explorar rapidamente. Cada modelo compatível com o uso do Foundation Model APIs pay-per-tokens tem um endpoint pré-configurado em seu Databricks workspace que o senhor pode testar e consultar. O senhor também pode interagir e conversar com esses modelos usando o AI Playground.
A tabela a seguir resume os modelos suportados para pay-per-tokens. Consulte os limites das APIs do Foundation Model para obter a disponibilidade de regiões específicas do modelo.
Importante
A partir de 11 de dezembro de 2024, Meta-Llama-3.3-70B-Instruct Substitui o suporte para Meta-Llama-3.1-70B-Instruct no modelo Foundation APIs pay-per-tokens endpoint.
Os modelos a seguir estão agora retirados. Consulte Modelos retirados para ver os modelos de substituição recomendados.
Llama 2 70B Chat
Instrução MPT 7B
Instrução MPT 30B
Modelo |
Tipo de tarefa |
Endpoint |
Notas |
---|---|---|---|
Incorporação |
|
Não gera incorporações normalizadas. |
|
Bate-papo |
|
||
Bate-papo |
|
||
Bate-papo |
|
||
Bate-papo |
|
||
Incorporação |
|
*
Entre em contato com a equipe do Databricks account se o senhor encontrar falhas no endpoint ou erros de estabilização ao usar esse modelo.
provisionamento Taxa de transferência
Modelo de fundação APIs provisionamento A taxa de transferência é recomendada para casos de produção. O senhor pode criar um endpoint que use o provisionamento Taxa de transferência para implantar arquiteturas de modelo de fundação ajustadas. Quando o senhor usa o provisionamento Taxa de transferência, o serviço endpoint é otimizado para cargas de trabalho do modelo básico que exigem garantias de desempenho.
A tabela a seguir resume as arquiteturas de modelos compatíveis com o provisionamento da Taxa de transferência. Databricks recomenda o uso de modelos de base pré-treinados em Unity Catalog porque esses modelos são especificamente otimizados para cargas de trabalho de Taxa de transferência de provisionamento. Consulte os limites da Taxa de transferência de provisionamento para saber quais são as variantes de modelos compatíveis e a disponibilidade de regiões.
Importante
O Meta Llama 3.3 está licenciado sob a Licença da comunidade LLAMA 3.3, Copyright © Meta Platforms, Inc. Todos os direitos reservados. compliance Os clientes são responsáveis por garantir o cumprimento dos termos desta licença e da Política de Uso Aceitável doLlama 3.3.
O Meta Llama 3.2 está licenciado sob a Licença da comunidade LLAMA 3.2, Copyright © Meta Platforms, Inc. Todos os direitos reservados. compliance Os clientes são responsáveis por garantir o cumprimento dos termos desta licença e da Política de Uso Aceitável doLlama 3.2.
O Meta Llama 3.1 está licenciado sob a Licença da comunidade LLAMA 3.1, Copyright © Meta Platforms, Inc. Todos os direitos reservados. Os clientes são responsáveis por garantir o compliance com as licenças de modelo aplicáveis.
Arquitetura do modelo |
Tipos de tarefa |
Notas |
---|---|---|
Meta Llama 3.3 |
Bate-papo ou conclusão |
|
Meta Llama 3.2 3B |
Bate-papo ou conclusão |
|
Meta Llama 3.2 1B |
Bate-papo ou conclusão |
|
Meta Llama 3.1 |
Bate-papo ou conclusão |
|
Meta Llama 3 |
Bate-papo ou conclusão |
|
Meta Llama 2 |
Bate-papo ou conclusão |
|
DBRX |
Bate-papo ou conclusão |
|
Mistral |
Bate-papo ou conclusão |
|
Mixtral |
Bate-papo ou conclusão |
|
MPT |
Bate-papo ou conclusão |
|
GTE v1.5 (inglês) |
Incorporação |
Não gera incorporações normalizadas. |
BGE v1.5 (inglês) |
Incorporação |
Acessar modelos de fundação hospedados fora da Databricks
Os modelos básicos criados por provedores de LLM, como OpenAI e Anthropic, também podem ser acessados no Databricks usando modelos externos. Esses modelos são hospedados fora da Databricks e o senhor pode criar um endpoint para consultá-los. Esses endpoints podem ser controlados de forma centralizada em Databricks, o que simplifica o uso e o gerenciamento de vários provedores de LLM em sua organização.
A tabela a seguir apresenta uma lista não exaustiva dos modelos compatíveis e dos tipos de endpoint correspondentes. O senhor pode usar as associações de modelos listadas para ajudá-lo a configurar seu endpoint para quaisquer tipos de modelos recém-lançados, à medida que eles se tornam disponíveis em um determinado provedor. Os clientes são responsáveis por garantir o compliance com as licenças de modelo aplicáveis.
Observação
Com o rápido desenvolvimento dos LLMs, não há garantia de que essa lista esteja sempre atualizada. Geralmente, há suporte para novas versões de modelos do mesmo fornecedor, mesmo que não estejam na lista.
Fornecedor de modelos |
llm/v1/conclusões |
llm/v1/chat |
llm/v1/incorporações |
---|---|---|---|
IA aberta** |
|
|
|
Azure OpenAI** |
|
|
|
Anthropic |
|
|
|
Coer** |
|
|
|
Mosaic AI Model Serving |
Databricks servindo endpoint |
Databricks servindo endpoint |
Databricks servindo endpoint |
Amazon Bedrock |
Anthropic:
Cohere:
AI21 Labs:
|
Anthropic:
Cohere:
|
Amazon:
Cohere:
|
Laboratórios AI21† |
|
||
Google Cloud Vertex AI |
bisonte de texto |
|
|
**
O provedor de modelos oferece suporte a modelos de preenchimento e bate-papo aprimorados. Para consultar um modelo ajustado, preencha o campo name
da configuração external model
com o nome do seu modelo ajustado.
† O fornecedor de modelos oferece suporte a modelos de conclusão personalizados.
Criar um endpoint de modelo de serviço de fundação
Para consultar e usar modelos básicos em seus aplicativos AI, o senhor deve primeiro criar um modelo de serviço endpoint. O servindo modelo usa um API e uma UI unificados para criar e atualizar o endpoint do servindo modelo da fundação.
Para criar um endpoint que sirva variantes ajustadas de modelos de fundação disponibilizados por meio do provisionamento de Foundation Model APIs Taxa de transferência, consulte Criar seu provisionamento Taxa de transferência endpoint usando o REST API .
Para criar um endpoint de serviço que acesse os modelos da fundação disponibilizados usando a oferta de modelos externos, consulte Criar um modelo de serviço externo endpoint.
Query foundation servindo modelo endpoint
Depois de criar o endpoint de serviço, o senhor poderá consultar o modelo da fundação. O servindo modelo usa um API e um SDK unificados e compatíveis com o OpenAI para consultar os modelos da fundação. Essa experiência unificada simplifica a forma como você experimenta e personaliza modelos básicos para produção em nuvens e fornecedores compatíveis.
Consulte Modelos básicos de consulta.