Pular para o conteúdo principal

Modelos compatíveis com as APIs do Databricks Foundation Models

info

Visualização

Esse recurso está em Public Preview e é compatível com us-east1 e us-central1 para ambos os modelos Foundation APIs pay-per-tokens e provisionamento Taxa de transferência endpoint.

Este artigo descreve os modelos abertos de última geração que são compatíveis com o modelo da FundaçãoDatabricks APIsno modo pay-per-tokens.

nota

Consulte Foundation Model APIs limites para os modelos pay-per-tokens compatíveis apenas com as regiões dos EUA.

O senhor pode enviar solicitações de consulta a esses modelos usando o endpoint pay-per-tokens disponível em seu site Databricks workspace. Consulte a tabela Use foundation models and pay-per-tokens supported models para obter os nomes do endpoint do modelo a ser usado.

Além de oferecer suporte a modelos no modo pay-per-tokens, o Foundation Model APIs também oferece o modo de provisionamento Taxa de transferência. Databricks recomenda o provisionamento Taxa de transferência para cargas de trabalho de produção. Esse modo é compatível com todos os modelos de uma família de arquitetura de modelos (por exemplo, modelos DBRX), inclusive os modelos pré-treinados ajustados e personalizados compatíveis com o modo pay-per-tokens. Consulte o provisionamento Taxa de transferência Foundation Model APIs para obter a lista de arquiteturas compatíveis.

O senhor pode interagir com esses modelos suportados usando o AI Playground.

Meta Llama 4 Maverick

important

Consulte as licenças de desenvolvedor de modelos aplicáveis e os termos da licença e da política de uso aceitável do Llama 4 comunidade.

O Llama 4 Maverick é um modelo de linguagem grande de última geração criado e treinado pela Meta. É o primeiro da família de modelos Llama a usar uma arquitetura mista de especialistas para obter a eficiência do compute. O Llama 4 Maverick é compatível com vários idiomas e é otimizado para casos de uso precisos de compreensão de imagens e textos. Atualmente, o suporte da Databricks ao Llama 4 Maverick está limitado a casos de uso de compreensão de texto. Saiba mais sobre o Llama 4 Maverick.

Como ocorre com outros modelos de linguagem de grande porte, o resultado do Llama 4 pode omitir alguns fatos e, ocasionalmente, produzir informações falsas. A Databricks recomenda o uso da geração aumentada de recuperação (RAG) em cenários em que a precisão é especialmente importante.

Meta Llama 3.3 70B Instruct

O Meta-Llama-3.3-70B-Instruct é um modelo de linguagem grande de última geração com um contexto de 128.000 tokens que foi criado e treinado pelo Meta. O modelo oferece suporte a vários idiomas e é otimizado para casos de uso de diálogo. Saiba mais sobre o Meta Llama 3.3.

Semelhante a outros modelos de linguagem de grande porte, o resultado do Llama-3 pode omitir alguns fatos e, ocasionalmente, produzir informações falsas. A Databricks recomenda o uso da geração aumentada de recuperação (RAG) em cenários em que a precisão é especialmente importante.

Anthropic Claude 3.7 Soneto

important

Os clientes são responsáveis por garantir que cumpra compliance os termos da Anthropic Política de Uso Aceitável da.

Claude 3.7 O Sonnet é um modelo de raciocínio híbrido de última geração, criado e treinado pela Anthropic. Trata-se de um grande modelo de linguagem e de raciocínio capaz de responder rapidamente ou ampliar seu raciocínio com base na complexidade da tarefa. Quando no modo de pensamento estendido, as etapas de raciocínio do Claude 3.7 Sonnet são visíveis para o usuário. Claude 3.7 O Sonnet é otimizado para várias tarefas, como geração de código, raciocínio matemático e acompanhamento de instruções.

Como acontece com outros modelos de linguagem grandes, o resultado do Claude 3.7 pode omitir alguns fatos e, ocasionalmente, produzir informações falsas. A Databricks recomenda o uso da geração aumentada de recuperação (RAG) em cenários em que a precisão é especialmente importante.

Esse endpoint é hospedado pela Databricks Inc. no AWS dentro do perímetro de segurança da Databricks.

GTE Large (En)

important

O GTE Large (En) é fornecido sob e sujeito à Licença Apache 2.0, Copyright (c) The Apache Software Foundation, Todos os direitos reservados. Os clientes são responsáveis por garantir o compliance com as licenças de modelo aplicáveis.

O General Text Embedding (GTE) é um modelo de incorporação de texto que pode mapear qualquer texto para um vetor de incorporação de 1024 dimensões e uma janela de incorporação de 8192 tokens. Esses vetores podem ser usados em índices de vetores para LLMs e para tarefas como recuperação, classificação, resposta a perguntas, clustering ou pesquisa semântica. Esse endpoint serve a versão em inglês do modelo e não gera embeddings normalizados.

Os modelos de incorporação são especialmente eficazes quando usados em conjunto com LLMs para casos de uso de geração aumentada de recuperação (RAG). O GTE pode ser usado para encontrar trechos de texto relevantes em grandes blocos de documentos que podem ser usados no contexto de um LLM.

Recurso adicional