Pular para o conteúdo principal

Modelos básicos hospedados pela Databricks disponíveis nas APIs de modelos básicos

Este artigo descreve os modelos abertos de última geração que são suportados pelo Modelo de FundaçãoDatabricks APIs.

nota

Consulte Modelos de fundação suportados em Mosaic AI Model Serving para obter informações sobre a disponibilidade desses modelos na região e as áreas de recurso suportadas.

O senhor pode enviar solicitações de consulta a esses modelos usando o endpoint pay-per-tokens disponível em seu site Databricks workspace. Consulte a tabela Use foundation models and pay-per-tokens supported models para obter os nomes do endpoint do modelo a ser usado.

Além de oferecer suporte a modelos no modo pay-per-tokens, o Foundation Model APIs também oferece o modo de provisionamento Taxa de transferência. Databricks recomenda o provisionamento Taxa de transferência para cargas de trabalho de produção. Esse modo é compatível com todos os modelos de uma família de arquitetura de modelos (por exemplo, modelos DBRX), inclusive os modelos pré-treinados ajustados e personalizados compatíveis com o modo pay-per-tokens. Consulte o provisionamento Taxa de transferência Foundation Model APIs para obter a lista de arquiteturas compatíveis.

O senhor pode interagir com esses modelos suportados usando o AI Playground.

OpenAI GPT-5

important

Os clientes são responsáveis por garantir a compliance com os termos da Política de Uso Aceitável da OpenAI.

O GPT-5 é um modelo de linguagem e raciocínio de última geração, de uso geral, desenvolvido e treinado pela OpenAI. Ele suporta entradas multimodais e utiliza uma janela de contexto de 128K tokens. O modelo foi criado para codificação, bate-papo, raciocínio e tarefas orientadas por agentes.

Assim como acontece com outros grandes modelos de linguagem, a saída do GPT-5 pode omitir alguns fatos e ocasionalmente produzir informações falsas. A Databricks recomenda o uso da geração aumentada de recuperação (RAG) em cenários onde a precisão é especialmente importante.

Este endpoint é hospedado pela Databricks Inc. dentro do perímetro de segurança Databricks .

OpenAI GPT-5 mini

important

Os clientes são responsáveis por garantir a compliance com os termos da Política de Uso Aceitável da OpenAI.

O GPT-5 mini é um modelo de linguagem e raciocínio de última geração, de uso geral, desenvolvido e treinado pela OpenAI. Ele suporta entradas multimodais e utiliza uma janela de contexto de 128K tokens. O modelo é otimizado em termos de custo para cargas de trabalho de raciocínio e bate-papo e se destaca em tarefas bem definidas que exigem raciocínio confiável, linguagem precisa e saída rápida de texto e imagens.

Assim como acontece com outros grandes modelos de linguagem, a saída do GPT-5 pode omitir alguns fatos e ocasionalmente produzir informações falsas. A Databricks recomenda o uso da geração aumentada de recuperação (RAG) em cenários onde a precisão é especialmente importante.

Este endpoint é hospedado pela Databricks Inc. dentro do perímetro de segurança Databricks .

OpenAI GPT-5 nano

important

Os clientes são responsáveis por garantir a compliance com os termos da Política de Uso Aceitável da OpenAI.

O GPT-5 nano é um modelo de linguagem grande e raciocínio de última geração, de uso geral, criado e treinado pela OpenAI. Ele suporta entradas multimodais e utiliza uma janela de contexto de 128K tokens. O modelo se destaca em tarefas de alta taxa de transferência, como seguir instruções simples ou classificação para processos comerciais de rotina ou aplicativos móveis.

Assim como acontece com outros grandes modelos de linguagem, a saída do GPT-5 pode omitir alguns fatos e ocasionalmente produzir informações falsas. A Databricks recomenda o uso da geração aumentada de recuperação (RAG) em cenários onde a precisão é especialmente importante.

Este endpoint é hospedado pela Databricks Inc. dentro do perímetro de segurança Databricks .

OpenAI GPT OSS 120B

important

O OpenAI GPT OSS 120B é fornecido sob e sujeito à Licença Apache 2.0, Copyright (c) The Apache Software Foundation, Todos os direitos reservados. Os clientes são responsáveis por garantir que compliance esteja em conformidade com as licenças aplicáveis ao modelo e com a política de uso da OpenAI.

O GPT OSS 120B é um modelo de raciocínio de última geração com cadeia de pensamento e níveis de esforço de raciocínio ajustáveis, construído e treinado pela OpenAI. É o modelo de peso aberto emblemático da OpenAI e utiliza uma janela de contexto de 128K tokens. O modelo foi desenvolvido para tarefas de raciocínio de alta qualidade.

Tal como acontece com outros modelos de linguagem de grande dimensão, a saída do GPT OSS 120B pode omitir alguns factos e, ocasionalmente, produzir informações incorretas. A Databricks recomenda o uso da geração aumentada de recuperação (RAG) em cenários em que a precisão é especialmente importante.

OpenAI GPT OSS 20B

important

O OpenAI GPT OSS 20B é fornecido sob e sujeito à Licença Apache 2.0, Copyright (c) The Apache Software Foundation, Todos os direitos reservados. Os clientes são responsáveis por garantir que compliance esteja em conformidade com as licenças aplicáveis ao modelo e com a política de uso da OpenAI.

O GPT OSS 20B é um modelo de raciocínio leve e de última geração, construído e treinado pela OpenAI. Este modelo possui uma janela de contexto de 128K tokens e se destaca em copilotos em tempo real e tarefas de inferência em lotes.

Tal como acontece com outros modelos de linguagem de grande dimensão, a saída do GPT OSS 20B pode omitir alguns factos e, ocasionalmente, produzir informações incorretas. A Databricks recomenda o uso da geração aumentada de recuperação (RAG) em cenários em que a precisão é especialmente importante.

Google Gemma 3 12B

important

Consulte as licenças de desenvolvedor de modelos aplicáveis e os termos da Licença Gemma 3 comunidade e da Política de uso aceitável.

O Gemma 3 12B é um modelo de linguagem de 12 bilhões de parâmetros desenvolvido pelo Google como parte da família Gemma 3. O Gemma 3 tem um contexto de até 128 mil tokens e oferece suporte multilíngue para mais de 140 idiomas. Esse modelo foi projetado para lidar com entradas de texto e gerar saídas de texto, além de ser otimizado para casos de uso de diálogo e tarefas de geração de texto, incluindo respostas a perguntas.

Como acontece com outros modelos de linguagem grandes, o resultado do Gemma 3 pode omitir alguns fatos e, ocasionalmente, produzir informações falsas. A Databricks recomenda o uso da geração aumentada de recuperação (RAG) em cenários em que a precisão é especialmente importante.

Meta Llama 4 Maverick

important

Consulte as licenças de desenvolvedor de modelos aplicáveis e os termos da licença e da política de uso aceitável do Llama 4 comunidade.

O Llama 4 Maverick é um modelo de linguagem grande de última geração criado e treinado pela Meta. É o primeiro da família de modelos Llama a usar uma arquitetura mista de especialistas para obter a eficiência do compute. O Llama 4 Maverick é compatível com vários idiomas e é otimizado para casos de uso precisos de compreensão de imagens e textos. Atualmente, o suporte da Databricks ao Llama 4 Maverick está limitado a casos de uso de compreensão de texto. Saiba mais sobre o Llama 4 Maverick.

Como ocorre com outros modelos de linguagem de grande porte, o resultado do Llama 4 pode omitir alguns fatos e, ocasionalmente, produzir informações falsas. A Databricks recomenda o uso da geração aumentada de recuperação (RAG) em cenários em que a precisão é especialmente importante.

Meta Llama 3.3 70B Instruct

O Meta-Llama-3.3-70B-Instruct é um modelo de linguagem grande de última geração com um contexto de 128.000 tokens que foi criado e treinado pelo Meta. O modelo oferece suporte a vários idiomas e é otimizado para casos de uso de diálogo. Saiba mais sobre o Meta Llama 3.3.

Semelhante a outros modelos de linguagem de grande porte, o resultado do Llama-3 pode omitir alguns fatos e, ocasionalmente, produzir informações falsas. A Databricks recomenda o uso da geração aumentada de recuperação (RAG) em cenários em que a precisão é especialmente importante.

Soneto Anthropic de Claude 4.5

important

Os clientes são responsáveis por garantir que cumpra compliance os termos da Anthropic Política de Uso Aceitável da.

Claude Sonnet 4.5 é o modelo de raciocínio híbrido mais avançado da Anthropic. Ele oferece dois modos: respostas quase instantâneas e pensamento estendido para raciocínio mais profundo com base na complexidade da tarefa. Claude Sonnet 4.5 é especialista em aplicações que exigem um equilíbrio entre pensamento prático e avançado, como agentes de atendimento ao cliente, fluxo de trabalho de codificação de produção e geração de conteúdo em escala.

Assim como acontece com outros grandes modelos de linguagem, a saída do Claude Sonnet 4.5 pode omitir alguns fatos e ocasionalmente produzir informações falsas. A Databricks recomenda o uso da geração aumentada de recuperação (RAG) em cenários onde a precisão é especialmente importante.

Esse endpoint é hospedado pela Databricks Inc. no AWS dentro do perímetro de segurança da Databricks.

Anthropic Claude Soneto 4

important

Os clientes são responsáveis por garantir que cumpra compliance os termos da Anthropic Política de Uso Aceitável da.

O Claude Sonnet 4 é um modelo de raciocínio híbrido de última geração, criado e treinado pela Anthropic. Esse modelo oferece dois modos: respostas quase instantâneas e pensamento ampliado para um raciocínio mais profundo com base na complexidade da tarefa. O Claude Sonnet 4 é otimizado para várias tarefas, como desenvolvimento de código, análise de conteúdo de grande escala e desenvolvimento de aplicativos de agentes.

Como acontece com outros modelos de linguagem grandes, o resultado do Claude Sonnet 4 pode omitir alguns fatos e, ocasionalmente, produzir informações falsas. A Databricks recomenda o uso da geração aumentada de recuperação (RAG) em cenários em que a precisão é especialmente importante.

Esse endpoint é hospedado pela Databricks Inc. no AWS dentro do perímetro de segurança da Databricks.

Anthropic Claude Opus 4.1

important

Os clientes são responsáveis por garantir que cumpra compliance os termos da Anthropic Política de Uso Aceitável da.

Claude Opus 4.1 é um modelo de raciocínio híbrido de última geração criado e treinado pela Anthropic. Este modelo de linguagem de grande porte de propósito geral foi projetado tanto para raciocínio complexo quanto para aplicações do mundo real em escala empresarial. Ele suporta entrada de texto e imagem, com uma janela de contexto de 200 mil tokens e recursos de tokens de saída de 32 mil. Este modelo se destaca em tarefas como geração de código, pesquisa e criação de conteúdo, além de agentes de fluxo de trabalho multietapas sem intervenção humana constante.

Assim como acontece com outros grandes modelos de linguagem, a saída do Claude Opus 4.1 pode omitir alguns fatos e ocasionalmente produzir informações falsas. A Databricks recomenda o uso da geração aumentada de recuperação (RAG) em cenários onde a precisão é especialmente importante.

Esse endpoint é hospedado pela Databricks Inc. no AWS dentro do perímetro de segurança da Databricks.

Anthropic Claude 3.7 Soneto

important

Os clientes são responsáveis por garantir que cumpra compliance os termos da Anthropic Política de Uso Aceitável da.

Claude 3.7 O Sonnet é um modelo de raciocínio híbrido de última geração, criado e treinado pela Anthropic. Trata-se de um grande modelo de linguagem e de raciocínio capaz de responder rapidamente ou ampliar seu raciocínio com base na complexidade da tarefa. Quando no modo de pensamento estendido, as etapas de raciocínio do Claude 3.7 Sonnet são visíveis para o usuário. Claude 3.7 O Sonnet é otimizado para várias tarefas, como geração de código, raciocínio matemático e acompanhamento de instruções.

Como acontece com outros modelos de linguagem grandes, o resultado do Claude 3.7 pode omitir alguns fatos e, ocasionalmente, produzir informações falsas. A Databricks recomenda o uso da geração aumentada de recuperação (RAG) em cenários em que a precisão é especialmente importante.

Esse endpoint é hospedado pela Databricks Inc. no AWS dentro do perímetro de segurança da Databricks.

GTE Large (En)

important

O GTE Large (En) é fornecido sob e sujeito à Licença Apache 2.0, Copyright (c) The Apache Software Foundation, Todos os direitos reservados. Os clientes são responsáveis por garantir o compliance com as licenças de modelo aplicáveis.

O General Text Embedding (GTE) é um modelo de incorporação de texto que pode mapear qualquer texto para um vetor de incorporação de 1024 dimensões e uma janela de incorporação de 8192 tokens. Esses vetores podem ser usados em índices de vetores para LLMs e para tarefas como recuperação, classificação, resposta a perguntas, clustering ou pesquisa semântica. Esse endpoint serve a versão em inglês do modelo e não gera embeddings normalizados.

Os modelos de incorporação são especialmente eficazes quando usados em conjunto com LLMs para casos de uso de geração aumentada de recuperação (RAG). O GTE pode ser usado para encontrar trechos de texto relevantes em grandes blocos de documentos que podem ser usados no contexto de um LLM.

Recurso adicional