Pular para o conteúdo principal

Consulte um modelo de bate-papo

Neste artigo, você aprenderá a escrever solicitações de consulta para modelos básicos otimizados para tarefas de chat e enviá-las ao seu modelo de serviço endpoint.

Os exemplos neste artigo se aplicam à consulta de modelos básicos disponibilizados usando:

Requisitos

Exemplos de consultas

Os exemplos nesta seção mostram como consultar o modelo Meta Llama 3.3 70B Instruct disponibilizado pelo Foundation Model APIs pay-per-tokens endpoint, databricks-meta-llama-3-3-70b-instruct, utilizando as diferentes opções do cliente.

Para obter um exemplo de inferência de lotes, consulte Aplicar AI no uso de dados Databricks AI Functions.

Para utilizar o cliente OpenAI, especifique o nome do modelo em execução endpoint como entrada model.

Python

from databricks.sdk import WorkspaceClient

w = WorkspaceClient()
openai_client = w.serving_endpoints.get_open_ai_client()

response = openai_client.chat.completions.create(
model="databricks-meta-llama-3-3-70b-instruct",
messages=[
{
"role": "system",
"content": "You are a helpful assistant."
},
{
"role": "user",
"content": "What is a mixture of experts model?",
}
],
max_tokens=256
)

Para consultar modelos básicos fora do seu workspace, é necessário utilizar diretamente o cliente OpenAI. Você também necessita da sua instância Databricks workspace para conectar o cliente OpenAI a Databricks. O exemplo a seguir pressupõe que você possui um token Databricks API e um token openai instalado em seu compute.

Python

import os
import openai
from openai import OpenAI

client = OpenAI(
api_key="dapi-your-databricks-token",
base_url="https://example.staging.cloud.databricks.com/serving-endpoints"
)

response = client.chat.completions.create(
model="databricks-meta-llama-3-3-70b-instruct",
messages=[
{
"role": "system",
"content": "You are a helpful assistant."
},
{
"role": "user",
"content": "What is a mixture of experts model?",
}
],
max_tokens=256
)

Como exemplo, segue abaixo o formato de solicitação esperado para um modelo de chat ao utilizar a API REST. Para modelos externos, é possível incluir parâmetros adicionais válidos para um determinado provedor e uma configuração d endpoint. Consulte Parâmetros de consulta adicionais.

Bash
{
"messages": [
{
"role": "user",
"content": "What is a mixture of experts model?"
}
],
"max_tokens": 100,
"temperature": 0.1
}

A seguir, apresentamos o formato esperado para uma resposta a uma solicitação feita usando a API REST:

JSON
{
"model": "databricks-meta-llama-3-3-70b-instruct",
"choices": [
{
"message": {},
"index": 0,
"finish_reason": null
}
],
"usage": {
"prompt_tokens": 7,
"completion_tokens": 74,
"total_tokens": 81
},
"object": "chat.completion",
"id": null,
"created": 1698824353
}

Modelos compatíveis

Consulte os tipos de modelo do Foundation para ver os modelos de bate-papo compatíveis.

Recurso adicional