Databricks ativo Bundles recurso
Databricks O ativo Bundles permite que o senhor especifique informações sobre o recurso Databricks usado pelo pacote no mapeamento resources na configuração do pacote. Consulte recurso mapping e recurso key reference.
Esta página fornece uma referência de configuração para todos os tipos de recursos suportados para pacotes, incluindo detalhes e um exemplo para cada tipo suportado. Para exemplos adicionais, consulte Exemplos de configuração de pacotes.
O esquema JSON para pacotes usado para validar a configuração YAML está no repositório GitHub da CLI do Databricks.
Para gerar YAML para qualquer recurso existente, utilize o comando databricks bundle generate. Veja a geração do pacote databricks.
Recurso suportado
A tabela a seguir lista os tipos de recursos suportados para pacotes (YAML e Python, quando aplicável). Alguns recursos podem ser criados definindo-os em um pacote e implantando o pacote, enquanto outros recursos só podem ser criados referenciando uma ativa existente para inclusão no pacote.
A configuração de recurso define um objeto Databricks que corresponde a um objeto APIREST Databricks . Os campos de solicitação de criação suportados pelo objeto API REST , expressos em YAML, são a chave suportada do recurso. Os links para a documentação de cada objeto correspondente a um recurso encontram-se na tabela abaixo.
O comando databricks bundle validate retorna avisos se forem encontradas propriedades de recurso desconhecidas nos arquivos de configuração do pacote.
Recursos | Objeto correspondente da API REST | |
|---|---|---|
registered_model (Unity Catalog) | ||
schema (Unity Catalog) | ||
volume (Unity Catalog) |
aplicativo
Type: Map
O recurso de aplicativo define um aplicativo Databricks. Para obter informações sobre Databricks Apps, consulte Databricks Apps.
Para adicionar um aplicativo, especifique as configurações para definir o aplicativo, incluindo o source_code_path necessário.
O senhor pode inicializar um pacote com um aplicativo Streamlit Databricks usando o seguinte comando:
databricks bundle init https://github.com/databricks/bundle-examples --template-dir contrib/templates/streamlit-app
apps:
<app-name>:
<app-field-name>: <app-field-value>
Chave | Tipo | Descrição |
|---|---|---|
| String | O ID da política de orçamento do aplicativo. |
| String | O tamanho compute para o aplicativo. Os valores válidos são |
| Mapa | Obsoleto. Em vez disso, defina o comando de configuração do aplicativo e a variável de ambiente no arquivo |
| String | A descrição do aplicativo. |
| Mapa | O comportamento do recurso quando ele é implantado ou destruído. Veja ciclo de vida. |
| String | O nome do aplicativo. O nome deve conter somente caracteres alfanuméricos minúsculos e hífens. Ele deve ser exclusivo no site workspace. |
| Sequência | As permissões do aplicativo. Veja as permissões. |
| Sequência | O aplicativo compute recursos. Veja app.recurso. |
| String | O caminho local |
| Sequência | Os escopos da API do usuário. |
app.recurso
Type: Sequence
O compute recurso para o aplicativo.
Chave | Tipo | Descrição |
|---|---|---|
| String | A descrição do recurso do aplicativo. |
| Mapa | As configurações que identificam o banco de dados Lakebase a ser usado. Consulte app.recurso.database. |
| Mapa | As configurações que identificam o espaço Genie a ser usado. Veja app.recurso.genie_space. |
| Mapa | As configurações que identificam o recurso de trabalho a ser usado. Veja app.recurso.Job. |
| String | O nome do recurso do aplicativo. |
| Mapa | As configurações que identificam o recurso secreto do Databricks a ser usado. Veja app.recurso.secret. |
| Mapa | As configurações que identificam o recurso endpoint do modelo de serviço a ser usado. Consulte app.recurso.serving_endpoint. |
| Mapa | As configurações que identificam o recurso SQL warehouse a ser usado. Consulte app.recurso.sql_warehouse. |
| Mapa | As configurações que identificam o volume Unity Catalog a ser usado. Veja app.recurso.uc_securable. |
app.recurso.database
Type: Map
As configurações que identificam o banco de dados Lakebase a ser usado.
Chave | Tipo | Descrição |
|---|---|---|
| String | O ID da instância do banco de dados. |
| String | O nível de permissão para o banco de dados. Os valores válidos incluem |
app.recurso.genie_space
Type: Map
As configurações que identificam o espaço Genie a ser usado.
Chave | Tipo | Descrição |
|---|---|---|
| String | O nome do espaço Genie. |
| String | O nível de permissão para o espaço. Os valores válidos incluem |
| String | O ID do espaço Genie, por exemplo |
app.recurso.Job
Type: Map
As configurações que identificam o recurso de trabalho a ser usado.
Chave | Tipo | Descrição |
|---|---|---|
| String | A ID do job. |
| String | O nível de permissão para a tarefa. Os valores válidos incluem |
app.recurso.secret
Type: Map
As configurações que identificam o recurso secreto do Databricks a ser usado.
Chave | Tipo | Descrição |
|---|---|---|
| String | O nome do Escopo Secreto. |
| String | A key está dentro do Escopo Secreto. |
| String | O nível de permissão para o segredo. Os valores válidos incluem |
app.recurso.serving_endpoint
Type: Map
As configurações que identificam o modelo de serviço endpoint recurso a ser usado.
Chave | Tipo | Descrição |
|---|---|---|
| String | O nome do endpoint de serviço. |
| String | O nível de permissão para o endpoint de serviço. Os valores válidos incluem |
app.recurso.sql_warehouse
Type: Map
As configurações que identificam o SQL warehouse a ser usado.
Chave | Tipo | Descrição |
|---|---|---|
| String | O ID do SQL warehouse. |
| String | O nível de permissão para o SQL warehouse. Os valores válidos incluem |
app.recurso.uc_securable
Type: Map
As configurações que identificam o volume do Unity Catalog a ser usado.
Chave | Tipo | Descrição |
|---|---|---|
| String | O nome completo do Unity Catalog pode ser protegido no formato |
| String | O nível de permissão para o item protegível por UC. Os valores válidos incluem |
Exemplo
O exemplo a seguir cria um aplicativo chamado my_app que gerencia um Job criado pelo bundle:
resources:
jobs:
# Define a job in the bundle
hello_world:
name: hello_world
tasks:
- task_key: task
spark_python_task:
python_file: ../src/main.py
environment_key: default
environments:
- environment_key: default
spec:
environment_version: '2'
# Define an app that manages the job in the bundle
apps:
job_manager:
name: 'job_manager_app'
description: 'An app which manages a job created by this bundle'
# The location of the source code for the app
source_code_path: ../src/app
# The resources in the bundle which this app has access to. This binds the resource in the app with the bundle resource.
resources:
- name: 'app-job'
job:
id: ${resources.jobs.hello_world.id}
permission: 'CAN_MANAGE_RUN'
O app.yaml correspondente define a configuração para executar o aplicativo:
command:
- flask
- --app
- app
- run
- --debug
env:
- name: JOB_ID
valueFrom: 'app-job'
Para obter o pacote completo de exemplos de aplicativos Databricks, consulte o repositório GitHub de exemplos de pacotes.
agrupamento
Type: Map
O recurso de clustering define um clustering.
clusters:
<cluster-name>:
<cluster-field-name>: <cluster-field-value>
Chave | Tipo | Descrição |
|---|---|---|
| Booleana | Quando definido como true, os valores fixos e default da política serão usados para os campos que forem omitidos. Quando definido como falso, somente valores fixos da política serão aplicados. |
| Mapa | Parâmetros necessários para escalonar automaticamente o clustering para cima e para baixo com base na carga. Veja autoscale. |
| Integer | Encerra automaticamente o clustering depois que ele fica inativo por esse tempo em minutos. Se não for definido, esse clustering não será encerrado automaticamente. Se especificado, o limite deve estar entre 10 e 10.000 minutos. Os usuários também podem definir esse valor como 0 para desativar explicitamente o encerramento automático. |
| Mapa | Atributos relacionados ao clustering em execução no serviço Amazon Web. Se não for especificado na criação do clustering, será usado um conjunto de valores default. Veja aws_attributes. |
| Mapa | Atributos relacionados ao clustering em execução em Microsoft Azure. Se não for especificado na criação do clustering, será usado um conjunto de valores default. Veja azure_attributes. |
| Mapa | A configuração para entrega de spark logs a um destino de armazenamento de longo prazo. Veja clustering. |
| String | nome do clustering solicitado pelo usuário. Isso não precisa ser exclusivo. Se não for especificado na criação, o nome do clustering será uma cadeia de caracteres vazia. |
| Mapa | tags adicionais para recurso cluster . Databricks tag todos os recursos cluster (por exemplo, instâncias AWS e volumes EBS) com essas tags além de |
| String | O modelo de governança de dados a ser utilizado ao acessar dados de um cluster. Os valores válidos incluem |
| Mapa | A imagem personalizada do Docker. Veja Docker. |
| String | O ID opcional da instância pool para o driver do clustering pertence. O clustering pool usa a instância pool com id (instance_pool_id) se o driver pool não estiver atribuído. |
| String | O tipo de nó do driver do Spark. Observe que esse campo é opcional; se não for definido, o tipo de nó do driver será definido como o mesmo valor de |
| Booleana | autoscale Local Storage: quando ativado, esse clustering adquirirá dinamicamente espaço em disco adicional quando o worker Spark estiver com pouco espaço em disco. Esse recurso requer permissões específicas no site AWS para funcionar corretamente - consulte o Guia do Usuário para obter mais detalhes. |
| Booleana | Se o LUKS deve ser ativado nos discos locais das VMs de clustering |
| Mapa | Atributos relacionados ao clustering em execução no Google Cloud Platform. Se não for especificado na criação do clustering, será usado um conjunto de valores default. Veja gcp_attributes. |
| Sequência | A configuração para armazenar o script de inicialização. Qualquer número de destinos pode ser especificado. Os scripts são executados sequencialmente na ordem fornecida. Veja init_scripts. |
| String | O ID opcional da instância pool à qual o clustering pertence. |
| Booleana | Esse campo só pode ser usado quando |
| String | O tipo de compute descrito por esta especificação compute. |
| String | Esse campo codifica, por meio de um único valor, o recurso disponível para cada um dos nós do Spark nesse clustering. Por exemplo, os nós do Spark podem ser provisionados e otimizados para cargas de trabalho intensivas de memória ou compute. Uma lista dos tipos de nós disponíveis pode ser recuperada usando o método:Chamada de API /listNodeTypes. |
| Integer | Número de nós worker que esse clustering deve ter. Um clustering tem um driver Spark e um executor |
| Sequência | As permissões de clustering. Veja as permissões. |
| String | A ID da política de cluster usada para criar o clustering, se aplicável. |
| String | Determina o mecanismo de tempo de execução do clustering, |
| String | Nome de usuário único se data_security_mode for |
| Mapa | Um objeto contendo um conjunto de parâmetros de configuração Spark opcionais, especificados pelo usuário, no formato key-valor. Os usuários também podem passar strings de opções JVM extras para o driver e o executor por meio de |
| Mapa | Um objeto que contém um conjunto de variáveis de ambiente opcionais, especificadas pelo usuário, para key-value. |
| String | A versão Spark do clustering, por exemplo. |
| Sequência | SSH público key conteúdo que será adicionado a cada nó Spark nesse clustering. A chave privada correspondente pode ser usada para fazer login com o nome de usuário |
| Booleana | Esse campo só pode ser usado quando |
| Mapa | clustering Atributos que mostram os tipos de carga de trabalho de clustering. Veja workload_type. |
cluster.autoscale
Type: Map
Parâmetros para dimensionar automaticamente os clusters para cima e para baixo com base na carga.
Chave | Tipo | Descrição |
|---|---|---|
| Integer | O número mínimo de trabalhadores para o qual o cluster pode reduzir quando subutilizado. É também o número inicial de trabalhadores que o cluster terá após a sua criação. |
| Integer | O número máximo de trabalhadores que o cluster pode aumentar em caso de sobrecarga. |
cluster.aws_attributes
Type: Map
Atributos relacionados a clusters em execução no Amazon Web Services.
Chave | Tipo | Descrição |
|---|---|---|
| String | Identificador da zona de disponibilidade/centro de dados em que o cluster reside. Essas strings terão um formato como |
| String | Tipo de disponibilidade usado para todos os nós subsequentes após os nós |
| Integer | O preço máximo para instâncias spot da AWS, como uma porcentagem do preço sob demanda do tipo de instância correspondente. |
| String | Os nós deste cluster serão alocados apenas em instâncias AWS com este instance profile. |
| Integer | Os primeiros |
| String | O tipo de volumes EBS que serão iniciados com este cluster. Os valores válidos são |
| Integer | O número de volumes iniciados para cada instância. |
| Integer | O tamanho de cada volume EBS (em GiB) iniciado para cada instância. |
| Integer | Número de IOPS por volume de EBS gp3. |
| Integer | Taxa de transferência por volume EBS gp3, em MiB por segundo. |
cluster.azure_attributes
Type: Map
Atributos relacionados a clusters em execução no Microsoft Azure.
Chave | Tipo | Descrição |
|---|---|---|
| Integer | Os primeiros |
| String | Tipo de disponibilidade usado para todos os nós subsequentes após os nós |
| Número | O preço máximo para instâncias spot do Azure. Use |
cluster.gcp_atributos
Type: Map
Atributos relacionados a clusters em execução na plataforma Google Cloud.
Chave | Tipo | Descrição |
|---|---|---|
| Booleana | Se deve ou não utilizar um executor preemptível. Os executores preemptíveis são instâncias do GCE que podem ser recuperadas pelo GCE a qualquer momento. |
| String | A account do serviço Google a ser usada pelas instâncias de VM cluster Databricks . |
| Integer | O número de SSD locais a serem conectados a cada nó do cluster. O valor default é |
| String | Identificador da zona de disponibilidade/centro de dados em que o cluster reside. |
| String | Tipo de disponibilidade utilizado para todos os nós. Os valores válidos são |
| Integer | O tamanho do disco de inicialização em GB. Os valores normalmente variam de 100 a 1000. |
cluster.cluster_log_conf
Configuração para enviar logs do Spark para um destino de armazenamento de longo prazo.
Chave | Tipo | Descrição |
|---|---|---|
| Mapa | Localização DBFS para entrega log cluster . Veja dbfs. |
| Mapa | Localização S3 para entrega log cluster . Ver s3. |
| Mapa | Localização dos volumes para entrega log cluster . Ver volumes. |
cluster.cluster_log_conf.dbfs
Type: Map
Localização DBFS para entrega log cluster .
Chave | Tipo | Descrição |
|---|---|---|
| String | O caminho DBFS para entrega log cluster (por exemplo, |
cluster.cluster_log_conf.s3
Type: Map
Localização S3 para entrega log cluster .
Chave | Tipo | Descrição |
|---|---|---|
| String | O URI S3 para entrega log cluster (por exemplo, |
| String | A região da AWS do bucket S3. |
| String | URL do endpoint S3 (opcional). |
| Booleana | Ativar ou não a criptografia para os logs do cluster. |
| String | O tipo de criptografia. Os valores válidos incluem |
| String | O ARN key KMS para criptografia (ao usar |
| String | A ACL predefinida para aplicar aos logs do cluster. |
cluster.cluster_log_conf.volumes
Type: Map
Localização dos volumes para entrega log cluster .
Chave | Tipo | Descrição |
|---|---|---|
| String | O caminho do volume para entrega log cluster (por exemplo, |
cluster.docker_image
Type: Map
Configuração personalizada da imagem Docker .
Chave | Tipo | Descrição |
|---|---|---|
| String | URL da imagem Docker . |
| Mapa | Autenticação básica para repositório Docker. Consulte autenticação básica. |
cluster.docker_image.basic_auth
Type: Map
Autenticação básica para repositório Docker.
Chave | Tipo | Descrição |
|---|---|---|
| String | O nome de usuário para autenticação no registro do Docker. |
| String | A senha para autenticação do registro Docker. |
scripts de inicializaçãocluster
Type: Map
Configuração para armazenar o script de inicialização. Pelo menos um tipo de localização deve ser especificado.
Chave | Tipo | Descrição |
|---|---|---|
| Mapa | Localização do init script DBFS . Veja dbfs. |
| Mapa | Localização do init script no espaço de trabalho. Veja workspace. |
| Mapa | Localização do init script S3 . Ver s3. |
| Mapa | Localização do init script do ABFSS. Veja abfss. |
| Mapa | Localização do init script GCS . Consulte GCS. |
| Mapa | Localização do init script nos volumes da UC. Ver volumes. |
cluster.init_scripts.dbfs
Type: Map
Localização do init script DBFS .
Chave | Tipo | Descrição |
|---|---|---|
| String | O caminho DBFS do init script. |
cluster.init_scripts.workspace
Type: Map
Localização do init script no espaço de trabalho.
Chave | Tipo | Descrição |
|---|---|---|
| String | O caminho workspace do init script. |
cluster.init_scripts.s3
Type: Map
Localização do init script S3 .
Chave | Tipo | Descrição |
|---|---|---|
| String | O URI S3 do init script. |
| String | A região da AWS do bucket S3. |
| String | URL do endpoint S3 (opcional). |
cluster.init_scripts.abfss
Type: Map
Localização do init script do ABFSS.
Chave | Tipo | Descrição |
|---|---|---|
| String | O caminho ABFSS do init script. |
cluster.init_scripts.GCS
Type: Map
Localização do init script GCS .
Chave | Tipo | Descrição |
|---|---|---|
| String | O caminho GCS do init script. |
cluster.init_scripts.volumes
Type: Map
Localização dos volumes do init script.
Chave | Tipo | Descrição |
|---|---|---|
| String | O caminho dos volumes UC do init script. |
cluster.workload_type
Type: Map
Atributos do cluster que mostram os tipos de carga de trabalho cluster .
Chave | Tipo | Descrição |
|---|---|---|
| Mapa | Define que tipo de clientes podem usar o cluster. Veja os clientes. |
cluster.workload_type.clients
Type: Map
O tipo de clientes para esta carga de trabalho compute .
Chave | Tipo | Descrição |
|---|---|---|
| Booleana | Se o cluster pode executar o trabalho. |
| Booleana | Se o cluster pode executar o Notebook. |
Exemplos
O exemplo a seguir cria um clustering dedicado (usuário único) para o usuário atual com Databricks Runtime 15.4 LTS e uma política de cluster:
resources:
clusters:
my_cluster:
num_workers: 0
node_type_id: 'i3.xlarge'
driver_node_type_id: 'i3.xlarge'
spark_version: '15.4.x-scala2.12'
spark_conf:
'spark.executor.memory': '2g'
autotermination_minutes: 60
enable_elastic_disk: true
single_user_name: ${workspace.current_user.userName}
policy_id: '000128DB309672CA'
enable_local_disk_encryption: false
data_security_mode: SINGLE_USER
runtime_engine": STANDARD
Este exemplo cria um clustering simples my_cluster e o define como o clustering a ser usado para executar o Notebook em my_job:
bundle:
name: clusters
resources:
clusters:
my_cluster:
num_workers: 2
node_type_id: 'i3.xlarge'
autoscale:
min_workers: 2
max_workers: 7
spark_version: '13.3.x-scala2.12'
spark_conf:
'spark.executor.memory': '2g'
jobs:
my_job:
tasks:
- task_key: test_task
notebook_task:
notebook_path: './src/my_notebook.py'
existing_cluster_id: ${resources.clusters.my_cluster.id}
painel
Type: Map
O recurso de dashboard permite que o senhor gerencie AI/BI dashboards em um pacote. Para obter informações sobre AI/BI dashboards, consulte Dashboards.
Se você implementou um pacote que contém um painel do seu ambiente local e, em seguida, usa a interface do usuário para modificar esse painel, as modificações feitas por meio da interface do usuário não serão aplicadas ao arquivo JSON do painel no pacote local, a menos que você o atualize explicitamente usando bundle generate. Você pode usar a opção --watch para pesquisar e recuperar continuamente as alterações no painel. Veja databricks bundle generate.
Além disso, se você tentar implementar um pacote do seu ambiente local que contenha um arquivo JSON do painel diferente daquele no workspace remoto, ocorrerá um erro. Para forçar a instalação e substituir o painel no workspace remoto pelo local, use a opção --force . Veja pacote de databricks implantado.
Ao usar Databricks ativo Bundles com suporte a dashboard Git, evite que sejam gerados dashboards duplicados adicionando o mapeamento de sincronização para excluir a sincronização dos dashboards como arquivos:
sync:
exclude:
- src/*.lvdash.json
dashboards:
<dashboard-name>:
<dashboard-field-name>: <dashboard-field-value>
Chave | Tipo | Descrição |
|---|---|---|
| String | O nome de exibição do painel. |
| Booleana | Se as credenciais de identidade de implantação do pacote são usadas para executar consultas para todos os visualizadores do painel. Se estiver definido como |
| String | A etag do painel. Pode ser fornecido opcionalmente nas atualizações para garantir que o painel não tenha sido modificado desde a última leitura. |
| String | O caminho local do ativo do dashboard, incluindo o nome do arquivo. Os painéis exportados sempre têm a extensão de arquivo |
| Sequência | As permissões do painel. Veja as permissões. |
| Qualquer um | O conteúdo do painel na forma de cadeias de caracteres serializadas. |
| String | O ID do depósito usado para executar o painel. |
Exemplo
O exemplo a seguir inclui e implanta a amostra do painel de análise de viagens de táxi de Nova York no site Databricks workspace.
resources:
dashboards:
nyc_taxi_trip_analysis:
display_name: 'NYC Taxi Trip Analysis'
file_path: ../src/nyc_taxi_trip_analysis.lvdash.json
warehouse_id: ${var.warehouse_id}
catálogo_de_banco_de_dados
Type: Map
O recurso de catálogo de banco de dados permite que o senhor defina catálogos de banco de dados que correspondem a instâncias de banco de dados em um pacote. Um catálogo de banco de dados é um banco de dados Lakebase registrado como um catálogo do Unity Catalog.
database_catalogs:
<database_catalog-name>:
<database_catalog-field-name>: <database_catalog-field-value>
Chave | Tipo | Descrição |
|---|---|---|
| Booleana | Se deve criar o banco de dados se ele não existir. |
| String | O nome da instância que abriga o banco de dados. |
| String | O nome do banco de dados (em uma instância) associado ao catálogo. |
| Mapa | Contém as configurações do ciclo de vida de um recurso, incluindo o comportamento do recurso quando ele é implantado ou destruído. Veja ciclo de vida. |
| String | O nome do catálogo no Unity Catalog. |
Exemplo
O exemplo a seguir define uma instância de banco de dados com um catálogo de banco de dados correspondente:
resources:
database_instances:
my_instance:
name: my-instance
capacity: CU_1
database_catalogs:
my_catalog:
database_instance_name: ${resources.database_instances.my_instance.name}
name: example_catalog
database_name: my_database
create_database_if_not_exists: true
instância_do_banco_de_dados
Type: Map
O recurso de instância de banco de dados permite que o senhor defina instâncias de banco de dados em um pacote. Uma instância do banco de dados Lakebase gerencia o armazenamento e compute recurso e fornece o ponto de extremidade ao qual os usuários se conectam.
Quando o senhor implanta um pacote com uma instância de banco de dados, a instância começa a funcionar imediatamente e está sujeita a preços. Veja os preços do Lakebase.
database_instances:
<database_instance-name>:
<database_instance-field-name>: <database_instance-field-value>
Chave | Tipo | Descrição |
|---|---|---|
| String | O SKU da instância. Os valores válidos são |
| Sequência | Uma lista de pares key-valor que especificam tags personalizadas associadas à instância. |
| Booleana | Se a instância tem o login com senha nativa PG ativado. padrão para |
| Booleana | Se deve permitir que os secundários forneçam tráfego somente para leitura. padrão para |
| Mapa | Contém as configurações do ciclo de vida de um recurso. Ele controla o comportamento do recurso quando este é implantado ou destruído. Veja ciclo de vida. |
| String | O nome da instância. Esse é o identificador exclusivo da instância. |
| Integer | O número de nós na instância, composto por 1 primário e 0 ou mais secundários. padrão para 1 primário e 0 secundários. |
| Mapa | A referência da instância pai. Isso só está disponível se a instância for uma instância filha. Veja a instância pai. |
| Sequência | As permissões da instância do banco de dados. Veja as permissões. |
| Integer | A janela de retenção da instância. Essa é a janela de tempo em dias para a qual os dados históricos são mantidos. O valor de default é 7 dias. Os valores válidos são de 2 a 35 dias. |
| Booleana | Se a instância foi interrompida. |
| String | A política de utilização desejada para associar à instância. |
database_instance.parent_instance_ref
Type: Map
A referência da instância pai. Isso só está disponível se a instância for instância filha.
Chave | Tipo | Descrição |
|---|---|---|
| String | Tempo de ramificação da instância do banco de dados de referência. Para uma instância de referência pai, este é o ponto no tempo na instância pai a partir do qual a instância foi criada. Para uma instância de referência filha, este é o ponto no tempo da instância a partir do qual a instância filha foi criada. |
| String | LSN WAL especificado pelo usuário para a instância do banco de dados de referência. |
| String | Nome da instância do banco de dados de referência. |
Exemplo
O exemplo a seguir define uma instância de banco de dados com um catálogo de banco de dados correspondente:
resources:
database_instances:
my_instance:
name: my-instance
capacity: CU_1
database_catalogs:
my_catalog:
database_instance_name: ${resources.database_instances.my_instance.name}
name: example_catalog
database_name: my_database
create_database_if_not_exists: true
Para obter um exemplo de pacote que demonstra como definir uma instância de banco de dados e o catálogo de banco de dados correspondente, consulte o repositório bundle-examples do GitHub.
experimento
Type: Map
O recurso de experimento permite que o senhor defina experimentos do MLflow em um pacote. Para obter informações sobre os experimentos do MLflow, consulte Organizar treinamento execução com os experimentos do MLflow.
experiments:
<experiment-name>:
<experiment-field-name>: <experiment-field-value>
Chave | Tipo | Descrição |
|---|---|---|
| String | O local onde os artefatos do experimento são armazenados. |
| Mapa | Contém as configurações do ciclo de vida de um recurso. Ele controla o comportamento do recurso quando este é implantado ou destruído. Veja ciclo de vida. |
| String | O nome amigável que identifica o experimento. O nome de um experimento deve ser um caminho absoluto no endereço Databricks workspace, por exemplo, |
| Sequência | As permissões do experimento. Veja as permissões. |
| Sequência | Metadados adicionais par key-value. Veja as tags. |
Exemplo
O exemplo a seguir define um experimento que todos os usuários podem view:
resources:
experiments:
experiment:
name: /Workspace/Users/someone@example.com/my_experiment
permissions:
- level: CAN_READ
group_name: users
description: MLflow experiment used to track runs
Trabalho
Type: Map
Os trabalhos são suportados em Python para Databricks Ativo Bundles. Consulte databricks.bundles.Job.
O recurso Job permite que você defina Jobs e suas respectivas tarefas em seu pacote.
Para obter informações sobre Job, consulte LakeFlow Jobs. Para obter um tutorial que usa um Databricks ativo Bundles padrão para criar um trabalho, consulte Desenvolver um trabalho com Databricks ativo Bundles.
jobs:
<job-name>:
<job-field-name>: <job-field-value>
Chave | Tipo | Descrição |
|---|---|---|
| String | O ID da política de orçamento especificada pelo usuário a ser usada para esse trabalho. Se não for especificado, uma política de orçamento default poderá ser aplicada ao criar ou modificar o trabalho. Consulte |
| Mapa | Uma propriedade contínua opcional para esse trabalho. A propriedade contínua garantirá que sempre haverá uma execução. Somente um dos |
| Mapa | Informações de implantação do Job gerenciar por fontes externas. Veja a implantação. |
| String | Uma descrição opcional para o trabalho. O tamanho máximo é de 27700 caracteres na codificação UTF-8. |
| String | Modo de edição do trabalho, |
| Mapa | Um conjunto opcional de endereços email que é notificado quando a execução desse trabalho começa ou é concluída, bem como quando esse trabalho é excluído. Veja o e-mail. |
| Sequência | Uma lista das especificações do ambiente de execução de tarefas que podem ser referenciadas pelas tarefas serverless deste Job. É necessário que haja um ambiente presente para que a tarefa serverless seja executada. Para tarefas de Notebook serverless , o ambiente pode ser acessado no painel de ambiente do Notebook. Para outras tarefas serverless , o ambiente da tarefa precisa ser especificado usando `environment_key` nas configurações da tarefa. |
| String | O formato do trabalho. |
| Mapa | Uma especificação opcional para um repositório Git remoto que contém o código-fonte usado pela tarefa. Importante: o campo Em vez disso, clone o repositório localmente e configure seu projeto de pacote dentro desse repositório, de modo que o código-fonte da tarefa seja o workspace. |
| Mapa | Um conjunto opcional de regras de integridade que podem ser definidas para esse trabalho. Veja saúde. |
| Sequência | Uma lista de especificações de agrupamento de trabalhos que podem ser compartilhadas e reutilizadas pela tarefa desse trabalho. Veja clustering. |
| Integer | Um número máximo opcional permitido de execução simultânea do Job. Defina este valor se desejar poder executar várias tarefas iguais simultaneamente. |
| String | Um nome opcional para o trabalho. O tamanho máximo é de 4096 bytes na codificação UTF-8. |
| Mapa | Configurações de notificação opcionais que são usadas ao enviar notificações para cada um dos sites |
| Sequência | Definições de parâmetros em nível Job . |
| String | Define o quão eficiente em termos de desempenho ou custo-benefício deve ser a execução em um serverless . |
| Sequência | As permissões do trabalho. Veja as permissões. |
| Mapa | As configurações de fila do trabalho. Veja a fila. |
| Mapa | Configuração somente para escrita. Especifica o usuário ou entidade de serviço na qual o trabalho é executado. Caso não seja especificado, a execução da tarefa será feita pelo usuário que a criou. Deve-se especificar |
| Mapa | Um programador periódico opcional para esse trabalho. O comportamento do default é que o trabalho só é executado quando acionado ao clicar em "Executar agora" na interface do usuário do Jobs ou ao enviar uma solicitação API para |
| Mapa | Um mapa de tags associadas ao trabalho. Elas são encaminhadas ao clustering como Cluster Tag para o clustering de trabalhos e estão sujeitas às mesmas limitações da Cluster Tag. Um máximo de 25 tags pode ser adicionado ao trabalho. |
| Sequência | Uma lista de especificações de tarefa a serem executadas por esse Job. Consulte Adicionar tarefa ao trabalho em Databricks ativo Bundles. |
| Integer | Um tempo limite opcional aplicado a cada execução desse trabalho. Um valor de |
| Mapa | Uma configuração para acionar uma execução quando determinadas condições são atendidas. Veja o gatilho. |
| Mapa | Uma coleção de IDs de notificação do sistema para notificar quando a execução desse trabalho for iniciada ou concluída. Veja webhook_notifications. |
Trabalho contínuo
Type: Map
Configuração para execução contínua de tarefas.
Chave | Tipo | Descrição |
|---|---|---|
| String | Se o trabalho contínuo está em pausa ou não. Valores válidos: |
Implantação de empregos
Type: Map
Informação de implantação para gerenciamento de trabalhos por fontes externas.
Chave | Tipo | Descrição |
|---|---|---|
| String | O tipo de implantação. Por exemplo, |
| String | O caminho para o arquivo de metadados da implantação. |
Notificações de emprego por e-mail
Type: Map
configurações de notificação por e-mail para execução do trabalho.
Chave | Tipo | Descrição |
|---|---|---|
| Sequência | Uma lista de endereços email para notificar quando uma execução começar. |
| Sequência | Uma lista de endereços email para notificar quando uma execução for bem-sucedida. |
| Sequência | Uma lista de endereços email para notificar quando uma execução falhar. |
| Sequência | Uma lista de endereços email para notificação quando a duração da execução exceder o limite de aviso. |
| Booleana | Se deve ignorar o envio de alerta para execução ignorada. |
Trabalho.git_source
Type: Map
Configuração do repositório Git para código fonte do Job.
Chave | Tipo | Descrição |
|---|---|---|
| String | O URL do repositório Git. |
| String | O provedor Git. Valores válidos: |
| String | O nome da ramificação Git a ser usada. |
| String | O nome da tag Git a ser usada. |
| String | O hash do commit do Git a ser usado. |
| Mapa | Informações commit utilizadas. Este campo é somente leitura. Veja git_snapshot. |
Job.git_source.git_snapshot
Type: Map
Instantâneo de informações commit somente leitura.
Chave | Tipo | Descrição |
|---|---|---|
| String | O hash de commit que foi utilizado. |
Trabalho.Saúde
Type: Map
Configuração de monitoramento de saúde para o trabalho.
Chave | Tipo | Descrição |
|---|---|---|
| Sequência | Uma lista de regras de saúde no trabalho. Cada regra contém um |
EmpregosRegra de Saúde
Type: Map
Chave | Tipo | Descrição |
|---|---|---|
| String | Especifica as métricas de saúde que estão sendo avaliadas para uma determinada regra de saúde.
|
| String | Especifica o operador usado para comparar o valor da métrica de saúde com o limite especificado. |
| Integer | Especifica o valor limite que as medidas de saúde devem obedecer para satisfazer a regra de saúde. |
Configurações de notificação de trabalho
Type: Map
Configurações de notificação que se aplicam a todas as notificações da tarefa.
Chave | Tipo | Descrição |
|---|---|---|
| Booleana | Se deve ignorar o envio de alerta para execução ignorada. |
| Booleana | Se deve ignorar o envio de alerta para execução cancelada. |
Fila de tarefas
Type: Map
Configurações da fila para a tarefa.
Chave | Tipo | Descrição |
|---|---|---|
| Booleana | Indica se o enfileiramento da tarefa deve ser ativado. |
Trabalho.programador
Type: Map
Configuração programática para execução periódica de tarefas.
Chave | Tipo | Descrição |
|---|---|---|
| String | Uma expressão Cron usando a sintaxe do Quartz que especifica quando a tarefa será executada. Por exemplo, |
| String | O fuso horário do programador. Por exemplo, |
| String | Se o programador está pausado ou não. Valores válidos: |
Trabalho.gatilho
Type: Map
Configuração de gatilhos para execução de tarefas orientadas a eventos.
Chave | Tipo | Descrição |
|---|---|---|
| Mapa | Acionado com base na chegada do arquivo. Veja file_arrival. |
| Mapa | Gatilho baseado em uma tabela. Veja a tabela. |
| Mapa | Acionado com base em atualizações de tabela. Veja atualização_da_tabela. |
| Mapa | Gatilho periódico. Veja periódico. |
Trabalho.gatilho.arquivo_chegada
Type: Map
Configuração de gatilho com base na chegada de arquivos.
Chave | Tipo | Descrição |
|---|---|---|
| String | O caminho do arquivo a ser monitorado em busca de novos arquivos. |
| Integer | Tempo mínimo em segundos entre eventos de disparo. |
| Integer | Tempo de espera em segundos após a última alteração de arquivo antes de acionar o mecanismo. |
Tabela de gatilho de trabalho
Type: Map
Configuração de gatilhos baseada em uma tabela.
Chave | Tipo | Descrição |
|---|---|---|
| Sequência | Uma lista de nomes de tabelas a serem monitoradas. |
| String | A condição SQL que deve ser atendida para acionar a tarefa. |
Job.trigger.table_update
Type: Map
Configuração de gatilhos com base em atualizações de tabelas.
Chave | Tipo | Descrição |
|---|---|---|
| Sequência | Uma lista de nomes de tabelas a serem monitoradas para atualizações. |
| String | A condição SQL que deve ser atendida para acionar a tarefa. |
| Integer | Tempo de espera em segundos após a última atualização da tabela antes de acionar o mecanismo. |
Trabalho.gatilho.periódico
Type: Map
Configuração de gatilho periódico.
Chave | Tipo | Descrição |
|---|---|---|
| Integer | O valor do intervalo para o gatilho periódico. |
| String | A unidade de tempo para o intervalo. Valores válidos: |
Notificações de webhook de trabalho
Type: Map
Configurações de notificação de webhook para execução de trabalho.
Chave | Tipo | Descrição |
|---|---|---|
| Sequência | Uma lista de IDs de notificação de webhook para notificar quando uma execução começar. |
| Sequência | Uma lista de IDs de notificação de webhook para avisar quando uma execução for bem-sucedida. |
| Sequência | Uma lista de IDs de notificação de webhook para avisar quando uma execução falhar. |
| Sequência | Uma lista de IDs de notificação de webhook para avisar quando a duração de uma execução exceder o limite de aviso. |
Exemplos
O exemplo a seguir define um Job com o recurso key hello-job com uma tarefa de Notebook:
resources:
jobs:
hello-job:
name: hello-job
tasks:
- task_key: hello-task
notebook_task:
notebook_path: ./hello.py
O exemplo a seguir define um trabalho com um notebook SQL:
resources:
jobs:
job_with_sql_notebook:
name: 'Job to demonstrate using a SQL notebook with a SQL warehouse'
tasks:
- task_key: notebook
notebook_task:
notebook_path: ./select.sql
warehouse_id: 799f096837fzzzz4
Para obter exemplos adicionais de configuração de trabalho, consulte Job configuration.
Para obter informações sobre como definir a tarefa do trabalho e substituir as configurações do trabalho, consulte:
- Adicione tarefas a trabalhos em Pacotes de ativos do Databricks
- Substituição de configurações de tarefas Job
modelo (legado)
Type: Map
O recurso de modelo permite que o senhor defina modelos legados em pacotes. A Databricks recomenda que o senhor use os modelos registrados do Unity Catalog.
model_serving_endpoint
Type: Map
O recurso model_serving_endpoint permite que o senhor defina o endpoint do modelo de serviço. Consulte o endpoint gerenciar servindo modelo.
model_serving_endpoints:
<model_serving_endpoint-name>:
<model_serving_endpoint-field-name>: <model_serving_endpoint-field-value>
Chave | Tipo | Descrição |
|---|---|---|
| Mapa | A configuração do AI Gateway para o endpoint de serviço. OBSERVAÇÃO: no momento, somente o modelo externo e o ponto de extremidade da taxa de transferência de provisionamento são compatíveis. Ver IA. |
| Mapa | A configuração principal do endpoint de serviço. Veja a configuração. |
| String | O nome do endpoint de serviço. Esse campo é obrigatório e deve ser exclusivo em um site Databricks workspace. Um nome endpoint pode consistir em caracteres alfanuméricos, traços e sublinhado. |
| Sequência | As permissões do servindo modelo endpoint. Veja as permissões. |
| Sequência | Obsoleto. Limites de taxa a serem aplicados ao endpoint de atendimento. Use o AI Gateway para gerenciar os limites de taxa. |
| Booleana | Habilite a otimização de rota para o serviço endpoint. |
| Sequência | Etiquetas a serem anexadas ao endpoint de serviço e propagadas automaticamente para logs de faturamento. |
model_serving_endpoint.ai_gateway
Type: Map
Configuração AI Gateway para o endpoint de serviço.
Chave | Tipo | Descrição |
|---|---|---|
| Mapa | Configuração do guarda-corpo. Veja os guarda-corpos. |
| Mapa | Configuração para registro de inferências em tabelas Unity Catalog . Consulte inference_table_config. |
| Sequência | Configurações de limite de taxa. |
| Mapa | Configuração para uso de envio. Consulte usage_tracking_config. |
model_serving_endpoint.ai_gateway.guardrails
Type: Map
Configuração das diretrizes de segurança do gateway AI .
Chave | Tipo | Descrição |
|---|---|---|
| Mapa | Configuração de guarda-corpos de entrada com campos como |
| Mapa | Configuração de guarda-corpos de saída com campos como |
| Sequência | Uma lista de palavras-chave para bloquear. |
model_serving_endpoint.ai_gateway.inference_table_config
Type: Map
Configuração para registro de inferências em tabelas Unity Catalog .
Chave | Tipo | Descrição |
|---|---|---|
| String | O nome do catálogo no Unity Catalog. |
| String | O nome do esquema no Unity Catalog. |
| String | O prefixo para nomes de tabelas de inferência. |
| Booleana | Indica se o registro em tabela de inferência está ativado. |
model_serving_endpoint.ai_gateway.usage_tracking_config
Type: Map
A configuração do gateway AI para utilização do acompanhamento.
Chave | Tipo | Descrição |
|---|---|---|
| Booleana | Se o acompanhamento de uso estiver ativado. |
model_serving_endpoint.config
Type: Map
A configuração principal do endpoint de serviço.
Chave | Tipo | Descrição |
|---|---|---|
| Sequência | Uma lista de entidades servidas para o endpoint atender. Cada entidade servida contém campos como |
| Sequência | (Obsoleto: use |
| Mapa | A configuração de tráfego que define como as invocações para o endpoint de serviço devem ser roteadas. Consulte traffic_config. |
| Mapa | Configuração para tabelas de inferência que logs automaticamente solicitações e respostas no Unity Catalog. Consulte auto_capture_config. |
model_serving_endpoint.config.traffic_config
Type: Map
A configuração de tráfego que define como as invocações para o endpoint de serviço devem ser roteadas.
Chave | Tipo | Descrição |
|---|---|---|
| Sequência | Lista de rotas para distribuição de tráfego. Cada rota contém |
model_serving_endpoint.config.auto_capture_config
Type: Map
Configuração para tabelas de inferência que logs automaticamente solicitações e respostas no Unity Catalog.
Chave | Tipo | Descrição |
|---|---|---|
| String | O nome do catálogo no Unity Catalog. |
| String | O nome do esquema no Unity Catalog. |
| String | O prefixo para nomes de tabelas de inferência. |
| Booleana | Indica se o registro em tabela de inferência está ativado. |
Exemplo
O exemplo a seguir define um Unity Catalog servindo o modelo endpoint:
resources:
model_serving_endpoints:
uc_model_serving_endpoint:
name: 'uc-model-endpoint'
config:
served_entities:
- entity_name: 'myCatalog.mySchema.my-ads-model'
entity_version: '10'
workload_size: 'Small'
scale_to_zero_enabled: 'true'
traffic_config:
routes:
- served_model_name: 'my-ads-model-10'
traffic_percentage: '100'
tags:
- key: 'team'
value: 'data science'
pipeline
Type: Map
O pipeline é suportado em Python para Databricks Ativo Bundles. Consulte databricks.bundles.pipeline.
O recurso pipeline permite criar um pipeline declarativo LakeFlow Spark . Para obter informações sobre pipeline, consulte Pipeline declarativoLakeFlow Spark. Para obter um tutorial que usa o Databricks ativo Bundles padrão para criar um pipeline, consulte Desenvolver pipeline declarativo LakeFlow Spark com Databricks ativo Bundles.
pipelines:
<pipeline-name>:
<pipeline-field-name>: <pipeline-field-value>
Chave | Tipo | Descrição |
|---|---|---|
| Booleana | Se for falso, a implementação falhará se o nome entrar em conflito com o de outro pipeline. |
| String | Política orçamentária deste pipeline. |
| String | Um catálogo no Unity Catalog para publicar dados desse pipeline. Se |
| String | O canal Release do pipeline LakeFlow Spark Declarative especifica qual versão do pipeline LakeFlow Spark Declarative deve ser usada. |
| Sequência | As configurações de clustering para essa implementação pipeline. Veja clustering. |
| Mapa | A configuração para a execução desse pipeline. |
| Booleana | Se o pipeline é contínuo ou acionado. Isso substitui |
| Mapa | Tipo de implementação desse pipeline. Veja a implantação. |
| Booleana | Se o pipeline está em modo de desenvolvimento. padrão para falso. |
| Booleana | Se o pipeline é uma execução seca pipeline. |
| String | A edição do produto de pipeline. |
| Mapa | A especificação de ambiente para este pipeline é utilizada para instalar dependências em serverless compute. Este recurso ( key ) é suportado apenas em Databricks CLI versão 0.258 e superior. |
| Mapa | A configuração do evento log para este pipeline. Veja event_log. |
| Mapa | Os filtros que determinam qual pipeline pacote deve ser incluído no gráfico implantado. Veja os filtros. |
| String | Identificador exclusivo para esse pipeline. |
| Mapa | A configuração para uma ingestão gerenciar pipeline. Essas configurações não podem ser usadas com as configurações |
| Sequência | Lista de bibliotecas ou códigos necessários para esta implementação. Consulte PipelineLibrary. |
| Mapa | Contém as configurações do ciclo de vida de um recurso. Ele controla o comportamento do recurso quando este é implantado ou destruído. Veja ciclo de vida. |
| String | Um nome amigável para esse pipeline. |
| Sequência | As configurações de notificação para este pipeline. |
| Sequência | As permissões do pipeline. Veja as permissões. |
| Booleana | Se o Photon está ativado para esse pipeline. |
| String | O caminho raiz para esse pipeline. Ele é usado como o diretório raiz ao editar o pipeline na interface de usuário do Databricks e é adicionado ao sys.path ao executar códigos-fonte do Python durante a execução do pipeline. |
| Mapa | A identidade com a qual a execução do pipeline . Caso não seja especificado, a execução pipeline será feita pelo usuário que o pipeline. Somente |
| String | O esquema default (banco de dados) de onde as tabelas são lidas ou publicadas. |
| Booleana | Se serverless compute está ativado para este pipeline. |
| String | O diretório DBFS root para armazenar pontos de controle e tabelas. |
| Mapa | Um mapa de tags associadas ao pipeline. Eles são encaminhados para o site cluster como Tag de cluster e, portanto, estão sujeitos às mesmas limitações. Um máximo de 25 tags pode ser adicionado ao pipeline. |
| String | Esquema de destino (banco de dados) para adicionar tabelas nesse pipeline. Exatamente um dos |
implantação de pipeline
Type: Map
Configuração do tipo de implantação para o pipeline.
Chave | Tipo | Descrição |
|---|---|---|
| String | O tipo de implantação. Por exemplo, |
| String | O caminho para o arquivo de metadados da implantação. |
ambiente de pipeline
Type: Map
Especificação do ambiente para instalação de dependências em compute serverless .
Chave | Tipo | Descrição |
|---|---|---|
| Mapa | A especificação para o ambiente. Veja as especificações. |
pipeline.ambiente.spec
Type: Map
A especificação para o ambiente.
Chave | Tipo | Descrição |
|---|---|---|
| String | A versão do cliente (por exemplo, |
| Sequência | Uma lista de dependências a instalar (por exemplo, |
pipeline.log_de_eventos
Type: Map
Configuração log de eventos para o pipeline.
Chave | Tipo | Descrição |
|---|---|---|
| Booleana | Indica se o registro de eventos está ativado. |
| String | Local de armazenamento dos logs de eventos. |
pipeline.filtros
Type: Map
Filtros que determinam qual pacote pipeline incluir nos gráficos implantados.
Chave | Tipo | Descrição |
|---|---|---|
| Sequência | Uma lista de nomes de pacotes a serem incluídos. |
| Sequência | Uma lista de nomes de pacotes a serem excluídos. |
pipeline.definição_de_ingestão
Type: Map
Configuração para um pipeline de ingestão principal.
Chave | Tipo | Descrição |
|---|---|---|
| String | O nome da conexão a ser usada para ingestão. |
| String | O ID do gateway de ingestão. |
| Sequência | Uma lista de objetos a serem ingeridos. Cada objeto pode ser um SchemaSpec, TableSpec ou ReportSpec. Consulte SchemaSpec, TableSpec e ReportSpec. |
| Mapa | Configuração das tabelas de ingestão. Consulte a configuração da tabela. |
Especificação de esquema
Type: Map
Especificação de objeto de esquema para ingestão de todas as tabelas de um esquema.
Chave | Tipo | Descrição |
|---|---|---|
| String | O nome do esquema de origem a ser ingerido. |
| String | O nome do catálogo de destino no Unity Catalog. |
| String | O nome do esquema de destino no Unity Catalog. |
| Mapa | Configuração a ser aplicada a todas as tabelas neste esquema. Consulte pipeline.ingestion_definition.table_configuration. |
Especificações da tabela
Type: Map
Especificação de objeto de tabela para ingestão de uma tabela específica.
Chave | Tipo | Descrição |
|---|---|---|
| String | O nome do esquema de origem que contém a tabela. |
| String | O nome da tabela de origem a ser ingerida. |
| String | O nome do catálogo de destino no Unity Catalog. |
| String | O nome do esquema de destino no Unity Catalog. |
| String | O nome da tabela de destino no Unity Catalog. |
| Mapa | Configuração para esta tabela específica. Consulte pipeline.ingestion_definition.table_configuration. |
Especificações do relatório
Type: Map
Especificação do objeto de relatório para ingestão de relatórios analíticos.
Chave | Tipo | Descrição |
|---|---|---|
| String | O URL do relatório original. |
| String | O nome ou identificador do relatório de origem. |
| String | O nome do catálogo de destino no Unity Catalog. |
| String | O nome do esquema de destino no Unity Catalog. |
| String | O nome da tabela de destino para os dados do relatório. |
| Mapa | Configuração da tabela de relatórios. Consulte pipeline.ingestion_definition.table_configuration. |
pipeline.definição_de_ingestão.configuração_da_tabela
Type: Map
Opções de configuração para tabelas de ingestão.
Chave | Tipo | Descrição |
|---|---|---|
| Sequência | Uma lista de nomes de colunas a serem usadas como chave primária da tabela. |
| Booleana | Inclua ou não os campos de fórmula do Salesforce na ingestão de dados. |
| String | O tipo de dimensões que mudam lentamente (SCD) (SCD) a serem aplicadas. Valores válidos: |
Biblioteca de Pipeline
Type: Map
Define uma biblioteca ou código necessário para este pipeline.
Chave | Tipo | Descrição |
|---|---|---|
| Mapa | O caminho para um arquivo que define um pipeline e está armazenado nos Repos Databricks . Consulte pipeline.biblioteca.file. |
| Mapa | O campo unificado para incluir o código-fonte. Cada entrada pode ser um caminho de Notebook, um caminho de arquivo ou um caminho de pasta que termina em |
| Mapa | O caminho para um Notebook que define um pipeline e está armazenado no workspace Databricks . Consulte pipeline.biblioteca.Notebook. |
| String | Este campo está obsoleto. |
pipeline.biblioteca.file
Type: Map
O caminho para um arquivo que define um pipeline e está armazenado nos Repos Databricks .
Chave | Tipo | Descrição |
|---|---|---|
| String | O caminho absoluto do código-fonte. |
pipeline.biblioteca.glob
Type: Map
O campo unificado para incluir o código-fonte. Cada entrada pode ser um caminho de Notebook, um caminho de arquivo ou um caminho de pasta que termina em /**. Este campo não pode ser usado em conjunto com notebook ou file.
Chave | Tipo | Descrição |
|---|---|---|
| String | O código-fonte a ser incluído para o pipeline |
pipeline.biblioteca.Notebook
Type: Map
O caminho para um Notebook que define um pipeline e está armazenado no workspace Databricks .
Chave | Tipo | Descrição |
|---|---|---|
| String | O caminho absoluto do código-fonte. |
Exemplo
O exemplo a seguir define um pipeline com o recurso key hello-pipeline:
resources:
pipelines:
hello-pipeline:
name: hello-pipeline
clusters:
- label: default
num_workers: 1
development: true
continuous: false
channel: CURRENT
edition: CORE
photon: false
libraries:
- notebook:
path: ./pipeline.py
Para obter exemplos adicionais de configuração do pipeline, consulte Configuração do pipeline.
quality_monitor (Unity Catalog)
Type: Map
O recurso quality_monitor permite definir um monitor de tabela Unity Catalog . Para informações sobre monitores, consulte perfil de dados.
quality_monitors:
<quality_monitor-name>:
<quality_monitor-field-name>: <quality_monitor-field-value>
Chave | Tipo | Descrição |
|---|---|---|
| String | O diretório para armazenar o monitoramento ativo (por exemplo, o dashboard, tabelas métricas). |
| String | Nome da tabela de linha de base a partir da qual as métricas de desvio são computadas. As colunas na tabela monitorada também devem estar presentes na tabela de linha de base. |
| Sequência | Métricas personalizadas para compute na mesa monitorada. Elas podem ser métricas agregadas, métricas derivadas (a partir de métricas agregadas já computadas) ou métricas de desvio (comparando métricas entre janelas de tempo). Veja custom_metrics. |
| Mapa | Configuração para inferência de monitoramento logs. Veja inference_log. |
| Mapa | Contém as configurações do ciclo de vida de um recurso. Ele controla o comportamento do recurso quando este é implantado ou destruído. Veja ciclo de vida. |
| Mapa | As configurações de notificação do monitor. Veja as notificações. |
| String | Esquema em que as tabelas de métricas de saída são criadas. |
| Mapa | O programar para atualizar e refrescar automaticamente as tabelas métricas. Veja programar. |
| Booleana | Se o senhor deve deixar de criar um painel default resumindo as métricas de qualidade dos dados. |
| Sequência | Lista de expressões de coluna para fatiar dados para análise direcionada. Os dados são agrupados por cada expressão de forma independente, resultando em uma fatia separada para cada predicado e seus complementos. Para colunas de alta cardinalidade, somente os 100 principais valores exclusivos por frequência gerarão fatias. |
| Mapa | Configuração para monitoramento de tabelas de instantâneos. Veja a imagem. |
| String | O nome completo da tabela. |
| Mapa | Configuração para tabelas de séries temporais de monitoramento. Veja time_series. |
| String | Argumento opcional para especificar o depósito para a criação do painel. Se não for especificado, o primeiro depósito em execução será usado. |
monitor_de_qualidade.métricas_personalizadas
Type: Sequence
Chave | Tipo | Descrição |
|---|---|---|
| String | Jinja padrão para uma expressão SQL que especifica como compute os metros. Veja criar definição de métricas. |
| Sequência | Uma lista dos nomes das colunas na tabela de entrada para as quais os parâmetros devem ser calculados. Pode usar |
| String | Nome das medidas nas tabelas de saída. |
| String | O tipo de saída das métricas personalizadas. |
| String | Só pode ser um dos seguintes:
|
configuração de classificação de dados do monitor de qualidade
Type: Map
Configuração para classificação de dados.
Chave | Tipo | Descrição |
|---|---|---|
| Booleana | Indica se a classificação de dados está ativada. |
monitoramento_de_qualidade.log_de_inferência
Type: Map
Configuração para monitoramento de logs de inferência.
Chave | Tipo | Descrição |
|---|---|---|
| Sequência | As granularidades de tempo para agregar logs de inferência (por exemplo, |
| String | O nome da coluna que contém o ID do modelo. |
| String | O nome da coluna que contém a previsão. |
| String | O nome da coluna que contém o registro de data e hora. |
| String | O tipo de problema ML . Os valores válidos incluem |
| String | O nome da coluna que contém o rótulo (verdade fundamental). |
notificações_monitor_de_qualidade
Type: Map
Configurações de notificação para o monitor.
Chave | Tipo | Descrição |
|---|---|---|
| Mapa | Configurações de notificação para quando o monitor falhar. Veja on_failure. |
| Mapa | Configurações de notificação para quando novas tags de classificação forem detectadas. Veja on_new_classification_tag_detected. |
notificação_de_monitoramento_de_qualidade.em_falha
Type: Map
Configurações de notificação para quando o monitor falhar.
Chave | Tipo | Descrição |
|---|---|---|
| Sequência | Uma lista de endereços email para notificação em caso de falha do monitor. |
quality_monitor.notifications.on_new_classification_tag_detected
Type: Map
Configurações de notificação para quando novas tags de classificação forem detectadas.
Chave | Tipo | Descrição |
|---|---|---|
| Sequência | Uma lista de endereços email para notificar quando novas tags de classificação forem detectadas. |
monitor_de_qualidade.programa
Type: Map
Programa para atualização e renovação automática de tabelas de métricas.
Chave | Tipo | Descrição |
|---|---|---|
| String | Uma expressão Cron usando a sintaxe do Quartz. Por exemplo, |
| String | O fuso horário do programador (por exemplo, |
| String | Se o programar está pausado. Valores válidos: |
monitor_de_qualidade.Instantâneo
Type: Map
Configuração para monitoramento de tabelas de instantâneos.
monitor_de_qualidade.séries_temporais
Configuração para monitoramento de tabelas de séries temporais.
Chave | Tipo | Descrição |
|---|---|---|
| Sequência | As granularidades de tempo para agregar dados de séries temporais (por exemplo, |
| String | O nome da coluna que contém o registro de data e hora. |
Exemplos
Para ver um pacote de exemplo completo que define um quality_monitor, consulte o pacote mlops_demo.
Os exemplos a seguir definem monitores de qualidade para os tipos de perfil InferenceLog, TimeSeries e Snapshot.
# InferenceLog profile type
resources:
quality_monitors:
my_quality_monitor:
table_name: dev.mlops_schema.predictions
output_schema_name: ${bundle.target}.mlops_schema
assets_dir: /Workspace/Users/${workspace.current_user.userName}/databricks_lakehouse_monitoring
inference_log:
granularities: [1 day]
model_id_col: model_id
prediction_col: prediction
label_col: price
problem_type: PROBLEM_TYPE_REGRESSION
timestamp_col: timestamp
schedule:
quartz_cron_expression: 0 0 8 * * ? # Run Every day at 8am
timezone_id: UTC
# TimeSeries profile type
resources:
quality_monitors:
my_quality_monitor:
table_name: dev.mlops_schema.predictions
output_schema_name: ${bundle.target}.mlops_schema
assets_dir: /Workspace/Users/${workspace.current_user.userName}/databricks_lakehouse_monitoring
time_series:
granularities: [30 minutes]
timestamp_col: timestamp
schedule:
quartz_cron_expression: 0 0 8 * * ? # Run Every day at 8am
timezone_id: UTC
# Snapshot profile type
resources:
quality_monitors:
my_quality_monitor:
table_name: dev.mlops_schema.predictions
output_schema_name: ${bundle.target}.mlops_schema
assets_dir: /Workspace/Users/${workspace.current_user.userName}/databricks_lakehouse_monitoring
snapshot: {}
schedule:
quartz_cron_expression: 0 0 8 * * ? # Run Every day at 8am
timezone_id: UTC
registered_model (Unity Catalog)
Type: Map
O recurso de modelo registrado permite que o senhor defina modelos no Unity Catalog. Para obter informações sobre Unity Catalog os modelos registrados em, consulte gerenciar o ciclo de vida do Unity Catalog modelo em.
registered_models:
<registered_model-name>:
<registered_model-field-name>: <registered_model-field-value>
Chave | Tipo | Descrição |
|---|---|---|
| Sequência | Lista de nomes alternativos associados ao modelo registrado. Consulte registered_model.aliases. |
| Booleana | Indica se a entidade principal está limitada a recuperar metadados do objeto associado por meio do privilégio BROWSE quando include_browse está habilitado na solicitação. |
| String | O nome do catálogo em que o esquema e o modelo registrado residem. |
| String | O comentário anexado ao modelo registrado. |
| String | O nome completo (de três níveis) do modelo registrado. |
| Sequência | As bolsas associadas ao modelo registrado. Veja concessão. |
| Mapa | Contém as configurações do ciclo de vida de um recurso. Ele controla o comportamento do recurso quando este é implantado ou destruído. Veja ciclo de vida. |
| String | O nome do modelo registrado. |
| String | O nome do esquema em que o modelo registrado reside. |
| String | O local de armazenamento na nuvem sob o qual os arquivos de dados da versão do modelo são armazenados. |
aliases do modelo registrado
Type: Sequence
Lista de nomes alternativos associados ao modelo registrado
Chave | Tipo | Descrição |
|---|---|---|
| String | Nome do pseudônimo, por exemplo 'campeão' ou 'última_estável' |
| String | O nome do catálogo que contém a versão do modelo. |
| String | O identificador único do pseudônimo |
| String | O nome do modelo pai registrado da versão do modelo, relativo ao esquema pai. |
| String | O nome do esquema que contém a versão do modelo, relativo ao catálogo pai. |
| Integer | Número inteiro da versão do modelo à qual este alias se refere. |
Exemplo
O exemplo a seguir define um modelo registrado no Unity Catalog:
resources:
registered_models:
model:
name: my_model
catalog_name: ${bundle.target}
schema_name: mlops_schema
comment: Registered model in Unity Catalog for ${bundle.target} deployment target
grants:
- privileges:
- EXECUTE
principal: account users
schema (Unity Catalog)
Type: Map
O Python oferece suporte a esquemas para Databricks Ativo Bundles. Consulte databricks.bundles.schemas.
O tipo de recurso schema permite que o senhor defina Unity Catalog esquemas para tabelas e outros ativos em seu fluxo de trabalho e pipeline criados como parte de um pacote. Um esquema, diferente de outros tipos de recurso, tem as seguintes limitações:
- O proprietário de um recurso de esquema é sempre o usuário de implantação e não pode ser alterado. Se
run_asfor especificado no pacote, ele será ignorado pelas operações no esquema. - Somente os campos suportados pela API de criação de objeto Schemas correspondente estão disponíveis para o recurso de esquema. Por exemplo, o site
enable_predictive_optimizationnão é compatível, pois está disponível apenas na API de atualização.
schemas:
<schema-name>:
<schema-field-name>: <schema-field-value>
Chave | Tipo | Descrição |
|---|---|---|
| String | O nome do catálogo principal. |
| String | Uma descrição de texto em formato livre fornecida pelo usuário. |
| Sequência | As concessões associadas ao esquema. Veja concessão. |
| Mapa | Contém as configurações do ciclo de vida de um recurso. Ele controla o comportamento do recurso quando este é implantado ou destruído. Veja ciclo de vida. |
| String | O nome do esquema, relativo ao catálogo principal. |
| Mapa | Um mapa de key-value properties anexado ao esquema. |
| String | O URL da raiz de armazenamento para gerenciar tabelas dentro do esquema. |
Exemplos
O exemplo a seguir define um pipeline com o recurso key my_pipeline que cria um esquema Unity Catalog com o key my_schema como destino:
resources:
pipelines:
my_pipeline:
name: test-pipeline-{{.unique_id}}
libraries:
- notebook:
path: ../src/nb.ipynb
- file:
path: ../src/range.sql
development: true
catalog: ${resources.schemas.my_schema.catalog_name}
target: ${resources.schemas.my_schema.id}
schemas:
my_schema:
name: test-schema-{{.unique_id}}
catalog_name: main
comment: This schema was created by Databricks Asset Bundles.
Um mapeamento de concessões de nível superior não é suportado pelo Databricks ativo Bundles, portanto, se o senhor quiser definir concessões para um esquema, defina as concessões para o esquema dentro do mapeamento schemas. Para obter mais informações sobre concessões, consulte Mostrar, conceder e revogar privilégios.
O exemplo a seguir define um esquema do Unity Catalog com concessões:
resources:
schemas:
my_schema:
name: test-schema
grants:
- principal: users
privileges:
- SELECT
- principal: my_team
privileges:
- CAN_MANAGE
catalog_name: main
escopo_secreto
Type: Map
O recurso secret_scope permite que o senhor defina o escopo secreto em um pacote. Para obter informações sobre o Secret Scope, consulte Secret management.
secret_scopes:
<secret_scope-name>:
<secret_scope-field-name>: <secret_scope-field-value>
Chave | Tipo | Descrição |
|---|---|---|
| String | O tipo de back-end com o qual o escopo será criado. Se não for especificado, o padrão será |
| Mapa | Os metadados para o Escopo Secreto se |
| Mapa | Contém as configurações do ciclo de vida de um recurso. Ele controla o comportamento do recurso quando este é implantado ou destruído. Veja ciclo de vida. |
| String | Nome do escopo solicitado pelo usuário. Os nomes dos escopos são exclusivos. |
| Sequência | As permissões a serem aplicadas ao escopo secreto. As permissões são gerenciadas por meio de ACLs de escopo secreto. Veja as permissões. |
secret_scope.keyvault_metadata
Type: Map
Metadados para o Escopo de Segredos com suporte Azure Key Vault.
Chave | Tipo | Descrição |
|---|---|---|
| String | O ID do recurso Azure do cofre de chaves. |
| String | O nome DNS do Azure Key Vault. |
Exemplos
O exemplo a seguir define um escopo secreto que usa um backend de cofre key:
resources:
secret_scopes:
secret_scope_azure:
name: test-secrets-azure-backend
backend_type: 'AZURE_KEYVAULT'
keyvault_metadata:
resource_id: my_azure_keyvault_id
dns_name: my_azure_keyvault_dns_name
O exemplo a seguir define um ACL personalizado usando o escopo secreto e as permissões:
resources:
secret_scopes:
my_secret_scope:
name: my_secret_scope
permissions:
- user_name: admins
level: WRITE
- user_name: users
level: READ
Para obter um exemplo de pacote que demonstra como definir um escopo secreto e um trabalho com uma tarefa que lê a partir dele em um pacote, consulte o repositório bundle-examples GitHub.
sql_warehouse
Type: Map
O recurso SQL warehouse permite que você defina um SQL warehouse em um pacote. Para obter informações sobre SQL Warehouse, consulte data warehousing no Databricks.
sql_warehouses:
<sql-warehouse-name>:
<sql-warehouse-field-name>: <sql-warehouse-field-value>
Chave | Tipo | Descrição |
|---|---|---|
| Integer | A quantidade de tempo em minutos que um SQL warehouse deve ficar parado (por exemplo, sem consultas em EXECUÇÃO) antes de ser interrompido automaticamente. Os valores válidos são 0, que indica nenhuma parada automática, ou maior ou igual a 10. O default é 120. |
| Mapa | Detalhes do canal. Veja o canal |
| String | O tamanho dos clusters alocados para este warehouse. Aumentar o tamanho de um cluster Spark permite que você execute consultas maiores nele. Se você quiser aumentar o número de consultas concorrentes, ajuste max_num_clusters. Para valores suportados, consulte cluster_size. |
| String | O nome do usuário que criou o warehouse. |
| Booleana | Se o warehouse deve usar clusters otimizados do Photon. padrão para falso. |
| Booleana | Se o warehouse deve usar compute serverless . |
| String | Obsoleto. perfil de instância usado para passar IAM role para o cluster, |
| Mapa | Contém as configurações do ciclo de vida de um recurso. Ele controla o comportamento do recurso quando este é implantado ou destruído. Veja ciclo de vida. |
| Integer | O número máximo de clusters que o autoescalador criará para lidar com consultas concorrentes. Os valores devem ser menores ou iguais a 30 e maiores ou iguais a |
| Integer | O número mínimo de clusters disponíveis que serão mantidos para este SQL warehouse. Aumentar isso garantirá que um número maior de clusters esteja sempre em execução e, portanto, pode reduzir o tempo de inicialização para novas consultas. Isso é semelhante aos núcleos reservados e revogáveis em um gerenciador de recursos. Os valores devem ser maiores que 0 e menores ou iguais a min(max_num_clusters, 30). padrão para 1. |
| String | O nome lógico do cluster. O nome deve ser único dentro de uma organização e ter menos de 100 caracteres. |
| Sequência | As autorizações necessárias para o armazém. Consulte as permissões. |
| String | Se deve ou não usar instâncias pontuais. Os valores válidos são |
| Mapa | Um conjunto de key-valor par que serão tags em todos os recursos (por exemplo, instâncias AWS e volumes EBS) associados a este SQL warehouse. O número de tags deve ser inferior a 45. |
| String | O tipo de depósito, |
sql_warehouse.canal
Type: Map
Configuração do canal para o SQL warehouse.
Chave | Tipo | Descrição |
|---|---|---|
| String | O nome do canal. Os valores válidos incluem |
| String | A versão DBSQL para canal personalizado. |
Exemplo
O exemplo a seguir define um SQL warehouse:
resources:
sql_warehouses:
my_sql_warehouse:
name: my_sql_warehouse
cluster_size: X-Large
enable_serverless_compute: true
max_num_clusters: 3
min_num_clusters: 1
auto_stop_mins: 60
warehouse_type: PRO
tabela_de_base de dados sincronizada
Type: Map
O recurso de tabela de banco de dados sincronizado permite que o senhor defina tabelas de banco de dados do Lakebase em um pacote.
synced_database_tables:
<synced_database_table-name>:
<synced_database_table-field-name>: <synced_database_table-field-value>
Chave | Tipo | Descrição |
|---|---|---|
| String | O nome da instância do banco de dados de destino. Isso é necessário ao criar tabelas de banco de dados sincronizadas em catálogos padrão. Isso é opcional ao criar tabelas de banco de dados sincronizadas em catálogos registrados. |
| Mapa | Contém as configurações do ciclo de vida de um recurso. Ele controla o comportamento do recurso quando este é implantado ou destruído. Veja ciclo de vida. |
| String | O nome do objeto de banco de dados Postgres de destino (banco de dados lógico) para essa tabela. |
| String | O nome completo da tabela, no formato |
| Mapa | A especificação da tabela do banco de dados. Consulte a especificação da tabela de banco de dados sincronizada. |
tabela_banco_de_dados_sincronizado.spec
Type: Map
Especificação da tabela do banco de dados.
Chave | Tipo | Descrição |
|---|---|---|
| Booleana | Indica se deve criar o recurso de banco de dados lógico e esquema da tabela sincronizada, caso ainda não existam. |
| String | O ID de um pipeline existente. Se esta opção estiver definida, a tabela sincronizada será compactada no pipeline existente referenciado. Isso evita a criação de um novo pipeline e permite o compartilhamento de compute existentes. Neste caso, o |
| Mapa | A especificação para um novo pipeline. Consulte new_pipeline_spec. No máximo um de |
| Sequência | A lista de nomes de colunas que formam a key primária. |
| String | A política de programação para sincronização. Os valores válidos incluem |
| String | O nome completo da tabela de origem no formato |
| String | key de série temporal para remover linhas duplicadas com a mesma key primária. |
tabela_banco_de_dados_sincronizada.spec.novo_pipeline_spec
Type: Map
Especificação de um novo pipeline usado pela tabela de banco de dados sincronizada.
Chave | Tipo | Descrição |
|---|---|---|
| String | O catálogo do pipeline para armazenar arquivos intermediários, como pontos de verificação e logs de eventos. Este deve ser um catálogo padrão onde o usuário tenha permissões para criar tabelas Delta. |
| String | O esquema do pipeline para armazenar arquivos intermediários, como pontos de verificação e logs de eventos. Isso precisa estar no catálogo padrão, onde o usuário tem permissões para criar tabelas Delta. |
Exemplos
O exemplo a seguir define uma tabela de banco de dados sincronizada em um catálogo de banco de dados correspondente:
resources:
database_instances:
my_instance:
name: my-instance
capacity: CU_1
database_catalogs:
my_catalog:
database_instance_name: my-instance
database_name: 'my_database'
name: my_catalog
create_database_if_not_exists: true
synced_database_tables:
my_synced_table:
name: ${resources.database_catalogs.my_catalog.name}.${resources.database_catalogs.my_catalog.database_name}.my_destination_table
database_instance_name: ${resources.database_catalogs.my_catalog.database_instance_name}
logical_database_name: ${resources.database_catalogs.my_catalog.database_name}
spec:
source_table_full_name: 'my_source_table'
scheduling_policy: SNAPSHOT
primary_key_columns:
- my_pk_column
new_pipeline_spec:
storage_catalog: 'my_delta_catalog'
storage_schema: 'my_delta_schema'
O exemplo a seguir define uma tabela de banco de dados sincronizada dentro de um catálogo padrão:
resources:
synced_database_tables:
my_synced_table:
name: 'my_standard_catalog.public.synced_table'
# database_instance_name is required for synced tables created in standard catalogs.
database_instance_name: 'my-database-instance'
# logical_database_name is required for synced tables created in standard catalogs:
logical_database_name: ${resources.database_catalogs.my_catalog.database_name}
spec:
source_table_full_name: 'source_catalog.schema.table'
scheduling_policy: SNAPSHOT
primary_key_columns:
- my_pk_column
create_database_objects_if_missing: true
new_pipeline_spec:
storage_catalog: 'my_delta_catalog'
storage_schema: 'my_delta_schema'
Este exemplo cria uma tabela de banco de dados sincronizada e personaliza o programa pipeline para ela. Ele pressupõe que você já tenha:
- Uma instância de banco de dados chamada
my-database-instance - Um catálogo padrão chamado
my_standard_catalog - Um esquema no catálogo padrão denominado
default - Uma tabela delta de origem chamada
source_delta.schema.customercom a keyprimáriac_custkey
resources:
synced_database_tables:
my_synced_table:
name: 'my_standard_catalog.default.my_synced_table'
database_instance_name: 'my-database-instance'
logical_database_name: 'test_db'
spec:
source_table_full_name: 'source_delta.schema.customer'
scheduling_policy: SNAPSHOT
primary_key_columns:
- c_custkey
create_database_objects_if_missing: true
new_pipeline_spec:
storage_catalog: 'source_delta'
storage_schema: 'schema'
jobs:
sync_pipeline_schedule_job:
name: sync_pipeline_schedule_job
description: 'Job to schedule synced database table pipeline.'
tasks:
- task_key: synced-table-pipeline
pipeline_task:
pipeline_id: ${resources.synced_database_tables.my_synced_table.data_synchronization_status.pipeline_id}
schedule:
quartz_cron_expression: '0 0 0 * * ?'
volume (Unity Catalog)
Type: Map
Python oferece suporte a volumes para Databricks Ativo Bundles. Consulte databricks.bundles.volumes.
O tipo de recurso de volume permite que o senhor defina e crie volumes do Unity Catalog como parte de um pacote. Ao implantar um feixe com um volume definido, observe que
- Um volume não pode ser referenciado no
artifact_pathpara o pacote até que ele exista no workspace. Portanto, se quiser usar Databricks ativo Bundles para criar o volume, o senhor deve primeiro definir o volume no bundle, implantá-lo para criar o volume e, em seguida, fazer referência a ele noartifact_pathem implantações subsequentes. - Os volumes no pacote não são prefixados com o prefixo
dev_${workspace.current_user.short_name}quando o destino de implantação temmode: developmentconfigurado. No entanto, você pode configurar manualmente esse prefixo. Consulte Predefinições personalizadas.
volumes:
<volume-name>:
<volume-field-name>: <volume-field-value>
Chave | Tipo | Descrição |
|---|---|---|
| String | O nome do catálogo do esquema e do volume. |
| String | O comentário anexado ao volume. |
| Sequência | As subvenções associadas ao volume. Veja concessão. |
| Mapa | Contém as configurações do ciclo de vida de um recurso. Ele controla o comportamento do recurso quando este é implantado ou destruído. Veja ciclo de vida. |
| String | O nome do volume. |
| String | O nome do esquema em que o volume está. |
| String | O local de armazenamento na nuvem. |
| String | O tipo de volume, |
Exemplo
O exemplo a seguir cria um volume Unity Catalog com o key my_volume_id:
resources:
volumes:
my_volume_id:
catalog_name: main
name: my_volume
schema_name: my_schema
Para obter um exemplo de pacote que executa um trabalho que grava em um arquivo no volume Unity Catalog, consulte o repositório bundle-examples GitHub.
Objetos comuns
conceder
Type: Map
Define o principal e os privilégios a serem concedidos a esse principal. Para obter mais informações sobre concessões, consulte Exibir, conceder e revogar privilégios.
Chave | Tipo | Descrição |
|---|---|---|
| String | O nome do diretor que receberá os privilégios. Pode ser um usuário, um grupo ou uma entidade de serviço. |
| Sequência | Os privilégios a serem concedidos à entidade especificada. Os valores válidos dependem do tipo de recurso (por exemplo, |
Exemplo
O exemplo a seguir define um esquema do Unity Catalog com concessões:
resources:
schemas:
my_schema:
name: test-schema
grants:
- principal: users
privileges:
- SELECT
- principal: my_team
privileges:
- CAN_MANAGE
catalog_name: main
vida útil
Type: Map
Contém as configurações do ciclo de vida de um recurso. Ele controla o comportamento do recurso quando este é implantado ou destruído.
Chave | Tipo | Descrição |
|---|---|---|
| Booleana | Configuração do ciclo de vida para impedir que o recurso seja destruído. |