API de empregos 2.0
Este artigo documenta a versão 2.0 do Jobs API. No entanto, a Databricks recomenda que o senhor use o Jobs API 2.2 para clientes e scripts novos e existentes. Para obter detalhes sobre as alterações na versão 2.2 da API de Jobs, consulte Atualização da API de Jobs 2.1 para a 2.2.
O site Jobs API permite que o senhor crie, edite e exclua trabalhos. O tamanho máximo permitido de uma solicitação à API do Jobs é de 10 MB.
Para saber mais sobre a funcionalidade atualizada nas versões mais recentes da API de Jobs, consulte Atualização da API de Jobs 2.0 para 2.1 e Atualização da API de Jobs 2.1 para 2.2.
Você nunca deve codificar segredos nem armazená-los em texto simples. Use a API de segredos para gerenciar segredos na CLI do Databricks. Use os utilitários Secrets (dbutils.secrets) para fazer referência a segredos no Notebook e no Job.
Se o senhor receber um erro de nível 500 ao fazer solicitações de API do Jobs, a Databricks recomenda tentar novamente as solicitações por até 10 minutos (com um intervalo mínimo de 30 segundos entre as tentativas).
Para acessar as APIs REST da Databricks, o senhor deve se autenticar.
Criar
Endpoint | Método HTTP |
---|---|
|
|
Criar um novo trabalho.
Exemplo
Este exemplo cria um Job que executa a JAR tarefa às 22h15 todas as noites.
Solicitação
curl --netrc --request POST \
https://<databricks-instance>/api/2.0/jobs/create \
--data @create-job.json \
| jq .
create-job.json
:
{
"name": "Nightly model training",
"new_cluster": {
"spark_version": "7.3.x-scala2.12",
"node_type_id": "r3.xlarge",
"aws_attributes": {
"availability": "ON_DEMAND"
},
"num_workers": 10
},
"libraries": [
{
"jar": "dbfs:/my-jar.jar"
},
{
"maven": {
"coordinates": "org.jsoup:jsoup:1.7.2"
}
}
],
"email_notifications": {
"on_start": [],
"on_success": [],
"on_failure": []
},
"webhook_notifications": {
"on_start": [
{
"id": "bf2fbd0a-4a05-4300-98a5-303fc8132233"
}
],
"on_success": [
{
"id": "bf2fbd0a-4a05-4300-98a5-303fc8132233"
}
],
"on_failure": []
},
"notification_settings": {
"no_alert_for_skipped_runs": false,
"no_alert_for_canceled_runs": false,
"alert_on_last_attempt": false
},
"timeout_seconds": 3600,
"max_retries": 1,
"schedule": {
"quartz_cron_expression": "0 15 22 * * ?",
"timezone_id": "America/Los_Angeles"
},
"spark_jar_task": {
"main_class_name": "com.databricks.ComputeModels"
}
}
Substituir:
<databricks-instance>
com o Databricks workspace nome da instância, pordbc-a1b2345c-d6e7.cloud.databricks.com
exemplo,.- O conteúdo do site
create-job.json
com campos apropriados para suas soluções.
Este exemplo usa um .netrc arquivo e jq.
Resposta
{
"job_id": 1
}
Estrutura da solicitação
- Quando o senhor executa um trabalho em um novo clustering de trabalhos, o trabalho é tratado como uma carga de trabalho de computação de trabalhos (automatizada) sujeita aos preços de computação de trabalhos.
- Quando o senhor executa um trabalho em um cluster todo-propósito existente, ele é tratado como uma carga de trabalho de computação para todos os fins (interativa) sujeita aos preços de computação para todos os fins.
Nome do campo | Tipo | Descrição |
---|---|---|
|
| Se for existing_cluster_id, o ID de um clustering existente que será usado para toda a execução desse Job. Ao executar o Job em um clustering existente, talvez seja necessário reiniciar manualmente o clustering se ele parar de responder. Sugerimos que o Job seja executado em um novo clustering para maior confiabilidade. Se for new_cluster, uma descrição de um clustering que será criado para cada execução. Se especificar uma PipelineTask, esse campo pode ficar vazio. |
| NotebookTask OU SparkJarTask OU SparkPythonTask OU SparkSubmitTask OU PipelineTask OU RunJobTask | Se for Notebook, indica que esse trabalho deve ser executado em um Notebook. Esse campo não pode ser especificado em conjunto com spark_jar_task. Se spark_jar_task, indica que esse trabalho deve ser executado em JAR. Se for spark_python_task, indica que esse trabalho deve executar um arquivo Python. Se for spark_submit_task, indica que esse trabalho deve ser iniciado pelo script de envio do spark. Se for pipeline, indica que esse trabalho deve executar um DLT pipeline. Se for execução, indica que esse trabalho deve executar outro trabalho. |
|
| Um nome opcional para o trabalho. O valor de default é |
| Uma matriz da biblioteca | Uma lista opcional de bibliotecas a serem instaladas no clustering que executará o trabalho. O valor default é uma lista vazia. |
| Um conjunto opcional de endereços email notificados quando a execução desse trabalho começa e é concluída e quando esse trabalho é excluído. O comportamento do default é não enviar nenhum e-mail. | |
| Um conjunto opcional de destinos do sistema a serem notificados quando a execução desse trabalho começar, for concluída ou falhar. | |
| Configurações de notificação opcionais que são usadas ao enviar notificações para cada um dos sites | |
|
| Um tempo limite opcional aplicado a cada execução desse trabalho. O comportamento do default é não ter tempo limite. |
|
| Um número máximo opcional de vezes para tentar novamente uma execução malsucedida. Uma execução é considerada malsucedida se for concluída com o |
|
| Um intervalo mínimo opcional em milissegundos entre o início da execução com falha e a execução de nova tentativa subsequente. O comportamento do default é que as execuções malsucedidas são imediatamente repetidas. |
|
| Uma política opcional para especificar se um trabalho deve ser tentado novamente quando atingir o tempo limite. O comportamento do default é não tentar novamente após o tempo limite. |
| Um programador periódico opcional para esse trabalho. O comportamento do default é que a execução do trabalho é acionada ao clicar em executar agora na interface do usuário do Jobs ou ao enviar uma solicitação API para | |
|
| Um número máximo opcional permitido de execução concorrente do trabalho. Defina esse valor se o senhor quiser poder executar várias execuções do mesmo trabalho simultaneamente. Isso é útil, por exemplo, se o senhor acionar o seu trabalho em uma programação frequente e quiser permitir que execuções consecutivas se sobreponham umas às outras, ou se quiser acionar várias execuções que diferem em seus parâmetros de entrada. Essa configuração afeta apenas a nova execução. Por exemplo, suponha que a simultaneidade do trabalho seja 4 e que haja 4 concorrentes ativos em execução. Então, definir a simultaneidade como 3 não eliminará nenhuma das execuções ativas. No entanto, a partir de então, novas execuções são ignoradas, a menos que haja menos de 3 execuções ativas. Esse valor não pode exceder 1000. Definir esse valor como 0 faz com que todas as novas execuções sejam ignoradas. O comportamento do default é permitir a execução de apenas 1 concorrente. |
Estrutura de resposta
Nome do campo | Tipo | Descrição |
---|---|---|
|
| O identificador canônico do trabalho recém-criado. |
Lista
Endpoint | Método HTTP |
---|---|
|
|
Listar todos os cargos.
Exemplo
Solicitação
curl --netrc --request GET \
https://<databricks-instance>/api/2.0/jobs/list \
| jq .
Substitua <databricks-instance>
pelo Databricks workspace nome da instância, por dbc-a1b2345c-d6e7.cloud.databricks.com
exemplo,.
Este exemplo usa um .netrc arquivo e jq.
Resposta
{
"jobs": [
{
"job_id": 1,
"settings": {
"name": "Nightly model training",
"new_cluster": {
"spark_version": "7.3.x-scala2.12",
"node_type_id": "r3.xlarge",
"aws_attributes": {
"availability": "ON_DEMAND"
},
"num_workers": 10
},
"libraries": [
{
"jar": "dbfs:/my-jar.jar"
},
{
"maven": {
"coordinates": "org.jsoup:jsoup:1.7.2"
}
}
],
"email_notifications": {
"on_start": [],
"on_success": [],
"on_failure": []
},
"timeout_seconds": 100000000,
"max_retries": 1,
"schedule": {
"quartz_cron_expression": "0 15 22 * * ?",
"timezone_id": "America/Los_Angeles",
"pause_status": "UNPAUSED"
},
"spark_jar_task": {
"main_class_name": "com.databricks.ComputeModels"
}
},
"created_time": 1457570074236
}
]
}
Estrutura de resposta
Nome do campo | Tipo | Descrição |
---|---|---|
| Um conjunto de Job | A lista do Job. |
Excluir
Endpoint | Método HTTP |
---|---|
|
|
Exclua um trabalho e envie um email para os endereços especificados em JobSettings.email_notifications
. Nenhuma ação ocorrerá se o trabalho já tiver sido removido. Depois que o trabalho é removido, nem seus detalhes nem seu histórico de execução ficam visíveis na interface do usuário de trabalhos ou em API. O trabalho tem a garantia de ser removido após a conclusão dessa solicitação. Entretanto, as execuções que estavam ativas antes do recebimento dessa solicitação ainda podem estar ativas. Eles serão encerrados de forma assíncrona.
Exemplo
curl --netrc --request POST \
https://<databricks-instance>/api/2.0/jobs/delete \
--data '{ "job_id": <job-id> }'
Substituir:
<databricks-instance>
com o Databricks workspace nome da instância, pordbc-a1b2345c-d6e7.cloud.databricks.com
exemplo,.<job-id>
com o ID do trabalho, por exemplo,123
.
Este exemplo usa um .netrc arquivo.
Estrutura da solicitação
Nome do campo | Tipo | Descrição |
---|---|---|
|
| O identificador canônico do trabalho a ser excluído. Esse campo é obrigatório. |
Obter
Endpoint | Método HTTP |
---|---|
|
|
Recuperar informações sobre um único trabalho.
Exemplo
Solicitação
curl --netrc --request GET \
'https://<databricks-instance>/api/2.0/jobs/get?job_id=<job-id>' \
| jq .
Ou:
curl --netrc --get \
https://<databricks-instance>/api/2.0/jobs/get \
--data job_id=<job-id> \
| jq .
Substituir:
<databricks-instance>
com o Databricks workspace nome da instância, pordbc-a1b2345c-d6e7.cloud.databricks.com
exemplo,.<job-id>
com o ID do trabalho, por exemplo,123
.
Este exemplo usa um .netrc arquivo e jq.
Resposta
{
"job_id": 1,
"settings": {
"name": "Nightly model training",
"new_cluster": {
"spark_version": "7.3.x-scala2.12",
"node_type_id": "r3.xlarge",
"aws_attributes": {
"availability": "ON_DEMAND"
},
"num_workers": 10
},
"libraries": [
{
"jar": "dbfs:/my-jar.jar"
},
{
"maven": {
"coordinates": "org.jsoup:jsoup:1.7.2"
}
}
],
"email_notifications": {
"on_start": [],
"on_success": [],
"on_failure": []
},
"webhook_notifications": {
"on_start": [
{
"id": "bf2fbd0a-4a05-4300-98a5-303fc8132233"
}
],
"on_success": [
{
"id": "bf2fbd0a-4a05-4300-98a5-303fc8132233"
}
],
"on_failure": []
},
"notification_settings": {
"no_alert_for_skipped_runs": false,
"no_alert_for_canceled_runs": false,
"alert_on_last_attempt": false
},
"timeout_seconds": 100000000,
"max_retries": 1,
"schedule": {
"quartz_cron_expression": "0 15 22 * * ?",
"timezone_id": "America/Los_Angeles",
"pause_status": "UNPAUSED"
},
"spark_jar_task": {
"main_class_name": "com.databricks.ComputeModels"
}
},
"created_time": 1457570074236
}
Estrutura da solicitação
Nome do campo | Tipo | Descrição |
---|---|---|
|
| O identificador canônico do trabalho sobre o qual se deseja recuperar informações. Esse campo é obrigatório. |
Estrutura de resposta
Nome do campo | Tipo | Descrição |
---|---|---|
|
| O identificador canônico para esse trabalho. |
|
| O nome de usuário do criador. Esse campo não será incluído na resposta se o usuário tiver sido excluído. |
| Configurações para esse trabalho e toda a sua execução. Essas configurações podem ser atualizadas usando o Reset ou o ponto de extremidade Update. | |
|
| A hora em que esse Job foi criado em milissegundos de época (milissegundos desde 1/1/1970 UTC). |
Reset
Endpoint | Método HTTP |
---|---|
|
|
Substituir todas as configurações de um trabalho específico. Use o Update endpoint para atualizar parcialmente as configurações do trabalho.
Exemplo
Essa solicitação de exemplo torna o Job 2 idêntico ao Job 1 no exemplo de criação.
curl --netrc --request POST \
https://<databricks-instance>/api/2.0/jobs/reset \
--data @reset-job.json \
| jq .
reset-job.json
:
{
"job_id": 2,
"new_settings": {
"name": "Nightly model training",
"new_cluster": {
"spark_version": "7.3.x-scala2.12",
"node_type_id": "r3.xlarge",
"aws_attributes": {
"availability": "ON_DEMAND"
},
"num_workers": 10
},
"libraries": [
{
"jar": "dbfs:/my-jar.jar"
},
{
"maven": {
"coordinates": "org.jsoup:jsoup:1.7.2"
}
}
],
"email_notifications": {
"on_start": [],
"on_success": [],
"on_failure": []
},
"webhook_notifications": {
"on_start": [
{
"id": "bf2fbd0a-4a05-4300-98a5-303fc8132233"
}
],
"on_success": [
{
"id": "bf2fbd0a-4a05-4300-98a5-303fc8132233"
}
],
"on_failure": []
},
"notification_settings": {
"no_alert_for_skipped_runs": false,
"no_alert_for_canceled_runs": false,
"alert_on_last_attempt": false
},
"timeout_seconds": 100000000,
"max_retries": 1,
"schedule": {
"quartz_cron_expression": "0 15 22 * * ?",
"timezone_id": "America/Los_Angeles",
"pause_status": "UNPAUSED"
},
"spark_jar_task": {
"main_class_name": "com.databricks.ComputeModels"
}
}
}
Substituir:
<databricks-instance>
com o Databricks workspace nome da instância, pordbc-a1b2345c-d6e7.cloud.databricks.com
exemplo,.- O conteúdo do site
reset-job.json
com campos apropriados para suas soluções.
Este exemplo usa um .netrc arquivo e jq.
Estrutura da solicitação
Nome do campo | Tipo | Descrição |
---|---|---|
|
| O identificador canônico do trabalho a ser redefinido. Esse campo é obrigatório. |
| As novas configurações do trabalho. Essas configurações substituem completamente as configurações antigas. As alterações no campo |
Atualizar
Endpoint | Método HTTP |
---|---|
|
|
Adicionar, alterar ou remover configurações específicas de um trabalho existente. Use o botão Reset endpoint para sobrescrever todas as configurações do trabalho.
Exemplo
Essa solicitação de exemplo remove o biblioteca e adiciona as configurações de notificação do email ao Job 1 definido no exemplo de criação.
curl --netrc --request POST \
https://<databricks-instance>/api/2.0/jobs/update \
--data @update-job.json \
| jq .
update-job.json
:
{
"job_id": 1,
"new_settings": {
"existing_cluster_id": "1201-my-cluster",
"email_notifications": {
"on_start": ["someone@example.com"],
"on_success": [],
"on_failure": []
}
},
"fields_to_remove": ["libraries"]
}
Substituir:
<databricks-instance>
com o Databricks workspace nome da instância, pordbc-a1b2345c-d6e7.cloud.databricks.com
exemplo,.- O conteúdo do site
update-job.json
com campos apropriados para suas soluções.
Este exemplo usa um .netrc arquivo e jq.
Estrutura da solicitação
Nome do campo | Tipo | Descrição |
---|---|---|
|
| O identificador canônico do trabalho a ser atualizado. Esse campo é obrigatório. |
| As novas configurações do trabalho. Os campos de nível superior especificados em | |
| Uma variedade de | Remova os campos de nível superior nas configurações do trabalho. A remoção de campos aninhados não é suportada, exceto para entradas das matrizes |
execução agora
- A workspace está limitada a 2000 concorrente tarefa execução. Uma resposta
429 Too Many Requests
é retornada quando o senhor solicita uma execução que não pode começar imediatamente. - O número de jobs que um workspace pode criar em uma hora é limitado a 10000 (inclui "envio de execuções"). Esse limite também afeta os jobs criados pela API REST e pelos fluxos de trabalho do notebook.
- O site workspace pode conter até 12.000 trabalhos salvos.
- Um trabalho pode conter até 100 tarefas.
Endpoint | Método HTTP |
---|---|
|
|
executa um Job agora e retorna o endereço run_id
da execução acionada.
Se o senhor invocar o Create junto com a execução agora, poderá usar a execução submit endpoint em vez disso, o que lhe permite enviar sua carga de trabalho diretamente sem precisar criar um Job.
Exemplo
curl --netrc --request POST \
https://<databricks-instance>/api/2.0/jobs/run-now \
--data @run-job.json \
| jq .
run-job.json
:
Um exemplo de solicitação de um trabalho de notebook:
{
"job_id": 1,
"notebook_params": {
"name": "john doe",
"age": "35"
}
}
Um exemplo de solicitação para um trabalho em JAR:
{
"job_id": 2,
"jar_params": ["john doe", "35"]
}
Substituir:
<databricks-instance>
com o Databricks workspace nome da instância, pordbc-a1b2345c-d6e7.cloud.databricks.com
exemplo,.- O conteúdo do site
run-job.json
com campos apropriados para suas soluções.
Este exemplo usa um .netrc arquivo e jq.
Estrutura da solicitação
Nome do campo | Tipo | Descrição |
---|---|---|
|
| |
| Uma variedade de | Uma lista de parâmetros para o Job com JAR tarefa, por exemplo. |
| Um mapa do ParamPair | Um mapa da chave para os valores do Job com a tarefa Notebook, por exemplo. |
| Uma variedade de | Uma lista de parâmetros para o Job com Python tarefa, por exemplo. |
| Uma variedade de | Uma lista de parâmetros para Job com spark submit tarefa, por exemplo. |
|
| Um token opcional para garantir a idempotência das solicitações de execução de trabalhos. Se já existir uma execução com os tokens fornecidos, a solicitação não criará uma nova execução, mas retornará o ID da execução existente. Se uma execução com os tokens fornecidos for excluída, será retornado um erro. Se o senhor especificar os tokens de idempotência, em caso de falha, poderá tentar novamente até que a solicitação seja bem-sucedida. Databricks garante que exatamente uma execução seja iniciada com esses tokens de idempotência. Esses tokens devem ter no máximo 64 caracteres. Para obter mais informações, consulte Como garantir a idempotência do Job. |
Estrutura de resposta
Nome do campo | Tipo | Descrição |
---|---|---|
|
| A ID globalmente exclusiva da nova execução acionada. |
|
| O número de sequência dessa execução entre todas as execuções do trabalho. |
execução submit
- A workspace está limitada a 2000 concorrente tarefa execução. Uma resposta
429 Too Many Requests
é retornada quando o senhor solicita uma execução que não pode começar imediatamente. - O número de jobs que um workspace pode criar em uma hora é limitado a 10000 (inclui "envio de execuções"). Esse limite também afeta os jobs criados pela API REST e pelos fluxos de trabalho do notebook.
- O site workspace pode conter até 12.000 trabalhos salvos.
- Um trabalho pode conter até 100 tarefas.
Endpoint | Método HTTP |
---|---|
|
|
Enviar uma execução única. Esse site endpoint permite que o senhor envie uma carga de trabalho diretamente sem criar um trabalho. Use jobs/runs/get
API para verificar o estado de execução depois que o trabalho for enviado.
Exemplo
Solicitação
curl --netrc --request POST \
https://<databricks-instance>/api/2.0/jobs/runs/submit \
--data @submit-job.json \
| jq .
submit-job.json
:
{
"run_name": "my spark task",
"new_cluster": {
"spark_version": "7.3.x-scala2.12",
"node_type_id": "r3.xlarge",
"aws_attributes": {
"availability": "ON_DEMAND"
},
"num_workers": 10
},
"libraries": [
{
"jar": "dbfs:/my-jar.jar"
},
{
"maven": {
"coordinates": "org.jsoup:jsoup:1.7.2"
}
}
],
"spark_jar_task": {
"main_class_name": "com.databricks.ComputeModels"
}
}
Substituir:
<databricks-instance>
com o Databricks workspace nome da instância, pordbc-a1b2345c-d6e7.cloud.databricks.com
exemplo,.- O conteúdo do site
submit-job.json
com campos apropriados para suas soluções.
Este exemplo usa um .netrc arquivo e jq.
Resposta
{
"run_id": 123
}
Estrutura da solicitação
- Quando o senhor executa um trabalho em um novo clustering de trabalhos, o trabalho é tratado como uma carga de trabalho de computação de trabalhos (automatizada) sujeita aos preços de computação de trabalhos.
- Quando o senhor executa um trabalho em um cluster todo-propósito existente, ele é tratado como uma carga de trabalho de computação para todos os fins (interativa) sujeita aos preços de computação para todos os fins.
Nome do campo | Tipo | Descrição |
---|---|---|
|
| Se for existing_cluster_id, o ID de um clustering existente que será usado para toda a execução desse Job. Ao executar o Job em um clustering existente, talvez seja necessário reiniciar manualmente o clustering se ele parar de responder. Sugerimos que o Job seja executado em um novo clustering para maior confiabilidade. Se for new_cluster, uma descrição de um clustering que será criado para cada execução. Se especificar uma PipelineTask, esse campo poderá estar vazio. |
| NotebookTask OU SparkJarTask OU SparkPythonTask OU SparkSubmitTask OU PipelineTask OU RunJobTask | Se for Notebook, indica que esse trabalho deve ser executado em um Notebook. Esse campo não pode ser especificado em conjunto com spark_jar_task. Se spark_jar_task, indica que esse trabalho deve ser executado em JAR. Se for spark_python_task, indica que esse trabalho deve executar um arquivo Python. Se for spark_submit_task, indica que esse trabalho deve ser iniciado pelo script de envio do spark. Se for pipeline, indica que esse trabalho deve executar um DLT pipeline. Se for execução, indica que esse trabalho deve executar outro trabalho. |
|
| Um nome opcional para a execução. O valor de default é |
| Um conjunto opcional de destinos do sistema a serem notificados quando a execução desse trabalho começar, for concluída ou falhar. | |
| Configurações de notificação opcionais que são usadas ao enviar notificações para cada um dos | |
| Uma matriz da biblioteca | Uma lista opcional de bibliotecas a serem instaladas no clustering que executará o trabalho. O valor default é uma lista vazia. |
|
| Um tempo limite opcional aplicado a cada execução desse trabalho. O comportamento do default é não ter tempo limite. |
|
| Um token opcional para garantir a idempotência das solicitações de execução de trabalhos. Se já existir uma execução com os tokens fornecidos, a solicitação não criará uma nova execução, mas retornará o ID da execução existente. Se uma execução com os tokens fornecidos for excluída, será retornado um erro. Se o senhor especificar os tokens de idempotência, em caso de falha, poderá tentar novamente até que a solicitação seja bem-sucedida. Databricks garante que exatamente uma execução seja iniciada com esses tokens de idempotência. Esses tokens devem ter no máximo 64 caracteres. Para obter mais informações, consulte Como garantir a idempotência do Job. |
Estrutura de resposta
Nome do campo | Tipo | Descrição |
---|---|---|
|
| O identificador canônico da nova execução enviada. |
lista de execução
Endpoint | Método HTTP |
---|---|
|
|
Lista de execução em ordem decrescente por tempo de início.
execução são removidos automaticamente após 60 dias. Se o senhor quiser consultá-los por mais de 60 dias, deve salvar os resultados de execução antigos antes que eles expirem. Para exportar usando a UI, consulte Exportar resultados da execução do trabalho. Para exportar usando o Jobs API, consulte execução export.
Exemplo
Solicitação
curl --netrc --request GET \
'https://<databricks-instance>/api/2.0/jobs/runs/list?job_id=<job-id>&active_only=<true-false>&offset=<offset>&limit=<limit>&run_type=<run-type>' \
| jq .
Ou:
curl --netrc --get \
https://<databricks-instance>/api/2.0/jobs/runs/list \
--data 'job_id=<job-id>&active_only=<true-false>&offset=<offset>&limit=<limit>&run_type=<run-type>' \
| jq .
Substituir:
<databricks-instance>
com o Databricks workspace nome da instância, pordbc-a1b2345c-d6e7.cloud.databricks.com
exemplo,.<job-id>
com o ID do trabalho, por exemplo,123
.- “
<true-false>
comtrue
oufalse
”. <offset>
com o valoroffset
.<limit>
com o valorlimit
.<run-type>
com o valorrun_type
.
Este exemplo usa um .netrc arquivo e jq.
Resposta
{
"runs": [
{
"job_id": 1,
"run_id": 452,
"number_in_job": 5,
"state": {
"life_cycle_state": "RUNNING",
"state_message": "Performing action"
},
"task": {
"notebook_task": {
"notebook_path": "/Users/donald@duck.com/my-notebook"
}
},
"cluster_spec": {
"existing_cluster_id": "1201-my-cluster"
},
"cluster_instance": {
"cluster_id": "1201-my-cluster",
"spark_context_id": "1102398-spark-context-id"
},
"overriding_parameters": {
"jar_params": ["param1", "param2"]
},
"start_time": 1457570074236,
"end_time": 1457570075149,
"setup_duration": 259754,
"execution_duration": 3589020,
"cleanup_duration": 31038,
"run_duration": 3879812,
"trigger": "PERIODIC"
}
],
"has_more": true
}
Estrutura da solicitação
Nome do campo | Tipo | Descrição |
---|---|---|
|
| Se active_only for |
|
| O trabalho para o qual a execução será listada. Se omitido, o serviço Jobs listará a execução de todos os trabalhos. |
|
| O deslocamento da primeira execução a retornar, em relação à execução mais recente. |
|
| O número de execuções a retornar. Esse valor deve ser maior que 0 e menor que 1000. O valor de default é 20. Se uma solicitação especificar um limite de 0, o serviço usará o limite máximo. |
|
| O tipo de execução a ser retornado. Para obter uma descrição dos tipos de execução, consulte execução. |
Estrutura de resposta
Nome do campo | Tipo | Descrição |
---|---|---|
| Uma matriz de execução | Uma lista de execuções, da mais recente para a menos recente. |
|
| Se verdadeiro, as execuções adicionais que correspondem ao filtro fornecido estarão disponíveis para listagem. |
execução get
Endpoint | Método HTTP |
---|---|
|
|
Recupera os metadados de uma execução.
execução são removidos automaticamente após 60 dias. Se o senhor quiser consultá-los por mais de 60 dias, deve salvar os resultados de execução antigos antes que eles expirem. Para exportar usando a UI, consulte Exportar resultados da execução do trabalho. Para exportar usando o Jobs API, consulte execução export.
Exemplo
Solicitação
curl --netrc --request GET \
'https://<databricks-instance>/api/2.0/jobs/runs/get?run_id=<run-id>' \
| jq .
Ou:
curl --netrc --get \
https://<databricks-instance>/api/2.0/jobs/runs/get \
--data run_id=<run-id> \
| jq .
Substituir:
<databricks-instance>
com o Databricks workspace nome da instância, pordbc-a1b2345c-d6e7.cloud.databricks.com
exemplo,.<run-id>
com o ID da execução, por exemplo,123
.
Este exemplo usa um .netrc arquivo e jq.
Resposta
{
"job_id": 1,
"run_id": 452,
"number_in_job": 5,
"state": {
"life_cycle_state": "RUNNING",
"state_message": "Performing action"
},
"task": {
"notebook_task": {
"notebook_path": "/Users/someone@example.com/my-notebook"
}
},
"cluster_spec": {
"existing_cluster_id": "1201-my-cluster"
},
"cluster_instance": {
"cluster_id": "1201-my-cluster",
"spark_context_id": "1102398-spark-context-id"
},
"overriding_parameters": {
"jar_params": ["param1", "param2"]
},
"start_time": 1457570074236,
"end_time": 1457570075149,
"setup_duration": 259754,
"execution_duration": 3589020,
"cleanup_duration": 31038,
"run_duration": 3879812,
"trigger": "PERIODIC"
}
Estrutura da solicitação
Nome do campo | Tipo | Descrição |
---|---|---|
|
| O identificador canônico da execução para a qual se deseja recuperar os metadados. Esse campo é obrigatório. |
Estrutura de resposta
Nome do campo | Tipo | Descrição |
---|---|---|
|
| O identificador canônico do trabalho que contém essa execução. |
|
| O identificador canônico da execução. Esse ID é exclusivo em todas as execuções de todos os trabalhos. |
|
| O número de sequência dessa execução entre todas as execuções do trabalho. Esse valor começa em 1. |
|
| Se essa execução for uma repetição de uma tentativa de execução anterior, esse campo conterá a execução da tentativa original; caso contrário, será o mesmo que a execução. |
| O resultado e os estados do ciclo de vida da execução. | |
| O programador cron que acionou essa execução, caso tenha sido acionado pelo programador periódico. | |
| A tarefa realizada pela execução, se houver. | |
| Um instantâneo da especificação de clustering do trabalho quando essa execução foi criada. | |
| O clustering usado para essa execução. Se a execução for especificada para usar um novo clustering, esse campo será definido quando o serviço Jobs solicitar um clustering para a execução. | |
| Os parâmetros usados para essa execução. | |
|
| A hora em que essa execução foi iniciada em milissegundos de época (milissegundos desde 1/1/1970 UTC). Esse pode não ser o momento em que o trabalho começa a ser executado, por exemplo, se o trabalho estiver programado para ser executado em um novo cluster, esse é o momento em que a chamada de criação do cluster é emitida. |
|
| A hora em que essa execução terminou em milissegundos de época (milissegundos desde 1/1/1970 UTC). Esse campo será definido como 0 se o trabalho ainda estiver em execução. |
|
| O tempo, em milissegundos, necessário para configurar o clustering. Para a execução em um novo clustering, esse é o tempo de criação do clustering; para a execução em um clustering existente, esse tempo deve ser muito curto. A duração total da execução é a soma dos |
|
| O tempo, em milissegundos, que o comando levou para ser executado no site JAR ou no Notebook até ser concluído, falhar, atingir o tempo limite, ser cancelado ou encontrar um erro inesperado. A duração total da execução é a soma de |
|
| O tempo, em milissegundos, necessário para encerrar o agrupamento e limpar quaisquer artefatos associados. A duração total da execução é a soma de |
|
| O tempo, em milissegundos, que a execução do trabalho e todos os seus reparos levaram para terminar. Esse campo só é definido para a execução de trabalhos multitarefa e não para a execução de tarefas. A duração da execução de uma tarefa é a soma das |
| O tipo de gatilho que disparou essa execução. | |
|
| O nome de usuário do criador. Esse campo não será incluído na resposta se o usuário tiver sido excluído |
|
| O URL da página de detalhes da execução. |
execução exportação
Endpoint | Método HTTP |
---|---|
|
|
Exportar e recuperar a tarefa de execução do trabalho.
Somente a execução do Notebook pode ser exportada em formato HTML. A exportação de execuções de outros tipos falhará.
Exemplo
Solicitação
curl --netrc --request GET \
'https://<databricks-instance>/api/2.0/jobs/runs/export?run_id=<run-id>' \
| jq .
Ou:
curl --netrc --get \
https://<databricks-instance>/api/2.0/jobs/runs/export \
--data run_id=<run-id> \
| jq .
Substituir:
<databricks-instance>
com o Databricks workspace nome da instância, pordbc-a1b2345c-d6e7.cloud.databricks.com
exemplo,.<run-id>
com o ID da execução, por exemplo,123
.
Este exemplo usa um .netrc arquivo e jq.
Resposta
{
"views": [
{
"content": "<!DOCTYPE html><html><head>Head</head><body>Body</body></html>",
"name": "my-notebook",
"type": "NOTEBOOK"
}
]
}
Para extrair o HTML Notebook da resposta JSON, download e execute este scriptPython.
O corpo do Notebook no objeto __DATABRICKS_NOTEBOOK_MODEL
é codificado.
Estrutura da solicitação
Nome do campo | Tipo | Descrição |
---|---|---|
|
| O identificador canônico da execução. Esse campo é obrigatório. |
| Qual visualização exportar (CODE, DASHBOARDS ou ALL). padrão para CODE. |
Estrutura de resposta
Nome do campo | Tipo | Descrição |
---|---|---|
| Uma matriz de ViewItem | O conteúdo exportado em formato HTML (um para cada item do site view ). |
execução cancelar
Endpoint | Método HTTP |
---|---|
|
|
Cancelar a execução do trabalho. Como a execução é cancelada de forma assíncrona, a execução ainda pode estar em andamento quando essa solicitação for concluída. A execução será encerrada em breve. Se a execução já estiver em um terminal life_cycle_state
, esse método não funcionará.
Esse endpoint valida que o parâmetro run_id
é válido e, para parâmetros inválidos, retorna o código de status HTTP 400.
Exemplo
curl --netrc --request POST \
https://<databricks-instance>/api/2.0/jobs/runs/cancel \
--data '{ "run_id": <run-id> }'
Substituir:
<databricks-instance>
com o Databricks workspace nome da instância, pordbc-a1b2345c-d6e7.cloud.databricks.com
exemplo,.<run-id>
com o ID da execução, por exemplo,123
.
Este exemplo usa um .netrc arquivo.
Estrutura da solicitação
Nome do campo | Tipo | Descrição |
---|---|---|
|
| O identificador canônico da execução a ser cancelada. Esse campo é obrigatório. |
execução cancelar tudo
Endpoint | Método HTTP |
---|---|
|
|
Cancelar toda a execução ativa de um trabalho. Como a execução é cancelada de forma assíncrona, isso não impede que novas execuções sejam iniciadas.
Esse endpoint valida que o parâmetro job_id
é válido e, para parâmetros inválidos, retorna o código de status HTTP 400.
Exemplo
curl --netrc --request POST \
https://<databricks-instance>/api/2.0/jobs/runs/cancel-all \
--data '{ "job_id": <job-id> }'
Substituir:
<databricks-instance>
com o Databricks workspace nome da instância, pordbc-a1b2345c-d6e7.cloud.databricks.com
exemplo,.<job-id>
com o ID do trabalho, por exemplo,123
.
Este exemplo usa um .netrc arquivo.
Estrutura da solicitação
Nome do campo | Tipo | Descrição |
---|---|---|
|
| O identificador canônico do trabalho para cancelar toda a execução. Esse campo é obrigatório. |
execução get output
Endpoint | Método HTTP |
---|---|
|
|
Recuperar a saída e os metadados de uma única execução de tarefa. Quando uma tarefa do Notebook retorna um valor por meio da função dbutils.Notebook.exit() o senhor pode usar esse endpoint para recuperar esse valor. A Databricks restringe essa API para retornar os primeiros 5 MB da saída. Para retornar um resultado maior, o senhor pode armazenar os resultados do trabalho em um serviço de armazenamento em nuvem.
Esse endpoint valida que o parâmetro run_id
é válido e, para parâmetros inválidos, retorna o código de status HTTP 400.
execução são removidos automaticamente após 60 dias. Se o senhor quiser consultá-los por mais de 60 dias, deve salvar os resultados de execução antigos antes que eles expirem. Para exportar usando a UI, consulte Exportar resultados da execução do trabalho. Para exportar usando o Jobs API, consulte execução export.
Exemplo
Solicitação
curl --netrc --request GET \
'https://<databricks-instance>/api/2.0/jobs/runs/get-output?run_id=<run-id>' \
| jq .
Ou:
curl --netrc --get \
https://<databricks-instance>/api/2.0/jobs/runs/get-output \
--data run_id=<run-id> \
| jq .
Substituir:
<databricks-instance>
com o Databricks workspace nome da instância, pordbc-a1b2345c-d6e7.cloud.databricks.com
exemplo,.<run-id>
com o ID da execução, por exemplo,123
.
Este exemplo usa um .netrc arquivo e jq.
Resposta
{
"metadata": {
"job_id": 1,
"run_id": 452,
"number_in_job": 5,
"state": {
"life_cycle_state": "TERMINATED",
"result_state": "SUCCESS",
"state_message": ""
},
"task": {
"notebook_task": {
"notebook_path": "/Users/someone@example.com/my-notebook"
}
},
"cluster_spec": {
"existing_cluster_id": "1201-my-cluster"
},
"cluster_instance": {
"cluster_id": "1201-my-cluster",
"spark_context_id": "1102398-spark-context-id"
},
"overriding_parameters": {
"jar_params": ["param1", "param2"]
},
"start_time": 1457570074236,
"setup_duration": 259754,
"execution_duration": 3589020,
"cleanup_duration": 31038,
"run_duration": 3879812,
"trigger": "PERIODIC"
},
"notebook_output": {
"result": "the maybe truncated string passed to dbutils.notebook.exit()"
}
}
Estrutura da solicitação
Nome do campo | Tipo | Descrição |
---|---|---|
|
| O identificador canônico da execução. Para um trabalho com várias tarefas, este é o |
Estrutura de resposta
Nome do campo | Tipo | Descrição |
---|---|---|
| Saída de notebook OU | Se for Notebook, a saída de uma tarefa do Notebook, se disponível. Uma tarefa do Notebook que termina (com sucesso ou com uma falha) sem chamar o |
| Todos os detalhes da execução, exceto a saída. |
execução delete
Endpoint | Método HTTP |
---|---|
|
|
Excluir uma execução não ativa. Retorna um erro se a execução estiver ativa.
Exemplo
curl --netrc --request POST \
https://<databricks-instance>/api/2.0/jobs/runs/delete \
--data '{ "run_id": <run-id> }'
Substituir:
<databricks-instance>
com o Databricks workspace nome da instância, pordbc-a1b2345c-d6e7.cloud.databricks.com
exemplo,.<run-id>
com o ID da execução, por exemplo,123
.
Este exemplo usa um .netrc arquivo.
Estrutura da solicitação
Nome do campo | Tipo | Descrição |
---|---|---|
|
| O identificador canônico da execução para a qual se deseja recuperar os metadados. |
Estruturas de dados
Nesta secção:
- autoescala
- Atributos da AWS
- Disponibilidade da AWS
- Instância de cluster
- ClusterLogConf
- Especificação do cluster
- Tag de cluster
- Cron Cron
- Informações de armazenamento do DBFS
- Tipo de volume do EBS
- Informações de armazenamento de arquivos
- Informações do script de inicialização
- Job
- Notificações por e-mail de emprego
- Configurações de notificação de trabalho
- Configurações do trabalho
- Tarefa de trabalho
- Regra de saúde do trabalho
- Regras de saúde do trabalho
- Biblioteca
- Biblioteca Maven
- Novo cluster
- Saída de notebook
- Tarefa do notebook
- Par de parâmetros
- Tarefa de pipeline
- Biblioteca Python Pi
- Biblioteca RCRan
- Executar
- Executar tarefa de trabalho
- Execute o estado do ciclo de vida
- Parâmetros de execução
- RunResultState
- RunState
- Informações de armazenamento do S3
- Par SparkConf
- Par Sparken V
- Tarefa SparkJar
- Tarefa SparkPython
- Tarefa de envio do Spark
- Tipo de trigger
- Exibir item
- Tipo de visualização
- Visualizações para exportar
- Webhook
- Notificações do WebHook
- Informações de armazenamento do espaço de trabalho
autoescala
Intervalo que define o número mínimo e máximo de trabalhadores de clustering.
Nome do campo | Tipo | Descrição |
---|---|---|
|
| O número mínimo de trabalhadores para o qual o clustering pode se reduzir quando subutilizado. É também o número inicial de trabalhadores que o clustering terá após a criação. |
|
| O número máximo de trabalhadores para o qual o clustering pode escalar quando sobrecarregado. max_workers deve ser estritamente maior que min_workers. |
Atributos da AWS
Atributos definidos durante a criação do clustering relacionados ao serviço Amazon Web.
Nome do campo | Tipo | Descrição |
---|---|---|
|
| Os primeiros nós first_on_demand do clustering serão colocados em instâncias on-demand. Se esse valor for maior que 0, o nó do driver de clustering será colocado em uma instância on-demand. Se esse valor for maior ou igual ao tamanho atual do clustering, todos os nós serão colocados em instâncias on-demand. Se esse valor for menor que o tamanho atual do clustering, os nós first_on_demand serão colocados em instâncias on-demand e os demais serão colocados em instâncias |
| Tipo de disponibilidade usado para todos os nós subsequentes, além dos primeiros nós sob demanda. Observação: se first_on_demand for zero, esse tipo de disponibilidade será usado para todo o cluster. | |
|
| Identificador da zona de disponibilidade (AZ) na qual o clustering reside. Em default, a configuração tem um valor de auto , também conhecido como Auto-AZ. Com o Auto-AZ, o Databricks seleciona o AZ com base nos IPs disponíveis nas sub-redes do workspace e tenta novamente em outras zonas de disponibilidade se o AWS retornar erros de capacidade insuficiente. Se quiser, você também pode especificar uma zona de disponibilidade a ser usada. Isso beneficia as contas que têm instâncias reservadas em uma AZ específica. Especifique o AZ como uma cadeia de caracteres (por exemplo, |
|
| Os nós para esse clustering só serão colocados em instâncias AWS com esse instance profile. Se omitido, os nós serão colocados em instâncias sem um instance profile. O instance profile deve ter sido adicionado anteriormente ao ambiente Databricks por um administrador do account. Esse recurso pode estar disponível apenas para determinados planos de clientes. |
|
| O preço máximo para instâncias spot do AWS, como uma porcentagem do preço sob demanda do tipo de instância correspondente. Por exemplo, se esse campo estiver definido como 50 e o clustering precisar de uma nova instância spot |
| O tipo de volumes EBS que serão lançados com esse clustering. | |
|
| O número de volumes lançados para cada instância. Você pode escolher até 10 volumes. Esse recurso só é ativado para os tipos de nós compatíveis. Os tipos de nós legados não podem especificar volumes personalizados do EBS. Para tipos de nós sem armazenamento de instância, pelo menos um volume EBS precisa ser especificado; caso contrário, haverá falha na criação do cluster. Esses volumes do EBS serão montados em |
|
| O tamanho de cada volume do EBS (em GiB) lançado para cada instância. Para SSD propósito geral, esse valor deve estar no intervalo de 100 a 4096. Para Taxa de transferência otimizada HDD, esse valor deve estar dentro do intervalo 500 - 4096. Os volumes personalizados do EBS não podem ser especificados para os tipos de nós legados (otimizados para memória e otimizados para compute). |
|
| O número de IOPS por volume do EBS gp3. Esse valor deve estar entre 3000 e 16000. O valor de IOPS e Taxa de transferência é calculado com base na documentação do site AWS para corresponder ao desempenho máximo de um volume gp2 com o mesmo tamanho de volume. Para obter mais informações, consulte a calculadora de limite de volume do EBS. |
|
| A Taxa de transferência por volume do EBS gp3, em MiB por segundo. Esse valor deve estar entre 125 e 1000. |
Se nem ebs_volume_iops
nem ebs_volume_throughput
forem especificados, os valores serão inferidos do tamanho do disco:
Tamanho do disco | IOPS | Taxa de transferência |
---|---|---|
Maior que 1000 | 3 vezes o tamanho do disco, até 16000 | 250 |
Entre 170 e 1000 | 3000 | 250 |
abaixo 170 | 3000 | 125 |
Disponibilidade da AWS
O conjunto de tipos de disponibilidade AWS suportados ao configurar nós para um cluster.
Tipo | Descrição |
---|---|
| Use instâncias spot. |
| Use instâncias sob demanda. |
| De preferência, use instâncias spot, mas recorra a instâncias on-demand se não for possível adquirir instâncias spot (por exemplo, se os preços spot do AWS forem muito altos). |
Instância de cluster
Identificadores para o contexto de clustering e Spark usados por uma execução. Esses dois valores juntos identificam um contexto de execução em todos os tempos.
Nome do campo | Tipo | Descrição |
---|---|---|
|
| O identificador canônico para o clustering usado por uma execução. Esse campo está sempre disponível para execução no clustering existente. Para execução em um novo clustering, ele fica disponível assim que o clustering é criado. Esse valor pode ser usado para view logs navegando até |
|
| O identificador canônico do contexto do Spark usado por uma execução. Esse campo será preenchido quando a execução começar. Esse valor pode ser usado para view o Spark UI navegando até |
ClusterLogConf
Caminho para o clustering log.
Nome do campo | Tipo | Descrição |
---|---|---|
| DBFS localização do clustering log. O destino deve ser fornecido. Por exemplo, S3 localização do clustering log.
|
Especificação do cluster
- Quando o senhor executa um trabalho em um novo clustering de trabalhos, o trabalho é tratado como uma carga de trabalho de computação de trabalhos (automatizada) sujeita aos preços de computação de trabalhos.
- Quando o senhor executa um trabalho em um cluster todo-propósito existente, ele é tratado como uma carga de trabalho de computação para todos os fins (interativa) sujeita aos preços de computação para todos os fins.
Nome do campo | Tipo | Descrição |
---|---|---|
|
| Se for existing_cluster_id, o ID de um clustering existente que será usado para toda a execução desse Job. Ao executar o Job em um clustering existente, talvez seja necessário reiniciar manualmente o clustering se ele parar de responder. Sugerimos que o Job seja executado em um novo clustering para maior confiabilidade. Se for new_cluster, uma descrição de um clustering que será criado para cada execução. Se especificar uma PipelineTask, esse campo poderá estar vazio. |
| Uma matriz da biblioteca | Uma lista opcional de bibliotecas a serem instaladas no clustering que executará o trabalho. O valor default é uma lista vazia. |
Tag de cluster
Definição da tag de cluster.
Tipo | Descrição |
---|---|
| O endereço key da tag. O comprimento de key deve estar entre 1 e 127 caracteres UTF-8, inclusive. Para obter uma lista de todas as restrições, consulte AWS Tag Restrictions: https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/Using_Tags.html#tag-restrictions |
| O valor da tag. O tamanho do valor deve ser menor ou igual a 255 caracteres UTF-8. Para obter uma lista de todas as restrições, consulte AWS Tag Restrictions: https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/Using_Tags.html#tag-restrictions |
Cron Cron
Nome do campo | Tipo | Descrição |
---|---|---|
|
| Uma expressão Cron usando a sintaxe do Quartz que descreve a programação de um trabalho. Consulte Cron Trigger para obter detalhes. Esse campo é obrigatório. |
|
| Uma ID de fuso horário Java. O programar de um trabalho será resolvido com relação a esse fuso horário. Consulte Java TimeZone para obter detalhes. Esse campo é obrigatório. |
|
| Indique se esse programar é pausa ou não. Ou "pausa" ou "UNPAUSED". |
Informações de armazenamento do DBFS
DBFS informações de armazenamento.
Nome do campo | Tipo | Descrição |
---|---|---|
|
| Destino do DBFS. Exemplo: |
Tipo de volume EBS
O Databricks é compatível com os tipos de volume EBS gp2 e gp3. Siga as instruções em gerenciar SSD storage para selecionar gp2 ou gp3 para seu workspace.
Tipo | Descrição |
---|---|
| provisionamento de armazenamento extra usando AWS volumes EBS. |
| provisionamento de armazenamento extra usando volumes AWS st1. |
Informações de armazenamento de arquivos
Informações sobre armazenamento de arquivos.
Esse tipo de local só está disponível para clustering configurado com o Databricks Container Services.
Nome do campo | Tipo | Descrição |
---|---|---|
|
| Destino do arquivo. Exemplo: |
Informações do script de inicialização
Caminho para um init script.
Para obter instruções sobre como usar o script init com Databricks Container Servicesconsulte Use an init script.
O tipo de armazenamento de arquivos (nome do campo: file
) só está disponível para clustering configurado usando Databricks Container Services. Consulte FileStorageInfo.
Nome do campo | Tipo | Descrição |
---|---|---|
ou | Informações de armazenamento do espaço de trabalho dbfsStorageInfo (obsoleto) | localização do espaço de trabalho de init script. O destino deve ser fornecido. Por exemplo,
(Depreciado) DBFS localização de init script. O destino deve ser fornecido. Por exemplo,
S3 localização do site init script. O destino e a região ou o depósito devem ser fornecidos. Por exemplo, |
Job
Nome do campo | Tipo | Descrição |
---|---|---|
|
| O identificador canônico para esse trabalho. |
|
| O nome de usuário do criador. Esse campo não será incluído na resposta se o usuário já tiver sido excluído. |
|
| O nome de usuário com o qual o trabalho será executado. |
| Configurações para esse trabalho e toda a sua execução. Essas configurações podem ser atualizadas usando o método | |
|
| A hora em que esse Job foi criado em milissegundos de época (milissegundos desde 1/1/1970 UTC). |
Notificações por e-mail de emprego
Os campos on_start, on_success e on_failure aceitam somente caracteres latinos (conjunto de caracteres ASCII). O uso de caracteres não ASCII retornará um erro. Exemplos de caracteres inválidos e não ASCII são kanjis e emojis chineses, japoneses.
Nome do campo | Tipo | Descrição |
---|---|---|
| Uma variedade de | Uma lista de endereços email a serem notificados quando uma execução começar. Se não for especificado na criação, redefinição ou atualização do trabalho, a lista estará vazia e as notificações não serão enviadas. |
| Uma variedade de | Uma lista de endereços email a serem notificados quando uma execução for concluída com êxito. Considera-se que uma execução foi concluída com êxito se terminar com um |
| Uma variedade de | Uma lista de endereços email a serem notificados quando uma execução não for concluída com êxito. Considera-se que uma execução foi concluída sem sucesso se ela terminar com um |
| Uma variedade de | Uma lista de endereços email a serem notificados quando a duração de uma execução exceder o limite especificado para as |
|
| Se verdadeiro, não enviar email para os destinatários especificados em |
Nome do campo | Tipo | Descrição |
---|---|---|
| Uma variedade de Webhook | Uma lista opcional de destinos do sistema a serem notificados quando uma execução for iniciada. Se não for especificado na criação, redefinição ou atualização do trabalho, a lista estará vazia e as notificações não serão enviadas. É possível especificar no máximo 3 destinos para a propriedade |
| Uma variedade de Webhook | Uma lista opcional de destinos do sistema a serem notificados quando uma execução for concluída com êxito. Considera-se que uma execução foi concluída com êxito se terminar com um |
| Uma variedade de Webhook | Uma lista opcional de destinos do sistema a serem notificados quando uma execução for concluída sem êxito. Considera-se que uma execução foi concluída sem sucesso se ela terminar com um |
| Uma variedade de Webhook | Uma lista opcional de destinos do sistema a serem notificados quando a duração de uma execução exceder o limite especificado para o |
Configurações de notificação de trabalho
Nome do campo | Tipo | Descrição |
---|---|---|
|
| Se for verdadeiro, não enviará notificações aos destinatários especificados em |
|
| Se for verdadeiro, não enviará notificações aos destinatários especificados em |
|
| Se verdadeiro, não enviará notificações aos destinatários especificados em |
Configurações do trabalho
- Quando o senhor executa um trabalho em um novo clustering de trabalhos, o trabalho é tratado como uma carga de trabalho de computação de trabalhos (automatizada) sujeita aos preços de computação de trabalhos.
- Quando o senhor executa um trabalho em um cluster todo-propósito existente, ele é tratado como uma carga de trabalho de computação para todos os fins (interativa) sujeita aos preços de computação para todos os fins.
Configurações para um trabalho. Essas configurações podem ser atualizadas usando o método resetJob
.
Nome do campo | Tipo | Descrição |
---|---|---|
|
| Se for existing_cluster_id, o ID de um clustering existente que será usado para toda a execução desse Job. Ao executar o Job em um clustering existente, talvez seja necessário reiniciar manualmente o clustering se ele parar de responder. Sugerimos que o Job seja executado em um novo clustering para maior confiabilidade. Se for new_cluster, uma descrição de um clustering que será criado para cada execução. Se especificar uma PipelineTask, esse campo poderá estar vazio. |
| NotebookTask OU SparkJarTask OU SparkPythonTask OU SparkSubmitTask OU PipelineTask OU RunJobTask | Se for Notebook, indica que esse trabalho deve ser executado em um Notebook. Esse campo não pode ser especificado em conjunto com spark_jar_task. Se spark_jar_task, indica que esse trabalho deve ser executado em JAR. Se for spark_python_task, indica que esse trabalho deve executar um arquivo Python. Se for spark_submit_task, indica que esse trabalho deve ser iniciado pelo script de envio do spark. Se for pipeline, indica que esse trabalho deve executar um DLT pipeline. Se for execução, indica que esse trabalho deve executar outro trabalho. |
|
| Um nome opcional para o trabalho. O valor de default é |
| Uma matriz da biblioteca | Uma lista opcional de bibliotecas a serem instaladas no clustering que executará o trabalho. O valor default é uma lista vazia. |
| Um conjunto opcional de endereços email que serão notificados quando a execução desse trabalho começar ou for concluída, bem como quando esse trabalho for excluído. O comportamento do default é não enviar nenhum e-mail. | |
| Um conjunto opcional de destinos do sistema a serem notificados quando a execução desse trabalho começar, for concluída ou falhar. | |
| Configurações de notificação opcionais que são usadas ao enviar notificações para cada um dos sites | |
|
| Um tempo limite opcional aplicado a cada execução desse trabalho. O comportamento do default é não ter tempo limite. |
|
| Um número máximo opcional de vezes para tentar novamente uma execução malsucedida. Uma execução é considerada malsucedida se for concluída com o |
|
| Um intervalo mínimo opcional em milissegundos entre as tentativas. O comportamento do default é que as execuções malsucedidas são imediatamente repetidas. |
|
| Uma política opcional para especificar se um trabalho deve ser tentado novamente quando atingir o tempo limite. O comportamento do default é não tentar novamente após o tempo limite. |
| Um programador periódico opcional para esse trabalho. O comportamento do default é que o trabalho só será executado quando for acionado clicando em "Executar agora" na interface do usuário do trabalho ou enviando uma solicitação API para | |
|
| Um número máximo opcional permitido de execução concorrente do trabalho. Defina esse valor se o senhor quiser poder executar várias execuções do mesmo trabalho simultaneamente. Isso é útil, por exemplo, se o senhor acionar o seu trabalho em uma programação frequente e quiser permitir que execuções consecutivas se sobreponham umas às outras, ou se quiser acionar várias execuções que diferem em seus parâmetros de entrada. Essa configuração afeta apenas a nova execução. Por exemplo, suponha que a simultaneidade do trabalho seja 4 e que haja 4 concorrentes ativos em execução. Então, definir a simultaneidade como 3 não eliminará nenhuma das execuções ativas. No entanto, a partir de então, novas execuções serão ignoradas, a menos que haja menos de 3 execuções ativas. Esse valor não pode exceder 1000. Definir esse valor como 0 faz com que todas as novas execuções sejam ignoradas. O comportamento do default é permitir a execução de apenas 1 concorrente. |
| Um conjunto opcional de regras de integridade definidas para o trabalho. |
Tarefa de trabalho
Nome do campo | Tipo | Descrição |
---|---|---|
| NotebookTask OU SparkJarTask OU SparkPythonTask OU SparkSubmitTask OU PipelineTask OU RunJobTask | Se for Notebook, indica que esse trabalho deve ser executado em um Notebook. Esse campo não pode ser especificado em conjunto com spark_jar_task. Se spark_jar_task, indica que esse trabalho deve ser executado em JAR. Se for spark_python_task, indica que esse trabalho deve executar um arquivo Python. Se for spark_submit_task, indica que esse trabalho deve ser iniciado pelo script de envio do spark. Se for pipeline, indica que esse trabalho deve executar um DLT pipeline. Se for execução, indica que esse trabalho deve executar outro trabalho. |
Regra de saúde do trabalho
Nome do campo | Tipo | Descrição |
---|---|---|
|
| Especifica as métricas de saúde que estão sendo avaliadas para uma determinada regra de saúde. Os valores válidos são |
|
| Especifica o operador usado para comparar o valor de métricas de saúde com o limite especificado. Os valores válidos são |
|
| Especifica o valor limite que as métricas de saúde devem atender para cumprir a regra de saúde. |
Regras de saúde do trabalho
Nome do campo | Tipo | Descrição |
---|---|---|
| Uma variedade de JobsHealthRule | Um conjunto opcional de regras de integridade que podem ser definidas para um trabalho. |
biblioteca
Nome do campo | Tipo | Descrição |
---|---|---|
|
| Se for jar, o URI do JAR a ser instalado. Há suporte para URIs DBFS e S3. Por exemplo: |
Biblioteca Maven
Nome do campo | Tipo | Descrição |
---|---|---|
|
| Coordenadas Maven no estilo Gradle. Por exemplo: |
|
| O repositório Maven para instalar o pacote Maven. Se omitido, o Repositório Central Maven e o pacote Spark serão pesquisados. |
| Uma variedade de | Lista de dependências a serem excluídas. Por exemplo: |
Novo cluster
Nome do campo | Tipo | Descrição |
---|---|---|
|
| Se for worker, o número de nós worker que esse clustering deve ter. Um clustering tem um driver Spark e um executor de trabalho para um total de nós Spark de trabalho + 1. Ao ler as propriedades de um clustering, esse campo reflete o número desejado de trabalhadores em vez do número atual real de trabalhadores. Por exemplo, se um clustering for redimensionado de 5 para 10 trabalhadores, esse campo será imediatamente atualizado para refletir o tamanho desejado de 10 trabalhadores, enquanto os trabalhadores listados em |
|
| A versão Spark do clustering. Uma lista das versões disponíveis do Spark pode ser recuperada usando a chamada GET 2.0/clustering/spark-versions. Esse campo é obrigatório. |
| Um objeto que contém um conjunto de configurações opcionais especificadas pelo usuário Spark par key-value. O senhor também pode passar uma série de opções extras do JVM para o driver e o executor por meio do | |
| Atributos relacionados ao clustering em execução no serviço Amazon Web. Se não for especificado na criação do clustering, será usado um conjunto de valores default. | |
|
| Esse campo codifica, por meio de um único valor, o recurso disponível para cada um dos nós do Spark nesse clustering. Por exemplo, os nós Spark podem ser provisionados e otimizados para cargas de trabalho intensivas de memória ou compute. Uma lista de tipos de nós disponíveis pode ser recuperada usando a chamada GET 2.0/clustering/list-node-types. Esse campo, o campo |
|
| O tipo de nó do driver do Spark. Esse campo é opcional; se não for definido, o tipo de nó do driver será definido como o mesmo valor de |
| Uma variedade de | SSH público key conteúdo que será adicionado a cada nó Spark nesse clustering. A chave privada correspondente pode ser usada para fazer login com o nome de usuário |
| Um objeto que contém um conjunto de tags para agrupamento de recurso. Databricks marca todos os recursos de clustering (como instâncias do AWS e volumes do EBS) com essas marcas, além do padrão. Nota : - As tags não são compatíveis com os tipos de nós legados, como compute-optimized e memory-optimized - A Databricks permite no máximo 45 tags personalizadas | |
| A configuração para fornecer logs do Spark a um destino de armazenamento de longo prazo. Somente um destino pode ser especificado para um clustering. Se o conf for fornecido, o logs será entregue ao destino a cada | |
| Uma matriz de InitScriptInfo | A configuração para armazenar o script de inicialização. Qualquer número de scripts pode ser especificado. Os scripts são executados sequencialmente na ordem fornecida. Se |
| Um objeto que contém um conjunto de variáveis de ambiente opcionais, especificadas pelo usuário, para key-value. Os valores-chave parciais do formulário (X,Y) são exportados como estão (ou seja, o | |
|
| autoscale Local Storage: quando ativado, esse clustering adquire dinamicamente espaço em disco adicional quando seu worker Spark estiver com pouco espaço em disco. Esse recurso requer permissões específicas em AWS para funcionar corretamente - consulte Ativar armazenamento local de autoescala para obter detalhes. |
|
| A ID opcional do pool de instâncias a ser usado para o nó do driver. Você também deve especificar |
|
| A ID opcional da instância pool a ser usada para nós de clustering. Se |
Saída de notebook
Nome do campo | Tipo | Descrição |
---|---|---|
|
| O valor passado para dbutils.Notebook.exit(). A Databricks restringe essa API para retornar o primeiro 1 MB do valor. Para obter um resultado maior, seu Job pode armazenar os resultados em um serviço de armazenamento em nuvem. Esse campo estará ausente se |
|
| Se o resultado foi truncado ou não. |
Tarefa do notebook
Todas as células de saída estão sujeitas ao tamanho de 8 MB. Se a saída de uma célula tiver um tamanho maior, o restante da execução será cancelado e a execução será marcada como falha. Nesse caso, parte da saída de conteúdo de outras células também pode estar ausente.
Se o senhor precisar de ajuda para encontrar a célula que está além do limite, execute o Notebook contra um cluster todo-propósito e use essa técnica de salvamento automático do Notebook.
Nome do campo | Tipo | Descrição |
---|---|---|
|
| O caminho absoluto do Notebook a ser executado no site Databricks workspace. Esse caminho deve começar com uma barra. Esse campo é obrigatório. |
|
| O registro de data e hora da revisão do Notebook. |
| Um mapa do ParamPair | Parâmetros básicos a serem usados para cada execução desse trabalho. Se a execução for iniciada por uma chamada para |
Par de parâmetros
Parâmetros baseados em nomes para tarefas de execução do Notebook.
Os campos nessa estrutura de dados aceitam somente caracteres latinos (conjunto de caracteres ASCII). O uso de caracteres não ASCII retornará um erro. Exemplos de caracteres inválidos e não ASCII são kanjis e emojis chineses, japoneses.
Tipo | Descrição |
---|---|
| Nome do parâmetro. Passe para dbutils.widgets.get para recuperar o valor. |
| Valor do parâmetro. |
Tarefa de pipeline
Nome do campo | Tipo | Descrição |
---|---|---|
|
| O nome completo da tarefa do pipeline DLT a ser executada. |
Biblioteca Python Pi
Nome do campo | Tipo | Descrição |
---|---|---|
|
| O nome do pacote PyPI a ser instalado. Uma especificação opcional da versão exata também é suportada. Exemplos: |
|
| O repositório onde o pacote pode ser encontrado. Se não for especificado, o índice pip padrão será usado. |
Biblioteca RCRan
Nome do campo | Tipo | Descrição |
---|---|---|
|
| O nome do pacote CRAN a ser instalado. Esse campo é obrigatório. |
|
| O repositório onde o pacote pode ser encontrado. Se não for especificado, é usado o repositório CRAN predefinido. |
execução
Todas as informações sobre uma execução, exceto sua saída. A saída pode ser recuperada separadamente
com o método getRunOutput
.
Nome do campo | Tipo | Descrição |
---|---|---|
|
| O identificador canônico do trabalho que contém essa execução. |
|
| O identificador canônico da execução. Esse ID é exclusivo em todas as execuções de todos os trabalhos. |
|
| O nome de usuário do criador. Esse campo não será incluído na resposta se o usuário já tiver sido excluído. |
|
| O número de sequência dessa execução entre todas as execuções do trabalho. Esse valor começa em 1. |
|
| Se essa execução for uma repetição de uma tentativa de execução anterior, esse campo conterá a execução da tentativa original; caso contrário, será o mesmo que a execução. |
| O resultado e os estados do ciclo de vida da execução. | |
| O programador cron que acionou essa execução, caso tenha sido acionado pelo programador periódico. | |
| A tarefa realizada pela execução, se houver. | |
| Um instantâneo da especificação de clustering do trabalho quando essa execução foi criada. | |
| O clustering usado para essa execução. Se a execução for especificada para usar um novo clustering, esse campo será definido quando o serviço Jobs solicitar um clustering para a execução. | |
| Os parâmetros usados para essa execução. | |
|
| A hora em que essa execução foi iniciada em milissegundos de época (milissegundos desde 1/1/1970 UTC). Esse pode não ser o momento em que o trabalho começa a ser executado, por exemplo, se o trabalho estiver programado para ser executado em um novo cluster, esse é o momento em que a chamada de criação do cluster é emitida. |
|
| O tempo necessário para configurar o clustering em milissegundos. Para a execução em um novo clustering, esse é o tempo de criação do clustering; para a execução em um clustering existente, esse tempo deve ser muito curto. |
|
| O tempo, em milissegundos, que o comando levou para ser executado no site JAR ou no Notebook até ser concluído, falhar, atingir o tempo limite, ser cancelado ou encontrar um erro inesperado. |
|
| O tempo, em milissegundos, necessário para encerrar o agrupamento e limpar quaisquer artefatos associados. A duração total da execução é a soma da setup_duration, da execution_duration e da cleanup_duration. |
|
| A hora em que essa execução terminou em milissegundos de época (milissegundos desde 1/1/1970 UTC). Esse campo será definido como 0 se o trabalho ainda estiver em execução. |
| O tipo de gatilho que disparou essa execução. | |
|
| Um nome opcional para a execução. O valor de default é |
|
| O URL da página de detalhes da execução. |
|
| O tipo de execução. - |
|
| O número de sequência dessa tentativa de execução para uma execução de trabalho acionada. A tentativa inicial de uma execução tem um attempt_number igual a 0. Se a tentativa inicial de execução falhar e o Job tiver uma política de repetição ( |
Executar tarefa de trabalho
Nome do campo | Tipo | Descrição |
---|---|---|
|
| Identificador exclusivo do trabalho a ser executado. Esse campo é obrigatório. |
Execute o estado do ciclo de vida
O estado do ciclo de vida de uma execução. As transições de estado permitidas são:
QUEUED
- >PENDING
PENDING
- >RUNNING
- >TERMINATING
- >TERMINATED
PENDING
- >SKIPPED
PENDING
- >INTERNAL_ERROR
RUNNING
- >INTERNAL_ERROR
TERMINATING
- >INTERNAL_ERROR
Status | Descrição |
---|---|
| A execução foi acionada, mas está na fila porque atingiu um dos seguintes limites: - A execução ativa máxima do concorrente no site workspace. - A tarefa máxima concorrente |
| A execução foi acionada. Se a execução concorrente máxima configurada do Job já tiver sido atingida, a execução passará imediatamente para o estado |
| A tarefa dessa execução está sendo executada. |
| A tarefa dessa execução foi concluída e o contexto de agrupamento e execução está sendo limpo. |
| A tarefa dessa execução foi concluída e o contexto de agrupamento e execução foi limpo. Esse estado é terminal. |
| Essa execução foi abortada porque uma execução anterior do mesmo trabalho já estava ativa. Esse estado é terminal. |
| Um estado excepcional que indica uma falha no serviço de Jobs, como uma falha de rede durante um longo período. Se uma execução em um novo clustering terminar no estado |
Parâmetros de execução
Parâmetros para essa execução. Apenas um dos jar_params, python_params
ou Notebook
deve ser especificado na solicitação run-now
, dependendo do tipo de tarefa do Job.
Os trabalhos com Spark JAR tarefa ou Python tarefa recebem uma lista de parâmetros baseados em posição, e os trabalhos com Notebook tarefa recebem um mapa de valores key.
Nome do campo | Tipo | Descrição |
---|---|---|
| Uma variedade de | Uma lista de parâmetros para o Job com Spark JAR tarefa, por exemplo. |
| Um mapa do ParamPair | Um mapa da chave para os valores do Job com a tarefa Notebook, por exemplo. |
| Uma variedade de | Uma lista de parâmetros para o Job com Python tarefa, por exemplo. |
| Uma variedade de | Uma lista de parâmetros para Job com spark submit tarefa, por exemplo. |
RunResultState
O estado do resultado da execução.
- Se
life_cycle_state
=TERMINATED
: se a execução tiver uma tarefa, o resultado estará garantidamente disponível em e indicará o resultado da tarefa. - Se
life_cycle_state
=PENDING
,RUNNING
ouSKIPPED
, o estado do resultado não estará disponível. - Se
life_cycle_state
=TERMINATING
ou lifecyclestate =INTERNAL_ERROR
: o estado de resultado estará disponível se a execução tiver uma tarefa e gerenciar para começar.
Uma vez disponível, o estado do resultado nunca muda.
Status | Descrição |
---|---|
| A tarefa foi concluída com êxito. |
| A tarefa foi concluída com um erro. |
| A execução foi interrompida após atingir o tempo limite. |
| A execução foi cancelada por solicitação do usuário. |
RunState
Nome do campo | Tipo | Descrição |
---|---|---|
| Uma descrição da localização atual de uma execução no ciclo de vida da execução. Esse campo está sempre disponível na resposta. | |
| O estado do resultado de uma execução. Se não estiver disponível, a resposta não incluirá esse campo. Consulte runResultState para obter detalhes sobre a disponibilidade de result_state. | |
|
| Se uma execução foi cancelada manualmente por um usuário ou pelo programador porque a execução atingiu o tempo limite. |
|
| Uma mensagem descritiva do estado atual. Esse campo não é estruturado e seu formato exato está sujeito a alterações. |
Informações de armazenamento do S3
S3 informações de armazenamento.
Nome do campo | Tipo | Descrição |
---|---|---|
|
| Destino S3. Por exemplo: |
|
| Região S3. Por exemplo: |
|
| Armazém S3. Por exemplo: |
|
| (Opcional)Habilite a criptografia do lado do servidor, |
|
| (Opcional) O tipo de criptografia pode ser |
|
| (Opcional) KMS key usado se a criptografia estiver ativada e o tipo de criptografia estiver definido como |
|
| (Opcional) Defina a lista de controle de acesso em lata. Por exemplo: |
Par SparkConf
Spark configuration par key-value.
Tipo | Descrição |
---|---|
| Um nome de propriedade de configuração. |
| O valor da propriedade de configuração. |
Par Sparken V
Spark variável de ambiente par key-value.
Ao especificar a variável de ambiente em um Job clustering, os campos dessa estrutura de dados aceitam apenas caracteres latinos (conjunto de caracteres ASCII). O uso de caracteres não ASCII retornará um erro. Exemplos de caracteres inválidos e não ASCII são kanjis e emojis chineses, japoneses.
Tipo | Descrição |
---|---|
| Um nome de variável de ambiente. |
| O valor da variável de ambiente. |
Tarefa SparkJar
Nome do campo | Tipo | Descrição |
---|---|---|
|
| Obsoleto desde 04/2016. Em vez disso, forneça um |
|
| O nome completo da classe contém o método principal a ser executado. Esta classe deve estar contida em um JAR fornecido como uma biblioteca. O código deve usar |
| Uma variedade de | Parâmetros passados para o método principal. Use O que é uma referência de valor dinâmico? para definir parâmetros que contêm informações sobre a execução do trabalho. |
Tarefa SparkPython
Nome do campo | Tipo | Descrição |
---|---|---|
|
| O URI do arquivo Python a ser executado. Há suporte para caminhos DBFS e S3. Esse campo é obrigatório. |
| Uma variedade de | Parâmetros de linha de comando passados para o arquivo Python. Use O que é uma referência de valor dinâmico? para definir parâmetros que contêm informações sobre a execução do trabalho. |
Tarefa de envio do Spark
- O senhor pode invocar Spark submit tarefa somente em novos clusters.
- Na especificação new_cluster,
libraries
espark_conf
não são suportados. Em vez disso, use--jars
e--py-files
para adicionar Java e Python biblioteca e--conf
para definir a configuração de Spark. master
,deploy-mode
eexecutor-cores
são configurados automaticamente pelo Databricks; não é possível especificá-los em parâmetros.- Em default, o Spark submit Job usa toda a memória disponível (excluindo a memória reservada para o Databricks serviço). Você pode definir
--driver-memory
e--executor-memory
como um valor menor para deixar algum espaço para uso fora da pilha. - Os argumentos
--jars
,--py-files
,--files
suportam caminhos DBFS e S3.
Por exemplo, supondo que o JAR seja carregado para DBFS, o senhor pode executar SparkPi
definindo os seguintes parâmetros.
{
"parameters": ["--class", "org.apache.spark.examples.SparkPi", "dbfs:/path/to/examples.jar", "10"]
}
Nome do campo | Tipo | Descrição |
---|---|---|
| Uma variedade de | Parâmetros de linha de comando passados para o spark submit. Use O que é uma referência de valor dinâmico? para definir parâmetros que contêm informações sobre a execução do trabalho. |
Tipo de gatilho
Esses são os tipos de acionadores que podem disparar uma execução.
Tipo | Descrição |
---|---|
| programar que aciona periodicamente a execução, como um programador cron. |
| Gatilhos únicos que disparam uma única execução. Isso ocorre quando o senhor aciona uma única execução sob demanda por meio da interface do usuário ou da API. |
| Indica uma execução que é acionada como uma nova tentativa de uma execução que falhou anteriormente. Isso ocorre quando o senhor solicita a reexecução do trabalho em caso de falhas. |
Exibir item
O conteúdo exportado está no formato HTML. Por exemplo, se o site view a ser exportado for dashboards, uma cadeia de caracteres HTML será retornada para cada dashboard.
Nome do campo | Tipo | Descrição |
---|---|---|
|
| Conteúdo do site view. |
|
| Nome do item view. No caso do código view, o nome do Notebook. No caso do painel view, o nome do painel. |
| Tipo do item view. |
Tipo de visualização
Tipo | Descrição |
---|---|
| Notebook view item. |
| Dashboard view item. |
Visualizações para exportar
visualização a ser exportada: código, todos os painéis ou todos.
Tipo | Descrição |
---|---|
| Código view do Notebook. |
| Visualização de todo o painel do Notebook. |
| Todas as visualizações do Notebook. |
Webhook
Nome do campo | Tipo | Descrição |
---|---|---|
|
| Identificador que faz referência a um destino de notificação do sistema. Esse campo é obrigatório. |
Notificações do WebHook
Nome do campo | Tipo | Descrição |
---|---|---|
| Uma variedade de Webhook | Uma lista opcional de destinos do sistema a serem notificados quando uma execução for iniciada. Se não for especificado na criação, redefinição ou atualização do trabalho, a lista estará vazia e as notificações não serão enviadas. É possível especificar no máximo 3 destinos para a propriedade |
| Uma variedade de Webhook | Uma lista opcional de destinos do sistema a serem notificados quando uma execução for concluída com êxito. Considera-se que uma execução foi concluída com êxito se terminar com um |
| Uma variedade de Webhook | Uma lista opcional de destinos do sistema a serem notificados quando uma execução for concluída sem êxito. Considera-se que uma execução foi concluída sem sucesso se ela terminar com um |
| Uma variedade de Webhook | Uma lista opcional de destinos do sistema a serem notificados quando a duração de uma execução exceder o limite especificado para o |
Informações de armazenamento do espaço de trabalho
informações sobre o armazenamento do espaço de trabalho.
Nome do campo | Tipo | Descrição |
---|---|---|
|
| Destino do arquivo. Exemplo: |