execução de um fluxo de trabalho CI/CD com um pacote Databricks ativo e GitHub Actions
Este artigo descreve como executar um fluxo de trabalho de CI/CD (integração contínua/implantação contínua) no GitHub com GitHub Actions e um Databricks ativo Bundle. Consulte O que são pacotes Databricks ativos?
O senhor pode usar o GitHub Actions juntamente com o Databricks CLI bundle
comando para automatizar, personalizar e executar seu CI/CD fluxo de trabalho a partir de seus GitHub repositórios.
Você pode adicionar arquivos YAML do GitHub Actions, como os seguintes, ao diretório .github/workflows
do seu repo . O exemplo de arquivo YAML do GitHub Actions valida, implanta e executa o Job especificado no pacote dentro de um destino de pré-produção chamado “qa”, conforme definido em um arquivo de configuração do pacote. Este exemplo de arquivo YAML do GitHub Actions depende do seguinte:
Um arquivo de configuração do pacote na raiz do repositório, que é declarado explicitamente por meio da configuração
working-directory: .
do arquivo YAML do GitHub Actions (essa configuração pode ser omitida se o arquivo de configuração do pacote já estiver na raiz do repositório). Este arquivo de configuração do pacote define um fluxo de trabalho do Databricks denominadomy-job
e um destino denominadoqa
. Consulte Configurações do Databricks ativo Bundle.Um segredo GitHub denominado
SP_TOKEN
, representando o Databricks access token para uma Databricks entidade de serviço que está associada ao Databricks workspace no qual este pacote está sendo implantado e executado. Consulte Segredos criptografados.
# This workflow validates, deploys, and runs the specified bundle
# within a pre-production target named "qa".
name: "QA deployment"
# Ensure that only a single job or workflow using the same concurrency group
# runs at a time.
concurrency: 1
# Trigger this workflow whenever a pull request is opened against the repo's
# main branch or an existing pull request's head branch is updated.
on:
pull_request:
types:
- opened
- synchronize
branches:
- main
jobs:
# Used by the "pipeline_update" job to deploy the bundle.
# Bundle validation is automatically performed as part of this deployment.
# If validation fails, this workflow fails.
deploy:
name: "Deploy bundle"
runs-on: ubuntu-latest
steps:
# Check out this repo, so that this workflow can access it.
- uses: actions/checkout@v3
# Download the Databricks CLI.
# See https://github.com/databricks/setup-cli
- uses: databricks/setup-cli@main
# Deploy the bundle to the "qa" target as defined
# in the bundle's settings file.
- run: databricks bundle deploy
working-directory: .
env:
DATABRICKS_TOKEN: ${{ secrets.SP_TOKEN }}
DATABRICKS_BUNDLE_ENV: qa
# Validate, deploy, and then run the bundle.
pipeline_update:
name: "Run pipeline update"
runs-on: ubuntu-latest
# Run the "deploy" job first.
needs:
- deploy
steps:
# Check out this repo, so that this workflow can access it.
- uses: actions/checkout@v3
# Use the downloaded Databricks CLI.
- uses: databricks/setup-cli@main
# Run the Databricks workflow named "my-job" as defined in the
# bundle that was just deployed.
- run: databricks bundle run my-job --refresh-all
working-directory: .
env:
DATABRICKS_TOKEN: ${{ secrets.SP_TOKEN }}
DATABRICKS_BUNDLE_ENV: qa
O seguinte arquivo YAML do GitHub Actions pode existir no mesmo repo que o arquivo anterior. Este arquivo valida, implanta e executa o pacote configurável especificado em um destino de produção denominado “prod”, conforme definido em um arquivo de configuração do pacote configurável. Este exemplo de arquivo YAML do GitHub Actions depende do seguinte:
Um arquivo de configuração do pacote na raiz do repositório, que é declarado explicitamente por meio da configuração
working-directory: .
do arquivo YAML do GitHub Actions (essa configuração pode ser omitida se o arquivo de configuração do pacote já estiver na raiz do repositório). Este arquivo de configuração do pacote define um fluxo de trabalho do Databricks denominadomy-job
e um destino denominadoprod
. Consulte Configurações do Databricks ativo Bundle.Um segredo GitHub denominado
SP_TOKEN
, representando o Databricks access token para uma Databricks entidade de serviço que está associada ao Databricks workspace no qual este pacote está sendo implantado e executado. Consulte Segredos criptografados.
# This workflow validates, deploys, and runs the specified bundle
# within a production target named "prod".
name: "Production deployment"
# Ensure that only a single job or workflow using the same concurrency group
# runs at a time.
concurrency: 1
# Trigger this workflow whenever a pull request is pushed to the repo's
# main branch.
on:
push:
branches:
- main
jobs:
deploy:
name: "Deploy bundle"
runs-on: ubuntu-latest
steps:
# Check out this repo, so that this workflow can access it.
- uses: actions/checkout@v3
# Download the Databricks CLI.
# See https://github.com/databricks/setup-cli
- uses: databricks/setup-cli@main
# Deploy the bundle to the "prod" target as defined
# in the bundle's settings file.
- run: databricks bundle deploy
working-directory: .
env:
DATABRICKS_TOKEN: ${{ secrets.SP_TOKEN }}
DATABRICKS_BUNDLE_ENV: prod
# Validate, deploy, and then run the bundle.
pipeline_update:
name: "Run pipeline update"
runs-on: ubuntu-latest
# Run the "deploy" job first.
needs:
- deploy
steps:
# Check out this repo, so that this workflow can access it.
- uses: actions/checkout@v3
# Use the downloaded Databricks CLI.
- uses: databricks/setup-cli@main
# Run the Databricks workflow named "my-job" as defined in the
# bundle that was just deployed.
- run: databricks bundle run my-job --refresh-all
working-directory: .
env:
DATABRICKS_TOKEN: ${{ secrets.SP_TOKEN }}
DATABRICKS_BUNDLE_ENV: prod