Pular para o conteúdo principal

Limitações do conector Jira

info

Beta

O conector Jira está em versão Beta.

Esta página lista as limitações e considerações para a ingestão de dados do Jira usando Databricks LakeFlow Connect.

Limitações gerais do conector SaaS

As limitações desta seção aplicam-se a todos os conectores SaaS no LakeFlow Connect.

  • Ao executar um pipeline agendado, os alertas não são acionados imediatamente. Em vez disso, elas são acionadas na próxima execução da atualização.
  • Quando uma tabela de origem é excluída, a tabela de destino não é excluída automaticamente. Você deve excluir a tabela de destino manualmente. Esse comportamento não é consistente com o comportamento do pipeline declarativo LakeFlow Spark .
  • Durante períodos de manutenção da fonte de dados, o Databricks poderá não conseguir acessar seus dados.
  • Se o nome de uma tabela de origem entrar em conflito com o nome de uma tabela de destino existente, a atualização do pipeline falhará.
  • O suporte pipeline com múltiplos destinos é feito exclusivamente via API.
  • Opcionalmente, você pode renomear uma tabela que você importa. Se você renomear uma tabela em seu pipeline, ele se tornará um pipeline somente para API e você não poderá mais editá- pipeline na interface do usuário.
  • A seleção e a deseleção em nível de coluna são exclusivas da API.
  • Se você selecionar uma coluna depois que um pipeline já tiver sido iniciado, o conector não preencherá automaticamente os dados da nova coluna. Para ingerir dados históricos, execute manualmente uma refresh completa na tabela.
  • O Databricks não consegue ingerir duas ou mais tabelas com o mesmo nome no mesmo pipeline, mesmo que elas provenham de esquemas de origem diferentes.
  • O sistema de origem pressupõe que as colunas do cursor estejam em ordem crescente monotônica.
  • Com o SCD tipo 1 ativado, as exclusões não produzem um evento delete explícito no feed de dados de alteração. Para exclusões auditáveis, use o tipo SCD 2 se o conector o suportar. Para obter detalhes, consulte o exemplo: Processamento de SCD tipo 1 e SCD tipo 2 com dados de origem CDF.
  • O conector ingere dados brutos sem transformações. Use o pipeline declarativo LakeFlow Spark downstream para transformações.

Limitações específicas do conector

As limitações descritas nesta seção são específicas do conector Jira.

oleoduto

  • A criação pipeline baseada em interface de usuário não é suportada. Você deve usar um Notebook, a CLI Databricks ou Databricks Ativo Bundles para criar um pipeline.

Sincronização incremental

Apagar parti

  • A exclusão de tarefas só é compatível se logs de auditoria do Jira forem suportados e estiverem ativados.
  • As exclusões só são rastreadas se o usuário que realiza a autenticação tiver permissões de administrador global na instância do Jira.
  • A exclusão de comentários e registros de trabalho só é possível através de refresh completa.

Filtragem

  • A filtragem por projeto ou espaço do Jira é suportada usando o parâmetro include_jira_spaces em jira_options. Certifique-se de usar a chave exata do projeto em vez de nomes ou IDs de projetos.

Ingestão de conteúdo

  • O conector fornece acesso a um total de 27 tabelas. Todos os dados, incluindo dados de múltiplos projetos, estão organizados nessas 27 tabelas.
  • Algumas tabelas (por exemplo, links de problemas) usam IDs internos do Jira e podem exigir junção com outras tabelas para gerar resultados significativos.