Limitações do conector Jira
info
Beta
O conector Jira está em versão Beta.
Esta página lista as limitações e considerações para a ingestão de dados do Jira usando Databricks LakeFlow Connect.
Limitações gerais do conector SaaS
As limitações desta seção aplicam-se a todos os conectores SaaS no LakeFlow Connect.
- Ao executar um pipeline agendado, os alertas não são acionados imediatamente. Em vez disso, elas são acionadas na próxima execução da atualização.
- Quando uma tabela de origem é excluída, a tabela de destino não é excluída automaticamente. Você deve excluir a tabela de destino manualmente. Esse comportamento não é consistente com o comportamento do pipeline declarativo LakeFlow Spark .
- Durante períodos de manutenção da fonte de dados, o Databricks poderá não conseguir acessar seus dados.
- Se o nome de uma tabela de origem entrar em conflito com o nome de uma tabela de destino existente, a atualização do pipeline falhará.
- O suporte pipeline com múltiplos destinos é feito exclusivamente via API.
- Opcionalmente, você pode renomear uma tabela que você importa. Se você renomear uma tabela em seu pipeline, ele se tornará um pipeline somente para API e você não poderá mais editá- pipeline na interface do usuário.
- A seleção e a deseleção em nível de coluna são exclusivas da API.
- Se você selecionar uma coluna depois que um pipeline já tiver sido iniciado, o conector não preencherá automaticamente os dados da nova coluna. Para ingerir dados históricos, execute manualmente uma refresh completa na tabela.
- O Databricks não consegue ingerir duas ou mais tabelas com o mesmo nome no mesmo pipeline, mesmo que elas provenham de esquemas de origem diferentes.
- O sistema de origem pressupõe que as colunas do cursor estejam em ordem crescente monotônica.
- Com o SCD tipo 1 ativado, as exclusões não produzem um evento
deleteexplícito no feed de dados de alteração. Para exclusões auditáveis, use o tipo SCD 2 se o conector o suportar. Para obter detalhes, consulte o exemplo: Processamento de SCD tipo 1 e SCD tipo 2 com dados de origem CDF. - O conector ingere dados brutos sem transformações. Use o pipeline declarativo LakeFlow Spark downstream para transformações.
Limitações específicas do conector
As limitações descritas nesta seção são específicas do conector Jira.
oleoduto
- A criação pipeline baseada em interface de usuário não é suportada. Você deve usar um Notebook, a CLI Databricks ou Databricks Ativo Bundles para criar um pipeline.
Sincronização incremental
- Apenas um subconjunto de tabelas suporta sincronização incremental. Outros permitem apenas refresh completa. Consulte a seção "Tabelas de origem do Jira compatíveis com a ingestão" para obter detalhes.
Apagar parti
- A exclusão de tarefas só é compatível se logs de auditoria do Jira forem suportados e estiverem ativados.
- As exclusões só são rastreadas se o usuário que realiza a autenticação tiver permissões de administrador global na instância do Jira.
- A exclusão de comentários e registros de trabalho só é possível através de refresh completa.
Filtragem
- A filtragem por projeto ou espaço do Jira é suportada usando o parâmetro
include_jira_spacesemjira_options. Certifique-se de usar a chave exata do projeto em vez de nomes ou IDs de projetos.
Ingestão de conteúdo
- O conector fornece acesso a um total de 27 tabelas. Todos os dados, incluindo dados de múltiplos projetos, estão organizados nessas 27 tabelas.
- Algumas tabelas (por exemplo, links de problemas) usam IDs internos do Jira e podem exigir junção com outras tabelas para gerar resultados significativos.