Pular para o conteúdo principal

Limitações do conector ServiceNow

info

Visualização

O conector ServiceNow está em versão prévia pública.

Este artigo lista as limitações e considerações sobre a ingestão de dados do ServiceNow usando Databricks LakeFlow Connect.

Limitações gerais do conector SaaS

As limitações desta seção se aplicam a todos os conectores SaaS em LakeFlow Connect.

  • Quando o senhor executa um pipeline agendado, o alerta não é acionado imediatamente. Em vez disso, eles são acionados quando a próxima atualização é executada.
  • Quando uma tabela de origem é excluída, a tabela de destino não é excluída automaticamente. Você deve excluir a tabela de destino manualmente. Esse comportamento não é consistente com o comportamento da DLT.
  • Durante os períodos de manutenção da fonte, a Databricks pode não conseguir acessar seus dados.
  • Se um nome de tabela de origem entrar em conflito com um nome de tabela de destino existente, a atualização do pipeline falhará.
  • O suporte a pipeline de vários destinos é somente de API.
  • Opcionalmente, você pode renomear uma tabela que você ingere. Se o senhor renomear uma tabela no pipeline, ela se tornará um pipeline somente de API e não será mais possível editar o pipeline na interface do usuário.
  • A seleção e a desseleção em nível de coluna são somente para API.
  • Se o senhor selecionar uma coluna depois que um pipeline já tiver começado, o conector não preencherá automaticamente os dados da nova coluna. Para ingerir dados históricos, o senhor deve executar manualmente um refresh completo na tabela.
  • O pipeline de ingestão gerenciar não é compatível com o seguinte:
    • espaço de trabalho em AWS GovCloud regiões
    • espaço de trabalho em Azure GovCloud regiões
    • Espaço de trabalho em conformidade com o FedRAMP

Específico do conector

As limitações desta seção são específicas do conector ServiceNow.

tubulação

  • O conector só pode ingerir tabelas com uma coluna sys_id.

  • As tabelas ingeridas incrementalmente devem ter uma das seguintes colunas. Se nenhuma dessas colunas existir, o conector fará o Snapshot da tabela de origem e substituirá a tabela de destino.

    • sys_updated_on
    • sys_created_on
    • sys_archived

    Algumas tabelas não podem ser extraídas incrementalmente, mesmo que uma dessas três colunas esteja presente. Nesses casos, o conector também faz o Snapshot da tabela de origem e substitui a tabela de destino.

Tabelas

  • Há um limite de 250 mesas por pipeline. Para ingerir mais de 250 tabelas, crie vários pipelines.
  • Se o nome da tabela ou qualquer um dos nomes das colunas contiver o caractere '$', o conector não poderá ingerir a tabela.