Pular para o conteúdo principal

Limitações do conector do Zendesk Support

info

Beta

Este recurso está em versão Beta. Os administradores do espaço de trabalho podem controlar o acesso a este recurso na página de Pré-visualizações . Veja as prévias do Gerenciador Databricks.

Limitações gerais

  • Ao executar um pipeline agendado, os alertas não são acionados imediatamente. Em vez disso, elas são acionadas na próxima execução da atualização.
  • Quando uma tabela de origem é excluída, a tabela de destino não é excluída automaticamente. Você deve excluir a tabela de destino manualmente. Esse comportamento não é consistente com o comportamento do pipeline declarativo LakeFlow Spark .
  • Durante períodos de manutenção da fonte de dados, o Databricks poderá não conseguir acessar seus dados.
  • Se o nome de uma tabela de origem entrar em conflito com o nome de uma tabela de destino existente, a atualização do pipeline falhará.
  • O suporte pipeline com múltiplos destinos é feito exclusivamente via API.
  • Opcionalmente, você pode renomear uma tabela que você importa. Se você renomear uma tabela em seu pipeline, ele se tornará um pipeline somente para API e você não poderá mais editá- pipeline na interface do usuário.
  • A seleção e a deseleção em nível de coluna são exclusivas da API.
  • Se você selecionar uma coluna depois que um pipeline já tiver sido iniciado, o conector não preencherá automaticamente os dados da nova coluna. Para ingerir dados históricos, execute manualmente uma refresh completa na tabela.
  • O Databricks não consegue ingerir duas ou mais tabelas com o mesmo nome no mesmo pipeline, mesmo que elas provenham de esquemas de origem diferentes.
  • O sistema de origem pressupõe que as colunas do cursor estejam em ordem crescente monotônica.
  • Com o SCD tipo 1 ativado, as exclusões não produzem um evento delete explícito no feed de dados de alteração. Para exclusões auditáveis, use o tipo SCD 2 se o conector o suportar. Para obter detalhes, consulte o exemplo: Processamento de SCD tipo 1 e SCD tipo 2 com dados de origem CDF.
  • O conector ingere dados brutos sem transformações. Use o pipeline declarativo LakeFlow Spark downstream para transformações.

Produtos Zendesk compatíveis

A Zendesk oferece uma variedade de produtos, incluindo Zendesk Support, Zendesk Chat, Zendesk Talk e outros. O Databricks suporta apenas a ingestão de dados do Zendesk Support, incluindo dados de tickets, conteúdo da base de conhecimento e dados do fórum da comunidade.

limites de taxa da API

A Zendesk impõe limites de taxa em sua API REST , especialmente para o endpoint de dados incrementais. Para garantir um desempenho consistente na ingestão de dados, a Databricks recomenda limitar o número de tabelas que você ingere simultaneamente. Por exemplo, você pode dividir tabelas em vários pipelines e programá-las em momentos diferentes.

Campos aninhados e personalizados

Alguns campos no esquema podem estar aninhados em estruturas complexas, e os campos de nível interno podem incluir atributos personalizados. Para garantir compatibilidade e consistência, esses campos são representados como um tipo de dados de string. Por exemplo, a coluna custom_fields na tabela tickets é uma matriz de objetos personalizados, que podem ter qualquer número de subcampos.