Limitações do conector de anúncios do TikTok
Beta
Este recurso está em versão Beta. Os administradores do espaço de trabalho podem controlar o acesso a este recurso na página de Pré-visualizações . Veja as prévias do Gerenciador Databricks.
O conector de gerenciamento de anúncios do TikTok no LakeFlow Connect apresenta as seguintes limitações:
-
Ao executar um pipeline agendado, os alertas não são acionados imediatamente. Em vez disso, elas são acionadas na próxima execução da atualização.
-
Quando uma tabela de origem é excluída, a tabela de destino não é excluída automaticamente. Você deve excluir a tabela de destino manualmente. Esse comportamento não é consistente com o comportamento do pipeline declarativo LakeFlow Spark .
-
Durante períodos de manutenção da fonte de dados, o Databricks poderá não conseguir acessar seus dados.
-
Se o nome de uma tabela de origem entrar em conflito com o nome de uma tabela de destino existente, a atualização do pipeline falhará.
-
O suporte pipeline com múltiplos destinos é feito exclusivamente via API.
-
Opcionalmente, você pode renomear uma tabela que você importa. Se você renomear uma tabela em seu pipeline, ele se tornará um pipeline somente para API e você não poderá mais editá- pipeline na interface do usuário.
-
A seleção e a deseleção em nível de coluna são exclusivas da API.
-
Se você selecionar uma coluna depois que um pipeline já tiver sido iniciado, o conector não preencherá automaticamente os dados da nova coluna. Para ingerir dados históricos, execute manualmente uma refresh completa na tabela.
-
O Databricks não consegue ingerir duas ou mais tabelas com o mesmo nome no mesmo pipeline, mesmo que elas provenham de esquemas de origem diferentes.
-
O sistema de origem pressupõe que as colunas do cursor estejam em ordem crescente monotônica.
-
Com o SCD tipo 1 ativado, as exclusões não produzem um evento
deleteexplícito no feed de dados de alteração. Para exclusões auditáveis, use o tipo SCD 2 se o conector o suportar. Para obter detalhes, consulte o exemplo: Processamento de SCD tipo 1 e SCD tipo 2 com dados de origem CDF. -
O conector ingere dados brutos sem transformações. Use o pipeline declarativo LakeFlow Spark downstream para transformações.
-
Algumas tabelas não suportam ingestão incremental porque a API não suporta filtragem baseada em um cursor. Essas tabelas são atualizadas a cada atualização do pipeline. Para obter uma lista de tabelas que suportam ingestão incremental, consulte Tabelas que suportam atualizações incrementais.
-
O conector suporta apenas a ingestão de relatórios BASIC.
-
As métricas SKAN não são suportadas para relatórios de ciclo de vida completo.