メインコンテンツまでスキップ

Jira コネクタの制限

備考

ベータ版

Jira コネクタはベータ版です。

このページでは、 Databricks LakeFlow Connectを使用して Jira からデータを取り込む場合の制限と考慮事項について説明します。

一般的な SaaS コネクタの制限

このセクションの制限事項は、Lakeflowコネクト のすべてのSaaS コネクタに適用されます。

  • スケジュールされたパイプラインを実行しても、アラートはすぐにはトリガーされません。代わりに、次の更新が実行されたときにトリガーされます。
  • ソース テーブルを削除しても、宛先テーブルは自動的に削除されません。宛先テーブルを手動で削除する必要があります。この動作は、 Lakeflow Spark宣言型パイプラインの動作と一致しません。
  • ソースメンテナンス期間中、Databricks はデータにアクセスできない可能性があります。
  • ソース テーブル名が既存の宛先テーブル名と競合する場合、パイプラインの更新は失敗します。
  • 複数の宛先パイプラインのサポートは API のみです。
  • オプションで、取り込むテーブルの名前を変更できます。パイプライン内のテーブルの名前を変更すると、そのパイプラインは API 専用となり、UI でパイプラインを編集できなくなります。
  • 列レベルの選択と選択解除は API のみです。
  • パイプラインが既に開始された後に列を選択した場合、コネクタは新しい列のデータを自動的にバックフィルしません。履歴データを取り込むには、テーブルで完全な更新を手動で実行します。
  • Databricks は、異なるソース スキーマからのものである場合でも、同じパイプラインに同じ名前を持つ 2 つ以上のテーブルを取り込むことはできません。
  • ソース システムは、カーソル列が単調に増加すると想定します。
  • SCDタイプ 1 が有効になっている場合、削除によって変更データフィードに明示的なdeleteイベントが生成されません。 監査可能な削除の場合、コネクタがサポートしている場合は SCD タイプ 2 を使用します。詳細については、 「例: CDF ソース データを使用した SCD タイプ 1 および SCD タイプ 2 の処理」を参照してください。
  • コネクタは、変換せずに生データを取り込みます。変換にはダウンストリームのLakeFlow Spark宣言型パイプライン パイプラインを使用します。

コネクタ固有の制限

このセクションの制限は Jira コネクタに固有のものです。

パイプライン

  • UI ベースのパイプラインの作成はサポートされていません。パイプラインを作成するには、ノートブック、Databricks CLI、または Databricks アセット バンドルを使用する必要があります。

増分同期

追跡を削除

  • 問題の削除は、Jira 監査ログがサポートされ、有効になっている場合にのみサポートされます。
  • 削除は、認証ユーザーが Jira インスタンスに対するグローバル管理者権限を持っている場合にのみ追跡されます。
  • コメントと作業ログの削除は、完全更新を通じてのみサポートされます。

フィルタリング

  • Jira プロジェクトまたはスペースによるフィルタリングは、 jira_optionsinclude_jira_spaces問題を使用してサポートされています。 プロジェクト名や ID ではなく、正確なプロジェクト キーを使用していることを確認してください。

コンテンツの摂取

  • コネクタは合計 27 個のテーブルへのアクセスを提供します。複数のプロジェクトのデータを含むすべてのデータは、これら 27 個のテーブルに整理されます。
  • 一部のテーブル (課題リンクなど) は内部 Jira ID を使用するため、意味のある出力を得るには他のテーブルとの結合が必要になる場合があります。