Jira コネクタの制限
備考
ベータ版
Jira コネクタはベータ版です。
このページでは、 Databricks LakeFlow Connectを使用して Jira からデータを取り込む場合の制限と考慮事項について説明します。
一般的な SaaS コネクタの制限
このセクションの制限事項は、Lakeflowコネクト のすべてのSaaS コネクタに適用されます。
- スケジュールされたパイプラインを実行しても、アラートはすぐにはトリガーされません。代わりに、次の更新が実行されたときにトリガーされます。
- ソース テーブルを削除しても、宛先テーブルは自動的に削除されません。宛先テーブルを手動で削除する必要があります。この動作は、 Lakeflow Spark宣言型パイプラインの動作と一致しません。
- ソースメンテナンス期間中、Databricks はデータにアクセスできない可能性があります。
- ソース テーブル名が既存の宛先テーブル名と競合する場合、パイプラインの更新は失敗します。
- 複数の宛先パイプラインのサポートは API のみです。
- オプションで、取り込むテーブルの名前を変更できます。パイプライン内のテーブルの名前を変更すると、そのパイプラインは API 専用となり、UI でパイプラインを編集できなくなります。
- 列レベルの選択と選択解除は API のみです。
- パイプラインが既に開始された後に列を選択した場合、コネクタは新しい列のデータを自動的にバックフィルしません。履歴データを取り込むには、テーブルで完全な更新を手動で実行します。
- Databricks は、異なるソース スキーマからのものである場合でも、同じパイプラインに同じ名前を持つ 2 つ以上のテーブルを取り込むことはできません。
- ソース システムは、カーソル列が単調に増加すると想定します。
- SCDタイプ 1 が有効になっている場合、削除によって変更データフィードに明示的な
deleteイベントが生成されません。 監査可能な削除の場合、コネクタがサポートしている場合は SCD タイプ 2 を使用します。詳細については、 「例: CDF ソース データを使用した SCD タイプ 1 および SCD タイプ 2 の処理」を参照してください。 - コネクタは、変換せずに生データを取り込みます。変換にはダウンストリームのLakeFlow Spark宣言型パイプライン パイプラインを使用します。
コネクタ固有の制限
このセクションの制限は Jira コネクタに固有のものです。
パイプライン
- UI ベースのパイプラインの作成はサポートされていません。パイプラインを作成するには、ノートブック、Databricks CLI、または Databricks アセット バンドルを使用する必要があります。
増分同期
- テーブルのサブセットのみが増分同期をサポートできます。その他は完全更新のみです。詳細については、取り込みにサポートされている Jira ソース テーブルを参照してください。
追跡を削除
- 問題の削除は、Jira 監査ログがサポートされ、有効になっている場合にのみサポートされます。
- 削除は、認証ユーザーが Jira インスタンスに対するグローバル管理者権限を持っている場合にのみ追跡されます。
- コメントと作業ログの削除は、完全更新を通じてのみサポートされます。
フィルタリング
- Jira プロジェクトまたはスペースによるフィルタリングは、
jira_optionsのinclude_jira_spaces問題を使用してサポートされています。 プロジェクト名や ID ではなく、正確なプロジェクト キーを使用していることを確認してください。
コンテンツの摂取
- コネクタは合計 27 個のテーブルへのアクセスを提供します。複数のプロジェクトのデータを含むすべてのデータは、これら 27 個のテーブルに整理されます。
- 一部のテーブル (課題リンクなど) は内部 Jira ID を使用するため、意味のある出力を得るには他のテーブルとの結合が必要になる場合があります。