Databricks のエラークラス
適用対象: Databricks SQL
Databricks Runtime 12.2 以降
エラークラスは、エラー条件に固有の、説明的で人間が読める文字列です。
エラークラスを使用すると、エラーメッセージを解析することなく、アプリケーションのエラーをプログラムで処理できます。
これは、Databricks によって返される一般的な名前付きエラー条件の一覧です。
Databricks Runtime と Databricks SQL
ADD_DEFAULT_UNSUPPORTED
テーブル プロバイダーを使用して既存のターゲット データソースに新しい列を追加するときにDEFAULT
値がサポートされていないため<statementType>
コマンドを実行できませんでした: "<dataSource>
"。
AGGREGATE_FUNCTION_WITH_NONDETERMINISTIC_EXPRESSION
非決定論的な式 <sqlExpr>
は、集計関数の引数に含めないでください。
人工知能
指定された returnType: "<dataType>
"、応答 JSON は "<responseString>
" にキャストするときにモデル出力を解析できませんでした。 応答 JSON で表される型の内容と一致するように returnType を更新してから、クエリを再試行してください。
人工知能
実際のモデル出力には、複数の列「<responseString>
」があります。 ただし、指定された戻り値の型["<dataType>
"] には列が 1 つしかありません。 モデル出力と同じ数の列が含まれるように returnType を更新してから、クエリを再試行してください。
人工知能
関数 <funcName>
のHTTPリクエスト中にエラーが発生しました。 <errorMessage>
人工知能
関数 の HTTP 応答が無効です (関数 <funcName>
: <errorMessage>
人工知能
最大ワード数は負でない整数である必要がありますが、 <maxWords>
になります。
人工知能
指定されたモデル パラメーター (<modelParameters>
) は、エンドポイント "<endpointName>
" を提供する AI_QUERY
関数では無効です。
詳細については、AIを参照してください
人工知能
AI 関数: "<functionName>
" は、responseFormat
パラメーターに有効な <format>
文字列が必要ですが、応答形式 "<invalidResponseFormat>
" が見つかりました。例外: <errorMessage>
人工知能
関数 <funcName>
のJSON応答の解析中にエラーが発生しました: <errorMessage>
人工知能
サービス エンドポイント "<endpointName>
": <errorMessage>
のスキーマの解析に失敗しました。応答 JSON は "<responseJson>
" でした。
AI_QUERY
関数で returnType
パラメーターを手動で設定して、スキーマ解決をオーバーライドします。
人工知能
関数 <funcName>
は、現在の環境ではサポートされていません。 これは、 Databricks SQL Proとサーバレスでのみ使用できます。
人工知能
<invalidValue>
の指定された引数に "<invalidDataType>
" があるため、SQL 関数 "<functionName>
" の評価に失敗しましたが、サポートされているのは SQL 関数 ( <supportedDataTypes>
) のみです。 .関数呼び出しを更新して文字列型の引数を指定し、クエリを再試行してください。
人工知能
サポートされていない応答形式が見つかりました。
詳細については、AIを参照してください
人工知能
AI関数: "<functionName>
" は、戻り値の型として "<typeName>
" をサポートしていません。 戻り値の型は、Catalyst が認識し、AI 関数がサポートする有効な SQL 型である必要があります。 現在サポートされているタイプは次のとおりです。 <supportedValues>
人工知能
指定された値 "<argValue>
" は、引数 "<argName>
" でサポートされていません。 サポートされている値は次のとおりです。 <supportedValues>
人工知能
構造化された出力サポートのために、提供エンドポイントのタスクタイプが「チャット」であると予想していましたが、エンドポイント「<endpointName>
」に対して「<taskType>
」が見つかりました。
人工知能
ただし、 "<sqlExpr>
" は引数 returnType でサポートされていません。
人工知能
SQL 関数 (<conflictParamNames>``vector_search
で競合するパラメーターが検出されました。<hint>
人工知能
vector_search
埋め込み列タイプ <embeddingColumnType>
の SQL 関数はサポートされていません。
人工知能
vector_search
SQL 関数にクエリ入力パラメーターがありません。少なくとも 1 つを指定してください: <parameterNames>
。
人工知能
vector_search
SQL 関数にquery
パラメーターは、hybrid
ベクトル検索ではサポートされていません。代わりに query_text
をご利用ください。
人工知能
hybrid
ベクトル検索の vector_search
SQL 関数で見つからないクエリ テキスト。query_text
を提供してください。
人工知能
vector_search
インデックス・タイプが <indexType>
の SQL 関数はサポートされていません。
人工知能
query_vector
インデックス <indexName>
は埋め込みモデルの端点に関連付けられていないため、インデックス に指定する必要があります。
人工知能
vector_search
SQL要求エンコード中に、spark type<dataType>
Scalaの object から ネイティブ オブジェクトへの 関数クエリの具体化に失敗しました:<errorMessage>
。
人工知能
vector_search
クエリ タイプ <unexpectedQueryType>
の SQL 関数はサポートされていません。 以下から1つ指定してください: <supportedQueryTypes>
。
人工知能
vector_search
num_resultsが <maxLimit>
より大きい SQL 関数はサポートされていません。 指定された制限は <requestedLimit>
です。 num_results <= で再試行してください \<maxLimit\>
ALL_PARAMETERS_MUST_BE_NAMED
名前パラメーター化クエリを使用するには、すべてのパラメーターに名前を付ける必要があります。 パラメーター missing names: <exprs>
.
ALL_PARTITION_COLUMNS_NOT_ALLOWED
パーティション列にすべての列を使用することはできません。
ALTER_SCHEDULE_DOES_NOT_EXIST
既存のスケジュールまたはトリガがないテーブルの <scheduleType>
は変更できません。 スケジュールまたはトリガーをテーブルに追加してから、テーブルを変更してください。
ALTER_TABLE_COLUMN_DESCRIPTOR_DUPLICATE
ALTER TABLE <type>
列 <columnName>
は記述子 "<optionName>
" を複数回指定していますが、これは無効です。
AMBIGUOUS_ALIAS_IN_NESTED_CTE
名前 <name>
は、ネストされた CTE であいまいです。
<config>
を「CORRECTED
」に設定して、内部CTEで定義された名前が優先されるようにしてください。「LEGACY
」に設定すると、外部のCTE定義が優先されます。
https://spark.apache.org/docs/latest/sql-migration-guide.html#query-engine を参照してください。
AMBIGUOUS_COLUMN_OR_FIELD
列またはフィールド <name>
があいまいで、一致 <n>
があります。
AMBIGUOUS_COLUMN_REFERENCE
列 <name>
があいまいです。 これは、複数の DataFrame を結合し、これらの DataFrames の一部が同じであるためです。
この列は DataFrames の 1 つを指していますが、 Spark はどれかを理解できません。
DataFramesを結合する前に、 DataFrame.alias
を使用して異なる名前のDataFrameにエイリアスを設定してください。
そして、修飾名を使用して列を指定します。 df.alias("a").join(df.alias("b"), col("a.id") > col("b.id"))
。
AMBIGUOUS_CONSTRAINT
制約 <constraint>
.
AMBIGUOUS_LATERAL_COLUMN_ALIAS
横列のエイリアス <name>
があいまいで、一致 <n>
があります。
AMBIGUOUS_REFERENCE
参照 <name>
があいまいな場合は、 <referenceNames>
.
AMBIGUOUS_REFERENCE_TO_FIELDS
フィールド <field>
. スキーマに <count>
回出現します。
ANALYZE_CONSTRAINTS_NOT_SUPPORTED
ANALYZE CONSTRAINTS
はサポートされていません。
ANSI_CONFIG_CANNOT_BE_DISABLED
この製品では、ANSI SQL 構成 <config>
を使用不可にすることはできません。
AQE_THREAD_INTERRUPTED
AQE スレッドが中断されたのは、おそらくユーザーによるクエリの取り消しが原因です。
ARGUMENT_NOT_CONSTANT
関数 <functionName>
には、定数引数を必要とする位置 <pos>
のパラメーター <parameterName>
が含まれています。引数を別々にコンピュートして <sqlExpr>
し、結果を定数として渡してください。
ARITHMETIC_OVERFLOW
<message>
.<alternative>
必要に応じて、 <config>
を "false" に設定して、このエラーを回避します。
詳細については、「 ARITHMETIC_OVERFLOW
ASSIGNMENT_ARITY_MISMATCH
割り当てられた、またはエイリアス化された列または変数の数: <numTarget>
がソース式の数と一致しません: <numExpr>
。
AS_OF_JOIN
As-of ジョインが無効です。
詳細については、AS_OF_JOIN を参照してください。
デフォルト
rescuedDataColumn
が有効になっている場合、デフォルト値の使用はサポートされません。このチェックは、 spark.databricks.sql.avro.rescuedDataBlockUserDefinedSchemaDefaultValue
を false に設定することで削除できる場合がありますが、デフォルト値は適用されず、null 値は引き続き使用されます。
AVRO_INCOMPATIBLE_READ_TYPE
元のエンコードされたデータ型が <avroType>
であるため、Avro <avroPath>
を SQL <sqlPath>
に変換できませんが、フィールドを <sqlType>
として読み取ろうとしていると、誤った回答につながる可能性があります。
このフィールドの読み取りを許可するには、SQL 構成 "spark.sql.legacy.avro.allowIncompatibleSchema" を有効にします。
AVRO_POSITIONAL_FIELD_MATCHING_UNSUPPORTED
位置指定フィールドの一致は、 rescuedDataColumn
または failOnUnknownFields
が有効になっている場合はサポートされません。 続行するには、これらのオプションを削除します。
バッチ
バッチ <batchMetadataFile>
が見つかりません。
BIGQUERY_OPTIONS_ARE_MUTUALLY_EXCLUSIVE
BigQuery 接続資格情報は、'GoogleServiceAccountKeyJson' パラメーター、または 'projectId'、'OAuthServiceAcctEmail'、'OAuthPvtKey' のすべてを使用して指定する必要があります
BINARY_ARITHMETIC_OVERFLOW
<value1> <symbol> <value2>
オーバーフローを引き起こしました。 <functionName>
を使用してオーバーフローの問題を無視し、NULL
を返します。
ブーリアン
Boolean ステートメント<invalidStatement>
は無効です。 BOOLEAN
型の値を持つ 1 つの行が必要ですが、空の行を取得しました。
BUILT_IN_CATALOG
<operation>
組み込みカタログはサポートされていません。
CALL_ON_STREAMING_DATASET_UNSUPPORTED
このメソッドは、ストリーミング データセット/DataFrame で <methodName>
呼び出すことはできません。
CANNOT_ALTER_COLLATION_BUCKET_COLUMN
ALTER TABLE (ALTER|CHANGE) COLUMN
バケット列のタイプ/サブタイプの照合順序は変更できませんが、テーブル<tableName>
でバケット列<columnName>
が見つかりました。
CANNOT_ALTER_PARTITION_COLUMN
ALTER TABLE (ALTER|CHANGE) COLUMN
はパーティション列ではサポートされていませんが、テーブル <tableName>
でパーティション列<columnName>
が見つかりました。
CANNOT_ASSIGN_EVENT_TIME_COLUMN_WITHOUT_WATERMARK
イベント時間列を再割り当てするには、ウォーターマークを定義する必要があります。 ストリーミング クエリでウォーターマーク定義が見つかりませんでした。
CANNOT_CAST_DATATYPE
<sourceType>
を <targetType>
にキャストできません。
CANNOT_CONVERT_PROTOBUF_FIELD_TYPE_TO_SQL_TYPE
スキーマに互換性がないため、Protobuf <protobufColumn>
を SQL <sqlColumn>
に変換できません (protobufType = <protobufType>
、 sqlType = <sqlType>
)。
CANNOT_CONVERT_PROTOBUF_MESSAGE_TYPE_TO_SQL_TYPE
Protobuf の <protobufType>
を SQL タイプ <toType>
に変換できません。
CANNOT_CONVERT_SQL_TYPE_TO_PROTOBUF_FIELD_TYPE
スキーマに互換性がないため、SQL <sqlColumn>
を Protobuf <protobufColumn>
に変換できません (protobufType = <protobufType>
、sqlType = <sqlType>
)。
CANNOT_CONVERT_SQL_VALUE_TO_PROTOBUF_ENUM_TYPE
enum: <enumString>
の定義済み値に <data>
がないため、SQL <sqlColumn>
を Protobuf <protobufColumn>
に変換できません。
CANNOT_COPY_STATE
現在のデータベースや一時ビューなどのカタログの状態を Unity Catalog から従来のカタログにコピーできません。
CANNOT_CREATE_DATA_SOURCE_TABLE
データソーステーブル <tableName>
を作成できませんでした :
詳細については、 CANNOT_CREATE_DATA_SOURCE_TABLE
CANNOT_DECODE_URL
指定された URL はデコードできません: <url>
. URLの形式が正しいことを確認し、もう一度お試しください。
CANNOT_DELETE_SYSTEM_OWNED
システム所有の <resourceType>
は削除できません。
CANNOT_DROP_AMBIGUOUS_CONSTRAINT
CHECK
制約によって共有されている名前<constraintName>
制約は削除できません
PRIMARY KEY
またはFOREIGN KEY
制約。PRIMARY KEY
をドロップするか、
FOREIGN KEY
クエリによる制約:
ALTER TABLE
.. DROP PRIMARY KEY
または
ALTER TABLE
.. DROP FOREIGN KEY
..
CANNOT_ESTABLISH_CONNECTION
リモート <jdbcDialectName>
データベースへの接続を確立できません。 接続情報と資格情報を確認してください。 ホスト、ポート、ユーザー、パスワード、およびデータベースオプション。 ** 情報が正しいと思われる場合は、ワークスペースのネットワーク設定を確認し、ホストへの送信制限がないことを確認してください。 また、ワークスペースの Spark クラスターがデプロイされているネットワークからの受信接続がホストによってブロックされていないことも確認してください。 **詳細なエラーメッセージ: <causeErrorMessage>
。
CANNOT_ESTABLISH_CONNECTION_SERVERLESS
リモート <jdbcDialectName>
データベースへの接続を確立できません。 接続情報と資格情報を確認してください。 ホスト、ポート、ユーザー、パスワード、およびデータベースオプション。 ** 情報が正しいと思われる場合は、サーバレス コンピュートを使用しているため、インターネットからホストへのインバウンドトラフィックを許可してください。 ネットワークポリシーがインバウンドインターネットトラフィックを許可していない場合は、non サーバレス コンピュートを使用するか、 Databricks 担当者に連絡してサーバレス Private Networkingについて確認してください。 **詳細なエラーメッセージ: <causeErrorMessage>
。
CANNOT_INVOKE_IN_TRANSFORMATIONS
データセットの変換とアクションは、ドライバーによってのみ呼び出すことができ、他のデータセット変換の内部で呼び出すことはできません。たとえば、dataset1.map(x => dataset2.values.count() * x) は、Dataset1.Map 変換内で values 変換と count アクションを実行できないため、無効です。 詳細については、 SPARK
-28702 を参照してください。
CANNOT_LOAD_FUNCTION_CLASS
関数<functionName>
を登録するときにクラス<className>
を読み込めません。クラスパス上にあることを確認してください。
CANNOT_LOAD_PROTOBUF_CLASS
名前が <protobufClassName>
の Protobuf クラスを読み込めませんでした。 <explanation>
。
CANNOT_LOAD_STATE_STORE
ロード状態でエラーが発生しました。
詳細については、 CANNOT_LOAD_STATE_STORE
CANNOT_MERGE_INCOMPATIBLE_DATA_TYPE
互換性のないデータ型 <left>
と <right>
をマージできませんでした。 マージする列のデータ型を確認し、互換性があることを確認してください。 必要に応じて、マージを試みる前に、列を互換性のあるデータ型にキャストすることを検討してください。
CANNOT_MERGE_SCHEMAS
スキーマのマージに失敗しました:
初期スキーマ:
<left>
初期スキーマとマージできないスキーマ:
<right>
.
CANNOT_MODIFY_CONFIG
Spark config: <key>
の値を変更できません。
https://spark.apache.org/docs/latest/sql-migration-guide.html#ddl-statements'も参照してください。
CANNOT_PARSE_DECIMAL
小数を解析できません。 入力が有効な数値であり、オプションの小数点またはカンマ区切り記号を使用していることを確認してください。
CANNOT_PARSE_INTERVAL
<intervalString>
を解析できません。指定された値が、間隔を定義するための有効な形式であることを確認してください。 正しい形式のドキュメントを参照できます。 問題が解決しない場合は、入力値がnullまたは空でないことを再確認して、再試行してください。
CANNOT_PARSE_JSON_FIELD
フィールド名 <fieldName>
と JSON トークン タイプの値 <fieldValue>
を <jsonType>
ターゲット Spark データ型 に解析できません <dataType>
。
CANNOT_PARSE_PROTOBUF_DESCRIPTOR
記述子バイトを Protobuf FileDescriptorSet に解析中にエラーが発生しました。
CANNOT_PARSE_TIMESTAMP
<message>
. <func>
を使用して無効な入力文字列を許容し、代わりに NULL
を返します。
CANNOT_QUERY_TABLE_DURING_INITIALIZATION
初期化中に MV/ST をクエリできません。
詳細については、 CANNOT_QUERY_TABLE_DURING_INITIALIZATION
CANNOT_READ_ARCHIVED_FILE
パス <path>
のファイルはアーカイブされているため、読み取れません。 クエリ フィルタを調整して、アーカイブされたファイルを除外してください。
CANNOT_READ_FILE
パス <format>
<path>
にあるファイルを読み取れません。
詳細については、 CANNOT_READ_FILE
CANNOT_READ_SENSITIVE_KEY_FROM_SECURE_PROVIDER
セキュア・プロバイダから機密キー「<key>
」を読み取れません。
CANNOT_RECOGNIZE_HIVE_TYPE
ハイブ タイプ文字列: <fieldType>
、列: <fieldName>
を認識できません。 フィールドに指定されたデータ型は、Spark SQL で認識できません。 指定されたフィールドのデータ型を確認し、それが有効なSpark SQLデータ型であることを確認してください。 有効なデータ型とその形式の一覧については、Spark SQL のドキュメントを参照してください。 データ型が正しい場合は、サポートされているバージョンの Spark SQL を使用していることを確認してください。
CANNOT_REFERENCE_UC_IN_HMS
Unity Catalog<objType>
Hive metastoreオブジェクト内の を参照できません。
CANNOT_REMOVE_RESERVED_PROPERTY
予約済みプロパティを削除できません: <property>
.
CANNOT_RENAME_ACROSS_CATALOG
カタログ間で <type>
の名前を変更することは許可されていません。
CANNOT_RENAME_ACROSS_SCHEMA
スキーマ間で <type>
の名前を変更することは許可されていません。
CANNOT_RESOLVE_DATAFRAME_COLUMN
データフレーム列 <name>
を解決できません。 それはおそらく df1.select(df2.col("a"))
のような違法な参照が原因です。
CANNOT_RESOLVE_STAR_EXPAND
<targetString>
.* の入力列 <columns>
. .指定したテーブルまたは構造体が存在し、入力列でアクセス可能であることを確認してください。
CANNOT_RESTORE_PERMISSIONS_FOR_PATH
作成されたパス <path>
の権限を <permission>
に戻すことができませんでした。
CANNOT_SHALLOW_CLONE_ACROSS_UC_AND_HMS
Unity Catalog と Hive metastoreのテーブルをシャロークローンすることはできません。
CANNOT_SHALLOW_CLONE_NESTED
すでにシャロークローンになっているテーブル <table>
をシャロークローンすることはできません。
CANNOT_SHALLOW_CLONE_NON_UC_MANAGED_TABLE_AS_SOURCE_OR_TARGET
シャロークローンは、 MANAGED
テーブルタイプでのみサポートされます。 テーブル <table>
は MANAGED
テーブルではありません。
CANNOT_UPDATE_FIELD
<table>
フィールド<fieldName>
タイプを更新できません:
詳細については、 CANNOT_UPDATE_FIELD
CANNOT_UP_CAST_DATATYPE
<sourceType>
から<targetType>
に<expression>
をアップキャストすることはできません。
<details>
CANNOT_USE_KRYO
Kryo シリアル化コーデックを読み込めません。 Kryo のシリアル化は、Spark Connect クライアントでは使用できません。 Java シリアル化を使用するか、カスタム コーデックを提供するか、代わりに Spark Classic を使用します。
CANNOT_VALIDATE_CONNECTION
<jdbcDialectName>
接続の検証はサポートされていません。別のソリューションについては Databricks サポートにお問い合わせいただくか、"spark.databricks.testConnectionBeforeCreation" を設定してください。 を "false" に設定すると、接続オブジェクトを作成する前に接続テストがスキップされます。
CANNOT_WRITE_STATE_STORE
プロバイダー <providerClass>
の状態ストア ファイルの書き込み中にエラーが発生しました。
詳細については、 CANNOT_WRITE_STATE_STORE
CAST_INVALID_INPUT
<sourceType>
型の値 <expression>
は、形式が正しくないため、<targetType>
にキャストできません。構文に従って値を修正するか、ターゲットの種類を変更します。 try_cast
を使用して、不正な形式の入力を許容し、代わりにNULL
を返します。
詳細については、 CAST_INVALID_INPUT
CAST_OVERFLOW
<sourceType>
型の値 <value>
は、オーバーフローのため <targetType>
にキャストできません。try_cast
を使用してオーバーフローを許容し、代わりにNULL
を返します。
CAST_OVERFLOW_IN_TABLE_INSERT
オーバーフローのため<sourceType>``<targetType>
タイプの列または変数<columnName>
に値を割り当てることができません。入力値に try_cast
を使用してオーバーフローを許容し、代わりに NULL
を返します。
CATALOG_NOT_FOUND
カタログ <catalogName>
見つかりません。 SQL 構成 <config>
をカタログ プラグインに設定することを検討してください。
CHECKPOINT_RDD_BLOCK_ID_NOT_FOUND
チェックポイントブロック <rddBlockId>
見つかりませんでした。
このパーティションを最初にチェックポイントしたエグゼキューターが生きていないか、元の RDD が永続化されていません。
この問題が解決しない場合は、代わりに rdd.checkpoint()
を使用することを検討します。これは、ローカル チェックポイント処理よりも低速ですが、フォールト トレラント性は高くなります。
CIRCULAR_CLASS_REFERENCE
クラス内に循環参照を持つことはできませんが、クラス <t>
の循環参照を取得しました。
CLASS_NOT_OVERRIDE_EXPECTED_METHOD
<className>
<method1>
または <method2>
をオーバーライドする必要があります。
CLASS_UNSUPPORTED_BY_MAP_OBJECTS
MapObjects
は、結果のコレクションとして <cls>
クラスをサポートしていません。
コマンド
クリーンルームコマンドはサポートされていません
CLEANROOM_INVALID_SHARED_DATA_OBJECT_NAME
クリーンルーム内の <type>
を参照する名前が無効です。 クリーンルーム内の <type>
名を[カタログ]の形式で使用してください。[スキーマ]。[<type>
] をクリックします。
使用する名前がわからない場合は、「SHOW ALL IN CLEANROOM
[clean_room]」を実行して、「name」列の値を使用できます。
CLOUD_FILE_SOURCE_FILE_NOT_FOUND
file: <filePath>
のファイル通知を受け取りましたが、もう存在しません。 ファイルが処理される前に削除されていないことを確認してください。 ストリームを続行するには、Spark SQL 設定 <config>
を true に設定します。
CLOUD_PROVIDER_ERROR
クラウドプロバイダーエラー: <message>
クラスタリング
指定されたクラスタリングは、既存のテーブル <tableName>
のクラスタリングと一致しません。
指定されたクラスタリング列: [<specifiedClusteringString>
]。
既存のクラスタリング列: [<existingClusteringString>
]
クラスタリング
'<operation>
' はクラスタリングをサポートしていません。
クラスター
Databricks担当者に連絡して、クラスターby-auto機能を有効にしてください。
クラスタリング
CLUSTER BY
AUTO を使用するには、clusteringTable.enableClusteringTableFeature を有効にしてください。
クラスター
CLUSTER BY
AUTO では、予測的最適化を有効にする必要があります。
クラスター
CLUSTER BY
AUTO は UC マネージドテーブルでのみサポートされています。
CODEC_NOT_AVAILABLE
コーデック <codecName>
は使用できません。
詳細については、 CODEC_NOT_AVAILABLE
CODEC_SHORT_NAME_NOT_FOUND
コーデック <codecName>
の短い名前が見つかりません。
COLLATION_INVALID_NAME
値 <collationName>
が正しい照合名を表していません。 推奨される有効な照合名: [<proposals>
]。
COLLATION_INVALID_PROVIDER
値 <provider>
は、正しい照合順序プロバイダーを表していません。 サポートされているプロバイダーは [<supportedProviders>
] です。
COLLATION_MISMATCH
文字列関数と演算子に使用する照合順序を決定できませんでした。
詳細については、 COLLATION_MISMATCH
COLLECTION_SIZE_LIMIT_EXCEEDED
配列のサイズ制限を超える <numberOfElements>
要素を含む配列を作成できません <maxRoundedArrayLength>
、
詳細については、「 COLLECTION_SIZE_LIMIT_EXCEEDED
COLUMN_ALIASES_NOT_ALLOWED
列エイリアスは <op>
では使用できません。
COLUMN_ALREADY_EXISTS
列 <columnName>
はすでに存在します。 別の名前を選択するか、既存の列の名前を変更します。
COLUMN_ARRAY_ELEMENT_TYPE_MISMATCH
フィールド <pos>
の一部の値は、列配列タイプと互換性がありません。 想定されるタイプ <type>
。
COLUMN_MASKS_ABAC_MISMATCH
ポリシーから継承された列マスクと明示的に定義された列マスクとの間に不一致があったため、列マスクを <tableName>
で解決できませんでした。 続行するには、属性ベースのアクセス制御 (ABAC) を無効にし、Databricks サポートにお問い合わせください。
COLUMN_MASKS_CHECK_CONSTRAINT_UNSUPPORTED
列マスク・ポリシーを使用して CHECK
テーブル・ <tableName>
に制約を作成することはサポートされていません。
COLUMN_MASKS_DUPLICATE_USING_COLUMN_NAME
<statementType>
文が、USING COLUMNS
リストに参照されている他の 2 つ以上のカラムが同じ名前のカラム <columnName>
を含むカラムにカラム・マスク・ポリシーを割り当てようとしました。これは無効です。
COLUMN_MASKS_FEATURE_NOT_SUPPORTED
<tableName>
の列マスク ポリシーはサポートされていません。
詳細については、COLUMN_MASKS_FEATURE_NOT_SUPPORTEDを参照してください
COLUMN_MASKS_INCOMPATIBLE_SCHEMA_CHANGE
テーブル <tableName>
は、列<maskedColumn>
の列マスク ポリシーで参照されているため、テーブル から<statementType> <columnName>
できません。テーブルの所有者は、続行する前にこのポリシーを削除または変更する必要があります。
COLUMN_MASKS_MERGE_UNSUPPORTED_SOURCE
MERGE INTO
操作では、ソース表 <tableName>
の列マスク・ポリシーはサポートされていません。
COLUMN_MASKS_MERGE_UNSUPPORTED_TARGET
MERGE INTO
操作では、列マスクポリシーを使用したテーブル <tableName>
への書き込みはサポートされていません。
COLUMN_MASKS_MULTI_PART_TARGET_COLUMN_NAME
この文は、複数の名前パーツを持つカラム <columnName>
にカラム・マスク・ポリシーを割り当てようとしましたが、これは無効です。
COLUMN_MASKS_MULTI_PART_USING_COLUMN_NAME
この文は、カラム・マスク・ポリシーをカラムに割り当てようとしましたが、 USING COLUMNS
・リストに複数の名前パーツを持つ名前 <columnName>
が含まれていましたが、これは無効です。
COLUMN_MASKS_NOT_ENABLED
列マスクの定義のサポートが有効になっていません
COLUMN_MASKS_REQUIRE_UNITY_CATALOG
列マスク ポリシーは、Unity Catalog でのみサポートされています。
COLUMN_MASKS_SHOW_PARTITIONS_UNSUPPORTED
SHOW PARTITIONS
コマンドは、列マスクを持つ\<format\>
テーブルではサポートされていません。
COLUMN_MASKS_TABLE_CLONE_SOURCE_NOT_SUPPORTED
<mode>
カラム・マスク・ポリシーを使用したテーブル <tableName>
からのクローニングはサポートされていません。
COLUMN_MASKS_TABLE_CLONE_TARGET_NOT_SUPPORTED
<mode>
カラム・マスク・ポリシーを使用したテーブル <tableName>
へのクローニングはサポートされていません。
COLUMN_MASKS_UNSUPPORTED_CONSTANT_AS_PARAMETER
列マスク ポリシーのパラメーターとして定数を使用することはサポートされていません。 SQL コマンドを更新して列マスク定義から定数を削除してから、コマンドを再試行してください。
COLUMN_MASKS_UNSUPPORTED_PROVIDER
Failed to execute <statementType>
command because assigning column mask ポリシーは、テーブルプロバイダーを持つ対象データソース "<provider>
" でサポートされていないためです。
COLUMN_MASKS_UNSUPPORTED_SUBQUERY
テーブル <tableName>
には、まだサポートされていないサブクエリ式を持つ 1 つ以上のカラム・マスク・ポリシーが含まれているため、<operation>
を実行できません。続行するには、テーブルの所有者に連絡して、列マスクポリシーを更新してください。
COLUMN_MASKS_USING_COLUMN_NAME_SAME_AS_TARGET_COLUMN
カラム <columnName>
の名前がターゲットカラムと同じであるため、無効です。 USING COLUMNS
リストから列を削除して、コマンドを再試行してください。
COLUMN_NOT_DEFINED_IN_TABLE
<colType>
カラム <colName>
がテーブル <tableName>
で定義されていません。定義済みのテーブルカラムは次のとおりです。 <tableCols>
。
COLUMN_NOT_FOUND
列 <colName>
が見つかりません。 SQL 設定 <caseSensitiveConfig>
に従って、列名のスペルと正確性を確認します。
COLUMN_ORDINAL_OUT_OF_BOUNDS
列の順序が範囲外です。 テーブル内のカラム数は <attributesLength>
ですが、カラム序数は <ordinal>
です。
属性は次のとおりです。 <attributes>
。
COMMA_PRECEDING_CONSTRAINT_ERROR
制約定義の前に予期しない ',' が発生しました。 列 (および期待値) が定義されていない場合、制約句がコンマで始まらないようにしてください。
COMMENT_ON_CONNECTION_NOT_IMPLEMENTED_YET
COMMENT ON CONNECTION
コマンドはまだ実装されていません
COMPARATOR_RETURNS_NULL
コンパレータは、<firstValue>
と <secondValue>
の比較のためのNULL
を返しました。
「より大きい」には正の整数、「等しい」には0、「より小さい」には負の整数を返す必要があります。
NULL
が 0 (等しい) として扱われる非推奨の動作に戻すには、"spark.sql.legacy.allowNullComparisonResultInArraySort" を "true" に設定する必要があります。
COMPLEX_EXPRESSION_UNSUPPORTED_INPUT
式の入力データ型を処理できません: <expression>
.
詳細については、 COMPLEX_EXPRESSION_UNSUPPORTED_INPUT
並列
このクエリ [id: <queryId>
] の別のインスタンスは、並列セッション [existing runId: <existingQueryRunId>
new runId: <newQueryRunId>
] によって開始されたばかりです。
並列
クラスターに必要な空きスロットの最小数は <numTasks>
ですが、クラスターの空きスロットは <numSlots>
個しかありません。 クエリが停止または失敗します。 クラスター サイズを増やして続行します。
並列
ログに並列更新します。 <batchId>
に対して複数のストリーミング ジョブが検出されました。
特定のチェックポイントの場所で一度に 1 つのストリーミング ジョブのみが実行されるようにしてください。
CONFIG_NOT_AVAILABLE
構成 <config>
は使用できません。
CONFLICTING_DIRECTORY_STRUCTURES
競合するディレクトリ構造が検出されました。
疑わしいパス:
<discoveredBasePaths>
指定されたパスがパーティションディレクトリの場合は、データソースのオプションで「basePath」を設定して、テーブルのルートディレクトリを指定してください。
複数のルートディレクトリがある場合は、それらを別々にロードしてからユニオンしてください。
CONFLICTING_PARTITION_COLUMN_NAMES
競合するパーティション列名が検出されました:
<distinctPartColLists>
パーティション化されたテーブルディレクトリの場合、データファイルはリーフディレクトリにのみ存在する必要があります。
また、同じレベルのディレクトリには、同じパーティション列名が必要です。
次のディレクトリで、予期しないファイルや一貫性のないパーティション列名がないか確認してください。
<suspiciousPaths>
CONFLICTING_PROVIDER
指定されたプロバイダ <provider>
は、既存のカタログ プロバイダ <expectedProvider>
と矛盾しています。 「USING <expectedProvider>
」を使用して、コマンドを再試行してください。
繋ぐ
一般的な Spark Connect エラー。
詳細については、「CONNECT」を参照してください
CONNECTION_ALREADY_EXISTS
接続 <connectionName>
は既に存在するため、作成できません。
別の名前を選択するか、既存の接続を削除または置換するか、既存の接続を許容するように IF NOT EXISTS
句を追加します。
CONNECTION_NAME_CANNOT_BE_EMPTY
接続名は空でない必要があるため、このコマンドは実行できません。
CONNECTION_NOT_FOUND
接続名 <connectionName>
が見つからなかったため、このコマンドは実行できません。
CONNECTION_OPTION_NOT_SUPPORTED
タイプ '<connectionType>
' の接続は、次のオプションをサポートしていません: <optionsNotSupported>
. サポートされているオプション: <allowedOptions>
.
CONNECTION_TYPE_NOT_SUPPORTED
タイプ '<connectionType>
の接続を作成できません。 サポートされている接続タイプ: <allowedTypes>
.
CONNECT_SESSION_MIGRATION
一般的なセッション移行エラー (userId: <userId>
、sessionId: <sessionId>
、serverSessionId: <serverSessionId>
)。
詳細については、 CONNECT_SESSION_MIGRATION
CONSTRAINTS_REQUIRE_UNITY_CATALOG
テーブル制約は、Unity Catalog でのみサポートされています。
CONVERSION_INVALID_INPUT
値 <str> (<fmt>
) は形式が正しくないため、 <targetType>
に変換できません。 構文に従って値を修正するか、その形式を変更します。 <suggestion>
を使用して、不正な形式の入力を許容し、代わりにNULL
を返します。
COPY_INTO_COLUMN_ARITY_MISMATCH
<tableName>
に書き込めません。理由は
詳細については、「 COPY_INTO_COLUMN_ARITY_MISMATCH
COPY_INTO_CREDENTIALS_NOT_ALLOWED_ON
無効なスキーム <scheme>
. COPY INTO
ソース資格情報は現在、S3/S3N/S3A/WASBS/ABFSS のみをサポートしています。
COPY_INTO_CREDENTIALS_REQUIRED
COPY INTO
ソース資格情報は <keyList>
を指定する必要があります。
COPY_INTO_DUPLICATED_FILES_COPY_NOT_ALLOWED
重複したファイルが並列 COPY INTO
操作でコミットされました。 しばらくしてからもう一度お試しください。
COPY_INTO_ENCRYPTION_NOT_ALLOWED_ON
無効なスキーム <scheme>
. COPY INTO
ソース暗号化は現在、S3/S3N/S3A/ABFSS のみをサポートしています。
COPY_INTO_ENCRYPTION_NOT_SUPPORTED_FOR_AZURE
COPY INTO
暗号化は ADLS Gen2 または abfss\:// ファイル スキームのみをサポートします
COPY_INTO_ENCRYPTION_REQUIRED
COPY INTO
ソース暗号化では、'<key>
' を指定する必要があります。
COPY_INTO_ENCRYPTION_REQUIRED_WITH_EXPECTED
暗号化オプション <requiredKey>
が無効です。 ソース暗号化COPY INTO
'<requiredKey>
' = '<keyValue>
' を指定する必要があります。
COPY_INTO_FEATURE_INCOMPATIBLE_SETTING
COPY INTO
機能の「<feature>
」は「<incompatibleSetting>
」には対応していません。
COPY_INTO_NON_BLIND_APPEND_NOT_ALLOWED
COPY INTO
データの追加以外は、他のトランザクションと同時に実行することはできません。 しばらくしてからもう一度お試しください。
COPY_INTO_ROCKSDB_MAX_RETRY_EXCEEDED
COPY INTO
その状態の読み込みに失敗し、最大再試行回数を超えました。
COPY_INTO_SCHEMA_MISMATCH_WITH_TARGET_TABLE
Delta テーブル (テーブル: <table>
) へのコピー中にスキーマの不一致が検出されました。
これは、受信データに問題があることを示しているか、または次のように設定することで、受信データに応じて Delta テーブル スキーマを自動的に進化させることができます。
COPY_OPTIONS
('mergeSchema' = 'true')
スキーマの違い:
<schemaDiff>
COPY_INTO_SOURCE_FILE_FORMAT_NOT_SUPPORTED
ソース ファイルの形式は、 CSV、 JSON、 AVRO、 ORC、 PARQUET
、 TEXT、または BINARYFILE
のいずれかである必要があります。 Delta テーブルで COPY INTO
Delta テーブルをソースとして使用することは、 OPTIMIZE
操作後に重複データが取り込まれる可能性があるため、サポートされていません。 このチェックをオフにするには、SQL コマンド set spark.databricks.delta.copyInto.formatCheck.enabled = false
.
COPY_INTO_SOURCE_SCHEMA_INFERENCE_FAILED
ソース ディレクトリには、タイプ <format>
の解析可能なファイルが含まれていませんでした。 「<source>
」の内容をご確認ください。
エラーは、「<config>
」を「false」に設定することで消音できます。
COPY_INTO_STATE_INTERNAL_ERROR
COPY INTO
状態の処理中に内部エラーが発生しました。
詳細については、 COPY_INTO_STATE_INTERNAL_ERROR
COPY_INTO_SYNTAX_ERROR
COPY INTO
コマンドの解析に失敗しました。
詳細については、 COPY_INTO_SYNTAX_ERROR
COPY_INTO_UNSUPPORTED_FEATURE
COPY INTO
機能「<feature>
」はサポートされていません。
COPY_UNLOAD_FORMAT_TYPE_NOT_SUPPORTED
'<formatType>
' 形式のデータはアンロードできません。 <connectionType>
でサポートされている形式は、<allowedFormats>
です。
CREATE_FOREIGN_SCHEMA_NOT_IMPLEMENTED_YET
CREATE FOREIGN SCHEMA
コマンドはまだ実装されていません
CREATE_FOREIGN_TABLE_NOT_IMPLEMENTED_YET
CREATE FOREIGN TABLE
コマンドはまだ実装されていません
CREATE_OR_REFRESH_MV_ST_ASYNC
ASYNC
が指定されているマテリアライズドビューまたはストリーミングテーブルをCREATE
またはREFRESH
することはできません。CREATE
または REFRESH
ステートメントから ASYNC
を削除するか、REFRESH ASYNC
を使用して既存のマテリアライズドビューまたはストリーミングテーブルを非同期的に更新してください。
CREATE_PERMANENT_VIEW_WITHOUT_ALIAS
式 のエイリアスを明示的に割り当てずに永続ビュー <name>
を作成することはできません <attr>
.
CREATE_TABLE_COLUMN_DESCRIPTOR_DUPLICATE
CREATE TABLE
列 <columnName>
は記述子 "<optionName>
" を複数回指定していますが、これは無効です。
CREATE_VIEW_COLUMN_ARITY_MISMATCH
ビュー <viewName>
を作成できません。理由は
詳細については、 CREATE_VIEW_COLUMN_ARITY_MISMATCH
CREDENTIAL_MISSING
外部ロケーションを作成または更新する際には、認証情報を提供してください。
CSV_ENFORCE_SCHEMA_NOT_SUPPORTED
rescuedDataColumn
または failOnUnknownFields
を使用する場合は、列が序数ではなく名前で読み取られるため、CSV オプション enforceSchema
は設定できません。
CYCLIC_FUNCTION_REFERENCE
サイクリック関数参照が検出されました: : <path>
.
DATABRICKS_DELTA_NOT_ENABLED
Databricks Delta がアカウントで有効になっていません。<hints>
DATATYPE_MISMATCH
データ型の不一致により <sqlExpr>
を解決できません:
詳細については、 DATATYPE_MISMATCH
DATATYPE_MISSING_SIZE
DataType <type>
には、 <type>
(10) などの長さパラメーターが必要です。 長さをご指定ください。
DATA_LINEAGE_SECURE_VIEW_LEAF_NODE_HAS_NO_RELATION
リネージュの書き込みに失敗しました: CLM/RLS のポリシーに対応するリレーションがありません。
DATA_SOURCE_ALREADY_EXISTS
データソース '<provider>
' は既に存在します。 新しいデータソースには別の名前を選択してください。
DATA_SOURCE_EXTERNAL_ERROR
外部データソースへの保存中にエラーが発生しました。
DATA_SOURCE_NOT_EXIST
データソース '<provider>
' 見つかりません。 データソースが登録されていることを確認してください。
DATA_SOURCE_NOT_FOUND
Failed to find the データソース: <provider>
. プロバイダー名が正しいこと、パッケージが適切に登録され、Spark バージョンと互換性があることを確認してください。
DATA_SOURCE_OPTION_CONTAINS_INVALID_CHARACTERS
オプション <option>
は空であってはならず、無効な文字、クエリ文字列、またはパラメーターを含めることはできません。
DATA_SOURCE_OPTION_IS_REQUIRED
オプション <option>
が必要です。
DATA_SOURCE_TABLE_SCHEMA_MISMATCH
データソーステーブルのスキーマが、予期されたスキーマと一致しません。 DataFrameReader.schema API を使用している場合、またはテーブルを作成している場合は、スキーマを指定しないでください。
データソーススキーマ: <dsSchema>
想定されるスキーマ: <expectedSchema>
DATA_SOURCE_URL_NOT_ALLOWED
JDBC URLはデータソースオプションで許可されていません。代わりに、'host'、'port'、および'database'オプションを指定してください。
DATETIME_FIELD_OUT_OF_BOUNDS
<rangeMessage>
.必要に応じて、 <ansiConfig>
を "false" に設定して、このエラーを回避します。
DATETIME_OVERFLOW
日時操作のオーバーフロー: <operation>
.
DC_API_QUOTA_EXCEEDED
データソース<sourceName>
の API クォータを超えました。
詳細については、 DC_API_QUOTA_EXCEEDED
DC_CONNECTION_ERROR
<sourceName>
ソースに接続できませんでした。エラーコード: <errorCode>
。
詳細については、「 DC_CONNECTION_ERROR
DC_DYNAMICS_API_ERROR
Dynamics API 呼び出しでエラーが発生しました、errorCode: <errorCode>
。
詳細については、「 DC_DYNAMICS_API_ERROR
DC_NETSUITE_ERROR
Netsuite JDBC 呼び出しでエラーが発生しました。errorCode: <errorCode>
。
詳細については、「 DC_NETSUITE_ERROR
DC_SCHEMA_CHANGE_ERROR
SQLSTATE: 割り当てられていない
<sourceName>
ソースのテーブル <tableName>
でスキーマの変更が発生しました。
詳細については、 DC_SCHEMA_CHANGE_ERROR
DC_SERVICENOW_API_ERROR
ServiceNow API 呼び出しでエラーが発生しました、errorCode: <errorCode>
。
詳細については、 DC_SERVICENOW_API_ERROR
DC_SFDC_BULK_QUERY_JOB_INCOMPLETE
オブジェクト <objName>
の取り込みは、Salesforce API クエリジョブに時間がかかりすぎたか、失敗したか、手動でキャンセルされたため、不完全です。
再試行するには、パイプライン全体を再実行するか、この特定の宛先テーブルを更新します。 エラーが解決しない場合は、チケットを提出します。 ジョブ ID: <jobId>
. ジョブステータス: <jobStatus>
。
DC_SHAREPOINT_API_ERROR
SharePoint API 呼び出しでエラーが発生しました。errorCode: <errorCode>
。
詳細については、 DC_SHAREPOINT_API_ERROR
DC_SOURCE_API_ERROR
<sourceName>
API 呼び出しでエラーが発生しました。ソース API の種類: <apiType>
。 エラーコード: <errorCode>
。
これは、 <sourceName>
API の制限に達したときに発生することがあります。 API の制限を超えていない場合は、コネクタを再実行してみてください。 問題が解決しない場合は、チケットを提出してください。
DC_UNSUPPORTED_ERROR
サポートされていないエラーがデータソース で発生 <sourceName>
。
詳細については、DC_UNSUPPORTED_ERROR を参照してください。
DC_WORKDAY_RAAS_API_ERROR
Workday RAAS API 呼び出しでエラーが発生しました。errorCode: <errorCode>
。
詳細については、 DC_WORKDAY_RAAS_API_ERROR
DECIMAL_PRECISION_EXCEEDS_MAX_PRECISION
小数点以下の精度 <precision>
が最大精度を超えています <maxPrecision>
.
デフォルト
デフォルトデータベース <defaultDatabase>
が存在しません。最初に作成するか、デフォルトデータベースを <defaultDatabase>
に変更してください。
デフォルト
基になるファイルが更新された可能性があります。 Spark のキャッシュを明示的に無効にするには、SQL で 'REFRESH TABLE
tableName' コマンドを実行するか、関連するデータセット/DataFrame を再作成します。 ディスク・キャッシュが古い場合、または基になるファイルが削除されている場合は、クラスターを再起動してディスク・キャッシュを手動で無効にできます。
デフォルト
MERGE
、INSERT
、UPDATE
、または SET VARIABLE
コマンドの DEFAULT
キーワードは、式の一部であったため、ターゲットカラムに直接割り当てることができませんでした。
たとえば、UPDATE
SETc1 = DEFAULT
は許可されますが、UPDATE T
SETc1 =
デフォルト+ 1
は許可されません。
デフォルト
<statementType>
コマンドの実行に失敗しました。これは、テーブルプロバイダーを持つ対象データソース "<dataSource>
" でDEFAULT
値がサポートされていないためです。
DESCRIBE_JSON_NOT_EXTENDED
DESCRIBE TABLE
…AS JSON は [EXTENDED|FORMATTED
] が指定されている場合にのみサポートされます。
たとえば、 DESCRIBE EXTENDED <tableName>
AS JSON はサポートされていますが、 DESCRIBE <tableName>
AS JSON はサポートされていません。
DIFFERENT_DELTA_TABLE_READ_BY_STREAMING_SOURCE
ストリーミング クエリは、予期しない Delta テーブル (id = '<newTableId>
') から読み取っていました。
以前は、チェックポイントに従って別の Delta テーブル(id = '<oldTableId>
')から読み取りを行っていました。
これは、新しいテーブルから読み取るようにコードを変更した場合、または
テーブルを再作成しました。 変更を元に戻すか、ストリーミング クエリ チェックポイントを削除してください
を最初からやり直すことができます。
DISTINCT_WINDOW_FUNCTION_UNSUPPORTED
個別のウィンドウ関数はサポートされていません。 <windowExpr>
。
DIVIDE_BY_ZERO
ゼロによる除算。 除数が 0 であることを許容し、代わりに NULL
を返すには try_divide
を使用します。必要に応じて、 <config>
を "false" に設定して、このエラーを回避します。
詳細については、「 DIVIDE_BY_ZERO
DLT_EXPECTATIONS_NOT_SUPPORTED
期待値は DLT パイプライン内でのみサポートされます。
DLT_VIEW_CLUSTER_BY_NOT_SUPPORTED
MATERIALIZED
CLUSTER BY
句を含む VIEW は、DLT パイプラインでのみサポートされます。
DLT_VIEW_LOCATION_NOT_SUPPORTED
<mv>
ロケーションは DLT パイプラインでのみサポートされます。
DLT_VIEW_SCHEMA_WITH_TYPE_NOT_SUPPORTED
<mv>
指定されたタイプのスキーマは、DLT パイプラインでのみサポートされます。
DLT_VIEW_TABLE_CONSTRAINTS_NOT_SUPPORTED
CONSTRAINT
ビュー内の句は、DLT パイプラインでのみサポートされます。
DROP_SCHEDULE_DOES_NOT_EXIST
既存のスケジュールまたはトリガーがないテーブルに SCHEDULE
を削除することはできません。
DUPLICATED_CTE_NAMES
CTE 定義に重複する名前を含めることはできません: <duplicateNames>
。
DUPLICATED_FIELD_NAME_IN_ARROW_STRUCT
Arrow Struct の重複するフィールド名は <fieldNames>
許可されていません。
DUPLICATED_MAP_KEY
重複するマップキー <key>
が見つかりましたので、入力データを確認してください。
重複したキーを削除する場合は、 <mapKeyDedupPolicy>
を「LAST_WIN
」に設定して、最後に挿入したキーが優先されるようにすることができます。
DUPLICATED_METRICS_NAME
メトリクス名が一意ではありません: <metricName>
. 結果が異なるメトリクスに同じ名前を使用することはできません。
ただし、同じ結果と名前を持つメトリクスの複数のインスタンスは許可されます(例: 自己結合)。
DUPLICATE_ASSIGNMENTS
列または変数 <nameList>
、割り当てターゲットとして複数回表示される場合があります。
DUPLICATE_CLAUSES
重複する句が見つかりました: <clauseName>
. そのうちの1つを削除してください。
DUPLICATE_KEY
重複するキーが見つかりました <keyColumn>
.
DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT
ルーチン <routineName>
の呼び出しは、同じパラメーター名 <parameterName>
.
詳細については、 DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT
DUPLICATE_ROUTINE_PARAMETER_NAMES
ユーザー定義ルーチン <routineName>
<names>
のパラメーター・リストで重複する名前が見つかりました。
DUPLICATE_ROUTINE_RETURNS_COLUMNS
ユーザー定義ルーチンの RETURNS
句の列リストで重複する列が見つかりました <routineName>
: <columns>
.
EMITTING_ROWS_OLDER_THAN_WATERMARK_NOT_ALLOWED
前のノードは、eventTime=<emittedRowEventTime>
の行を出力しましたが、これは current_watermark_value= より古いものです<currentWatermark>
これにより、実行パイプラインの下流のステートフル演算子で正確性の問題が発生する可能性があります。
演算子ロジックを修正して、現在のグローバル ウォーターマーク値より後に行を出力してください。
EMPTY_JSON_FIELD_VALUE
データ型 <dataType>
の空の文字列を解析できませんでした。
EMPTY_LOCAL_FILE_IN_STAGING_ACCESS_QUERY
ステージング <operation>
クエリの空のローカルファイル
EMPTY_SCHEMA_NOT_SUPPORTED_FOR_DATASOURCE
<format>
データソースは、空のスキーマまたはネストされた空のスキーマの書き込みをサポートしていません。データ スキーマに少なくとも 1 つ以上の列があることを確認してください。
ENCODER_NOT_FOUND
Spark SQL の内部表現に <typeName>
型のエンコーダーが見つかりませんでした。
入力タイプを '<docroot>
/sql-ref-datatypes.html' でサポートされているものに変更することを検討してください。
END_LABEL_WITHOUT_BEGIN_LABEL
end ラベル <endLabel>
begin ラベルなしでは存在できません。
END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_LATEST_WITH_TRIGGER_AVAILABLENOW
Kafka トピック内の一部のパーティションは、Trigger.AvailableNow を使用したクエリの実行中に、終了オフセットよりも小さい使用可能なオフセットを報告します。 エラーは一時的なものである可能性があります - クエリを再開し、同じ問題がまだ発生する場合は報告してください。
最新のオフセット: <latestOffset>
, 終了オフセット: <endOffset>
END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_PREFETCHED
Trigger.AvailableNow を使用する Kafka データソースの場合、終了オフセットは、各トピックパーティションあたりのオフセットがプリフェッチされたオフセットよりも小さいか等しい必要があります。 エラーは一時的なものである可能性があります - クエリを再開し、同じ問題がまだ発生する場合は報告してください。
プリフェッチされたオフセット: <prefetchedOffset>
、終了オフセット: <endOffset>
。
ERROR_READING_AVRO_UNKNOWN_FINGERPRINT
avroデータの読み取りエラー–不明なフィンガープリントが発生しました: <fingerprint>
、使用するスキーマがわかりません。
これは、Spark コンテキストの開始後に追加のスキーマを登録した場合に発生する可能性があります。
EVENT_LOG_REQUIRES_SHARED_COMPUTE
割り当て済みまたは分離なしの共有クラスターからイベント ログをクエリできない場合は、代わりに標準クラスター (以前の共有) または Databricks SQL ウェアハウスを使用してください。
EVENT_LOG_UNAVAILABLE
<tableOrPipeline>
のイベント ログはありません。イベントが生成された後、もう一度やり直してください
EVENT_LOG_UNSUPPORTED_TABLE_TYPE
<tableIdentifier>
のテーブル タイプは <tableType>
です。
イベント ログのクエリは、マテリアライズドビュー、ストリーミングテーブル、または DLT パイプラインのみをサポートします
EVENT_TIME_IS_NOT_ON_TIMESTAMP_TYPE
イベント時刻 <eventName>
に無効なタイプ <eventType>
がありますが、"TIMESTAMP
" が必要です。
EXCEED_LIMIT_LENGTH
char/varchar 型の長さ制限 ( <limit>
.
EXCEPT_NESTED_COLUMN_INVALID_TYPE
EXCEPT
列 <columnName>
は解決され、StructType であると想定されていましたが、 <dataType>
型が見つかりました。
EXCEPT_OVERLAPPING_COLUMNS
EXCEPT
リスト内の列は、別個で重複していない必要がありますが、取得 (<columns>
) します。
EXCEPT_RESOLVED_COLUMNS_WITHOUT_MATCH
EXCEPT
列 [<exceptColumns>
] は解決されましたが、スター エクスパンションの列 [<expandedColumns>
] のいずれとも一致しません。
EXCEPT_UNRESOLVED_COLUMN_IN_STRUCT_EXPANSION
EXCEPT
句で<objectName>
列/フィールド名を解決できません。次のいずれかを意味しましたか:[<objectList>
]?
注: EXCEPT
句のネストされた列には、構造体の展開中に修飾子 (テーブル名、親構造体の列名など) を含めることはできません。修飾子がネストされた列で使用されている場合は、修飾子を削除してみてください。
エグゼキューター
ブロードキャスト関係 <relationClassName>
を構築するためのメモリが不足しています。 リレーションサイズ = <relationSize>
. このタスクで使用される合計メモリ = <taskMemoryUsage>
。 エグゼキューター Memory Manager メトリクス: onHeapExecutionMemoryUsed = <onHeapExecutionMemoryUsed>
, offHeapExecutionMemoryUsed = <offHeapExecutionMemoryUsed>
, onHeapStorageMemoryUsed = <onHeapStorageMemoryUsed>
, offHeapStorageMemoryUsed = <offHeapStorageMemoryUsed>
. [sparkPlanId: <sparkPlanId>
]'set spark.sql.autoBroadcastJoinThreshold=-1' を使用するか、結合ヒントを使用してシャッフル結合を強制することで、このクエリのブロードキャストを無効にします。
エグゼキューター
ブロードキャスト関係 <relationClassName>
を格納するためのメモリが不足しています。 リレーションサイズ = <relationSize>
. StorageLevel = <storageLevel>
. [sparkPlanId: <sparkPlanId>
]'set spark.sql.autoBroadcastJoinThreshold=-1' を使用するか、結合ヒントを使用してシャッフル結合を強制することで、このクエリのブロードキャストを無効にします。
EXEC_IMMEDIATE_DUPLICATE_ARGUMENT_ALIASES
この EXECUTE IMMEDIATE
コマンドの USING
句には、同じエイリアス (<aliases>
) を持つ複数の引数が含まれていましたが、これは無効です。コマンドを更新して一意のエイリアスを指定してから、再試行してください。
EXPECT_PERMANENT_VIEW_NOT_TEMP
「<operation>
」は恒久的なビューを期待していますが、 <viewName>
は一時的なビューです。
EXPECT_TABLE_NOT_VIEW
「<operation>
」はテーブルを期待していますが、 <viewName>
はビューです。
詳細については、 EXPECT_TABLE_NOT_VIEW
EXPECT_VIEW_NOT_TABLE
テーブル <tableName>
は <operation>
をサポートしていません。
詳細については、 EXPECT_VIEW_NOT_TABLE
EXPRESSION_DECODING_FAILED
行を式の値にデコードできませんでした: <expressions>
.
EXPRESSION_ENCODING_FAILED
式の値をエンコードできませんでした: 行への <expressions>
。
EXPRESSION_TYPE_IS_NOT_ORDERABLE
列式 <expr>
は、その型 <exprType>
が順序付け可能でないため、並べ替えることができません。
EXTERNAL_TABLE_INVALID_SCHEME
外部テーブルは <scheme>
スキームをサポートしていません。
FABRIC_REFRESH_INVALID_SCOPE
'REFRESH FOREIGN <scope> <name>
' の実行中にエラーが発生しました。 Fabric <scope>
を直接更新することはできません。代わりに、「REFRESH FOREIGN CATALOG <catalogName>
」を使用して Fabric カタログを更新してください。
FAILED_EXECUTE_UDF
ユーザー定義関数 (<functionName>
: (<signature>
) => <result>
) は、次の理由により失敗しました: <reason>
.
FAILED_FUNCTION_CALL
呼び出し用の関数 <funcName>
の準備に失敗しました。 関数の引数を再確認してください。
FAILED_JDBC
操作で失敗した JDBC <url>
:
詳細については、 FAILED_JDBC
FAILED_PARSE_STRUCT_TYPE
解析に失敗しました構造体: <raw>
.
FAILED_READ_FILE
ファイルの読み取り中にエラーが発生しました <path>
。
詳細については、 FAILED_READ_FILE
FAILED_REGISTER_CLASS_WITH_KRYO
Kryoでクラスを登録できませんでした。
FAILED_RENAME_PATH
<sourcePath>
の名前を<targetPath>
に変更できませんでした。宛先は既に存在します。
FAILED_RENAME_TEMP_FILE
一時ファイルの名前を <srcPath>
から <dstPath>
に変更できませんでした。FileSystem.rename が false を返しました。
FAILED_ROW_TO_JSON
クラス <class>
の行値 <value>
を JSON 形式のターゲット SQL タイプ <sqlType>
に変換できませんでした。
FAILED_TO_LOAD_ROUTINE
ルーチン <routineName>
の読み込みに失敗しました。
FAILED_TO_PARSE_TOO_COMPLEX
ステートメント (潜在的な SQL 関数と参照されるビューを含む) が複雑すぎて解析できませんでした。
このエラーを軽減するには、ステートメントを複数の複雑でないチャンクに分割します。
FEATURE_NOT_ENABLED
機能 <featureName>
が有効になっていません。 この機能を有効にするには、構成 <configKey>
を <configValue>
に設定することを検討してください。
FEATURE_NOT_ON_CLASSIC_WAREHOUSE
<feature>
は、クラシック ウェアハウス SQLではサポートされていません。 この機能を使用するには、Pro または サーバレス SQLウェアハウスを使用してください。
FEATURE_REQUIRES_UC
<feature>
は、Unity Catalog なしではサポートされていません。 この機能を使用するには、Unity Catalog を有効にします。
FEATURE_UNAVAILABLE
<feature>
は、お使いの環境ではサポートされていません。 この機能を使用するには、Databricks サポートにお問い合わせください。
FIELD_ALREADY_EXISTS
列は <op>
できません。 <fieldNames>
は <struct>
にすでに存在します。
FIELD_NOT_FOUND
<fields>
にはそのような構造体フィールド<fieldName>
ありません。
FILE_IN_STAGING_PATH_ALREADY_EXISTS
ステージング パス <path>
のファイルは既に存在しますが、 OVERWRITE
設定されていません
FLATMAPGROUPSWITHSTATE_USER_FUNCTION_ERROR
flatMapGroupsWithState のユーザー指定関数でエラーが発生しました。 理由: <reason>
FORBIDDEN_DATASOURCE_IN_SERVERLESS
サーバレス コンピュートのデータソース <source>
クエリは許可されていません。 サーバレス コンピュートでは、 <allowlist>
データソースのみがサポートされています。
FORBIDDEN_OPERATION
操作 <statement>
は、 <objectType>
: <objectName>
では許可されていません。
バッチ
foreach バッチ シンクのユーザー指定関数でエラーが発生しました。 理由: <reason>
FOREACH_USER_FUNCTION_ERROR
foreach シンクのユーザー指定関数でエラーが発生しました。 理由: <reason>
FOREIGN_KEY_MISMATCH
外部キーの親列 <parentColumns>
が の主キーの子列と一致しません <childColumns>
FOREIGN_OBJECT_NAME_CANNOT_BE_EMPTY
外部 <objectType>
名は空でない必要があるため、このコマンドは実行できません。
FOUND_MULTIPLE_DATA_SOURCES
「<provider>
」という名前の複数のデータソースが検出されました。 データソースが同時に登録されておらず、クラスパスに配置されていないことを確認してください。
FROM_JSON_CONFLICTING_SCHEMA_UPDATES
推論from_json、次の場所で競合するスキーマ更新が発生しました。 <location>
FROM_JSON_CORRUPT_RECORD_COLUMN_IN_SCHEMA
from_json が見つかりました columnNameOfCorruptRecord (<columnNameOfCorruptRecord>
) 存在
JSONオブジェクト内にあり、続行できなくなりました。 に別の値を設定してください
オプション 'columnNameOfCorruptRecord'
FROM_JSON_CORRUPT_SCHEMA
from_json推論は、次の場所に格納されているスキーマを読み取ることができませんでした。 <location>
FROM_JSON_INFERENCE_FAILED
from_jsonスキーマを推測できませんでした。 代わりに1つ提供してください。
FROM_JSON_INFERENCE_NOT_SUPPORTED
from_json推論は、ストリーミングテーブルを定義する場合にのみサポートされます
FROM_JSON_INVALID_CONFIGURATION
from_json構成が無効です。
詳細については、 FROM_JSON_INVALID_CONFIGURATION
FROM_JSON_SCHEMA_EVOLUTION_FAILED
from_json <old>
から <new>
FUNCTION_PARAMETERS_MUST_BE_NAMED
関数 <function>
には名前付きパラメーターが必要です。 パラメーター missing names: <exprs>
. 関数呼び出しを更新して、すべてのパラメーターの名前を追加してください (例: <function>
(param_name => ...)。
GENERATED_COLUMN_WITH_DEFAULT_VALUE
カラムにデフォルト値と世代式の両方を含めることはできませんが、カラム <colName>
にはデフォルト値 (<defaultValue>
) と世代式 (<genExpr>
) があります。
GET_TABLES_BY_TYPE_UNSUPPORTED_BY_HIVE_VERSION
Hive 2.2 以前のバージョンでは、getTablesByType はサポートされていません。 Hive 2.3以上のバージョンをご利用ください。
GET_WARMUP_TRACING_FAILED
ウォームアップ トレースに失敗しました。 原因 : <cause>
.
GET_WARMUP_TRACING_FUNCTION_NOT_ALLOWED
関数 get_warmup_tracing() は許可されていません。
GRAPHITE_SINK_INVALID_PROTOCOL
無効なグラファイトプロトコル: <protocol>
。
GRAPHITE_SINK_PROPERTY_MISSING
グラファイトシンクには「<property>
」プロパティが必要です。
GROUPING_COLUMN_MISMATCH
グループ化の列 (<grouping>
) は、 <groupingColumns>
のグループ化列で見つかりません。
GROUPING_ID_COLUMN_MISMATCH
grouping_id の列 (<groupingIdColumn>
) は、グループ化列 (<groupByColumns>
) と一致しません。
GROUPING_SIZE_LIMIT_EXCEEDED
グルーピングセットのサイズは <maxSize>
より大きくすることはできません。
グループ
集計関数は GROUP BY
では許可されていませんが、 <sqlExpr>
で見つかります。
詳細については、 グループ
グループ
GROUP BY <index>
集計関数を含む式 <aggExpr>
を参照します。 集計関数は GROUP BY
では使用できません。
グループ
GROUP BY
位置 <index>
が選択リストにありません (有効な範囲は [1, <size>
] です)。
グループ
式 <sqlExpr>
は、そのデータ型 <dataType>
が順序付け可能なデータ型ではないため、グループ化式として使用できません。
HDFS_HTTP_ERROR
HDFS から読み取ろうとしたときに、HTTP 要求が失敗しました。
詳細については、「 HDFS_HTTP_ERROR
HLL_INVALID_INPUT_SKETCH_BUFFER
<function>
への無効な呼び出し 。有効な HLL スケッチ バッファー (hll_sketch_agg
関数によって生成されるバッファーなど) のみが入力としてサポートされます。
HLL_INVALID_LG_K
<function>
への無効な呼び出し 。lgConfigK
値は <min>
から <max>
の間である必要があります (<value>
。
HLL_UNION_DIFFERENT_LG_K
スケッチには、<left>
と <right>
という異なるlgConfigK
値があります。allowDifferentLgConfigK
パラメーターを true に設定すると、異なる lgConfigK
値で<function>
呼び出されます。
HYBRID_ANALYZER_EXCEPTION
従来の固定小数点アナライザーとシングルパス リゾルバーの両方でクエリまたはコマンドを解決しようとすると、エラーが発生しました。
詳細については、 HYBRID_ANALYZER_EXCEPTION
IDENTIFIER_TOO_MANY_NAME_PARTS
<identifier>
は、名前の部分が 2 つ以上あるため、有効な識別子ではありません。
IDENTITY_COLUMNS_DUPLICATED_SEQUENCE_GENERATOR_OPTION
重複 IDENTITY
列シーケンスジェネレータオプション: <sequenceGeneratorOption>
.
IDENTITY_COLUMNS_ILLEGAL_STEP
IDENTITY
column step を 0 にすることはできません。
IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE
DataType <dataType>
は、 IDENTITY
列ではサポートされていません。
ILLEGAL_DAY_OF_WEEK
曜日の不正な入力: <string>
.
ILLEGAL_STATE_STORE_VALUE
状態ストアに提供された値が正しくありません
詳細については、 ILLEGAL_STATE_STORE_VALUE
INAPPROPRIATE_URI_SCHEME_OF_CONNECTION_OPTION
接続オプション '<option>
' に URI <uri>
の不適切なスキームが提供されているため、接続を作成できません。
許可されたスキーム: <allowedSchemes>
.
スキームが URI に存在しない場合は追加するか、許可された値からスキームを指定してください。
INCOMPARABLE_PIVOT_COLUMN
無効なピボット列 <columnName>
です。 ピボット列は同等である必要があります。
INCOMPATIBLE_COLUMN_TYPE
<operator>
互換性のある列型を持つテーブルでのみ実行できます。 <tableOrdinalNumber>
テーブルの <columnOrdinalNumber>
列は<dataType1>
最初のテーブルの同じ列の列の列と互換性のない<dataType2>
型です。<hint>
。
INCOMPATIBLE_DATASOURCE_REGISTER
互換性のない DataSourceRegister を検出しました。 互換性のないライブラリをクラスパスから削除するか、アップグレードしてください。 エラー: <message>
INCOMPATIBLE_DATA_FOR_TABLE
テーブル <tableName>
の互換性のないデータを書き込むことができません。
詳細については、 INCOMPATIBLE_DATA_FOR_TABLE
INCOMPATIBLE_JOIN_TYPES
結合の種類 <joinType1>
と <joinType2>
には互換性がありません。
INCOMPATIBLE_VIEW_SCHEMA_CHANGE
ビュー <viewName>
の SQL クエリに互換性のないスキーマ変更があり、カラム <colName>
を解決できません。 <colName>
という名前の列が<expectedNum>
つあると予想していましたが、<actualCols>
されました。
以下を実行してビューを再作成してみてください: <suggestion>
。
INCOMPLETE_TYPE_DEFINITION
不完全な複合型:
詳細については、 INCOMPLETE_TYPE_DEFINITION
INCONSISTENT_BEHAVIOR_CROSS_VERSION
にアップグレードすると、異なる結果が得られる場合があります。
詳細については、 INCONSISTENT_BEHAVIOR_CROSS_VERSION
INCORRECT_NUMBER_OF_ARGUMENTS
<failure>
、 <functionName>
には少なくとも <minArgs>
個、最大で <maxArgs>
個の引数が必要です。
INCORRECT_RAMP_UP_RATE
<rowsPerSecond>
rowsPerSecond の最大オフセットは <maxSeconds>
ですが、 'rampUpTimeSeconds' は<rampUpTimeSeconds>
です。
INDETERMINATE_COLLATION
文字列操作に使用する照合順序を決定できませんでした。 COLLATE
句を使用して、照合順序を明示的に設定します。
INDETERMINATE_COLLATION_IN_EXPRESSION
<expr>
のデータ型の照合順序が不確定です。COLLATE
句を使用して、照合順序を明示的に設定します。
INDETERMINATE_COLLATION_IN_SCHEMA
スキーマに不確定な照合順序が含まれています: [<columnPaths>
] COLLATE
句を使用して、照合順序を明示的に設定します。
INDEX_ALREADY_EXISTS
インデックス <indexName>
は既に存在するため、テーブル <tableName>
に作成できません。
INDEX_NOT_FOUND
テーブル <tableName>
でインデックス<indexName>
が見つかりません。
INFINITE_STREAMING_TRIGGER_NOT_SUPPORTED
トリガーの種類 <trigger>
は、このクラスターの種類ではサポートされていません。
別のトリガータイプを使用します。 今すぐ、一度だけ利用可能。
INSERT_COLUMN_ARITY_MISMATCH
<tableName>
に書き込めません。理由は
詳細については、 INSERT_COLUMN_ARITY_MISMATCH
INSERT_PARTITION_COLUMN_ARITY_MISMATCH
「<tableName>
」に書き込めません、 <reason>
:
テーブル列: <tableColumns>
.
静的な値を持つパーティション列: <staticPartCols>
.
データ列: <dataColumns>
.
INSUFFICIENT_PERMISSIONS
権限が不十分です:
<report>
INSUFFICIENT_PERMISSIONS_EXT_LOC
ユーザー <user>
には、外部ロケーション の <location>
に対する十分な権限がありません。
INSUFFICIENT_PERMISSIONS_NO_OWNER
<securableName>
の所有者はいません。管理者にオーナーの設定を依頼してください。
INSUFFICIENT_PERMISSIONS_OWNERSHIP_SECURABLE
ユーザーは <securableName>
を所有していません。
INSUFFICIENT_PERMISSIONS_SECURABLE
ユーザーには<securableName>
に対する<action>
権限がありません。
INSUFFICIENT_PERMISSIONS_SECURABLE_PARENT_OWNER
<securableName>
の所有者は、<parentSecurableName>
の所有者とは異なります。
INSUFFICIENT_PERMISSIONS_STORAGE_CRED
ストレージ資格情報 <credentialName>
に十分な特権がありません。
INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES
ユーザーは、基になるセキュリティ保護可能なリソースに対する権限のため、<securableName>
で<action>
できません。
INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES_VERBOSE
ユーザーは、基になるセキュリティ保護可能なリソースに対する権限のため、<securableName>
で<action>
できません。
<underlyingReport>
INTERVAL_ARITHMETIC_OVERFLOW
インターバルでの操作中の整数オーバーフロー。
詳細については、 INTERVAL_ARITHMETIC_OVERFLOW
INTERVAL_DIVIDED_BY_ZERO
ゼロによる除算。 除数が 0 であることを許容し、代わりに NULL
を返すには try_divide
を使用します。
INVALID_AGGREGATE_FILTER
集約関数で<filterExpr>``FILTER
式が無効です。
詳細については、 INVALID_AGGREGATE_FILTER
INVALID_ARRAY_INDEX
インデックス <indexValue>
が範囲外です。 配列には <arraySize>
つの要素があります。 SQL 関数 get()
を使用して、無効なインデックスの要素へのアクセスを許容し、代わりに NULL
を返します。
詳細については、 INVALID_ARRAY_INDEX
INVALID_ARRAY_INDEX_IN_ELEMENT_AT
インデックス <indexValue>
が範囲外です。 配列には <arraySize>
つの要素があります。 try_element_at
を使用して、無効なインデックスで要素へのアクセスを許容し、代わりに NULL
を返します。
詳細については、 INVALID_ARRAY_INDEX_IN_ELEMENT_AT
INVALID_ATTRIBUTE_NAME_SYNTAX
属性名の構文エラー: <name>
。 バッククォートがペアで表示されること、引用符で囲まれた文字列が完全な名前部分であることを確認し、引用符で囲まれた名前部分の内側でのみバッククォートを使用します。
INVALID_AWS_AUTHENTICATION
次の認証方法のいずれかを選択してください。
- Databricks サービスの資格情報 (
<serviceCredential>
) の名前を指定します (spark ストリーム オプションまたはクラスター環境変数として)。 - AWS キーを使用するには、AWS AccessKey (
<awsAccessKey>
) と SecretAccessKey (<awsSecretKey>
) の両方を指定します。 - AWS キーも Databricks サービス認証情報も指定せず、Kinesis 認証にデフォルトの AWS 認証情報プロバイダーチェーンを使用します。
INVALID_AWS_AUTHENTICATION_EXPLICIT_OPTIONS
Databricks サービスの資格情報の名前 (<serviceCredential>
) を入力してください
または、 <awsAccessKey>
と <awsSecretKey>
INVALID_BITMAP_POSITION
0 インデックスのビットマップ位置 <bitPosition>
が範囲外です。 ビットマップは <bitmapNumBits>
ビット (<bitmapNumBytes>
バイト) です。
INVALID_BOOLEAN_STATEMENT
Boolean ステートメントは条件で予期されていますが、<invalidStatement>
が見つかりました。
INVALID_BOUNDARY
境界 <boundary>
が無効です: <invalidValue>
。
詳細については、 INVALID_BOUNDARY
INVALID_BUCKET_COLUMN_DATA_TYPE
バケット列に <type>
は使用できません。 照合されたデータ型は、バケット化ではサポートされていません。
INVALID_BUCKET_FILE
無効なバケット ファイル: <path>
.
INVALID_BYTE_STRING
想定される形式は ByteString ですが、 <unsupported> (<class>
) でした。
INVALID_COLUMN_NAME_AS_PATH
データソース <datasource>
、ファイルパスで許可されていない文字が名前に含まれているため、列 <columnName>
を保存できません。 エイリアスを使用して名前を変更してください。
INVALID_COLUMN_OR_FIELD_DATA_TYPE
列またはフィールド <name>
は <type>
型ですが、 <expectedType>
する必要があります。
INVALID_CONF_VALUE
構成「<confName>
」の値「<confValue>
」が無効です。
詳細については、 INVALID_CONF_VALUE
INVALID_CORRUPT_RECORD_TYPE
破損したレコードの列 <columnName>
は、NULL 許容 STRING
型である必要がありますが、 <actualType>
を取得しました。
INVALID_CURRENT_RECIPIENT_USAGE
current_recipient
function は、 CREATE VIEW
ステートメントまたは ALTER VIEW
ステートメントでのみ使用して、Unity Catalog で共有のみのビューを定義できます。
INVALID_CURSOR
カーソルが無効です。
詳細については、 INVALID_CURSOR
INVALID_DATETIME_PATTERN
認識できない日時パターン: <pattern>
.
詳細については、 INVALID_DATETIME_PATTERN
INVALID_DEFAULT_VALUE
<statement>
宛先列または変数<colName>
にDEFAULT
値があるため、コマンドの実行に失敗しました <defaultValue>
詳細については、 INVALID_DEFAULT_VALUE
INVALID_DELIMITER_VALUE
区切り文字の値が無効です。
詳細については、 INVALID_DELIMITER_VALUE
INVALID_DEST_CATALOG
SYNC
コマンドの宛先カタログは、 Unity Catalog内にある必要があります。 <catalog>
見つかりました。
INVALID_DRIVER_MEMORY
システムメモリの <systemMemory>
は、 <minSystemMemory>
以上である必要があります。
–driver-memory オプションを使用するか、Spark 構成の「<config>
」を使用してヒープサイズを増やしてください。
INVALID_DYNAMIC_OPTIONS
<option_list>を渡すオプションは、フォーリンテーブル <table_name>では禁止されています。
INVALID_EMPTY_LOCATION
場所の名前を空の文字列にすることはできませんが、 <location>
が指定されました。
INVALID_ESC
無効なエスケープ文字列が見つかりました: <invalidEscape>
。 エスケープ文字列には 1 文字のみを含める必要があります。
INVALID_ESCAPE_CHAR
EscapeChar
長さ 1 の文字列リテラルである必要がありますが、 <sqlExpr>
.
INVALID_EXECUTOR_MEMORY
エグゼキューターのメモリ <executorMemory>
は少なくとも <minSystemMemory>
である必要があります。
–エグゼキューター-memoryオプションを使用するか、 Spark 構成で「<config>
」を使用してエグゼキューターのメモリを増やしてください。
INVALID_EXPRESSION_ENCODER
無効な式エンコーダーが見つかりました。 ExpressionEncoder のインスタンスが必要ですが、 <encoderType>
. 詳細については、「<docroot>
/api/java/index.html?org/apache/spark/sql/Encoder.html」を参照してください。
INVALID_EXTERNAL_TYPE
外部型 <externalType>
は、式 <expr>
の型<type>
に対して無効です。
INVALID_EXTRACT_BASE_FIELD_TYPE
<base>
から値を抽出できません。複合型 [STRUCT
、 ARRAY
、 MAP
] が必要ですが、 <other>
.
INVALID_EXTRACT_FIELD
<expr>
から<field>
を抽出できません。
INVALID_EXTRACT_FIELD_TYPE
フィールド名は null 以外の文字列リテラルである必要がありますが、 <extraction>
.
INVALID_FIELD_NAME
フィールド名 <fieldName>
が無効です: <path>
構造体ではありません。
INVALID_FORMAT
形式が無効です: <format>
.
詳細については、 INVALID_FORMAT
INVALID_FRACTION_OF_SECOND
秒の有効な範囲は [0, 60] (両端を含む) ですが、指定された値は <secAndMicros>
です。 このエラーを回避するには、エラー時にNULL
を返す try_make_timestamp
を使用します。
この関数のセッション・デフォルト・タイムスタンプ・バージョンを使用しない場合は、 try_make_timestamp_ntz
または try_make_timestamp_ltz
を使用します。
INVALID_HANDLE
ハンドル <handle>
が無効です。
詳細については、 INVALID_HANDLE
INVALID_HTTP_REQUEST_METHOD
input パラメーター: method, value: <paramValue>
は、有効な HTTP メソッドではないため、http_request の有効なパラメーターではありません。
INVALID_HTTP_REQUEST_PATH
入力パラメーター: path, value: <paramValue>
は、パス探索が許可されていないため、http_request の有効なパラメーターではありません。
INVALID_IDENTIFIER
引用符で囲まれていない識別子 <ident>
は無効であるため、次のようにバッククォートする必要があります: <ident>
.
引用符で囲まれていない識別子には、 ASCII
文字 ('a' - 'z'、'A' - 'Z')、数字 ('0' - '9')、およびアンダーバー('_')のみを含めることができます。
引用符で囲まれていない識別子は、数字で始めることもできません。
異なるデータソースストアとメタストアは、有効な識別子に追加の制限を課す場合があります。
INVALID_INDEX_OF_ZERO
インデックス 0 は無効です。 インデックスは < 0 or > 0 のいずれかでなければなりません (最初の要素のインデックスは 1 です)。
INVALID_INLINE_TABLE
無効なインライン テーブルです。
詳細については、 INVALID_INLINE_TABLE
INVALID_INTERVAL_FORMAT
「<input>
」をインターバルに解析する際にエラーが発生しました。 指定された値が、間隔を定義するための有効な形式であることを確認してください。 正しい形式のドキュメントを参照できます。
詳細については、「 INVALID_INTERVAL_FORMAT
INVALID_INTERVAL_WITH_MICROSECONDS_ADDITION
マイクロ秒部分が 0 ではないため、日付に間隔を追加できません。必要に応じて、 <ansiConfig>
を "false" に設定して、このエラーを回避します。
INVALID_INVERSE_DISTRIBUTION_FUNCTION
無効な逆分布関数 <funcName>
.
詳細については、 INVALID_INVERSE_DISTRIBUTION_FUNCTION
INVALID_JAVA_IDENTIFIER_AS_FIELD_NAME
<fieldName>
は Java の有効な識別子ではないため、フィールド名として使用することはできません
<walkedTypePath>
.
INVALID_JOIN_TYPE_FOR_JOINWITH
joinWith の結合タイプが無効です: <joinType>
.
INVALID_JSON_DATA_TYPE
JSON 文字列 '<invalidType>
' をデータ型に変換できませんでした。 有効なデータ型を入力してください。
INVALID_JSON_DATA_TYPE_FOR_COLLATIONS
照合順序は文字列型にのみ適用できますが、JSON データ型は <jsonType>
です。
INVALID_JSON_RECORD_TYPE
モード <failFastMode>
で共通のスキーマを推論しているときに、無効なタイプのJSONレコードを検出しました。 STRUCT
タイプを期待していましたが、<invalidType>
が見つかりました。
INVALID_JSON_ROOT_FIELD
JSON ルート フィールドをターゲット Spark タイプに変換できません。
INVALID_JSON_SCHEMA_MAP_TYPE
入力スキーマ<jsonSchema>
には、MAP
のキータイプとしてSTRING
のみを含めることができます。
INVALID_KRYO_SERIALIZER_BUFFER_SIZE
構成「<bufferSizeConfKey>
」の値は2048MiB未満である必要がありますが、 <bufferSizeConfValue>
MiBになりました。
INVALID_LABEL_USAGE
ラベル <labelName>
の使用が無効です。
詳細については、 INVALID_LABEL_USAGE
INVALID_LAMBDA_FUNCTION_CALL
ラムダ関数呼び出しが無効です。
詳細については、 INVALID_LAMBDA_FUNCTION_CALL
INVALID_LATERAL_JOIN_TYPE
LATERAL
相関を持つ <joinType>
JOIN は、OUTER
サブクエリがそのジョイン・パートナーと相関できないため、許可されません。LATERAL
相関を削除するか、代わりに INNER
JOIN または LEFT OUTER
JOIN を使用します。
INVALID_LIMIT_LIKE_EXPRESSION
式 <expr>
のような制限が無効です。
詳細については、「 INVALID_LIMIT_LIKE_EXPRESSION
INVALID_NON_ABSOLUTE_PATH
指定された非絶対パス <path>
は修飾できません。 パスを有効な dbfs マウント・ロケーションに更新してください。
INVALID_NON_DETERMINISTIC_EXPRESSIONS
演算子は決定論的な式を期待していますが、実際の式は <sqlExprs>
です。
INVALID_NUMERIC_LITERAL_RANGE
数値リテラル<rawStrippedQualifier>
は、最小値が <minValue>
、最大値が <maxValue>
の <typeName>
の有効範囲外です。それに応じて値を調整してください。
INVALID_OBSERVED_METRICS
観測されたメトリクスが無効です。
詳細については、 INVALID_OBSERVED_METRICS
INVALID_OPTIONS
無効なオプション:
詳細については、 INVALID_OPTIONS
INVALID_PANDAS_UDF_PLACEMENT
グループ集約 Pandas UDF <functionList>
は、他の非Pandas 集約関数として一緒に呼び出すことはできません。
INVALID_PARAMETER_MARKER_VALUE
無効なパラメーター マッピングが指定されました。
詳細については、 INVALID_PARAMETER_MARKER_VALUE
INVALID_PARAMETER_VALUE
<functionName>
の <parameter>
パラメーターの値が無効です。
詳細については、 INVALID_PARAMETER_VALUE
INVALID_PARTITION_COLUMN_DATA_TYPE
パーティション列に <type>
は使用できません。
INVALID_PARTITION_OPERATION
partition コマンドが無効です。
詳細については、「 INVALID_PARTITION_OPERATION
INVALID_PARTITION_VALUE
パーティション列 <columnName>
の値 <value>
をデータ型 <dataType>
にキャストできませんでした。値が、このパーティション列で想定されるデータ型と一致することを確認します。
INVALID_PIPELINE_ID
パイプライン ID <pipelineId>
が無効です。
パイプライン ID は、「xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx」の形式の UUID である必要があります
INVALID_PRIVILEGE
特権 <privilege>
は <securable>
には無効です。
INVALID_PROPERTY_KEY
<key>
は無効なプロパティキーです。引用符を使用してください。 SET <key>=<value>
。
INVALID_PROPERTY_VALUE
<value>
は無効なプロパティ値です。引用符を使用してください。 SET <key>=<value>
INVALID_QUALIFIED_COLUMN_NAME
カラム名 <columnName>
は、テーブル名で修飾されていないか、4 つ以上の名前パーツで構成されているため、無効です。
INVALID_QUERY_MIXED_QUERY_PARAMETERS
パラメーター化されたクエリでは、位置指定パラメーターまたは名前付きパラメーターを使用する必要がありますが、両方を使用することはできません。
INVALID_REGEXP_REPLACE
ソース = "<source>
"、パターン = "<pattern>
"、置換 = "<replacement>
"、位置 = <position>
のregexp_replaceを実行できませんでした。
INVALID_RESET_COMMAND_FORMAT
想定される形式は、「RESET
」または「RESET
キー」です。 キーに特殊文字を含める場合は、引用符を使用してください (例: RESET key
.
INVALID_S3_COPY_CREDENTIALS
COPY INTO
資格情報には、 AWS_ACCESS_KEY
、 AWS_SECRET_KEY
、 AWS_SESSION_TOKEN
を含める必要があります。
INVALID_SAVE_MODE
指定された保管モード・ <mode>
が無効です。 有効な保存モードには、「追加」、「上書き」、「無視」、「エラー」、「エラーifexists」、および「デフォルト」があります。
INVALID_SCHEMA
入力スキーマ <inputSchema>
は有効なスキーマ文字列ではありません。
詳細については、 INVALID_SCHEMA
INVALID_SCHEMA_OR_RELATION_NAME
<name>
は、テーブル/スキーマの有効な名前ではありません。 有効な名前には、アルファベット文字、数字、および _ のみが含まれます。
INVALID_SCHEME
Unity カタログでは、デフォルトのファイル スキームとして <name>
はサポートされていません。
INVALID_SECRET_LOOKUP
無効なシークレット検索:
詳細については、 INVALID_SECRET_LOOKUP
INVALID_SET_SYNTAX
想定される形式は、'SET
'、'SET
key'、または 'SET
key=value' です。 キーに特殊文字を含める場合、または値にセミコロンを含める場合は、バッククォートを使用してください(例: SET key
=value
)。
INVALID_SHARED_ALIAS_NAME
<sharedObjectType>
エイリアス名は、「schema.name」の形式にする必要があります。
INVALID_SINGLE_VARIANT_COLUMN
singleVariantColumn
オプションは、ユーザー指定のスキーマも存在する場合は使用できません。
INVALID_SOURCE_CATALOG
ソース カタログは、SYNC
コマンドの Unity Catalog 内にあってはなりません。 <catalog>
見つかりました。
INVALID_SQL_ARG
sql()
の引数 <name>
は無効です。SQL リテラル、または map()
、 array()
、 struct()
などのコレクションコンストラクタ関数に置き換えることを検討してください。
INVALID_SQL_SYNTAX
無効な SQL 構文:
詳細については、INVALID_SQL_SYNTAXを参照してください
INVALID_STAGING_PATH_IN_STAGING_ACCESS_QUERY
ステージング <operation>
クエリのステージングパスが無効です: <path>
INVALID_STATEMENT_FOR_EXECUTE_INTO
EXECUTE IMMEDIATE
の INTO
句はクエリに対してのみ有効ですが、指定されたステートメントはクエリではありません (<sqlString>
。
INVALID_STATEMENT_OR_CLAUSE
ステートメントまたは句 <operation>
は無効です。
INVALID_SUBQUERY_EXPRESSION
無効なサブクエリ:
詳細については、 INVALID_SUBQUERY_EXPRESSION
INVALID_TARGET_FOR_ALTER_COMMAND
ALTER <commandTableType>
... <command>
は <tableName>
をサポートしていません。 代わりに ALTER <targetTableType>
... <command>
をご利用ください。
INVALID_TARGET_FOR_SET_TBLPROPERTIES_COMMAND
ALTER <commandTableType>
... SET TBLPROPERTIES
は <tableName>
をサポートしていません。 代わりに ALTER <targetTableType>
... SET TBLPROPERTIES
をご利用ください。
INVALID_TEMP_OBJ_REFERENCE
タイプ <obj>
の永続オブジェクト <objName>
を作成できません。これは、タイプ <tempObj>
の一時オブジェクト <tempObjName>
を参照しているためです。一時オブジェクトを <tempObjName>
永続化するか、永続オブジェクト <objName>
一時オブジェクトにしてください。
INVALID_TIMESTAMP_FORMAT
指定されたタイムスタンプ <timestamp>
、予期される構文と一致しません <format>
.
INVALID_TIMEZONE
タイムゾーン: <timeZone>
は無効です。 タイムゾーンは、リージョンベースのゾーン ID またはゾーンオフセットのいずれかである必要があります。 地域 ID は、「America/Los_Angeles」のように「area/city」の形式にする必要があります。 ゾーンオフセットは、'(+|-)HH'、'(+|-)HH の形式で指定する必要があります' または '(+|-)HH:mm'、例: '-08'、'+01:00'、'-13:33:33' で、-18:00 から +18:00 の範囲内にある必要があります。 'Z' と 'UTC' は '+00:00' の同義語として受け入れられます。
INVALID_TIME_TRAVEL_SPEC
テーブルをタイムトラベルするときに、バージョンとタイムスタンプの両方を指定することはできません。
INVALID_TIME_TRAVEL_TIMESTAMP_EXPR
タイムトラベル タイムスタンプ式 <expr>
が無効です。
詳細については、 INVALID_TIME_TRAVEL_TIMESTAMP_EXPR
INVALID_TYPED_LITERAL
入力されたリテラル <valueType>
の値は無効です。: <value>
.
INVALID_UDF_IMPLEMENTATION
関数 <funcName>
は ScalarFunction または AggregateFunction を実装しません。
INVALID_UPGRADE_SYNTAX
<command> <supportedOrNot>
ソース テーブルは Hive metastore にあり、宛先テーブルは Unity Catalogにあります。
INVALID_URL
URL が無効です: <url>
。 try_parse_url
を使用して無効な URL を許容し、代わりに NULL
を返します。
INVALID_USAGE_OF_STAR_OR_REGEX
<prettyName>
での <elem>
の無効な使用。
INVALID_UTF8_STRING
文字列に無効な UTF8 バイト シーケンスが見つかりました: <str>
.
INVALID_UUID
入力 <uuidInput>
は有効な UUID ではありません。
UUIDは「xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx」の形式である必要があります
UUIDの形式を確認してください。
INVALID_VARIABLE_DECLARATION
無効な変数宣言です。
詳細については、 INVALID_VARIABLE_DECLARATION
INVALID_VARIABLE_TYPE_FOR_QUERY_EXECUTE_IMMEDIATE
変数の型は文字列型である必要がありますが、 <varType>
.
INVALID_VARIANT_CAST
バリアント値 <value>
は <dataType>
にキャストできません。 代わりに try_variant_get
をご利用ください。
INVALID_VARIANT_FROM_PARQUET
バリアントが無効です。
詳細については、「 INVALID_VARIANT_FROM_PARQUET
INVALID_VARIANT_GET_PATH
パス <path>
は、 <functionName>
の有効なバリアント抽出パスではありません。
有効なパスは $
で始まり、その後に 0 個以上のセグメント ( [123]
、 .name
、 ['name']
、 ["name"]
など) が続く必要があります。
INVALID_VARIANT_SHREDDING_SCHEMA
スキーマ <schema>
は有効なバリアント シュレッダ スキーマではありません。
INVALID_WHERE_CONDITION
WHERE
条件<condition>
に無効な式が含まれています: <expressionList>
.
WHERE
句でウィンドウ関数、集計関数、ジェネレータ関数を使用しないようにクエリを書き換えます。
INVALID_WINDOW_SPEC_FOR_AGGREGATION_FUNC
<aggFunc>
のORDER BY
またはウィンドウ フレームは指定できません。
INVALID_WRITER_COMMIT_MESSAGE
データソース ライターが無効な数のコミット メッセージを生成しました。 各タスクから 1 つのライター コミット メッセージを受け取る必要がありましたが、 <detail>
.
INVALID_WRITE_DISTRIBUTION
要求された書き込みディストリビューションは無効です。
詳細については、「 INVALID_WRITE_DISTRIBUTION
ISOLATED_COMMAND_FAILURE
<command>
を実行できませんでした。コマンド出力:
<output>
ISOLATED_COMMAND_UNKNOWN_FAILURE
<command>
を実行できませんでした。
JOIN_CONDITION_IS_NOT_BOOLEAN_TYPE
ジョイン条件 <joinCondition>
に無効な型 <conditionType>
があり、"BOOLEAN
" が必要です。
Kafka
一部のデータは、Kafka で使用できなくなったために失われた可能性があります。
Kafka によってデータが期限切れになったか、トピックが
トピックが処理されました。
このような場合にストリーミング クエリが失敗しないようにするには、ソース オプション failOnDataLoss を false に設定します。
理由:
詳細については、Kafka
KINESIS_COULD_NOT_READ_SHARD_UNTIL_END_OFFSET
シャード<shardId>
に必要なシーケンス番号が<endSeqNum>
されるまで読み取れませんでした
Kinesis ストリーム <stream>
とコンシューマーモード <consumerMode>
. クエリは、次の理由で失敗します
データ損失の可能性。 最後に読み取られたレコードは、シーケンス番号 <lastSeqNum>
でした。
これは、endSeqNum を持つデータがすでに期限切れになっている場合、または Kinesis ストリームが
削除され、同じ名前で再構築されます。 失敗時の動作は上書きできます
spark.databricks.kinesis.failOnDataLoss を設定する を false に設定します。
KINESIS_EFO_CONSUMER_NOT_FOUND
Kinesis ストリーム <streamId>
の場合、以前に登録されたストリームの EFO コンシューマー <consumerId>
が削除されました。
クエリを再起動して、新しいコンシューマーが登録されるようにします。
KINESIS_EFO_SUBSCRIBE_LIMIT_EXCEEDED
シャード <shard>
の場合、subscribeToShard API の前の呼び出しは、次の呼び出しから 5 秒以内でした。
5 秒以上経ってからクエリを再開します。
KINESIS_FETCHED_SHARD_LESS_THAN_TRACKED_SHARD
Kinesis からフェッチされた最小の shardId (<fetchedShardId>
)
追跡される最小の shardId (<trackedShardId>
) より小さい
これは予期しないことであり、Kinesis ストリームが削除され、同じ名前で再作成されたときに発生します。
この Kinesis ストリームを使用するストリーミングクエリは、既存のチェックポイントの場所を使用して再起動されます。
新しいチェックポイントの場所でストリーミング クエリを再起動するか、新しい名前でストリームを作成します。
KINESIS_POLLING_MODE_UNSUPPORTED
Kinesis ポーリングモードはサポートされていません。
KINESIS_RECORD_SEQ_NUMBER_ORDER_VIOLATION
シャード <shard>
の場合、以前のフェッチで Kinesis から読み取られた最後のレコードのシーケンス番号は <lastSeqNum>
です。
これは、現在のフェッチで読み取られたレコード (シーケンス番号 <recordSeqNum>
) よりも大きい値です。
これは予期しないことであり、再試行または次のフェッチの開始位置が正しく初期化されていない場合に発生する可能性があり、ダウンストリームでレコードが重複する可能性があります。
KINESIS_SOURCE_MUST_BE_IN_EFO_MODE_TO_CONFIGURE_CONSUMERS
コンシューマー設定 (consumerName
、 consumerNamePrefix
、または registeredConsumerId
) を使用して Kinesis ストリーム から読み取るには、 consumerMode
を efo
する必要があります。
KINESIS_SOURCE_MUST_SPECIFY_REGISTERED_CONSUMER_ID_AND_TYPE
登録されたコンシューマーを使用してストリーム Kinesis 読み取るには、registeredConsumerId
オプションと registeredConsumerIdType
オプションの両方を指定する必要があります。
KINESIS_SOURCE_MUST_SPECIFY_STREAM_NAMES_OR_ARNS
Kinesisストリームから読み取るには、streamName
または streamARN
オプションのいずれか (両方ではない) を、ストリーム名/ARNsのコンマ区切りリストとして構成する必要があります。
KINESIS_SOURCE_NO_CONSUMER_OPTIONS_WITH_REGISTERED_CONSUMERS
登録済みのコンシューマーを使用してストリーム Kinesis 読み取るには、consumerName
または consumerNamePrefix
オプションは有効になりないため、構成しないでください。
KINESIS_SOURCE_REGISTERED_CONSUMER_ID_COUNT_MISMATCH
登録されたコンシューマー ID の数は、Kinesis ストリームの数と等しくなければなりませんが、 <numConsumerIds>
つのコンシューマー ID と <numStreams>
ストリームを取得しました。
KINESIS_SOURCE_REGISTERED_CONSUMER_NOT_FOUND
指定された登録済みコンシューマー <consumerId>
が streamARN <streamARN>
で見つかりません。 コンシューマを登録したか、 registeredConsumerId
オプションを提供していないことを確認します。
KINESIS_SOURCE_REGISTERED_CONSUMER_TYPE_INVALID
登録されているコンシューマ・タイプ <consumerType>
が無効です。 name
または ARN
のいずれかである必要があります。
KRYO_BUFFER_OVERFLOW
Kryo のシリアル化に失敗しました: <exceptionMsg>
. これを回避するには、「<bufferSizeConfKey>
」の値を増やします。
LABELS_MISMATCH
開始ラベル <beginLabel>
が終了ラベル <endLabel>
と一致しません。
LABEL_ALREADY_EXISTS
ラベル <label>
はすでに存在します。 別の名前を選択するか、既存のラベルの名前を変更します。
LOAD_DATA_PATH_NOT_EXISTS
LOAD DATA 入力パスが存在しません: <path>
.
LOCAL_MUST_WITH_SCHEMA_FILE
LOCAL
file
のスキーマと一緒に使用する必要がありますが、次のようになります<actualSchema>
。
LOCATION_ALREADY_EXISTS
マネージドテーブルには、関連付けられたロケーション<location>
すでに存在するため、<identifier>
という名前を付けることはできません。別のテーブル名を選択するか、既存の場所を先に削除してください。
LOST_TOPIC_PARTITIONS_IN_END_OFFSET_WITH_TRIGGER_AVAILABLENOW
Kafka トピック内の一部のパーティションが、Trigger.AvailableNow を使用したクエリの実行中に失われました。 エラーは一時的なものである可能性があります - クエリを再開し、同じ問題がまだ発生する場合は報告してください。
最新のオフセットの topic-partitions: <tpsForLatestOffset>
、終了オフセットの topic-partitions: <tpsForEndOffset>
MALFORMED_AVRO_MESSAGE
不正な形式の Avro メッセージは、メッセージの逆シリアル化で検出されます。 解析 Mode: <mode>
. 不正な形式の Avro メッセージを null 結果として処理するには、オプション 'mode' を 'PERMISSIVE
' に設定してみてください。
MALFORMED_CHARACTER_CODING
<function>
を実行すると無効な値が見つかりました <charset>
MALFORMED_CSV_RECORD
不正な形式の CSV レコード: <badRecord>
MALFORMED_RECORD_IN_PARSING
レコードの解析で不正なレコードが検出されます: <badRecord>
.
解析 Mode: <failFastMode>
. 不正な形式のレコードを NULL 結果として処理するには、オプション 'mode' を 'PERMISSIVE
' に設定してみてください。
詳細については、 MALFORMED_RECORD_IN_PARSING
MALFORMED_VARIANT
バリアント バイナリの形式が正しくありません。 データソースが有効であることを確認してください。
MANAGED_TABLE_WITH_CRED
ストレージ資格情報を使用したマネージドテーブルの作成はサポートされていません。
MATERIALIZED_VIEW_MESA_REFRESH_WITHOUT_PIPELINE_ID
具体化されたビューは、pipelineId を持つよりも前の日付であるため、 <refreshType>
できません。 <refreshType>
を有効にするには、マテリアライズドビューをドロップして再作成してください。
MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED
具体化ビュー (Materialized View) の操作 <operation>
は許可されません。
詳細については、 MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED
MATERIALIZED_VIEW_OUTPUT_WITHOUT_EXPLICIT_ALIAS
具体化されたビューの出力式 <expression>
は、明示的にエイリアス化されている必要があります。
MATERIALIZED_VIEW_OVER_STREAMING_QUERY_INVALID
マテリアライズドビュー <name>
ストリーミングクエリで作成できませんでした。 CREATE
[OR REFRESH
] <st>
を使用するか、FROM
句の STREAM
キーワードを削除して、このリレーションをバッチクエリに変換してください。
MATERIALIZED_VIEW_UNSUPPORTED_OPERATION
オペレーション <operation>
は、現在、マテリアライズド・ビューではサポートされていません。
MAX_NUMBER_VARIABLES_IN_SESSION_EXCEEDED
セッション内の変数の数が最大許容数 (<maxNumVariables>
) を超えているため、新しい変数 <variableName>
を作成できません。
MAX_RECORDS_PER_FETCH_INVALID_FOR_KINESIS_SOURCE
maxRecordsPerFetch は、以下以下の正の整数である必要があります。 <kinesisRecordLimit>
MERGE_CARDINALITY_VIOLATION
MERGE
文のON
探索条件は、ターゲット表の 1 つのローとソース表の複数のローと一致しました。
これにより、ターゲット行が更新操作または削除操作で複数回操作される可能性があり、許可されません。
MERGE_WITHOUT_WHEN
MERGE
ステートメントには、少なくとも 1 つの WHEN
句が必要です。
メトリクス
METRIC CONSTRAINT
は有効になっていません。
メトリクス
指定された値 "<argValue>
" は、METRIC_STORE
table 関数の引数 "<argName>
" ではサポートされていません。
詳細については、「メトリクス」を参照してください。
メトリクス
この環境では、現在、ストア ルーチン <routineName>
は無効になっています。
メトリクス
メトリクス・ビューでは、キャッシュ・テーブルを使用できません。
メトリクス
メトリクスビュー機能は無効です。 「spark.databricks.sql.metricView.enabled」がtrueに設定されていることを確認してください。
メトリクス
MEASURE
() 関数は、入力として属性のみを取りますが、 <expr>
メトリクス
CTE 定義では、メトリクス ビューは許可されません。 計画: <plan>
メトリクス
メトリクスビューでは、結合を使用できません。 計画: <plan>
メトリクス
メトリクスビューの measure 列 <column>
を使用するには、結果を生成するために MEASURE
() 関数が必要です。
メトリクス
メトリクス ビューの使用はサポートされていません。 計画: <plan>
メトリクス
メトリクス ビューでは、ウィンドウ関数 <expr>
を使用することはできません。
MIGRATION_NOT_SUPPORTED
<table>
は、 <tableKind>
テーブルではないため、マネージドテーブルへの移行はサポートされていません。
MISMATCHED_TOPIC_PARTITIONS_BETWEEN_END_OFFSET_AND_PREFETCHED
Trigger.AvailableNow の Kafka データソースは、各マイクロバッチの終了オフセットに、同じトピックパーティションを事前にフェッチしたオフセットで提供する必要があります。 エラーは一時的なものである可能性があります - クエリを再開し、同じ問題がまだ発生する場合は報告してください。
プリフェッチされたオフセットの topic-partitions: <tpsForPrefetched>
、終了オフセットの topic-partitions: <tpsForEndOffset>
.
MISSING_AGGREGATION
非集計式 <expression>
は、 GROUP BY
句に参加していない列に基づいています。
列または式を GROUP BY
に追加するか、式を集計するか、グループ内のどの値が返されるかを気にしない場合は <expressionAnyValue>
を使用します。
詳細については、 MISSING_AGGREGATION
MISSING_CLAUSES_FOR_OPERATION
操作 <operation>
の節 <clauses>
がありません。必要な条項を追加してください。
MISSING_CONNECTION_OPTION
タイプ '<connectionType>
' の接続には、次のオプションを含める必要があります。 <requiredOptions>
.
MISSING_DATABASE_FOR_V1_SESSION_CATALOG
データベース名が v1 セッション・カタログに指定されていません。 v1 カタログを操作するときは、有効なデータベース名を指定してください。
MISSING_GROUP_BY
クエリに GROUP BY
句が含まれていません。 GROUP BY
を追加するか、OVER 句を使用してウィンドウ関数に変換します。
MISSING_NAME_FOR_CHECK_CONSTRAINT
CHECK
制約には名前が必要です。
MISSING_PARAMETER_FOR_KAFKA
Kafka にはパラメーター <parameterName>
が必要ですが、 <functionName>
では指定されていません。
MISSING_PARAMETER_FOR_ROUTINE
パラメーター ( <parameterName>
) は必須ですが、 <functionName>
では指定されていません。
MISSING_SCHEDULE_DEFINITION
スケジュール定義は、 SCHEDULE
に従って指定する必要があります。
MISSING_TIMEOUT_CONFIGURATION
操作はタイムアウトしましたが、タイムアウト期間は構成されていません。 処理時間ベースのタイムアウトを設定するには、「mapGroupsWithState」または「flatMapGroupsWithState」操作で「GroupState.setTimeoutDuration()」を使用します。 イベント時間ベースのタイムアウトの場合は、「GroupState.setTimeoutTimestamp()」を使用します そして、'データセット.withWatermark()' を使用してウォーターマークを定義します。
MISSING_WINDOW_SPECIFICATION
ウィンドウの指定は、 <windowName>
の WINDOW
句では定義されていません。WINDOW
句の詳細については、「<docroot>
/sql-ref-syntax-qry-select-window.html」を参照してください。
MODIFY_BUILTIN_CATALOG
組み込みカタログ <catalogName>
の変更はサポートされていません。
MULTIPLE_LOAD_PATH
Databricks Delta は、load() API で複数の入力パスをサポートしていません。
パス: <pathList>
。 読み込みによって 1 つの DataFrame を構築するには
同じDeltaテーブルから複数のパスをロードしてください。ルートパスをロードしてください
対応するパーティション フィルターを持つ Delta テーブル。 複数のパス
異なる Delta テーブルからのものである場合は、データセットのunion()/unionByName()を使用してください APIs
を使用して、別々の load() 呼び出しによって生成されたDataFramesAPI を結合します。
MULTIPLE_MATCHING_CONSTRAINTS
指定された条件に一致する制約が少なくとも 2 つ見つかりました。
MULTIPLE_QUERY_RESULT_CLAUSES_WITH_PIPE_OPERATORS
<clause1>
また <clause2>
'|>' を使用して同じ SQL パイプ演算子に共存することはできません。 複数の result 句を別々のパイプ演算子に分割してから、クエリを再試行してください。
MULTIPLE_TIME_TRAVEL_SPEC
タイムトラベル節とオプションの両方でタイムトラベルを指定することはできません。
MULTIPLE_XML_DATA_SOURCE
<provider> (<sourceNames>
) という名前の複数のデータソースを検出しました。完全修飾クラス名を指定するか、クラスパスから <externalSource>
を削除してください。
MULTI_ALIAS_WITHOUT_GENERATOR
マルチパート エイリアシング (<names>
) は、ジェネレータ機能ではないため、 <expr>
ではサポートされていません。
MULTI_SOURCES_UNSUPPORTED_FOR_EXPRESSION
式 <expr>
は、複数のソースをサポートしていません。
MULTI_UDF_INTERFACE_ERROR
複数の UDF インターフェイスを実装することは許可されていません。UDF クラス <className>
は .
MUTUALLY_EXCLUSIVE_CLAUSES
相互に排他的な句またはオプション <clauses>
. これらの条項のいずれかを削除してください。
MV_ST_ALTER_QUERY_INCORRECT_BACKING_TYPE
入力クエリは <expectedType>
を想定していますが、基になるテーブルは <givenType>
です。
NAMED_PARAMETERS_NOT_SUPPORTED
名前付きパラメーターは、関数 <functionName>
ではサポートされていません。代わりに、関数呼び出しへの位置引数を使用してクエリを再試行してください。
NAMED_PARAMETERS_NOT_SUPPORTED_FOR_SQL_UDFS
名前付き引数の参照がサポートされていないため、関数 <functionName>
を呼び出すことができません。 この場合、名前付き引数の参照は <argument>
です。
NAMED_PARAMETER_SUPPORT_DISABLED
ここでは名前付き引数の参照が有効になっていないため、関数 <functionName>
を呼び出すことができません。
この場合、名前付き引数の参照は <argument>
です。
"spark.sql.allowNamedFunctionArguments" を "true" に設定して、機能を有効にします。
NAMESPACE_ALREADY_EXISTS
ネームスペース <nameSpaceName>
は既に存在するため、作成できません。
別の名前を選択するか、既存の名前空間を削除するか、既存の名前空間を許容する IF NOT EXISTS
句を追加します。
NAMESPACE_NOT_EMPTY
名前空間 <nameSpaceNameName>
にはオブジェクトが含まれているため、名前空間を削除できません。
DROP NAMESPACE
... CASCADE
を使用して、名前空間とそのすべてのオブジェクトを削除します。
NAMESPACE_NOT_FOUND
ネームスペース <nameSpaceName>
見つかりません。 名前空間のスペルと正確性を確認します。
で名前を修飾しなかった場合、current_schema() 出力を確認するか、名前を正しく修飾します。
ドロップ時のエラーを許容するには、 DROP NAMESPACE IF EXISTS
.
NATIVE_IO_ERROR
ネイティブ要求が失敗しました。 requestId: <requestId>
、クラウド: <cloud>
、操作: <operation>
リクエスト: [https: <https>
, method = <method>
, path = <path>
, params = <params>
, host = <host>
, headers = <headers>
, bodyLen = <bodyLen>
],
エラー: <error>
NATIVE_XML_DATA_SOURCE_NOT_ENABLED
このクラスターでは、ネイティブ XML データソースは有効になっていません。
NEGATIVE_VALUES_IN_FREQUENCY_EXPRESSION
<frequencyExpression>
: <negativeValue>
で負の値を見つけましたが、正の整数値を期待していました。
NESTED_AGGREGATE_FUNCTION
別の集約関数の引数に集約関数を使用することはできません。 サブクエリでは内部集計関数を使用してください。
NESTED_EXECUTE_IMMEDIATE
ネストされた EXECUTE IMMEDIATE
コマンドは許可されません。 指定された SQL クエリ (<sqlString>
) に別の EXECUTE IMMEDIATE
コマンドが含まれていないことを確認してください。
NONEXISTENT_FIELD_NAME_IN_LIST
フィールド <nonExistFields>
存在しません。 使用可能なフィールド: <fieldNames>
NON_FOLDABLE_ARGUMENT
関数 <funcName>
では、パラメーター <paramName>
が <paramType>
型の折り畳み式である必要がありますが、実際の引数は折りたたみ不可です。
NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION
MERGE
ステートメントに複数の MATCHED
句がある場合、条件を省略できるのは最後の MATCHED
句だけです。
NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION
MERGE
ステートメントに複数の NOT MATCHED BY SOURCE
句がある場合、条件を省略できるのは最後の NOT MATCHED BY SOURCE
句だけです。
NON_LAST_NOT_MATCHED_BY_TARGET_CLAUSE_OMIT_CONDITION
MERGE
ステートメントに NOT MATCHED [BY TARGET
] 句が複数ある場合、条件を省略できるのは最後の NOT MATCHED [BY TARGET
] 句だけです。
NON_LITERAL_PIVOT_VALUES
ピボット値に必要なリテラル式は、 <expression>
.
NON_PARTITION_COLUMN
PARTITION
句には、パーティション以外の列 ( <columnName>
) を含めることはできません。
NON_TIME_WINDOW_NOT_SUPPORTED_IN_STREAMING
ウィンドウ関数は、ストリーミング DataFrames/データセットの <windowFunc>
(列 <columnName>
) ではサポートされていません。
構造化ストリーミングは、 WINDOW
関数を使用した時間枠の集計のみをサポートします。 (ウィンドウ仕様: <windowSpec>
)
NOT_ALLOWED_IN_FROM
FROM
句では使用できません。
詳細については、NOT_ALLOWED_IN_FROMを参照してください
NOT_ALLOWED_IN_PIPE_OPERATOR_WHERE
パイプ WHERE
句では許可されていません。
詳細については、「 NOT_ALLOWED_IN_PIPE_OPERATOR_WHERE
NOT_A_CONSTANT_STRING
ルーチンまたは句<name>
に使用する式<expr>
は、NOT NULL
である定数STRING
である必要があります。
詳細については、 NOT_A_CONSTANT_STRING
NOT_A_PARTITIONED_TABLE
操作 <operation>
はパーティション・テーブルではないため、 <tableIdentWithDB>
では許可されません。
NOT_A_SCALAR_FUNCTION
<functionName>
ここではスカラー式として表示されますが、関数はテーブル関数として定義されています。 クエリを更新して関数呼び出しを FROM
句に移動するか、代わりに <functionName>
をスカラー関数として再定義してください。
NOT_A_TABLE_FUNCTION
<functionName>
ここではテーブル関数として表示されていますが、この関数はスカラー関数として定義されています。 クエリを更新して、関数呼び出しを FROM
句の外側に移動するか、代わりに <functionName>
をテーブル関数として再定義してください。
NOT_NULL_ASSERT_VIOLATION
NULL
値が非null許容フィールドに現れました: <walkedTypePath>
スキーマが Scala タプル/ケースクラス、または Java Beanから推論される場合は、 Scalaを使用してみてください。Option[_] またはその他の null 許容型 (int/Scalaの代わりに java.lang.Integer など)Int) です。
NOT_NULL_CONSTRAINT_VIOLATION
ここでは、 NULL
を割り当てることはできません。
詳細については、 NOT_NULL_CONSTRAINT_VIOLATION
NOT_SUPPORTED_CHANGE_COLUMN
ALTER TABLE ALTER
/CHANGE COLUMN
は、<table>
の <originType>
の列<originName>
を <newType>
の<newName>
に変更することはサポートされていません。
NOT_SUPPORTED_COMMAND_FOR_V2_TABLE
<cmd>
は v2 テーブルではサポートされていません。
NOT_SUPPORTED_COMMAND_WITHOUT_HIVE_SUPPORT
<cmd>
はサポートされていませんので、有効にする場合は「spark.sql.catalogImplementation」を「hive」に設定してください。
NOT_SUPPORTED_IN_JDBC_CATALOG
JDBC カタログでサポートされていないコマンド:
詳細については、 NOT_SUPPORTED_IN_JDBC_CATALOG
NOT_SUPPORTED_WITH_DB_SQL
<operation>
は SQL <endpoint>
ではサポートされていません。
NOT_SUPPORTED_WITH_SERVERLESS
<operation>
は、サーバレス コンピュートではサポートされていません。
NOT_UNRESOLVED_ENCODER
未解決のエンコーダーが必要ですが、 <attr>
見つかりませんでした。
NO_DEFAULT_COLUMN_VALUE_AVAILABLE
<colName>
は null 許容ではなく、デフォルト値がないため、デフォルト値を特定できません。
NO_HANDLER_FOR_UDAF
UDAF '<functionName>
' のハンドラはありません。 sparkSession.udf.登録する(...) その代わりに。
NO_MERGE_ACTION_SPECIFIED
df.mergeInto の後には、少なくとも whenMatched/whenNotMatched/whenNotMatchedBySource のいずれかが続く必要があります。
NO_PARENT_EXTERNAL_LOCATION_FOR_PATH
SQLSTATE: 割り当てられていない
パス '<path>
' の親外部ロケーションが見つかりませんでした。 親パスの 1 つに外部ロケーションを作成してから、クエリまたはコマンドを再試行してください。
NO_SQL_TYPE_IN_PROTOBUF_SCHEMA
Protobuf スキーマで <catalystFieldPath>
見つかりません。
NO_STORAGE_LOCATION_FOR_TABLE
SQLSTATE: 割り当てられていない
テーブル資格情報の生成時に、テーブル '<tableId>
' の格納場所が見つかりませんでした。 テーブルの種類とテーブルの場所の URL を確認してから、クエリまたはコマンドを再試行してください。
NO_SUCH_CATALOG_EXCEPTION
カタログ '<catalog>
' が見つかりませんでした。 カタログ名を確認してから、クエリまたはコマンドを再試行してください。
NO_SUCH_CLEANROOM_EXCEPTION
SQLSTATE: 割り当てられていない
クリーンルーム「<cleanroom>
」は存在しません。 クリーンルーム名のスペルが正しいこと、および有効な既存のクリーンルームの名前と一致していることを確認してから、クエリまたはコマンドを再試行してください。
NO_SUCH_EXTERNAL_LOCATION_EXCEPTION
SQLSTATE: 割り当てられていない
外部ロケーション '<externalLocation>
' は存在しません。 外部ロケーション名が正しいことを確認してから、クエリまたはコマンドを再試行してください。
NO_SUCH_METASTORE_EXCEPTION
SQLSTATE: 割り当てられていない
メタストアが見つかりませんでした。 アカウント管理者に依頼して、現在のワークスペースにメタストアを割り当ててから、クエリまたはコマンドを再試行してください。
NO_SUCH_PROVIDER_EXCEPTION
SQLSTATE: 割り当てられていない
共有プロバイダ '<providerName>
' は存在しません。 共有プロバイダー名のスペルが正しく、有効な既存のプロバイダー名の名前と一致していることを確認してから、クエリまたはコマンドを再試行してください。
NO_SUCH_RECIPIENT_EXCEPTION
SQLSTATE: 割り当てられていない
受信者 '<recipient>
' は存在しません。 受信者の名前のスペルが正しく、有効な既存の受信者の名前と一致していることを確認してから、クエリまたはコマンドを再試行してください。
NO_SUCH_SHARE_EXCEPTION
SQLSTATE: 割り当てられていない
共有 '<share>
' は存在しません。 共有名のスペルが正しいこと、および有効な既存の共有の名前と一致していることを確認してから、クエリまたはコマンドを再試行してください。
NO_SUCH_STORAGE_CREDENTIAL_EXCEPTION
SQLSTATE: 割り当てられていない
ストレージ資格情報 '<storageCredential>
' が存在しません。 ストレージ資格情報の名前のスペルが正しいこと、および有効な既存のストレージ資格情報の名前と一致していることを確認してから、クエリまたはコマンドを再試行してください。
NO_SUCH_USER_EXCEPTION
SQLSTATE: 割り当てられていない
ユーザー '<userName>
' は存在しません。 権限を付与するユーザー、または所有権を変更するユーザーのスペルが正しく、有効な既存のユーザーの名前と一致していることを確認してから、クエリまたはコマンドを再試行してください。
NO_UDF_INTERFACE
UDF クラス <className>
は UDF インターフェイスを実装していません。
NULLABLE_COLUMN_OR_FIELD
列またはフィールド <name>
は null 許容ですが、null 非許容である必要があります。
NULLABLE_ROW_ID_ATTRIBUTES
ロー ID 属性を NULL 可能にすることはできません ( <nullableRowIdAttrs>
)。
NULL_DATA_SOURCE_OPTION
データソースの読み取り/書き込みオプション <option>
は NULL 値を持つことはできません。
NULL_MAP_KEY
マップキーとしてnullを使用することはできません。
NULL_QUERY_STRING_EXECUTE_IMMEDIATE
「即時実行」では、クエリ文字列として null 以外の変数が必要ですが、指定された変数 <varName>
は null です。
NUMERIC_OUT_OF_SUPPORTED_RANGE
値 <value>
は 38 桁を超えているため、数値として解釈できません。
NUMERIC_VALUE_OUT_OF_RANGE
詳細については、 NUMERIC_VALUE_OUT_OF_RANGE
NUM_COLUMNS_MISMATCH
<operator>
同じ列数の入力に対してのみ実行できますが、最初の入力には <firstNumColumns>
列があり、 <invalidOrdinalNum>
入力には <invalidNumColumns>
列があります。
NUM_TABLE_VALUE_ALIASES_MISMATCH
指定されたエイリアスの数が出力カラムの数と一致しません。
関数名: <funcName>
;エイリアスの数: <aliasesNum>
;出力カラムの数: <outColsNum>
.
OAUTH_CUSTOM_IDENTITY_CLAIM_NOT_PROVIDED
カスタム ID 要求は提供されませんでした。
ONLY_SECRET_FUNCTION_SUPPORTED_HERE
この<location>
では、関数 の <functionName>
の呼び出しはサポートされていません。<supportedFunctions>
ここでサポートされています。
ONLY_SUPPORTED_WITH_UC_SQL_CONNECTOR
SQL 操作 <operation>
は、Unity Catalog がサポートされている Databricks SQL コネクタでのみサポートされます。
OPERATION_CANCELED
運航は中止となりました。
OPERATION_REQUIRES_UNITY_CATALOG
操作 <operation>
では、Unity Catalog が有効になっている必要があります。
OP_NOT_SUPPORTED_READ_ONLY
<plan>
は、読み取り専用セッション モードではサポートされていません。
ORDER_BY_POS_OUT_OF_RANGE
ORDER BY
位置 <index>
が選択リストにありません (有効な範囲は [1, <size>
] です)。
PARQUET_CONVERSION_FAILURE
Parquet タイプが <parquetType>
であるデータタイプ <dataType>
の Parquet コンバーターを作成できません。
詳細については、 PARQUET_CONVERSION_FAILURE
PARQUET_TYPE_ILLEGAL
不正な Parquet タイプ: <parquetType>
。
PARQUET_TYPE_NOT_RECOGNIZED
認識されない Parquet タイプ:<field>
。
PARQUET_TYPE_NOT_SUPPORTED
まだサポートされていないParquetタイプ: <parquetType>
。
PARSE_EMPTY_STATEMENT
構文エラー、予期しない空のステートメント。
PARSE_MODE_UNSUPPORTED
関数 <funcName>
は <mode>
モードをサポートしていません。 使用できるモードは PERMISSIVE
と FAILFAST
です。
PARSE_SYNTAX_ERROR
構文エラーが <error> <hint>
またはその近くにあります。
PARTITIONS_ALREADY_EXIST
テーブル <tableName>
のパーティション<partitionList>
は既に存在するため、ADD または TO RENAME
できません。
別の名前を選択するか、既存のパーティションを削除するか、既存のパーティションを許容するように IF NOT EXISTS
句を追加します。
PARTITIONS_NOT_FOUND
パーティション <partitionList>
がテーブル <tableName>
に見つかりません。
パーティションの仕様とテーブル名を確認します。
ドロップ時のエラーを許容するには、 ALTER TABLE
... DROP IF EXISTS PARTITION
を使用します。
PARTITION_COLUMN_NOT_FOUND_IN_SCHEMA
パーティション列 <column>
スキーマ <schema>
に見つかりません。 パーティション分割用の既存の列を指定してください。
PARTITION_LOCATION_ALREADY_EXISTS
パーティションの場所 <locationPath>
は、テーブル <tableName>
にすでに存在しています。
PARTITION_LOCATION_IS_NOT_UNDER_TABLE_DIRECTORY
ALTER TABLE SET PARTITION LOCATION
ステートメントの実行に失敗しました。次の理由により、
パーティションの場所 <location>
がテーブルディレクトリ <table>
の下にありません。
これを修正するには、パーティションの場所を <table>
のサブディレクトリに設定してください。
PARTITION_METADATA
<action>
は、パーティション メタデータの格納が Unity Catalog でサポートされていないため、テーブル <tableName>
では許可されません。
PARTITION_NUMBER_MISMATCH
値の数 (<partitionNumber>
) がスキーマ サイズと一致しませんでした (<partitionSchemaSize>
: 値は <partitionValues>
です、スキーマは <partitionSchema>
です、ファイル パスは <urlEncodedPath>
です。
テーブルを再マテリアライズするか、オーナーにご連絡ください。
PARTITION_TRANSFORM_EXPRESSION_NOT_IN_PARTITIONED_BY
式 <expression>
は 'partitionedBy' 内になければなりません。
PATH_ALREADY_EXISTS
パス <outputPath>
はすでに存在します。 モードを「上書き」に設定すると、既存のパスが上書きされます。
PATH_NOT_FOUND
パスが存在しません: <path>
。
PHOTON_DESERIALIZED_PROTOBUF_MEMORY_LIMIT_EXCEEDED
Photon protobufプランの逆シリアル化には、少なくとも <size>
バイトが必要であり、これは
<limit>
バイトの制限。これは、非常に大きな計画または非常にの存在が原因である可能性があります
ワイドスキーマ。 クエリを簡略化するか、不要な列を削除するか、Photon を無効にしてみてください。
PHOTON_SERIALIZED_PROTOBUF_MEMORY_LIMIT_EXCEEDED
シリアル化されたPhoton protobufプランのサイズは <size>
バイトで、これは
<limit>
バイト。 プラン内のデータ型のシリアル化されたサイズは <dataTypeSize>
バイトです。
これは、非常に大きなプランまたは非常に広いスキーマの存在が原因である可能性があります。
クエリを書き直して、不要な操作や列を削除するか、Photon を無効にすることを検討してください。
PIPE_OPERATOR_AGGREGATE_EXPRESSION_CONTAINS_NO_AGGREGATE_FUNCTION
非グループ化式 <expr>
は |> AGGREGATE
パイプ演算子の引数として提供されますが、集計関数は含まれていません。集計関数を含むように更新してから、クエリを再試行してください。
PIPE_OPERATOR_CONTAINS_AGGREGATE_FUNCTION
集計関数 <expr>
は、パイプ演算子 |> <clause>
句を使用する場合は使用できません。代わりに、パイプ演算子 |> AGGREGATE
句を使用してください。
PIVOT_VALUE_DATA_TYPE_MISMATCH
無効なピボット値 '<value>
': 値のデータ型 <valueType>
がピボット列のデータ型 <pivotType>
と一致しません。
PROCEDURE_ARGUMENT_NUMBER_MISMATCH
プロシージャ <procedureName>
では <expected>
引数が必要ですが、 <actual>
引数が提供されました。
PROCEDURE_CREATION_EMPTY_ROUTINE
CREATE PROCEDURE
空のルーチン定義は許可されません。
PROCEDURE_CREATION_PARAMETER_OUT_INOUT_WITH_DEFAULT
パラメーター <parameterName>
は、パラメーター mode <parameterMode>
で定義されます。 OUT パラメーターと INOUT
パラメーターは、ルーチンを呼び出すときに省略できないため、 DEFAULT
式をサポートしません。 続行するには、 DEFAULT
句を削除するか、パラメーター モードを IN
に変更します。
PROCEDURE_NOT_SUPPORTED
ストアド・プロシージャはサポートされていません
PROCEDURE_NOT_SUPPORTED_WITH_HMS
ストアド プロシージャは Hive metastoreではサポートされていません。 代わりにUnity Catalogをご利用ください。
PROTOBUF_DEPENDENCY_NOT_FOUND
依存関係が見つかりませんでした: <dependencyName>
.
PROTOBUF_DESCRIPTOR_FILE_NOT_FOUND
パス <filePath>
の Protobuf 記述子ファイルの読み取り中にエラーが発生しました。
PROTOBUF_FIELD_MISSING
<protobufSchema>
でProtobufスキーマで<field>
を検索すると、<matchSize>
一致しました。候補者: <matches>
.
PROTOBUF_FIELD_MISSING_IN_SQL_SCHEMA
Protobuf スキーマで <field>
が見つかりましたが、SQL スキーマに一致するものはありません。
PROTOBUF_FIELD_TYPE_MISMATCH
フィールド : <field>
でタイプの不一致が検出されました。
PROTOBUF_JAVA_CLASSES_NOT_SUPPORTED
Java クラスは <protobufFunction>
ではサポートされていません。 代替オプションについては、Databricks サポートにお問い合わせください。
PROTOBUF_MESSAGE_NOT_FOUND
記述子でメッセージ <messageName>
が見つかりません。
PROTOBUF_NOT_LOADED_SQL_FUNCTIONS_UNUSABLE
<functionName>
SQLProtobufデータソースがロードされていないため、 関数を呼び出すことができません。
'spark-protobuf' パッケージを読み込んだ状態でジョブまたはセッションを再開し (コマンド ラインで –packages 引数を使用するなど)、クエリまたはコマンドを再試行してください。
PROTOBUF_TYPE_NOT_SUPPORT
まだサポートされていないProtobufタイプ: <protobufType>
。
PS_FETCH_RETRY_EXCEPTION
pubsub fetch ステージのタスクを再試行できません。 ステージ <stageInfo>
のパーティション <partitionInfo>
、TID <taskId>
。
PS_INVALID_EMPTY_OPTION
<key>
空の文字列にすることはできません。
PS_INVALID_KEY_TYPE
PubSub 重複排除のキー タイプが無効です: <key>
。
PS_INVALID_OPTION
オプション <key>
は PubSub ではサポートされていません。 テストでのみ使用できます。
PS_INVALID_OPTION_TYPE
<key>
のタイプが無効です。想定される <key>
のタイプは <type>
です。
PS_INVALID_READ_LIMIT
PubSub ストリームの読み取り制限が無効です: <limit>
.
PS_INVALID_UNSAFE_ROW_CONVERSION_FROM_PROTO
PubSubMessageMetadata にデコードするには無効な UnsafeRow です。目的のプロトタイプ スキーマは次のとおりです。 <protoSchema>
。 入力 UnsafeRow が破損している可能性があります: <unsafeRow>
.
PS_MISSING_AUTH_INFO
完全な PubSub 認証情報が見つかりませんでした。
PS_MISSING_REQUIRED_OPTION
必要なオプションが見つかりませんでした: <key>
。
PS_MOVING_CHECKPOINT_FAILURE
<src>
から宛先ディレクトリ (<dest>
) への生データ チェックポイント ファイルの移動に失敗しました。
PS_MULTIPLE_AUTH_OPTIONS
Databricks サービスの資格情報または GCP サービス アカウントの資格情報を入力してください。
PS_MULTIPLE_FAILED_EPOCHS
PubSub ストリームは、失敗したフェッチが複数あるため、開始できません: <failedEpochs>
.
PS_OPTION_NOT_IN_BOUNDS
<key>
次の境界 (<min>
、 <max>
) 内にある必要があります (両方の境界を除く)。
PS_PROVIDE_CREDENTIALS_WITH_OPTION
Standard access mode クラスター (旧称 Shared Access mode) では、インスタンスプロファイルによる認証はサポートされていません。 .option() を使用して、ストリームに直接資格情報を提供します。
PS_SPARK_SPECULATION_NOT_SUPPORTED
PubSub ソース コネクタは、 spark.speculation
が無効になっているクラスターでのみ使用できます。
PS_UNABLE_TO_CREATE_SUBSCRIPTION
トピック <topicId>
でサブスクリプション<subId>
を作成しようとするとエラーが発生しました。サブスクリプションを作成するための十分な権限があることを確認して、もう一度お試しください。
PS_UNABLE_TO_PARSE_PROTO
シリアル化されたバイトを解析してプロトを生成できません。
PS_UNSUPPORTED_GET_OFFSET_CALL
getOffsetは、制限を指定しないとサポートされません。
Python
データソース<type>``<action>
Python できませんでした: <msg>
Python
Python ストリーミング データソースが<action>
を実行すると失敗します。 <msg>
QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY
以前に割り当てられた列マスクが現在テーブル スキーマと互換性がないため、参照されるテーブルにアクセスできません。続行するには、テーブルの所有者に連絡してポリシーを更新してください。
詳細については、 QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY
QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY
以前に割り当てられた行レベルのセキュリティ・ポリシーが現在、テーブル・スキーマと互換性がないため、参照されるテーブルにアクセスできません。続行するには、テーブルの所有者に連絡してポリシーを更新してください。
詳細については、 QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY
QUERY_EXECUTION_TIMEOUT_EXCEEDED
タイムアウト (<timeoutSec>
秒) を超えたため、クエリの実行が取り消されました。 <config>
を設定することで、制限を秒単位で増やすことができます。
READ_CURRENT_FILE_NOT_FOUND
<message>
基になるファイルが更新された可能性があります。 Spark のキャッシュを明示的に無効にするには、SQL で 'REFRESH TABLE
tableName' コマンドを実行するか、関連するデータセット/DataFrame を再作成します。
READ_FILES_AMBIGUOUS_ROUTINE_PARAMETERS
関数 <functionName>
の呼び出しには、 <parameterName>
と <alternativeName>
が設定されており、これらは互いのエイリアスです。 どちらか1つだけ設定してください。
READ_TVF_UNEXPECTED_REQUIRED_PARAMETER
必須パラメーター<functionName>``<parameterName>
の関数は、名前なしで位置 <expectedPos>
に割り当てる必要があります。
RECIPIENT_EXPIRATION_NOT_SUPPORTED
受信者の有効期限のタイムスタンプは、 TIMESTAMP
/TIMESTAMP_LTZ
/TIMESTAMP_NTZ
タイプのみがサポートされています。
RECURSIVE_PROTOBUF_SCHEMA
Protobuf スキーマで再帰的な参照が見つかりましたが、デフォルトでは Spark で処理できません: <fieldDescriptor>
. オプション recursive.fields.max.depth
1 から 10 に設定してみてください。10 レベルの再帰を超えることは許可されていません。
RECURSIVE_VIEW
再帰ビュー <viewIdent>
検出されます (サイクル: <newPath>
)。
REF_DEFAULT_VALUE_IS_NOT_ALLOWED_IN_PARTITION
DEFAULT
列の値への参照は、PARTITION
句内では使用できません。
RELATION_LARGER_THAN_8G
8Gより大きい <relationName>
は作れません。
REMOTE_FUNCTION_HTTP_FAILED_ERROR
リモート HTTP 要求が失敗し、コード <errorCode>
とエラー メッセージ <errorMessage>
REMOTE_FUNCTION_HTTP_RESULT_PARSE_ERROR
リモート HTTP 応答からの JSON 結果を解析できないため、 <functionName>
SQL 関数の評価に失敗しました。エラーメッセージは <errorMessage>
です。 API ドキュメントを確認してください: <docUrl>
. エラー メッセージに示されている問題を修正し、クエリを再試行してください。
REMOTE_FUNCTION_HTTP_RESULT_UNEXPECTED_ERROR
予期しないリモート HTTP 応答を処理できないため、 <functionName>
SQL 関数の評価に失敗しました。エラーメッセージは <errorMessage>
です。 API ドキュメントを確認してください: <docUrl>
. エラー メッセージに示されている問題を修正し、クエリを再試行してください。
REMOTE_FUNCTION_HTTP_RETRY_TIMEOUT
リモート要求は <N>
回再試行した後に失敗しました。最後に失敗した HTTP エラー コードが <errorCode>
され、メッセージが <errorMessage>
REMOTE_FUNCTION_MISSING_REQUIREMENTS_ERROR
<functionName>
SQL 関数の評価に失敗しました。<errorMessage>
.<docUrl>
で要件を確認してください。エラー メッセージに示されている問題を修正し、クエリを再試行してください。
RENAME_SRC_PATH_NOT_FOUND
<sourcePath>
が見つからなかったため、名前を変更できませんでした。
REPEATED_CLAUSE
<clause>
句は、<operation>
操作ごとに最大 1 回使用できます。
REQUIRED_PARAMETER_ALREADY_PROVIDED_POSITIONALLY
必須パラメーター<parameterName>``<routineName>
ルーチンは、名前なしで位置 <positionalIndex>
に割り当てられています。
関数呼び出しを更新して、このパラメーターの <parameterName>
を持つ名前付き引数を削除するか、位置引数を削除してください
引数を <positionalIndex>
で呼び出してから、クエリを再試行してください。
REQUIRED_PARAMETER_NOT_FOUND
<parameterName>
という名前のパラメーターが必要なため、ルーチン <routineName>
を呼び出すことができませんが、ルーチン呼び出しで値が指定されませんでした。引数値 (インデックス <index>
の位置または名前) を指定するようにルーチン呼び出しを更新し、クエリを再試行してください。
REQUIRES_SINGLE_PART_NAMESPACE
<sessionCatalog>
単一部分の名前空間が必要ですが、 <namespace>
.
RESCUED_DATA_COLUMN_CONFLICT_WITH_SINGLE_VARIANT
'rescuedDataColumn' DataFrame API リーダー オプションは、'singleVariantColumn' DataFrame API オプションと相互に排他的です。
そのうちの 1 つを削除してから、DataFrame 操作を再試行してください。
RESERVED_CDC_COLUMNS_ON_WRITE
書き込みには、使用される予約済み列 <columnList>
が含まれます
内部的にはチェンジデータフィードのメタデータとして。 テーブルに書き込むには、名前の変更/ドロップ
これらの列は、設定することにより、テーブル上のチェンジデータフィードを無効にします
<config>
を false に設定します。
RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED
オプション <option>
には、 <source>
ソースの標準アクセス モード クラスター (以前の共有アクセス モード) に制限があります。
詳細については、 RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED
ROUTINE_ALREADY_EXISTS
その名前の<existingRoutineType>
がすでに存在するため、<newRoutineType> <routineName>
を作成できません。
別の名前を選択するか、既存の<existingRoutineType>
を削除または置き換えるか、既存の<newRoutineType>
を許容するために IF NOT EXISTS
句を追加します。
ROUTINE_NOT_FOUND
ルーチン <routineName>
見つかりません。 スキーマとカタログのスペルと正確性を確認します。
スキーマとカタログで名前を修飾しなかった場合、current_schema() 出力を確認するか、正しいスキーマとカタログで名前を修飾します。
ドロップ時のエラーを許容するには、 DROP
... IF EXISTS
を使用します。
ROUTINE_PARAMETER_NOT_FOUND
ルーチン <routineName>
は、位置 <pos>
で指定されたパラメーター <parameterName>
をサポートしていません。<suggestion>
ROUTINE_USES_SYSTEM_RESERVED_CLASS_NAME
指定されたクラス名 '<className>
' がシステム使用のために予約されているため、関数 <routineName>
を作成できません。クラスの名前を変更して、もう一度やり直してください。
ROW_LEVEL_SECURITY_ABAC_MISMATCH
ポリシーから継承された行フィルターと明示的に定義された行フィルターとの間に不一致があったため、行フィルターを <tableName>
で解決できませんでした。 続行するには、属性ベースのアクセス制御 (ABAC) を無効にし、Databricks サポートにお問い合わせください。
ROW_LEVEL_SECURITY_CHECK_CONSTRAINT_UNSUPPORTED
行レベルのセキュリティ・ポリシーを使用して、表<tableName>
にCHECK
制約を作成することはサポートされていません。
ROW_LEVEL_SECURITY_DUPLICATE_COLUMN_NAME
<statementType>
文がロー・レベルのセキュリティ・ポリシーをテーブルに割り当てようとしましたが、参照される 2 つ以上のカラムの名前が同じ <columnName>
で、これは無効です。
ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED
<tableName>
の行レベルのセキュリティ・ポリシーはサポートされていません。
詳細については、「 ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED
ROW_LEVEL_SECURITY_INCOMPATIBLE_SCHEMA_CHANGE
テーブル <tableName>
は行レベルのセキュリティ ポリシーで参照されているため、テーブル から<statementType> <columnName>
できません。テーブルの所有者は、続行する前にこのポリシーを削除または変更する必要があります。
ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_SOURCE
MERGE INTO
オペレーションは、ソース表 <tableName>
の行レベルのセキュリティ・ポリシーをサポートしていません。
ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_TARGET
MERGE INTO
操作では、行レベルのセキュリティ・ポリシーを使用したテーブル <tableName>
への書き込みはサポートされていません。
ROW_LEVEL_SECURITY_MULTI_PART_COLUMN_NAME
この文は、ロー・レベルのセキュリティ・ポリシーをテーブルに割り当てようとしましたが、参照されたカラム・ <columnName>
に複数の名前部分があり、無効です。
ROW_LEVEL_SECURITY_REQUIRE_UNITY_CATALOG
行レベルのセキュリティ ポリシーは、Unity Catalog でのみサポートされます。
ROW_LEVEL_SECURITY_SHOW_PARTITIONS_UNSUPPORTED
SHOW PARTITIONS
コマンドは、行レベルのセキュリティ・ポリシーを持つ\<format\>
テーブルではサポートされていません。
ROW_LEVEL_SECURITY_TABLE_CLONE_SOURCE_NOT_SUPPORTED
<mode>
行レベルのセキュリティ・ポリシーを使用したテーブル <tableName>
からのクローン作成はサポートされていません。
ROW_LEVEL_SECURITY_TABLE_CLONE_TARGET_NOT_SUPPORTED
<mode>
行レベルのセキュリティ・ポリシーを使用した表 <tableName>
へのクローンはサポートされていません。
ROW_LEVEL_SECURITY_UNSUPPORTED_CONSTANT_AS_PARAMETER
行レベルのセキュリティ ポリシーのパラメーターとして定数を使用することはサポートされていません。 SQL コマンドを更新して行フィルター定義から定数を削除してから、コマンドを再試行してください。
ROW_LEVEL_SECURITY_UNSUPPORTED_PROVIDER
Failed to execute <statementType>
command because row level security ポリシーの割り当ては、テーブル・プロバイダーを持つターゲット・データソースでサポートされていないためです: "<provider>
".
ROW_SUBQUERY_TOO_MANY_ROWS
ローとして使用されるサブクエリによって返される複数のロー。
ROW_VALUE_IS_NULL
インデックス <index>
で行にNULL
が見つかりました。NULL
以外の値が必要です。
RULE_ID_NOT_FOUND
ルール名 "<ruleName>
" の ID が見つかりませんでした。 RuleIdCollection を変更してください。Scala 新しいルールを追加する場合。
SAMPLE_TABLE_PERMISSIONS
サンプルデータベース/テーブルでサポートされていない権限。
SCALAR_FUNCTION_NOT_COMPATIBLE
ScalarFunction <scalarFunc>
、メソッド 'produceResult(InternalRow)' をカスタム実装でオーバーライドしません。
SCALAR_FUNCTION_NOT_FULLY_IMPLEMENTED
ScalarFunction <scalarFunc>
メソッド 'produceResult(InternalRow)' を実装またはオーバーライドしません。
SCALAR_SUBQUERY_IS_IN_GROUP_BY_OR_AGGREGATE_FUNCTION
相関スカラー・サブクエリ '<sqlExpr>
' は、 GROUP BY
にも集合関数にも存在しません。
序数位置を使用して GROUP BY
に追加するか、どの値を取得するか気にしない場合は first()
(または first_value
)でラップします。
SCALAR_SUBQUERY_TOO_MANY_ROWS
式として使用されるサブクエリによって返される複数のロー。
SCHEDULE_ALREADY_EXISTS
すでに <existingScheduleType>
があるテーブルに <scheduleType>
を追加することはできません。既存のスケジュールを削除するか、 ALTER TABLE
... ALTER <scheduleType>
...それを変更します。
SCHEDULE_PERIOD_INVALID
<timeUnit>
のスケジュール期間は、1 から <upperBound>
までの整数値である必要があります。受信: <actual>
。
SCHEMA_ALREADY_EXISTS
スキーマ <schemaName>
は既に存在するため、作成できません。
別の名前を選択するか、既存のスキーマを削除するか、既存のスキーマを許容する IF NOT EXISTS
句を追加します。
SCHEMA_NOT_EMPTY
スキーマ <schemaName>
にはオブジェクトが含まれているため、スキーマを削除できません。
DROP SCHEMA
... CASCADE
を使用して、スキーマとそのすべてのオブジェクトを削除します。
SCHEMA_NOT_FOUND
スキーマ <schemaName>
が見つかりません。 スキーマとカタログのスペルと正確性を確認します。
カタログで名前を修飾しなかった場合、current_schema() 出力を確認するか、正しいカタログで名前を修飾します。
ドロップ時のエラーを許容するには、 DROP SCHEMA IF EXISTS
.
SCHEMA_REGISTRY_CONFIGURATION_ERROR
スキーマ レジストリのスキーマを初期化できませんでした。 <reason>
。
SECOND_FUNCTION_ARGUMENT_NOT_INTEGER
<functionName>
関数の 2 番目の引数は整数である必要があります。
SECRET_FUNCTION_INVALID_LOCATION
SECRET
関数への 1 つ以上の暗号化されていない参照を使用して<commandType>
コマンドを実行できません。このような各関数呼び出しの結果をAES_ENCRYPT
で暗号化し、コマンドを再試行してください
SEED_EXPRESSION_IS_UNFOLDABLE
式<exprWithSeed>
のシード式<seedExpr>
は折りたたみ可能である必要があります。
SERVER_IS_BUSY
サーバーがビジー状態であり、要求を処理できませんでした。 しばらく待ってから、もう一度お試しください。
SHOW_COLUMNS_WITH_CONFLICT_NAMESPACE
SHOW COLUMNS
競合する名前空間がある場合: <namespaceA>
!= <namespaceB>
.
SORT_BY_WITHOUT_BUCKETING
sortBy は bucketBy と一緒に使用する必要があります。
SPARK_JOB_CANCELLED
ジョブ <jobId>
キャンセルされました <reason>
SPECIFY_BUCKETING_IS_NOT_ALLOWED
列リストが明示的にない CREATE TABLE
では、バケット情報を指定できません。
列リストが明示的なフォームを使用し、バケット情報を指定してください。
または、句を省略してバケット情報を推測できるようにします。
SPECIFY_CLUSTER_BY_WITH_BUCKETING_IS_NOT_ALLOWED
CLUSTER BY
と CLUSTERED BY INTO BUCKETS
の両方を指定することはできません。
SPECIFY_CLUSTER_BY_WITH_PARTITIONED_BY_IS_NOT_ALLOWED
CLUSTER BY
と PARTITIONED BY
の両方を指定することはできません。
SPECIFY_PARTITION_IS_NOT_ALLOWED
カラム・リストが明示的にない CREATE TABLE
は、 PARTITIONED BY
を指定できません。
列リストが明示的なフォームを使用し、 PARTITIONED BY
を指定してください。
または、 PARTITION BY
句を省略してパーティション分割を推論できるようにします。
SQL_CONF_NOT_FOUND
SQL 設定 <sqlConf>
見つかりません。 設定が存在することを確認してください。
STAGING_PATH_CURRENTLY_INACCESSIBLE
ターゲットステージングパス <path>
へのアクセス中に一時的なエラーが発生しました。数分後に試してください
STAR_GROUP_BY_POS
スター (*) は、 GROUP BY
序数位置が使用されている場合、選択リストでは使用できません。
STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_HANDLE_STATE
ステートフル プロセッサ操作の実行に失敗しました=<operationType>
ハンドルが無効です state=<handleState>
。
STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_TIME_MODE
ステートフル プロセッサ操作の実行に失敗しました= 無効な timeMode= で<operationType>``<timeMode>
STATEFUL_PROCESSOR_DUPLICATE_STATE_VARIABLE_DEFINED
<stateVarName>
という名前の状態変数は、StatefulProcessorですでに定義されています。
STATEFUL_PROCESSOR_INCORRECT_TIME_MODE_TO_ASSIGN_TTL
timeMode=<timeMode>
の state=<stateName>
に TTL を使用することはできません。代わりに TimeMode.ProcessingTime() を使用してください。
STATEFUL_PROCESSOR_TTL_DURATION_MUST_BE_POSITIVE
TTL duration は 0 より大きくなければなりません for 状態ストア operation=<operationType>
on state=<stateName>
.
STATEFUL_PROCESSOR_UNKNOWN_TIME_MODE
不明な時間モード <timeMode>
。 受け入れられる timeMode モードは 'none'、 'processingTime'、 'eventTime' です。
STATE_STORE_CANNOT_CREATE_COLUMN_FAMILY_WITH_RESERVED_CHARS
サポートされていない開始文字と name=<colFamilyName>
の列ファミリを作成できませんでした。
STATE_STORE_CANNOT_USE_COLUMN_FAMILY_WITH_INVALID_NAME
列ファミリの操作=<operationName>
を実行できませんでした。名前=<colFamilyName>
です。 列ファミリ名を空にしたり、先頭/末尾にスペースを含めたり、予約済みのキーワード=デフォルトを使用したりすることはできません
STATE_STORE_COLUMN_FAMILY_SCHEMA_INCOMPATIBLE
列 family=<colFamilyName>
、 oldSchema=<oldSchema>
、 newSchema=<newSchema>
と互換性のないスキーマ変換 。
STATE_STORE_DOES_NOT_SUPPORT_REUSABLE_ITERATOR
StateStore <inputClass>
は、再利用可能なイテレータをサポートしていません。
STATE_STORE_HANDLE_NOT_INITIALIZED
ハンドルは、このStatefulProcessorに対して初期化されていません。
StatefulProcessor は transformWithState 演算子内でのみ使用してください。
STATE_STORE_INCORRECT_NUM_ORDERING_COLS_FOR_RANGE_SCAN
レンジ スキャン エンコーダーの順序付け順序の数 =<numOrderingCols>
が正しくありません。 順序付け順序の数は、0 またはスキーマ列の数より大きくすることはできません。
STATE_STORE_INCORRECT_NUM_PREFIX_COLS_FOR_PREFIX_SCAN
プレフィックス スキャン エンコーダーのプレフィックス列の数=<numPrefixCols>
が正しくありません。 プレフィックス列は、0 または num スキーマ列の num 以上にすることはできません。
STATE_STORE_INVALID_CONFIG_AFTER_RESTART
再起動の間に <configName>
を <oldConfig>
から <newConfig>
に変更することはできません。 <configName>
を <oldConfig>
に設定するか、新しいチェックポイント ディレクトリで再起動してください。
STATE_STORE_INVALID_PROVIDER
指定された状態ストア Provider <inputClass>
は org.apache.spark.sql.execution.ストリーミング.state.StateStoreProvider を拡張しません。
STATE_STORE_INVALID_VARIABLE_TYPE_CHANGE
クエリの再起動間で <stateVarName>
を <newType>
に変更することはできません。 <stateVarName>
を <oldType>
に設定するか、新しいチェックポイント ディレクトリで再起動してください。
STATE_STORE_NULL_TYPE_ORDERING_COLS_NOT_SUPPORTED
name=<fieldName>
が index=<index>
の NULL 型の順序付け列は、範囲スキャン エンコーダーではサポートされていません。
STATE_STORE_PROVIDER_DOES_NOT_SUPPORT_FINE_GRAINED_STATE_REPLAY
指定された状態ストア Provider <inputClass>
は org.apache.spark.sql.execution.ストリーミング.state.SupportsFineGrainedReplay を拡張しません。
したがって、状態データソースではオプション snapshotStartBatchId または readChangeFeed はサポートされていません。
STATE_STORE_STATE_SCHEMA_FILES_THRESHOLD_EXCEEDED
<numStateSchemaFiles>
される状態スキーマ ファイルの数が、このクエリの状態スキーマ ファイルの最大数を超えています。 <maxStateSchemaFiles>
.
追加: <addedColumnFamilies>
、削除: <removedColumnFamilies>
'spark.sql.ストリーミング.stateStore.stateSchemaFilesThreshold'を設定してください をより大きな数値に戻すか、状態スキーマの変更を元に戻す
STATE_STORE_UNSUPPORTED_OPERATION_ON_MISSING_COLUMN_FAMILY
状態ストアの操作=<operationType>
欠落している列ファミリ=<colFamilyName>
ではサポートされていません。
STATE_STORE_VALUE_SCHEMA_EVOLUTION_THRESHOLD_EXCEEDED
状態スキーマ進化の数 <numSchemaEvolutions>
、この列ファミリで許可されている状態スキーマ進化の最大数 <maxSchemaEvolutions>
を超えています。
問題のある列ファミリー: <colFamilyName>
'spark.sql.ストリーミング.stateStore.valueStateSchemaEvolutionThreshold'を設定してください をより大きな数値に戻すか、状態スキーマの変更を元に戻す
STATE_STORE_VARIABLE_SIZE_ORDERING_COLS_NOT_SUPPORTED
name=<fieldName>
at index=<index>
の可変サイズ順序列は、範囲スキャン エンコーダーではサポートされていません。
STATIC_PARTITION_COLUMN_IN_INSERT_COLUMN_LIST
静的パーティション列 <staticName>
も列リストで指定されます。
STDS_COMMITTED_BATCH_UNAVAILABLE
コミットされたバッチが見つかりません。チェックポイントの場所: <checkpointLocation>
. 停止する前に、クエリが実行され、マイクロバッチがコミットされたことを確認します。
STDS_CONFLICT_OPTIONS
<options>
オプションを一緒に指定することはできません。いずれかご指定ください。
STDS_FAILED_TO_READ_OPERATOR_METADATA
checkpointLocation=<checkpointLocation>
および batchId=<batchId>
の演算子メタデータの読み取りに失敗しました。
ファイルが存在しないか、ファイルが破損しています。
ストリーミング クエリを再実行してオペレーターのメタデータを作成し、エラーが続く場合は対応するコミュニティまたはベンダーに報告します。
STDS_FAILED_TO_READ_STATE_SCHEMA
状態スキーマの読み取りに失敗しました。 ファイルが存在しないか、ファイルが破損しています。 オプション: <sourceOptions>
.
ストリーミング クエリを再実行して状態スキーマを構築し、エラーが続く場合は対応するコミュニティまたはベンダーに報告します。
STDS_INVALID_OPTION_VALUE
ソース オプション '<optionName>
' の値が無効です。
詳細については、 STDS_INVALID_OPTION_VALUE
STDS_NO_PARTITION_DISCOVERED_IN_STATE_STORE
ステートにはパーティションがありません。 クエリが有効な状態を指していることを再確認してください。 オプション: <sourceOptions>
STDS_OFFSET_LOG_UNAVAILABLE
<batchId>
のオフセット ログは存在しません。チェックポイント ロケーション: <checkpointLocation>
。
クエリに使用できるバッチIDを指定してください - state metadata データソースを使用して、使用可能なバッチIDをクエリできます。
STDS_OFFSET_METADATA_LOG_UNAVAILABLE
メタデータは、 <batchId>
のオフセット ログ、チェックポイントの場所: <checkpointLocation>
では使用できません。
チェックポイントは、古いSparkバージョンでのみ実行されているようです。 最新の Spark バージョンでストリーミング クエリを実行し、Spark が状態メタデータを構築するようにします。
STDS_REQUIRED_OPTION_UNSPECIFIED
'<optionName>
' を指定する必要があります。
ストリーミング
アダプティブ クエリ実行は、構造化ストリーミングのステートフル演算子ではサポートされていません。
ストリーミング
マテリアライズド ビュー <viewName>
からストリームできません。 具体化されたビューからのストリーミングはサポートされていません。
ストリーミング
無効なストリーミング出力モード: <outputMode>
.
詳細については、「ストリーミング」を参照してください。
ストリーミング
ストリーミング リアルタイム モードには、次の制限があります。
詳細については、「ストリーミング」を参照してください。
ストリーミング
ストリーミング ステートフル オペレーター名が、状態メタデータのオペレーターと一致しません。 これは、ユーザーが既存のストリーミング クエリのステートフル演算子を追加/削除/変更したときに発生する可能性があります。
メタデータ内のステートフル演算子: [<OpsInMetadataSeq>
];現在のバッチのステートフル演算子: [<OpsInCurBatchSeq>
]
ストリーミング
ストリーミング テーブル <tableName>
は、 <operation>
.
テーブルが DBSQL
から作成されている場合は、 REFRESH <st>
を実行してください。
テーブルが DLT のパイプラインによって作成されている場合は、パイプラインの更新を実行してください。
ストリーミング
ストリーミングテーブルは、DLTおよび Databricks SQL ウェアハウスでのみ作成および更新できます。
ストリーミング
操作 <operation>
は許可されていません。
詳細については、「ストリーミング」を参照してください。
ストリーミング
ストリーミング テーブル <tableName>
は、ストリーミング クエリからのみ作成できます。 FROM
句に STREAM
キーワードを追加して、このリレーションをストリーミングクエリに変換してください。
ストリーム
Kinesis ストリーム<streamName>``<region>
見つかりません。
正しいストリーム名を指す新しいクエリを開始してください。
STRUCT_ARRAY_LENGTH_MISMATCH
入力行に、スキーマに必要な予期される数の値がありません。 <expected>
フィールドは必須ですが、 <actual>
値は指定されます。
SUM_OF_LIMIT_AND_OFFSET_EXCEEDS_MAX_INT
LIMIT
句と OFFSET
句の合計は、最大 32 ビット整数値 (2,147,483,647) より大きくてはなりませんが、limit = 1 <limit>
、offset = <offset>
が見つかりました。
SYNC_METADATA_DELTA_ONLY
テーブル同期メタデータの修復コマンドは、デルタ テーブルでのみサポートされています。
SYNC_SRC_TARGET_TBL_NOT_SAME
ソース・テーブル名 <srcTable>
は、ターゲット・テーブル名 <destTable>
と同じである必要があります。
SYNTAX_DISCONTINUED
句またはキーワードのサポート: <clause>
は、このコンテキストでは廃止されました。
詳細については、 SYNTAX_DISCONTINUED
TABLE_OR_VIEW_ALREADY_EXISTS
テーブルまたはビュー <relationName>
はすでに存在するため、作成できません。
別の名前を選択するか、既存のオブジェクトを削除するか、既存のオブジェクトを許容する IF NOT EXISTS
句を追加するか、既存のマテリアライズドビューを置き換える OR REPLACE
句を追加するか、OR REFRESH
句を追加して既存のストリーミングテーブルを更新します。
TABLE_OR_VIEW_NOT_FOUND
テーブルまたはビュー <relationName>
見つかりません。 スキーマとカタログのスペルと正確性を確認します。
スキーマで名前を修飾しなかった場合、current_schema() 出力を確認するか、正しいスキーマとカタログで名前を修飾します。
ドロップ時のエラーを許容するには、 DROP VIEW IF EXISTS
または DROP TABLE IF EXISTS
を使用します。
詳細については、 TABLE_OR_VIEW_NOT_FOUND
TABLE_VALUED_ARGUMENTS_NOT_YET_IMPLEMENTED_FOR_SQL_FUNCTIONS
TABLE
引数を持つ SQL ユーザー定義関数<functionName>
は、この機能がまだ実装されていないため、<action>
できません。
TABLE_VALUED_FUNCTION_FAILED_TO_ANALYZE_IN_PYTHON
Python ユーザー定義テーブル関数の分析に失敗しました: <msg>
TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INCOMPATIBLE_WITH_CALL
テーブル <requestedMetadata>
メタデータが であるため、テーブル関数 の <functionName>
を評価できませんでしたが、関数呼び出し<invalidFunctionCallProperty>
.
TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INVALID
テーブル メタデータが無効だったため、テーブル関数 <functionName>
を評価できませんでした。 <reason>
。
TABLE_VALUED_FUNCTION_TOO_MANY_TABLE_ARGUMENTS
テーブル値関数のテーブル引数が多すぎます。
1つのテーブル引数を使用できますが、次のようになります <num>
。
許可する場合は、「spark.sql.allowMultipleTableArguments.enabled」を「true」に設定してください
TABLE_WITH_ID_NOT_FOUND
ID が <tableId>
のテーブルが見つかりません。 UUIDの正確性を確認します。
タスク
<path>
への行の書き込み中にタスクが失敗しました。
TEMP_TABLE_OR_VIEW_ALREADY_EXISTS
一時ビュー <relationName>
は既に存在するため、作成できません。
別の名前を選択するか、既存のビューを削除または置換するか、既存のビューを許容するために IF NOT EXISTS
句を追加します。
TEMP_VIEW_NAME_TOO_MANY_NAME_PARTS
CREATE TEMPORARY VIEW
または、対応するデータセット APIs シングルパートビュー名のみを受け入れますが、次のようになります<actualName>
。
TRAILING_COMMA_IN_SELECT
SELECT
句で末尾のカンマが検出されました。FROM
句の前の末尾のカンマを削除します。
TRIGGER_INTERVAL_INVALID
トリガー間隔は、秒に変換できる正の持続時間である必要があります。 受信: <actual>
秒。
UC_BUCKETED_TABLES
バケット化されたテーブルは、Unity Catalog ではサポートされていません。
UC_CATALOG_NAME_NOT_PROVIDED
Unity Catalogの場合は、カタログ名を明示的に指定してください。 例: SHOW GRANT your.address@email.com ON CATALOG
メイン。
コマンド
コマンド : <commandName>
は Unity Catalog ではサポートされていません。
詳細については、「 コマンド
コマンド
コマンド:<commandName>
は、サーバレスの Unity Catalog コンピュートではサポートされていません。 代わりに、標準または専用アクセス モードのコンピュート リソースを使用してください。
コマンド
コマンド: <commandName>
は、標準アクセス モード (以前の共有) の Unity Catalog コンピュート リソースではサポートされていません。 代わりに、専用のアクセスモードを使用してください。
UC_CREDENTIAL_PURPOSE_NOT_SUPPORTED
指定された資格情報の種類はサポートされていません。
UC_DATASOURCE_NOT_SUPPORTED
Unity Catalogでは、<dataSourceFormatName>
形式のデータソースはサポートされていません。
UC_DATASOURCE_OPTIONS_NOT_SUPPORTED
データソース オプションは Unity Catalogではサポートされていません。
UC_EXTERNAL_VOLUME_MISSING_LOCATION
LOCATION
句は、外部ボリュームに対して存在する必要があります。 構文 'CREATE EXTERNAL VOLUME
... LOCATION
...' を確認してください。外部ボリュームの作成用。
UC_FAILED_PROVISIONING_STATE
クエリは、テーブル <tableName>
を参照しようとしましたが、参照できなかったため失敗しました。: <failureReason>
. テーブル <tableName>
を更新して [アクティブ] プロビジョニング状態になっていることを確認してから、クエリを再試行してください。
UC_FILE_SCHEME_FOR_TABLE_CREATION_NOT_SUPPORTED
Unity Catalog でファイル スキーム <schemeName>
を使用してテーブルを作成することはサポートされていません。
代わりに、同じテーブル プロバイダーの CREATE CONNECTION
コマンドを使用してフェデレーション データソース接続を作成し、その接続に基づいてカタログを作成し、その中のテーブルを参照する CREATE FOREIGN CATALOG
コマンドを使用してください。
UC_HIVE_METASTORE_FEDERATION_CROSS_CATALOG_VIEW_NOT_SUPPORTED
Hive metastore フェデレーション ビューでは、複数のカタログ間の依存関係はサポートされていません。 フェデレーション カタログのビュー<view>
Hive metastore hive_metastore カタログまたは spark_catalog カタログからの依存関係を使用する必要がありますが、その依存関係<dependency>
は別のカタログ <referencedCatalog>
にあります。 この制約を満たすように依存関係を更新してから、クエリまたはコマンドを再試行してください。
UC_HIVE_METASTORE_FEDERATION_NOT_ENABLED
このクラスターでは、Hive metastoreフェデレーションが有効になっていません。
カタログ <catalogName>
へのアクセスは、このクラスターではサポートされていません
UC_INVALID_DEPENDENCIES
<viewName>
の依存関係は <storedDeps>
として記録され、<parsedDeps>
として解析されます。これは、SQL 以外の API の不適切な使用によって発生した可能性があります。 Databricks Runtime で依存関係を修復するには、 ALTER VIEW <viewName>
AS <viewText>
を実行します。
UC_INVALID_NAMESPACE
入れ子になった名前空間または空の名前空間は、Unity Catalog ではサポートされていません。
UC_INVALID_REFERENCE
Unity-Catalog 以外のオブジェクト オブジェクト <name>
Unity Catalog オブジェクトで参照することはできません。
UC_LAKEHOUSE_FEDERATION_WRITES_NOT_ALLOWED
Unity Catalog レイクハウスフェデレーションの書き込みサポートは、このクラスターのプロバイダー<provider>
では有効になっていません。
UC_LOCATION_FOR_MANAGED_VOLUME_NOT_SUPPORTED
管理ボリュームは LOCATION
句を受け入れません。 構文「CREATE VOLUME
...」を確認してください。管理ボリュームの作成用。
UC_NOT_ENABLED
このクラスターではUnity Catalogが有効になっていません。
UC_QUERY_FEDERATION_NOT_ENABLED
Unity Catalog クエリフェデレーションは、このクラスターでは有効になっていません。
サービス
このクラスターでは、サービスの資格情報は有効になっていません。
UC_VOLUMES_NOT_ENABLED
このインスタンスでは、Unity Catalog Volumes のサポートは有効になっていません。
UC_VOLUMES_SHARING_NOT_ENABLED
このインスタンスでは、ボリューム共有のサポートは有効になっていません。
UC_VOLUME_NOT_FOUND
ボリューム <name>
は存在しません。 「SHOW VOLUMES
」を使用して、使用可能なボリュームを一覧表示してください。
UDF_ENVIRONMENT_ERROR
<udfName>
の UDF 依存関係をインストールできませんでした。
詳細については、 UDF_ENVIRONMENT_ERROR
UDF_ERROR
SQLSTATE: 割り当てられていない
関数 <fn>
の実行に失敗しました
詳細については、 UDF_ERROR
UDF_LIMITS
1 つ以上の UDF 制限に違反しました。
詳細については、 UDF_LIMITS
UDF_MAX_COUNT_EXCEEDED
クエリ全体の UDF 制限である <maxNumUdfs>
UDF を超えました (パブリック プレビュー期間中は制限付き)。 <numUdfs>
見つかりました。UDFは、 <udfNames>
でした。
UDF_PYSPARK_ERROR
Python ワーカーが予期せず終了しました
詳細については、 UDF_PYSPARK_ERROR
UDF_PYSPARK_UNSUPPORTED_TYPE
PySpark UDF <udf> (<eval-type>
) は、標準アクセス モード (以前の共有アクセス モード) のクラスターではサポートされていません。
UDF_PYSPARK_USER_CODE_ERROR
実行に失敗しました。
詳細については、 UDF_PYSPARK_USER_CODE_ERROR
UDF_UNSUPPORTED_PARAMETER_DEFAULT_VALUE
パラメーターのデフォルト値は、ユーザー定義の <functionType>
関数ではサポートされていません。
UDF_USER_CODE_ERROR
関数 <fn>
の実行に失敗しました。
詳細については、 UDF_USER_CODE_ERROR
UDTF_ALIAS_NUMBER_MISMATCH
AS 句で指定されたエイリアスの数が、UDTF によって出力される列の数と一致しません。
エイリアス <aliasesSize>
期待していましたが、 <aliasesNames>
されました。
指定されたエイリアスの数が、UDTF によって出力される列の数と一致していることを確認してください。
UDTF_INVALID_ALIAS_IN_REQUESTED_ORDERING_STRING_FROM_ANALYZE_METHOD
ユーザー定義テーブル関数の 'analyze' メソッドが、列名式に不要なエイリアス <aliasName>
が含まれている要求された OrderingColumn を返したため、ユーザー定義テーブル関数の評価に失敗しました。このエイリアスを削除してから、クエリを再試行してください。
UDTF_INVALID_REQUESTED_SELECTED_EXPRESSION_FROM_ANALYZE_METHOD_REQUIRES_ALIAS
ユーザー定義のテーブル関数の評価に失敗しました。これは、その 'analyze' メソッドが、対応するエイリアスを含まない要求された 'select' 式 (<expression>
) を返したためです。UDTFを更新してエイリアスを指定してから、クエリを再試行してください。
UNABLE_TO_ACQUIRE_MEMORY
<requestedBytes>
バイトのメモリを取得できませんでした。<receivedBytes>
を取得しました。
UNABLE_TO_CONVERT_TO_PROTOBUF_MESSAGE_TYPE
SQL タイプ <toType>
を Protobuf タイプ <protobufType>
に変換できません。
UNABLE_TO_FETCH_HIVE_TABLES
Hive データベースのテーブルをフェッチできません: <dbName>
. エラー クラス名: <className>
.
UNABLE_TO_INFER_SCHEMA
<format>
のスキーマを推測できません。手動で指定する必要があります。
UNAUTHORIZED_ACCESS
不正アクセス:
<report>
UNBOUND_SQL_PARAMETER
バインドされていないパラメーターが見つかりました: <name>
。 args
を修正し、map()
、array()
、struct()
などの SQL リテラルまたはコレクションコンストラクタ関数へのパラメーターのマッピングを提供してください。
UNCLOSED_BRACKETED_COMMENT
括弧で囲まれていないコメントが見つかりました。 コメントの最後に*/を付けてください。
UNEXPECTED_INPUT_TYPE
関数 <functionName>
のパラメーター <paramIndex>
には <requiredType>
型が必要ですが、<inputSql>
型は <inputType>
です。
UNEXPECTED_INPUT_TYPE_OF_NAMED_PARAMETER
function <functionName>
の <namedParamKey>
パラメーターには <requiredType>
型が必要ですが、<inputSql>
の型は <inputType>
です。<hint>
UNEXPECTED_OPERATOR_IN_STREAMING_VIEW
予期しない演算子がストリーミング ソースとして CREATE VIEW
ステートメントに<op>
されています。
ストリーミング ビュー クエリは、 SELECT
、 WHERE
、および UNION ALL
操作のみで構成する必要があります。
UNEXPECTED_POSITIONAL_ARGUMENT
ルーチン <routineName>
を呼び出すことはできません。 <parameterName>
に割り当てられた名前付き引数の後に位置引数が含まれているためです。位置引数が最初に来るように再配置してから、クエリを再試行してください。
UNEXPECTED_SERIALIZER_FOR_CLASS
クラス <className>
に予期しない式シリアライザーがあります。 「STRUCT
」または「IF
」を期待し、「STRUCT
」を返しますが、 <expr>
が見つかりました。
UNKNOWN_FIELD_EXCEPTION
解析中に <changeType>
が検出されました: <unknownFieldBlob>
これは、自動再試行で修正できます。 <isRetryable>
詳細については、 UNKNOWN_FIELD_EXCEPTION
UNKNOWN_POSITIONAL_ARGUMENT
ルーチン <routineName>
の呼び出しには、位置 . <pos>
に不明な位置引数 <sqlExpr>
が含まれています。これは無効です。
UNKNOWN_PRIMITIVE_TYPE_IN_VARIANT
ID が <id>
の不明なプリミティブ型がバリアント値で見つかりました。
UNKNOWN_PROTOBUF_MESSAGE_TYPE
<descriptorName>
をメッセージとして扱おうとしましたが、<containingType>
でした。
UNPIVOT_REQUIRES_ATTRIBUTES
UNPIVOT
<empty>
式が指定されていない場合、指定されたすべての<given>
式を列にする必要があります。これらは列ではありません: [<expressions>
]。
UNPIVOT_REQUIRES_VALUE_COLUMNS
UNPIVOT
には、少なくとも 1 つの値列を指定する必要があります。すべての列は id として指定されます。
UNPIVOT_VALUE_DATA_TYPE_MISMATCH
ピボット解除値の列は、最も一般的でないタイプを共有する必要がありますが、一部のタイプは共有しません: [<types>
]。
UNPIVOT_VALUE_SIZE_MISMATCH
すべてのピボット解除値列は、値列名(<names>
)と同じサイズである必要があります。
UNRECOGNIZED_PARAMETER_NAME
ルーチン呼び出しには、<argumentName>
という名前の引数の名前付き引数参照が含まれていたため、ルーチン <routineName>
を呼び出すことができませんが、このルーチンには、この名前の引数を含むシグネチャは含まれていません。次のいずれかを意味しましたか? [<proposal>
] をクリックします。
UNRECOGNIZED_SQL_TYPE
認識できない SQL タイプ - 名前: <typeName>
、id: <jdbcType>
.
UNRECOGNIZED_STATISTIC
統計 <stats>
が認識されません。 有効な統計には、 count
、 count_distinct
、 approx_count_distinct
、 mean
、 stddev
、 min
、 max
、パーセンタイルの値が含まれます。 パーセンタイルは、0% から 100% の範囲で、数値の後に '%' を付ける必要があります。
UNRESOLVABLE_TABLE_VALUED_FUNCTION
テーブル値関数への <name>
を解決できませんでした。
<name>
がテーブル値関数として定義されていること、およびすべての必須パラメーターが正しく指定されていることを確認してください。
<name>
が定義されていない場合は、テーブル値関数を作成してから使用してください。
テーブル値関数の定義の詳細については、 Apache Spark のドキュメントを参照してください。
UNRESOLVED_ALL_IN_GROUP_BY
select 句に基づいて GROUP BY ALL
のグループ化列を推論することはできません。 グループ化列を明示的に指定してください。
UNRESOLVED_COLUMN
名前が <objectName>
の列、変数、または関数パラメーターは解決できません。
詳細については、 UNRESOLVED_COLUMN
UNRESOLVED_FIELD
名前が <fieldName>
のフィールドは、struct-type 列 <columnPath>
では解決できません。
詳細については、UNRESOLVED_FIELDを参照してください
UNRESOLVED_MAP_KEY
列 <objectName>
をマップ・キーとして解決できません。 キーが文字列リテラルの場合は、一重引用符 '' で囲みます。
詳細については、 UNRESOLVED_MAP_KEY
UNRESOLVED_ROUTINE
検索パス のルーチン <routineName>
を解決できません <searchPath>
。
<routineName>
のスペルを確認し、ルーチンが存在することを確認し、カタログとスキーマに対する特権を持っていること、およびルーチンUSE``EXECUTE
していることを確認します。
詳細については、 UNRESOLVED_ROUTINE
UNRESOLVED_USING_COLUMN_FOR_JOIN
USING
列 <colName>
は、結合の <side>
側では解決できません。 <side>
側の列:[<suggestion>
]。
UNRESOLVED_VARIABLE
検索パス の変数<variableName>
を解決できません <searchPath>
UNSTRUCTURED_DATA_PROCESSING_UNSUPPORTED_FILE_FORMAT
非構造化ファイル形式の <format>
はサポートされていません。 サポートされているファイル形式は <supportedFormats>
です。
format
を<expr>
式からサポートされている形式のいずれかに更新してから、クエリを再試行してください。
UNSTRUCTURED_DATA_PROCESSING_UNSUPPORTED_MODEL
非構造化モデル <model>
はサポートされていません。 サポートされているモデルは <supportedModels>
です。
サポートされているモデルのいずれかに切り替えてから、クエリを再試行してください。
UNSTRUCTURED_OCR_COLUMN_NOT_ALLOWED_WITH_METADATA_MODEL_OPTION
function パラメーター 'ocrText' は、'metadataModel' オプションを指定する場合は NULL
または省略する必要があります。 指定された 'metadataModel' オプションは、指定された 'ocrText' が禁止されているメタデータ抽出をトリガーします。
UNSUPPORTED_ADD_FILE
ファイルの追加をサポートしていません。
詳細については、「 UNSUPPORTED_ADD_FILE
UNSUPPORTED_ALTER_COLUMN_PARAMETER
ALTER <commandTableType>
での<parameter>
の指定はサポートされていません。
UNSUPPORTED_ARROWTYPE
サポートされていない矢印タイプ <typeName>
.
UNSUPPORTED_BATCH_TABLE_VALUED_FUNCTION
関数 <funcName>
はバッチ問合せをサポートしていません。
UNSUPPORTED_CALL
クラス "<className>
" のメソッド "<methodName>
" を呼び出すことはできません。
詳細については、 UNSUPPORTED_CALL
UNSUPPORTED_CHAR_OR_VARCHAR_AS_STRING
char/varchar 型は、テーブル スキーマでは使用できません。
Spark 3.0以前と同様にSparkで文字列型として扱う場合は、「spark.sql.legacy.charVarcharAsString」を「true」に設定してください。
UNSUPPORTED_CLAUSE_FOR_OPERATION
<clause>
は <operation>
ではサポートされていません。
UNSUPPORTED_COLLATION
照合 <collationName>
は、次の場合にはサポートされていません。
詳細については、 UNSUPPORTED_COLLATION
UNSUPPORTED_COMMON_ANCESTOR_LOC_FOR_FILE_STREAM_SOURCE
ソース・パスとsourceArchiveDirの共通の祖先は、UCに登録する必要があります。
このエラー メッセージが表示される場合は、ソース パスと sourceArchiveDir を別の外部ロケーションに登録している可能性があります。
それらを単一の外部ロケーションに入れてください。
UNSUPPORTED_CONSTRAINT_CLAUSES
制約句 <clauses>
はサポートされていません。
UNSUPPORTED_CONSTRAINT_TYPE
サポートされていない制約タイプです。 <supportedConstraintTypes>
のみがサポートされています
UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY
ファイルに対する直接クエリでサポートされていないデータソースの種類: <dataSourceType>
UNSUPPORTED_DATATYPE
サポートされていないデータ型 <typeName>
.
UNSUPPORTED_DATA_SOURCE_SAVE_MODE
<createMode>
モードでは、データソース「<source>
」を書き込むことはできません。代わりに「追加」モードまたは「上書き」モードを使用してください。
UNSUPPORTED_DATA_TYPE_FOR_DATASOURCE
<format>
データソースは、タイプ <columnType>
の列<columnName>
をサポートしていません。
UNSUPPORTED_DATA_TYPE_FOR_ENCODER
<dataType>
のエンコーダーを作成できません。UDF または DataFrame には、別の出力データ型を使用してください。
UNSUPPORTED_DEFAULT_VALUE
DEFAULT
列の値はサポートされていません。
詳細については、 UNSUPPORTED_DEFAULT_VALUE
UNSUPPORTED_DESERIALIZER
デシリアライザーはサポートされていません。
詳細については、 UNSUPPORTED_DESERIALIZER
UNSUPPORTED_EXPRESSION_GENERATED_COLUMN
生成式 <expressionStr>
で生成列<fieldName>
を作成できません。これは<reason>
.
UNSUPPORTED_EXPR_FOR_OPERATOR
クエリ演算子に、サポートされていない式が 1 つ以上含まれています。
WHERE
句でウィンドウ関数、集計関数、ジェネレータ関数を避けるために書き直すことを検討してください。
無効な式: [<invalidExprSqls>
]
UNSUPPORTED_EXPR_FOR_PARAMETER
クエリ パラメーターにサポートされていない式が含まれています。
パラメーターは、変数またはリテラルのいずれかです。
無効な式: [<invalidExprSql>
]
UNSUPPORTED_EXPR_FOR_WINDOW
式 <sqlExpr>
ウィンドウ関数内ではサポートされていません。
UNSUPPORTED_FEATURE
この機能は、次の場合はサポートされていません。
詳細については、「 UNSUPPORTED_FEATURE
UNSUPPORTED_FN_TYPE
サポートされていないユーザー定義関数タイプ: <language>
UNSUPPORTED_GENERATOR
ジェネレータはサポートされていません。
詳細については、 UNSUPPORTED_GENERATOR
UNSUPPORTED_GROUPING_EXPRESSION
grouping()/grouping_id() は GroupingSets/Cube/Rollup でのみ使用できます。
UNSUPPORTED_INITIAL_POSITION_AND_TRIGGER_PAIR_FOR_KINESIS_SOURCE
<trigger>
初期位置が <initialPosition>
の場合は、Kinesis ソースではサポートされていません
UNSUPPORTED_INSERT
ターゲットに挿入できません。
詳細については、UNSUPPORTED_INSERTを参照してください。
UNSUPPORTED_JOIN_TYPE
サポートされていない結合の種類 '<typ>
'。 サポートされている結合タイプは次のとおりです。 <supported>
。
UNSUPPORTED_MANAGED_TABLE_CREATION
データソース<dataSource>
を使用したマネージドテーブル<tableName>
の作成はサポートされていません。データソース DELTA
を使用するか、 CREATE EXTERNAL TABLE <tableName>
... USING <dataSource>
...
UNSUPPORTED_MERGE_CONDITION
MERGE
操作にサポートされていない <condName>
条件が含まれています。
詳細については、「 UNSUPPORTED_MERGE_CONDITION
UNSUPPORTED_NESTED_ROW_OR_COLUMN_ACCESS_POLICY
テーブル <tableName>
には、行レベルのセキュリティ・ポリシーまたはカラム・マスクを持つ別のテーブルを間接的に参照する行レベルのセキュリティ・ポリシーまたはカラム・マスクがあります。これはサポートされていません。 呼び出しシーケンス: <callSequence>
UNSUPPORTED_OVERWRITE
読み取り元のターゲットを上書きすることはできません。
詳細については、 UNSUPPORTED_OVERWRITE
UNSUPPORTED_PARTITION_TRANSFORM
サポートされていないパーティション変換: <transform>
. サポートされている変換は、 identity
、 bucket
、および clusterBy
です。 トランスフォーム式でこれらのいずれかが使用されていることを確認します。
UNSUPPORTED_SAVE_MODE
保管モード <saveMode>
は、次の場合にはサポートされていません。
詳細については、 UNSUPPORTED_SAVE_MODE
UNSUPPORTED_SHOW_CREATE_TABLE
SHOW CREATE TABLE
コマンドがサポートされていません。
詳細については、 UNSUPPORTED_SHOW_CREATE_TABLE
UNSUPPORTED_SINGLE_PASS_ANALYZER_FEATURE
シングルパス アナライザーは、 <feature>
をまだサポートしていないため、このクエリまたはコマンドを処理できません。
UNSUPPORTED_STREAMING_OPERATOR_WITHOUT_WATERMARK
<outputMode>
出力モードは、ウォーターマークのないストリーミング / データセットの<statefulOperator>
ではサポートされていません DataFrames
UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW
ビューのストリーミングはサポートされていません。 理由:
詳細については、 UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW
UNSUPPORTED_STREAMING_OPTIONS_PERMISSION_ENFORCED
ストリーミング オプション <options>
は、標準アクセス モード クラスター (以前の共有) のデータソース <source>
ではサポートされていません。 オプションが指定され、スペルが正しいことを確認し、制限がないか https://docs.databricks.com/en/compute/access-mode-limitations.html#streaming-limitations-and-requirements-for-unity-catalog-shared-access-mode を確認してください。
UNSUPPORTED_STREAMING_SINK_PERMISSION_ENFORCED
データソース <sink>
は、標準アクセス モード クラスター (以前の共有) のストリーミング シンクとしてはサポートされていません。
UNSUPPORTED_STREAMING_SOURCE_PERMISSION_ENFORCED
データソース <source>
は、標準アクセスモードのクラスター (以前の共有) のストリーミング ソースとしてはサポートされていません。
UNSUPPORTED_STREAMING_TABLE_VALUED_FUNCTION
機能 <funcName>
はストリーミングをサポートしていません。 STREAM
キーワードを削除してください
UNSUPPORTED_STREAM_READ_LIMIT_FOR_KINESIS_SOURCE
<streamReadLimit>
Kinesis ソースではサポートされていません
UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY
サポートされていないサブクエリ式:
詳細については、 UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY
UNSUPPORTED_TIMESERIES_COLUMNS
時系列列を使用したプライマリ・キーの作成はサポートされていません
UNSUPPORTED_TIMESERIES_WITH_MORE_THAN_ONE_COLUMN
複数の時系列カラム <colSeq>
を持つプライマリキーの作成はサポートされていません
UNSUPPORTED_TRIGGER_FOR_KINESIS_SOURCE
<trigger>
Kinesis ソースではサポートされていません
UNSUPPORTED_TYPED_LITERAL
<unsupportedType>
型のリテラルはサポートされていません。サポートされているタイプは <supportedTypes>
です。
UNSUPPORTED_UDF_FEATURE
この関数 <function>
では、新しいバージョンの Databricks ランタイムを必要とする次の機能を使用します。 <features>
. 詳しくは <docLink>
にご相談ください。
UNSUPPORTED_UDF_TYPES_IN_SAME_PLACE
UDF タイプを一緒に使用することはできません。 <types>
UNTYPED_SCALA_UDF
入力タイプ情報がない型指定されていない Scala UDF を使用しています。
Spark は、プリミティブ型の引数を使用して Scala クロージャに盲目的に null を渡す場合があり、クロージャは null 引数の Java 型のデフォルト値を参照します。 udf((x: Int) => x, IntegerType)
、null 入力の場合、結果は 0 です。 このエラーを解決するには、次の方法があります。
- 型指定された Scala UDF APIs(戻り値の型パラメーターなし)を使用します。
udf((x: Int) => x)
。 - Java UDF APIsを使用します。
udf(new UDF1[String, Integer] { override def call(s: String): Integer = s.length() }, IntegerType)
、入力タイプがすべて非プリミティブの場合。 - "spark.sql.legacy.allowUntypedScalaUDF" を "true" に設定し、この API は注意して使用してください。
UPGRADE_NOT_SUPPORTED
テーブルは Hive metastore から Unity Catalogへのアップグレードの対象外です。 理由:
詳細については、 UPGRADE_NOT_SUPPORTED
USER_DEFINED_FUNCTIONS
ユーザー定義関数が無効です:
詳細については、 USER_DEFINED_FUNCTIONS
USER_RAISED_EXCEPTION
<errorMessage>
USER_RAISED_EXCEPTION_PARAMETER_MISMATCH
raise_error()
関数は、エラークラス<errorClass>
、パラメーターを期待する<expectedParms>
を発生させるために使用されました。
指定されたパラメーターは、予期されるパラメーターと一致しません <providedParms>
。
必要なパラメーターをすべて指定してください。
USER_RAISED_EXCEPTION_UNKNOWN_ERROR_CLASS
raise_error()
関数は、不明なエラークラスを発生させるために使用されました。 <errorClass>
VARIABLE_ALREADY_EXISTS
変数 <variableName>
は既に存在するため、作成できません。
別の名前を選択するか、既存の変数を削除または置き換えます。
VARIABLE_NOT_FOUND
変数 <variableName>
が見つかりません。 スキーマとカタログのスペルと正確性を確認します。
スキーマとカタログで名前を修飾しなかった場合、current_schema() 出力を確認するか、正しいスキーマとカタログで名前を修飾します。
ドロップ時のエラーを許容するには、 DROP VARIABLE IF EXISTS
.
VARIANT_CONSTRUCTOR_SIZE_LIMIT
16 MiB を超えるバリアントは作成できません。 バリアント値の最大許容サイズは 16 MiB です。
VARIANT_DUPLICATE_KEY
オブジェクト キー が重複しているため、バリアントをビルドできませんでした <key>
.
VARIANT_SIZE_LIMIT
<functionName>
で <sizeLimit>
より大きいバリアントをビルドできません。
この式への大きな入力文字列は避けてください (たとえば、関数呼び出しを追加して式のサイズを確認し、大きすぎる場合は最初に NULL
1 に変換します)。
VIEW_ALREADY_EXISTS
ビュー <relationName>
は既に存在するため、作成できません。
別の名前を選択するか、既存のオブジェクトを削除または置換するか、既存のオブジェクトを許容する IF NOT EXISTS
句を追加します。
VIEW_EXCEED_MAX_NESTED_DEPTH
<viewName>
のビューの深さが最大ビュー解像度の深さ(<maxNestedDepth>
)を超えています。
エラーを避けるために解析は中止されます。 これを回避したい場合は、「spark.sql.view.maxNestedViewDepth」の値を増やしてみてください。
VIEW_NOT_FOUND
ビュー <relationName>
見つかりません。 スキーマとカタログのスペルと正確性を確認します。
スキーマで名前を修飾しなかった場合、current_schema() 出力を確認するか、正しいスキーマとカタログで名前を修飾します。
ドロップ時のエラーを許容するには、 DROP VIEW IF EXISTS
.
VOLUME_ALREADY_EXISTS
ボリューム <relationName>
は既に存在するため、作成できません。
別の名前を選択するか、既存のオブジェクトを削除または置換するか、既存のオブジェクトを許容する IF NOT EXISTS
句を追加します。
WINDOW_FUNCTION_AND_FRAME_MISMATCH
<funcName>
function は、1 つのオフセット ( <windowExpr>
) を持つ順序付けられた行ベースのウィンドウ フレームでのみ評価できます。
WINDOW_FUNCTION_WITHOUT_OVER_CLAUSE
ウィンドウ関数 <funcName>
には OVER 句が必要です。
WITH_CREDENTIAL
WITH CREDENTIAL
構文は <type>
ではサポートされていません。
WRITE_STREAM_NOT_ALLOWED
writeStream
は、ストリーミング データセット/DataFrameでのみ呼び出すことができます。
WRONG_COLUMN_DEFAULTS_FOR_DELTA_ALTER_TABLE_ADD_COLUMN_NOT_SUPPORTED
新しいDEFAULT
列を以前に存在していた Delta テーブルに格納します。デフォルトなしで列を追加してください
最初に値を設定し、次に 2 番目の ALTER TABLE ALTER COLUMN SET DEFAULT
コマンドを実行して適用します
代わりに、将来挿入される行に使用します。
WRONG_COLUMN_DEFAULTS_FOR_DELTA_FEATURE_NOT_ENABLED
<commandType>
コマンドが列DEFAULT
値を割り当てたため、コマンドの実行に失敗しました。
しかし、対応するテーブル機能が有効になっていませんでした。 コマンドを再試行してください
tableName の実行後ALTER TABLE
SET
TBLPROPERTIES
('delta.feature.allowColumnDefaults' = 'supported') です。
WRONG_COMMAND_FOR_OBJECT_TYPE
操作 <operation>
には <requiredType>
が必要です。 しかし、 <objectName>
は <foundType>
です。 代わりに <alternative>
を使用してください。
WRONG_NUM_ARGS
<functionName>
には <expectedNum>
パラメーターが必要ですが、実際の数は <actualNum>
です。
詳細については、 WRONG_NUM_ARGS
XML_ROW_TAG_MISSING
<rowTag>
オプションは、XML 形式のファイルを読み取るために必要です。
XML_UNSUPPORTED_NESTED_TYPES
XML では、<dataType>
の内部タイプとして <innerDataType>
はサポートされていません。<dataType>
内で<innerDataType>
を使用する場合は、StructTypeフィールドで囲んでください。
XML_WILDCARD_RESCUED_DATA_CONFLICT_ERROR
レスキューされたデータとワイルドカード列を同時に有効にすることはできません。 wildcardColumnName オプションを削除します。
ZORDERBY_COLUMN_DOES_NOT_EXIST
ZOrderBy 列 <columnName>
が存在しません。
Delta Lake
DELTA_ACTIVE_SPARK_SESSION_NOT_FOUND
アクティブな SparkSession が見つかりませんでした
DELTA_ACTIVE_TRANSACTION_ALREADY_SET
新しいtxnがすでにアクティブになっている場合は、アクティブとして設定できません
DELTA_ADDING_COLUMN_WITH_INTERNAL_NAME_FAILED
名前が予約されているため、列 <colName>
を追加できませんでした。
DELTA_ADDING_DELETION_VECTORS_DISALLOWED
現在の操作で、新しい削除ベクトルの作成が許可されていないテーブルに削除ベクトルを追加しようとしました。 バグレポートを提出してください。
DELTA_ADDING_DELETION_VECTORS_WITH_TIGHT_BOUNDS_DISALLOWED
削除ベクトルを追加するすべての操作では、統計の tightBounds 列を false に設定する必要があります。 バグレポートを提出してください。
DELTA_ADD_COLUMN_AT_INDEX_LESS_THAN_ZERO
列<columnName>
を追加するインデックス<columnIndex>
が 0 より小さい
DELTA_ADD_COLUMN_PARENT_NOT_STRUCT
<columnName>
は、親が StructType ではないため、追加できません。設立する <other>
DELTA_ADD_COLUMN_STRUCT_NOT_FOUND
構造体が位置に見つかりません <position>
DELTA_ADD_CONSTRAINTS
CHECK
制約を追加するにはALTER TABLE
ADD CONSTRAINT
を使用してください。
DELTA_AGGREGATE_IN_GENERATED_COLUMN
<sqlExpr>
見つかりました。生成された列では、集計式を使用できません
DELTA_AGGREGATION_NOT_SUPPORTED
集計関数は <operation> <predicate>
ではサポートされていません。
DELTA_ALTER_COLLATION_NOT_SUPPORTED_BLOOM_FILTER
列 <column>
の照合順序を変更できませんでした。これは、ブルーム フィルター インデックスがあるためです。 既存の照合順序を保持するか、ブルーム フィルタ インデックスを削除してから、コマンドを再試行して照合順序を変更してください。
DELTA_ALTER_COLLATION_NOT_SUPPORTED_CLUSTER_BY
列 <column>
の照合順序を変更できませんでした。これは、クラスタリング列であるためです。 既存の照合を保持するか、 ALTER TABLE
コマンドを使用してカラムを非クラスタリングカラムに変更し、コマンドを再試行して照合を変更してください。
DELTA_ALTER_TABLE_CHANGE_COL_NOT_SUPPORTED
ALTER TABLE CHANGE COLUMN
は、列 <currentType>
の変更はサポートされていません。 <newType>
DELTA_ALTER_TABLE_CLUSTER_BY_NOT_ALLOWED
ALTER TABLE CLUSTER BY
は Delta リキッドクラスタリングのあるテーブルでのみサポートされています。
DELTA_ALTER_TABLE_CLUSTER_BY_ON_PARTITIONED_TABLE_NOT_ALLOWED
ALTER TABLE CLUSTER BY
パーティション・テーブルには適用できません。
DELTA_ALTER_TABLE_RENAME_NOT_ALLOWED
操作は許可されていません: S3 上の最終的な整合性によって Delta トランザクション ログが破損する可能性があるため、S3 上のマネージド Delta テーブルでは ALTER TABLE RENAME
TO は許可されません。 そうすることを主張し、新しい名前の <newName>
Delta テーブルが以前に存在したことがないことが確実な場合は、 <key>
を true に設定することでこれを有効にすることができます。
DELTA_ALTER_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED
ALTER TABLE SET TBLPROPERTIES
を使用して<tableFeature>
テーブル機能を有効にすることはできません。CREATE
OR REPLACE TABLE CLUSTER BY
を使用して、クラスタリングを含む Delta テーブルを作成してください。
DELTA_AMBIGUOUS_DATA_TYPE_CHANGE
<column>
のデータ型を <from>
から <to>
に変更することはできません。この変更には列の削除と追加が含まれているため、あいまいです。 これらの変更は、 ALTER TABLE
[ADD | DROP | RENAME
] COLUMN
を使用して個別に行ってください。
DELTA_AMBIGUOUS_PARTITION_COLUMN
あいまいなパーティション列 <column>
は <colMatches>
できます。
DELTA_AMBIGUOUS_PATHS_IN_CREATE_TABLE
CREATE TABLE
には、 <identifier>
と <location>
の 2 つの異なる場所が含まれています。
CREATE TABLE
ステートメントから LOCATION
句を削除するか、
<config>
このチェックをスキップするには、true に設定します。
DELTA_ARCHIVED_FILES_IN_LIMIT
表 <table>
には、指定された<limit>
レコードのLIMIT
を満たすのに十分なアーカイブされていないファイルのレコードが含まれていません。
DELTA_ARCHIVED_FILES_IN_SCAN
このクエリの一部としてスキャンする必要がある <numArchivedFiles>
、テーブル <table>
にアーカイブされている可能性のあるファイルが見つかりました。
アーカイブされたファイルにはアクセスできません。 アーカイブまでの現在時刻は <archivalTime>
として構成されています。
クエリ フィルタを調整して、アーカイブされたファイルを除外してください。
DELTA_BLOCK_COLUMN_MAPPING_AND_CDC_OPERATION
オペレーション "<opName>
" は、テーブルがチェンジデータフィード (CDF) を有効にし、 DROP COLUMN
または RENAME COLUMN
を使用してスキーマを変更した場合は使用できません。
DELTA_BLOOM_FILTER_DROP_ON_NON_EXISTING_COLUMNS
次の存在しない列のブルームフィルターインデックスを削除できません: <unknownColumns>
DELTA_BLOOM_FILTER_OOM_ON_WRITE
次の列のブルームフィルターインデックスの書き込み中にOutOfMemoryErrorが発生しました <columnsWithBloomFilterIndices>
。
ブルームフィルタインデックスのメモリフットプリントを減らすには、'numItems' オプションに小さい値を選択し、'fpp' オプションに大きい値を選択するか、インデックスを作成する列を減らします。
DELTA_CANNOT_CHANGE_DATA_TYPE
データ型を変更できません: <dataType>
DELTA_CANNOT_CHANGE_LOCATION
Delta テーブルの '場所' を SET TBLPROPERTIES
を使用して変更することはできません。 代わりに ALTER TABLE SET LOCATION
をご利用ください。
DELTA_CANNOT_CHANGE_PROVIDER
'provider' は予約済みのテーブル プロパティであり、変更することはできません。
DELTA_CANNOT_CREATE_BLOOM_FILTER_NON_EXISTING_COL
次の存在しない列のブルームフィルターインデックスを作成できません。 <unknownCols>
DELTA_CANNOT_CREATE_LOG_PATH
作成できません <path>
DELTA_CANNOT_DESCRIBE_VIEW_HISTORY
ビューの履歴を説明できません。
DELTA_CANNOT_DROP_BLOOM_FILTER_ON_NON_INDEXED_COLUMN
インデックスが作成されていない列にブルーム フィルター インデックスを削除できません。 <columnName>
DELTA_CANNOT_DROP_CHECK_CONSTRAINT_FEATURE
CHECK
制約テーブル機能を削除できません。
最初に削除する必要がある制約は、 <constraints>
です。
DELTA_CANNOT_DROP_COLLATIONS_FEATURE
照合テーブル機能を削除できません。
デフォルト以外の照合順序を持つ列は、最初に UTF8_BINARY を使用するように変更する必要があります ( <colNames>
)。
DELTA_CANNOT_EVALUATE_EXPRESSION
式を評価できません: <expression>
DELTA_CANNOT_FIND_BUCKET_SPEC
バケット化 Delta テーブルが必要ですが、テーブルにバケット仕様が見つかりません
DELTA_CANNOT_GENERATE_CODE_FOR_EXPRESSION
式のコードを生成できません: <expression>
DELTA_CANNOT_MODIFY_APPEND_ONLY
このテーブルは、追加のみを許可するように設定されています。 更新または削除を許可する場合は、'ALTER TABLE
<table_name> SET TBLPROPERTIES (<config>
=false)' を使用してください。
DELTA_CANNOT_MODIFY_COORDINATED_COMMITS_DEPENDENCIES
<Command>
このテーブルでは Coordinated コミットが有効になっており、それらに依存しているため、In-commit Timestamp テーブルのプロパティをオーバーライドまたは設定解除することはできません。 それらを削除してください("delta.enableInCommitTimestamps"、 "delta.inCommitTimestampEnablementVersion"、 "delta.inCommitTimestampEnablementTimestamp") を TBLPROPERTIES
句から実行し、コマンドを再試行します。
DELTA_CANNOT_MODIFY_TABLE_PROPERTY
Delta テーブル構成 <prop>
はユーザーが指定できません
DELTA_CANNOT_OVERRIDE_COORDINATED_COMMITS_CONFS
<Command>
既存のターゲット・テーブルの整合されたコミット設定をオーバーライドすることはできません。 それら ("delta.coordinatedCommits.commitCoordinator-preview"、"delta.coordinatedCommits.commitCoordinatorConf-preview"、"delta.coordinatedCommits.tableConf-preview") を TBLPROPERTIES
句から削除してから、コマンドを再試行してください。
DELTA_CANNOT_RECONSTRUCT_PATH_FROM_URI
相対パスに変換できない uri (<uri>
) がトランザクション ログで見つかりました。
DELTA_CANNOT_RELATIVIZE_PATH
パス (<path>
) は、
トランザクション・ログ。 これを次のように再実行してください。
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog("<userPath>
", true)
次に、次のコマンドも実行します。
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog("<path>
")
DELTA_CANNOT_RENAME_PATH
<currentPath>
の名前を に変更できません <newPath>
DELTA_CANNOT_REPLACE_MISSING_TABLE
テーブル <tableName>
は存在しないため、置き換えることはできません。 CREATE
OR REPLACE TABLE
を使用してテーブルを作成します。
DELTA_CANNOT_RESOLVE_COLUMN
列 <columnName>
を解決できません <schema>
DELTA_CANNOT_RESTORE_TABLE_VERSION
テーブルをバージョン <version>
に復元できません。 利用可能なバージョン: [<startVersion>
, <endVersion>
]。
DELTA_CANNOT_RESTORE_TIMESTAMP_EARLIER
テーブルをタイムスタンプ (<requestedTimestamp>
) に復元することはできません。これは、使用可能な最も古いバージョンより前の状態であるためです。 タイムスタンプは(<earliestTimestamp>
)の後に使用してください。
DELTA_CANNOT_RESTORE_TIMESTAMP_GREATER
テーブルをタイムスタンプ (<requestedTimestamp>
) に復元することはできません。これは、利用可能な最新バージョンより後のためです。 (<latestTimestamp>
) の前にタイムスタンプを使用してください
DELTA_CANNOT_SET_COORDINATED_COMMITS_DEPENDENCIES
<Command>
コミット内タイムスタンプ テーブルのプロパティを coordinated コミットと共に設定することはできません。これは、後者が前者に依存し、前者を内部的に設定するためです。 それらを削除してください("delta.enableInCommitTimestamps"、 "delta.inCommitTimestampEnablementVersion"、 "delta.inCommitTimestampEnablementTimestamp") を TBLPROPERTIES
句から実行し、コマンドを再試行します。
DELTA_CANNOT_SET_LOCATION_ON_PATH_IDENTIFIER
パス・ベースのテーブルの場所は変更できません。
DELTA_CANNOT_SET_MANAGED_STATS_COLUMNS_PROPERTY
非 DLT テーブルに delta.managedDataSkippingStatsColumns を設定できません
DELTA_CANNOT_SET_UC_COMMIT_COORDINATOR_CONF_IN_COMMAND
コミットコーディネーターとして 'unity-catalog' を有効にすると、コマンドから設定 "<configuration>
" を設定できません。 TBLPROPERTIES
句から削除してから、コマンドを再試行してください。
DELTA_CANNOT_SET_UC_COMMIT_COORDINATOR_CONF_IN_SESSION
コミットコーディネーターとして 'unity-catalog' を有効にすると、SparkSession 設定から設定 "<configuration>
" を設定できません。 spark.conf.unset("<configuration>")
を実行して設定を解除し、コマンドを再試行してください。
DELTA_CANNOT_UNSET_COORDINATED_COMMITS_CONFS
ALTER
調整されたコミット構成の設定を解除することはできません。 調整されたコミットからテーブルをダウングレードするには、 TABLE[table-name]
DROP FEATURE‘coordinatedCommits-preview’
を使用して再試行ALTER
DELTA_CANNOT_UPDATE_ARRAY_FIELD
%1$s フィールドを更新できません %2$s タイプ: %2$s.element を更新して要素を更新してください。
DELTA_CANNOT_UPDATE_MAP_FIELD
%1$s フィールドを更新できません %2$s タイプ: %2$s.key または %2$s.value を更新してマップを更新してください。
DELTA_CANNOT_UPDATE_OTHER_FIELD
<tableName>
タイプのフィールドを更新できません <typeName>
DELTA_CANNOT_UPDATE_STRUCT_FIELD
<tableName>
フィールドを更新できません <fieldName>
タイプ: フィールドを追加、削除、または更新して構造体を更新します
DELTA_CANNOT_USE_ALL_COLUMNS_FOR_PARTITION
パーティション列にすべての列を使用することはできません
DELTA_CANNOT_VACUUM_LITE
VACUUM
LITE は、一部のファイルが Delta ログによって参照されていないため、すべての対象ファイルを削除できるわけではありません。 VACUUM FULL
実行してください。
DELTA_CANNOT_WRITE_INTO_VIEW
<table>
ビューです。 ビューへの書き込みはサポートされていません。
DELTA_CAST_OVERFLOW_IN_TABLE_WRITE
オーバーフローのため<sourceType>``<targetType>
タイプの列<columnName>
に値を書き込めませんでした。
入力値に try_cast
を使用してオーバーフローを許容し、代わりに NULL
を返します。
必要に応じて、<storeAssignmentPolicyFlag>
を「LEGACY
」に設定してこのエラーを回避するか、 <updateAndMergeCastingFollowsAnsiEnabledFlag>
を true に設定して古い動作に戻し、UPDATE
と MERGE
の<ansiEnabledFlag>
に従います。
DELTA_CDC_NOT_ALLOWED_IN_THIS_VERSION
設定 delta.enableChangeDataFeed 設定できません。 Deltaからのチェンジデータフィードはまだ利用できません。
DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_DATA_SCHEMA
バージョン <start>
と <end>
の間のテーブル変更の取得は、互換性のないデータ スキーマのために失敗しました。
読み取りスキーマはバージョン <readVersion>
で<readSchema>
されていますが、バージョン <incompatibleVersion>
で互換性のないデータ スキーマが見つかりました。
可能であれば、 <config>
を endVersion
に設定してエンド バージョンのスキーマを使用してテーブルの変更を取得するか、サポートにお問い合わせください。
DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_SCHEMA_CHANGE
バージョン <start>
と <end>
の間のテーブル変更の取得は、互換性のないスキーマ変更のために失敗しました。
読み取りスキーマはバージョン <readVersion>
で<readSchema>
されていますが、バージョン <incompatibleVersion>
で互換性のないスキーマの変更が見つかりました。
可能であれば、バージョン <start>
から <incompatibleVersion>
- 1 へ、およびバージョン <incompatibleVersion>
から <end>
へのテーブルの変更を個別にクエリを実行してください。
DELTA_CHANGE_DATA_FILE_NOT_FOUND
トランザクション・ログで参照されているファイル・ <filePath>
が見つかりません。 これは、データが table DELETE
ステートメントを使用せずにファイル・システムから手動で削除された場合に発生する可能性があります。 このリクエストはチェンジデータフィードを対象としているように見えますが、その場合、変更データファイルが保持期間を過ぎ、 VACUUM
ステートメントによって削除された場合にこのエラーが発生する可能性があります。 詳細については、以下を参照してください。 <faqPath>
DELTA_CHANGE_TABLE_FEED_DISABLED
delta.enableChangeDataFeed を使用してテーブルに書き込むことはできません セット。 Deltaからのチェンジデータフィードはご利用いただけません。
DELTA_CHECKPOINT_NON_EXIST_TABLE
存在しないテーブル <path>
をチェックポイントできません。 _delta_logディレクトリ内のファイルを手動で削除しましたか?
DELTA_CLONE_AMBIGUOUS_TARGET
CLONE
ターゲットとして 2 つのパスが提供されているため、どちらを使用するかはあいまいです。外部の
CLONE
の位置は、パスと同時に<externalLocation>
で提供されました
<targetIdentifier>
.
DELTA_CLONE_INCOMPLETE_FILE_COPY
ファイル (<fileName>
) は完全にはコピーされていません。 予想されるファイル サイズ: <expectedSize>
、見つかりました: <actualSize>
。 ファイル・サイズのチェックを無視して操作を続行するには、 <config>
を false に設定します。
DELTA_CLONE_UNSUPPORTED_SOURCE
サポートされていない <mode>
クローン ソース '<name>
' (形式は <format>
です。
サポートされている形式は、「delta」、「iceberg」、「Parquet」です。
DELTA_CLUSTERING_CLONE_TABLE_NOT_SUPPORTED
CLONE
は Delta DBR バージョン < 14.0 のリキッドクラスタリングを使用したテーブルではサポートされていません。
DELTA_CLUSTERING_COLUMNS_DATATYPE_NOT_SUPPORTED
CLUSTER BY
は、次の列はサポートされていません: <columnsWithDataTypes>
はデータのスキップをサポートしていません。
DELTA_CLUSTERING_COLUMNS_MISMATCH
指定されたクラスタリング列が既存のテーブルの列と一致しません。
- 提供:
<providedClusteringColumns>
- 現有:
<existingClusteringColumns>
DELTA_CLUSTERING_COLUMN_MISSING_STATS
リキッドクラスタリングでは、統計を持つためにクラスタリング列が必要です。 統計スキーマでクラスタリング列 '<columns>
' が見つかりませんでした:
<schema>
DELTA_CLUSTERING_CREATE_EXTERNAL_NON_LIQUID_TABLE_FROM_LIQUID_TABLE
リキッドクラスタリングを使用するテーブルディレクトリからリキッドクラスタリングを使用しない外部テーブルを作成することは許可されていません。パス: <path>
。
DELTA_CLUSTERING_NOT_SUPPORTED
'<operation>
' はクラスタリングをサポートしていません。
DELTA_CLUSTERING_PHASE_OUT_FAILED
テーブル機能でテーブルの<phaseOutType>
を完了できません (理由: <reason>``<tableFeatureToAdd>
)。OPTIMIZE
コマンドをもう一度試してください。
== エラー ==
<error>
DELTA_CLUSTERING_REPLACE_TABLE_WITH_PARTITIONED_TABLE
REPLACE
パーティション化されたテーブルを持つリキッドクラスタリングを持つ Delta テーブルは許可されません。
DELTA_CLUSTERING_SHOW_CREATE_TABLE_WITHOUT_CLUSTERING_COLUMNS
SHOW CREATE TABLE
は Delta クラスタリング列がないリキッドクラスタリングのあるテーブルではサポートされていません。
DELTA_CLUSTERING_TO_PARTITIONED_TABLE_WITH_NON_EMPTY_CLUSTERING_COLUMNS
リキッドクラスタリングを使用した Delta テーブルをパーティションテーブルに移行することは、既存のテーブルに空でないクラスタリングカラムがある場合、オペレーション (<operation>
) では許可されません。
最初にクラスタリング列を削除するには、 ALTER TABLE CLUSTER BY
NONE を実行してください。
DELTA_CLUSTERING_WITH_DYNAMIC_PARTITION_OVERWRITE
動的パーティション上書きモードは、リキッドクラスタリングのある Delta テーブルでは許可されていません。
DELTA_CLUSTERING_WITH_PARTITION_PREDICATE
OPTIMIZE
リキッドクラスタリングを持つ Delta テーブルのコマンドは、パーティション述語をサポートしていません。 述語を削除してください: <predicates>
.
DELTA_CLUSTERING_WITH_ZORDER_BY
OPTIMIZE
リキッドクラスタリングを持つ Delta テーブルのコマンドは、ZORDER BY
を指定できません。 ZORDER BY (<zOrderBy>
) を削除してください。
DELTA_CLUSTER_BY_INVALID_NUM_COLUMNS
CLUSTER BY
リキッドクラスタリングの場合、クラスタリングカラムは最大 <numColumnsLimit>
個までサポートされますが、テーブルには <actualNumColumns>
個のクラスタリングカラムがあります。 余分なクラスタリング列を削除してください。
DELTA_CLUSTER_BY_SCHEMA_NOT_PROVIDED
スキーマが定義されていない場合、 CLUSTER BY
を指定することはできません。 テーブル <tableName>
のスキーマを定義してください。
DELTA_CLUSTER_BY_WITH_BUCKETING
クラスタリングとバケット化の両方を指定することはできません。 クラスタリングを使用して Delta テーブルを作成する場合は、 CLUSTERED BY INTO BUCKETS
/ bucketBy を削除してください。
DELTA_CLUSTER_BY_WITH_PARTITIONED_BY
クラスタリングとパーティション分割の両方を指定することはできません。 クラスタリングを使用して Delta テーブルを作成する場合は、 PARTITIONED BY
/ partitionBy / partitionedBy を削除してください。
DELTA_COLLATIONS_NOT_SUPPORTED
照合順序は Delta Lake ではサポートされていません。
DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_PARTITIONED_COLUMN
データのスキップは、パーティション列 '<column>
' ではサポートされていません。
DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_TYPE
データのスキップは、タイプ <type>
の列 '<column>
' ではサポートされていません。
DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET
max column id プロパティ (<prop>
) は、カラムマッピングが有効なテーブルでは設定されていません。
DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET_CORRECTLY
カラムマッピングが有効なテーブルの max column id プロパティ (<prop>
) は <tableMax>
で、すべてのフィールドの最大カラム id (<fieldMax>
) より小さくすることはできません。
DELTA_COLUMN_MISSING_DATA_TYPE
カラム <colName>
のデータ型が指定されていません。
DELTA_COLUMN_NOT_FOUND
指定された列 <columnName>
見つかりません [<columnList>
]
DELTA_COLUMN_NOT_FOUND_IN_MERGE
INSERT
列 <colNames>
からターゲット テーブルの列 '<targetCol>
' が見つかりません。INSERT
句では、ターゲット・テーブルのすべてのカラムの値を指定する必要があります。
DELTA_COLUMN_NOT_FOUND_IN_SCHEMA
列 <columnName>
が見つかりませんでした:
<tableSchema>
DELTA_COLUMN_PATH_NOT_NESTED
<columnPath>
ネストされたデータ型であると予想されていましたが、<other>
.探していた
ネストされたフィールド内の <column>
のインデックス。
スキーマ:
<schema>
DELTA_COLUMN_STRUCT_TYPE_MISMATCH
構造体列<source>
は、<targetTable>
の <targetType>
フィールド <targetField>
に挿入できません。
DELTA_COMMIT_INTERMEDIATE_REDIRECT_STATE
リダイレクト テーブルの状態 '<state>
' 内のテーブルのコミットを処理できません。
DELTA_COMPACTION_VALIDATION_FAILED
パス <compactedPath>
から <newPath>
への圧縮の検証に失敗しました: バグ レポートを提出してください。
DELTA_COMPLEX_TYPE_COLUMN_CONTAINS_NULL_TYPE
ネストされた NullType が <dataType>
の列 <columName>
で見つかりました。Delta では、複合型での NullType の記述はサポートされていません。
DELTA_CONCURRENT_APPEND
ConcurrentAppendException: 並列更新によってファイルが <partition>
に追加されました。 <retryMsg> <conflictingCommit>
詳細については、 <docLink>
を参照してください。
DELTA_CONCURRENT_DELETE_DELETE
ConcurrentDeleteDeleteException: このトランザクションは、並列更新によって削除された 1 つ以上のファイルを削除しようとしました ( <file>
など)。 操作をやり直してください。<conflictingCommit>
詳細については、 <docLink>
を参照してください。
DELTA_CONCURRENT_DELETE_READ
ConcurrentDeleteReadException: このトランザクションは、並列更新によって削除された 1 つ以上のファイル ( <file>
など) を読み取ろうとしました。 操作をやり直してください。<conflictingCommit>
詳細については、 <docLink>
を参照してください。
DELTA_CONCURRENT_TRANSACTION
ConcurrentTransactionException: このエラーは、複数のストリーミング クエリが同じチェックポイントを使用してこのテーブルに書き込んでいる場合に発生します。 同じストリーミング クエリの複数のインスタンスを同時に実行しましたか?<conflictingCommit>
詳細については、 <docLink>
を参照してください。
DELTA_CONCURRENT_WRITE
ConcurrentWriteException: 現在のトランザクションがテーブルを読み取ってから、並列トランザクションが新しいデータを書き込みました。 操作をやり直してください。<conflictingCommit>
詳細については、 <docLink>
を参照してください。
DELTA_CONFLICT_SET_COLUMN
次の SET
列から競合があります: <columnList>
.
DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_COMMAND
<command>
中は、コマンドから構成「<configuration>
」を設定できません。TBLPROPERTIES
句から削除してから、コマンドを再試行してください。
DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_SESSION
<command>
中は、SparkSession 構成から構成「<configuration>
」を設定できません。spark.conf.unset("<configuration>")
を実行して設定を解除し、コマンドを再試行してください。
DELTA_CONSTRAINT_ALREADY_EXISTS
制約 '<constraintName>
' はすでに存在します。 最初に古い制約を削除してください。
古い制約:
<oldConstraint>
DELTA_CONSTRAINT_DATA_TYPE_MISMATCH
列 <columnName>
のデータ・タイプは <columnType>
であり、この列は次のチェック制約によって参照されるため、データ・タイプ <dataType>
に変更できません。
<constraints>
DELTA_CONSTRAINT_DEPENDENT_COLUMN_CHANGE
列 <columnName>
を変更できません。これは、この列が次のチェック制約によって参照されているためです。
<constraints>
DELTA_CONSTRAINT_DOES_NOT_EXIST
存在しない制約 <constraintName>
をテーブル <tableName>
から削除できません。 エラーのスローを回避するには、パラメーター IF EXISTS
を指定するか、 SQL セッション構成<config>
を <confValue>
に設定します。
DELTA_CONVERSION_MERGE_ON_READ_NOT_SUPPORTED
Merge-On-Read <format>
テーブルの変換はサポートされていません: <path>
、 <hint>
DELTA_CONVERSION_NO_PARTITION_FOUND
テーブル <tableName>
のカタログにパーティション情報が見つかりませんでした。 パーティションを検出するために、テーブルで「Msck REPAIR TABLE
」を実行しましたか?
DELTA_CONVERSION_UNSUPPORTED_COLLATED_PARTITION_COLUMN
照合されたパーティション列の <colName>
を持つ Parquet テーブルを Delta に変換できません。
DELTA_CONVERSION_UNSUPPORTED_COLUMN_MAPPING
CONVERT
TO DELTA
を使用する場合、構成 '<config>
' を <mode>
に設定することはできません。
DELTA_CONVERSION_UNSUPPORTED_SCHEMA_CHANGE
サポートされていないスキーマの変更が <format>
テーブルで見つかりました: <path>
、 <hint>
DELTA_CONVERT_NON_PARQUET_TABLE
CONVERT
TO DELTA
は Parquet テーブルのみをサポートしていますが、 <sourceName>
ソースを変換しようとしています。 <tableId>
DELTA_CONVERT_TO_DELTA_ROW_TRACKING_WITHOUT_STATS
統計を収集せずに行追跡を有効にすることはできません。
行追跡を有効にする場合は、次の操作を行います。
- 統計情報の収集を有効にするには、次のコマンドを実行します
SET <statisticsCollectionPropertyKey>
= true です
- NO
STATISTICS
オプションを使用せずにCONVERT
TODELTA
を実行します。
統計を収集しない場合は、行の追跡を無効にします。
- デフォルトでのテーブル機能の有効化を無効にするには、次のコマンドを実行します。
RESET <rowTrackingTableFeatureDefaultKey>
- デフォルトでテーブルプロパティを非アクティブ化するには、次のコマンドを実行します。
SET <rowTrackingDefaultPropertyKey>
= いいえ
DELTA_COPY_INTO_TARGET_FORMAT
COPY INTO
target は Delta テーブルである必要があります。
DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_SCHEMA
外部テーブルを作成しようとしています <tableName>
from <path>
Delta を使用しますが、スキーマは
入力パスが空です。
Deltaの詳細については、以下を参照してください。 <docLink>
DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_TXN_LOG
外部テーブルを作成しようとしています <tableName>
%2$s
から Deltaを使用して 、 にトランザクション・ログが存在しない
%2$s/_delta_log
.アップストリームジョブをチェックして、
format("delta") で、パスがテーブルのルートであること。
Deltaの詳細については、以下を参照してください。 <docLink>
DELTA_CREATE_TABLE_IDENTIFIER_LOCATION_MISMATCH
別の場所でパスベースの Delta テーブルを作成することはサポートされていません。 識別子: <identifier>
, 場所: <location>
DELTA_CREATE_TABLE_MISSING_TABLE_NAME_OR_LOCATION
テーブルの名前または場所を指定する必要があります。
DELTA_CREATE_TABLE_SCHEME_MISMATCH
指定されたスキーマは、 <path>
の既存のスキーマと一致しません。
== 指定 ==
<specifiedSchema>
== 既存の ==
<existingSchema>
== 違い ==
<schemaDifferences>
既存のスキーマを保持する場合は、
schema を create table コマンドから取得します。 それ以外の場合は、次のことを確認してください。
スキーマが一致します。
DELTA_CREATE_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED
TBLPROPERTIES
を使用して<tableFeature>
テーブル機能を有効にすることはできません。CREATE
OR REPLACE TABLE CLUSTER BY
を使用して、クラスタリングを含む Delta テーブルを作成してください。
DELTA_CREATE_TABLE_WITH_DIFFERENT_CLUSTERING
指定されたクラスタリング列が、 <path>
の既存のクラスタリング列と一致しません。
== 指定 ==
<specifiedColumns>
== 既存の ==
<existingColumns>
DELTA_CREATE_TABLE_WITH_DIFFERENT_PARTITIONING
指定されたパーティション分割は、 <path>
の既存のパーティション設定と一致しません。
== 指定 ==
<specifiedColumns>
== 既存の ==
<existingColumns>
DELTA_CREATE_TABLE_WITH_DIFFERENT_PROPERTY
指定されたプロパティは、 <path>
の既存のプロパティと一致しません。
== 指定 ==
<specifiedProperties>
== 既存の ==
<existingProperties>
DELTA_CREATE_TABLE_WITH_NON_EMPTY_LOCATION
テーブル ('<tableId>
') を作成できません。 関連付けられている場所 ('<tableLocation>
') は空ではなく、Delta テーブルでもありません。
DELTA_DATA_CHANGE_FALSE
'dataChange' オプションが false に設定されているため、テーブルのメタデータを変更できません。 試行された操作: '<op>
'。
DELTA_DELETED_PARQUET_FILE_NOT_FOUND
トランザクション・ログで参照されているファイル・ <filePath>
が見つかりません。 このParquetファイルは、 Deltaのデータ保持ポリシーに基づいて削除される場合があります。
デフォルトの Delta データ保持期間: <logRetentionPeriod>
. Parquet ファイルの変更時刻: <modificationTime>
. Parquet ファイルの削除時間: <deletionTime>
. Deltaバージョンで削除されました:<deletionVersion>
。
DELTA_DELETION_VECTOR_MISSING_NUM_RECORDS
numRecords 統計が欠落している削除ベクトルを持つファイルをコミットすることは無効です。
DELTA_DOMAIN_METADATA_NOT_SUPPORTED
ドメインの DomainMetadata アクションが検出されましたが、 <domainNames>
DomainMetadataTableFeature が有効になっていません。
DELTA_DROP_COLUMN_AT_INDEX_LESS_THAN_ZERO
ドロップ列へのインデックス <columnIndex>
が 0 未満です
DELTA_DROP_COLUMN_ON_SINGLE_FIELD_SCHEMA
1 つのカラムを持つスキーマからカラムを削除することはできません。 スキーマ:
<schema>
DELTA_DUPLICATE_ACTIONS_FOUND
パス <path>
のファイル操作 '<actionType>
' が複数回指定されました。
<conflictingPath>
と競合します。
同じパスを持つ複数のファイル操作が 1 つのコミットに存在することは無効です。
DELTA_DUPLICATE_COLUMNS_FOUND
重複する列が見つかりました <coltype>
: <duplicateCols>
DELTA_DUPLICATE_COLUMNS_ON_INSERT
INSERT
句の列名が重複しています
DELTA_DUPLICATE_COLUMNS_ON_UPDATE_TABLE
<message>
テーブルを更新する前に、重複する列を削除してください。
DELTA_DUPLICATE_DATA_SKIPPING_COLUMNS
重複したデータが見つかりました。: <columns>
.
DELTA_DUPLICATE_DOMAIN_METADATA_INTERNAL_ERROR
内部エラー: 同じトランザクション内の 2 つの DomainMetadata アクションは同じドメインを持っています <domainName>
DELTA_DV_HISTOGRAM_DESERIALIZATON
テーブルの整合性の検証中に、削除されたレコード カウント ヒストグラムを逆シリアル化できませんでした。
DELTA_DYNAMIC_PARTITION_OVERWRITE_DISABLED
動的パーティション上書きモードは、セッション構成または書き込みオプションで指定されますが、 spark.databricks.delta.dynamicPartitionOverwrite.enabled=false
では無効になります。
DELTA_EMPTY_DATA
Delta テーブルの作成に使用されるデータには列がありません。
DELTA_EMPTY_DIRECTORY
ディレクトリにファイルが見つかりませんでした: <directory>
.
DELTA_EXCEED_CHAR_VARCHAR_LIMIT
値 "<value>
" が char/varchar 型の長さ制限を超えています。 失敗したチェック: <expr>
.
DELTA_FAILED_CAST_PARTITION_VALUE
パーティション値を <value>
にキャストできませんでした <dataType>
DELTA_FAILED_FIND_ATTRIBUTE_IN_OUTPUT_COLUMNS
既存のターゲット出力の中から <newAttributeName>
見つかりませんでした <targetOutputColumns>
DELTA_FAILED_INFER_SCHEMA
指定されたファイルの一覧からスキーマを推論できませんでした。
DELTA_FAILED_MERGE_SCHEMA_FILE
ファイル <file>
のスキーマをマージできませんでした :
<schema>
DELTA_FAILED_READ_FILE_FOOTER
ファイルのフッターを読み取れませんでした: <currentFile>
DELTA_FAILED_RECOGNIZE_PREDICATE
述語 '<predicate>
' を認識できません
DELTA_FAILED_SCAN_WITH_HISTORICAL_VERSION
最新バージョンの Delta ソースのフル スキャンが想定されますが、バージョンの履歴スキャンが見つかりました <historicalVersion>
DELTA_FAILED_TO_MERGE_FIELDS
フィールド '<currentField>
' と '<updateField>
' のマージに失敗しました
DELTA_FEATURES_PROTOCOL_METADATA_MISMATCH
次のテーブル機能はメタデータで有効になっていますが、プロトコルにはリストされていないため、このテーブルを操作できません: <features>
.
DELTA_FEATURES_REQUIRE_MANUAL_ENABLEMENT
テーブルスキーマでは、次のテーブル機能を手動で有効にする必要があります: <unsupportedFeatures>
.
これを行うには、上記の各機能に対して次のコマンドを実行します。
ALTER TABLE
table_name SET TBLPROPERTIES
('delta.feature.feature_name' = 'supported')
"table_name" と "feature_name" を実際の値に置き換えます。
現在サポートされている機能: <supportedFeatures>
.
DELTA_FEATURE_CAN_ONLY_DROP_CHECKPOINT_PROTECTION_WITH_HISTORY_TRUNCATION
チェックポイント保護機能を削除できませんでした。
この機能は、履歴を切り捨てることによってのみ削除できます。
TRUNCATE HISTORY
オプションで再試行してください。
ALTER TABLE
table_name DROP FEATURE
チェックポイント保護 TRUNCATE HISTORY
DELTA_FEATURE_DROP_CHECKPOINT_FAILED
チェックポイントの作成に失敗したため、 <featureName>
のドロップに失敗しました。
しばらくしてからもう一度お試しください。 問題が解決しない場合は、Databricks サポートにお問い合わせください。
DELTA_FEATURE_DROP_CHECKPOINT_PROTECTION_WAIT_FOR_RETENTION_PERIOD
ドロップされたフィーチャの痕跡がまだ残っているため、操作は成功しませんでした
テーブル履歴で。 CheckpointProtection は、これらの履歴
バージョンの有効期限が切れています。
CheckpointProtection を削除するには、過去のバージョンが
expire を実行してから、このコマンドを繰り返します。 履歴バージョンの保持期間は、次のとおりです
現在、 <truncateHistoryLogRetentionPeriod>
.
DELTA_FEATURE_DROP_CONFLICT_REVALIDATION_FAIL
並列トランザクションによってテーブルが変更されたため、フィーチャを削除できません。
操作をやり直してください。
<concurrentCommit>
DELTA_FEATURE_DROP_DEPENDENT_FEATURE
テーブル フィーチャ <feature>
を削除できません。このテーブルの他のフィーチャ (<dependentFeatures>
) は <feature>
に依存しているためです。
この機能を削除する前に、まずそれらを削除してください。
DELTA_FEATURE_DROP_FEATURE_NOT_PRESENT
このテーブルから <feature>
を削除できません。これは、現在テーブルのプロトコルに存在しないためです。
DELTA_FEATURE_DROP_HISTORICAL_VERSIONS_EXIST
Deltaログには、この機能を使用する履歴バージョンが含まれているため、<feature>
をドロップできません。
履歴保存期間(<logRetentionPeriodKey>=<logRetentionPeriod>
)までお待ちください
フィーチャが最後にアクティブになってから経過しています。
または、 TRUNCATE HISTORY
保存期間が終了するまでお待ちください(<truncateHistoryLogRetentionPeriod>
)
次に、次のコマンドを実行します。
ALTER TABLE
table_name DROP FEATURE
feature_name TRUNCATE HISTORY
DELTA_FEATURE_DROP_HISTORY_TRUNCATION_NOT_ALLOWED
この特定の機能では、履歴の切り捨ては必要ありません。
DELTA_FEATURE_DROP_NONREMOVABLE_FEATURE
この機能はドロップサポートされていないため、 <feature>
ドロップできません。
Databricksサポートにお問い合わせください。
DELTA_FEATURE_DROP_UNSUPPORTED_CLIENT_FEATURE
この Databricks バージョンではサポートされていないため、 <feature>
をドロップできません。
Databricks を上位バージョンで使用することを検討してください。
DELTA_FEATURE_DROP_WAIT_FOR_RETENTION_PERIOD
<feature>
のドロップは部分的に成功しました。
この機能は、現在のバージョンのテーブルでは使用されなくなりました。 ただし、機能
は、テーブルの履歴バージョンにまだ存在します。 テーブル機能は削除できません
これらの履歴バージョンの有効期限が切れるまで、テーブルプロトコルから。
プロトコルからテーブル機能を削除するには、履歴バージョンが
expire を実行してから、このコマンドを繰り返します。 履歴バージョンの保持期間は、次のとおりです
現在、 <logRetentionPeriodKey>=<logRetentionPeriod>
として設定されています。
または、 TRUNCATE HISTORY
保存期間が終了するまでお待ちください(<truncateHistoryLogRetentionPeriod>
)
次に、次のコマンドを実行します。
ALTER TABLE
table_name DROP FEATURE
feature_name TRUNCATE HISTORY
DELTA_FEATURE_REQUIRES_HIGHER_READER_VERSION
テーブル機能 <feature>
を有効にできません。これは、より高いリーダープロトコルバージョン (現在の <current>
) が必要なためです。 テーブルのリーダープロトコルバージョンを <required>
にアップグレードするか、リーダーテーブル機能をサポートするバージョンにアップグレードすることを検討してください。 テーブル プロトコル バージョンの詳細については、 <docLink>
を参照してください。
DELTA_FEATURE_REQUIRES_HIGHER_WRITER_VERSION
テーブル機能 <feature>
を有効にできません。これは、より高いライター プロトコル バージョン (現在の <current>
) が必要なためです。 テーブルの Writer プロトコルバージョンを <required>
にアップグレードするか、ライターテーブル機能をサポートするバージョンにアップグレードすることを検討してください。 テーブル プロトコル バージョンの詳細については、 <docLink>
を参照してください。
DELTA_FILE_ALREADY_EXISTS
既存のファイルパス <path>
DELTA_FILE_LIST_AND_PATTERN_STRING_CONFLICT
ファイル・リストとパターン文字列の両方を指定することはできません。
DELTA_FILE_NOT_FOUND
ファイルパス <path>
DELTA_FILE_NOT_FOUND_DETAILED
トランザクション・ログで参照されているファイル・ <filePath>
が見つかりません。 これは、データが table DELETE
ステートメントを使用せずにファイル・システムから手動で削除された場合に発生します。 詳細については、以下を参照してください。 <faqPath>
DELTA_FILE_OR_DIR_NOT_FOUND
該当するファイルまたはディレクトリはありません。 <path>
DELTA_FILE_TO_OVERWRITE_NOT_FOUND
書き換えるファイル (<path>
) が候補ファイルに見つかりません:
<pathList>
DELTA_FOUND_MAP_TYPE_COLUMN
MapType が見つかりました。 MapType のキーまたは値にアクセスするには、1 つを指定します
の:
<key>
または
<value>
その後に列の名前が続きます (その列が構造体型の場合のみ)。
例えば。 mymap.key.mykey
列が基本型の場合は、mymap.key または mymap.value で十分です。
スキーマ:
<schema>
DELTA_GENERATED_COLUMNS_DATA_TYPE_MISMATCH
列 <columnName>
のデータ型は <columnType>
であり、この列は次の生成された列によって参照されるため、データ型 <dataType>
に変更できません。
<generatedColumns>
DELTA_GENERATED_COLUMNS_DEPENDENT_COLUMN_CHANGE
列 <columnName>
は、次の生成された列によって参照されているため、変更できません。
<generatedColumns>
DELTA_GENERATED_COLUMNS_EXPR_TYPE_MISMATCH
生成された列 <columnName>
の式タイプは <expressionType>
ですが、列タイプは <columnType>
DELTA_GENERATED_COLUMN_UPDATE_TYPE_MISMATCH
列 <currentName>
は、生成された列または生成された列によって使用される列です。 データ型は <currentDataType>
であり、データ型に変換できません <updateDataType>
DELTA_GEOSPATIAL_NOT_SUPPORTED
地理空間タイプは、このバージョンの Delta Lake ではサポートされていません。
DELTA_ICEBERG_COMPAT_VIOLATION
IcebergCompatV\<version\>
の検証に失敗しました。
詳細については、「 DELTA_ICEBERG_COMPAT_VIOLATION
DELTA_IDENTITY_COLUMNS_ALTER_COLUMN_NOT_SUPPORTED
ALTER TABLE ALTER COLUMN
は、 IDENTITY
列ではサポートされていません。
DELTA_IDENTITY_COLUMNS_ALTER_NON_DELTA_FORMAT
ALTER TABLE ALTER COLUMN SYNC IDENTITY
は Deltaでのみサポートされています。
DELTA_IDENTITY_COLUMNS_ALTER_NON_IDENTITY_COLUMN
ALTER TABLE ALTER COLUMN SYNC IDENTITY
IDENTITY
列以外の列で呼び出すことはできません。
DELTA_IDENTITY_COLUMNS_EXPLICIT_INSERT_NOT_SUPPORTED
GENERATED ALWAYS
AS IDENTITY
列<colName>
の値を指定することはサポートされていません。
DELTA_IDENTITY_COLUMNS_ILLEGAL_STEP
IDENTITY
column step を 0 にすることはできません。
DELTA_IDENTITY_COLUMNS_NON_DELTA_FORMAT
IDENTITY
列は Delta でのみサポートされます。
DELTA_IDENTITY_COLUMNS_PARTITION_NOT_SUPPORTED
PARTITIONED BY IDENTITY
列 <colName>
はサポートされていません。
DELTA_IDENTITY_COLUMNS_REPLACE_COLUMN_NOT_SUPPORTED
ALTER TABLE REPLACE COLUMNS
は、 IDENTITY
列のテーブルではサポートされていません。
DELTA_IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE
DataType <dataType>
は、 IDENTITY
列ではサポートされていません。
DELTA_IDENTITY_COLUMNS_UPDATE_NOT_SUPPORTED
UPDATE
IDENTITY
列<colName>
はサポートされていません。
DELTA_IDENTITY_COLUMNS_WITH_GENERATED_EXPRESSION
IDENTITY
生成された列式で列を指定することはできません。
DELTA_ILLEGAL_OPTION
オプション '<name>
' の値 '<input>
' が無効です。 <explain>
DELTA_ILLEGAL_USAGE
Delta テーブル<operation>
ときに <option>
を使用することはできません。
DELTA_INCONSISTENT_BUCKET_SPEC
Delta バケット テーブルの BucketSpec がメタデータの BucketSpec と一致しません。予想 : <expected>
. 実際: <actual>
。
DELTA_INCONSISTENT_LOGSTORE_CONFS
(<setKeys>
) を異なる値に設定することはできません。 どちらか一方のみを設定するか、同じ値に設定してください。
DELTA_INCORRECT_ARRAY_ACCESS
ArrayType に誤ってアクセスしています。 arrayname.element.elementname position を使用して、
配列に追加します。
DELTA_INCORRECT_ARRAY_ACCESS_BY_NAME
ArrayType が見つかりました。 ArrayType の要素にアクセスするには、次のように指定します。
<rightName>
<wrongName>
の代わりに。
スキーマ:
<schema>
DELTA_INCORRECT_GET_CONF
'conf.getConf() の代わりに getConf()
を使用してください。
DELTA_INCORRECT_LOG_STORE_IMPLEMENTATION
通常、このエラーは、デフォルトの LogStore 実装 (その
は、HDFSLogStore は、HDFS 以外のストレージ システム上の Delta テーブルに書き込むために使用されます。
テーブルの更新でトランザクション ACID の保証を取得するには、
ストレージ・システムに適したLogStoreの正しい実装。
詳細については、 <docLink>
を参照してください。
DELTA_INDEX_LARGER_OR_EQUAL_THAN_STRUCT
列をドロップするインデックス <position>
が構造体の長さと等しいか、それより大きい: <length>
DELTA_INDEX_LARGER_THAN_STRUCT
列<columnName>
を追加するインデックス<index>
構造体の長さよりも大きい: <length>
DELTA_INSERT_COLUMN_ARITY_MISMATCH
「<tableName>
」、 <columnName>
に書き込むことはできません。ターゲット テーブルには <numColumns>
列がありますが、挿入されたデータには <insertColumns>
列があります
DELTA_INSERT_COLUMN_MISMATCH
列 <columnName>
が INSERT
DELTA_INVALID_AUTO_COMPACT_TYPE
無効な自動コンパクト タイプ: <value>
. 使用できる値は <allowed>
です。
DELTA_INVALID_BUCKET_COUNT
無効なバケット数: <invalidBucketCount>
. バケット カウントは、2 の累乗で 8 以上の正の数である必要があります。 代わりに <validBucketCount>
を使用できます。
DELTA_INVALID_BUCKET_INDEX
パーティション列にバケット列が見つかりません
DELTA_INVALID_CALENDAR_INTERVAL_EMPTY
間隔を NULL または空白にすることはできません。
DELTA_INVALID_CDC_RANGE
CDC の開始 <start>
から終了までの <end>
の範囲が無効でした。 終了を開始より前にすることはできません。
DELTA_INVALID_CHARACTERS_IN_COLUMN_NAME
属性名 "<columnName>
" に無効な文字が含まれています。" ,;{}()\n\t="です。 名前を変更するにはエイリアスを使用してください。
DELTA_INVALID_CHARACTERS_IN_COLUMN_NAMES
' ,;{}()nt=' をスキーマの列名に含めてください。
無効な列名: <invalidColumnNames>
.
他のキャラクターを使用して、もう一度お試しください。
または、列マッピングを有効にして、これらの文字を引き続き使用します。
DELTA_INVALID_CLONE_PATH
CLONE
のターゲット場所は、絶対パスまたはテーブル名である必要があります。を使用します。
<path>
の代わりに絶対パス。
DELTA_INVALID_COLUMN_NAMES_WHEN_REMOVING_COLUMN_MAPPING
' ,;{}()nt=' をスキーマの列名に含めてください。
無効な列名: <invalidColumnNames>
.
列名に無効な文字が含まれている場合、列マッピングは削除できません。
列の名前を変更して無効な文字を削除し、このコマンドを再度実行してください。
DELTA_INVALID_FORMAT
互換性のない形式が検出されました。
Delta のトランザクション ログが ''<deltaRootPath>/\_delta_log
で見つかりました。
しかし、あなたはformat( "<format>
")を使用して<operation> <path>
しようとしています。必ず使用してください
'format("delta")' は、デルタ テーブルの読み取りと書き込みを行います。
Deltaの詳細については、以下を参照してください。 <docLink>
DELTA_INVALID_GENERATED_COLUMN_REFERENCES
生成された列は、存在しない列または別の生成された列を使用することはできません
DELTA_INVALID_IDEMPOTENT_WRITES_OPTIONS
べき等 Dataframe の書き込みに対する無効なオプション: <reason>
DELTA_INVALID_INTERVAL
<interval>
は有効な INTERVAL
ではありません。
DELTA_INVALID_INVENTORY_SCHEMA
指定された INVENTORY
のスキーマには、必要なフィールドの一部が含まれていません。 必須フィールドは次のとおりです。 <expectedSchema>
DELTA_INVALID_ISOLATION_LEVEL
無効な独立性レベル '<isolationLevel>
'
DELTA_INVALID_LOGSTORE_CONF
(<classConfig>
) と (<schemeConfig>
) は同時に設定できません。 それらの1つのグループのみを設定してください。
DELTA_INVALID_MANAGED_TABLE_SYNTAX_NO_SCHEMA
マネージドテーブルを作成しようとしています <tableName>
Delta を使用しますが、スキーマは指定されていません。
Deltaの詳細については、以下を参照してください。 <docLink>
DELTA_INVALID_PARTITION_COLUMN
<columnName>
は、テーブル <tableName>
の有効なパーティション列ではありません。
DELTA_INVALID_PARTITION_COLUMN_NAME
" ,;{}()nt="です。 名前をパーティション列に変更してください。 このチェックは、spark.conf.set("spark.databricks.delta.partitionColumnValidity.enabled", false) を設定することでオフにすることができますが、Delta の他の機能が正しく動作しない可能性があるため、これはお勧めしません。
DELTA_INVALID_PARTITION_COLUMN_TYPE
<dataType>
型の列<name>
をパーティション列として使用することはサポートされていません。
DELTA_INVALID_PARTITION_PATH
パーティションパスフラグメントは、 part1=foo/part2=bar
のような形式にする必要があります。 パーティションパス: <path>
DELTA_INVALID_PROTOCOL_DOWNGRADE
プロトコルバージョンを <oldProtocol>
からにダウングレードすることはできません <newProtocol>
DELTA_INVALID_PROTOCOL_VERSION
サポートされていない Delta プロトコル バージョン: テーブル "<tableNameOrPath>
" にはリーダー バージョン ( <readerRequired>
) とライター バージョン <writerRequired>
が必要ですが、このバージョンの Databricks ではリーダー バージョン <supportedReaders>
とライター バージョン <supportedWriters>
(. 新しいリリースにアップグレードしてください。
DELTA_INVALID_TABLE_VALUE_FUNCTION
関数 <function>
は、CDC 読み取りでサポートされていないテーブル値関数です。
DELTA_INVALID_TIMESTAMP_FORMAT
指定されたタイムスタンプ <timestamp>
は、予期される構文 <format>
と一致しません。
DELTA_LOG_ALREADY_EXISTS
Deltaログはすでに <path>
DELTA_LOG_FILE_NOT_FOUND_FOR_STREAMING_SOURCE
一度も削除していない場合は、クエリが遅れている可能性があります。 チェックポイントを削除して、最初からやり直してください。 このような事態が再び起こらないようにするには、Delta テーブルのアイテム保持ポリシーを更新します
DELTA_MATERIALIZED_ROW_TRACKING_COLUMN_NAME_MISSING
マテリアライズド <rowTrackingColumn>
列名が <tableName>
にありません。
DELTA_MAX_ARRAY_SIZE_EXCEEDED
Int.MaxValue - 8 未満の制限を使用してください。
DELTA_MAX_COMMIT_RETRIES_EXCEEDED
このコミットは <numAttempts>
回試行されましたが成功しなかったため、失敗しました。
これは、 Delta テーブルが多数の並列によって連続的にコミットされていることが原因である可能性があります
コミット。
コミットは次のバージョンで開始されました: <startVersion>
コミットは次のバージョンで失敗しました: <failVersion>
コミットが試行されたアクションの数: <numActions>
このコミットの試行に費やされた合計時間: <timeSpent>
ミリ秒
DELTA_MAX_LIST_FILE_EXCEEDED
ファイルリストには、最大で <maxFileListSize>
エントリを含める必要があります。 <numFiles>
.
DELTA_MERGE_ADD_VOID_COLUMN
VOID 型の列 <newColumn>
を追加できません。 void 以外の型を明示的に指定してください。
DELTA_MERGE_INCOMPATIBLE_DATATYPE
互換性のないデータ型のマージに失敗しました <currentDataType>
と <updateDataType>
DELTA_MERGE_INCOMPATIBLE_DECIMAL_TYPE
互換性のない 10 進数の型をマージできませんでした <decimalRanges>
DELTA_MERGE_MATERIALIZE_SOURCE_FAILED_REPEATEDLY
MERGE
ステートメントのソースを実体化したままにすることは、繰り返し失敗しています。
DELTA_MERGE_MISSING_WHEN
MERGE
ステートメントには、少なくとも 1 つの WHEN
句が必要です。
DELTA_MERGE_RESOLVED_ATTRIBUTE_MISSING_FROM_INPUT
解決済みの属性<missingAttributes>``<input>
in 演算子にありません <merge>
DELTA_MERGE_UNEXPECTED_ASSIGNMENT_KEY
予期しない割り当てキー: <unexpectedKeyClass>
- <unexpectedKeyObject>
DELTA_MERGE_UNRESOLVED_EXPRESSION
与えられた<cols>``<clause>
で<sqlExpr>
を解決できません。
DELTA_METADATA_CHANGED
MetadataChangedException: Delta テーブルのメタデータが並列更新によって変更されました。 操作をやり直してください。<conflictingCommit>
DELTA_MISSING_CHANGE_DATA
変更データがなかったため、範囲 [<startVersion>
, <endVersion>
] の変更データの取得中にエラーが発生しました
バージョン[<version>
]に収録されています。 このテーブルでチェンジデータフィードを有効にしている場合、
DESCRIBE HISTORY
を使用して、最初に有効になった日時を確認します。
それ以外の場合、変更データの記録を開始するには、TABLEtable_name
SET TBLPROPERTIES' ALTER
(<key>
=true)' です。
DELTA_MISSING_COLUMN
テーブルの列に <columnName>
が見つかりません: <columnList>
DELTA_MISSING_COMMIT_INFO
このテーブルでは、すべてのコミットに CommitInfo アクションが存在する必要がある機能 <featureName>
が有効になっています。 ただし、コミット バージョン . <version>
には CommitInfo アクションがありません。
DELTA_MISSING_COMMIT_TIMESTAMP
このテーブルでは、CommitInfo アクションに commitTimestamp が存在する必要がある機能 <featureName>
が有効になっています。 ただし、このフィールドはコミット バージョン <version>
では設定されていません。
DELTA_MISSING_DELTA_TABLE
<tableName>
Delta テーブルではありません。
DELTA_MISSING_DELTA_TABLE_COPY_INTO
テーブルが存在しません。 最初に CREATE TABLE <tableName>
を使用して空の Delta テーブルを作成します。
DELTA_MISSING_ICEBERG_CLASS
Iceberg クラスが見つかりませんでした。 Delta Icebergサポートがインストールされていることを確認してください。
詳しくは <docLink>
をご覧ください。
DELTA_MISSING_NOT_NULL_COLUMN_VALUE
NOT NULL
制約を持つ列 <columnName>
が、テーブルに書き込まれるデータにありません。
DELTA_MISSING_PARTITION_COLUMN
パーティション列 <columnName>
スキーマに見つかりません <columnList>
DELTA_MISSING_PART_FILES
チェックポイントバージョンのすべてのパーツファイルが見つかりませんでした: <version>
DELTA_MISSING_PROVIDER_FOR_CONVERT
CONVERT
TO DELTA
は Parquet テーブルのみをサポートします。 ターゲットが Parquet ディレクトリの場合は parquet.`<path>`
に書き換えてください。
DELTA_MISSING_SET_COLUMN
SET
列が見つかりません <columnName>
列 : <columnList>
.
DELTA_MISSING_TRANSACTION_LOG
互換性のない形式が検出されました。
あなたは Deltaを使用して<operation> <path>
しようとしていますが、ありません
トランザクション・ログが存在します。 アップストリームジョブをチェックして、書き込んでいることを確認します
format("delta") を使用し、テーブルの基本パスを %1$s にしようとしていることを確認します。
Deltaの詳細については、以下を参照してください。 <docLink>
DELTA_MODE_NOT_SUPPORTED
指定されたモード '<mode>
' はサポートされていません。 サポートされているモードは次のとおりです。 <supportedModes>
DELTA_MULTIPLE_CDC_BOUNDARY
CDC 読み取り用に複数の <startingOrEnding>
引数が用意されています。 <startingOrEnding>
タイムスタンプまたは<startingOrEnding>
バージョンのいずれかを指定してください。
DELTA_MULTIPLE_CONF_FOR_SINGLE_COLUMN_IN_BLOOM_FILTER
複数のブルームフィルターインデックス構成が列のコマンドに渡されます。 <columnName>
DELTA_MULTIPLE_SOURCE_ROW_MATCHING_TARGET_ROW_IN_MERGE
複数のソース行が一致し、同じ行を変更しようとしたため、マージを実行できません
Delta テーブルのターゲット行が競合する可能性のある方法で。 Merge の SQL セマンティクスにより、
同じターゲット行で複数のソース行が一致すると、結果があいまいになることがあります
一致するものの更新または削除にどのソース行を使用すべきかが不明瞭であるため
ターゲット行。 ソーステーブルを前処理して、次の可能性を排除できます。
複数の一致。 を参照してください。
<usageReference>
DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_COMMAND
<command>
中、両方の調整されたコミット設定 ("delta.coordinatedCommits.commitCoordinator-preview"、"delta.coordinatedCommits.commitCoordinatorConf-preview") がコマンドに設定されているか、どちらも設定されていません。欠落しています: "<configuration>
"。 この設定を TBLPROPERTIES
句で指定するか、他の設定を削除してから、コマンドを再試行してください。
DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_SESSION
<command>
中、両方の調整されたコミット構成 ("coordinatedCommits.commitCoordinator-preview"、"coordinatedCommits.commitCoordinatorConf-preview") が SparkSession 構成で設定されているか、どちらも設定されていません。欠落しています: "<configuration>
"。 この構成を SparkSession で設定するか、他の構成の設定を解除してから、コマンドを再試行してください。
DELTA_NAME_CONFLICT_IN_BUCKETED_TABLE
次の列名は、Delta バケット テーブルの内部使用専用に予約されています。 <names>
DELTA_NESTED_FIELDS_NEED_RENAME
入力スキーマには、ターゲットテーブルとは異なる大文字のネストされたフィールドが含まれています。
Delta への書き込み中にこれらのフィールドのデータが失われないように、名前を変更する必要があります。
田畑:
<fields>
.
元のスキーマ:
<schema>
DELTA_NESTED_NOT_NULL_CONSTRAINT
フィールド<parent>
の<nestType>
タイプには、NOT NULL
制約が含まれています。Delta は NOT NULL
配列またはマップ内に入れ子になった制約をサポートしていません。 このエラーを抑制し、指定された制約をサイレントに無視するには、 <configKey>
= true を設定します。
解析された <nestType>
の種類:
<nestedPrettyJson>
DELTA_NESTED_SUBQUERY_NOT_SUPPORTED
ネストされたサブクエリは、 <operation>
条件ではサポートされていません。
DELTA_NEW_CHECK_CONSTRAINT_VIOLATION
<numRows>
<tableName>
の行が新しい CHECK
制約に違反している (<checkConstraint>
)
DELTA_NEW_NOT_NULL_VIOLATION
<numRows>
<tableName>
の行が新しいNOT NULL
制約に違反している <colName>
DELTA_NON_BOOLEAN_CHECK_CONSTRAINT
CHECK
constraint '<name>
' (<expr>
) はブール式である必要があります。
DELTA_NON_DETERMINISTIC_EXPRESSION_IN_GENERATED_COLUMN
<expr>
見つかりました。生成された列では、非決定論的な式を使用できません。
DELTA_NON_DETERMINISTIC_FUNCTION_NOT_SUPPORTED
非決定論的関数は、 <operation> <expression>
DELTA_NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION
MERGE
ステートメントに複数の MATCHED
句がある場合、条件を省略できるのは最後の MATCHED
句だけです。
DELTA_NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION
MERGE
ステートメントに複数の NOT MATCHED BY SOURCE
句がある場合、条件を省略できるのは最後の NOT MATCHED BY SOURCE
句だけです。
DELTA_NON_LAST_NOT_MATCHED_CLAUSE_OMIT_CONDITION
MERGE
ステートメントに複数の NOT MATCHED
句がある場合、条件を省略できるのは最後の NOT MATCHED
句だけです
DELTA_NON_PARSABLE_TAG
タグ を解析できませんでした <tag>
。
ファイルタグは次のとおりです。 <tagList>
DELTA_NON_PARTITION_COLUMN_ABSENT
Delta に書き込まれるデータには、パーティション分割されていない列が少なくとも 1 つ含まれている必要があります。<details>
DELTA_NON_PARTITION_COLUMN_REFERENCE
述部は、パーティション以外の列 '<columnName>
' を参照します。 参照できるのはパーティション列のみです: [<columnList>
]
DELTA_NON_PARTITION_COLUMN_SPECIFIED
パーティション化されていない列は、パーティション化列のみが想定される場所で指定されます (<columnList>``<fragment>
)。
DELTA_NON_SINGLE_PART_NAMESPACE_FOR_CATALOG
カタログDelta 1 つの部分からなる名前空間が必要ですが、<identifier>
つは複数の部分から成ります。
DELTA_NON_UC_COMMIT_COORDINATOR_NOT_SUPPORTED_IN_COMMAND
コマンドからコミットコーディネーターを「<nonUcCoordinatorName>
」に設定することはサポートされていません。なぜなら、UC-マネージドテーブルはコミットコーディネーターとして「unity-catalog」しか持てないからです。 これを 'unity-catalog' に変更するか、 TBLPROPERTIES
句からすべての Coordinated コミット テーブル プロパティを削除してから、コマンドを再試行してください。
DELTA_NON_UC_COMMIT_COORDINATOR_NOT_SUPPORTED_IN_SESSION
SparkSession 構成からコミット コーディネーターを '<nonUcCoordinatorName>
' に設定することはサポートされていません。なぜなら、UC-マネージドテーブルはコミットコーディネーターとして 'unity-catalog' しか持つことができないからです。spark.conf.set("<coordinatorNameDefaultKey>", "unity-catalog")
を実行して 'unity-catalog' に変更するか、spark.conf.unset("<coordinatorNameDefaultKey>")
、spark.conf.unset("<coordinatorConfDefaultKey>")
、spark.conf.unset("<tableConfDefaultKey>")
を実行して SparkSession 設定からすべての Coordinated コミット テーブルのプロパティを削除してから、コマンドを再試行してください。
DELTA_NOT_A_DATABRICKS_DELTA_TABLE
<table>
Delta テーブルではありません。 Databricks Delta を使用してこのテーブルを作成する場合は、最初にこのテーブルを削除してください。
DELTA_NOT_A_DELTA_TABLE
<tableName>
Delta テーブルではありません。 Delta Lake で再作成する場合は、最初にこのテーブルを削除してください。
DELTA_NOT_NULL_COLUMN_NOT_FOUND_IN_STRUCT
構造体に見つからないnull許容列: <struct>
DELTA_NOT_NULL_CONSTRAINT_VIOLATED
NOT NULL
列 : <columnName>
の制約に違反しました。
DELTA_NOT_NULL_NESTED_FIELD
null 非許容の入れ子になったフィールドを null 許容の親に追加することはできません。 それに応じて、親列の null 値の許容を設定してください。
DELTA_NO_COMMITS_FOUND
コミットが見つかりませんでした <logPath>
DELTA_NO_RECREATABLE_HISTORY_FOUND
で再作成可能なコミットが見つかりませんでした <logPath>
DELTA_NO_REDIRECT_RULES_VIOLATED
操作が許可されていない: リダイレクト機能のあるテーブルでは <operation>
を実行できません。
リダイレクトなしルールは、 <noRedirectRules>
満たされていません。
DELTA_NO_RELATION_TABLE
テーブル <tableIdent>
見つかりません
DELTA_NO_START_FOR_CDC_READ
CDC 読み取りに startingVersion または startingTimestamp が指定されていません。
DELTA_NULL_SCHEMA_IN_STREAMING_WRITE
Delta は、ストリーミング書き込みのスキーマで NullTypes を受け入れません。
DELTA_ONEOF_IN_TIMETRAVEL
タイムトラベルには「timestampAsOf」または「versionAsOf」を指定してください。
DELTA_ONLY_OPERATION
<operation>
は Delta テーブルでのみサポートされています。
DELTA_OPERATION_MISSING_PATH
<operation>
のパスまたはテーブル識別子を指定してください。
DELTA_OPERATION_NOT_ALLOWED
操作が許可されていない: Delta テーブルでは <operation>
はサポートされていません
DELTA_OPERATION_NOT_ALLOWED_DETAIL
操作は許可されていません: Delta テーブルでは <operation>
はサポートされていません。 <tableName>
DELTA_OPERATION_NOT_SUPPORTED_FOR_COLUMN_WITH_COLLATION
<operation>
は、デフォルト以外の照合<collation>
を持つ列<colName>
ではサポートされていません。
DELTA_OPERATION_NOT_SUPPORTED_FOR_EXPRESSION_WITH_COLLATION
<operation>
は、デフォルト以外の照合順序を使用するため、式 <exprText>
ではサポートされていません。
DELTA_OPERATION_ON_TEMP_VIEW_WITH_GENERATED_COLS_NOT_SUPPORTED
<operation>
コマンドを一時ビューで使用して、生成された列を含む Delta テーブルを参照することはサポートされていません。 Delta テーブルで <operation>
コマンドを直接実行してください
DELTA_OPERATION_ON_VIEW_NOT_ALLOWED
操作が許可されていない: ビューに対して <operation>
を実行できません。
DELTA_OPTIMIZE_FULL_NOT_SUPPORTED
OPTIMIZE FULL
は、空でないクラスタリング列を持つクラスタ化テーブルでのみサポートされます。
DELTA_OVERWRITE_MUST_BE_TRUE
コピー オプション overwriteSchema は、 OVERWRITE
= 'true' を設定しないと指定できません。
DELTA_OVERWRITE_SCHEMA_WITH_DYNAMIC_PARTITION_OVERWRITE
'overwriteSchema' は、動的パーティション上書きモードでは使用できません。
DELTA_PARTITION_COLUMN_CAST_FAILED
パーティション列の値 <value>
を <dataType>
にキャストできませんでした <columnName>
DELTA_PARTITION_COLUMN_NOT_FOUND
パーティション列 <columnName>
スキーマに見つかりません [<schemaMap>
]
DELTA_PARTITION_SCHEMA_IN_ICEBERG_TABLES
パーティションスキーマは、Iceberg テーブルを変換するときには指定できません。 これは自動的に推論されます。
DELTA_PATH_DOES_NOT_EXIST
<path>
存在しないか、Delta テーブルではありません。
DELTA_PATH_EXISTS
OVERWRITE
= 'true' を設定しないと、既存のパス <path>
に書き込むことはできません。
DELTA_POST_COMMIT_HOOK_FAILED
Delta テーブル バージョンへのコミットは成功しましたが<version>
コミット後フックの実行中にエラーが発生しました <name> <message>
DELTA_PROTOCOL_CHANGED
ProtocolChangedException: Delta テーブルのプロトコル バージョンが並列更新によって変更されました。 <additionalInfo> <conflictingCommit>
詳細については、 <docLink>
を参照してください。
DELTA_PROTOCOL_PROPERTY_NOT_INT
プロトコル プロパティ <key>
は整数である必要があります。 設立する <value>
DELTA_READ_FEATURE_PROTOCOL_REQUIRES_WRITE
リーダー プロトコル バージョンのみをアップグレードしてテーブル機能を使用することはできません。 ライター プロトコル バージョンは、続行するには少なくとも <writerVersion>
である必要があります。 テーブル プロトコル バージョンの詳細については、 <docLink>
を参照してください。
DELTA_READ_TABLE_WITHOUT_COLUMNS
列がない Delta テーブル <tableName>
を読み取ろうとしています。
テーブルを読み取ることができるように mergeSchema = true
オプションを使用して、新しいデータを書き込みます。
DELTA_REGEX_OPT_SYNTAX_ERROR
「<regExpOption>
」の構文を再確認してください
DELTA_REPLACE_WHERE_IN_OVERWRITE
replaceWhere を上書きフィルターと組み合わせて使用することはできません
DELTA_REPLACE_WHERE_MISMATCH
書き込まれたデータは、部分的なテーブル上書き条件または制約 '<replaceWhere>
' に準拠していません。
<message>
DELTA_REPLACE_WHERE_WITH_DYNAMIC_PARTITION_OVERWRITE
'replaceWhere' 式と 'partitionOverwriteMode'='dynamic' の両方を DataFrameWriter オプションで設定することはできません。
DELTA_REPLACE_WHERE_WITH_FILTER_DATA_CHANGE_UNSET
'replaceWhere' は、'dataChange' が false に設定されている場合、データ フィルターと共に使用できません。 フィルター: <dataFilters>
DELTA_ROW_ID_ASSIGNMENT_WITHOUT_STATS
行カウント統計がないと、行 ID を割り当てることはできません。
Collect statistics for the table by running the following code in a Scala notebook and retry:
import com.databricks.sql.transaction.tahoe.DeltaLog
import com.databricks.sql.transaction.tahoe.stats.StatisticsCollection
import org.apache.spark.sql.catalyst.TableIdentifier
val log = DeltaLog.forTable(spark, TableIdentifier(table_name))
StatisticsCollection.recompute(spark, log)
DELTA_SCHEMA_CHANGED
検出されたスキーマの変更:
ストリーミング ソース スキーマ: <readSchema>
データ・ファイル・スキーマ: <dataSchema>
クエリを再起動してみてください。 この問題がクエリの再起動間で繰り返される場合
進行していると、互換性のないスキーマ変更を行ったため、
新しいチェックポイント・ディレクトリを使用してゼロからクエリを実行します。
DELTA_SCHEMA_CHANGED_WITH_STARTING_OPTIONS
バージョン <version>
で検出されたスキーマの変更:
ストリーミング ソース スキーマ: <readSchema>
データ・ファイル・スキーマ: <dataSchema>
クエリを再起動してみてください。 この問題がクエリの再起動間で繰り返される場合
進行していると、互換性のないスキーマ変更を行ったため、
新しいチェックポイント・ディレクトリを使用してゼロからクエリを実行します。 その後も問題が解決しない場合
新しいチェックポイント・ディレクトリに変更する場合は、既存のチェックポイント・ディレクトリを変更する必要がある場合があります。
'startingVersion' または 'startingTimestamp' オプションを指定して、次の値より新しいバージョンから開始します。
<version>
を新しいチェックポイント・ディレクトリに置き換えます。
DELTA_SCHEMA_CHANGED_WITH_VERSION
バージョン <version>
で検出されたスキーマの変更:
ストリーミング ソース スキーマ: <readSchema>
データ・ファイル・スキーマ: <dataSchema>
クエリを再起動してみてください。 この問題がクエリの再起動間で繰り返される場合
進行していると、互換性のないスキーマ変更を行ったため、
新しいチェックポイント・ディレクトリを使用してゼロからクエリを実行します。
DELTA_SCHEMA_CHANGE_SINCE_ANALYSIS
Delta テーブルのスキーマは、DataFrame 以降、互換性のない方法で変更されました
または DeltaTable オブジェクトが作成されました。 DataFrame または DeltaTable オブジェクトを再定義してください。
変遷:
<schemaDiff> <legacyFlagMessage>
DELTA_SCHEMA_NOT_PROVIDED
テーブル スキーマは提供されません。 REPLACE
テーブルを使用し、AS SELECT
クエリが提供されていない場合は、テーブルのスキーマ(列定義)を指定してください。
DELTA_SCHEMA_NOT_SET
テーブル スキーマが設定されていません。 データを書き込むか、 CREATE TABLE
を使用してスキーマを設定します。
DELTA_SET_LOCATION_SCHEMA_MISMATCH
新しい Delta ロケーションのスキーマは、現在のテーブル スキーマとは異なります。
元のスキーマ:
<original>
宛先スキーマ:
<destination>
これが意図的な変更である場合は、次のコマンドを実行してこのチェックをオフにすることができます。
%%sql セット <config>
= true
DELTA_SHALLOW_CLONE_FILE_NOT_FOUND
トランザクション・ログで参照されているファイル・ <filePath>
が見つかりません。 これは、データが table DELETE
ステートメントを使用せずにファイル・システムから手動で削除された場合に発生する可能性があります。 このテーブルはシャロークローンのように見えますが、その場合、このテーブルのクローン元のテーブルが、クローンがまだ使用しているファイルを削除した場合に、このエラーが発生する可能性があります。 クローンを元のテーブルから独立させる場合は、代わりにディープクローンを使用します。
DELTA_SHARING_CANNOT_MODIFY_RESERVED_RECIPIENT_PROPERTY
<prefix>
で始まる事前定義プロパティは変更できません。
DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED
データは、セッション内の現在の受信者に適用されない受信者プロパティ <property>
によって制限されます。
詳細については、 DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED
DELTA_SHARING_INVALID_OP_IN_EXTERNAL_SHARED_VIEW
<operation>
アカウント間で共有されている Delta Sharing ビューでは使用できません。
DELTA_SHARING_INVALID_PROVIDER_AUTH
プロバイダ <provider>
の認証タイプ<authenticationType>
が不正です。
DELTA_SHARING_INVALID_RECIPIENT_AUTH
受信者<recipient>
の認証タイプ<authenticationType>
が不正です。
DELTA_SHARING_INVALID_SHARED_DATA_OBJECT_NAME
Share内の <type>
を参照する名前が無効です。 [スキーマ] の形式に従って、共有内で <type>
の名前を使用できます。[<type>
]、 または、[catalog] の形式に従って、テーブルの元のフルネームを使用することもできます。[スキーマ]。[>タイプ>]。
使用する名前がわからない場合は、「SHOW ALL IN SHARE
[share]」を実行して、削除する <type>
の名前を見つけることができます。列 "name" は共有内の <type>
の名前で、列 "shared_object" は <type>
の元のフルネームです。
DELTA_SHARING_MAXIMUM_RECIPIENT_TOKENS_EXCEEDED
受信者の <recipient>
には 2 つ以上のトークンがあります。
DELTA_SHARING_RECIPIENT_PROPERTY_NOT_FOUND
受信者プロパティ <property>
が存在しません。
DELTA_SHARING_RECIPIENT_TOKENS_NOT_FOUND
受信者トークンが受信者の <recipient>
にありません。
DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_COLUMN
非パーティション化列 <badCols>
が指定されます SHOW PARTITIONS
DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_TABLE
SHOW PARTITIONS
パーティション化されていないテーブルでは許可されません。 <tableName>
DELTA_SOURCE_IGNORE_DELETE
バージョン <version>
でストリーミング ソースから削除されたデータ (<removedFile>
など) を検出しました。これは現在サポートされていません。 削除を無視する場合は、オプション 'ignoreDeletes' を 'true' に設定します。 ソース・テーブルは、パス <dataPath>
にあります。
DELTA_SOURCE_TABLE_IGNORE_CHANGES
バージョン <version>
のソーステーブルでデータ更新 (<file>
など) を検出しました。これは現在サポートされていません。 これが定期的に発生し、変更をスキップしても問題ない場合は、オプション 'skipChangeCommits' を 'true' に設定します。 データの更新を反映させる場合は、新しいチェックポイント ディレクトリでこのクエリを再起動するか、DLT を使用している場合はフル リフレッシュしてください。 これらの変更に対応する必要がある場合は、MVに切り替えてください。 ソース・テーブルは、パス <dataPath>
にあります。
DELTA_STARTING_VERSION_AND_TIMESTAMP_BOTH_SET
「<version>
」または「<timestamp>
」のいずれかを提供してください
DELTA_STATS_COLLECTION_COLUMN_NOT_FOUND
<statsType>
Parquet メタデータの列の統計が見つかりません: <columnPath>
.
DELTA_STREAMING_CANNOT_CONTINUE_PROCESSING_POST_SCHEMA_EVOLUTION
Delta バージョン <previousSchemaChangeVersion>
と Delta ストリーミング ソースの <currentSchemaChangeVersion>
の間で 1 つ以上の非加法スキーマ変更 (<opType>
) が検出されました。
<currentSchemaChangeVersion>
で最終化されたスキーマを使用してストリーム処理を続行する前に、スキーマの変更をシンクテーブルに手動で反映するかどうかを確認してください。
シンクテーブルのスキーマを修正した場合、または修正する必要がないと判断した場合は、次の SQL 設定のいずれかを設定して、非加法スキーマ変更のブロックを解除し、ストリーム処理を続行できます。
この一連のスキーマ変更のためだけに、この特定のストリームのブロックを解除するには: <allowCkptVerKey> = <allowCkptVerValue>
を設定します。
この特定のストリームのブロックを解除するには: 設定 <allowCkptKey> = <allowCkptValue>
すべてのストリームのブロックを解除するには、 <allowAllKey> = <allowAllValue>
を設定します。
または、該当する場合は、SQL conf で <allowAllMode>
を <opSpecificMode>
に置き換えて、このスキーマ変更タイプのみのストリームのブロックを解除することもできます。
DELTA_STREAMING_CHECK_COLUMN_MAPPING_NO_SNAPSHOT
列マッピング Delta スキーマの変更を確認するときに、開始バージョンのログ・スナップショットを取得できませんでした。 別の開始バージョンを選択するか、「<config>
」を「true」に設定して、自己責任でストリーミング読み取りを強制的に有効にしてください。
DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE
ストリーミング読み取りは、互換性のないスキーマ変更 (例: 名前の変更、削除、またはデータ型の変更)。
この問題を解決するための詳細情報と可能な次の手順については、次のドキュメントを参照してください。 <docLink>
スキーマの読み取り: <readSchema>
. 互換性のないデータスキーマ: <incompatibleSchema>
.
DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE_USE_SCHEMA_LOG
ストリーミング読み取りは、互換性のないスキーマ変更 (例: 名前の変更、削除、またはデータ型の変更)。
Delta ストリーム処理の非加法スキーマ進化を有効にするために、'schemaTrackingLocation' を指定してください。
詳細については、 <docLink>
を参照してください。
スキーマの読み取り: <readSchema>
. 互換性のないデータスキーマ: <incompatibleSchema>
.
DELTA_STREAMING_METADATA_EVOLUTION
Delta テーブルのスキーマ、テーブル構成、またはプロトコルがストリーミング中に変更されました。
スキーマまたはメタデータの追跡ログが更新されました。
更新されたメタデータを使用して処理を続行するには、ストリームを再起動してください。
更新されたスキーマ: <schema>
.
更新されたテーブル構成: <config>
.
更新されたテーブルプロトコル: <protocol>
DELTA_STREAMING_SCHEMA_EVOLUTION_UNSUPPORTED_ROW_FILTER_COLUMN_MASKS
スキーマ追跡を使用したソーステーブル <tableId>
からのストリーミングでは、行フィルタまたは列マスクはサポートされていません。
行フィルターまたは列マスクを削除するか、スキーマ追跡を無効にしてください。
DELTA_STREAMING_SCHEMA_LOCATION_CONFLICT
テーブルまたは「<table>
」にあるテーブルからのストリーミング中に、スキーマの場所「<loc>
」の競合が検出されました。
別のストリームが同じスキーマの場所を再利用している可能性がありますが、これは許可されていません。
この表のいずれかのストリームのリーダーオプションとして、新しい一意の schemaTrackingLocation
パスまたは streamingSourceTrackingId
を指定してください。
DELTA_STREAMING_SCHEMA_LOCATION_NOT_UNDER_CHECKPOINT
スキーマの場所 '<schemaTrackingLocation>
' は、チェックポイントの場所 '<checkpointLocation>
' の下に配置する必要があります。
DELTA_STREAMING_SCHEMA_LOG_DESERIALIZE_FAILED
Delta ストリーミング ソース スキーマ ログの '<location>
' のログ ファイルが不完全です。
スキーマ・ログが破損している可能性があります。 新しいスキーマの場所を選択してください。
DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_DELTA_TABLE_ID
Delta ストリームを読み取ろうとしたときに、互換性のない Delta テーブル ID が検出されました。
永続化テーブル ID: <persistedId>
、テーブル ID: <tableId>
スキーマ・ログが再利用されている可能性があります。 新しいスキーマの場所を選択してください。
DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_PARTITION_SCHEMA
Deltaストリームを読み取ろうとしたときに互換性のないパーティションスキーマが検出されました。
永続化スキーマ: <persistedSchema>
、Delta パーティション スキーマ: <partitionSchema>
テーブルのパーティション スキーマを最近手動で変更した場合は、スキーマ ログを再初期化する新しいスキーマの場所を選択してください。
DELTA_STREAMING_SCHEMA_LOG_INIT_FAILED_INCOMPATIBLE_METADATA
次の理由により、Delta ストリーミング ソース スキーマ ログを初期化できませんでした
テーブル バージョン <a>
から <b>
へのストリーミング バッチの提供中に、互換性のないスキーマまたはプロトコルの変更が検出されました。
DELTA_STREAMING_SCHEMA_LOG_PARSE_SCHEMA_FAILED
Delta ストリーミング ソース スキーマ ログからスキーマを解析できませんでした。
スキーマ・ログが破損している可能性があります。 新しいスキーマの場所を選択してください。
DELTA_TABLE_ALREADY_CONTAINS_CDC_COLUMNS
テーブルでチェンジデータキャプチャを有効にできません。 テーブルにはすでに含まれています
予約された列<columnList>
テーブルのチェンジデータフィードのメタデータとして内部的に使用されます。 有効にするには
テーブル上のチェンジデータフィードは、これらの列の名前を変更/削除します。
DELTA_TABLE_ALREADY_EXISTS
テーブル <tableName>
はすでに存在します。
DELTA_TABLE_FOR_PATH_UNSUPPORTED_HADOOP_CONF
現在、DeltaTable.forPath は <allowedPrefixes>
で始まる hadoop 設定キーのみをサポートしていますが、 <unsupportedOptions>
DELTA_TABLE_ID_MISMATCH
<tableLocation>
の Delta テーブルは、このコマンドがテーブルを使用している間に置き換えられました。
テーブル ID は <oldId>
されていましたが、現在は <newId>
です。
現在のコマンドを再試行して、テーブルの一貫したビューが読み取られることを確認してください。
DELTA_TABLE_LOCATION_MISMATCH
既存のテーブル <tableName>
の場所は <existingTableLocation>
です。 指定した場所と一致しません <tableLocation>
。
DELTA_TABLE_NOT_FOUND
Delta テーブル <tableName>
が存在しません。
DELTA_TABLE_NOT_SUPPORTED_IN_OP
テーブルは <operation>
ではサポートされていません。 代わりにパスを使用してください。
DELTA_TABLE_ONLY_OPERATION
<tableName>
Delta テーブルではありません。 <operation>
は Delta テーブルでのみサポートされます。
DELTA_TARGET_TABLE_FINAL_SCHEMA_EMPTY
ターゲット テーブルの最終スキーマが空です。
DELTA_TIMESTAMP_GREATER_THAN_COMMIT
指定されたタイムスタンプ(<providedTimestamp>
)は、これに使用可能な最新バージョンの後です
テーブル (<tableName>
). <maximumTimestamp>
前またはのタイムスタンプを使用してください。
DELTA_TIMESTAMP_INVALID
指定されたタイムスタンプ (<expr>
) は、有効なタイムスタンプに変換できません。
DELTA_TIME_TRAVEL_INVALID_BEGIN_VALUE
<timeTravelKey>
有効な開始値である必要があります。
DELTA_TRUNCATED_TRANSACTION_LOG
<path>
: 手動削除、ログ保存ポリシー (<logRetentionKey>=<logRetention>
) およびチェックポイント保存ポリシー (<checkpointRetentionKey>=<checkpointRetention>
) により、トランザクション ログが切り捨てられたため、バージョン <version>
で状態を再構築できません
DELTA_TRUNCATE_TABLE_PARTITION_NOT_SUPPORTED
操作が許可されていない: Delta テーブルの TRUNCATE TABLE
では、パーティション述語はサポートされていません。 DELETE
を使用して、特定のパーティションまたは行を削除します。
DELTA_UDF_IN_GENERATED_COLUMN
<udfExpr>
見つかりました。生成された列でユーザー定義関数を使用することはできません
DELTA_UNEXPECTED_ACTION_EXPRESSION
予期しないアクション式 <expression>
.
DELTA_UNEXPECTED_NUM_PARTITION_COLUMNS_FROM_FILE_NAME
<expectedColsSize>
つのパーティション列が必要です: <expectedCols>
ですが、<parsedCols>
ファイル名の解析から<parsedColsSize>
パーティション列が見つかりました: <path>
DELTA_UNEXPECTED_PARTIAL_SCAN
Delta ソースのフル スキャンが想定されていますが、部分スキャンが見つかりました。 パス:<path>
DELTA_UNEXPECTED_PARTITION_COLUMN_FROM_FILE_NAME
パーティション列 の <expectedCol>
が必要ですが、ファイル名の解析でパーティション列の <parsedCol>
が見つかりました。 <path>
DELTA_UNEXPECTED_PARTITION_SCHEMA_FROM_USER
CONVERT
カタログから推論されたパーティションスキーマとは異なるパーティションスキーマで呼び出された DELTA
、カタログからパーティションスキーマを選択できるようにスキーマを提供しないでください。
カタログパーティションスキーマ:
<catalogPartitionSchema>
提供されるパーティションスキーマ:
<userPartitionSchema>
DELTA_UNIFORM_COMPATIBILITY_LOCATION_CANNOT_BE_CHANGED
delta.universalFormat.compatibility.location は変更できません。
DELTA_UNIFORM_COMPATIBILITY_LOCATION_NOT_REGISTERED
delta.universalFormat.compatibility.location がカタログに登録されていません。
DELTA_UNIFORM_COMPATIBILITY_MISSING_OR_INVALID_LOCATION
Uniform 互換性形式の場所がないか、無効です。 delta.universalFormat.compatibility.location のディレクトリを空に設定してください。
失敗した理由:
詳細については、 DELTA_UNIFORM_COMPATIBILITY_MISSING_OR_INVALID_LOCATION
DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION
IcebergDeltaUniform の の読み取りに失敗しました。
詳細については、 DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION
DELTA_UNIFORM_INGRESS_NOT_SUPPORTED
ユニフォームイングレステーブルの作成または更新はサポートされていません。
DELTA_UNIFORM_INGRESS_NOT_SUPPORTED_FORMAT
形式 <fileFormat>
はサポートされていません。 元のファイル形式としての iceberg のみがサポートされています。
DELTA_UNIFORM_NOT_SUPPORTED
ユニバーサル形式は、 Unity Catalog テーブルでのみサポートされています。
DELTA_UNIFORM_REFRESH_NOT_SUPPORTED
REFRESH
識別子 SYNC UNIFORM
は、次の理由によりサポートされていません。
詳細については、 DELTA_UNIFORM_REFRESH_NOT_SUPPORTED
DELTA_UNIFORM_REFRESH_NOT_SUPPORTED_FOR_MANAGED_ICEBERG_TABLE_WITH_METADATA_PATH
REFRESH TABLE
with の METADATA_PATH
は、マネージド Iceberg テーブルではサポートされていません
DELTA_UNIVERSAL_FORMAT_CONVERSION_FAILED
テーブル バージョン <version>
をユニバーサル形式 <format>
に変換できませんでした。 <message>
DELTA_UNIVERSAL_FORMAT_VIOLATION
ユニバーサル形式(<format>
)の検証に失敗しました。 <violation>
DELTA_UNKNOWN_CONFIGURATION
不明な構成が指定されました: <config>
DELTA_UNKNOWN_PRIVILEGE
不明な権限: <privilege>
DELTA_UNKNOWN_READ_LIMIT
不明な読み取り制限: <limit>
DELTA_UNRECOGNIZED_COLUMN_CHANGE
認識できない列の変更<otherClass>
古いバージョンの Delta Lake を実行している可能性があります。
DELTA_UNRECOGNIZED_INVARIANT
認識されない不変条件。 Sparkのバージョンをアップグレードしてください。
DELTA_UNRECOGNIZED_LOGFILE
認識されないログファイル <fileName>
DELTA_UNSET_NON_EXISTENT_PROPERTY
テーブル内の存在しないプロパティ '<property>
' の設定を解除しようとしました <tableName>
DELTA_UNSUPPORTED_ABS_PATH_ADD_FILE
<path>
絶対パスを持つファイルの追加はサポートされていません
DELTA_UNSUPPORTED_ALTER_TABLE_CHANGE_COL_OP
ALTER TABLE CHANGE COLUMN
は、列 <fieldPath>
を <oldField>
から <newField>
DELTA_UNSUPPORTED_ALTER_TABLE_REPLACE_COL_OP
サポートされていない ALTER TABLE REPLACE COLUMNS
操作。 理由: <details>
スキーマの変更に失敗しました:
<oldSchema>
宛先:
<newSchema>
DELTA_UNSUPPORTED_CLONE_REPLACE_SAME_TABLE
既存のテーブル (<tableName>
) を CLONE
でREPLACE
しようとしました。この操作は
サポート。 別のターゲットを CLONE
に試すか、現在のターゲットのテーブルを削除します。
DELTA_UNSUPPORTED_COLUMN_MAPPING_MODE_CHANGE
列マッピング モードを '<oldMode>
' から '<newMode>
' に変更することはサポートされていません。
DELTA_UNSUPPORTED_COLUMN_MAPPING_OPERATIONS_ON_COLUMNS_WITH_BLOOM_FILTER_INDEX
列に対して <opName>
列マッピング操作を実行できませんでした <columnNames>
これらの列にはブルームフィルターインデックスがあるためです。
列に対して列マッピング操作を実行する場合
ブルームフィルターインデックス付き、
最初にブルームフィルターインデックスを削除してください。
DROP BLOOMFILTER INDEX ON TABLE
テーブル名 FOR COLUMNS(<columnNames>
)
代わりに、テーブル上のすべてのブルーム フィルター インデックスを削除する場合は、次を使用します。
DROP BLOOMFILTER INDEX ON TABLE
テーブル名
DELTA_UNSUPPORTED_COLUMN_MAPPING_PROTOCOL
現在のテーブル プロトコル バージョンでは、列マッピング モードの変更はサポートされていません
<config>
.
列マッピングに必要な Delta プロトコルのバージョン:
<requiredVersion>
テーブルの現在の Delta プロトコルバージョン:
<currentVersion>
<advice>
DELTA_UNSUPPORTED_COLUMN_MAPPING_SCHEMA_CHANGE
スキーマの変更が検出されました。
古いスキーマ:
<oldTableSchema>
新しいスキーマ:
<newTableSchema>
カラム・マッピング・モードの変更中にスキーマを変更することはできません。
DELTA_UNSUPPORTED_COLUMN_MAPPING_WRITE
カラム・マッピング・モードでのデータ書き込みはサポートされていません。
DELTA_UNSUPPORTED_COLUMN_TYPE_IN_BLOOM_FILTER
<dataType>
型の列に対するブルーム フィルター インデックスの作成はサポートされていません。 <columnName>
DELTA_UNSUPPORTED_COMMENT_MAP_ARRAY
<fieldPath>
にコメントを追加できません。マップのキー/値または配列要素へのコメントの追加はサポートされていません。
DELTA_UNSUPPORTED_DATA_TYPES
サポートされていないデータ型を使用している列が見つかりました: <dataTypeList>
. 「<config>
」を「false」に設定すると、タイプチェックを無効にすることができます。 この種類のチェックを無効にすると、ユーザーはサポートされていない Delta テーブルを作成できる場合があり、レガシ テーブルの読み取り/書き込みを試みる場合にのみ使用する必要があります。
DELTA_UNSUPPORTED_DATA_TYPE_IN_GENERATED_COLUMN
<dataType>
生成された列の結果にすることはできません
DELTA_UNSUPPORTED_DEEP_CLONE
ディープクローンは、この Delta バージョンではサポートされていません。
DELTA_UNSUPPORTED_DESCRIBE_DETAIL_VIEW
<view>
ビューです。 DESCRIBE DETAIL
はテーブルでのみサポートされています。
DELTA_UNSUPPORTED_DROP_CLUSTERING_COLUMN
クラスタリング列 (<columnList>
) の削除は許可されていません。
DELTA_UNSUPPORTED_DROP_COLUMN
DROP COLUMN
は、Delta テーブルではサポートされていません。 <advice>
DELTA_UNSUPPORTED_DROP_NESTED_COLUMN_FROM_NON_STRUCT_TYPE
ネストされた列は StructType からのみ削除できます。 設立する <struct>
DELTA_UNSUPPORTED_DROP_PARTITION_COLUMN
パーティション列 (<columnList>
) の削除は許可されていません。
DELTA_UNSUPPORTED_EXPRESSION
<causedBy>
でサポートされていない式タイプ (<expType>
)サポートされているタイプは [<supportedTypes>
] です。
DELTA_UNSUPPORTED_EXPRESSION_GENERATED_COLUMN
<expression>
生成された列では使用できません
DELTA_UNSUPPORTED_FEATURES_FOR_READ
Unsupported Delta read 特徴量テーブル "<tableNameOrPath>
" には、このバージョンの Databricks: <unsupported>
でサポートされていないリーダー テーブル機能が必要です。 Delta Lake機能の互換性の詳細については、<link>
を参照してください。
DELTA_UNSUPPORTED_FEATURES_FOR_WRITE
Unsupported Delta write 特徴量テーブル "<tableNameOrPath>
" には、このバージョンの Databricks: <unsupported>
でサポートされていない writer テーブル機能が必要です。 Delta Lake機能の互換性の詳細については、<link>
を参照してください。
DELTA_UNSUPPORTED_FEATURES_IN_CONFIG
次の Spark 構成または Delta テーブル プロパティで構成されたテーブル機能は、このバージョンの Databricks では認識されません: <configs>
。
DELTA_UNSUPPORTED_FEATURE_STATUS
テーブル機能 <feature>
のステータスが「サポート」されていることを期待していましたが、「<status>
」を取得しました。
DELTA_UNSUPPORTED_FIELD_UPDATE_NON_STRUCT
ネストされたフィールドの更新は StructType でのみサポートされていますが、タイプ : : <dataType>
の <columnName>
のフィールドを更新しようとしています。
DELTA_UNSUPPORTED_FSCK_WITH_DELETION_VECTORS
'FSCK REPAIR TABLE
' コマンドは、削除ベクトル ファイルが欠落しているテーブル バージョンではサポートされていません。
サポートにお問い合わせください。
DELTA_UNSUPPORTED_GENERATE_WITH_DELETION_VECTORS
'GENERATE
symlink_format_manifest' コマンドは、削除ベクトルを持つテーブルバージョンではサポートされていません。
削除ベクトルのないバージョンのテーブルを生成するには、「REORG TABLE
table APPLY (PURGE
)」を実行します。 その後、「GENERATE
」コマンドを再実行します。
並列トランザクションが REORG
と GENERATE
の間に削除ベクトルを再度追加していないことを確認します。
マニフェストを定期的に生成する必要がある場合、または並列トランザクションを防止できない場合は、'ALTER TABLE
テーブル SET TBLPROPERTIES
(delta.enableDeletionVectors) を使用して、このテーブルで削除ベクトルを無効にすることを検討してください = false)' です。
DELTA_UNSUPPORTED_INVARIANT_NON_STRUCT
StructTypes 以外のネストされたフィールドの不変式はサポートされていません。
DELTA_UNSUPPORTED_IN_SUBQUERY
In Subquery は、 <operation>
条件ではサポートされていません。
DELTA_UNSUPPORTED_LIST_KEYS_WITH_PREFIX
listKeywithPrefix は使用できません
DELTA_UNSUPPORTED_MANIFEST_GENERATION_WITH_COLUMN_MAPPING
マニフェストの生成は、列マッピングを利用するテーブルではサポートされません。これは、外部リーダーがこれらの Delta テーブルを読み取ることができないためです。 詳細については、Delta のドキュメントを参照してください。
DELTA_UNSUPPORTED_MERGE_SCHEMA_EVOLUTION_WITH_CDC
MERGE INTO
スキーマ進化を伴う操作は、現在、出力 CDC 書き込みをサポートしていません。
DELTA_UNSUPPORTED_MULTI_COL_IN_PREDICATE
複数列の In 述部は、 <operation>
条件ではサポートされていません。
DELTA_UNSUPPORTED_NESTED_COLUMN_IN_BLOOM_FILTER
ネストされたカラムでのブルームファイラーインデックスの作成は、現在サポートされていません。 <columnName>
DELTA_UNSUPPORTED_NESTED_FIELD_IN_OPERATION
ネストされたフィールドは、 <operation>
(field = <fieldName>
) ではサポートされていません。
DELTA_UNSUPPORTED_NON_EMPTY_CLONE
クローン先テーブルが空ではありません。 CLONE
を実行する前に、テーブルをTRUNCATE
またはDELETE FROM
してください。
DELTA_UNSUPPORTED_OUTPUT_MODE
データソース <dataSource>
は <mode>
出力モードをサポートしていません
DELTA_UNSUPPORTED_PARTITION_COLUMN_IN_BLOOM_FILTER
パーティション分割列でのブルーム フィルター インデックスの作成はサポートされていません。 <columnName>
DELTA_UNSUPPORTED_RENAME_COLUMN
列の名前変更は、Delta テーブルではサポートされていません。 <advice>
DELTA_UNSUPPORTED_SCHEMA_DURING_READ
Delta では、読み取り時のスキーマの指定はサポートされていません。
DELTA_UNSUPPORTED_SORT_ON_BUCKETED_TABLES
SORTED BY
Delta バケット テーブルではサポートされていません
DELTA_UNSUPPORTED_SOURCE
<operation>
宛先は Delta ソースのみをサポートします。
<plan>
DELTA_UNSUPPORTED_STATIC_PARTITIONS
パーティション仕様での静的パーティションの指定は、現在、挿入中にはサポートされていません
DELTA_UNSUPPORTED_STRATEGY_NAME
サポートされていない戦略名: <strategy>
DELTA_UNSUPPORTED_SUBQUERY
サブクエリは、 <operation>
ではサポートされていません (条件 = <cond>
)。
DELTA_UNSUPPORTED_SUBQUERY_IN_PARTITION_PREDICATES
サブクエリは、パーティション述部ではサポートされていません。
DELTA_UNSUPPORTED_TIME_TRAVEL_MULTIPLE_FORMATS
タイムトラベルを複数の形式で指定することはできません。
DELTA_UNSUPPORTED_TIME_TRAVEL_VIEWS
タイムトラベル ビュー、サブクエリ、ストリーム、またはチェンジデータフィード クエリはできません。
DELTA_UNSUPPORTED_TRUNCATE_SAMPLE_TABLES
サンプル テーブルの切り捨てはサポートされていません
DELTA_UNSUPPORTED_TYPE_CHANGE_IN_SCHEMA
サポートされていない型の変更が適用されたため、このテーブルを操作できません。 フィールド <fieldName>
が <fromType>
から <toType>
に変更されました。
DELTA_UNSUPPORTED_TYPE_CHANGE_ON_COLUMNS_WITH_BLOOM_FILTER_INDEX
列のデータ型を変更できませんでした <columnNames>
これらの列にはブルームフィルターインデックスがあるためです。
Bloom Filter Index(es)を使用して列のデータ型を変更する場合は、
最初にブルームフィルターインデックスを削除してください。
DROP BLOOMFILTER INDEX ON TABLE
テーブル名 FOR COLUMNS(<columnNames>
)
代わりに、テーブル上のすべてのブルーム フィルター インデックスを削除する場合は、次を使用します。
DROP BLOOMFILTER INDEX ON TABLE
テーブル名
DELTA_UNSUPPORTED_VACUUM_SPECIFIC_PARTITION
テーブル vacuum Delta るときは、ベースパス(<baseDeltaPath>
)を指定してください。 特定のパーティションvacuumは現在サポートされていません。
DELTA_UNSUPPORTED_WRITES_STAGED_TABLE
テーブルの実装では、次の書き込みはサポートされていません。 <tableName>
DELTA_UNSUPPORTED_WRITES_WITHOUT_COORDINATOR
コミット・コーディネータ <coordinatorName>
に登録されているテーブルに対して書き込みを実行しようとしています。 ただし、このコーディネーターの実装は現在の環境では使用できず、コーディネーターなしの書き込みは許可されません。
DELTA_UNSUPPORTED_WRITE_SAMPLE_TABLES
サンプル テーブルへの書き込みはサポートされていません
DELTA_UPDATE_SCHEMA_MISMATCH_EXPRESSION
<fromCatalog>
を <toCatalog>
にキャストできません。ネストされたすべての列が一致する必要があります。
DELTA_VACUUM_COPY_INTO_STATE_FAILED
VACUUM
ON データ ファイルは成功しましたが、状態 COPY INTO
ガベージ コレクションは失敗しました。
DELTA_VERSIONS_NOT_CONTIGUOUS
バージョン (<versionList>
) は連続していません。
詳細については、 DELTA_VERSIONS_NOT_CONTIGUOUS
DELTA_VIOLATE_CONSTRAINT_WITH_VALUES
CHECK
制約 <constraintName> <expression>
値を持つ行によって違反されました:
<values>
DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED
テーブル <table>
のプロパティの検証に違反しました。
詳細については、 DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED
DELTA_WRITE_INTO_VIEW_NOT_SUPPORTED
<viewIdentifier>
ビューです。 ビューにデータを書き込むことはできません。
DELTA_ZORDERING_COLUMN_DOES_NOT_EXIST
Z-Ordering 列<columnName>
がデータ スキーマに存在しません。
DELTA_ZORDERING_ON_COLUMN_WITHOUT_STATS
<cols>
Z-Orderingは
現在、これらの列の統計を収集していないため、効果がありません。 を参照してください。
<link>
詳細については、データのスキップと Z-Orderingを参照してください。 無効にできます
このチェックは、設定によって
'%%sql set <zorderColStatKey>
= false'
DELTA_ZORDERING_ON_PARTITION_COLUMN
<colName>
パーティション列です。 Z-Ordering はデータ列に対してのみ実行できます
Delta Sharing
DELTA_SHARING_ACTIVATION_NONCE_DOES_NOT_EXIST
SQLSTATE: 割り当てられていない
アクティベーションが見つかりません。 使用したアクティベーションリンクが無効であるか、有効期限が切れています。 アクティベーションリンクを再生成して、再試行してください。
DELTA_SHARING_CROSS_REGION_SHARE_UNSUPPORTED
SQLSTATE: 割り当てられていない
<regionHint>
リージョンとその外部のリージョン間での共有はサポートされていません。
DELTA_SHARING_GET_RECIPIENT_PROPERTIES_INVALID_DEPENDENT
SQLSTATE: 割り当てられていない
current_recipient
関数で定義されたビューは共有専用であり、データ受信者側からのみクエリを実行できます。ID が <securableId>
で提供されているセキュリティ保護可能なリソースは、Delta Sharing View ではありません。
DELTA_SHARING_MUTABLE_SECURABLE_KIND_NOT_SUPPORTED
SQLSTATE: 割り当てられていない
提供されているセキュリティ保護可能な種類の <securableKind>
は、Delta Sharing での変更可能性をサポートしていません。
DELTA_SHARING_ROTATE_TOKEN_NOT_AUTHORIZED_FOR_MARKETPLACE
SQLSTATE: 割り当てられていない
提供されているセキュリティ保護可能な種類の <securableKind>
は、Marketplace サービスによって開始されるトークンのローテーション アクションをサポートしていません。
DS_AUTH_TYPE_NOT_AVAILABLE
SQLSTATE: 割り当てられていない
<dsError>
: プロバイダエンティティ <providerEntity>
では使用できません。
DS_CDF_NOT_ENABLED
SQLSTATE: 割り当てられていない
<dsError>
: <tableName>
のチェンジデータフィードにアクセスできません。 CDFは、元のデルタ・テーブルで有効になっていません。 データ提供者にお問い合わせください。
DS_CDF_NOT_SHARED
SQLSTATE: 割り当てられていない
<dsError>
: <tableName>
のチェンジデータフィードにアクセスできません。 CDF はテーブル上で共有されません。 データ提供者にお問い合わせください。
DS_CDF_RPC_INVALID_PARAMETER
SQLSTATE: 割り当てられていない
<dsError>
: <message>
DS_CLIENT_AUTH_ERROR_FOR_DB_DS_SERVER
SQLSTATE: 割り当てられていない
<dsError>
: <message>
DS_CLIENT_ERROR_FOR_DB_DS_SERVER
SQLSTATE: 割り当てられていない
<dsError>
: <message>
DS_CLIENT_OAUTH_TOKEN_EXCHANGE_FAILURE
SQLSTATE: 割り当てられていない
<dsError>
: <message>
DS_CLIENT_OAUTH_TOKEN_EXCHANGE_UNAUTHORIZED
SQLSTATE: 割り当てられていない
<dsError>
: <message>
DS_CLOUD_VENDOR_UNAVAILABLE
SQLSTATE: 割り当てられていない
<dsError>
:クラウドベンダーが一時的に <rpcName>
利用できないため、再試行してください。<traceId>
DS_DATA_MATERIALIZATION_COMMAND_FAILED
SQLSTATE: 割り当てられていない
<dsError>
: 組織から<runId>
されたデータ マテリアライゼーション タスクの実行がコマンドで失敗<orgId>
<command>
DS_DATA_MATERIALIZATION_COMMAND_NOT_SUPPORTED
SQLSTATE: 割り当てられていない
<dsError>
: 組織から <runId>
されたデータ実体化タスクの実行 <orgId>
コマンドをサポートしていない <command>
DS_DATA_MATERIALIZATION_NO_VALID_NAMESPACE
SQLSTATE: 割り当てられていない
<dsError>
: <tableName>
の実体化を作成するための有効な名前空間が見つかりませんでした。 これを修正するには、データプロバイダーにお問い合わせください。
DS_DATA_MATERIALIZATION_RUN_DOES_NOT_EXIST
SQLSTATE: 割り当てられていない
<dsError>
: 組織<orgId>
から<runId>
データ具体化タスク実行が存在しない
DS_DELTA_ILLEGAL_STATE
SQLSTATE: 割り当てられていない
<dsError>
: <message>
DS_DELTA_MISSING_CHECKPOINT_FILES
SQLSTATE: 割り当てられていない
<dsError>
: バージョン: <version>
のチェックポイントのすべてのパーツ ファイルが見つかりませんでした。 <suggestion>
DS_DELTA_NULL_POINTER
SQLSTATE: 割り当てられていない
<dsError>
: <message>
DS_DELTA_RUNTIME_EXCEPTION
SQLSTATE: 割り当てられていない
<dsError>
: <message>
DS_EXPIRE_TOKEN_NOT_AUTHORIZED_FOR_MARKETPLACE
SQLSTATE: 割り当てられていない
<dsError>
: 提供されているセキュリティ保護可能な種類の <securableKind>
は、Marketplace サービスによって開始されるトークンの有効期限アクションをサポートしていません。
DS_FAILED_REQUEST_TO_OPEN_DS_SERVER
SQLSTATE: 割り当てられていない
<dsError>
: <message>
DS_FEATURE_ONLY_FOR_DATABRICKS_TO_DATABRICKS
SQLSTATE: 割り当てられていない
<dsError>
: <feature>
は、 Databricks から Databricks Delta への共有に対してのみ有効です。
DS_FILE_LISTING_EXCEPTION
SQLSTATE: 割り当てられていない
<dsError>
: <storage>
: <message>
DS_FILE_SIGNING_EXCEPTION
SQLSTATE: 割り当てられていない
<dsError>
: <message>
DS_FLAKY_NETWORK_CONNECTION
SQLSTATE: 割り当てられていない
<dsError>
:ネットワーク接続が不安定な <rpcName>
、再試行してください。<traceId>
DS_FOREIGN_TABLE_METADATA_REFRESH_FAILED
SQLSTATE: 割り当てられていない
<dsError>
: <message>
DS_HADOOP_CONFIG_NOT_SET
SQLSTATE: 割り当てられていない
<dsError>
: <key>
は呼び出し元によって設定されません。
DS_ILLEGAL_STATE
SQLSTATE: 割り当てられていない
<dsError>
: <message>
DS_INTERNAL_ERROR_FROM_DB_DS_SERVER
SQLSTATE: 割り当てられていない
<dsError>
: <message>
DS_INVALID_AZURE_PATH
SQLSTATE: 割り当てられていない
<dsError>
: 無効な Azure パス: <path>
.
DS_INVALID_DELTA_ACTION_OPERATION
SQLSTATE: 割り当てられていない
<dsError>
: <message>
DS_INVALID_FIELD
SQLSTATE: 割り当てられていない
<dsError>
: <message>
DS_INVALID_ITERATOR_OPERATION
SQLSTATE: 割り当てられていない
<dsError>
: <message>
DS_INVALID_PARTITION_SPEC
SQLSTATE: 割り当てられていない
<dsError>
: <message>
DS_INVALID_RESPONSE_FROM_DS_SERVER
SQLSTATE: 割り当てられていない
<dsError>
: <message>
DS_MATERIALIZATION_QUERY_FAILED
SQLSTATE: 割り当てられていない
<dsError>
: <schema>
のクエリに失敗しました。シェア<share>
から<table>
。
DS_MATERIALIZATION_QUERY_TIMEDOUT
SQLSTATE: 割り当てられていない
<dsError>
: クエリが 1 <schema>
でタイムアウトしました。<timeoutInSec>
秒後にShare <share>
から<table>
します。
DS_MISSING_IDEMPOTENCY_KEY
SQLSTATE: 割り当てられていない
<dsError>
: 冪等性キーは、クエリ<schema>
ときに必要です。Share <share>
から<table>
非同期的に行われます。
DS_MORE_THAN_ONE_RPC_PARAMETER_SET
SQLSTATE: 割り当てられていない
<dsError>
: 次のいずれか <parameters>
のみを指定してください。
DS_NO_METASTORE_ASSIGNED
SQLSTATE: 割り当てられていない
<dsError>
: 現在のワークスペースにメタストアが割り当てられていません (workspaceId: <workspaceId>
)。
DS_O2D_OIDC_WORKLOAD_IDENTITY_TOKEN_GENERATION_FAILED
SQLSTATE: 割り当てられていない
<dsError>
: O2D OIDC プロバイダーのワークロード ID トークンの生成に失敗しました: <message>
.
DS_PAGINATION_AND_QUERY_ARGS_MISMATCH
SQLSTATE: 割り当てられていない
<dsError>
: ページネーションまたはクエリ引数が一致しません。
DS_PARTITION_COLUMNS_RENAMED
SQLSTATE: 割り当てられていない
<dsError>
: 共有テーブルでパーティション列 [<renamedColumns>
] の名前が変更されました。 これを修正するには、データプロバイダーにお問い合わせください。
DS_QUERY_BEFORE_START_VERSION
SQLSTATE: 割り当てられていない
<dsError>
: テーブル データのクエリを実行できるのは、バージョン <startVersion>
以降のみです。
DS_QUERY_TIMEOUT_ON_SERVER
SQLSTATE: 割り当てられていない
<dsError>
: <numIter>
イテレーション間で更新<numActions>
後に<tableName>
で<queryType>
を処理するときにタイムアウトが発生しました。<progressUpdate> <suggestion> <traceId>
DS_RATE_LIMIT_ON_DS_SERVER
SQLSTATE: 割り当てられていない
<dsError>
: <message>
DS_RECIPIENT_RPC_INVALID_PARAMETER
SQLSTATE: 割り当てられていない
<dsError>
: <message>
DS_RESOURCE_ALREADY_EXIST_ON_DS_SERVER
SQLSTATE: 割り当てられていない
<dsError>
: <message>
DS_RESOURCE_EXHAUSTED
SQLSTATE: 割り当てられていない
<dsError>
: 制限を超えた <resource>
: [<limitSize>
]<suggestion>
.<traceId>
DS_RESOURCE_NOT_FOUND_ON_DS_SERVER
SQLSTATE: 割り当てられていない
<dsError>
: <message>
DS_SYSTEM_WORKSPACE_GROUP_PERMISSION_UNSUPPORTED
SQLSTATE: 割り当てられていない
<securableType>
に対する権限をシステム生成グループ <principal>
に付与できません。
DS_TIME_TRAVEL_NOT_PERMITTED
SQLSTATE: 割り当てられていない
<dsError>
: タイムトラベルクエリは、履歴が で共有されていない限り <tableName>
許可されません。 データ提供者にお問い合わせください。
DS_UNAUTHORIZED
SQLSTATE: 割り当てられていない
<dsError>
:不正。
DS_UNAUTHORIZED_D2O_OIDC_RECIPIENT
SQLSTATE: 割り当てられていない
<dsError>
: 許可されていない D2O OIDC 受信者: <message>
.
DS_UNKNOWN_EXCEPTION
SQLSTATE: 割り当てられていない
<dsError>
: <traceId>
DS_UNKNOWN_QUERY_ID
SQLSTATE: 割り当てられていない
<dsError>
: 不明なクエリ ID が <schema>
の <queryID>
です。シェア<share>
から<table>
。
DS_UNKNOWN_QUERY_STATUS
SQLSTATE: 割り当てられていない
<dsError>
: クエリ ID の不明なクエリ ステータス<queryID>
<schema>
のクエリ ステータス。シェア<share>
から<table>
。
DS_UNKNOWN_RPC
SQLSTATE: 割り当てられていない
<dsError>
: 不明な rpc の <rpcName>
。
DS_UNSUPPORTED_DELTA_READER_VERSION
SQLSTATE: 割り当てられていない
<dsError>
: Delta プロトコル リーダー バージョン <tableReaderVersion>
は <supportedReaderVersion>
より高く、デルタ共有サーバーではサポートされていません。
DS_UNSUPPORTED_DELTA_TABLE_FEATURES
SQLSTATE: 割り当てられていない
<dsError>
: テーブル内にあるテーブルの特徴<tableFeatures>``\<versionStr\> \<historySharingStatusStr\> \<optionStr\>
DS_UNSUPPORTED_OPERATION
SQLSTATE: 割り当てられていない
<dsError>
: <message>
DS_UNSUPPORTED_STORAGE_SCHEME
SQLSTATE: 割り当てられていない
<dsError>
: サポートされていないストレージ スキーム: <scheme>
.
DS_UNSUPPORTED_TABLE_TYPE
SQLSTATE: 割り当てられていない
<dsError>
: <schema>
を取得できませんでした。<table>
は、種類 [<tableType>
] のテーブルが現在 Delta Sharing プロトコルでサポートされていないため、Share <share>
からします。
DS_USER_CONTEXT_ERROR
SQLSTATE: 割り当てられていない
<dsError>
: <message>
DS_VIEW_SHARING_FUNCTIONS_NOT_ALLOWED
SQLSTATE: 割り当てられていない
<dsError>
: 次の関数: ビュー共有クエリで <functions>
は使用できません。
DS_WORKSPACE_DOMAIN_NOT_SET
SQLSTATE: 割り当てられていない
<dsError>
: ワークスペース <workspaceId>
ドメインが設定されていません。
DS_WORKSPACE_NOT_FOUND
SQLSTATE: 割り当てられていない
<dsError>
: ワークスペース <workspaceId>
が見つかりませんでした。
オートローダ
CF_ADD_NEW_NOT_SUPPORTED
スキーマ <addNewColumnsMode>
スキーマが指定されている場合、スキーマ進化モードはサポートされません。 このモードを使用するには、代わりに cloudFiles.schemaHints
を使用してスキーマを指定できます。
CF_AMBIGUOUS_AUTH_OPTIONS_ERROR
(デフォルト) ディレクトリの notification-setup 認証オプションが見つかりました
リスティングモード:
<options>
ファイル通知モードを使用する場合は、明示的に設定してください。
.option("cloudFiles.<useNotificationsKey>
"", "true")
または、オプションの検証をスキップしてこれらを無視する場合は、
認証オプションでは、次の設定を行うことができます。
.option("cloudFiles.ValidateOptionsKey>", "false")
CF_AMBIGUOUS_INCREMENTAL_LISTING_MODE_ERROR
増分リスト・モード(cloudFiles.<useIncrementalListingKey>
)
およびファイル通知(cloudFiles.<useNotificationsKey>
)
が同時に有効になっています。
必ず1つだけ選択してください。
CF_AZURE_AUTHENTICATION_MISSING_OPTIONS
Azure で認証するには、Databricks サービスの資格情報、または clientId と clientSecret の両方を指定してください。
CF_AZURE_AUTHENTICATION_MULTIPLE_OPTIONS
Databricks サービスの資格情報が提供されている場合、他の資格情報オプション (例: clientId、clientSecret、または connectionString) を指定する必要があります。
CF_AZURE_STORAGE_SUFFIXES_REQUIRED
Azure の adlsBlobSuffix と adlsDfsSuffix が必要
CF_BUCKET_MISMATCH
ファイル イベント <fileEvent>
の<storeType>
が、ソース (<source>
) で予期されたものと異なります。
CF_CANNOT_EVOLVE_SCHEMA_LOG_EMPTY
スキーマログが空の場合は、スキーマを進化できません。 スキーマ ログの場所: <logPath>
CF_CANNOT_PARSE_QUEUE_MESSAGE
次のキュー メッセージを解析できません。 <message>
CF_CANNOT_RESOLVE_CONTAINER_NAME
パスからコンテナ名を解決できません: <path>
、解決されたuri: <uri>
CF_CANNOT_RUN_DIRECTORY_LISTING
非同期バックフィル スレッドが実行されている場合は、ディレクトリ リストを実行できません
CF_CLEAN_SOURCE_ALLOW_OVERWRITES_BOTH_ON
cloudFiles.cleanSource と cloudFiles.allowOverwrites を同時にオンにすることはできません。
CF_CLEAN_SOURCE_UNAUTHORIZED_WRITE_PERMISSION
Auto Loader は、ソース ディレクトリへの書き込みアクセス許可がないため、処理されたファイルを削除できません。
<reason>
修正するには、次のいずれかを実行します。
- ソースディレクトリへの書き込み権限を付与する OR
- cleanSourceを「OFF」に設定する
また、SQLConf spark.databricks.cloudFiles.cleanSource.disabledDueToAuthorizationErrors を設定して、ストリームのブロックを解除することもできます を 'true' に設定します。
CF_DUPLICATE_COLUMN_IN_DATA
テーブルのパーティションスキーマを推測しようとしたときにエラーが発生しました。 データ パスとパーティション パスに同じ列が複製されています。 パーティション値を無視するには、.option("cloudFiles.<partitionColumnsKey>
", "{comma-separated-list}")
CF_EMPTY_DIR_FOR_SCHEMA_INFERENCE
入力パス <path>
が空の場合、スキーマを推論できません。 入力パスにファイルがあるときにストリームを開始してみてください、またはスキーマを指定してください。
CF_EVENT_GRID_AUTH_ERROR
Event Grid サブスクリプションを作成できませんでした。 あなたのサービスを確認してください
principal には <permissionType>
Event Grid サブスクリプションがあります。 詳細については、以下をご覧ください。
<docLink>
CF_EVENT_GRID_CREATION_FAILED
Event Grid サブスクリプションを作成できませんでした。 Microsoft.EventGrid が
サブスクリプションにリソース プロバイダーとして登録されています。 詳細については、以下をご覧ください。
<docLink>
CF_EVENT_GRID_NOT_FOUND_ERROR
Event Grid サブスクリプションを作成できませんでした。 ストレージを確認してください
アカウント (<storageAccount>
) はリソースグループ (<resourceGroup>
) の下にあり、
ストレージ アカウントは "StorageV2 (汎用 v2)" アカウントです。 詳細については、以下をご覧ください。
<docLink>
CF_EVENT_NOTIFICATION_NOT_SUPPORTED
Auto Loader イベント通知モードは、<cloudStore>
ではサポートされていません。
CF_FAILED_TO_CHECK_STREAM_NEW
ストリームが新しいかどうかを確認できませんでした
CF_FAILED_TO_CREATED_PUBSUB_SUBSCRIPTION
サブスクリプションを作成できませんでした: <subscriptionName>
。 同じ名前のサブスクリプションがすでに存在し、別のトピック <otherTopicName>
に関連付けられています。 目的のトピックは <proposedTopicName>
です。 既存のサブスクリプションを削除するか、新しいリソース サフィックスを使用してサブスクリプションを作成します。
CF_FAILED_TO_CREATED_PUBSUB_TOPIC
トピックの作成に失敗しました: <topicName>
。 同じ名前のトピックがすでに存在します。<reason>
既存のトピックを削除するか、別のリソースサフィックスを使用して再試行してください
CF_FAILED_TO_DELETE_GCP_NOTIFICATION
トピック <topicName>
のバケット <bucketName>
の ID が <notificationId>
の通知を削除できませんでした。GCP Console から通知を再試行するか、手動で削除してください。
CF_FAILED_TO_DESERIALIZE_PERSISTED_SCHEMA
永続化されたスキーマを文字列から逆シリアル化できませんでした: '<jsonSchema>
'
CF_FAILED_TO_EVOLVE_SCHEMA
スキーマログがないとスキーマを進化できません。
CF_FAILED_TO_FIND_PROVIDER
のプロバイダーが見つかりませんでした <fileFormatInput>
CF_FAILED_TO_INFER_SCHEMA
入力パス <path>
の既存のファイルから形式<fileFormatInput>
のスキーマを推論できませんでした。
詳細については、 CF_FAILED_TO_INFER_SCHEMA
CF_FAILED_TO_WRITE_TO_SCHEMA_LOG
<path>
の場所にあるスキーマ ログへの書き込みに失敗しました。
CF_FILE_FORMAT_REQUIRED
必要なオプションが見つかりませんでした: cloudFiles.format。
CF_FOUND_MULTIPLE_AUTOLOADER_PUBSUB_SUBSCRIPTIONS
トピック <topicName>
のプレフィックスが Auto Loader である複数の (<num>
) サブスクリプションが見つかりました。
<subscriptionList>
サブスクリプションは、トピックごとに 1 つだけにする必要があります。 トピックに複数のサブスクリプションがないことを手動で確認してください。
CF_GCP_AUTHENTICATION
次のいずれかをご用意ください: <clientEmail>
、 <client>
、
<privateKey>
、Databricks サービス資格情報を使用するための<serviceCredential>
を<privateKeyId>
または提供します。
または、GCP リソースでの認証にデフォルトの GCP 認証情報プロバイダチェーンを使用するために、これらのいずれも指定しません。
CF_GCP_LABELS_COUNT_EXCEEDED
GCPリソースに対して受信したラベル (<num>
) が多すぎます。リソースあたりの最大ラベル数は <maxNum>
です。
CF_GCP_RESOURCE_TAGS_COUNT_EXCEEDED
GCP リソースに対して受信したリソース タグ (<num>
) が多すぎます。 リソース タグはリソース上の GCP ラベルとして格納され、特定のタグ Databricks このラベル クォータの一部を消費するため、リソースあたりのリソース タグの最大数は <maxNum>
です。
CF_INCOMPLETE_LOG_FILE_IN_SCHEMA_LOG
パスのスキーマ・ログ内の不完全なログ・ファイル <path>
CF_INCOMPLETE_METADATA_FILE_IN_CHECKPOINT
Auto Loaderチェックポイント内の不完全なメタデータファイル
CF_INCORRECT_BATCH_USAGE
CloudFilesはストリーミングソースです。 spark.readの代わりにspark.readStreamを使用してください。 このチェックを無効にするには、 <cloudFilesFormatValidationEnabled>
を false に設定します。
CF_INCORRECT_SQL_PARAMS
cloud_files メソッドは、読み込み元のパスとファイル形式の 2 つの必須文字列パラメーターを受け入れます。 ファイル リーダー オプションは、文字列のキーと値のマップで指定する必要があります。 例えば。 cloud_files("path", "JSON", map("オプション1", "値1")). 受け: <params>
CF_INCORRECT_STREAM_USAGE
ストリーミングソースとして「cloudFiles」を使用するには、オプション「cloudFiles.format」を使用してファイル形式を指定してください。 .load() を使用して DataFrame を作成します。 このチェックを無効にするには、 <cloudFilesFormatValidationEnabled>
を false に設定します。
CF_INTERNAL_ERROR
内部エラー。
詳細については、 CF_INTERNAL_ERROR
CF_INVALID_ARN
無効な ARN : <arn>
CF_INVALID_AZURE_CERTIFICATE
オプション cloudFiles.certificate で指定された秘密鍵は解析できません。 PEM 形式の有効な公開キーを提供してください。
CF_INVALID_AZURE_CERT_PRIVATE_KEY
オプション cloudFiles.certificatePrivateKey で提供される秘密鍵 解析できません。 有効な秘密鍵をPEM形式で提供してください。
CF_INVALID_CHECKPOINT
このチェックポイントは有効な CloudFiles ソース ではありません
CF_INVALID_CLEAN_SOURCE_MODE
クリーン・ソース・オプション <value>
のモードが無効です。
CF_INVALID_GCP_RESOURCE_TAG_KEY
GCP リソースのリソース タグ キーが無効です: <key>
。 キーは小文字で始まり、1 から 63 文字以内で、小文字、数字、アンダースコア (_)、ハイフン (-) のみを含める必要があります。
CF_INVALID_GCP_RESOURCE_TAG_VALUE
GCP リソースのリソース タグ値が無効です: <value>
。 値は 0 から 63 文字以内で、小文字、数字、アンダースコア (_)、ハイフン (-) のみを含める必要があります。
CF_INVALID_MANAGED_FILE_EVENTS_OPTION_KEYS
Auto Loader は、管理対象ファイル・イベントで使用する場合、以下のオプションをサポートしません。
<optionList>
これらのオプションを削除してから、ストリームを再起動することをお勧めします。
CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE
Managed File Events サービスからの応答が無効です。 詳細については、Databricks サポートにお問い合わせください。
詳細については、 CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE
CF_INVALID_SCHEMA_EVOLUTION_MODE
cloudFiles です。<schemaEvolutionModeKey>
{
"<addNewColumns>
"
"<failOnNewColumns>
"
"<rescue>
"
"<noEvolution>
"}
CF_INVALID_SCHEMA_HINTS_OPTION
スキーマ ヒントでは、特定の列を 1 回だけ指定できます。
この場合、列を再定義します。 <columnName>
schemaHintsで複数回:
<schemaHints>
CF_INVALID_SCHEMA_HINT_COLUMN
スキーマ ヒントを使用して、マップと配列の入れ子になった型をオーバーライドすることはできません。
競合する列: <columnName>
CF_LATEST_OFFSET_READ_LIMIT_REQUIRED
latestOffset は、このソースで ReadLimit を指定して呼び出す必要があります。
CF_LOG_FILE_MALFORMED
ログ ファイルの形式が正しくありません: <fileName>
から正しいログ バージョンを読み取れませんでした。
CF_MANAGED_FILE_EVENTS_BACKFILL_IN_PROGRESS
includeExistingFiles を false に設定することで、外部ロケーション内の既存のファイルを無視するように Auto Loader に要求しました。 ただし、Managed File Events サービスは、外部ロケーション内の既存のファイルを引き続き検出しています。 Managed File Events が外部ロケーション内のすべてのファイルの検出を完了した後で、再試行してください。
CF_MANAGED_FILE_EVENTS_ENDPOINT_NOT_FOUND
管理ファイル・イベントで Auto Loader を使用していますが、入力パス '<path>
' の外部ロケーションでファイル・イベントが有効になっていないか、または入力パスが無効であるようです。 Databricks管理者に依頼して、入力パスの外部ロケーションでファイルイベントを有効にしてください。
CF_MANAGED_FILE_EVENTS_ENDPOINT_PERMISSION_DENIED
管理対象ファイル・イベントで Auto Loader を使用していますが、入力パス '<path>
' の外部ロケーションまたはボリュームにアクセスできないか、または入力パスが無効です。 Databricks管理者に依頼して、外部ロケーションまたはボリュームの読み取り権限を付与するか、既存の外部ロケーションまたはボリューム内の有効な入力パスを指定してください。
CF_MANAGED_FILE_EVENTS_ONLY_ON_SERVERLESS
Managed File Events を使用したAuto Loaderは、Databricks サーバレスでのみ使用できます。続行するには、このワークロードを Databricks サーバレスに移動するか、cloudFiles.useManagedFileEvents をオフにしてください オプション。
CF_MAX_MUST_BE_POSITIVE
max は正の値でなければならない
CF_METADATA_FILE_CONCURRENTLY_USED
複数のストリーミング クエリが同時に使用されています <metadataFile>
CF_MISSING_METADATA_FILE_ERROR
ストリーミング ソース チェックポイント ディレクトリのメタデータ ファイルがありません。 このメタデータ
ファイルにはストリームの重要なデフォルト・オプションが含まれているため、ストリームを再始動できません
今すぐ。 詳細については、Databricks サポートにお問い合わせください。
CF_MISSING_PARTITION_COLUMN_ERROR
パーティション列 <columnName>
が指定されたスキーマに存在しません。
<schema>
CF_MISSING_SCHEMA_IN_PATHLESS_MODE
.schema()を使用してスキーマを指定してください ファイル通知モードの使用中に CloudFiles ソースへのパスが提供されない場合。 あるいは、スキーマを推論する Auto Loader を得るには、 .load() でベースパスを指定してください。
CF_MULTIPLE_PUBSUB_NOTIFICATIONS_FOR_TOPIC
バケット<bucketName>
のトピック<topicName>
に関する既存の通知が見つかりました:
通知、ID
<notificationList>
意図しないイベントでサブスクライバーを汚染しないように、上記の通知を削除して再試行してください。
CF_NEW_PARTITION_ERROR
新しいパーティション列がファイルから推論されました: [<filesList>
] スキーマ内のすべてのパーティション列を指定するか、値を抽出するパーティション列のリストを指定してください: .option("cloudFiles.partitionColumns", "{comma-separated-list|empty-string}")
CF_PARTITON_INFERENCE_ERROR
現在のファイルバッチのパーティションスキーマを推測しようとしたときにエラーが発生しました。 パーティション列は、.option("cloudFiles.<partitionColumnOption>
", "{comma-separated-list}")
CF_PATH_DOES_NOT_EXIST_FOR_READ_FILES
入力パス <path>
が存在しない場合は、ファイルを読み取ることができません。 入力パスが存在することを確認し、再試行してください。
CF_PERIODIC_BACKFILL_NOT_SUPPORTED
非同期バックフィルが無効になっている場合、定期的なバックフィルはサポートされません。 非同期バックフィル/ディレクトリリストを有効にするには、 spark.databricks.cloudFiles.asyncDirListing
を true に設定します
CF_PREFIX_MISMATCH
一致しないイベントが見つかりました: キー <key>
にプレフィックスがありません。 <prefix>
CF_PROTOCOL_MISMATCH
<message>
コードに他の変更を加える必要がない場合は、SQL
設定: '<sourceProtocolVersionKey> = <value>
'
をクリックしてストリームを再開します。 以下を参照してください。
<docLink>
詳細については、こちらをご覧ください。
CF_REGION_NOT_FOUND_ERROR
デフォルトの AWS リージョンを取得できませんでした。 cloudFiles.region オプションを使用してリージョンを指定してください。
CF_RESOURCE_SUFFIX_EMPTY
通知サービスを作成できませんでした: リソース サフィックスを空にすることはできません。
CF_RESOURCE_SUFFIX_INVALID_CHAR_AWS
通知サービスを作成できませんでした: リソース サフィックスには、英数字、ハイフン (-)、アンダースコア (_) のみを使用できます。
CF_RESOURCE_SUFFIX_INVALID_CHAR_AZURE
通知サービスの作成に失敗しました: リソース サフィックスには、小文字、数字、ダッシュ (-) のみを使用できます。
CF_RESOURCE_SUFFIX_INVALID_CHAR_GCP
通知サービスを作成できませんでした: リソース サフィックスには、英数字、ハイフン (-)、アンダースコア (_)、ピリオド (.)、チルダ (~) プラス記号 (+)、およびパーセント記号 (<percentSign>
) のみを使用できます。
CF_RESOURCE_SUFFIX_LIMIT
通知サービスを作成できませんでした: リソース サフィックスに <limit>
文字を超えることはできません。
CF_RESOURCE_SUFFIX_LIMIT_GCP
通知サービスの作成に失敗しました: リソース サフィックスは <lowerLimit>
文字から <upperLimit>
文字の間でなければなりません。
CF_RESTRICTED_GCP_RESOURCE_TAG_KEY
制限された GCP リソース タグ キー (<key>
) が見つかりました。 Auto Loader では、次の GCP リソース タグ キーが制限されています。 [<restrictedKeys>
]
CF_RETENTION_GREATER_THAN_MAX_FILE_AGE
cloudFiles.cleanSource.retentionDuration cloudFiles.maxFileAge より大きくすることはできません。
CF_SAME_PUB_SUB_TOPIC_NEW_KEY_PREFIX
トピック: <topic>
のプレフィックス: <prefix>
の通知を作成できませんでした。 同じ名前のトピックに別のプレフィックス ( <oldPrefix>
) が既に存在します。 セットアップに別のリソース サフィックスを使用するか、既存のセットアップを削除してみてください。
CF_SCHEMA_LOG_DEEP_CLONE_FAILED
ソース スキーマ ログからスキーマ ログ エントリを複製して移行できませんでした。
CF_SFTP_MISSING_PASSWORD_OR_KEY_FILE
SFTP には、パスワードまたはキー ファイルを指定する必要があります。
ソース URI または <passwordOption>
でパスワードを指定するか、 <keyFileOption>
でキーファイルの内容を指定してください。
CF_SFTP_NOT_ENABLED
SFTP ファイルへのアクセスが有効になっていません。詳細については、Databricks サポートにお問い合わせください。
CF_SFTP_REQUIRE_UC_CLUSTER
SFTP ファイルにアクセスするには、UC 対応のクラスターが必要です。 詳細については、Databricks サポートにお問い合わせください。
CF_SFTP_USERNAME_NOT_FOUND
SFTP にはユーザー名を指定する必要があります。
ユーザー名はソース uri または <option>
で入力してください。
CF_SOURCE_DIRECTORY_PATH_REQUIRED
ソースディレクトリのパスをオプションで指定してください path
CF_SOURCE_UNSUPPORTED
現在、クラウド ファイル ソース は、 S3、 Azure Blob Storage (wasb/wasbs)、 Azure データ レイク Gen1 (adl) および Gen2 (abfs/abfss) パスのみをサポートしています。 パス: '<path>
', 解決された URI: '<uri>
'
CF_STATE_INCORRECT_SQL_PARAMS
cloud_files_state 関数は、cloudFiles ストリームのチェックポイント ディレクトリを表す文字列 パラメーター、またはストリーミング テーブルを識別するマルチパート tableName、および状態を読み込むチェックポイント バージョンを表す省略可能な 2 番目の整数パラメーターを受け取ります。 2 番目のパラメーターは、最新のチェックポイントを読み取るために 'latest' にすることもできます。 受け: <params>
CF_STATE_INVALID_CHECKPOINT_PATH
入力チェックポイント・パス・ <path>
が無効です。 パスが存在しないか、cloud_filesソースが見つかりません。
CF_STATE_INVALID_VERSION
指定したバージョン <version>
が存在しないか、解析中に削除されました。
CF_THREAD_IS_DEAD
<threadName>
スレッドが死んでいます。
CF_UNABLE_TO_DERIVE_STREAM_CHECKPOINT_LOCATION
ソース チェックポイントの場所からストリーム チェックポイントの場所を取得できません: <checkPointLocation>
CF_UNABLE_TO_DETECT_FILE_FORMAT
<fileSize>
サンプル ファイルからソース ファイル形式を検出できません。見つかった <formats>
形式を指定してください。
CF_UNABLE_TO_EXTRACT_BUCKET_INFO
バケット情報を抽出できません。 パス: '<path>
'、解決されたuri: '<uri>
'.
CF_UNABLE_TO_EXTRACT_KEY_INFO
重要な情報を抽出できません。 パス: '<path>
'、解決されたuri: '<uri>
'.
CF_UNABLE_TO_EXTRACT_STORAGE_ACCOUNT_INFO
ストレージ アカウント情報を抽出できません。パス: '<path>
', 解決された URI: '<uri>
'
CF_UNABLE_TO_LIST_EFFICIENTLY
パス <path>
のディレクトリ名変更イベントを受け取りましたが、このディレクトリを効率的にリストできません。 ストリームを続行するには、オプション 'cloudFiles.ignoreDirRenames' を設定します を true に設定し、このデータを処理するために cloudFiles.backfillInterval を使用して定期的なバックフィルを有効にすることを検討してください。
CF_UNEXPECTED_READ_LIMIT
予期しない ReadLimit : <readLimit>
CF_UNKNOWN_OPTION_KEYS_ERROR
不明なオプションキーが見つかりました:
<optionList>
提供されているすべてのオプションキーが正しいことを確認してください。 スキップしたい場合は、
オプションを検証し、これらの不明なオプションを無視すると、次のように設定できます。
.option("cloudFiles.<validateOptions>
""false")
CF_UNKNOWN_READ_LIMIT
不明な読み取り制限: <readLimit>
CF_UNSUPPORTED_CLOUD_FILES_SQL_FUNCTION
ストリーミング ソースを作成するための 関数SQL 'cloud_files' は、DLT パイプラインでのみサポートされています。Auto Loader詳細については、以下をご覧ください。
<docLink>
CF_UNSUPPORTED_FORMAT_FOR_SCHEMA_INFERENCE
スキーマ推論は、形式 ( <format>
) ではサポートされていません。 スキーマを指定してください。
CF_UNSUPPORTED_LOG_VERSION
UnsupportedLogVersion: サポートされる最大ログバージョンは v\<maxVersion\>
ですが、 v\<version\>
に遭遇しました。 ログ ファイルは新しいバージョンの DBR によって生成され、このバージョンでは読み取ることができません。 アップグレードをお願いします。
CF_UNSUPPORTED_SCHEMA_EVOLUTION_MODE
スキーマ進化モード <mode>
は、 <format>
形式ではサポートされていません。 スキーマ進化モードを「なし」に設定してください。
CF_USE_DELTA_FORMAT
Delta テーブルからの読み取りは、この構文ではサポートされていません。 Delta からデータを使用する場合は、ドキュメントを参照してください: Delta テーブルの読み取り (<deltaDocLink>
) または Delta テーブルをストリームソースとして読み取り (<streamDeltaDocLink>
) してください。 Delta からのストリーミング ソースは、データの増分消費に対して既に最適化されています。
地理空間
EWKB_PARSE_ERROR
EWKB の解析エラー: 位置で<parseError>
<pos>
GEOJSON_PARSE_ERROR
GeoJSON の解析エラー: 位置で<parseError>
<pos>
詳細については、 GEOJSON_PARSE_ERROR
H3_INVALID_CELL_ID
<h3Cell>
は有効な H3 セル ID ではありません
詳細については、 H3_INVALID_CELL_ID
H3_INVALID_GRID_DISTANCE_VALUE
H3 グリッド距離 <k>
は負でない必要があります
詳細については、 H3_INVALID_GRID_DISTANCE_VALUE
H3_INVALID_RESOLUTION_VALUE
H3 解像度 <r>
は、 <minR>
から <maxR>
の間でなければなりません。
詳細については、 H3_INVALID_RESOLUTION_VALUE
H3_NOT_ENABLED
<h3Expression>
が無効になっているか、サポートされていません。 Photon を有効にするか、H3 式をサポートする階層に切り替えることを検討してください
詳細については、「 H3_NOT_ENABLED
H3_PENTAGON_ENCOUNTERED_ERROR
グリッド距離を持つ <h3Cell>
の六進法リングを計算しているときに五角形に遭遇しました <k>
H3_UNDEFINED_GRID_DISTANCE
<h3Cell1>
と<h3Cell2>
の間のH3グリッド距離は未定義です
ST_DIFFERENT_SRID_VALUES
"<sqlFunction>
" の引数は、同じ SRID 値を持つ必要があります。 見つかった SRID 値 : <srid1>
, <srid2>
ST_INVALID_ARGUMENT
"<sqlFunction>
": <reason>
ST_INVALID_ARGUMENT_TYPE
"<sqlFunction>
" の引数は、型である必要があります <validTypes>
ST_INVALID_CRS_TRANSFORMATION_ERROR
<sqlFunction>
: SRID <srcSrid>
から SRID への CRS 変換が無効またはサポートされていない <trgSrid>
ST_INVALID_ENDIANNESS_VALUE
エンディアン '<e>
' は 'NDR' (リトル エンディアン) または 'XDR' (ビッグ エンディアン) のいずれかである必要があります
ST_INVALID_GEOHASH_VALUE
<sqlFunction>
: 無効な geohash 値: '<geohash>
'。 geohash 値は、https://en.wikipedia.org/wiki/Geohash#Textual_representation で説明されているように、有効な小文字の base32 文字列である必要があります
ST_INVALID_INDEX_VALUE
<sqlFunction>
: 指定された地理空間値のインデックス <index>
が無効です。
ST_INVALID_PRECISION_VALUE
精度 <p>
は <minP>
から <maxP>
の間でなければなりません。
ST_INVALID_SRID_VALUE
無効またはサポートされていない SRID <srid>
ST_NOT_ENABLED
<stExpression>
が無効になっているか、サポートされていません。 Photon を有効にするか、ST 式をサポートする階層に切り替えることを検討してください
ST_UNSUPPORTED_RETURN_TYPE
GEOGRAPHY
データ型と GEOMETRY
データ型は、クエリで返すことはできません。次のいずれかの SQL 式を使用して、標準の交換形式に変換します。 <projectionExprs>
.
WKB_PARSE_ERROR
WKB の解析エラー: 位置で<parseError>
<pos>
詳細については、 WKB_PARSE_ERROR
WKT_PARSE_ERROR
WKT の解析エラー: 位置で<parseError>
<pos>
詳細については、「 WKT_PARSE_ERROR
Unity Catalog
CONFLICTING_COLUMN_NAMES_ERROR
列 <columnName>
は、末尾に空白がある/しない同じ名前の別の列 (たとえば、''<columnName>という名前の既存の列) と競合しています。列の名前を別の名前に変更してください。
CONNECTION_CREDENTIALS_NOT_SUPPORTED_FOR_ONLINE_TABLE_CONNECTION
SQLSTATE: 割り当てられていない
タイプ <connectionType>
の接続の接続レベルの資格情報を取得する要求が無効です。 このような資格情報は、マネージド PostgreSQL 接続でのみ使用できます。
CONNECTION_TYPE_NOT_ENABLED
SQLSTATE: 割り当てられていない
接続の種類 '<connectionType>
' が有効になっていません。 ご利用いただくには接続を有効にしてください。
DELTA_SHARING_READ_ONLY_RECIPIENT_EXISTS
SQLSTATE: 割り当てられていない
同じ共有識別子 '<existingMetastoreId>
' を持つ受信者オブジェクト '<existingRecipientName>
' がすでに存在します。
DELTA_SHARING_READ_ONLY_SECURABLE_KIND
SQLSTATE: 割り当てられていない
Delta Sharing のセキュリティ保護可能な種類の <securableKindName>
のデータは読み取り専用であり、作成、変更、削除することはできません。
EXTERNAL_ACCESS_DISABLED_ON_METASTORE
SQLSTATE: 割り当てられていない
非 Databricks コンピュート環境では、メタストア<metastoreName>
の外部データアクセスが無効になっているため、資格情報の自動販売が拒否されます。 メタストア管理者に連絡して、メタストアで [外部データ アクセス] 構成を有効にしてください。
EXTERNAL_ACCESS_NOT_ALLOWED_FOR_TABLE
SQLSTATE: 割り当てられていない
ID が <tableId>
のテーブルは、その種類が <securableKind>
であるため Databricks コンピュート環境の外部からアクセスできません。 外部からアクセスできるのは、 'TABLE_EXTERNAL
'、 'TABLE_DELTA_EXTERNAL
'、 'TABLE_DELTA
テーブルの種類のみです。
EXTERNAL_USE_SCHEMA_ASSIGNED_TO_INCORRECT_SECURABLE_TYPE
SQLSTATE: 割り当てられていない
USE SCHEMA``EXTERNAL
権限は、このエンティティ<assignedSecurableType>
には適用されず、スキーマまたはカタログにのみ割り当てることができます。<assignedSecurableType>
オブジェクトから権限を削除し、代わりにスキーマまたはカタログに割り当ててください。
EXTERNAL_WRITE_NOT_ALLOWED_FOR_TABLE
SQLSTATE: 割り当てられていない
id <tableId>
のテーブルは、その種類が <securableKind>
であるため Databricks コンピュート環境の外部から書き込むことはできません。 外部に書き込めるのは、 'TABLE_EXTERNAL
' と 'TABLE_DELTA_EXTERNAL
' のテーブルの種類のみです。
FOREIGN_CATALOG_STORAGE_ROOT_MUST_SUPPORT_WRITES
SQLSTATE: 割り当てられていない
タイプ <catalogType>
のフォーリンカタログの保管場所は、データのアンロードに使用され、読み取り専用にすることはできません。
HMS
SQLSTATE: 割り当てられていない
入力パス <url>
の <resourceType>
s の数が、オーバーラップする HMS <resourceType>
s の許容制限 (<overlapLimit>
) を超えています。
INVALID_RESOURCE_NAME_DELTA_SHARING
SQLSTATE: 割り当てられていない
Delta Sharing 要求は、リソース名を使用してサポートされていません
INVALID_RESOURCE_NAME_ENTITY_TYPE
SQLSTATE: 割り当てられていない
指定されたリソース名はエンティティ型 <provided>
を参照していますが、予期されています <expected>
INVALID_RESOURCE_NAME_METASTORE_ID
SQLSTATE: 割り当てられていない
指定されたリソース名は、現在の要求のスコープ内にないメタストアを参照しています
LOCATION_OVERLAP
SQLSTATE: 割り当てられていない
入力パス URL '<path>
' は '<caller>
' 呼び出し内の <overlappingLocation>
と重なっています。<conflictingSummary>
。
REDSHIFT_FOREIGN_CATALOG_STORAGE_ROOT_MUST_BE_S3
SQLSTATE: 割り当てられていない
フォーリンカタログ Redshift ストレージルートは AWS S3である必要があります。
SECURABLE_KIND_DOES_NOT_SUPPORT_LAKEHOUSE_FEDERATION
SQLSTATE: 割り当てられていない
Securable with kind <securableKind>
はレイクハウスフェデレーションをサポートしていません。
SECURABLE_KIND_NOT_ENABLED
SQLSTATE: 割り当てられていない
セキュリティ保護可能な種類 '<securableKind>
' が有効になっていません。 これがプレビュー機能に関連付けられているセキュリティ保護可能な種類である場合は、ワークスペース設定で有効にしてください。
SECURABLE_TYPE_DOES_NOT_SUPPORT_LAKEHOUSE_FEDERATION
SQLSTATE: 割り当てられていない
タイプ <securableType>
のセキュリティ保護可能は、レイクハウスフェデレーションをサポートしていません。
ソース
SQLSTATE: 割り当てられていない
ソース テーブルに <columnCount>
を超える列があります。 列の数を <columnLimitation>
列以下にしてください。
トークン
SQLSTATE: 割り当てられていない
交換された AAD トークンの有効期間が <lifetime>
されており、構成が短すぎます。 Azure AD 設定を確認して、一時アクセス トークンの有効期間が少なくとも 1 時間であることを確認してください。https://learn.microsoft.com/azure/active-directory/develop/active-directory-configurable-トークン-ライフタイム
UC_ABAC_EVALUATION_ERROR
SQLSTATE: 割り当てられていない
<resource>
での ABAC ポリシーの評価中にエラーが発生しました。
UC_AUTHZ_ACTION_NOT_SUPPORTED
SQLSTATE: 割り当てられていない
<actionName>
の承認はサポートされていません。呼び出されたRPCがこのリソースタイプに実装されていることを確認してください
HMS
SQLSTATE: 割り当てられていない
組み込み Hive metastore の接続を作成できません。これは、ユーザー: <userId>
ワークスペースの管理者ではないためです。 <workspaceId>
HMS
SQLSTATE: 割り当てられていない
組み込み HMS 接続 '<connectionName>
' の制限付きフィールドを変更しようとしました。 「ウェアハウス」のみ更新できます。
UC_CANNOT_RENAME_PARTITION_FILTERING_COLUMN
SQLSTATE: 割り当てられていない
テーブル列 <originalLogicalColumn>
の名前を変更できませんでした。これは、 <sharedTableName>
のパーティション フィルタリングに使用されているためです。 続行するには、共有からテーブルを削除し、列の名前を変更して、目的のパーティション フィルタリング列と再度共有できます。 ただし、これにより、受信者のストリーミングクエリが壊れる可能性があります。
UC_CHILD_CREATION_FORBIDDEN_FOR_NON_UC_CLUSTER
SQLSTATE: 割り当てられていない
要求が UC クラスターからのものではないため<parentSecurableType>
'<parentSecurable>
' の下に <securableType>
'<securable>
' を作成できません。
UC_CLOUD_STORAGE_ACCESS_FAILURE
SQLSTATE: 割り当てられていない
クラウドストレージにアクセスできませんでした: <errMsg>
exceptionTraceId=<exceptionTraceId>
UC_CONFLICTING_CONNECTION_OPTIONS
SQLSTATE: 割り当てられていない
ユーザー名/パスワードと oauth 認証オプションの両方を使用して接続を作成することはできません。 いずれかお選びください。
UC_CONNECTION_EXISTS_FOR_CREDENTIAL
SQLSTATE: 割り当てられていない
資格情報 '<credentialName>
' には 1 つ以上の依存接続があります。 force オプションを使用して資格情報の更新または削除を続行できますが、この資格情報を使用する接続が機能しなくなる可能性があります。
UC_CONNECTION_EXPIRED_ACCESS_TOKEN
SQLSTATE: 割り当てられていない
接続に関連付けられているアクセス トークンの有効期限が切れています。 接続を更新して OAuth フローを再起動し、トークンを取得してください。
UC_CONNECTION_EXPIRED_REFRESH_TOKEN
SQLSTATE: 割り当てられていない
接続に関連付けられている更新トークンの有効期限が切れています。 接続を更新して OAuth フローを再起動し、新しいトークンを取得してください。
UC_CONNECTION_IN_FAILED_STATE
SQLSTATE: 割り当てられていない
接続は FAILED
状態です。 有効な資格情報で接続を更新して、再度アクティブ化してください。
UC_CONNECTION_MISSING_REFRESH_TOKEN
SQLSTATE: 割り当てられていない
接続に関連付けられた更新トークンはありません。 ID プロバイダーの OAuth クライアント統合を更新して更新トークンを返し、接続を更新または再作成して OAuth フローを再開し、必要なトークンを取得してください。
UC_CONNECTION_OAUTH_EXCHANGE_FAILED
SQLSTATE: 割り当てられていない
OAuth トークンの交換が HTTP ステータス コード . <httpStatus>
で失敗しました。 返されるサーバー応答または例外メッセージは次のとおりです。 <response>
UC_COORDINATED_COMMITS_NOT_ENABLED
SQLSTATE: 割り当てられていない
調整されたコミットのサポートは有効になっていません。 Databricks サポートにお問い合わせください。
UC_CREATE_FORBIDDEN_UNDER_INACTIVE_SECURABLE
SQLSTATE: 割り当てられていない
「<securableName>
」はアクティブでない<parentSecurableType>
「<parentSecurableName>
」の下にあるため、<securableType>
作成できません。親のセキュリティ保護可能なものを削除して、親を再作成してください。
UC_CREDENTIAL_ACCESS_CONNECTOR_PARSING_FAILED
SQLSTATE: 割り当てられていない
指定されたアクセス コネクタ ID の解析に失敗しました: <accessConnectorId>
。 フォーマットを確認してから、もう一度やり直してください。
UC_CREDENTIAL_FAILED_TO_OBTAIN_VALIDATION_TOKEN
SQLSTATE: 割り当てられていない
アクセス コネクタでクラウドのアクセス許可の検証を実行するための AAD トークンを取得できませんでした。 アクションを再試行してください。
UC_CREDENTIAL_INVALID_CLOUD_PERMISSIONS
SQLSTATE: 割り当てられていない
資格情報を登録するには、ID が <accessConnectorId>
の対応するアクセス コネクタに対する共同作成者ロールが必要です。 アカウント管理者にお問い合わせください。
UC_CREDENTIAL_INVALID_CREDENTIAL_TYPE_FOR_PURPOSE
SQLSTATE: 割り当てられていない
資格情報の種類 '<credentialType>
' は、目的 '<credentialPurpose>
' ではサポートされていません
UC_CREDENTIAL_PERMISSION_DENIED
SQLSTATE: 割り当てられていない
タイプが <storageCredentialType>
の認証情報を作成または更新できるのは、アカウント管理者だけです。
UC_CREDENTIAL_TRUST_POLICY_IS_OPEN
SQLSTATE: 割り当てられていない
IAMロールの trust ポリシーを使用して、Databricks アカウントがロールを引き受けるには、外部 ID が必要です。アカウント管理者に連絡して、外部 ID 条件を追加してください。 この動作は、混乱した副問題 https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html) を防ぐためのものです。
UC_CREDENTIAL_UNPRIVILEGED_SERVICE_PRINCIPAL_NOT_SUPPORTED
SQLSTATE: 割り当てられていない
サービスプリンシパルは、 CREATE_STORAGE_CREDENTIAL
特権を使用して登録する マネージド ID を使用することはできません。 マネージド ID を登録するには、サービスプリンシパルにアカウント admin ロールを割り当ててください。
UC_CREDENTIAL_WORKSPACE_API_PROHIBITED
SQLSTATE: 割り当てられていない
アカウント管理者以外としての認証情報の作成または更新は、アカウントレベルの API ではサポートされていません。 代わりに、ワークスペース レベルの API を使用してください。
UC_DELTA_UNIVERSAL_FORMAT_CANNOT_PARSE_ICEBERG_VERSION
SQLSTATE: 割り当てられていない
メタデータの場所 <metadataLocation>
から Iceberg テーブル バージョンを解析できません。
UC_DELTA_UNIVERSAL_FORMAT_CONCURRENT_WRITE
SQLSTATE: 割り当てられていない
同じ iceberg メタデータ バージョンへの並列更新が検出されました。
UC_DELTA_UNIVERSAL_FORMAT_INVALID_METADATA_LOCATION
SQLSTATE: 割り当てられていない
コミットされたメタデータの場所 <metadataLocation>
が無効です。 これは、テーブルのルート・ディレクトリ <tableRoot>
のサブディレクトリではありません。
UC_DELTA_UNIVERSAL_FORMAT_MISSING_FIELD_CONSTRAINT
SQLSTATE: 割り当てられていない
指定されたデルタ アイスバーグ形式の変換情報に必須フィールドがありません。
UC_DELTA_UNIVERSAL_FORMAT_NON_CREATE_CONSTRAINT
SQLSTATE: 割り当てられていない
作成時のデルタ アイスバーグ形式情報の設定はサポートされていません。
UC_DELTA_UNIVERSAL_FORMAT_TOO_LARGE_CONSTRAINT
SQLSTATE: 割り当てられていない
指定されたデルタ アイスバーグ形式の変換情報が大きすぎます。
UC_DELTA_UNIVERSAL_FORMAT_UPDATE_INVALID
SQLSTATE: 割り当てられていない
均一メタデータは、均一が有効になっている Delta テーブルでのみ更新できます。
UC_DEPENDENCY_DEPTH_LIMIT_EXCEEDED
SQLSTATE: 割り当てられていない
<resourceType>
「<ref>
」の深さが制限を超えている(または循環参照がある)。
UC_DEPENDENCY_DOES_NOT_EXIST
SQLSTATE: 割り当てられていない
<resourceType>
'<ref>
' は、基になるリソースの 1 つが存在しないため無効です。 <cause>
UC_DEPENDENCY_PERMISSION_DENIED
SQLSTATE: 割り当てられていない
<resourceType>
'<ref>
' は、基になるリソースの 1 つの所有者が承認チェックに失敗したため、実行するための十分な権限を持っていません。 <cause>
UC_DUPLICATE_CONNECTION
SQLSTATE: 割り当てられていない
同じURLを持つ「<connectionName>
」という接続がすでに存在します。 重複を作成する代わりに、その接続を使用する許可を所有者に依頼してください。
UC_DUPLICATE_FABRIC_CATALOG_CREATION
SQLSTATE: 割り当てられていない
既存のカタログと一致する URL 「<storageLocation>
」の Fabric カタログを作成しようとしましたが、これは許可されていません。
UC_DUPLICATE_TAG_ASSIGNMENT_CREATION
SQLSTATE: 割り当てられていない
タグキー <tagKey>
によるタグの割り当てがすでに存在します
UC_ENTITY_DOES_NOT_HAVE_CORRESPONDING_ONLINE_CLUSTER
SQLSTATE: 割り当てられていない
エンティティ <securableType> <entityId>
には、対応するオンラインクラスターがありません。
UC_EXCEEDS_MAX_FILE_LIMIT
SQLSTATE: 割り当てられていない
<maxFileResults>
以上のファイルがあります。返されるファイルの数を制限するには、[max_results]を指定してください。
UC_EXTERNAL_LOCATION_OP_NOT_ALLOWED
SQLSTATE: 割り当てられていない
<opName> <extLoc> <reason>
できません。<suggestion>
。
UC_FEATURE_DISABLED
SQLSTATE: 割り当てられていない
<featureName>
は現在 UC で無効になっています。
UC_FOREIGN_CATALOG_FOR_CONNECTION_TYPE_NOT_SUPPORTED
SQLSTATE: 割り当てられていない
接続タイプ '<connectionType>
' のフォーリンカタログの作成はサポートされていません。 この接続タイプは、管理されたインジェストパイプラインを作成するためにのみ使用できます。 詳細については Databricksドキュメントを参照してください。
UC_FOREIGN_CREDENTIAL_CHECK_ONLY_FOR_READ_OPERATIONS
SQLSTATE: 割り当てられていない
フォーリンテーブルの READ 資格情報のみを取得できます。
UC_FOREIGN_KEY_CHILD_COLUMN_LENGTH_MISMATCH
SQLSTATE: 割り当てられていない
外部キー <constraintName>
子列と親列のサイズが異なります。
UC_FOREIGN_KEY_COLUMN_MISMATCH
SQLSTATE: 割り当てられていない
外部キーの親カラムが、参照されているプライマリ・キーの子カラムと一致しません。 外部キーの親列は (<parentColumns>
) で、主キーの子列は (<primaryKeyChildColumns>
です。
UC_FOREIGN_KEY_COLUMN_TYPE_MISMATCH
SQLSTATE: 割り当てられていない
外部キーの子列タイプが親列タイプと一致しません。 外部キーの子列 <childColumnName>
のタイプは <childColumnType>
で、親列 <parentColumnName>
のタイプは <parentColumnType>
です。
UC_GCP_INVALID_PRIVATE_KEY
SQLSTATE: 割り当てられていない
アクセスが拒否されました。 原因: サービス アカウントの秘密キーが無効です。
UC_GCP_INVALID_PRIVATE_KEY_JSON_FORMAT
SQLSTATE: 割り当てられていない
Google Server アカウント OAuth Private Key は、必須フィールドを持つ有効な JSON オブジェクトである必要があります。サービス アカウントの詳細ページの「KEYS」セクションから生成された完全な JSON ファイルを提供してください。
UC_GCP_INVALID_PRIVATE_KEY_JSON_FORMAT_MISSING_FIELDS
SQLSTATE: 割り当てられていない
Google Server アカウント OAuth Private Key は、必須フィールドを持つ有効な JSON オブジェクトである必要があります。サービス アカウントの詳細ページの「KEYS」セクションから生成された完全な JSON ファイルを提供してください。 欠落しているフィールドは次のとおりです <missingFields>
UC_IAM_ROLE_NON_SELF_ASSUMING
SQLSTATE: 割り当てられていない
このストレージ認証情報の IAMロールは、自己仮定ではないことが判明しました。 ロールの信頼と IAM ポリシーを確認して、 IAMロールが Unity Catalog ストレージ資格情報のドキュメントに従って引き受けることができることを確認してください。
UC_ICEBERG_COMMIT_CONFLICT
SQLSTATE: 割り当てられていない
<tableName>
をコミットできません : メタデータの場所<baseMetadataLocation>
<catalogMetadataLocation>
から変更されました。
UC_ICEBERG_COMMIT_INVALID_TABLE
SQLSTATE: 割り当てられていない
非 Managed Iceberg テーブルに対して Managed Iceberg コミットを実行できません: <tableName>
.
UC_ICEBERG_COMMIT_MISSING_FIELD_CONSTRAINT
SQLSTATE: 割り当てられていない
指定された Managed Iceberg コミット情報に必須フィールドがありません。
UC_ID_MISMATCH
SQLSTATE: 割り当てられていない
<type> <name>
に ID がありません <wrongId>
。操作をやり直してください。
UC_INVALID_ACCESS_DBFS_ENTITY
SQLSTATE: 割り当てられていない
フェデレーション カタログ <catalogName>
の <securableType> <securableName>
のアクセスが無効です。 <reason>
UC_INVALID_CLOUDFLARE_ACCOUNT_ID
SQLSTATE: 割り当てられていない
Cloudflare アカウント ID が無効です。
UC_INVALID_CREDENTIAL_CLOUD
SQLSTATE: 割り当てられていない
無効な資格情報クラウド プロバイダー '<cloud>
'。 許可されたクラウド プロバイダー '<allowedCloud>
'。
UC_INVALID_CREDENTIAL_PURPOSE_VALUE
SQLSTATE: 割り当てられていない
資格情報の「目的」に対して値「<value>
」が無効です。 使用できる値 '<allowedValues>
'.
UC_INVALID_CREDENTIAL_TRANSITION
SQLSTATE: 割り当てられていない
接続を <startingCredentialType>
から <endingCredentialType>
に更新できません。 有効な移行は、ユーザー名/パスワードベースの接続から OAuth トークンベースの接続への唯一の移行です。
UC_INVALID_CRON_STRING_FABRIC
SQLSTATE: 割り当てられていない
cron 文字列が無効です。 見つかった: '<cronString>
' 解析例外: '<message>
'
UC_INVALID_DIRECT_ACCESS_MANAGED_TABLE
SQLSTATE: 割り当てられていない
Invalid direct access マネージドテーブル <tableName>
. ソーステーブルとパイプライン定義が定義されていないことを確認します。
UC_INVALID_EMPTY_STORAGE_LOCATION
SQLSTATE: 割り当てられていない
カタログ '<catalogName>
' の <securableType>
'<securableName>
' の予期しない空の格納場所。このエラーを修正するには、 DESCRIBE SCHEMA <catalogName>
を実行してください。このページ<securableName>
して更新します。
UC_INVALID_OPTIONS_UPDATE
SQLSTATE: 割り当てられていない
更新に無効なオプションが指定されました。 無効なオプション: <invalidOptions>
. 使用できるオプション: <allowedOptions>
.
UC_INVALID_OPTION_VALUE
SQLSTATE: 割り当てられていない
'<option>
' の値 '<value>
' が無効です。使用できる値 '<allowedValues>
'.
UC_INVALID_OPTION_VALUE_EMPTY
SQLSTATE: 割り当てられていない
「<option>
」を空にすることはできません。 空でない値を入力してください。
UC_INVALID_R2_ACCESS_KEY_ID
SQLSTATE: 割り当てられていない
R2 アクセス キー ID が無効です。
UC_INVALID_R2_SECRET_ACCESS_KEY
SQLSTATE: 割り当てられていない
R2シークレットアクセスキーが無効です。
UC_INVALID_RULE_CONDITION
SQLSTATE: 割り当てられていない
ルール '<ruleName>
' の無効な条件です。 コンパイル エラーでメッセージ '<message>
' が表示されます。
UC_INVALID_UPDATE_ON_SYSTEM_WORKSPACE_ADMIN_GROUP_OWNED_SECURABLE
SQLSTATE: 割り当てられていない
「<securableName>
」は内部グループによって所有されているため<securableType>
更新できません。詳細については、Databricks サポートにお問い合わせください。
UC_INVALID_WASBS_EXTERNAL_LOCATION_STORAGE_CREDENTIAL
SQLSTATE: 割り当てられていない
Storage Credential <storageCredentialName>
が DBFSルートに関連付けられていない場合、wasbs 外部ロケーションの作成は禁止されます。
UC_LOCATION_INVALID_SCHEME
SQLSTATE: 割り当てられていない
ストレージの場所の URI スキームが無効です : <scheme>
。
UC_MALFORMED_OAUTH_SERVER_RESPONSE
SQLSTATE: 割り当てられていない
トークン・サーバーからの応答に、フィールド <missingField>
がありませんでした。 返されるサーバーの応答は次のとおりです。 <response>
UC_METASTORE_ASSIGNMENT_STATUS_INVALID
SQLSTATE: 割り当てられていない
「<metastoreAssignmentStatus>
」を割り当てることはできません。 MANUALLY_ASSIGNABLE
と AUTO_ASSIGNMENT_ENABLED
のみがサポートされています。
UC_METASTORE_CERTIFICATION_NOT_ENABLED
SQLSTATE: 割り当てられていない
メタストア認定が有効になっていません。
UC_METASTORE_DB_SHARD_MAPPING_NOT_FOUND
SQLSTATE: 割り当てられていない
内部エラーのため、メタストア ID <metastoreId>
のメタストアからデータベース シャードへのマッピングを取得できませんでした。 Databricks サポートにお問い合わせください。
UC_METASTORE_HAS_ACTIVE_MANAGED_ONLINE_CATALOGS
SQLSTATE: 割り当てられていない
メタストア <metastoreId>
には、 <numberManagedOnlineCatalogs>
管理されたオンライン カタログがあります。 それらを明示的に削除してから、メタストアの削除を再試行してください。
UC_METASTORE_STORAGE_ROOT_CREDENTIAL_UPDATE_INVALID
SQLSTATE: 割り当てられていない
メタストアのルート資格情報は、メタストアのルートの場所を更新するときに定義できません。 資格情報は、メタストアの親外部ロケーションからフェッチされます。
UC_METASTORE_STORAGE_ROOT_DELETION_INVALID
SQLSTATE: 割り当てられていない
メタストア ストレージのルートの場所の削除に失敗しました。 <reason>
UC_METASTORE_STORAGE_ROOT_READ_ONLY_INVALID
SQLSTATE: 割り当てられていない
メタストアのルート <securableType>
は読み取り専用にできません。
UC_METASTORE_STORAGE_ROOT_UPDATE_INVALID
SQLSTATE: 割り当てられていない
メタストア ストレージ ルートは、一度設定すると更新できません。
UC_MODEL_INVALID_STATE
SQLSTATE: 割り当てられていない
ステータスが <modelVersionStatus>
のモデルバージョン<modelVersion>
の一時的な「<opName>
」資格情報を生成できません。'<opName>
' 資格情報は、ステータスが <validStatus>
UC_NO_ORG_ID_IN_CONTEXT
SQLSTATE: 割り当てられていない
組織 ID (またはワークスペース ID) にアクセスしようとしましたが、コンテキストにはありません。
UC_ONLINE_CATALOG_NOT_MUTABLE
SQLSTATE: 割り当てられていない
<rpcName>
要求が <fieldName>
に更新されます。オンラインストア コンピュート タブを使用して、オンライン カタログの comment、owner、isolationMode 以外のものを変更します。
UC_ONLINE_CATALOG_QUOTA_EXCEEDED
SQLSTATE: 割り当てられていない
メタストアに <quota>
個を超えるオンラインストアを作成できず、すでに <currentCount>
があります。 既存のオンラインストアにアクセスできない場合があります。 メタストア管理者に連絡して、アクセス権を付与するか、詳細な手順を確認してください。
UC_ONLINE_INDEX_CATALOG_INVALID_CRUD
SQLSTATE: 割り当てられていない
オンラインインデックスカタログは、/vector-search APIを使用して <action>
する必要があります。
UC_ONLINE_INDEX_CATALOG_NOT_MUTABLE
SQLSTATE: 割り当てられていない
<rpcName>
要求が <fieldName>
に更新されます。/vector-search API を使用して、オンラインインデックスカタログの comment、owner、isolationMode 以外のものを変更します。
UC_ONLINE_INDEX_CATALOG_QUOTA_EXCEEDED
SQLSTATE: 割り当てられていない
メタストアに <quota>
個を超えるオンライン インデックス カタログを作成できず、既に <currentCount>
. 既存のオンライン索引カタログにアクセスできない場合があります。 メタストア管理者に連絡して、アクセス権を付与するか、詳細な手順を確認してください。
UC_ONLINE_INDEX_INVALID_CRUD
SQLSTATE: 割り当てられていない
オンラインインデックスは、/vector-search APIを介して <action>
する必要があります。
UC_ONLINE_STORE_INVALID_CRUD
SQLSTATE: 割り当てられていない
オンラインストアは、オンラインストア コンピュート タブで <action>
する必要があります。
UC_ONLINE_TABLE_COLUMN_NAME_TOO_LONG
SQLSTATE: 割り当てられていない
ソース テーブルの列名 <columnName>
が長すぎます。 最大長は <maxLength>
文字です。
UC_ONLINE_TABLE_PRIMARY_KEY_COLUMN_NOT_IN_SOURCE_TABLE_PRIMARY_KEY_CONSTRAINT
SQLSTATE: 割り当てられていない
カラム <columnName>
は、ソーステーブルの既存の PRIMARY KEY
制約の一部ではないため、オンラインテーブルのプライマリキーカラムとして使用できません。 詳しくは、 <docLink>
UC_ONLINE_TABLE_TIMESERIES_KEY_NOT_IN_SOURCE_TABLE_PRIMARY_KEY_CONSTRAINT
SQLSTATE: 割り当てられていない
列 <columnName>
は、ソース テーブルの既存の PRIMARY KEY
制約の時系列列ではないため、オンライン テーブルの時系列キーとして使用することはできません。 詳しくは、 <docLink>
UC_ONLINE_VIEWS_PER_SOURCE_TABLE_QUOTA_EXCEEDED
SQLSTATE: 割り当てられていない
ソーステーブルごとに <quota>
個を超えるオンラインテーブルを作成することはできません。
UC_ONLINE_VIEW_ACCESS_DENIED
SQLSTATE: 割り当てられていない
リソース <resourceName>
にアクセスするには、サーバレス SQLウェアハウスを使用する必要があります。 UI でクエリを実行したり、データベース カタログを表示したりするために使用しているウェアハウスがサーバレスであることを確認してください。 詳しくは、 <docLink>
UC_ONLINE_VIEW_CONTINUOUS_QUOTA_EXCEEDED
SQLSTATE: 割り当てられていない
オンラインストアで <quota>
つ以上の連続したオンラインビューを作成することはできず、すでに <currentCount>
があります。 既存のオンラインビューにアクセスできない場合があります。 オンラインストアの管理者に連絡して、アクセス権を付与してもらうか、詳細な手順を確認してください。
UC_ONLINE_VIEW_DOES_NOT_SUPPORT_DMK
SQLSTATE: 割り当てられていない
<tableKind>
Databricksマネージド キーを使用してストレージの場所の下に作成することはできません。マネージド キーの暗号化がないストレージの場所で別のスキーマ/カタログを選択してください Databricks。
UC_ONLINE_VIEW_INVALID_CATALOG
SQLSTATE: 割り当てられていない
カタログ <catalogName>
が無効で、種類 <catalogKind>
内に <tableKind>
を作成することができません。 <tableKind>
は、 <validCatalogKinds>
のカタログでのみ作成できます。
UC_ONLINE_VIEW_INVALID_SCHEMA
SQLSTATE: 割り当てられていない
無効なスキーマ <schemaName>
で、種類 <schemaKind>
内に <tableKind>
を作成する必要があります。 <tableKind>
は、 <validSchemaKinds>
のスキーマでのみ作成できます。
UC_ONLINE_VIEW_INVALID_TTL_TIME_COLUMN_TYPE
SQLSTATE: 割り当てられていない
タイプ <columnType>
の列 <columnName>
は、TTL 時間列として使用できません。使用できる型は <supportedTypes>
です。
UC_OUT_OF_AUTHORIZED_PATHS_SCOPE
SQLSTATE: 割り当てられていない
許可されたパス エラー。 <securableType>
ロケーション<location>
がカタログの許可パス内に定義されていません: : <catalogName>
.カタログの所有者に依頼して、カタログで定義されている認証済みパスのリストにパスを追加してください。
UC_OVERLAPPED_AUTHORIZED_PATHS
SQLSTATE: 割り当てられていない
'authorized_paths' オプションには、重複するパスが含まれています: <overlappingPaths>
. 各パスが一意であり、リスト内の他のパスと交差していないことを確認します。
UC_PAGINATION_AND_QUERY_ARGS_MISMATCH
SQLSTATE: 割り当てられていない
クエリ引数 '<arg>
' は '<received>
' に設定され、これは最初のページ区切り呼び出し ('<expected>
') で使用される値とは異なります
UC_PATH_TOO_LONG
SQLSTATE: 割り当てられていない
入力パスが長すぎます。 許容される長さ: <maxLength>
。 入力長: <inputLength>
。 入力: <path>
...
UC_PER_METASTORE_DATABASE_CONCURRENCY_LIMIT_EXCEEDED
SQLSTATE: 割り当てられていない
メタストア <metastoreId>
からデータベースへの要求が多すぎます。 しばらくしてからもう一度お試しください。
UC_PRIMARY_KEY_ON_NULLABLE_COLUMN
SQLSTATE: 割り当てられていない
プライマリ・キー・ <constraintName>
は、子カラム <childColumnNames>
が null 許容であるため、作成できません。 列の NULL 値の許容を変更して、再試行してください。
UC_REQUEST_TIMEOUT
SQLSTATE: 割り当てられていない
この操作には時間がかかりすぎました。
UC_ROOT_STORAGE_S3_BUCKET_NAME_CONTAINS_DOT
SQLSTATE: 割り当てられていない
ドットを含むルート ストレージ S3 バケット名は、Unity Catalog でサポートされていません。 <uri>
UC_SCHEMA_EMPTY_STORAGE_LOCATION
SQLSTATE: 割り当てられていない
カタログ '<catalogName>
' のスキーマ '<schemaName>
' の予期しない空の格納場所。スキーマが <validPathSchemesListStr>
のパススキームを使用していることを確認してください。
サービス
SQLSTATE: 割り当てられていない
リクエストの処理中に一時的な問題が発生しています。 しばらくしてからもう一度お試しください。 問題が解決しない場合は、サポートにお問い合わせください。
UC_STORAGE_CREDENTIAL_ACCESS_CONNECTOR_PARSING_FAILED
SQLSTATE: 割り当てられていない
指定されたアクセス コネクタ ID の解析に失敗しました: <accessConnectorId>
。 フォーマットを確認してから、もう一度やり直してください。
UC_STORAGE_CREDENTIAL_DBFS_ROOT_CREATION_PERMISSION_DENIED
SQLSTATE: 割り当てられていない
ユーザー <userId>
がワークスペースの管理者ではないため DBFSルート のストレージ資格情報を作成できません。 <workspaceId>
UC_STORAGE_CREDENTIAL_DBFS_ROOT_INVALID_LOCATION
SQLSTATE: 割り当てられていない
ロケーション <location>
が DBFSルート内にない <dbfsRootLocation>
UC_STORAGE_CREDENTIAL_DBFS_ROOT_PRIVATE_DBFS_ENABLED
SQLSTATE: 割り当てられていない
DBFSルート ストレージ資格情報は、ファイアウォールが有効なワークスペースではまだサポートされていません DBFS
UC_STORAGE_CREDENTIAL_DBFS_ROOT_PRIVATE_NOT_SUPPORTED
SQLSTATE: 割り当てられていない
現在のワークスペースの DBFSルート ストレージ資格情報はまだサポートされていません
UC_STORAGE_CREDENTIAL_DBFS_ROOT_WORKSPACE_DISABLED
SQLSTATE: 割り当てられていない
DBFSルート がワークスペースで有効になっていない <workspaceId>
UC_STORAGE_CREDENTIAL_FAILED_TO_OBTAIN_VALIDATION_TOKEN
SQLSTATE: 割り当てられていない
アクセス コネクタでクラウドのアクセス許可の検証を実行するための AAD トークンを取得できませんでした。 アクションを再試行してください。
UC_STORAGE_CREDENTIAL_INVALID_CLOUD_PERMISSIONS
SQLSTATE: 割り当てられていない
ストレージ資格情報を登録するには、ID が <accessConnectorId>
の対応するアクセス コネクタに対する共同作成者ロールが必要です。 アカウント管理者にお問い合わせください。
UC_STORAGE_CREDENTIAL_PERMISSION_DENIED
SQLSTATE: 割り当てられていない
タイプが <storageCredentialType>
のストレージ認証情報を作成または更新できるのは、アカウント管理者のみです。
UC_STORAGE_CREDENTIAL_SERVICE_PRINCIPAL_MISSING_VALIDATION_TOKEN
SQLSTATE: 割り当てられていない
サービスプリンシパルの検証トークンがありません。 有効な ARM スコープの Entra ID トークンを 'X-Databricks-Azure-SP-Management-token' 要求ヘッダーに指定し、再試行してください。 詳しくはhttps://docs.databricks.com/api/workspace/storagecredentials
UC_STORAGE_CREDENTIAL_TRUST_POLICY_IS_OPEN
SQLSTATE: 割り当てられていない
IAMロールの trust ポリシーを使用して、Databricks アカウントがロールを引き受けるには、外部 ID が必要です。アカウント管理者に連絡して、外部 ID 条件を追加してください。 この動作は、混乱した副問題 https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html) を防ぐためのものです。
UC_STORAGE_CREDENTIAL_UNPRIVILEGED_SERVICE_PRINCIPAL_NOT_SUPPORTED
SQLSTATE: 割り当てられていない
サービスプリンシパルは、 CREATE_STORAGE_CREDENTIAL
特権を使用して登録する マネージド ID を使用することはできません。 マネージド ID を登録するには、サービスプリンシパルにアカウント admin ロールを割り当ててください。
UC_STORAGE_CREDENTIAL_WASBS_NOT_DBFS_ROOT
SQLSTATE: 割り当てられていない
場所<location>
が DBFSルート内にないため、ストレージ資格情報を作成できません <storageCredentialName>
UC_STORAGE_CREDENTIAL_WORKSPACE_API_PROHIBITED
SQLSTATE: 割り当てられていない
アカウント管理者以外としてのストレージ認証情報の作成または更新は、アカウントレベルの API ではサポートされていません。 代わりに、ワークスペース レベルの API を使用してください。
UC_SYSTEM_WORKSPACE_GROUP_PERMISSION_UNSUPPORTED
SQLSTATE: 割り当てられていない
<securableType>
に対する権限をシステム生成グループ <principal>
に付与できません。
UC_TAG_ASSIGNMENT_WITH_KEY_DOES_NOT_EXIST
SQLSTATE: 割り当てられていない
タグキー <tagKey>
によるタグの割り当てが存在しません
UC_UNSUPPORTED_HTTP_CONNECTION_BASE_PATH
SQLSTATE: 割り当てられていない
無効なベース パスが指定されました。ベース パスは /api/リソース/v1 のようになります。 サポートされていないパス: <path>
UC_UNSUPPORTED_HTTP_CONNECTION_HOST
SQLSTATE: 割り当てられていない
無効なホスト名が指定されました。ホスト名は、パス サフィックスのないhttps://www.databricks.com のようなものである必要があります。 サポートされていないホスト: <host>
UC_UNSUPPORTED_LATIN_CHARACTER_IN_PATH
SQLSTATE: 割り当てられていない
基本的な Latin/Latin-1 ASCII
文字のみが外部ロケーション/ボリューム/テーブルパスでサポートされています。 サポートされていないパス: <path>
UC_UPDATE_FORBIDDEN_FOR_PROVISIONING_SECURABLE
SQLSTATE: 割り当てられていない
<securableType>
'<securableName>
' はプロビジョニング中であるため、更新できません。
UC_WRITE_CONFLICT
SQLSTATE: 割り当てられていない
<type> <name>
は別の要求によって変更されました。操作をやり直してください。
UNITY_CATALOG_EXTERNAL_COORDINATED_COMMITS_REQUEST_DENIED
SQLSTATE: 割り当てられていない
セキュリティ上、有効なコンピュート環境以外からテーブル '<tableId>
' に対するコミット/getCommits のリクエスト Databricks Unity Catalog 拒否されます。 Unity Catalog との統合については、Databricks サポートにお問い合わせください。
UNITY_CATALOG_EXTERNAL_CREATE_STAGING_TABLE_REQUEST_DENIED
SQLSTATE: 割り当てられていない
セキュリティのため、有効なコンピュート環境外からのステージングテーブル '<tableFullName>
' の作成要求 Databricks Unity Catalog 拒否されました。 Unity Catalog との統合については、Databricks サポートにお問い合わせください。
UNITY_CATALOG_EXTERNAL_CREATE_TABLE_REQUEST_FOR_NON_EXTERNAL_TABLE_DENIED
SQLSTATE: 割り当てられていない
セキュリティ上の理由から、 Databricks Unity Catalog 有効なコンピュート環境の外部から非外部テーブル '<tableFullName>
' を作成するリクエストは拒否されます。 Unity Catalog との統合については、Databricks サポートにお問い合わせください。
UNITY_CATALOG_EXTERNAL_GENERATE_PATH_CREDENTIALS_DENIED
SQLSTATE: 割り当てられていない
セキュリティ上の理由から、有効なコンピュート環境の外部からパス '<path>
' のアクセス資格情報を生成する要求 Databricks Unity Catalog 拒否されました。 Unity Catalog との統合については、Databricks サポートにお問い合わせください。
UNITY_CATALOG_EXTERNAL_GENERATE_TABLE_CREDENTIALS_DENIED
SQLSTATE: 割り当てられていない
セキュリティのため、有効なコンピュート環境の外部からテーブル '<tableId>
' のアクセス資格情報を生成する要求 Databricks Unity Catalog 拒否されました。 Unity Catalog との統合については、Databricks サポートにお問い合わせください。
UNITY_CATALOG_EXTERNAL_GET_FOREIGN_CREDENTIALS_DENIED
SQLSTATE: 割り当てられていない
セキュリティ保護が有効なコンピュート環境の外部からセキュリティ保護可能なリソースの外部資格情報を取得する要求は Databricks Unity Catalog セキュリティ上の理由から拒否されます。
UNITY_CATALOG_EXTERNAL_UPDATA_METADATA_SNAPSHOT_DENIED
SQLSTATE: 割り当てられていない
セキュリティ上の理由から、有効なコンピュート環境の外部からのメタデータスナップショットの更新要求 Databricks Unity Catalog 拒否されます。
WRITE_CREDENTIALS_NOT_SUPPORTED_FOR_LEGACY_MANAGED_ONLINE_TABLE
SQLSTATE: 割り当てられていない
オンライン・カタログ内の管理オンライン・テーブルの書き込み資格情報を取得する要求が無効です。
ファイルAPI
FILES_API_API_IS_NOT_ENABLED
SQLSTATE: 割り当てられていない
<api_name> API が有効になっていません
FILES_API_API_IS_NOT_ENABLED_FOR_CLOUD_PATHS
SQLSTATE: 割り当てられていない
Files API の要求されたメソッドは、クラウド パスではサポートされていません
FILES_API_AWS_ACCESS_DENIED
SQLSTATE: 割り当てられていない
ストレージバケットへのアクセスが AWS によって拒否されます。
FILES_API_AWS_ALL_ACCESS_DISABLED
SQLSTATE: 割り当てられていない
ストレージバケットへのすべてのアクセスが AWS で無効になっています。
FILES_API_AWS_BUCKET_DOES_NOT_EXIST
SQLSTATE: 割り当てられていない
ストレージバケットが AWS に存在しません。
FILES_API_AWS_FORBIDDEN
SQLSTATE: 割り当てられていない
ストレージバケットへのアクセスは AWS によって禁止されています。
FILES_API_AWS_INVALID_AUTHORIZATION_HEADER
SQLSTATE: 割り当てられていない
ワークスペースが正しく設定されていない: AWS ワークスペースのルートストレージバケットと同じリージョンにある必要があります。
FILES_API_AWS_INVALID_BUCKET_NAME
SQLSTATE: 割り当てられていない
ストレージバケット名が無効です。
FILES_API_AWS_KMS_KEY_DISABLED
SQLSTATE: 割り当てられていない
ストレージバケットにアクセスするために設定された KMS キーは、AWS で無効になっています。
FILES_API_AWS_UNAUTHORIZED
SQLSTATE: 割り当てられていない
AWS リソースへのアクセスは許可されていません。
FILES_API_AZURE_ACCOUNT_IS_DISABLED
SQLSTATE: 割り当てられていない
ストレージ アカウントは Azure で無効になっています。
FILES_API_AZURE_CONTAINER_DOES_NOT_EXIST
SQLSTATE: 割り当てられていない
Azure コンテナーが存在しません。
FILES_API_AZURE_FORBIDDEN
SQLSTATE: 割り当てられていない
ストレージ コンテナーへのアクセスは Azure によって禁止されています。
FILES_API_AZURE_HAS_A_LEASE
SQLSTATE: 割り当てられていない
Azureは、現在リソースにリースがあると回答しました。 後でもう一度やり直してください。
FILES_API_AZURE_INSUFFICIENT_ACCOUNT_PERMISSION
SQLSTATE: 割り当てられていない
アクセスされているアカウントには、この操作を実行するための十分なアクセス許可がありません。
FILES_API_AZURE_INVALID_STORAGE_ACCOUNT_NAME
SQLSTATE: 割り当てられていない
Azure のストレージ アカウントにアクセスできません: ストレージ アカウント名が無効です。
FILES_API_AZURE_KEY_BASED_AUTHENTICATION_NOT_PERMITTED
SQLSTATE: 割り当てられていない
キー コンテナー コンテナーが Azure に見つかりません。 顧客管理のキーの設定を確認します。
FILES_API_AZURE_KEY_VAULT_KEY_NOT_FOUND
SQLSTATE: 割り当てられていない
Azure Key Vault キーが Azure に見つかりません。 顧客管理のキーの設定を確認します。
FILES_API_AZURE_KEY_VAULT_VAULT_NOT_FOUND
SQLSTATE: 割り当てられていない
キー コンテナー コンテナーが Azure に見つかりません。 顧客管理のキーの設定を確認します。
FILES_API_AZURE_MI_ACCESS_CONNECTOR_NOT_FOUND
SQLSTATE: 割り当てられていない
Azure Managed Identity Credential with Access Connector が見つかりません。 これは、IP アクセス制御によってリクエストが拒否されたことが原因である可能性があります。
FILES_API_AZURE_OPERATION_TIMEOUT
SQLSTATE: 割り当てられていない
許可された時間内に操作を完了できませんでした。
FILES_API_AZURE_PATH_INVALID
SQLSTATE: 割り当てられていない
要求されたパスは Azure では無効です。
FILES_API_AZURE_PATH_IS_IMMUTABLE
SQLSTATE: 割り当てられていない
要求されたパスは不変です。
FILES_API_AZURE_UNSUPPORTED_HEADER
SQLSTATE: 割り当てられていない
operation で指定されたヘッダーの 1 つはサポートされていません。
FILES_API_CATALOG_NOT_FOUND
SQLSTATE: 割り当てられていない
<unity_catalog_error_message>
FILES_API_CLOUD_RESOURCE_EXHAUSTED
SQLSTATE: 割り当てられていない
<message>
FILES_API_COLON_IS_NOT_SUPPORTED_IN_PATH
SQLSTATE: 割り当てられていない
':' 文字はパスではサポートされていません
FILES_API_CONTROL_PLANE_NETWORK_ZONE_NOT_ALLOWED
SQLSTATE: 割り当てられていない
Databricks コントロール プレーン ネットワーク ゾーンは許可されていません。
FILES_API_DIRECTORIES_CANNOT_HAVE_BODIES
SQLSTATE: 割り当てられていない
本文は提供されましたが、ディレクトリにファイル本文を含めることはできません
FILES_API_DIRECTORY_IS_NOT_EMPTY
SQLSTATE: 割り当てられていない
ディレクトリが空ではありません。 この操作は、空でないディレクトリではサポートされていません。
FILES_API_DIRECTORY_IS_NOT_FOUND
SQLSTATE: 割り当てられていない
アクセスしているディレクトリが見つかりません。
FILES_API_DUPLICATED_HEADER
SQLSTATE: 割り当てられていない
要求には、一度だけ許可されるヘッダーの複数のコピーが含まれていました。
FILES_API_DUPLICATE_QUERY_PARAMETER
SQLSTATE: 割り当てられていない
クエリ パラメーター '<parameter_name>' は 1 回だけ指定する必要がありますが、複数回指定されています。
FILES_API_EMPTY_BUCKET_NAME
SQLSTATE: 割り当てられていない
DBFS バケット名が空です。
FILES_API_ENTITY_TOO_LARGE
SQLSTATE: 割り当てられていない
オブジェクトが最大許容オブジェクトサイズを超えています。
FILES_API_EXPIRATION_TIME_MUST_BE_PRESENT
SQLSTATE: 割り当てられていない
有効期限が存在している必要があります
FILES_API_EXPIRED_TOKEN
SQLSTATE: 割り当てられていない
提供されたトークンの有効期限が切れています。
FILES_API_EXPIRE_TIME_MUST_BE_IN_THE_FUTURE
SQLSTATE: 割り当てられていない
ExpireTime は将来の値である必要があります
FILES_API_EXPIRE_TIME_TOO_FAR_IN_FUTURE
SQLSTATE: 割り当てられていない
要求された TTL がサポートされている TTL より長い (1 時間)
FILES_API_EXTERNAL_LOCATION_PATH_OVERLAP_OTHER_UC_STORAGE_ENTITY
SQLSTATE: 割り当てられていない
<unity_catalog_error_message>
FILES_API_FILE_ALREADY_EXISTS
SQLSTATE: 割り当てられていない
作成中のファイルはすでに存在します。
FILES_API_FILE_NOT_FOUND
SQLSTATE: 割り当てられていない
アクセス中のファイルが見つかりません。
FILES_API_FILE_OR_DIRECTORY_ENDS_IN_DOT
SQLSTATE: 割り当てられていない
'.' 文字で終わるファイルまたはディレクトリはサポートされていません。
FILES_API_FILE_SIZE_EXCEEDED
SQLSTATE: 割り当てられていない
ファイル サイズは <max_download_size_in_bytes> バイトを超えてはなりませんが、<size_in_bytes> バイトが見つかりました。
FILES_API_GCP_ACCOUNT_IS_DISABLED
SQLSTATE: 割り当てられていない
GCP でストレージ バケットへのアクセスが無効になっています。
FILES_API_GCP_BUCKET_DOES_NOT_EXIST
SQLSTATE: 割り当てられていない
ストレージ バケットが GCP に存在しません。
FILES_API_GCP_FORBIDDEN
SQLSTATE: 割り当てられていない
バケットへのアクセスは GCP によって禁止されています。
FILES_API_GCP_KEY_DISABLED_OR_DESTROYED
SQLSTATE: 割り当てられていない
そのロケーションに設定された顧客管理の暗号化キーは、無効または破棄されます。
FILES_API_GCP_REQUEST_IS_PROHIBITED_BY_POLICY
SQLSTATE: 割り当てられていない
バケットへのリクエスト GCP はポリシーにより禁止されていますので、 VPC Service Controlsを確認してください。
FILES_API_HOST_TEMPORARILY_NOT_AVAILABLE
SQLSTATE: 割り当てられていない
クラウドプロバイダーホストは一時的に利用できません。しばらくしてからもう一度お試しください。
FILES_API_INVALID_CONTINUATION_TOKEN
SQLSTATE: 割り当てられていない
指定されたページ・トークンが無効です。
FILES_API_INVALID_PAGE_TOKEN
SQLSTATE: 割り当てられていない
無効なページトークン
FILES_API_INVALID_PATH
SQLSTATE: 割り当てられていない
無効なパス: <validation_error>
FILES_API_INVALID_RANGE
SQLSTATE: 割り当てられていない
範囲ヘッダーが無効です。
FILES_API_INVALID_RESOURCE_FULL_NAME
SQLSTATE: 割り当てられていない
<unity_catalog_error_message>
FILES_API_INVALID_SESSION_TOKEN
SQLSTATE: 割り当てられていない
無効なセッション・トークン
FILES_API_INVALID_SESSION_TOKEN_TYPE
SQLSTATE: 割り当てられていない
セッション トークンの種類が無効です。 「<expected>
」を予想していましたが、「<actual>
」が出ました。
FILES_API_INVALID_TIMESTAMP
SQLSTATE: 割り当てられていない
タイムスタンプが無効です。
FILES_API_INVALID_UPLOAD_TYPE
SQLSTATE: 割り当てられていない
アップロードの種類が無効です。 「<expected>
」を予想していましたが、「<actual>
」が出ました。
FILES_API_INVALID_URL_PARAMETER
SQLSTATE: 割り当てられていない
パラメーターとして渡された URL が無効です
FILES_API_INVALID_VALUE_FOR_OVERWRITE_QUERY_PARAMETER
SQLSTATE: 割り当てられていない
クエリ パラメーター 'overwrite' は true,false のいずれかである必要がありますが、以前は <got_values>
FILES_API_INVALID_VALUE_FOR_QUERY_PARAMETER
SQLSTATE: 割り当てられていない
Query パラメーター '<parameter_name>' は次のいずれかである必要があります。ただし、次の条件では<expected>
<actual>
FILES_API_MALFORMED_REQUEST_BODY
SQLSTATE: 割り当てられていない
要求本文の形式が正しくありません
FILES_API_MANAGED_CATALOG_FEATURE_DISABLED
SQLSTATE: 割り当てられていない
<unity_catalog_error_message>
FILES_API_METASTORE_NOT_FOUND
SQLSTATE: 割り当てられていない
<unity_catalog_error_message>
FILES_API_METHOD_IS_NOT_ENABLED_FOR_JOBS_BACKGROUND_COMPUTE_ARTIFACT_STORAGE
SQLSTATE: 割り当てられていない
要求されたファイル API 方法は、ジョブ バックグラウンド コンピュート アーティファクト ストレージではサポートされていません。
FILES_API_MISSING_CONTENT_LENGTH
SQLSTATE: 割り当てられていない
リクエストには content-length ヘッダーが必要です。
FILES_API_MISSING_QUERY_PARAMETER
SQLSTATE: 割り当てられていない
クエリ パラメーター '<parameter_name>' は必須ですが、要求にありません。
FILES_API_MISSING_REQUIRED_PARAMETER_IN_REQUEST
SQLSTATE: 割り当てられていない
要求に必要なパラメーターがありません。
FILES_API_MODEL_VERSION_IS_NOT_READY
SQLSTATE: 割り当てられていない
モデルバージョンはまだ準備ができていません
FILES_API_MULTIPART_UPLOAD_ABORT_PRESIGNED_URL_NOT_SUPPORTED
SQLSTATE: 割り当てられていない
マルチパートアップロードを中止するための署名付き URL は、<cloud_storage_provider> に格納されたファイルではサポートされていません。
FILES_API_MULTIPART_UPLOAD_EMPTY_PART_LIST
SQLSTATE: 割り当てられていない
パーツのリストには少なくとも 1 つの要素が必要ですが、空でした。
FILES_API_MULTIPART_UPLOAD_INVALID_PART_NUMBER
SQLSTATE: 割り当てられていない
部品番号は、アップロードの開始時に受信した応答に記載されている範囲内である必要があります。
FILES_API_MULTIPART_UPLOAD_MISSING_ETAG
SQLSTATE: 割り当てられていない
ETag は、<cloud_storage_provider> に格納されているファイルに対して提供する必要があります。 少なくとも 1 つの ETag が提供されていないか、空です。
FILES_API_MULTIPART_UPLOAD_MODIFIED_STORAGE_ENTITY_STATE
SQLSTATE: 割り当てられていない
アップロードが開始されてからストレージ エンティティの内部状態が変更されている (ファイル パスが同じ基になるクラウド ストレージの場所を指していないためなど)。 新しいアップロード・セッションを開始して続行します。
FILES_API_MULTIPART_UPLOAD_NON_TRAILING_PARTS_WITH_DIFFERENT_SIZES
SQLSTATE: 割り当てられていない
マルチパートアップロードセッションの一部としてアップロードされるパートは、<cloud_storage_provider>に保存されているファイルと同じサイズである必要があります。ただし、最後のパートはこれより小さくてもかまいません。
FILES_API_MULTIPART_UPLOAD_PART_SIZE_OUT_OF_RANGE
SQLSTATE: 割り当てられていない
マルチパート・アップロード・セッションの一部としてアップロードされるパートのサイズは、アップロードの開始時に受信したレスポンスで提供される範囲内である必要があります。
FILES_API_MULTIPART_UPLOAD_SESSION_NOT_FOUND
SQLSTATE: 割り当てられていない
アップロード セッションが見つかりません。 中止されたか、または完了した可能性があります。
FILES_API_MULTIPART_UPLOAD_UNORDERED_PART_LIST
SQLSTATE: 割り当てられていない
部品のリストは部品番号で並べ替える必要がありますが、順序付けられていません。
FILES_API_NOT_ENABLED_FOR_PLACE
SQLSTATE: 割り当てられていない
このワークスペース/アカウントでは、 <place>
の Files API が有効になっていません
FILES_API_NOT_SUPPORTED_FOR_INTERNAL_WORKSPACE_STORAGE
SQLSTATE: 割り当てられていない
ファイル API の要求されたメソッドは、内部ワークスペース ストレージではサポートされていません
FILES_API_OPERATION_MUST_BE_PRESENT
SQLSTATE: 割り当てられていない
操作が存在する必要があります
FILES_API_PAGE_SIZE_MUST_BE_GREATER_OR_EQUAL_TO_ZERO
SQLSTATE: 割り当てられていない
page_size 0 以上である必要があります
FILES_API_PATH_END_WITH_A_SLASH
SQLSTATE: 割り当てられていない
'/' 文字で終わるパスはディレクトリを表します。 この API は、ディレクトリに対する操作をサポートしていません。
FILES_API_PATH_IS_A_DIRECTORY
SQLSTATE: 割り当てられていない
指定されたパスは、既存のディレクトリを指しています。 この API は、ディレクトリに対する操作をサポートしていません。
FILES_API_PATH_IS_A_FILE
SQLSTATE: 割り当てられていない
指定されたパスは既存のファイルを指しています。 この API は、ファイルに対する操作をサポートしていません。
FILES_API_PATH_IS_NOT_A_VALID_UTF8_ENCODED_URL
SQLSTATE: 割り当てられていない
指定されたパスは有効なUTF-8でエンコードされたURLではありませんでした
FILES_API_PATH_IS_NOT_ENABLED_FOR_DATAPLANE_PROXY
SQLSTATE: 割り当てられていない
指定されたパスはデータプレーンプロキシに対して有効になっていません
FILES_API_PATH_MUST_BE_PRESENT
SQLSTATE: 割り当てられていない
パスが存在する必要があります
FILES_API_PATH_NOT_SUPPORTED
SQLSTATE: 割り当てられていない
<rejection_message>
FILES_API_PATH_TOO_LONG
SQLSTATE: 割り当てられていない
指定されたファイルパスが長すぎます。
FILES_API_PRECONDITION_FAILED
SQLSTATE: 割り当てられていない
前提条件のため、要求が失敗しました。
FILES_API_PRESIGNED_URLS_FOR_MODELS_NOT_SUPPORTED
SQLSTATE: 割り当てられていない
モデルの署名付き URL の Files API は、現在サポートされていません
FILES_API_R2_CREDENTIALS_DISABLED
SQLSTATE: 割り当てられていない
R2 は現在サポートされていません。
FILES_API_RANGE_NOT_SATISFIABLE
SQLSTATE: 割り当てられていない
要求された範囲が満たされません。
FILES_API_RECURSIVE_LIST_IS_NOT_SUPPORTED
SQLSTATE: 割り当てられていない
ファイルの再帰的なリストはサポートされていません。
FILES_API_REQUEST_GOT_ROUTED_INCORRECTLY
SQLSTATE: 割り当てられていない
要求が正しくルーティングされませんでした
FILES_API_REQUEST_MUST_INCLUDE_ACCOUNT_INFORMATION
SQLSTATE: 割り当てられていない
リクエストにはアカウント情報を含める必要があります
FILES_API_REQUEST_MUST_INCLUDE_USER_INFORMATION
SQLSTATE: 割り当てられていない
リクエストにはユーザー情報を含める必要があります
FILES_API_REQUEST_MUST_INCLUDE_WORKSPACE_INFORMATION
SQLSTATE: 割り当てられていない
リクエストにはワークスペース情報を含める必要があります
FILES_API_RESOURCE_IS_READONLY
SQLSTATE: 割り当てられていない
リソースは読み取り専用です。
FILES_API_RESOURCE_NOT_FOUND
SQLSTATE: 割り当てられていない
<unity_catalog_error_message>
FILES_API_SCHEMA_NOT_FOUND
SQLSTATE: 割り当てられていない
<unity_catalog_error_message>
FILES_API_SECURE_URL_CANT_BE_ACCESSED
SQLSTATE: 割り当てられていない
URLにアクセスできません。
FILES_API_SIGNATURE_VERIFICATION_FAILED
SQLSTATE: 割り当てられていない
署名の検証に失敗しました。
FILES_API_STORAGE_CONTEXT_IS_NOT_SET
SQLSTATE: 割り当てられていない
このワークスペースのストレージ構成にはアクセスできません。
FILES_API_STORAGE_CREDENTIAL_NOT_FOUND
SQLSTATE: 割り当てられていない
<unity_catalog_error_message>
FILES_API_TABLE_TYPE_NOT_SUPPORTED
SQLSTATE: 割り当てられていない
ファイル API は <table_type> ではサポートされていません
FILES_API_UC_IAM_ROLE_NON_SELF_ASSUMING
SQLSTATE: 割り当てられていない
<unity_catalog_error_message>
FILES_API_UC_MODEL_INVALID_STATE
SQLSTATE: 割り当てられていない
<unity_catalog_error_message>
FILES_API_UC_PERMISSION_DENIED
SQLSTATE: 割り当てられていない
<unity_catalog_error_message>
FILES_API_UC_RESOURCE_EXHAUSTED
SQLSTATE: 割り当てられていない
<message>
FILES_API_UC_UNSUPPORTED_LATIN_CHARACTER_IN_PATH
SQLSTATE: 割り当てられていない
<unity_catalog_error_message>
FILES_API_UC_VOLUME_NAME_CHANGED
SQLSTATE: 割り当てられていない
<unity_catalog_error_message>
FILES_API_UNEXPECTED_ERROR_WHILE_PARSING_URI
SQLSTATE: 割り当てられていない
URI の解析時に予期しないエラーが発生しました
FILES_API_UNEXPECTED_QUERY_PARAMETERS
SQLSTATE: 割り当てられていない
予期しないクエリ パラメーター: <unexpected_query_parameters>
FILES_API_UNKNOWN_METHOD
SQLSTATE: 割り当てられていない
不明な方法 <method>
FILES_API_UNKNOWN_SERVER_ERROR
SQLSTATE: 割り当てられていない
不明なサーバーエラーです。
FILES_API_UNKNOWN_URL_HOST
SQLSTATE: 割り当てられていない
URL ホストが不明です。
FILES_API_UNSUPPORTED_PATH
SQLSTATE: 割り当てられていない
指定されたパスは、Files API ではサポートされていません。 指定されたパスに '../' または './' シーケンス。 指定されたパスで複数の連続するスラッシュが使用されていないことを確認してください(例: ‘///’).
FILES_API_URL_GENERATION_DISABLED
SQLSTATE: 割り当てられていない
署名付き URL の生成は、 <cloud>
では有効になっていません。
FILES_API_VOLUME_TYPE_NOT_SUPPORTED
SQLSTATE: 割り当てられていない
ファイル API は <volume_type> ではサポートされていません。
FILES_API_WORKSPACE_IS_CANCELED
SQLSTATE: 割り当てられていない
ワークスペースがキャンセルされました。
FILES_API_WORKSPACE_IS_NOT_FOUND
SQLSTATE: 割り当てられていない
このワークスペースのストレージ構成にはアクセスできません。
DLTの
ALTER_SCHEDULE_SCHEDULE_DOES_NOT_EXIST
既存のスケジュールまたはトリガがないテーブルの <type>
は変更できません。 スケジュールまたはトリガーをテーブルに追加してから、テーブルを変更してください。
API_QUOTA_EXCEEDED
データソース<sourceName>
の API クォータを超えました。
詳細については、 API_QUOTA_EXCEEDED
APPLY_CHANGES_PARTIAL_UPDATES_NOT_ENABLED
SQLSTATE: 割り当てられていない
Feature COLUMNS
TO UPDATE
はプレビュー段階であり、お使いのワークスペースでは有効になっていません。 この機能の詳細を確認し、プライベート プレビューにアクセスするには、Databricks の担当者にお問い合わせください。
ARCHITECTURE_MIGRATION_FAILURE
SQLSTATE: 割り当てられていない
詳細については、 ARCHITECTURE_MIGRATION_FAILURE
CANNOT_ADD_COLUMN_TO_INCLUDE_COLUMNS
SQLSTATE: 割り当てられていない
新しい列(<columnNames>
)は、テーブル <qualifiedTableName>
のパイプライン定義のinclude_columnsフィールドに追加されます。 データ損失の可能性を回避するためにテーブルを完全に更新するか、これらの列をinclude_columnsから削除してください。
CANNOT_EXCLUDE_NON_EXISTENT_COLUMN
SQLSTATE: 割り当てられていない
パイプライン定義では、ソース <sourceType>
のテーブル <qualifiedTableName>
に存在しない列 (<columnNames>
) は除外されます。これらの列をexclude_columnsフィールドから削除してください。
CANNOT_FILTER_OUT_REQUIRED_COLUMN
SQLSTATE: 割り当てられていない
パイプライン定義には、インジェストのソース <sourceType>
のテーブル <qualifiedTableName>
に必要な列 (<columnNames>
) が含まれていません。include_columnsに追加するか、exclude_columnsから削除してください。
CANNOT_INCLUDE_NON_EXISTENT_COLUMN
SQLSTATE: 割り当てられていない
パイプライン定義には、ソース <sourceType>
のテーブル <qualifiedTableName>
に存在しない列 (<columnNames>
) が含まれます。これらの列をinclude_columnsフィールドから削除してください。
CANNOT_INGEST_TABLE_WITHOUT_PRIMARY_KEY
SQLSTATE: 割り当てられていない
<sourceType>
ソースのテーブル<qualifiedTableName>
にはプライマリキーがありません。
コネクタ構成で主キーを指定して、テーブルが存在する場合は取り込んでください。
CANNOT_REMOVE_COLUMN_FROM_EXCLUDE_COLUMNS
SQLSTATE: 割り当てられていない
列 (<columnNames>
) は、テーブル のパイプライン定義の exclude_columns フィールドから削除 <qualifiedTableName>
。 データ損失の可能性を回避するためにテーブルを完全に更新するか、これらの列をexclude_columnsに追加し直してください。
CANNOT_SET_CATALOG_FOR_HMS_PIPELINE
SQLSTATE: 割り当てられていない
UC を使用する場合は、ストレージの場所が定義されている既存のパイプラインにカタログを追加することはできません。UC を使用して新しいパイプラインを作成し、カタログを設定します。
既存の保存場所: '<storageLocation>
'
ご請求いただいたカタログ: '<catalog>
'
CANNOT_SPECIFY_BOTH_INCLUDE_EXCLUDE_COLUMNS
SQLSTATE: 割り当てられていない
パイプライン定義では、 <identifier>
の include_columns と exclude_columns の両方が指定されています。 そのうちの1つを削除してください。
CANNOT_UPDATE_CLUSTERING_COLUMNS
SQLSTATE: 割り当てられていない
テーブル <tableName>
のクラスタリング列は、パーティション列を使用しているため、更新できません。 テーブルでは、パーティション列またはクラスタリング列のいずれかを使用できますが、両方は使用できません。
リキッドクラスタリングとパーティショニングを切り替えるには、このテーブルの完全な更新をトリガーします。
CANNOT_UPDATE_PARTITION_COLUMNS
SQLSTATE: 割り当てられていない
ストリーミング テーブル <tableName>
のパーティション列を更新できません。
電流: <existingPartitionColumns>
,
要求: <requestedPartitionColumns>
このパーティションの変更を適用するには、このテーブルと、パーティション列が更新された他のストリーミング テーブルの完全な更新をトリガーします。
または、この変更を元に戻して、既存のパーティション列を引き続き使用します。
CANNOT_UPDATE_TABLE_SCHEMA
SQLSTATE: 割り当てられていない
テーブル <tableName>
の現在のスキーマと新しいスキーマをマージできませんでした。
このスキーマの変更を続行するには、このテーブルの完全な更新をトリガーします。
ユースケースとスキーマの変更によっては、スキーマの変更を回避できる場合があります – 出力スキーマが既存のスキーマと互換性を持つようにクエリを更新できます (たとえば、列を正しいデータ型に明示的にキャストするなど)。
CANNOT_WRITE_TO_INACTIVE_COLUMNS
SQLSTATE: 割り当てられていない
宛先の次のテーブルには、現在のソース テーブルと競合する非アクティブな列があります。
<details>
これらの列は、以前にソース テーブルから削除されているため、レプリケート先テーブルでは非アクティブのままです。
更新を続行するには、テーブルに対して FULL REFRESH
を実行するか、 ALTER TABLE DROP COLUMN
コマンドを使用してこれらの非アクティブな列を宛先テーブルから削除し、更新を再試行してください。
CANNOT_WRITE_TO_INACTIVE_TABLES
SQLSTATE: 割り当てられていない
デスティネーションの次のテーブルは非アクティブで、現在のソーステーブルと競合しています。 <tables>
.
これらのテーブルは、以前にソースから削除されたか、コネクタから選択解除されたため、非アクティブのままです。
更新を続行するには、テーブルに対して FULL REFRESH
を実行するか、カタログ エクスプローラーまたは DROP TABLE
コマンドを使用してこれらの非アクティブなテーブルを宛先から削除し、更新を再試行してください。
CANNOT_WRITE_TO_TABLES_PENDING_RESET
SQLSTATE: 割り当てられていない
デスティネーションの次のテーブルは、前回の完全更新で正しくリセットされていません: <tables>
.
回復するには、それらを完全に更新してください。
CATALOG_SPEC_UNSUPPORTED
SQLSTATE: 割り当てられていない
CatalogSpecs は、現在、データベース・コネクターでサポートされていません。 カタログスペックを削除してください。
CDC_APPLIER_REQUIRES_ALL_DESTINATION_TABLES_FULL_REFRESH
SQLSTATE: 割り当てられていない
1 つのデスティネーション・テーブルのフル・リフレッシュと、同じソースからの別のデスティネーション・テーブルの通常の更新はサポートされていません。
可能であれば、両方のテーブルを完全に更新して続行してください。
完全更新テーブル: <fullRefreshTables>
ソース <sourceTable>
の宛先テーブル: <destinationTables>
CDC_APPLIER_SCHEMA_CHANGED_DURING_STREAMING
SQLSTATE: 割り当てられていない
スキーマ バージョン <dataSchemaVersion>
は、読み取りスキーマ バージョン <readSchemaVersion>
とは異なります。
DLT は更新を再試行します。
CDC_INCOMPATIBLE_SCHEMA_CHANGES
SQLSTATE: 割り当てられていない
スキーマ バージョン <previousSchemaVersion>
から <currentSchemaVersion>
への互換性のないスキーマ変更 (<cause>
) が発生しました。
したがって、 <tableName>
の変更の適用を続行することはできません。 テーブルの完全な更新をリクエストしてください。
前のスキーマ: <previousSchema>
現在のスキーマ: <currentSchema>
CDC_POTENTIAL_DATA_GAPS
SQLSTATE: 割り当てられていない
次の表 [<needFullRefreshTableList>
] では、 <retention>
日間正常に更新されていません。
これらのテーブルまたはパイプライン全体で完全な更新を行ってください。
CDC_SAME_TABLE_FROM_MULTIPLE_SOURCES
SQLSTATE: 割り当てられていない
同じテーブル名を複数のソースから <table>
見つけました。 <sources>
.
競合を避けるために、それらを異なるパイプラインに分割してください。
CDC_TABLE_NOT_FOUND_IN_ALL_TABLES
SQLSTATE: 割り当てられていない
テーブル <table>
は、ソース データベースの all tables スナップショットに見つかりません。
テーブル仕様の詳細:
<tableSpec>
CHANGES_HMS_PIPELINE_TO_UC_NOT_ALLOWED
SQLSTATE: 割り当てられていない
HMS パイプラインを UC パイプラインに変更することはできません。
CHANGES_UC_PIPELINE_TO_HMS_NOT_ALLOWED
SQLSTATE: 割り当てられていない
UC パイプラインを HMS パイプラインに変更することはできません。
CHANGING_CATALOG_NOT_ALLOWED
SQLSTATE: 割り当てられていない
既存のパイプラインのカタログは変更できません。 既存のカタログ: '<existingCatalog>
'. 要求されたカタログ: '<requestedCatalog>
'。
CHANGING_TARGET_SCHEMA_NOT_ALLOWED
SQLSTATE: 割り当てられていない
ターゲット スキーマの変更は許可されません。 理由: <reason>
。
クラスター
使用可能なクレジットを使い果たしたため、クラスターを作成できませんでした。 アカウントをアップグレードするための支払い方法を追加してください。
クラスター
クラスターを作成する権限がありません。 管理者に問い合わせてください。
クラスター
ワークスペースの試用期間が終了したため、クラスターの作成または開始に失敗しました。 管理者に問い合わせてください。
クラスター
パイプライン クラスター システムの起動に失敗しました : <clusterId>
<clusterStateMessage>
このエラーは、パイプラインの設定ミスが原因である可能性があります。
パイプライン クラスター構成と関連するクラスターポリシーを確認します。
クラスター
パイプライン クラスター システムの起動に失敗しました : <clusterId>
<clusterStateMessage>
このエラーは一時的なものである可能性があります - パイプラインを再起動し、同じ問題が引き続き発生する場合は報告してください。
クラスター
このパイプライン用に構成されたクラスターポリシーにアクセスする権限がありません。 管理者に問い合わせてください。
クラスター
詳細については、「クラスター」を参照してください。
クラスター
SQLSTATE: 割り当てられていない
ドライバーとの通信が失われました。 クラスター <clusterId>
に <timeoutSeconds>
秒間到達できませんでした。
COLUMN_TO_UPDATE_NOT_FOUND
SQLSTATE: 割り当てられていない
COLUMNS
TO で指定された列<column>``UPDATE
ソース Dataframe に見つかりません。
並列
SQLSTATE: 割り当てられていない
アップグレードのための更新 '<upgradedUpdateId>
' を開始しましたが、以前の更新 '<oldUpdateId>
' を停止できませんでした。
このエラーは一時的なものである可能性があります。 パイプラインは自動的に再試行され、問題は自動的に解決されます。
同じ問題が引き続き発生する場合は、このエラーを Databricks に報告してください。
データセット
SQLSTATE: 割り当てられていない
データセット <datasetName>
は既に存在します。 クエリ関数がビューまたはテーブルとして一度だけマークされていることを確認してください。
データセット
SQLSTATE: 割り当てられていない
データセット '<datasetName>
' を読み取れませんでした。 このデータセットはパイプラインで定義されていません。
このテーブルが別のパイプラインによって管理されている場合は、 dlt.read
/ dlt.readStream
を使用してテーブルを読み取ったり、名前の前に LIVE キーワードを付加したりしないでください。
DROP_SCHEDULE_SCHEDULE_DOES_NOT_EXIST
既存のスケジュールまたはトリガーがないテーブルに SCHEDULE
を削除することはできません。
DUPLICATED_INGESTION_CONFIG_TABLE_SPECS
SQLSTATE: 割り当てられていない
インジェスト パイプライン構成に重複するテーブルが含まれています。 各テーブルが一意であることを確認してください。
EMPTY_INGESTION_CONFIG_OBJECTS
SQLSTATE: 割り当てられていない
インジェスト設定オブジェクトが空です。
EVENT_LOG_PICKER_FEATURE_NOT_SUPPORTED
SQLSTATE: 割り当てられていない
このパイプラインでは、 Unity Catalog へのイベント ログの発行はサポートされていません。 これが予期せぬ場合は、Databricks サポートにお問い合わせください。
FAILED_TO_CREATE_EVENT_LOG
SQLSTATE: 割り当てられていない
識別子 <eventLogIdentifier>
のパイプライン (id=<pipelineId>
) イベント ログを作成できませんでした。詳細については、以下の例外を参照してください。
FAILED_TO_UPDATE_EVENT_LOG
SQLSTATE: 割り当てられていない
パイプライン (id=<pipelineId>
) イベント ログ識別子を可視性 の <newVisibility>
で <newEventLogIdentifier>
に更新できませんでした。詳細については、以下の例外を参照してください。
FLOW_SCHEMA_CHANGED
SQLSTATE: 割り当てられていない
フロー <flowName>
は、実行中にスキーマの変更が発生したため、終了しました。
スキーマの変更は既存のターゲットスキーマと互換性があり、フローの次の実行は新しいスキーマで再開できます。
バッチ
SQLSTATE: 割り当てられていない
DLT ForeachBatch シンクは現在サポートされていません。
DLT ForeachBatch シンクのプライベート プレビューには、 PREVIEW
チャンネルが必要です。
DLTシンク: <sinkNames>
GATEWAY_PIPELINE_INIT_SCRIPTS_NOT_ALLOWED
SQLSTATE: 割り当てられていない
Gateway パイプラインでは、クラスター initスクリプトは許可されません。 <from>
から削除してください。
GATEWAY_PIPELINE_SPARK_CONF_NOT_ALLOWED
SQLSTATE: 割り当てられていない
Gateway パイプラインでは、spark config [<configs>
] は許可されません。 <from>
から削除してください。
ILLEGAL_COLUMN_TO_UPDATE_DATA_TYPE
SQLSTATE: 割り当てられていない
COLUMNS
TO UPDATE
で指定する列のデータ型は文字列配列である必要がありますが、<illegalDataType>
.
ILLEGAL_SCHEMA_FIELD_IN_PIPELINE_SPEC
SQLSTATE: 割り当てられていない
パイプライン設定で指定された「スキーマ」フィールドは不正です。 理由: <reason>
。
INGESTION_CONFIG_DUPLICATED_SCHEMA
SQLSTATE: 割り当てられていない
インジェスト パイプライン構成に重複するスキーマが含まれています。 各スキーマが一意であることを確認してください。
INGESTION_GATEWAY_AUTHENTICATION_FAILURE
SQLSTATE: 割り当てられていない
認証の失敗
詳細については、 INGESTION_GATEWAY_AUTHENTICATION_FAILURE
INGESTION_GATEWAY_CDC_NOT_ENABLED
SQLSTATE: 割り当てられていない
CDC は '<entityName>
' <entityType>
で有効になっていません。エラー メッセージ: '<errorMessage>
'。
INGESTION_GATEWAY_MISSING_CONNECTION_REFERENCE
SQLSTATE: 割り当てられていない
インジェスト ゲートウェイ構成に接続がありません。
資格情報を含む Unity Catalog 接続への参照を追加してください。
インジェスト ゲートウェイ パイプライン定義の詳細:
<definition>
INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_CATALOG
SQLSTATE: 割り当てられていない
インジェスト ゲートウェイ構成に内部ストレージの場所カタログがありません。
内部保管場所カタログを追加してください。
インジェスト ゲートウェイ パイプライン定義の詳細:
<definition>
INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_NAME
SQLSTATE: 割り当てられていない
インジェスト ゲートウェイ構成に内部ストレージの場所の名前がありません。
内部保存場所の名前を追加してください。
インジェスト ゲートウェイ パイプライン定義の詳細:
<definition>
INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_SCHEMA
SQLSTATE: 割り当てられていない
インジェスト ゲートウェイ構成に内部ストレージの場所スキーマがありません。
内部ストレージの場所スキーマを追加してください。
インジェスト ゲートウェイ パイプライン定義の詳細:
<definition>
INGESTION_GATEWAY_UNREACHABLE_HOST_OR_PORT_FAILURE
SQLSTATE: 割り当てられていない
ホスト名 <host>
やポート <port>
が正しくないため、接続に失敗しました。
詳細については、 INGESTION_GATEWAY_UNREACHABLE_HOST_OR_PORT_FAILURE
INSTANCE_POOL_CAPACITY_EXCEEDED
この操作がインスタンス・プールの容量を超えるため、クラスターの作成または開始に失敗しました: <errorMessage>
INVALID_APPLY_CHANGES_COMMAND
SQLSTATE: 割り当てられていない
APPLY CHANGES
コマンドが無効です。 <reason>
。
INVALID_ARGUMENT_TYPE
SQLSTATE: 割り当てられていない
無効な型の値がパラメーター '<paramName>
' に渡されます。 予想 <expectedType>
。 <additionalMsg>
。
INVALID_EVENT_LOG_PICKER_CONFIGURATION
SQLSTATE: 割り当てられていない
パイプライン仕様に無効なイベント ログ ピッカー構成が見つかりました: <message>
INVALID_NAME_IN_USE_COMMAND
SQLSTATE: 割り当てられていない
コマンドの名前 '<name>
' が無効です <command>
。 理由: <reason>
INVALID_REFRESH_SELECTION
SQLSTATE: 割り当てられていない
この更新に指定された更新選択パラメーターは、次の理由で無効です
詳細については、 INVALID_REFRESH_SELECTION
INVALID_SCHEMA_NAME
SQLSTATE: 割り当てられていない
パイプライン設定で指定されたスキーマ '<schemaName>
' が無効です。 理由: <reason>
。
INVALID_TRIGGER_INTERVAL_FORMAT
SQLSTATE: 割り当てられていない
<configurationType>
に指定されたトリガー間隔構成が無効です
LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_CLASSIC
SQLSTATE: 割り当てられていない
データセットクエリ定義の外部 LIVE
仮想スキーマ(@dlt.tableアノテーション)を使用してデータセットを参照することはサポートされていません。
LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_DPM
SQLSTATE: 割り当てられていない
データセットクエリ定義の外部 LIVE
仮想スキーマ <identifier>
(つまり、@dlt.tableアノテーション)を使用してデータセットを参照することはサポートされていません。
LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_SPARK_SQL
SQLSTATE: 割り当てられていない
spark.sql で仮想スキーマを使用してデータセットを参照する LIVE
(...) API は、データセットのクエリ定義 (@dlt.table アノテーション) の外部で呼び出すことはできません。 これは、データセット クエリ定義内でのみ呼び出すことができます。
MATERIALIZED_VIEW_METADATA_READ_FAILURE
SQLSTATE: 割り当てられていない
メタデータの読み取りエラーのため、テーブル <tableName>
の更新に失敗しました。 Databricks サポートにお問い合わせください。
MAX_RETRY_REACHED_BEFORE_ENZYME_RECOMPUTE
SQLSTATE: 割り当てられていない
最大再試行回数に達しました。 再試行回数:<flowRetryCount>
. maxFlowFailureRetryCountThreshold:<maxFlowRetryAttempts>
. <message>
METASTORE_OPERATION_TIMED_OUT
SQLSTATE: 割り当てられていない
<tableName>
のメタストア情報の更新に関連する操作に、<timeout>
よりも時間がかかりました。
この問題は一時的なものであるか、構成されたメタストア クライアントのバグを示している可能性があります。 パイプラインを再起動し、問題が解決しない場合は報告してください。
MISSING_CREATE_SCHEMA_PRIVILEGE
SQLSTATE: 割り当てられていない
ユーザー '<userName>
' には、カタログにスキーマを作成する権限がありません <catalogName>
MISSING_CREATE_TABLE_PRIVILEGE
SQLSTATE: 割り当てられていない
ユーザー '<userName>
' には、スキーマにテーブルを作成する権限がありません <schemaName>
MISSING_RUN_AS_USER
SQLSTATE: 割り当てられていない
更新プログラムに実行ユーザーが指定されていません。
MOVE_TABLE_BETWEEN_PIPELINES_DESTINATION_PIPELINE_NOT_FOUND
宛先パイプライン <pipelineId>
が見つかりません。 パイプラインと同じワークスペースにいること、自分がパイプラインの所有者であること、およびパイプラインが少なくとも 1 回は実行されていることを確認します。
MOVE_TABLE_BETWEEN_PIPELINES_DESTINATION_PIPELINE_NOT_IN_NEW_ARCHITECTURE
宛先パイプライン <pipelineId>
は Direct Publishing Modeを使用していません。 パイプライン間でテーブルを移動するには、ソース パイプラインと宛先パイプラインの両方が Direct Publishing Modeにある必要があります。
MOVE_TABLE_BETWEEN_PIPELINES_DESTINATION_PIPELINE_PERMISSION_DENIED
この操作は許可されていません。宛先パイプライン <pipelineId>
の所有者ではありません。 パイプライン間でテーブルを移動できるのは所有者だけです。
MOVE_TABLE_BETWEEN_PIPELINES_DESTINATION_PIPELINE_TYPE_NOT_WORKSPACE
宛先パイプライン <pipelineId>
は標準パイプラインではありません。 標準のパイプライン間でのテーブルの移動のみがサポートされています。
MOVE_TABLE_BETWEEN_PIPELINES_FEATURE_DISABLED
パイプライン間での <tableType>
移動はまだサポートされていません。
MOVE_TABLE_BETWEEN_PIPELINES_SOURCE_PIPELINE_NOT_FOUND
ソース パイプライン <pipelineId>
、 を管理しているテーブル <tableName>
が見つかりません。 パイプラインと同じワークスペースにいること、自分がパイプラインの所有者であること、およびパイプラインが少なくとも 1 回は実行されていることを確認します。
MOVE_TABLE_BETWEEN_PIPELINES_SOURCE_PIPELINE_NOT_IN_NEW_ARCHITECTURE
ソース パイプライン <pipelineId>
は、テーブル テーブルを管理し<tableName>
、ダイレクト パブリッシング (Direct Publishing) Modeを使用していません。 パイプライン間でテーブルを移動するには、ソース パイプラインと宛先パイプラインの両方が Direct Publishing Modeにある必要があります。
MOVE_TABLE_BETWEEN_PIPELINES_SOURCE_PIPELINE_PERMISSION_DENIED
この操作を実行することは許可されていません。ソース パイプラインの所有者ではありません <pipelineId>
、 はテーブル を管理しています <tableName>
。 パイプライン間でテーブルを移動できるのは所有者だけです。
MOVE_TABLE_BETWEEN_PIPELINES_SOURCE_PIPELINE_TYPE_NOT_WORKSPACE
ソース パイプライン <pipelineId>
、 テーブル <tableName>
の管理は、標準パイプラインではありません。 標準のパイプライン間でのテーブルの移動のみがサポートされています。
MOVE_TABLE_BETWEEN_PIPELINES_TABLE_CHANGED
操作中にテーブル <tableName>
が変更されました。 もう一度やり直してください
MOVE_TABLE_BETWEEN_PIPELINES_UPDATE_IS_RUNNING
テーブル<tableName>
のパイプライン<pipelineId>
が実行されています。操作を実行する前にパイプラインを停止してください。
MUTUALLY_EXCLUSIVE_OPTIONS
SQLSTATE: 割り当てられていない
相互に排他的なオプション <options>
. これらのオプションのいずれかを削除してください。
NON_UC_TABLE_ALREADY_MANAGED_BY_OTHER_PIPELINE
SQLSTATE: 割り当てられていない
テーブル '<tableName>
' は、すでにパイプライン <otherPipelineId>
によって管理されています。
テーブル '<tableName>
' をこのパイプラインで管理する場合は、
- パイプライン '
<otherPipelineId>
' からテーブルを削除します。 - このパイプラインの完全な更新更新を開始します。
複数のパイプラインからテーブルを引き続き管理する場合は、パイプライン設定で構成 pipelines.tableManagedByMultiplePipelinesCheck.enabled
を false
に設定して、このチェックを無効にします。
テーブルに対する並列操作は互いに競合し、予期しない結果につながる可能性があるため、これはお勧めしません。
ノートブック
ノートブック '<notebookPath>
' を読み込めません。
NO_TABLES_IN_PIPELINE
SQLSTATE: 割り当てられていない
パイプラインには少なくとも 1 つのテーブルが定義されている必要がありますが、パイプラインにテーブルが見つかりませんでした。
必要なソース ファイルが含まれていること、およびソース コードにテーブル定義が含まれていることを確認してください (例: SQL コードでは [ CREATE <mv>
]、Python コードでは @dlt.table)。
このチェックにはテーブルのみがカウントされることに注意してください。 このエラーは、パイプラインにビューまたはフローのみを含めた場合にも発生する可能性があります。
NO_WORKER_ENVIRONMENTS
組織にワーカー環境がないため、クラスターの作成または開始に失敗しました。 Databricks サポートにお問い合わせください。
パイプライン
SQLSTATE: 割り当てられていない
パイプラインは、部分的な実行後に再試行できないエラーが発生したため、ソース テーブル (<tables>
) の分析に失敗しました。
新しいパイプライン更新プログラムは作成されません。 イベントログを確認し、それに応じて問題を修正してください。
パイプライン
SQLSTATE: 割り当てられていない
テーブルはまだ更新する準備ができていません
詳細については、「パイプライン」を参照してください。
パイプライン
タイプ '<pipelineType>
' のアクティブなパイプラインの制限に達したため、更新 '<updateId>
' を開始できません。
PIP_INSTALL_ERROR
SQLSTATE: 割り当てられていない
%pip install の呼び出し中にエラーが発生しました。
PIP_INSTALL_NOT_AT_TOP_OF_NOTEBOOK
SQLSTATE: 割り当てられていない
ノートブックの「<notebookPath>
」の上部にない %pip install を含むセルが見つかりました
すべての %pip インストール セルをノートブックの先頭に移動します。
PY4J_BLOCKED_API
SQLSTATE: 割り当てられていない
現在の環境でサポートされていない Python API を使用しています。
代替案については Databricksドキュメントを確認してください。
<additionalInfo>
REFERENCE_DLT_DATASET_OUTSIDE_QUERY_DEFINITION
SQLSTATE: 割り当てられていない
DLT データセットの <identifier>
をデータセットクエリ定義の外部で参照すること (@dlt.table アノテーション) はサポートされていません。 代わりに、データセットクエリ定義内で読んでください。
更新
すでに <existingType>
があるテーブルに <type>
を追加することはできません。既存のスケジュールを削除するか、 ALTER TABLE
... ALTER <type>
...それを変更します。
RESERVED_KEYWORD_IN_USE_CATALOG
SQLSTATE: 割り当てられていない
USE CATALOG
'<reservedKeyword>
' は不正です。これは、 '<reservedKeyword>
' が DLT の予約キーワードであるためです。
RESERVED_KEYWORD_IN_USE_SCHEMA
SQLSTATE: 割り当てられていない
USE SCHEMA
'<reservedKeyword>
' は不正です。これは、 '<reservedKeyword>
' が DLT の予約キーワードであるためです。
実行
SQLSTATE: 割り当てられていない
更新プログラムの指定された実行ユーザー '<runAsUserId>
' がワークスペースに存在しません。
SAAS_CONNECTION_ERROR
<sourceName>
ソースに接続できませんでした。エラーコード: <saasConnectionErrorCode>
。
詳細については、 SAAS_CONNECTION_ERROR
SAAS_CONNECTOR_SCHEMA_CHANGE_ERROR
SQLSTATE: 割り当てられていない
<sourceName>
ソースのテーブル <tableName>
でスキーマの変更が発生しました。
詳細については、 SAAS_CONNECTOR_SCHEMA_CHANGE_ERROR
SAAS_CONNECTOR_SOURCE_API_ERROR
<sourceName>
API 呼び出しでエラーが発生しました。ソース API の種類: <saasSourceApiType>
。 エラーコード: <saasSourceApiErrorCode>
。
宛先テーブルを更新してみてください。 問題が解決しない場合は、チケットを提出してください。
SAAS_CONNECTOR_UNSUPPORTED_ERROR
サポートされていないエラーがデータソース で発生 <sourceName>
。
詳細については、 SAAS_CONNECTOR_UNSUPPORTED_ERROR
SAAS_INCOMPATIBLE_SCHEMA_CHANGES_DURING_INIT
SQLSTATE: 割り当てられていない
パイプラインの初期化時に互換性のないスキーマの変更が検出されました。
<details>
影響を受けるテーブルに対して完全な更新を実行してください。
SAAS_SCHEMA_DIVERGED_DURING_ANALYSIS
SQLSTATE: 割り当てられていない
ソース テーブル (<table>
) の分析されたスキーマが、予期されるスキーマから逸脱しています。
パイプラインの更新を再試行し、問題が解決したかどうかを確認してください。
この問題が解決しない場合は、上記のテーブルで完全な更新を実行してください
想定されるスキーマ:
<expectedSchema>
実際のスキーマ:
<actualSchema>
SAAS_UC_CONNECTION_INACCESSIBLE
SQLSTATE: 割り当てられていない
指定された接続 <connectionName>
にアクセスできません。 接続を確認してから、もう一度お試しください。
詳細については、 SAAS_UC_CONNECTION_INACCESSIBLE
SCHEMA_SPEC_EMPTY_CATALOG
SQLSTATE: 割り当てられていない
SchemaSpec の catalog フィールドには空の文字列があります。
空の文字列を削除するか、カタログ名を追加してください。 (このスキーマがソースのカタログに属していない場合は、フィールドを設定しないでください)。
スキーマ仕様の詳細:
<schemaSpec>
SCHEMA_SPEC_EMPTY_SCHEMA
SQLSTATE: 割り当てられていない
SchemaSpec の schema フィールドには空の文字列があります。
空の文字列を削除するか、スキーマ名を追加してください。 (このテーブルがソースのスキーマに属していない場合は、フィールドを設定しないでください。
スキーマ仕様の詳細:
<schemaSpec>
SCHEMA_SPEC_REQUIRE_ONE_OF_CATALOG_SCHEMA
SQLSTATE: 割り当てられていない
ソースカタログとソーススキーマの少なくとも 1 つが存在する必要があります。 しかし、どちらも空っぽです。
スキーマ仕様の詳細:
<schemaSpec>
SERVICENOW_CONNECTOR_INSTANCE_HIBERNATION_ERROR
ServiceNowでエラーが発生しました。 ソース API の種類: <saasSourceApiType>
。
ServiceNow インスタンスに接続できませんでした。 インスタンスが休止状態または非アクティブのようです。
ServiceNow 管理ポータルにログインし、インスタンスが完全にウェイクアップするまでしばらく待ちます。
再試行するには、パイプライン全体を再実行するか、この特定の宛先テーブルを更新します。 エラーが続く場合は、チケットを提出してください。
SERVICENOW_CONNECTOR_INVALID_TABLE_ERROR
ServiceNowでエラーが発生しました。 ソース API の種類: <saasSourceApiType>
。
テーブル '<tableName>
' のスキーマをクエリできませんでした。 このユーザーの ServiceNow アカウントにテーブルが存在しません。
テーブル名に入力ミスがないか確認し、ユーザーがテーブルにアクセスするために必要な権限を持っていることを確認してください。
再試行するには、パイプライン全体を再実行するか、この特定の宛先テーブルを更新します。 エラーが続く場合は、チケットを提出してください。
SERVICENOW_CONNECTOR_MALFORMED_ENDPOINT_URL_ERROR
ServiceNowでエラーが発生しました。 ソース API の種類: <saasSourceApiType>
。
無効な ServiceNow API エンドポイント URL が検出されました。 URL 構造が予期される ServiceNow 形式と一致しません。
UC 接続資格情報で ServiceNow インスタンス構成を確認します。
詳細については、 SERVICENOW_CONNECTOR_MALFORMED_ENDPOINT_URL_ERROR
SERVICENOW_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR
ServiceNowでエラーが発生しました。 ソース API の種類: <saasSourceApiType>
。
詳細については、 SERVICENOW_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR
SET_TBLPROPERTIES_NOT_ALLOWED_FOR_DLT_DATASET
ALTER <commandTableType>
... SET TBLPROPERTIES
はサポートされていません。 テーブルのプロパティを変更するには、元の定義を変更して更新を実行してください。
SFDC_CONNECTOR_BULK_QUERY_JOB_INCOMPLETE
オブジェクト <objName>
の取り込みは、Salesforce API クエリジョブに時間がかかりすぎたか、失敗したか、手動でキャンセルされたため、不完全です。
詳細については、 SFDC_CONNECTOR_BULK_QUERY_JOB_INCOMPLETE
SFDC_CONNECTOR_CREATE_BULK_QUERY_JOB_FAILED
Salesforce 一括 API クエリジョブの作成に失敗したため、オブジェクト <objName>
の取り込みが不完全です。 エラーコード: <saasSourceApiErrorCode>
。
<actionText>
.
SINKS_NOT_SUPPORTED_IN_SEG
SQLSTATE: 割り当てられていない
DLT シンクは、インターネットにないワークスペースではサポートされていません。 次のシンクが見つかりました。 <sinkNames>
START_PYTHON_REPL_TIMED_OUT
SQLSTATE: 割り当てられていない
Python REPL の開始を待機している間にタイムアウトします。 <timeoutSeconds>
秒以上かかりました。
ストリーミング
SQLSTATE: 割り当てられていない
<command>
コマンドのターゲット表<target>
見つかりません。ターゲット テーブル <target>
がパイプラインで定義されていません。
TABLE_SPEC_BOTH_CATALOG_SCHEMA_REQUIRED
SQLSTATE: 割り当てられていない
TableSpec にソース カタログやソース スキーマの 1 つがありません。
テーブル仕様の詳細:
<tableSpec>
TABLE_SPEC_EMPTY_CATALOG
SQLSTATE: 割り当てられていない
TableSpec の catalog フィールドに空の文字列があります。
空の文字列を削除するか、カタログ名を追加してください。 (このテーブルがソースのカタログに属していない場合は、フィールドを設定しないでください。
テーブル仕様の詳細:
<tableSpec>
TABLE_SPEC_EMPTY_SCHEMA
SQLSTATE: 割り当てられていない
TableSpec のスキーマ フィールドに空の文字列があります。
空の文字列を削除するか、スキーマ名を追加してください。 (このテーブルがソースのスキーマに属していない場合は、フィールドを設定しないでください。
テーブル仕様の詳細:
<tableSpec>
TABLE_SPEC_EMPTY_TABLE
SQLSTATE: 割り当てられていない
テーブル名が空です。 テーブル名を入力してください。
テーブル仕様の詳細:
<tableSpec>
TABLE_TOKEN_NOT_EXIST_FOR_SCHEMA_EVOLUTION_LEGACY_TABLE
SQLSTATE: 割り当てられていない
スキーマの進化は、メタデータがないために有効にできません。 完全な更新をトリガーしてください。
理由: スナップショット テーブル トークンは、スキーマ進化が有効な場合に定義する必要があります。
TRIGGER_INTERVAL_VALUE_INVALID
トリガー間隔は正の持続時間である必要があり、最大許容値は 2,147,483,647 秒です。 受信: <actual>
秒。
TRIGGER_SOURCE_TYPE_NOT_SUPPORTED
種類が <type>
のソース <source>
は、現在 trigger でサポートされていません。
UC_CLEARING_TARGET_SCHEMA_NOT_ALLOWED
SQLSTATE: 割り当てられていない
のターゲット スキーマ フィールドをクリアすることは、UC パイプラインでは許可されません。 理由: <reason>
。
UC_TARGET_SCHEMA_REQUIRED
SQLSTATE: 割り当てられていない
ターゲット スキーマ フィールドは、UC パイプラインに必要です。 理由: <reason>
。
UNEXPECTED_PIPELINE_SCHEMA_PERMISSION_ERROR
SQLSTATE: 割り当てられていない
パイプライン <pipelineId>
のスキーマ権限を確認しているときに予期しないエラーが発生しました。 Databricks サポートにお問い合わせください。
UNRESOLVED_SINK_PATH
SQLSTATE: 割り当てられていない
シンク <identifier>
のストレージパスは解決できません。 Databricks サポートにお問い合わせください。
UNRESOLVED_TABLE_PATH
SQLSTATE: 割り当てられていない
表 <identifier>
のストレージ・パスを解決できません。 Databricks サポートにお問い合わせください。
UNSUPPORTED_CHANNEL_FOR_DPM
SQLSTATE: 割り当てられていない
Direct Publishing の対応していないチャンネル Mode. 「CURRENT
」か「PREVIEW
」チャンネルのどちらかを期待していますが、「PREVIOUS
」が手に入りました
UNSUPPORTED_COMMAND_IN_NON_DPM_PIPELINE
SQLSTATE: 割り当てられていない
<command>
ダイレクト パブリッシング モードが有効な DLT パイプラインでのみサポート
UNSUPPORTED_COMMAND_IN_QUERY_DEFINITION
SQLSTATE: 割り当てられていない
'<command>
' はクエリ定義ではサポートされていません。 コマンドをクエリ定義の外部に移動してください。 Python の DLT パイプラインの場合は、 '<command>
' を @dlt.table(/@dlt.view() の外部に移動します。 デコレータ。 Scala の DLT パイプラインの場合は、'query' メソッドの外部に '<command>
' を移動します。
UNSUPPORTED_FEATURE_FOR_WORKSPACE
<featureName>
は、お使いのワークスペースではサポートされていません。 Databricks サポートに連絡して、ワークスペースでこの機能を有効にしてください。
UNSUPPORTED_LANGUAGE
ノートブック '<notebookPath>
' の読み込みに失敗しました<language>
。現在サポートされているのは <supportedLanguages>
ノートブックのみです。
UNSUPPORTED_MANAGED_INGESTION_SOURCE_TYPE
SQLSTATE: 割り当てられていない
無効なマネージド インジェスト パイプライン定義、サポートされていないソース タイプ: <sourceType>
。
UNSUPPORTED_SAAS_INGESTION_TYPE
SQLSTATE: 割り当てられていない
提供されているインジェストの種類 <ingestionType>
はサポートされていません。
この問題が解決しない場合は、Databricks サポートにお問い合わせください。
UNSUPPORTED_SPARK_SQL_COMMAND
SQLSTATE: 割り当てられていない
'<command>
' は spark.sql("...") ではサポートされていません。 DLT PythonのAPI。 サポートされているコマンド: <supportedCommands>
.
USE_CATALOG_IN_HMS
SQLSTATE: 割り当てられていない
USE CATALOG
UC 対応 DLT パイプラインでのみサポートされます
VIEW_TEXT_NOT_SAVED_IN_UC
SQLSTATE: 割り当てられていない
Unity Catalog にクエリが保存されていないため、テーブル <tableName>
を更新できません。 Databricks サポートにお問い合わせください。
WORKDAY_REPORT_URL_EMPTY
SQLSTATE: 割り当てられていない
Workday レポートの URL が空です。 少なくとも 1 つのレポートを提供する必要があります。
ワークスペース
このワークスペースでは既に '<maxActiveUpdates>
' のアクティブなパイプラインが実行されているため、更新 ' '<updateId>
' を開始できません。
雑
ABAC_ROW_COLUMN_POLICIES_NOT_SUPPORTED_ON_ASSIGNED_CLUSTERS
SQLSTATE: 割り当てられていない
ポリシー ルールを通じて割り当てられた行フィルターまたは列マスクを使用したテーブル <tableFullName>
に対するクエリは、割り当てられたクラスターではサポートされていません。
AZURE_ENTRA_CREDENTIALS_MISSING
SQLSTATE: 割り当てられていない
Azure Entra (別名 Azure Active Directory) の資格情報がありません。
Entraアカウントでログインしていることを確認してください
または、ユーザー設定> Git 統合で Azure DevOps 個人用アクセス トークン (PAT) を設定しています。
PAT を使用せず、Repos API で Azure DevOps を使用している場合は、
Azure Entra アクセス トークンを使用する必要があります。
Entra アクセス トークンを取得する手順については、https://docs.microsoft.com/azure/databricks/dev-tools/api/latest/aad/app-aad-トークン を参照してください。Azure
AZURE_ENTRA_CREDENTIALS_PARSE_FAILURE
SQLSTATE: 割り当てられていない
Azure Entra (Azure Active Directory) の資格情報でエラーが発生しました。 からログアウトしてみてください
エントラ https://portal.azure.com) そして、再度ログインします。
または、ユーザー設定>Git統合にアクセスして、設定することもできます
Azure DevOps 個人用アクセス トークンをアップします。
AZURE_ENTRA_LOGIN_ERROR
SQLSTATE: 割り当てられていない
Azure Active Directory の資格情報でエラーが発生しました。 からログアウトしてみてください
Azure Active Directory https://portal.azure.com) そして、再度ログインします。
CLEAN_ROOM_DELTA_SHARING_ENTITY_NOT_AUTHORIZED
SQLSTATE: 割り当てられていない
クリーンルーム delta sharing securable の認証情報生成はリクエストできません。
CLEAN_ROOM_HIDDEN_SECURABLE_PERMISSION_DENIEDSQLSTATE: 割り当てられていない
タイプ<securableType>
と種類が<securableKind>
の安全な<securableName>
はクリーンルームシステムによって管理されており、ユーザーはアクセスできません。
CONSTRAINT_ALREADY_EXISTS
SQLSTATE: 割り当てられていない
名前 <constraintName>
の制約がすでに存在する場合は、別の名前を選択してください。
CONSTRAINT_DOES_NOT_EXIST
SQLSTATE: 割り当てられていない
制約 <constraintName>
が存在しません。
COULD_NOT_READ_REMOTE_REPOSITORY
SQLSTATE: 割り当てられていない
リモート リポジトリ (<repoUrl>
を読み取れませんでした。
リモートのGitプロバイダーに移動して、次のことを確認してください。
- リモート Git リポジトリ URL は有効です。
- パーソナルアクセストークンまたはアプリパスワードには適切なリポジトリへのアクセス権があります。
COULD_NOT_RESOLVE_REPOSITORY_HOST
SQLSTATE: 割り当てられていない
<repoUrl>
のホストを解決できませんでした。
CSMS_BEGINNING_OF_TIME_NOT_SUPPORTED
SQLSTATE: 割り当てられていない
パラメーター beginning_of_time
を true にすることはできません。
CSMS_CONTINUATION_TOKEN_EXPIRED
SQLSTATE: 割り当てられていない
継続トークンに対して要求されたオブジェクトが見つかりませんでした。
CSMS_INVALID_CONTINUATION_TOKEN
SQLSTATE: 割り当てられていない
継続トークンが無効です。 原因: <msg>
CSMS_INVALID_MAX_OBJECTS
SQLSTATE: 割り当てられていない
パラメーター の <value>
max_objects、期待値が [<minValue>
, <maxValue>
] にありません。
CSMS_INVALID_URI_FORMAT
SQLSTATE: 割り当てられていない
URI 形式が無効です。 予想されるボリューム (例: "/Volumes/catalog/schema/volume") またはクラウドストレージパス (例: "s3://some-uri")
Kafka
SQLSTATE: 割り当てられていない
Kafka トピックを提供する必要があります
CSMS_LOCATION_ERROR
SQLSTATE: 割り当てられていない
オブジェクトをリストできませんでした。 その場所に解決が必要な問題があります。 細部: <msg>
CSMS_LOCATION_NOT_KNOWN
SQLSTATE: 割り当てられていない
uri の場所が見つかりません <path>
CSMS_METASTORE_RESOLUTION_FAILED
SQLSTATE: 割り当てられていない
要求のメタストアを特定できません。
サービス
SQLSTATE: 割り当てられていない
サービスが無効になっています
CSMS_UNITY_CATALOG_ENTITY_NOT_FOUND
SQLSTATE: 割り当てられていない
Unity Catalog エンティティが見つかりません。 カタログ、スキーマ、ボリューム、および/または外部ロケーションが存在することを確認します。
CSMS_UNITY_CATALOG_EXTERNAL_LOCATION_DOES_NOT_EXIST
SQLSTATE: 割り当てられていない
Unity Catalog 外部ロケーションは存在しません。
CSMS_UNITY_CATALOG_EXTERNAL_STORAGE_OVERLAP
SQLSTATE: 割り当てられていない
URI が他のボリュームと重複している
CSMS_UNITY_CATALOG_METASTORE_DOES_NOT_EXIST
SQLSTATE: 割り当てられていない
要求のメタストアを特定できません。 メタストアが存在しません
CSMS_UNITY_CATALOG_PERMISSION_DENIED
SQLSTATE: 割り当てられていない
権限がありません
CSMS_UNITY_CATALOG_TABLE_DOES_NOT_EXIST
SQLSTATE: 割り当てられていない
Unity Catalog テーブルが存在しません。
CSMS_UNITY_CATALOG_VOLUME_DOES_NOT_EXIST
SQLSTATE: 割り当てられていない
Unity Catalog ボリュームが存在しません。
CSMS_URI_MISSING
SQLSTATE: 割り当てられていない
uri を指定する必要があります
CSMS_URI_TOO_LONG
SQLSTATE: 割り当てられていない
provided uri が長すぎます。 最大許容長は <maxLength>
です。
DMK_CATALOGS_DISALLOWED_ON_CLASSIC_COMPUTE
SQLSTATE: 割り当てられていない
Databricks デフォルト Storage には、Classic コンピュートを使用してアクセスすることはできません。 サーバレス コンピュートを使用して、デフォルト Storage のデータにアクセスしてください
GITHUB_APP_COULD_NOT_REFRESH_CREDENTIALS
SQLSTATE: 割り当てられていない
リンクされた GitHub アプリの資格情報を更新できなかったため、操作が失敗しました。
もう一度やり直すか、[ユーザー設定] > [Git 統合] に移動して、Git プロバイダー アカウントを再リンクしてみてください。
問題が解決しない場合は、サポートチケットを提出してください。
GITHUB_APP_CREDENTIALS_NO_ACCESS
SQLSTATE: 割り当てられていない
GitHub アカウントへのリンクにはアクセス権がありません。 このエラーを修正するには:
- リポジトリの管理者は、次の場所に移動する必要がありますhttps://github.com/apps/databricks/installations/new に移動し、Databricks GitHub アプリをリポジトリにインストールします。
または、GitHub アカウントの所有者がアカウントにアプリケーションをインストールして、アカウントのリポジトリへのアクセス権を付与することもできます。
- アプリがすでにインストールされている場合は、管理者に依頼して、'Only select repositories' オプションでスコープ アクセスを使用している場合は、このリポジトリを選択してこのリポジトリへのアクセスが含まれていることを確認します。
詳細については、https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app を参照してください。
問題が解決しない場合は、サポートチケットを提出してください。
GITHUB_APP_EXPIRED_CREDENTIALS
SQLSTATE: 割り当てられていない
リンクされた GitHub アプリの資格情報は、6 か月間非アクティブだった後に期限切れになりました。
[ユーザー設定] > [Git 統合] に移動し、資格情報を再リンクしてみてください。
問題が解決しない場合は、サポートチケットを提出してください。
GITHUB_APP_INSTALL_ON_DIFFERENT_USER_ACCOUNT
SQLSTATE: 割り当てられていない
GitHub アカウントへのリンクにはアクセス権がありません。 このエラーを修正するには:
- GitHub ユーザーの
<gitCredentialUsername>
はhttps://github.com/apps/databricks/installations/new に移動する必要があります をクリックし、アクセスを許可するためにアカウント<gitCredentialUsername>
にアプリをインストールします。 - ユーザーがアプリを既にインストールしていて
<gitCredentialUsername>
、[リポジトリのみを選択する] オプションでスコープ アクセスを使用している場合は、このリポジトリを選択して、このリポジトリへのアクセスが含まれていることを確認する必要があります。
詳細については、https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app を参照してください。
問題が解決しない場合は、サポートチケットを提出してください。
GITHUB_APP_INSTALL_ON_ORGANIZATION
SQLSTATE: 割り当てられていない
GitHub アカウントへのリンクにはアクセス権がありません。 このエラーを修正するには:
- GitHub 組織の所有者は、
<organizationName>
に移動する必要があります https://github.com/apps/databricks/installations/new をクリックし、組織の<organizationName>
にアプリをインストールしてアクセスを許可します。 - アプリが GitHub Organization
<organizationName>
に既にインストールされている場合は、この組織の所有者に、スコープ付きアクセスを [Only select repositories] オプションで使用している場合に、このリポジトリを選択してこのリポジトリへのアクセスが含まれていることを確認してもらいます。
詳細については、https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app を参照してください。
問題が解決しない場合は、サポートチケットを提出してください。
GITHUB_APP_INSTALL_ON_YOUR_ACCOUNT
SQLSTATE: 割り当てられていない
GitHub アカウントへのリンクにはアクセス権がありません。 このエラーを修正するには:
- https://github.com/apps/databricks/installations/new に移動し、アカウントにアプリをインストールして
<gitCredentialUsername>
アクセスを許可します。 - アプリが既にインストールされており、[リポジトリのみを選択する] オプションでスコープ アクセスを使用している場合は、このリポジトリを選択して、このリポジトリへのアクセスが含まれていることを確認します。
詳細については、https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app を参照してください。
問題が解決しない場合は、サポートチケットを提出してください。
GIT_CREDENTIAL_GENERIC_INVALID
SQLSTATE: 割り当てられていない
リポジトリ URL の Git プロバイダー資格情報が無効です <repoUrl>
.
現在の Git 資格情報プロバイダーは <gitCredentialProvider>
で、ユーザー名は <gitCredentialUsername>
です。
[ユーザー設定] > [Git 統合] に移動して、資格情報を表示します。
リモートのGitプロバイダーに移動して、次のことを確認してください。
- 正しい Git ユーザーEメールまたはユーザー名と Git プロバイダーの資格情報を入力しました。
- トークンまたはアプリのパスワードに正しいリポジトリアクセス権があります。
- トークンの有効期限が切れていません。
- GitプロバイダーでSSOを有効にした場合は、必ずトークンを承認してください。
GIT_CREDENTIAL_INVALID_PAT
SQLSTATE: 割り当てられていない
リポジトリ URL <repoUrl>
の Git プロバイダのパーソナル アクセス トークン資格情報が無効です。
現在の Git 資格情報プロバイダーは <gitCredentialProvider>
で、ユーザー名は <gitCredentialUsername>
です。
[ユーザー設定] > [Git 統合] に移動して、資格情報を表示します。
リモートのGitプロバイダーに移動して、次のことを確認してください。
- 正しい Git ユーザーEメールまたはユーザー名と Git プロバイダーの資格情報を入力しました。
- トークンまたはアプリのパスワードに正しいリポジトリアクセス権があります。
- トークンの有効期限が切れていません。
- GitプロバイダーでSSOを有効にした場合は、必ずトークンを承認してください。
GIT_CREDENTIAL_MISSING
SQLSTATE: 割り当てられていない
Git 資格情報は構成されていませんが、このリポジトリには資格情報が必要です (<repoUrl>
)。
[ユーザー設定] > [Git 統合] に移動して、Git 資格情報を設定します。
GIT_CREDENTIAL_NO_WRITE_PERMISSION
SQLSTATE: 割り当てられていない
リポジトリ (<repoUrl>
) への書き込みアクセス権が付与されていません<gitCredentialProvider>
。
このリモートリポジトリへの書き込みアクセス権があることを確認します (<gitCredentialUsername>
)。
GIT_CREDENTIAL_PROVIDER_MISMATCHED
SQLSTATE: 割り当てられていない
リポジトリの Git 資格情報プロバイダーが正しくありません。
現在の Git 資格情報のプロバイダー (<gitCredentialProvider>
) がリポジトリの Git プロバイダーのプロバイダー <repoUrl>
と一致しません。
別のリポジトリを試すか、ユーザー設定> Git 統合に移動して、Git 資格情報を更新してください。
GIT_PROXY_CLUSTER_NOT_READY
SQLSTATE: 割り当てられていない
プロキシGitクラスターの準備ができていません。
GIT_SECRET_IN_CODE
SQLSTATE: 割り当てられていない
コミットで見つかったシークレット。 詳細: <secretDetail>
。 このエラーを修正するには:
シークレットを削除して、もう一度コミットしてみてください。
問題が解決しない場合は、サポートチケットを提出してください。
HIERARCHICAL_NAMESPACE_NOT_ENABLED
SQLSTATE: 割り当てられていない
Azure ストレージ アカウントで階層型名前空間が有効になっていません。
INVALID_FIELD_LENGTH
SQLSTATE: 割り当てられていない
<rpcName> <fieldName>
長すぎます。 最大長は <maxLength>
文字です。
INVALID_PARAMETER_VALUE
SQLSTATE: 割り当てられていない
<msg>
詳細については、 INVALID_PARAMETER_VALUE
ジョブ
SQLSTATE: 割り当てられていない
タスク フレームワーク: runId <runId>
と orgId <orgId>
のタスクのタスク実行出力が見つかりませんでした。
ジョブ
SQLSTATE: 割り当てられていない
タスクフレームワーク:runId <runId>
と orgId <orgId>
のタスクのタスク実行状態が見つかりませんでした。
ジョブ
SQLSTATE: 割り当てられていない
ID が <taskId>
のタスクの RPC ClientConfig が存在しません。
ジョブ
SQLSTATE: 割り当てられていない
ID が <taskId>
のタスクは存在しません。
ジョブ
SQLSTATE: 割り当てられていない
タスクレジストリ: サポートされていない、または不明な JobTask で、クラス <taskClassName>
.
PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_EXTERNAL_SHALLOW_CLONE
SQLSTATE: 割り当てられていない
外部シャロークローン・テーブル・ <tableFullName>
へのパス・ベースのアクセスはサポートされていません。 代わりに、テーブル名を使用してシャロークローンにアクセスしてください。
PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_FABRIC
SQLSTATE: 割り当てられていない
URL '<url>
' にあるファブリック テーブルが見つかりません。 REFRESH FOREIGN CATALOG
コマンドを使用して、Fabricテーブルにデータを格納してください。
PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_TABLES_WITH_ROW_COLUMN_ACCESS_POLICIES
SQLSTATE: 割り当てられていない
行フィルタまたは列マスクを使用したテーブル <tableFullName>
へのパスベースのアクセスはサポートされていません。
PERMISSION_DENIED
SQLSTATE: 割り当てられていない
ユーザーは<resourceType>
'<resourceName>
' に<msg>
を持っていません。
REDASH_DELETE_ASSET_HANDLER_INVALID_INPUT
SQLSTATE: 割り当てられていない
オブジェクト削除要求を解析できません: <invalidInputMsg>
REDASH_DELETE_OBJECT_NOT_IN_TRASH
SQLSTATE: 割り当てられていない
ごみ箱にないオブジェクト <resourceName>
を削除できません
REDASH_PERMISSION_DENIED
SQLSTATE: 割り当てられていない
リソースが見つからないか、リソースにアクセスする権限がありません <resourceId>
REDASH_QUERY_NOT_FOUND
SQLSTATE: 割り当てられていない
クエリ ID からリソースが見つかりません <queryId>
REDASH_QUERY_SNIPPET_CREATION_FAILED
SQLSTATE: 割り当てられていない
新しいクエリ スニペットを作成できません
REDASH_QUERY_SNIPPET_QUOTA_EXCEEDED
SQLSTATE: 割り当てられていない
クエリ スニペットの数のクォータに達しました。 現在のクォータは <quota>
です。
REDASH_QUERY_SNIPPET_TRIGGER_ALREADY_IN_USE
SQLSTATE: 割り当てられていない
指定したトリガー <trigger>
は、このワークスペース内の別のクエリ スニペットによって既に使用されています。
リソース
SQLSTATE: 割り当てられていない
要求されたリソース <resourceName>
が存在しません
REDASH_RESTORE_ASSET_HANDLER_INVALID_INPUT
SQLSTATE: 割り当てられていない
オブジェクト削除要求を解析できません: <invalidInputMsg>
REDASH_RESTORE_OBJECT_NOT_IN_TRASH
SQLSTATE: 割り当てられていない
ごみ箱にないオブジェクト <resourceName>
復元できません
REDASH_TRASH_OBJECT_ALREADY_IN_TRASH
SQLSTATE: 割り当てられていない
すでにゴミ箱に捨てられたオブジェクトをゴミ箱に入れることができません <resourceName>
REDASH_UNABLE_TO_GENERATE_RESOURCE_NAME
SQLSTATE: 割り当てられていない
id からリソース名を生成できませんでした <id>
REDASH_VISUALIZATION_CREATION_FAILED
SQLSTATE: 割り当てられていない
新しいビジュアライゼーションを作成できません
REDASH_VISUALIZATION_NOT_FOUND
SQLSTATE: 割り当てられていない
視覚化が見つかりませんでした <visualizationId>
REDASH_VISUALIZATION_QUOTA_EXCEEDED
SQLSTATE: 割り当てられていない
クエリ <query_id> の視覚化数のクォータに達しました。 現在のクォータは <quota>
です。
REPOSITORY_URL_NOT_FOUND
SQLSTATE: 割り当てられていない
リモートリポジトリ (<repoUrl>
) が見つかりません。
現在の Git 資格情報プロバイダーは <gitCredentialProvider>
で、ユーザー名は <gitCredentialUsername>
です。
リモートのGitプロバイダーに移動して、次のことを確認してください。
- リモート Git リポジトリ URL は有効です。
- パーソナルアクセストークンまたはアプリパスワードには適切なリポジトリへのアクセス権があります。
リソース
SQLSTATE: 割り当てられていない
<resourceType>
「<resourceIdentifier>
」はすでに存在します
リソース
SQLSTATE: 割り当てられていない
<resourceType>
「<resourceIdentifier>
」は存在しません。
ROW_COLUMN_ACCESS_POLICIES_NOT_SUPPORTED_ON_ASSIGNED_CLUSTERS
SQLSTATE: 割り当てられていない
行フィルターまたは列マスクを使用したテーブル <tableFullName>
に対するクエリは、割り当てられたクラスターではサポートされていません。
ROW_COLUMN_SECURITY_NOT_SUPPORTED_WITH_TABLE_IN_DELTA_SHARING
SQLSTATE: 割り当てられていない
テーブル <tableFullName>
は Delta Sharing と共有されており、行/列のセキュリティを使用できません。
サービス
SQLSTATE: 割り当てられていない
<serviceName>
サービスは一時的にメンテナンス中です。しばらくしてからもう一度お試しください。
TABLE_WITH_ROW_COLUMN_SECURITY_NOT_SUPPORTED_IN_ONLINE_MODE
SQLSTATE: 割り当てられていない
テーブル <tableFullName>
には、行/カラム・セキュリティとオンライン・マテリアライズド・ビューの両方を含めることはできません。
TOO_MANY_ROWS_TO_UPDATE
SQLSTATE: 割り当てられていない
更新する行が多すぎるため、更新を中止します。