メインコンテンツまでスキップ

Databricks のエラークラス

適用対象: チェックマークが Yes Databricks SQL チェックマークが Yes Databricks Runtime 12.2 以降

エラークラスは、エラー条件に固有の、説明的で人間が読める文字列です。

エラークラスを使用すると、エラーメッセージを解析することなく、アプリケーションのエラーをプログラムで処理できます。

これは、Databricks によって返される一般的な名前付きエラー条件の一覧です。

Databricks Runtime と Databricks SQL

ADD_DEFAULT_UNSUPPORTED

SQLSTATE: 42623

テーブル プロバイダーを使用して既存のターゲット データソースに新しい列を追加するときにDEFAULT値がサポートされていないため<statementType> コマンドを実行できませんでした: "<dataSource>"。

AGGREGATE_FUNCTION_WITH_NONDETERMINISTIC_EXPRESSION

SQLSTATE: 42845

非決定論的な式 <sqlExpr> は、集計関数の引数に含めないでください。

人工知能

SQLSTATE: 2203G

指定された returnType: "<dataType>"、応答 JSON は "<responseString>" にキャストするときにモデル出力を解析できませんでした。 応答 JSON で表される型の内容と一致するように returnType を更新してから、クエリを再試行してください。

人工知能

SQLSTATE: 2203G

実際のモデル出力には、複数の列「<responseString>」があります。 ただし、指定された戻り値の型["<dataType>"] には列が 1 つしかありません。 モデル出力と同じ数の列が含まれるように returnType を更新してから、クエリを再試行してください。

人工知能

SQLSTATE: 08000

関数 <funcName>のHTTPリクエスト中にエラーが発生しました。 <errorMessage>

人工知能

SQLSTATE: 08000

関数 の HTTP 応答が無効です (関数 <funcName>: <errorMessage>

人工知能

SQLSTATE: 22032

最大ワード数は負でない整数である必要がありますが、 <maxWords>になります。

人工知能

SQLSTATE: 22023 です。

指定されたモデル パラメーター (<modelParameters>) は、エンドポイント "<endpointName>" を提供する AI_QUERY 関数では無効です。

詳細については、AIを参照してください

人工知能

SQLSTATE: 0A000

AI 関数: "<functionName>" は、responseFormatパラメーターに有効な <format> 文字列が必要ですが、応答形式 "<invalidResponseFormat>" が見つかりました。例外: <errorMessage>

人工知能

SQLSTATE: 22000

関数 <funcName>のJSON応答の解析中にエラーが発生しました: <errorMessage>

人工知能

SQLSTATE: 2203G

サービス エンドポイント "<endpointName>": <errorMessage>のスキーマの解析に失敗しました。応答 JSON は "<responseJson>" でした。

AI_QUERY 関数で returnType パラメーターを手動で設定して、スキーマ解決をオーバーライドします。

人工知能

SQLSTATE: 56038

関数 <funcName> は、現在の環境ではサポートされていません。 これは、 Databricks SQL Proとサーバレスでのみ使用できます。

人工知能

SQLSTATE: 0A000

<invalidValue> の指定された引数に "<invalidDataType>" があるため、SQL 関数 "<functionName>" の評価に失敗しましたが、サポートされているのは SQL 関数 ( <supportedDataTypes>) のみです。 .関数呼び出しを更新して文字列型の引数を指定し、クエリを再試行してください。

人工知能

SQLSTATE: 0A000

サポートされていない応答形式が見つかりました。

詳細については、AIを参照してください

人工知能

SQLSTATE: 0A000

AI関数: "<functionName>" は、戻り値の型として "<typeName>" をサポートしていません。 戻り値の型は、Catalyst が認識し、AI 関数がサポートする有効な SQL 型である必要があります。 現在サポートされているタイプは次のとおりです。 <supportedValues>

人工知能

SQLSTATE: 22032

指定された値 "<argValue>" は、引数 "<argName>" でサポートされていません。 サポートされている値は次のとおりです。 <supportedValues>

人工知能

SQLSTATE: 0A000

構造化された出力サポートのために、提供エンドポイントのタスクタイプが「チャット」であると予想していましたが、エンドポイント「<endpointName>」に対して「<taskType>」が見つかりました。

人工知能

SQLSTATE: 0A000

ただし、 "<sqlExpr>" は引数 returnType でサポートされていません。

人工知能

SQLSTATE: 0A000

SQL 関数 (<conflictParamNames>``vector_search で競合するパラメーターが検出されました。<hint>

人工知能

SQLSTATE: 0A000

vector_search 埋め込み列タイプ <embeddingColumnType> の SQL 関数はサポートされていません。

人工知能

SQLSTATE: 0A000

vector_search SQL 関数にクエリ入力パラメーターがありません。少なくとも 1 つを指定してください: <parameterNames>

人工知能

SQLSTATE: 0A000

vector_search SQL 関数にqueryパラメーターは、hybridベクトル検索ではサポートされていません。代わりに query_text をご利用ください。

人工知能

SQLSTATE: 0A000

hybridベクトル検索の vector_search SQL 関数で見つからないクエリ テキスト。query_textを提供してください。

人工知能

SQLSTATE: 0A000

vector_search インデックス・タイプが <indexType> の SQL 関数はサポートされていません。

人工知能

SQLSTATE: 0A000

query_vector インデックス <indexName> は埋め込みモデルの端点に関連付けられていないため、インデックス に指定する必要があります。

人工知能

SQLSTATE: 0A000

vector_searchSQL要求エンコード中に、spark type<dataType> Scalaの object から ネイティブ オブジェクトへの 関数クエリの具体化に失敗しました:<errorMessage>

人工知能

SQLSTATE: 0A000

vector_search クエリ タイプ <unexpectedQueryType> の SQL 関数はサポートされていません。 以下から1つ指定してください: <supportedQueryTypes>

人工知能

SQLSTATE: 0A000

vector_search num_resultsが <maxLimit> より大きい SQL 関数はサポートされていません。 指定された制限は <requestedLimit>です。 num_results <= で再試行してください \<maxLimit\>

ALL_PARAMETERS_MUST_BE_NAMED

SQLSTATE: 07001

名前パラメーター化クエリを使用するには、すべてのパラメーターに名前を付ける必要があります。 パラメーター missing names: <exprs>.

ALL_PARTITION_COLUMNS_NOT_ALLOWED

SQLSTATE: KD005

パーティション列にすべての列を使用することはできません。

ALTER_SCHEDULE_DOES_NOT_EXIST

SQLSTATE: 42704

既存のスケジュールまたはトリガがないテーブルの <scheduleType> は変更できません。 スケジュールまたはトリガーをテーブルに追加してから、テーブルを変更してください。

ALTER_TABLE_COLUMN_DESCRIPTOR_DUPLICATE

SQLSTATE: 42710

ALTER TABLE <type><columnName> は記述子 "<optionName>" を複数回指定していますが、これは無効です。

AMBIGUOUS_ALIAS_IN_NESTED_CTE

SQLSTATE: 42KD0

名前 <name> は、ネストされた CTE であいまいです。

<config>を「CORRECTED」に設定して、内部CTEで定義された名前が優先されるようにしてください。「LEGACY」に設定すると、外部のCTE定義が優先されます。

https://spark.apache.org/docs/latest/sql-migration-guide.html#query-engine を参照してください。

AMBIGUOUS_COLUMN_OR_FIELD

SQLSTATE: 42702

列またはフィールド <name> があいまいで、一致 <n> があります。

AMBIGUOUS_COLUMN_REFERENCE

SQLSTATE: 42702

<name> があいまいです。 これは、複数の DataFrame を結合し、これらの DataFrames の一部が同じであるためです。

この列は DataFrames の 1 つを指していますが、 Spark はどれかを理解できません。

DataFramesを結合する前に、 DataFrame.alias を使用して異なる名前のDataFrameにエイリアスを設定してください。

そして、修飾名を使用して列を指定します。 df.alias("a").join(df.alias("b"), col("a.id") > col("b.id"))

AMBIGUOUS_CONSTRAINT

SQLSTATE: 42K0C

制約 <constraint>.

AMBIGUOUS_LATERAL_COLUMN_ALIAS

SQLSTATE: 42702

横列のエイリアス <name> があいまいで、一致 <n> があります。

AMBIGUOUS_REFERENCE

SQLSTATE: 42704

参照 <name> があいまいな場合は、 <referenceNames>.

AMBIGUOUS_REFERENCE_TO_FIELDS

SQLSTATE: 42000

フィールド <field>. スキーマに <count> 回出現します。

ANALYZE_CONSTRAINTS_NOT_SUPPORTED

SQLSTATE: 0A000

ANALYZE CONSTRAINTS はサポートされていません。

ANSI_CONFIG_CANNOT_BE_DISABLED

SQLSTATE: 56038

この製品では、ANSI SQL 構成 <config> を使用不可にすることはできません。

AQE_THREAD_INTERRUPTED

SQLSTATE: HY008

AQE スレッドが中断されたのは、おそらくユーザーによるクエリの取り消しが原因です。

ARGUMENT_NOT_CONSTANT

SQLSTATE: 42K08

関数 <functionName> には、定数引数を必要とする位置 <pos> のパラメーター <parameterName> が含まれています。引数を別々にコンピュートして <sqlExpr> し、結果を定数として渡してください。

ARITHMETIC_OVERFLOW

SQLSTATE: 22003

<message>.<alternative> 必要に応じて、 <config> を "false" に設定して、このエラーを回避します。

詳細については、「 ARITHMETIC_OVERFLOW

ASSIGNMENT_ARITY_MISMATCH

SQLSTATE: 42802

割り当てられた、またはエイリアス化された列または変数の数: <numTarget> がソース式の数と一致しません: <numExpr>

AS_OF_JOIN

SQLSTATE: 42604

As-of ジョインが無効です。

詳細については、AS_OF_JOIN を参照してください。

デフォルト

SQLSTATE: 0A000

rescuedDataColumnが有効になっている場合、デフォルト値の使用はサポートされません。このチェックは、 spark.databricks.sql.avro.rescuedDataBlockUserDefinedSchemaDefaultValue を false に設定することで削除できる場合がありますが、デフォルト値は適用されず、null 値は引き続き使用されます。

AVRO_INCOMPATIBLE_READ_TYPE

SQLSTATE: 22KD3

元のエンコードされたデータ型が <avroType>であるため、Avro <avroPath> を SQL <sqlPath> に変換できませんが、フィールドを <sqlType>として読み取ろうとしていると、誤った回答につながる可能性があります。

このフィールドの読み取りを許可するには、SQL 構成 "spark.sql.legacy.avro.allowIncompatibleSchema" を有効にします。

AVRO_POSITIONAL_FIELD_MATCHING_UNSUPPORTED

SQLSTATE: 0A000

位置指定フィールドの一致は、 rescuedDataColumn または failOnUnknownFields が有効になっている場合はサポートされません。 続行するには、これらのオプションを削除します。

バッチ

SQLSTATE: 42K03

バッチ <batchMetadataFile>が見つかりません。

BIGQUERY_OPTIONS_ARE_MUTUALLY_EXCLUSIVE

SQLSTATE: 42616

BigQuery 接続資格情報は、'GoogleServiceAccountKeyJson' パラメーター、または 'projectId'、'OAuthServiceAcctEmail'、'OAuthPvtKey' のすべてを使用して指定する必要があります

BINARY_ARITHMETIC_OVERFLOW

SQLSTATE: 22003

<value1> <symbol> <value2> オーバーフローを引き起こしました。 <functionName> を使用してオーバーフローの問題を無視し、NULLを返します。

ブーリアン

SQLSTATE: 21000

Boolean ステートメント<invalidStatement>は無効です。 BOOLEAN 型の値を持つ 1 つの行が必要ですが、空の行を取得しました。

BUILT_IN_CATALOG

SQLSTATE: 42832

<operation> 組み込みカタログはサポートされていません。

CALL_ON_STREAMING_DATASET_UNSUPPORTED

SQLSTATE: 42KDE

このメソッドは、ストリーミング データセット/DataFrame で <methodName> 呼び出すことはできません。

CANNOT_ALTER_COLLATION_BUCKET_COLUMN

SQLSTATE: 428FR

ALTER TABLE (ALTER|CHANGE) COLUMN バケット列のタイプ/サブタイプの照合順序は変更できませんが、テーブル<tableName>でバケット列<columnName>が見つかりました。

CANNOT_ALTER_PARTITION_COLUMN

SQLSTATE: 428FR

ALTER TABLE (ALTER|CHANGE) COLUMN はパーティション列ではサポートされていませんが、テーブル <tableName>でパーティション列<columnName>が見つかりました。

CANNOT_ASSIGN_EVENT_TIME_COLUMN_WITHOUT_WATERMARK

SQLSTATE: 42611

イベント時間列を再割り当てするには、ウォーターマークを定義する必要があります。 ストリーミング クエリでウォーターマーク定義が見つかりませんでした。

CANNOT_CAST_DATATYPE

SQLSTATE: 42846

<sourceType><targetType>にキャストできません。

CANNOT_CONVERT_PROTOBUF_FIELD_TYPE_TO_SQL_TYPE

SQLSTATE: 42846

スキーマに互換性がないため、Protobuf <protobufColumn> を SQL <sqlColumn> に変換できません (protobufType = <protobufType>、 sqlType = <sqlType>)。

CANNOT_CONVERT_PROTOBUF_MESSAGE_TYPE_TO_SQL_TYPE

SQLSTATE: 42846

Protobuf の <protobufType> を SQL タイプ <toType>に変換できません。

CANNOT_CONVERT_SQL_TYPE_TO_PROTOBUF_FIELD_TYPE

SQLSTATE: 42846

スキーマに互換性がないため、SQL <sqlColumn> を Protobuf <protobufColumn> に変換できません (protobufType = <protobufType>、sqlType = <sqlType>)。

CANNOT_CONVERT_SQL_VALUE_TO_PROTOBUF_ENUM_TYPE

SQLSTATE: 42846

enum: <enumString>の定義済み値に <data> がないため、SQL <sqlColumn> を Protobuf <protobufColumn> に変換できません。

CANNOT_COPY_STATE

SQLSTATE: 0AKD0

現在のデータベースや一時ビューなどのカタログの状態を Unity Catalog から従来のカタログにコピーできません。

CANNOT_CREATE_DATA_SOURCE_TABLE

SQLSTATE: 42KDE

データソーステーブル <tableName>を作成できませんでした :

詳細については、 CANNOT_CREATE_DATA_SOURCE_TABLE

CANNOT_DECODE_URL

SQLSTATE: 22546

指定された URL はデコードできません: <url>. URLの形式が正しいことを確認し、もう一度お試しください。

CANNOT_DELETE_SYSTEM_OWNED

SQLSTATE: 42832

システム所有の <resourceType> は削除できません。

CANNOT_DROP_AMBIGUOUS_CONSTRAINT

SQLSTATE: 42K0C

CHECK制約によって共有されている名前<constraintName>制約は削除できません

PRIMARY KEYまたはFOREIGN KEY制約。PRIMARY KEYをドロップするか、

FOREIGN KEY クエリによる制約:

ALTER TABLE .. DROP PRIMARY KEY または

ALTER TABLE .. DROP FOREIGN KEY ..

CANNOT_ESTABLISH_CONNECTION

SQLSTATE: 08001

リモート <jdbcDialectName> データベースへの接続を確立できません。 接続情報と資格情報を確認してください。 ホスト、ポート、ユーザー、パスワード、およびデータベースオプション。 ** 情報が正しいと思われる場合は、ワークスペースのネットワーク設定を確認し、ホストへの送信制限がないことを確認してください。 また、ワークスペースの Spark クラスターがデプロイされているネットワークからの受信接続がホストによってブロックされていないことも確認してください。 **詳細なエラーメッセージ: <causeErrorMessage>

CANNOT_ESTABLISH_CONNECTION_SERVERLESS

SQLSTATE: 08001

リモート <jdbcDialectName> データベースへの接続を確立できません。 接続情報と資格情報を確認してください。 ホスト、ポート、ユーザー、パスワード、およびデータベースオプション。 ** 情報が正しいと思われる場合は、サーバレス コンピュートを使用しているため、インターネットからホストへのインバウンドトラフィックを許可してください。 ネットワークポリシーがインバウンドインターネットトラフィックを許可していない場合は、non サーバレス コンピュートを使用するか、 Databricks 担当者に連絡してサーバレス Private Networkingについて確認してください。 **詳細なエラーメッセージ: <causeErrorMessage>

CANNOT_INVOKE_IN_TRANSFORMATIONS

SQLSTATE: 0A000

データセットの変換とアクションは、ドライバーによってのみ呼び出すことができ、他のデータセット変換の内部で呼び出すことはできません。たとえば、dataset1.map(x => dataset2.values.count() * x) は、Dataset1.Map 変換内で values 変換と count アクションを実行できないため、無効です。 詳細については、 SPARK-28702 を参照してください。

CANNOT_LOAD_FUNCTION_CLASS

SQLSTATE: 46103

関数<functionName>を登録するときにクラス<className>を読み込めません。クラスパス上にあることを確認してください。

CANNOT_LOAD_PROTOBUF_CLASS

SQLSTATE: 42K03

名前が <protobufClassName>の Protobuf クラスを読み込めませんでした。 <explanation>

CANNOT_LOAD_STATE_STORE

SQLSTATE: 58030

ロード状態でエラーが発生しました。

詳細については、 CANNOT_LOAD_STATE_STORE

CANNOT_MERGE_INCOMPATIBLE_DATA_TYPE

SQLSTATE: 42825

互換性のないデータ型 <left><right>をマージできませんでした。 マージする列のデータ型を確認し、互換性があることを確認してください。 必要に応じて、マージを試みる前に、列を互換性のあるデータ型にキャストすることを検討してください。

CANNOT_MERGE_SCHEMAS

SQLSTATE: 42KD9

スキーマのマージに失敗しました:

初期スキーマ:

<left>

初期スキーマとマージできないスキーマ:

<right>.

CANNOT_MODIFY_CONFIG

SQLSTATE: 46110

Spark config: <key>の値を変更できません。

https://spark.apache.org/docs/latest/sql-migration-guide.html#ddl-statements'も参照してください。

CANNOT_PARSE_DECIMAL

SQLSTATE:22018

小数を解析できません。 入力が有効な数値であり、オプションの小数点またはカンマ区切り記号を使用していることを確認してください。

CANNOT_PARSE_INTERVAL

SQLSTATE: 22006

<intervalString>を解析できません。指定された値が、間隔を定義するための有効な形式であることを確認してください。 正しい形式のドキュメントを参照できます。 問題が解決しない場合は、入力値がnullまたは空でないことを再確認して、再試行してください。

CANNOT_PARSE_JSON_FIELD

SQLSTATE: 2203G

フィールド名 <fieldName> と JSON トークン タイプの値 <fieldValue><jsonType> ターゲット Spark データ型 に解析できません <dataType>

CANNOT_PARSE_PROTOBUF_DESCRIPTOR

SQLSTATE:22018

記述子バイトを Protobuf FileDescriptorSet に解析中にエラーが発生しました。

CANNOT_PARSE_TIMESTAMP

SQLSTATE: 22007

<message>. <func> を使用して無効な入力文字列を許容し、代わりに NULL を返します。

CANNOT_QUERY_TABLE_DURING_INITIALIZATION

SQLSTATE: 55019

初期化中に MV/ST をクエリできません。

詳細については、 CANNOT_QUERY_TABLE_DURING_INITIALIZATION

CANNOT_READ_ARCHIVED_FILE

SQLSTATE: KD003

パス <path> のファイルはアーカイブされているため、読み取れません。 クエリ フィルタを調整して、アーカイブされたファイルを除外してください。

CANNOT_READ_FILE

SQLSTATE: KD003

パス <format> <path>にあるファイルを読み取れません。

詳細については、 CANNOT_READ_FILE

CANNOT_READ_SENSITIVE_KEY_FROM_SECURE_PROVIDER

SQLSTATE: 42501

セキュア・プロバイダから機密キー「<key>」を読み取れません。

CANNOT_RECOGNIZE_HIVE_TYPE

SQLSTATE: 429BB

ハイブ タイプ文字列: <fieldType>、列: <fieldName>を認識できません。 フィールドに指定されたデータ型は、Spark SQL で認識できません。 指定されたフィールドのデータ型を確認し、それが有効なSpark SQLデータ型であることを確認してください。 有効なデータ型とその形式の一覧については、Spark SQL のドキュメントを参照してください。 データ型が正しい場合は、サポートされているバージョンの Spark SQL を使用していることを確認してください。

CANNOT_REFERENCE_UC_IN_HMS

SQLSTATE: 0AKD0

Unity Catalog<objType>Hive metastoreオブジェクト内の を参照できません。

CANNOT_REMOVE_RESERVED_PROPERTY

SQLSTATE: 42000

予約済みプロパティを削除できません: <property>.

CANNOT_RENAME_ACROSS_CATALOG

SQLSTATE: 0AKD0

カタログ間で <type> の名前を変更することは許可されていません。

CANNOT_RENAME_ACROSS_SCHEMA

SQLSTATE: 0AKD0

スキーマ間で <type> の名前を変更することは許可されていません。

CANNOT_RESOLVE_DATAFRAME_COLUMN

SQLSTATE: 42704

データフレーム列 <name>を解決できません。 それはおそらく df1.select(df2.col("a"))のような違法な参照が原因です。

CANNOT_RESOLVE_STAR_EXPAND

SQLSTATE: 42704

<targetString>.* の入力列 <columns>. .指定したテーブルまたは構造体が存在し、入力列でアクセス可能であることを確認してください。

CANNOT_RESTORE_PERMISSIONS_FOR_PATH

SQLSTATE: 58030

作成されたパス <path> の権限を <permission>に戻すことができませんでした。

CANNOT_SHALLOW_CLONE_ACROSS_UC_AND_HMS

SQLSTATE: 0AKD0

Unity Catalog と Hive metastoreのテーブルをシャロークローンすることはできません。

CANNOT_SHALLOW_CLONE_NESTED

SQLSTATE: 0AKUC

すでにシャロークローンになっているテーブル <table> をシャロークローンすることはできません。

CANNOT_SHALLOW_CLONE_NON_UC_MANAGED_TABLE_AS_SOURCE_OR_TARGET

SQLSTATE: 0AKUC

シャロークローンは、 MANAGED テーブルタイプでのみサポートされます。 テーブル <table>MANAGED テーブルではありません。

CANNOT_UPDATE_FIELD

SQLSTATE: 0A000

<table>フィールド<fieldName>タイプを更新できません:

詳細については、 CANNOT_UPDATE_FIELD

CANNOT_UP_CAST_DATATYPE

SQLSTATE: 42846

<sourceType>から<targetType><expression>をアップキャストすることはできません。

<details>

CANNOT_USE_KRYO

SQLSTATE: 22KD3

Kryo シリアル化コーデックを読み込めません。 Kryo のシリアル化は、Spark Connect クライアントでは使用できません。 Java シリアル化を使用するか、カスタム コーデックを提供するか、代わりに Spark Classic を使用します。

CANNOT_VALIDATE_CONNECTION

SQLSTATE: 08000

<jdbcDialectName>接続の検証はサポートされていません。別のソリューションについては Databricks サポートにお問い合わせいただくか、"spark.databricks.testConnectionBeforeCreation" を設定してください。 を "false" に設定すると、接続オブジェクトを作成する前に接続テストがスキップされます。

CANNOT_WRITE_STATE_STORE

SQLSTATE: 58030

プロバイダー <providerClass>の状態ストア ファイルの書き込み中にエラーが発生しました。

詳細については、 CANNOT_WRITE_STATE_STORE

CAST_INVALID_INPUT

SQLSTATE:22018

<sourceType> 型の値 <expression> は、形式が正しくないため、<targetType> にキャストできません。構文に従って値を修正するか、ターゲットの種類を変更します。 try_cast を使用して、不正な形式の入力を許容し、代わりにNULLを返します。

詳細については、 CAST_INVALID_INPUT

CAST_OVERFLOW

SQLSTATE: 22003

<sourceType> 型の値 <value> は、オーバーフローのため <targetType> にキャストできません。try_cast を使用してオーバーフローを許容し、代わりにNULLを返します。

CAST_OVERFLOW_IN_TABLE_INSERT

SQLSTATE: 22003

オーバーフローのため<sourceType>``<targetType>タイプの列または変数<columnName>に値を割り当てることができません。入力値に try_cast を使用してオーバーフローを許容し、代わりに NULL を返します。

CATALOG_NOT_FOUND

SQLSTATE: 42P08

カタログ <catalogName> 見つかりません。 SQL 構成 <config> をカタログ プラグインに設定することを検討してください。

CHECKPOINT_RDD_BLOCK_ID_NOT_FOUND

SQLSTATE: 56000

チェックポイントブロック <rddBlockId> 見つかりませんでした。

このパーティションを最初にチェックポイントしたエグゼキューターが生きていないか、元の RDD が永続化されていません。

この問題が解決しない場合は、代わりに rdd.checkpoint() を使用することを検討します。これは、ローカル チェックポイント処理よりも低速ですが、フォールト トレラント性は高くなります。

CIRCULAR_CLASS_REFERENCE

SQLSTATE: 42602

クラス内に循環参照を持つことはできませんが、クラス <t>の循環参照を取得しました。

CLASS_NOT_OVERRIDE_EXPECTED_METHOD

SQLSTATE: 38000

<className> <method1> または <method2>をオーバーライドする必要があります。

CLASS_UNSUPPORTED_BY_MAP_OBJECTS

SQLSTATE: 0A000

MapObjects は、結果のコレクションとして <cls> クラスをサポートしていません。

コマンド

SQLSTATE: 0A000

クリーンルームコマンドはサポートされていません

CLEANROOM_INVALID_SHARED_DATA_OBJECT_NAME

SQLSTATE: 42K05

クリーンルーム内の <type> を参照する名前が無効です。 クリーンルーム内の <type>名を[カタログ]の形式で使用してください。[スキーマ]。[<type>] をクリックします。

使用する名前がわからない場合は、「SHOW ALL IN CLEANROOM [clean_room]」を実行して、「name」列の値を使用できます。

CLOUD_FILE_SOURCE_FILE_NOT_FOUND

SQLSTATE: 42K03

file: <filePath> のファイル通知を受け取りましたが、もう存在しません。 ファイルが処理される前に削除されていないことを確認してください。 ストリームを続行するには、Spark SQL 設定 <config> を true に設定します。

CLOUD_PROVIDER_ERROR

SQLSTATE: 58000

クラウドプロバイダーエラー: <message>

クラスタリング

SQLSTATE: 42P10

指定されたクラスタリングは、既存のテーブル <tableName>のクラスタリングと一致しません。

指定されたクラスタリング列: [<specifiedClusteringString>]。

既存のクラスタリング列: [<existingClusteringString>]

クラスタリング

SQLSTATE: 42000

'<operation>' はクラスタリングをサポートしていません。

クラスター

SQLSTATE: 0A000

Databricks担当者に連絡して、クラスターby-auto機能を有効にしてください。

クラスタリング

SQLSTATE: 56038

CLUSTER BY AUTO を使用するには、clusteringTable.enableClusteringTableFeature を有効にしてください。

クラスター

SQLSTATE: 56038

CLUSTER BY AUTO では、予測的最適化を有効にする必要があります。

クラスター

SQLSTATE: 56038

CLUSTER BY AUTO は UC マネージドテーブルでのみサポートされています。

CODEC_NOT_AVAILABLE

SQLSTATE: 56038

コーデック <codecName> は使用できません。

詳細については、 CODEC_NOT_AVAILABLE

CODEC_SHORT_NAME_NOT_FOUND

SQLSTATE: 42704

コーデック <codecName>の短い名前が見つかりません。

COLLATION_INVALID_NAME

SQLSTATE: 42704

<collationName> が正しい照合名を表していません。 推奨される有効な照合名: [<proposals>]。

COLLATION_INVALID_PROVIDER

SQLSTATE: 42704

<provider> は、正しい照合順序プロバイダーを表していません。 サポートされているプロバイダーは [<supportedProviders>] です。

COLLATION_MISMATCH

SQLSTATE: 42P21

文字列関数と演算子に使用する照合順序を決定できませんでした。

詳細については、 COLLATION_MISMATCH

COLLECTION_SIZE_LIMIT_EXCEEDED

SQLSTATE: 54000

配列のサイズ制限を超える <numberOfElements> 要素を含む配列を作成できません <maxRoundedArrayLength>

詳細については、「 COLLECTION_SIZE_LIMIT_EXCEEDED

COLUMN_ALIASES_NOT_ALLOWED

SQLSTATE: 42601

列エイリアスは <op>では使用できません。

COLUMN_ALREADY_EXISTS

SQLSTATE: 42711

<columnName> はすでに存在します。 別の名前を選択するか、既存の列の名前を変更します。

COLUMN_ARRAY_ELEMENT_TYPE_MISMATCH

SQLSTATE: 0A000

フィールド <pos> の一部の値は、列配列タイプと互換性がありません。 想定されるタイプ <type>

COLUMN_MASKS_ABAC_MISMATCH

SQLSTATE: 0A000

ポリシーから継承された列マスクと明示的に定義された列マスクとの間に不一致があったため、列マスクを <tableName> で解決できませんでした。 続行するには、属性ベースのアクセス制御 (ABAC) を無効にし、Databricks サポートにお問い合わせください。

COLUMN_MASKS_CHECK_CONSTRAINT_UNSUPPORTED

SQLSTATE: 0A000

列マスク・ポリシーを使用して CHECK テーブル・ <tableName> に制約を作成することはサポートされていません。

COLUMN_MASKS_DUPLICATE_USING_COLUMN_NAME

SQLSTATE: 42734

<statementType>文が、USING COLUMNSリストに参照されている他の 2 つ以上のカラムが同じ名前のカラム <columnName>を含むカラムにカラム・マスク・ポリシーを割り当てようとしました。これは無効です。

COLUMN_MASKS_FEATURE_NOT_SUPPORTED

SQLSTATE: 0A000

<tableName>の列マスク ポリシーはサポートされていません。

詳細については、COLUMN_MASKS_FEATURE_NOT_SUPPORTEDを参照してください

COLUMN_MASKS_INCOMPATIBLE_SCHEMA_CHANGE

SQLSTATE: 0A000

テーブル <tableName> は、列<maskedColumn>の列マスク ポリシーで参照されているため、テーブル から<statementType> <columnName>できません。テーブルの所有者は、続行する前にこのポリシーを削除または変更する必要があります。

COLUMN_MASKS_MERGE_UNSUPPORTED_SOURCE

SQLSTATE: 0A000

MERGE INTO 操作では、ソース表 <tableName>の列マスク・ポリシーはサポートされていません。

COLUMN_MASKS_MERGE_UNSUPPORTED_TARGET

SQLSTATE: 0A000

MERGE INTO 操作では、列マスクポリシーを使用したテーブル <tableName> への書き込みはサポートされていません。

COLUMN_MASKS_MULTI_PART_TARGET_COLUMN_NAME

SQLSTATE: 42K05

この文は、複数の名前パーツを持つカラム <columnName> にカラム・マスク・ポリシーを割り当てようとしましたが、これは無効です。

COLUMN_MASKS_MULTI_PART_USING_COLUMN_NAME

SQLSTATE: 42K05

この文は、カラム・マスク・ポリシーをカラムに割り当てようとしましたが、 USING COLUMNS ・リストに複数の名前パーツを持つ名前 <columnName> が含まれていましたが、これは無効です。

COLUMN_MASKS_NOT_ENABLED

SQLSTATE: 56038

列マスクの定義のサポートが有効になっていません

COLUMN_MASKS_REQUIRE_UNITY_CATALOG

SQLSTATE: 0A000

列マスク ポリシーは、Unity Catalog でのみサポートされています。

COLUMN_MASKS_SHOW_PARTITIONS_UNSUPPORTED

SQLSTATE: 0A000

SHOW PARTITIONS コマンドは、列マスクを持つ\<format\> テーブルではサポートされていません。

COLUMN_MASKS_TABLE_CLONE_SOURCE_NOT_SUPPORTED

SQLSTATE: 0A000

<mode> カラム・マスク・ポリシーを使用したテーブル <tableName> からのクローニングはサポートされていません。

COLUMN_MASKS_TABLE_CLONE_TARGET_NOT_SUPPORTED

SQLSTATE: 0A000

<mode> カラム・マスク・ポリシーを使用したテーブル <tableName> へのクローニングはサポートされていません。

COLUMN_MASKS_UNSUPPORTED_CONSTANT_AS_PARAMETER

SQLSTATE: 0AKD1

列マスク ポリシーのパラメーターとして定数を使用することはサポートされていません。 SQL コマンドを更新して列マスク定義から定数を削除してから、コマンドを再試行してください。

COLUMN_MASKS_UNSUPPORTED_PROVIDER

SQLSTATE: 0A000

Failed to execute <statementType> command because assigning column mask ポリシーは、テーブルプロバイダーを持つ対象データソース "<provider>" でサポートされていないためです。

COLUMN_MASKS_UNSUPPORTED_SUBQUERY

SQLSTATE: 0A000

テーブル <tableName> には、まだサポートされていないサブクエリ式を持つ 1 つ以上のカラム・マスク・ポリシーが含まれているため、<operation>を実行できません。続行するには、テーブルの所有者に連絡して、列マスクポリシーを更新してください。

COLUMN_MASKS_USING_COLUMN_NAME_SAME_AS_TARGET_COLUMN

SQLSTATE: 42734

カラム <columnName> の名前がターゲットカラムと同じであるため、無効です。 USING COLUMNS リストから列を削除して、コマンドを再試行してください。

COLUMN_NOT_DEFINED_IN_TABLE

SQLSTATE: 42703

<colType> カラム <colName> がテーブル <tableName>で定義されていません。定義済みのテーブルカラムは次のとおりです。 <tableCols>

COLUMN_NOT_FOUND

SQLSTATE: 42703

<colName> が見つかりません。 SQL 設定 <caseSensitiveConfig>に従って、列名のスペルと正確性を確認します。

COLUMN_ORDINAL_OUT_OF_BOUNDS

SQLSTATE: 22003

列の順序が範囲外です。 テーブル内のカラム数は <attributesLength>ですが、カラム序数は <ordinal>です。

属性は次のとおりです。 <attributes>

COMMA_PRECEDING_CONSTRAINT_ERROR

SQLSTATE: 42601

制約定義の前に予期しない ',' が発生しました。 列 (および期待値) が定義されていない場合、制約句がコンマで始まらないようにしてください。

COMMENT_ON_CONNECTION_NOT_IMPLEMENTED_YET

SQLSTATE: 42000

COMMENT ON CONNECTIONコマンドはまだ実装されていません

COMPARATOR_RETURNS_NULL

SQLSTATE: 22004

コンパレータは、<firstValue><secondValue>の比較のためのNULLを返しました。

「より大きい」には正の整数、「等しい」には0、「より小さい」には負の整数を返す必要があります。

NULL が 0 (等しい) として扱われる非推奨の動作に戻すには、"spark.sql.legacy.allowNullComparisonResultInArraySort" を "true" に設定する必要があります。

COMPLEX_EXPRESSION_UNSUPPORTED_INPUT

SQLSTATE: 42K09

式の入力データ型を処理できません: <expression>.

詳細については、 COMPLEX_EXPRESSION_UNSUPPORTED_INPUT

並列

SQLSTATE: 0A000

このクエリ [id: <queryId>] の別のインスタンスは、並列セッション [existing runId: <existingQueryRunId> new runId: <newQueryRunId>] によって開始されたばかりです。

並列

SQLSTATE: 53000

クラスターに必要な空きスロットの最小数は <numTasks>ですが、クラスターの空きスロットは <numSlots> 個しかありません。 クエリが停止または失敗します。 クラスター サイズを増やして続行します。

並列

SQLSTATE: 40000

ログに並列更新します。 <batchId>に対して複数のストリーミング ジョブが検出されました。

特定のチェックポイントの場所で一度に 1 つのストリーミング ジョブのみが実行されるようにしてください。

CONFIG_NOT_AVAILABLE

SQLSTATE: 42K0I

構成 <config> は使用できません。

CONFLICTING_DIRECTORY_STRUCTURES

SQLSTATE: KD009

競合するディレクトリ構造が検出されました。

疑わしいパス:

<discoveredBasePaths>

指定されたパスがパーティションディレクトリの場合は、データソースのオプションで「basePath」を設定して、テーブルのルートディレクトリを指定してください。

複数のルートディレクトリがある場合は、それらを別々にロードしてからユニオンしてください。

CONFLICTING_PARTITION_COLUMN_NAMES

SQLSTATE: KD009

競合するパーティション列名が検出されました:

<distinctPartColLists>

パーティション化されたテーブルディレクトリの場合、データファイルはリーフディレクトリにのみ存在する必要があります。

また、同じレベルのディレクトリには、同じパーティション列名が必要です。

次のディレクトリで、予期しないファイルや一貫性のないパーティション列名がないか確認してください。

<suspiciousPaths>

CONFLICTING_PROVIDER

SQLSTATE: 22023 です。

指定されたプロバイダ <provider> は、既存のカタログ プロバイダ <expectedProvider>と矛盾しています。 「USING <expectedProvider>」を使用して、コマンドを再試行してください。

繋ぐ

SQLSTATE: 56K00

一般的な Spark Connect エラー。

詳細については、「CONNECT」を参照してください

CONNECTION_ALREADY_EXISTS

SQLSTATE: 42000

接続 <connectionName> は既に存在するため、作成できません。

別の名前を選択するか、既存の接続を削除または置換するか、既存の接続を許容するように IF NOT EXISTS 句を追加します。

CONNECTION_NAME_CANNOT_BE_EMPTY

SQLSTATE: 42000

接続名は空でない必要があるため、このコマンドは実行できません。

CONNECTION_NOT_FOUND

SQLSTATE: 42000

接続名 <connectionName> が見つからなかったため、このコマンドは実行できません。

CONNECTION_OPTION_NOT_SUPPORTED

SQLSTATE: 42000

タイプ '<connectionType>' の接続は、次のオプションをサポートしていません: <optionsNotSupported>. サポートされているオプション: <allowedOptions>.

CONNECTION_TYPE_NOT_SUPPORTED

SQLSTATE: 42000

タイプ '<connectionType>の接続を作成できません。 サポートされている接続タイプ: <allowedTypes>.

CONNECT_SESSION_MIGRATION

SQLSTATE: 56K00

一般的なセッション移行エラー (userId: <userId>、sessionId: <sessionId>、serverSessionId: <serverSessionId>)。

詳細については、 CONNECT_SESSION_MIGRATION

CONSTRAINTS_REQUIRE_UNITY_CATALOG

SQLSTATE: 0A000

テーブル制約は、Unity Catalog でのみサポートされています。

CONVERSION_INVALID_INPUT

SQLSTATE:22018

<str> (<fmt>) は形式が正しくないため、 <targetType> に変換できません。 構文に従って値を修正するか、その形式を変更します。 <suggestion> を使用して、不正な形式の入力を許容し、代わりにNULLを返します。

COPY_INTO_COLUMN_ARITY_MISMATCH

SQLSTATE: 21S01

<tableName>に書き込めません。理由は

詳細については、「 COPY_INTO_COLUMN_ARITY_MISMATCH

COPY_INTO_CREDENTIALS_NOT_ALLOWED_ON

SQLSTATE: 0A000

無効なスキーム <scheme>. COPY INTO ソース資格情報は現在、S3/S3N/S3A/WASBS/ABFSS のみをサポートしています。

COPY_INTO_CREDENTIALS_REQUIRED

SQLSTATE: 42601

COPY INTO ソース資格情報は <keyList>を指定する必要があります。

COPY_INTO_DUPLICATED_FILES_COPY_NOT_ALLOWED

SQLSTATE: 25000

重複したファイルが並列 COPY INTO 操作でコミットされました。 しばらくしてからもう一度お試しください。

COPY_INTO_ENCRYPTION_NOT_ALLOWED_ON

SQLSTATE: 0A000

無効なスキーム <scheme>. COPY INTO ソース暗号化は現在、S3/S3N/S3A/ABFSS のみをサポートしています。

COPY_INTO_ENCRYPTION_NOT_SUPPORTED_FOR_AZURE

SQLSTATE: 0A000

COPY INTO 暗号化は ADLS Gen2 または abfss\:// ファイル スキームのみをサポートします

COPY_INTO_ENCRYPTION_REQUIRED

SQLSTATE: 42601

COPY INTO ソース暗号化では、'<key>' を指定する必要があります。

COPY_INTO_ENCRYPTION_REQUIRED_WITH_EXPECTED

SQLSTATE: 42601

暗号化オプション <requiredKey>が無効です。 ソース暗号化COPY INTO '<requiredKey>' = '<keyValue>' を指定する必要があります。

COPY_INTO_FEATURE_INCOMPATIBLE_SETTING

SQLSTATE: 42613

COPY INTO機能の「<feature>」は「<incompatibleSetting>」には対応していません。

COPY_INTO_NON_BLIND_APPEND_NOT_ALLOWED

SQLSTATE: 25000

COPY INTO データの追加以外は、他のトランザクションと同時に実行することはできません。 しばらくしてからもう一度お試しください。

COPY_INTO_ROCKSDB_MAX_RETRY_EXCEEDED

SQLSTATE: 25000

COPY INTO その状態の読み込みに失敗し、最大再試行回数を超えました。

COPY_INTO_SCHEMA_MISMATCH_WITH_TARGET_TABLE

SQLSTATE: 42KDG

Delta テーブル (テーブル: <table>) へのコピー中にスキーマの不一致が検出されました。

これは、受信データに問題があることを示しているか、または次のように設定することで、受信データに応じて Delta テーブル スキーマを自動的に進化させることができます。

COPY_OPTIONS ('mergeSchema' = 'true')

スキーマの違い:

<schemaDiff>

COPY_INTO_SOURCE_FILE_FORMAT_NOT_SUPPORTED

SQLSTATE: 0A000

ソース ファイルの形式は、 CSV、 JSON、 AVRO、 ORC、 PARQUET 、 TEXT、または BINARYFILE のいずれかである必要があります。 Delta テーブルで COPY INTO Delta テーブルをソースとして使用することは、 OPTIMIZE 操作後に重複データが取り込まれる可能性があるため、サポートされていません。 このチェックをオフにするには、SQL コマンド set spark.databricks.delta.copyInto.formatCheck.enabled = false.

COPY_INTO_SOURCE_SCHEMA_INFERENCE_FAILED

SQLSTATE: 42KD9

ソース ディレクトリには、タイプ <format>の解析可能なファイルが含まれていませんでした。 「<source>」の内容をご確認ください。

エラーは、「<config>」を「false」に設定することで消音できます。

COPY_INTO_STATE_INTERNAL_ERROR

SQLSTATE: 55019

COPY INTO状態の処理中に内部エラーが発生しました。

詳細については、 COPY_INTO_STATE_INTERNAL_ERROR

COPY_INTO_SYNTAX_ERROR

SQLSTATE: 42601

COPY INTOコマンドの解析に失敗しました。

詳細については、 COPY_INTO_SYNTAX_ERROR

COPY_INTO_UNSUPPORTED_FEATURE

SQLSTATE: 0A000

COPY INTO機能「<feature>」はサポートされていません。

COPY_UNLOAD_FORMAT_TYPE_NOT_SUPPORTED

SQLSTATE: 42000

'<formatType>' 形式のデータはアンロードできません。 <connectionType>でサポートされている形式は、<allowedFormats>です。

CREATE_FOREIGN_SCHEMA_NOT_IMPLEMENTED_YET

SQLSTATE: 42000

CREATE FOREIGN SCHEMAコマンドはまだ実装されていません

CREATE_FOREIGN_TABLE_NOT_IMPLEMENTED_YET

SQLSTATE: 42000

CREATE FOREIGN TABLEコマンドはまだ実装されていません

CREATE_OR_REFRESH_MV_ST_ASYNC

SQLSTATE: 0A000

ASYNCが指定されているマテリアライズドビューまたはストリーミングテーブルをCREATEまたはREFRESHすることはできません。CREATE または REFRESH ステートメントから ASYNCを削除するか、REFRESH ASYNC を使用して既存のマテリアライズドビューまたはストリーミングテーブルを非同期的に更新してください。

CREATE_PERMANENT_VIEW_WITHOUT_ALIAS

SQLSTATE: 0A000

式 のエイリアスを明示的に割り当てずに永続ビュー <name> を作成することはできません <attr>.

CREATE_TABLE_COLUMN_DESCRIPTOR_DUPLICATE

SQLSTATE: 42710

CREATE TABLE<columnName> は記述子 "<optionName>" を複数回指定していますが、これは無効です。

CREATE_VIEW_COLUMN_ARITY_MISMATCH

SQLSTATE: 21S01

ビュー <viewName>を作成できません。理由は

詳細については、 CREATE_VIEW_COLUMN_ARITY_MISMATCH

CREDENTIAL_MISSING

SQLSTATE: 42601

外部ロケーションを作成または更新する際には、認証情報を提供してください。

CSV_ENFORCE_SCHEMA_NOT_SUPPORTED

SQLSTATE: 0A000

rescuedDataColumn または failOnUnknownFieldsを使用する場合は、列が序数ではなく名前で読み取られるため、CSV オプション enforceSchema は設定できません。

CYCLIC_FUNCTION_REFERENCE

SQLSTATE: 42887

サイクリック関数参照が検出されました: : <path>.

DATABRICKS_DELTA_NOT_ENABLED

SQLSTATE: 56038

Databricks Delta がアカウントで有効になっていません。<hints>

DATATYPE_MISMATCH

SQLSTATE: 42K09

データ型の不一致により <sqlExpr> を解決できません:

詳細については、 DATATYPE_MISMATCH

DATATYPE_MISSING_SIZE

SQLSTATE: 42K01

DataType <type> には、 <type>(10) などの長さパラメーターが必要です。 長さをご指定ください。

DATA_LINEAGE_SECURE_VIEW_LEAF_NODE_HAS_NO_RELATION

SQLSTATE: 25000

リネージュの書き込みに失敗しました: CLM/RLS のポリシーに対応するリレーションがありません。

DATA_SOURCE_ALREADY_EXISTS

SQLSTATE: 42710

データソース '<provider>' は既に存在します。 新しいデータソースには別の名前を選択してください。

DATA_SOURCE_EXTERNAL_ERROR

SQLSTATE: KD010

外部データソースへの保存中にエラーが発生しました。

DATA_SOURCE_NOT_EXIST

SQLSTATE: 42704

データソース '<provider>' 見つかりません。 データソースが登録されていることを確認してください。

DATA_SOURCE_NOT_FOUND

SQLSTATE: 42K02

Failed to find the データソース: <provider>. プロバイダー名が正しいこと、パッケージが適切に登録され、Spark バージョンと互換性があることを確認してください。

DATA_SOURCE_OPTION_CONTAINS_INVALID_CHARACTERS

SQLSTATE: 42602

オプション <option> は空であってはならず、無効な文字、クエリ文字列、またはパラメーターを含めることはできません。

DATA_SOURCE_OPTION_IS_REQUIRED

SQLSTATE: 42601

オプション <option> が必要です。

DATA_SOURCE_TABLE_SCHEMA_MISMATCH

SQLSTATE: 42K03

データソーステーブルのスキーマが、予期されたスキーマと一致しません。 DataFrameReader.schema API を使用している場合、またはテーブルを作成している場合は、スキーマを指定しないでください。

データソーススキーマ: <dsSchema>

想定されるスキーマ: <expectedSchema>

DATA_SOURCE_URL_NOT_ALLOWED

SQLSTATE: 42KDB

JDBC URLはデータソースオプションで許可されていません。代わりに、'host'、'port'、および'database'オプションを指定してください。

DATETIME_FIELD_OUT_OF_BOUNDS

SQLSTATE: 22023 です。

<rangeMessage>.必要に応じて、 <ansiConfig> を "false" に設定して、このエラーを回避します。

DATETIME_OVERFLOW

SQLSTATE: 22008

日時操作のオーバーフロー: <operation>.

DC_API_QUOTA_EXCEEDED

SQLSTATE: KD000

データソース<sourceName>の API クォータを超えました。

詳細については、 DC_API_QUOTA_EXCEEDED

DC_CONNECTION_ERROR

SQLSTATE: KD000

<sourceName>ソースに接続できませんでした。エラーコード: <errorCode>

詳細については、「 DC_CONNECTION_ERROR

DC_DYNAMICS_API_ERROR

SQLSTATE: KD000

Dynamics API 呼び出しでエラーが発生しました、errorCode: <errorCode>

詳細については、「 DC_DYNAMICS_API_ERROR

DC_NETSUITE_ERROR

SQLSTATE: KD000

Netsuite JDBC 呼び出しでエラーが発生しました。errorCode: <errorCode>

詳細については、「 DC_NETSUITE_ERROR

DC_SCHEMA_CHANGE_ERROR

SQLSTATE: 割り当てられていない

<sourceName> ソースのテーブル <tableName> でスキーマの変更が発生しました。

詳細については、 DC_SCHEMA_CHANGE_ERROR

DC_SERVICENOW_API_ERROR

SQLSTATE: KD000

ServiceNow API 呼び出しでエラーが発生しました、errorCode: <errorCode>

詳細については、 DC_SERVICENOW_API_ERROR

DC_SFDC_BULK_QUERY_JOB_INCOMPLETE

SQLSTATE: KD000

オブジェクト <objName> の取り込みは、Salesforce API クエリジョブに時間がかかりすぎたか、失敗したか、手動でキャンセルされたため、不完全です。

再試行するには、パイプライン全体を再実行するか、この特定の宛先テーブルを更新します。 エラーが解決しない場合は、チケットを提出します。 ジョブ ID: <jobId>. ジョブステータス: <jobStatus>

DC_SHAREPOINT_API_ERROR

SQLSTATE: KD000

SharePoint API 呼び出しでエラーが発生しました。errorCode: <errorCode>

詳細については、 DC_SHAREPOINT_API_ERROR

DC_SOURCE_API_ERROR

SQLSTATE: KD000

<sourceName> API 呼び出しでエラーが発生しました。ソース API の種類: <apiType>。 エラーコード: <errorCode>

これは、 <sourceName> API の制限に達したときに発生することがあります。 API の制限を超えていない場合は、コネクタを再実行してみてください。 問題が解決しない場合は、チケットを提出してください。

DC_UNSUPPORTED_ERROR

SQLSTATE: 0A000

サポートされていないエラーがデータソース で発生 <sourceName>

詳細については、DC_UNSUPPORTED_ERROR を参照してください。

DC_WORKDAY_RAAS_API_ERROR

SQLSTATE: KD000

Workday RAAS API 呼び出しでエラーが発生しました。errorCode: <errorCode>

詳細については、 DC_WORKDAY_RAAS_API_ERROR

DECIMAL_PRECISION_EXCEEDS_MAX_PRECISION

SQLSTATE: 22003

小数点以下の精度 <precision> が最大精度を超えています <maxPrecision>.

デフォルト

SQLSTATE: 42704

デフォルトデータベース <defaultDatabase> が存在しません。最初に作成するか、デフォルトデータベースを <defaultDatabase>に変更してください。

デフォルト

SQLSTATE: 42K03

基になるファイルが更新された可能性があります。 Spark のキャッシュを明示的に無効にするには、SQL で 'REFRESH TABLE tableName' コマンドを実行するか、関連するデータセット/DataFrame を再作成します。 ディスク・キャッシュが古い場合、または基になるファイルが削除されている場合は、クラスターを再起動してディスク・キャッシュを手動で無効にできます。

デフォルト

SQLSTATE: 42608

MERGEINSERTUPDATE、または SET VARIABLE コマンドの DEFAULT キーワードは、式の一部であったため、ターゲットカラムに直接割り当てることができませんでした。

たとえば、UPDATESETc1 = DEFAULTは許可されますが、UPDATE TSETc1 =デフォルト+ 1は許可されません。

デフォルト

SQLSTATE: 42623

<statementType> コマンドの実行に失敗しました。これは、テーブルプロバイダーを持つ対象データソース "<dataSource>" でDEFAULT値がサポートされていないためです。

DESCRIBE_JSON_NOT_EXTENDED

SQLSTATE: 0A000

DESCRIBE TABLE …AS JSON は [EXTENDED|FORMATTED] が指定されている場合にのみサポートされます。

たとえば、 DESCRIBE EXTENDED <tableName> AS JSON はサポートされていますが、 DESCRIBE <tableName> AS JSON はサポートされていません。

DIFFERENT_DELTA_TABLE_READ_BY_STREAMING_SOURCE

SQLSTATE: 55019

ストリーミング クエリは、予期しない Delta テーブル (id = '<newTableId>') から読み取っていました。

以前は、チェックポイントに従って別の Delta テーブル(id = '<oldTableId>')から読み取りを行っていました。

これは、新しいテーブルから読み取るようにコードを変更した場合、または

テーブルを再作成しました。 変更を元に戻すか、ストリーミング クエリ チェックポイントを削除してください

を最初からやり直すことができます。

DISTINCT_WINDOW_FUNCTION_UNSUPPORTED

SQLSTATE: 0A000

個別のウィンドウ関数はサポートされていません。 <windowExpr>

DIVIDE_BY_ZERO

SQLSTATE: 22012

ゼロによる除算。 除数が 0 であることを許容し、代わりに NULL を返すには try_divide を使用します。必要に応じて、 <config> を "false" に設定して、このエラーを回避します。

詳細については、「 DIVIDE_BY_ZERO

DLT_EXPECTATIONS_NOT_SUPPORTED

SQLSTATE: 56038

期待値は DLT パイプライン内でのみサポートされます。

DLT_VIEW_CLUSTER_BY_NOT_SUPPORTED

SQLSTATE: 56038

MATERIALIZED CLUSTER BY句を含む VIEW は、DLT パイプラインでのみサポートされます。

DLT_VIEW_LOCATION_NOT_SUPPORTED

SQLSTATE: 56038

<mv> ロケーションは DLT パイプラインでのみサポートされます。

DLT_VIEW_SCHEMA_WITH_TYPE_NOT_SUPPORTED

SQLSTATE: 56038

<mv> 指定されたタイプのスキーマは、DLT パイプラインでのみサポートされます。

DLT_VIEW_TABLE_CONSTRAINTS_NOT_SUPPORTED

SQLSTATE: 56038

CONSTRAINT ビュー内の句は、DLT パイプラインでのみサポートされます。

DROP_SCHEDULE_DOES_NOT_EXIST

SQLSTATE: 42000

既存のスケジュールまたはトリガーがないテーブルに SCHEDULE を削除することはできません。

DUPLICATED_CTE_NAMES

SQLSTATE: 42602

CTE 定義に重複する名前を含めることはできません: <duplicateNames>

DUPLICATED_FIELD_NAME_IN_ARROW_STRUCT

SQLSTATE: 42713

Arrow Struct の重複するフィールド名は <fieldNames>許可されていません。

DUPLICATED_MAP_KEY

SQLSTATE: 23505

重複するマップキー <key> が見つかりましたので、入力データを確認してください。

重複したキーを削除する場合は、 <mapKeyDedupPolicy> を「LAST_WIN」に設定して、最後に挿入したキーが優先されるようにすることができます。

DUPLICATED_METRICS_NAME

SQLSTATE: 42710

メトリクス名が一意ではありません: <metricName>. 結果が異なるメトリクスに同じ名前を使用することはできません。

ただし、同じ結果と名前を持つメトリクスの複数のインスタンスは許可されます(例: 自己結合)。

DUPLICATE_ASSIGNMENTS

SQLSTATE: 42701

列または変数 <nameList> 、割り当てターゲットとして複数回表示される場合があります。

DUPLICATE_CLAUSES

SQLSTATE: 42614

重複する句が見つかりました: <clauseName>. そのうちの1つを削除してください。

DUPLICATE_KEY

SQLSTATE: 23505

重複するキーが見つかりました <keyColumn>.

DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT

SQLSTATE: 4274K

ルーチン <routineName> の呼び出しは、同じパラメーター名 <parameterName>.

詳細については、 DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT

DUPLICATE_ROUTINE_PARAMETER_NAMES

SQLSTATE: 42734

ユーザー定義ルーチン <routineName> <names>のパラメーター・リストで重複する名前が見つかりました。

DUPLICATE_ROUTINE_RETURNS_COLUMNS

SQLSTATE: 42711

ユーザー定義ルーチンの RETURNS 句の列リストで重複する列が見つかりました <routineName>: <columns>.

EMITTING_ROWS_OLDER_THAN_WATERMARK_NOT_ALLOWED

SQLSTATE: 42815

前のノードは、eventTime=<emittedRowEventTime> の行を出力しましたが、これは current_watermark_value= より古いものです<currentWatermark>

これにより、実行パイプラインの下流のステートフル演算子で正確性の問題が発生する可能性があります。

演算子ロジックを修正して、現在のグローバル ウォーターマーク値より後に行を出力してください。

EMPTY_JSON_FIELD_VALUE

SQLSTATE: 42604

データ型 <dataType>の空の文字列を解析できませんでした。

EMPTY_LOCAL_FILE_IN_STAGING_ACCESS_QUERY

SQLSTATE: 22023 です。

ステージング <operation> クエリの空のローカルファイル

EMPTY_SCHEMA_NOT_SUPPORTED_FOR_DATASOURCE

SQLSTATE: 0A000

<format>データソースは、空のスキーマまたはネストされた空のスキーマの書き込みをサポートしていません。データ スキーマに少なくとも 1 つ以上の列があることを確認してください。

ENCODER_NOT_FOUND

SQLSTATE: 42704

Spark SQL の内部表現に <typeName> 型のエンコーダーが見つかりませんでした。

入力タイプを '<docroot>/sql-ref-datatypes.html' でサポートされているものに変更することを検討してください。

END_LABEL_WITHOUT_BEGIN_LABEL

SQLSTATE: 42K0L

end ラベル <endLabel> begin ラベルなしでは存在できません。

END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_LATEST_WITH_TRIGGER_AVAILABLENOW

SQLSTATE: KD000

Kafka トピック内の一部のパーティションは、Trigger.AvailableNow を使用したクエリの実行中に、終了オフセットよりも小さい使用可能なオフセットを報告します。 エラーは一時的なものである可能性があります - クエリを再開し、同じ問題がまだ発生する場合は報告してください。

最新のオフセット: <latestOffset>, 終了オフセット: <endOffset>

END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_PREFETCHED

SQLSTATE: KD000

Trigger.AvailableNow を使用する Kafka データソースの場合、終了オフセットは、各トピックパーティションあたりのオフセットがプリフェッチされたオフセットよりも小さいか等しい必要があります。 エラーは一時的なものである可能性があります - クエリを再開し、同じ問題がまだ発生する場合は報告してください。

プリフェッチされたオフセット: <prefetchedOffset>、終了オフセット: <endOffset>

ERROR_READING_AVRO_UNKNOWN_FINGERPRINT

SQLSTATE: KD00B

avroデータの読み取りエラー–不明なフィンガープリントが発生しました: <fingerprint>、使用するスキーマがわかりません。

これは、Spark コンテキストの開始後に追加のスキーマを登録した場合に発生する可能性があります。

EVENT_LOG_REQUIRES_SHARED_COMPUTE

SQLSTATE: 42601

割り当て済みまたは分離なしの共有クラスターからイベント ログをクエリできない場合は、代わりに標準クラスター (以前の共有) または Databricks SQL ウェアハウスを使用してください。

EVENT_LOG_UNAVAILABLE

SQLSTATE: 55019

<tableOrPipeline>のイベント ログはありません。イベントが生成された後、もう一度やり直してください

EVENT_LOG_UNSUPPORTED_TABLE_TYPE

SQLSTATE: 42832

<tableIdentifier> のテーブル タイプは <tableType>です。

イベント ログのクエリは、マテリアライズドビュー、ストリーミングテーブル、または DLT パイプラインのみをサポートします

EVENT_TIME_IS_NOT_ON_TIMESTAMP_TYPE

SQLSTATE: 42K09

イベント時刻 <eventName> に無効なタイプ <eventType>がありますが、"TIMESTAMP" が必要です。

EXCEED_LIMIT_LENGTH

SQLSTATE: 54006

char/varchar 型の長さ制限 ( <limit>.

EXCEPT_NESTED_COLUMN_INVALID_TYPE

SQLSTATE: 428H2

EXCEPT<columnName> は解決され、StructType であると想定されていましたが、 <dataType>型が見つかりました。

EXCEPT_OVERLAPPING_COLUMNS

SQLSTATE: 42702

EXCEPTリスト内の列は、別個で重複していない必要がありますが、取得 (<columns>) します。

EXCEPT_RESOLVED_COLUMNS_WITHOUT_MATCH

SQLSTATE: 42703

EXCEPT 列 [<exceptColumns>] は解決されましたが、スター エクスパンションの列 [<expandedColumns>] のいずれとも一致しません。

EXCEPT_UNRESOLVED_COLUMN_IN_STRUCT_EXPANSION

SQLSTATE: 42703

EXCEPT句で<objectName>列/フィールド名を解決できません。次のいずれかを意味しましたか:[<objectList>]?

注: EXCEPT 句のネストされた列には、構造体の展開中に修飾子 (テーブル名、親構造体の列名など) を含めることはできません。修飾子がネストされた列で使用されている場合は、修飾子を削除してみてください。

エグゼキューター

SQLSTATE: 53200

ブロードキャスト関係 <relationClassName>を構築するためのメモリが不足しています。 リレーションサイズ = <relationSize>. このタスクで使用される合計メモリ = <taskMemoryUsage>。 エグゼキューター Memory Manager メトリクス: onHeapExecutionMemoryUsed = <onHeapExecutionMemoryUsed>, offHeapExecutionMemoryUsed = <offHeapExecutionMemoryUsed>, onHeapStorageMemoryUsed = <onHeapStorageMemoryUsed>, offHeapStorageMemoryUsed = <offHeapStorageMemoryUsed>. [sparkPlanId: <sparkPlanId>]'set spark.sql.autoBroadcastJoinThreshold=-1' を使用するか、結合ヒントを使用してシャッフル結合を強制することで、このクエリのブロードキャストを無効にします。

エグゼキューター

SQLSTATE: 53200

ブロードキャスト関係 <relationClassName>を格納するためのメモリが不足しています。 リレーションサイズ = <relationSize>. StorageLevel = <storageLevel>. [sparkPlanId: <sparkPlanId>]'set spark.sql.autoBroadcastJoinThreshold=-1' を使用するか、結合ヒントを使用してシャッフル結合を強制することで、このクエリのブロードキャストを無効にします。

EXEC_IMMEDIATE_DUPLICATE_ARGUMENT_ALIASES

SQLSTATE: 42701

この EXECUTE IMMEDIATE コマンドの USING 句には、同じエイリアス (<aliases>) を持つ複数の引数が含まれていましたが、これは無効です。コマンドを更新して一意のエイリアスを指定してから、再試行してください。

EXPECT_PERMANENT_VIEW_NOT_TEMP

SQLSTATE: 42809

<operation>」は恒久的なビューを期待していますが、 <viewName> は一時的なビューです。

EXPECT_TABLE_NOT_VIEW

SQLSTATE: 42809

<operation>」はテーブルを期待していますが、 <viewName> はビューです。

詳細については、 EXPECT_TABLE_NOT_VIEW

EXPECT_VIEW_NOT_TABLE

SQLSTATE: 42809

テーブル <tableName><operation>をサポートしていません。

詳細については、 EXPECT_VIEW_NOT_TABLE

EXPRESSION_DECODING_FAILED

SQLSTATE: 42846

行を式の値にデコードできませんでした: <expressions>.

EXPRESSION_ENCODING_FAILED

SQLSTATE: 42846

式の値をエンコードできませんでした: 行への <expressions>

EXPRESSION_TYPE_IS_NOT_ORDERABLE

SQLSTATE: 42822

列式 <expr> は、その型 <exprType> が順序付け可能でないため、並べ替えることができません。

EXTERNAL_TABLE_INVALID_SCHEME

SQLSTATE: 0A000

外部テーブルは <scheme> スキームをサポートしていません。

FABRIC_REFRESH_INVALID_SCOPE

SQLSTATE: 0A000

'REFRESH FOREIGN <scope> <name>' の実行中にエラーが発生しました。 Fabric <scope> を直接更新することはできません。代わりに、「REFRESH FOREIGN CATALOG <catalogName>」を使用して Fabric カタログを更新してください。

FAILED_EXECUTE_UDF

SQLSTATE: 39000

ユーザー定義関数 (<functionName>: (<signature>) => <result>) は、次の理由により失敗しました: <reason>.

FAILED_FUNCTION_CALL

SQLSTATE: 38000

呼び出し用の関数 <funcName> の準備に失敗しました。 関数の引数を再確認してください。

FAILED_JDBC

SQLSTATE: HV000

操作で失敗した JDBC <url> :

詳細については、 FAILED_JDBC

FAILED_PARSE_STRUCT_TYPE

SQLSTATE:22018

解析に失敗しました構造体: <raw>.

FAILED_READ_FILE

SQLSTATE: KD001

ファイルの読み取り中にエラーが発生しました <path>

詳細については、 FAILED_READ_FILE

FAILED_REGISTER_CLASS_WITH_KRYO

SQLSTATE: KD000

Kryoでクラスを登録できませんでした。

FAILED_RENAME_PATH

SQLSTATE: 42K04

<sourcePath>の名前を<targetPath>に変更できませんでした。宛先は既に存在します。

FAILED_RENAME_TEMP_FILE

SQLSTATE: 58030

一時ファイルの名前を <srcPath> から <dstPath> に変更できませんでした。FileSystem.rename が false を返しました。

FAILED_ROW_TO_JSON

SQLSTATE: 2203G

クラス <class> の行値 <value> を JSON 形式のターゲット SQL タイプ <sqlType>に変換できませんでした。

FAILED_TO_LOAD_ROUTINE

SQLSTATE: 38000

ルーチン <routineName>の読み込みに失敗しました。

FAILED_TO_PARSE_TOO_COMPLEX

SQLSTATE: 54001

ステートメント (潜在的な SQL 関数と参照されるビューを含む) が複雑すぎて解析できませんでした。

このエラーを軽減するには、ステートメントを複数の複雑でないチャンクに分割します。

FEATURE_NOT_ENABLED

SQLSTATE: 56038

機能 <featureName> が有効になっていません。 この機能を有効にするには、構成 <configKey><configValue> に設定することを検討してください。

FEATURE_NOT_ON_CLASSIC_WAREHOUSE

SQLSTATE: 56038

<feature> は、クラシック ウェアハウス SQLではサポートされていません。 この機能を使用するには、Pro または サーバレス SQLウェアハウスを使用してください。

FEATURE_REQUIRES_UC

SQLSTATE: 0AKUD

<feature> は、Unity Catalog なしではサポートされていません。 この機能を使用するには、Unity Catalog を有効にします。

FEATURE_UNAVAILABLE

SQLSTATE: 56038

<feature> は、お使いの環境ではサポートされていません。 この機能を使用するには、Databricks サポートにお問い合わせください。

FIELD_ALREADY_EXISTS

SQLSTATE: 42710

列は <op> できません。 <fieldNames><struct>にすでに存在します。

FIELD_NOT_FOUND

SQLSTATE: 42704

<fields>にはそのような構造体フィールド<fieldName>ありません。

FILE_IN_STAGING_PATH_ALREADY_EXISTS

SQLSTATE: 42K04

ステージング パス <path> のファイルは既に存在しますが、 OVERWRITE 設定されていません

FLATMAPGROUPSWITHSTATE_USER_FUNCTION_ERROR

SQLSTATE: 39000

flatMapGroupsWithState のユーザー指定関数でエラーが発生しました。 理由: <reason>

FORBIDDEN_DATASOURCE_IN_SERVERLESS

SQLSTATE: 0A000

サーバレス コンピュートのデータソース <source> クエリは許可されていません。 サーバレス コンピュートでは、 <allowlist> データソースのみがサポートされています。

FORBIDDEN_OPERATION

SQLSTATE: 42809

操作 <statement> は、 <objectType>: <objectName>では許可されていません。

バッチ

SQLSTATE: 39000

foreach バッチ シンクのユーザー指定関数でエラーが発生しました。 理由: <reason>

FOREACH_USER_FUNCTION_ERROR

SQLSTATE: 39000

foreach シンクのユーザー指定関数でエラーが発生しました。 理由: <reason>

FOREIGN_KEY_MISMATCH

SQLSTATE: 42830

外部キーの親列 <parentColumns> が の主キーの子列と一致しません <childColumns>

FOREIGN_OBJECT_NAME_CANNOT_BE_EMPTY

SQLSTATE: 42000

外部 <objectType> 名は空でない必要があるため、このコマンドは実行できません。

FOUND_MULTIPLE_DATA_SOURCES

SQLSTATE: 42710

<provider>」という名前の複数のデータソースが検出されました。 データソースが同時に登録されておらず、クラスパスに配置されていないことを確認してください。

FROM_JSON_CONFLICTING_SCHEMA_UPDATES

SQLSTATE: 42601

推論from_json、次の場所で競合するスキーマ更新が発生しました。 <location>

FROM_JSON_CORRUPT_RECORD_COLUMN_IN_SCHEMA

SQLSTATE: 42601

from_json が見つかりました columnNameOfCorruptRecord (<columnNameOfCorruptRecord>) 存在

JSONオブジェクト内にあり、続行できなくなりました。 に別の値を設定してください

オプション 'columnNameOfCorruptRecord'

FROM_JSON_CORRUPT_SCHEMA

SQLSTATE: 42601

from_json推論は、次の場所に格納されているスキーマを読み取ることができませんでした。 <location>

FROM_JSON_INFERENCE_FAILED

SQLSTATE: 42601

from_jsonスキーマを推測できませんでした。 代わりに1つ提供してください。

FROM_JSON_INFERENCE_NOT_SUPPORTED

SQLSTATE: 0A000

from_json推論は、ストリーミングテーブルを定義する場合にのみサポートされます

FROM_JSON_INVALID_CONFIGURATION

SQLSTATE: 42601

from_json構成が無効です。

詳細については、 FROM_JSON_INVALID_CONFIGURATION

FROM_JSON_SCHEMA_EVOLUTION_FAILED

SQLSTATE: 22KD3

from_json <old> から <new>

FUNCTION_PARAMETERS_MUST_BE_NAMED

SQLSTATE: 07001

関数 <function> には名前付きパラメーターが必要です。 パラメーター missing names: <exprs>. 関数呼び出しを更新して、すべてのパラメーターの名前を追加してください (例: <function>(param_name => ...)。

GENERATED_COLUMN_WITH_DEFAULT_VALUE

SQLSTATE: 42623

カラムにデフォルト値と世代式の両方を含めることはできませんが、カラム <colName> にはデフォルト値 (<defaultValue>) と世代式 (<genExpr>) があります。

GET_TABLES_BY_TYPE_UNSUPPORTED_BY_HIVE_VERSION

SQLSTATE: 56038

Hive 2.2 以前のバージョンでは、getTablesByType はサポートされていません。 Hive 2.3以上のバージョンをご利用ください。

GET_WARMUP_TRACING_FAILED

SQLSTATE: 42601

ウォームアップ トレースに失敗しました。 原因 : <cause>.

GET_WARMUP_TRACING_FUNCTION_NOT_ALLOWED

SQLSTATE: 42601

関数 get_warmup_tracing() は許可されていません。

GRAPHITE_SINK_INVALID_PROTOCOL

SQLSTATE: KD000

無効なグラファイトプロトコル: <protocol>

GRAPHITE_SINK_PROPERTY_MISSING

SQLSTATE: KD000

グラファイトシンクには「<property>」プロパティが必要です。

GROUPING_COLUMN_MISMATCH

SQLSTATE: 42803

グループ化の列 (<grouping>) は、 <groupingColumns>のグループ化列で見つかりません。

GROUPING_ID_COLUMN_MISMATCH

SQLSTATE: 42803

grouping_id の列 (<groupingIdColumn>) は、グループ化列 (<groupByColumns>) と一致しません。

GROUPING_SIZE_LIMIT_EXCEEDED

SQLSTATE: 54000

グルーピングセットのサイズは <maxSize>より大きくすることはできません。

グループ

SQLSTATE: 42903

集計関数は GROUP BYでは許可されていませんが、 <sqlExpr>で見つかります。

詳細については、 グループ

グループ

SQLSTATE: 42903

GROUP BY <index> 集計関数を含む式 <aggExpr> を参照します。 集計関数は GROUP BYでは使用できません。

グループ

SQLSTATE: 42805

GROUP BY 位置 <index> が選択リストにありません (有効な範囲は [1, <size>] です)。

グループ

SQLSTATE: 42822

<sqlExpr> は、そのデータ型 <dataType> が順序付け可能なデータ型ではないため、グループ化式として使用できません。

HDFS_HTTP_ERROR

SQLSTATE: KD00F

HDFS から読み取ろうとしたときに、HTTP 要求が失敗しました。

詳細については、「 HDFS_HTTP_ERROR

HLL_INVALID_INPUT_SKETCH_BUFFER

SQLSTATE: 22546

<function>への無効な呼び出し 。有効な HLL スケッチ バッファー (hll_sketch_agg 関数によって生成されるバッファーなど) のみが入力としてサポートされます。

HLL_INVALID_LG_K

SQLSTATE: 22546

<function>への無効な呼び出し 。lgConfigK値は <min> から <max>の間である必要があります (<value>

HLL_UNION_DIFFERENT_LG_K

SQLSTATE: 22000

スケッチには、<left><right>という異なるlgConfigK値があります。allowDifferentLgConfigK パラメーターを true に設定すると、異なる lgConfigK 値で<function>呼び出されます。

HYBRID_ANALYZER_EXCEPTION

SQLSTATE: 0A000

従来の固定小数点アナライザーとシングルパス リゾルバーの両方でクエリまたはコマンドを解決しようとすると、エラーが発生しました。

詳細については、 HYBRID_ANALYZER_EXCEPTION

IDENTIFIER_TOO_MANY_NAME_PARTS

SQLSTATE: 42601

<identifier> は、名前の部分が 2 つ以上あるため、有効な識別子ではありません。

IDENTITY_COLUMNS_DUPLICATED_SEQUENCE_GENERATOR_OPTION

SQLSTATE: 42601

重複 IDENTITY 列シーケンスジェネレータオプション: <sequenceGeneratorOption>.

IDENTITY_COLUMNS_ILLEGAL_STEP

SQLSTATE: 42611

IDENTITY column step を 0 にすることはできません。

IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE

SQLSTATE: 428H2

DataType <dataType> は、 IDENTITY 列ではサポートされていません。

ILLEGAL_DAY_OF_WEEK

SQLSTATE: 22009

曜日の不正な入力: <string>.

ILLEGAL_STATE_STORE_VALUE

SQLSTATE: 42601

状態ストアに提供された値が正しくありません

詳細については、 ILLEGAL_STATE_STORE_VALUE

INAPPROPRIATE_URI_SCHEME_OF_CONNECTION_OPTION

SQLSTATE: 42616

接続オプション '<option>' に URI <uri> の不適切なスキームが提供されているため、接続を作成できません。

許可されたスキーム: <allowedSchemes>.

スキームが URI に存在しない場合は追加するか、許可された値からスキームを指定してください。

INCOMPARABLE_PIVOT_COLUMN

SQLSTATE: 42818

無効なピボット列 <columnName>です。 ピボット列は同等である必要があります。

INCOMPATIBLE_COLUMN_TYPE

SQLSTATE: 42825

<operator> 互換性のある列型を持つテーブルでのみ実行できます。 <tableOrdinalNumber> テーブルの <columnOrdinalNumber> 列は<dataType1>最初のテーブルの同じ列の列の列と互換性のない<dataType2>型です。<hint>

INCOMPATIBLE_DATASOURCE_REGISTER

SQLSTATE: 56038

互換性のない DataSourceRegister を検出しました。 互換性のないライブラリをクラスパスから削除するか、アップグレードしてください。 エラー: <message>

INCOMPATIBLE_DATA_FOR_TABLE

SQLSTATE: KD000

テーブル <tableName>の互換性のないデータを書き込むことができません。

詳細については、 INCOMPATIBLE_DATA_FOR_TABLE

INCOMPATIBLE_JOIN_TYPES

SQLSTATE: 42613

結合の種類 <joinType1><joinType2> には互換性がありません。

INCOMPATIBLE_VIEW_SCHEMA_CHANGE

SQLSTATE: 51024

ビュー <viewName> の SQL クエリに互換性のないスキーマ変更があり、カラム <colName> を解決できません。 <colName>という名前の列が<expectedNum>つあると予想していましたが、<actualCols>されました。

以下を実行してビューを再作成してみてください: <suggestion>

INCOMPLETE_TYPE_DEFINITION

SQLSTATE: 42K01

不完全な複合型:

詳細については、 INCOMPLETE_TYPE_DEFINITION

INCONSISTENT_BEHAVIOR_CROSS_VERSION

SQLSTATE: 42K0B

にアップグレードすると、異なる結果が得られる場合があります。

詳細については、 INCONSISTENT_BEHAVIOR_CROSS_VERSION

INCORRECT_NUMBER_OF_ARGUMENTS

SQLSTATE: 42605

<failure><functionName> には少なくとも <minArgs> 個、最大で <maxArgs> 個の引数が必要です。

INCORRECT_RAMP_UP_RATE

SQLSTATE: 22003

<rowsPerSecond> rowsPerSecond の最大オフセットは <maxSeconds>ですが、 'rampUpTimeSeconds' は<rampUpTimeSeconds>です。

INDETERMINATE_COLLATION

SQLSTATE: 42P22

文字列操作に使用する照合順序を決定できませんでした。 COLLATE句を使用して、照合順序を明示的に設定します。

INDETERMINATE_COLLATION_IN_EXPRESSION

SQLSTATE: 42P22

<expr> のデータ型の照合順序が不確定です。COLLATE句を使用して、照合順序を明示的に設定します。

INDETERMINATE_COLLATION_IN_SCHEMA

SQLSTATE: 42P22

スキーマに不確定な照合順序が含まれています: [<columnPaths>] COLLATE句を使用して、照合順序を明示的に設定します。

INDEX_ALREADY_EXISTS

SQLSTATE: 42710

インデックス <indexName> は既に存在するため、テーブル <tableName> に作成できません。

INDEX_NOT_FOUND

SQLSTATE: 42704

テーブル <tableName>でインデックス<indexName>が見つかりません。

INFINITE_STREAMING_TRIGGER_NOT_SUPPORTED

SQLSTATE: 0A000

トリガーの種類 <trigger> は、このクラスターの種類ではサポートされていません。

別のトリガータイプを使用します。 今すぐ、一度だけ利用可能。

INSERT_COLUMN_ARITY_MISMATCH

SQLSTATE: 21S01

<tableName>に書き込めません。理由は

詳細については、 INSERT_COLUMN_ARITY_MISMATCH

INSERT_PARTITION_COLUMN_ARITY_MISMATCH

SQLSTATE: 21S01

<tableName>」に書き込めません、 <reason>:

テーブル列: <tableColumns>.

静的な値を持つパーティション列: <staticPartCols>.

データ列: <dataColumns>.

INSUFFICIENT_PERMISSIONS

SQLSTATE: 42501

権限が不十分です:

<report>

INSUFFICIENT_PERMISSIONS_EXT_LOC

SQLSTATE: 42501

ユーザー <user> には、外部ロケーション の <location>に対する十分な権限がありません。

INSUFFICIENT_PERMISSIONS_NO_OWNER

SQLSTATE: 42501

<securableName>の所有者はいません。管理者にオーナーの設定を依頼してください。

INSUFFICIENT_PERMISSIONS_OWNERSHIP_SECURABLE

SQLSTATE: 42501

ユーザーは <securableName>を所有していません。

INSUFFICIENT_PERMISSIONS_SECURABLE

SQLSTATE: 42501

ユーザーには<securableName>に対する<action>権限がありません。

INSUFFICIENT_PERMISSIONS_SECURABLE_PARENT_OWNER

SQLSTATE: 42501

<securableName>の所有者は、<parentSecurableName>の所有者とは異なります。

INSUFFICIENT_PERMISSIONS_STORAGE_CRED

SQLSTATE: 42501

ストレージ資格情報 <credentialName> に十分な特権がありません。

INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES

SQLSTATE: 42501

ユーザーは、基になるセキュリティ保護可能なリソースに対する権限のため、<securableName><action>できません。

INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES_VERBOSE

SQLSTATE: 42501

ユーザーは、基になるセキュリティ保護可能なリソースに対する権限のため、<securableName><action>できません。

<underlyingReport>

INTERVAL_ARITHMETIC_OVERFLOW

SQLSTATE:22015

インターバルでの操作中の整数オーバーフロー。

詳細については、 INTERVAL_ARITHMETIC_OVERFLOW

INTERVAL_DIVIDED_BY_ZERO

SQLSTATE: 22012

ゼロによる除算。 除数が 0 であることを許容し、代わりに NULL を返すには try_divide を使用します。

INVALID_AGGREGATE_FILTER

SQLSTATE: 42903

集約関数で<filterExpr>``FILTER式が無効です。

詳細については、 INVALID_AGGREGATE_FILTER

INVALID_ARRAY_INDEX

SQLSTATE: 22003

インデックス <indexValue> が範囲外です。 配列には <arraySize> つの要素があります。 SQL 関数 get() を使用して、無効なインデックスの要素へのアクセスを許容し、代わりに NULL を返します。

詳細については、 INVALID_ARRAY_INDEX

INVALID_ARRAY_INDEX_IN_ELEMENT_AT

SQLSTATE: 22003

インデックス <indexValue> が範囲外です。 配列には <arraySize> つの要素があります。 try_element_at を使用して、無効なインデックスで要素へのアクセスを許容し、代わりに NULL を返します。

詳細については、 INVALID_ARRAY_INDEX_IN_ELEMENT_AT

INVALID_ATTRIBUTE_NAME_SYNTAX

SQLSTATE: 42601

属性名の構文エラー: <name>。 バッククォートがペアで表示されること、引用符で囲まれた文字列が完全な名前部分であることを確認し、引用符で囲まれた名前部分の内側でのみバッククォートを使用します。

INVALID_AWS_AUTHENTICATION

SQLSTATE: 42000

次の認証方法のいずれかを選択してください。

  • Databricks サービスの資格情報 (<serviceCredential>) の名前を指定します (spark ストリーム オプションまたはクラスター環境変数として)。
  • AWS キーを使用するには、AWS AccessKey (<awsAccessKey>) と SecretAccessKey (<awsSecretKey>) の両方を指定します。
  • AWS キーも Databricks サービス認証情報も指定せず、Kinesis 認証にデフォルトの AWS 認証情報プロバイダーチェーンを使用します。

INVALID_AWS_AUTHENTICATION_EXPLICIT_OPTIONS

SQLSTATE: 42000

Databricks サービスの資格情報の名前 (<serviceCredential>) を入力してください

または、 <awsAccessKey><awsSecretKey>

INVALID_BITMAP_POSITION

SQLSTATE: 22003

0 インデックスのビットマップ位置 <bitPosition> が範囲外です。 ビットマップは <bitmapNumBits> ビット (<bitmapNumBytes> バイト) です。

INVALID_BOOLEAN_STATEMENT

SQLSTATE: 22546

Boolean ステートメントは条件で予期されていますが、<invalidStatement>が見つかりました。

INVALID_BOUNDARY

SQLSTATE: 22003

境界 <boundary> が無効です: <invalidValue>

詳細については、 INVALID_BOUNDARY

INVALID_BUCKET_COLUMN_DATA_TYPE

SQLSTATE: 42601

バケット列に <type> は使用できません。 照合されたデータ型は、バケット化ではサポートされていません。

INVALID_BUCKET_FILE

SQLSTATE: 58030

無効なバケット ファイル: <path>.

INVALID_BYTE_STRING

SQLSTATE: 22P03

想定される形式は ByteString ですが、 <unsupported> (<class>) でした。

INVALID_COLUMN_NAME_AS_PATH

SQLSTATE: 46121

データソース <datasource> 、ファイルパスで許可されていない文字が名前に含まれているため、列 <columnName> を保存できません。 エイリアスを使用して名前を変更してください。

INVALID_COLUMN_OR_FIELD_DATA_TYPE

SQLSTATE: 42000

列またはフィールド <name><type> 型ですが、 <expectedType>する必要があります。

INVALID_CONF_VALUE

SQLSTATE:22022

構成「<confName>」の値「<confValue>」が無効です。

詳細については、 INVALID_CONF_VALUE

INVALID_CORRUPT_RECORD_TYPE

SQLSTATE: 42804

破損したレコードの列 <columnName> は、NULL 許容 STRING 型である必要がありますが、 <actualType>を取得しました。

INVALID_CURRENT_RECIPIENT_USAGE

SQLSTATE: 42887

current_recipient function は、 CREATE VIEW ステートメントまたは ALTER VIEW ステートメントでのみ使用して、Unity Catalog で共有のみのビューを定義できます。

INVALID_CURSOR

SQLSTATE: HY109

カーソルが無効です。

詳細については、 INVALID_CURSOR

INVALID_DATETIME_PATTERN

SQLSTATE: 22007

認識できない日時パターン: <pattern>.

詳細については、 INVALID_DATETIME_PATTERN

INVALID_DEFAULT_VALUE

SQLSTATE: 42623

<statement>宛先列または変数<colName>DEFAULT値があるため、コマンドの実行に失敗しました <defaultValue>

詳細については、 INVALID_DEFAULT_VALUE

INVALID_DELIMITER_VALUE

SQLSTATE: 42602

区切り文字の値が無効です。

詳細については、 INVALID_DELIMITER_VALUE

INVALID_DEST_CATALOG

SQLSTATE: 42809

SYNC コマンドの宛先カタログは、 Unity Catalog内にある必要があります。 <catalog>見つかりました。

INVALID_DRIVER_MEMORY

SQLSTATE: F0000

システムメモリの <systemMemory> は、 <minSystemMemory>以上である必要があります。

–driver-memory オプションを使用するか、Spark 構成の「<config>」を使用してヒープサイズを増やしてください。

INVALID_DYNAMIC_OPTIONS

SQLSTATE: 42K10

<option_list>を渡すオプションは、フォーリンテーブル <table_name>では禁止されています。

INVALID_EMPTY_LOCATION

SQLSTATE: 42K05

場所の名前を空の文字列にすることはできませんが、 <location> が指定されました。

INVALID_ESC

SQLSTATE: 42604

無効なエスケープ文字列が見つかりました: <invalidEscape>。 エスケープ文字列には 1 文字のみを含める必要があります。

INVALID_ESCAPE_CHAR

SQLSTATE: 42604

EscapeChar 長さ 1 の文字列リテラルである必要がありますが、 <sqlExpr>.

INVALID_EXECUTOR_MEMORY

SQLSTATE: F0000

エグゼキューターのメモリ <executorMemory> は少なくとも <minSystemMemory>である必要があります。

–エグゼキューター-memoryオプションを使用するか、 Spark 構成で「<config>」を使用してエグゼキューターのメモリを増やしてください。

INVALID_EXPRESSION_ENCODER

SQLSTATE: 42001

無効な式エンコーダーが見つかりました。 ExpressionEncoder のインスタンスが必要ですが、 <encoderType>. 詳細については、「<docroot>/api/java/index.html?org/apache/spark/sql/Encoder.html」を参照してください。

INVALID_EXTERNAL_TYPE

SQLSTATE: 42K0N

外部型 <externalType> は、式 <expr>の型<type>に対して無効です。

INVALID_EXTRACT_BASE_FIELD_TYPE

SQLSTATE: 42000

<base>から値を抽出できません。複合型 [STRUCTARRAYMAP] が必要ですが、 <other>.

INVALID_EXTRACT_FIELD

SQLSTATE: 42601

<expr>から<field>を抽出できません。

INVALID_EXTRACT_FIELD_TYPE

SQLSTATE: 42000

フィールド名は null 以外の文字列リテラルである必要がありますが、 <extraction>.

INVALID_FIELD_NAME

SQLSTATE: 42000

フィールド名 <fieldName> が無効です: <path> 構造体ではありません。

INVALID_FORMAT

SQLSTATE: 42601

形式が無効です: <format>.

詳細については、 INVALID_FORMAT

INVALID_FRACTION_OF_SECOND

SQLSTATE: 22023 です。

秒の有効な範囲は [0, 60] (両端を含む) ですが、指定された値は <secAndMicros>です。 このエラーを回避するには、エラー時にNULLを返す try_make_timestampを使用します。

この関数のセッション・デフォルト・タイムスタンプ・バージョンを使用しない場合は、 try_make_timestamp_ntz または try_make_timestamp_ltzを使用します。

INVALID_HANDLE

SQLSTATE: HY000

ハンドル <handle> が無効です。

詳細については、 INVALID_HANDLE

INVALID_HTTP_REQUEST_METHOD

SQLSTATE: 22023 です。

input パラメーター: method, value: <paramValue> は、有効な HTTP メソッドではないため、http_request の有効なパラメーターではありません。

INVALID_HTTP_REQUEST_PATH

SQLSTATE: 22023 です。

入力パラメーター: path, value: <paramValue> は、パス探索が許可されていないため、http_request の有効なパラメーターではありません。

INVALID_IDENTIFIER

SQLSTATE: 42602

引用符で囲まれていない識別子 <ident> は無効であるため、次のようにバッククォートする必要があります: <ident>.

引用符で囲まれていない識別子には、 ASCII 文字 ('a' - 'z'、'A' - 'Z')、数字 ('0' - '9')、およびアンダーバー('_')のみを含めることができます。

引用符で囲まれていない識別子は、数字で始めることもできません。

異なるデータソースストアとメタストアは、有効な識別子に追加の制限を課す場合があります。

INVALID_INDEX_OF_ZERO

SQLSTATE: 22003

インデックス 0 は無効です。 インデックスは < 0 or > 0 のいずれかでなければなりません (最初の要素のインデックスは 1 です)。

INVALID_INLINE_TABLE

SQLSTATE: 42000

無効なインライン テーブルです。

詳細については、 INVALID_INLINE_TABLE

INVALID_INTERVAL_FORMAT

SQLSTATE: 22006

<input>」をインターバルに解析する際にエラーが発生しました。 指定された値が、間隔を定義するための有効な形式であることを確認してください。 正しい形式のドキュメントを参照できます。

詳細については、「 INVALID_INTERVAL_FORMAT

INVALID_INTERVAL_WITH_MICROSECONDS_ADDITION

SQLSTATE: 22006

マイクロ秒部分が 0 ではないため、日付に間隔を追加できません。必要に応じて、 <ansiConfig> を "false" に設定して、このエラーを回避します。

INVALID_INVERSE_DISTRIBUTION_FUNCTION

SQLSTATE: 42K0K

無効な逆分布関数 <funcName>.

詳細については、 INVALID_INVERSE_DISTRIBUTION_FUNCTION

INVALID_JAVA_IDENTIFIER_AS_FIELD_NAME

SQLSTATE: 46121

<fieldName> は Java の有効な識別子ではないため、フィールド名として使用することはできません

<walkedTypePath>.

INVALID_JOIN_TYPE_FOR_JOINWITH

SQLSTATE: 42613

joinWith の結合タイプが無効です: <joinType>.

INVALID_JSON_DATA_TYPE

SQLSTATE: 2203G

JSON 文字列 '<invalidType>' をデータ型に変換できませんでした。 有効なデータ型を入力してください。

INVALID_JSON_DATA_TYPE_FOR_COLLATIONS

SQLSTATE: 2203G

照合順序は文字列型にのみ適用できますが、JSON データ型は <jsonType>です。

INVALID_JSON_RECORD_TYPE

SQLSTATE: 22023 です。

モード <failFastMode>で共通のスキーマを推論しているときに、無効なタイプのJSONレコードを検出しました。 STRUCTタイプを期待していましたが、<invalidType>が見つかりました。

INVALID_JSON_ROOT_FIELD

SQLSTATE: 22032

JSON ルート フィールドをターゲット Spark タイプに変換できません。

INVALID_JSON_SCHEMA_MAP_TYPE

SQLSTATE: 22032

入力スキーマ<jsonSchema>には、MAPのキータイプとしてSTRINGのみを含めることができます。

INVALID_KRYO_SERIALIZER_BUFFER_SIZE

SQLSTATE: F0000

構成「<bufferSizeConfKey>」の値は2048MiB未満である必要がありますが、 <bufferSizeConfValue> MiBになりました。

INVALID_LABEL_USAGE

SQLSTATE: 42K0L

ラベル <labelName> の使用が無効です。

詳細については、 INVALID_LABEL_USAGE

INVALID_LAMBDA_FUNCTION_CALL

SQLSTATE: 42K0D

ラムダ関数呼び出しが無効です。

詳細については、 INVALID_LAMBDA_FUNCTION_CALL

INVALID_LATERAL_JOIN_TYPE

SQLSTATE: 42613

LATERAL相関を持つ <joinType> JOIN は、OUTER サブクエリがそのジョイン・パートナーと相関できないため、許可されません。LATERAL相関を削除するか、代わりに INNER JOIN または LEFT OUTER JOIN を使用します。

INVALID_LIMIT_LIKE_EXPRESSION

SQLSTATE: 42K0E

<expr> のような制限が無効です。

詳細については、「 INVALID_LIMIT_LIKE_EXPRESSION

INVALID_NON_ABSOLUTE_PATH

SQLSTATE: 22KD1

指定された非絶対パス <path> は修飾できません。 パスを有効な dbfs マウント・ロケーションに更新してください。

INVALID_NON_DETERMINISTIC_EXPRESSIONS

SQLSTATE: 42K0E

演算子は決定論的な式を期待していますが、実際の式は <sqlExprs>です。

INVALID_NUMERIC_LITERAL_RANGE

SQLSTATE: 22003

数値リテラル<rawStrippedQualifier>は、最小値が <minValue>、最大値が <maxValue><typeName> の有効範囲外です。それに応じて値を調整してください。

INVALID_OBSERVED_METRICS

SQLSTATE: 42K0E

観測されたメトリクスが無効です。

詳細については、 INVALID_OBSERVED_METRICS

INVALID_OPTIONS

SQLSTATE: 42K06

無効なオプション:

詳細については、 INVALID_OPTIONS

INVALID_PANDAS_UDF_PLACEMENT

SQLSTATE: 0A000

グループ集約 Pandas UDF <functionList>は、他の非Pandas 集約関数として一緒に呼び出すことはできません。

INVALID_PARAMETER_MARKER_VALUE

SQLSTATE: 22023 です。

無効なパラメーター マッピングが指定されました。

詳細については、 INVALID_PARAMETER_MARKER_VALUE

INVALID_PARAMETER_VALUE

SQLSTATE: 22023 です。

<functionName><parameter> パラメーターの値が無効です。

詳細については、 INVALID_PARAMETER_VALUE

INVALID_PARTITION_COLUMN_DATA_TYPE

SQLSTATE: 0A000

パーティション列に <type> は使用できません。

INVALID_PARTITION_OPERATION

SQLSTATE: 42601

partition コマンドが無効です。

詳細については、「 INVALID_PARTITION_OPERATION

INVALID_PARTITION_VALUE

SQLSTATE: 42846

パーティション列 <columnName>の値 <value> をデータ型 <dataType> にキャストできませんでした。値が、このパーティション列で想定されるデータ型と一致することを確認します。

INVALID_PIPELINE_ID

SQLSTATE: 42604

パイプライン ID <pipelineId> が無効です。

パイプライン ID は、「xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx」の形式の UUID である必要があります

INVALID_PRIVILEGE

SQLSTATE: 42852

特権 <privilege><securable>には無効です。

INVALID_PROPERTY_KEY

SQLSTATE: 42602

<key> は無効なプロパティキーです。引用符を使用してください。 SET <key>=<value>

INVALID_PROPERTY_VALUE

SQLSTATE: 42602

<value> は無効なプロパティ値です。引用符を使用してください。 SET <key>=<value>

INVALID_QUALIFIED_COLUMN_NAME

SQLSTATE: 42000

カラム名 <columnName> は、テーブル名で修飾されていないか、4 つ以上の名前パーツで構成されているため、無効です。

INVALID_QUERY_MIXED_QUERY_PARAMETERS

SQLSTATE: 42613

パラメーター化されたクエリでは、位置指定パラメーターまたは名前付きパラメーターを使用する必要がありますが、両方を使用することはできません。

INVALID_REGEXP_REPLACE

SQLSTATE: 22023 です。

ソース = "<source>"、パターン = "<pattern>"、置換 = "<replacement>"、位置 = <position>のregexp_replaceを実行できませんでした。

INVALID_RESET_COMMAND_FORMAT

SQLSTATE: 42000

想定される形式は、「RESET」または「RESET キー」です。 キーに特殊文字を含める場合は、引用符を使用してください (例: RESET key.

INVALID_S3_COPY_CREDENTIALS

SQLSTATE: 42501

COPY INTO 資格情報には、 AWS_ACCESS_KEYAWS_SECRET_KEYAWS_SESSION_TOKENを含める必要があります。

INVALID_SAVE_MODE

SQLSTATE: 42000

指定された保管モード・ <mode> が無効です。 有効な保存モードには、「追加」、「上書き」、「無視」、「エラー」、「エラーifexists」、および「デフォルト」があります。

INVALID_SCHEMA

SQLSTATE: 42K07

入力スキーマ <inputSchema> は有効なスキーマ文字列ではありません。

詳細については、 INVALID_SCHEMA

INVALID_SCHEMA_OR_RELATION_NAME

SQLSTATE: 42602

<name> は、テーブル/スキーマの有効な名前ではありません。 有効な名前には、アルファベット文字、数字、および _ のみが含まれます。

INVALID_SCHEME

SQLSTATE: 0AKUC

Unity カタログでは、デフォルトのファイル スキームとして <name> はサポートされていません。

INVALID_SECRET_LOOKUP

SQLSTATE: 22531

無効なシークレット検索:

詳細については、 INVALID_SECRET_LOOKUP

INVALID_SET_SYNTAX

SQLSTATE: 42000

想定される形式は、'SET'、'SET key'、または 'SET key=value' です。 キーに特殊文字を含める場合、または値にセミコロンを含める場合は、バッククォートを使用してください(例: SET key=value)。

INVALID_SHARED_ALIAS_NAME

SQLSTATE: 42601

<sharedObjectType>エイリアス名は、「schema.name」の形式にする必要があります。

INVALID_SINGLE_VARIANT_COLUMN

SQLSTATE: 42613

singleVariantColumn オプションは、ユーザー指定のスキーマも存在する場合は使用できません。

INVALID_SOURCE_CATALOG

SQLSTATE: 42809

ソース カタログは、SYNC コマンドの Unity Catalog 内にあってはなりません。 <catalog>見つかりました。

INVALID_SQL_ARG

SQLSTATE: 42K08

sql() の引数 <name> は無効です。SQL リテラル、または map()array()struct()などのコレクションコンストラクタ関数に置き換えることを検討してください。

INVALID_SQL_SYNTAX

SQLSTATE: 42000

無効な SQL 構文:

詳細については、INVALID_SQL_SYNTAXを参照してください

INVALID_STAGING_PATH_IN_STAGING_ACCESS_QUERY

SQLSTATE: 42604

ステージング <operation> クエリのステージングパスが無効です: <path>

INVALID_STATEMENT_FOR_EXECUTE_INTO

SQLSTATE: 07501

EXECUTE IMMEDIATEINTO 句はクエリに対してのみ有効ですが、指定されたステートメントはクエリではありません (<sqlString>

INVALID_STATEMENT_OR_CLAUSE

SQLSTATE: 42601

ステートメントまたは句 <operation> は無効です。

INVALID_SUBQUERY_EXPRESSION

SQLSTATE: 42823

無効なサブクエリ:

詳細については、 INVALID_SUBQUERY_EXPRESSION

INVALID_TARGET_FOR_ALTER_COMMAND

SQLSTATE: 42809

ALTER <commandTableType> ... <command><tableName>をサポートしていません。 代わりに ALTER <targetTableType> ... <command> をご利用ください。

INVALID_TARGET_FOR_SET_TBLPROPERTIES_COMMAND

SQLSTATE: 42809

ALTER <commandTableType> ... SET TBLPROPERTIES<tableName>をサポートしていません。 代わりに ALTER <targetTableType> ... SET TBLPROPERTIES をご利用ください。

INVALID_TEMP_OBJ_REFERENCE

SQLSTATE: 42K0F

タイプ <obj> の永続オブジェクト <objName> を作成できません。これは、タイプ <tempObj>の一時オブジェクト <tempObjName>を参照しているためです。一時オブジェクトを <tempObjName> 永続化するか、永続オブジェクト <objName> 一時オブジェクトにしてください。

INVALID_TIMESTAMP_FORMAT

SQLSTATE: 22000

指定されたタイムスタンプ <timestamp> 、予期される構文と一致しません <format>.

INVALID_TIMEZONE

SQLSTATE: 22009

タイムゾーン: <timeZone> は無効です。 タイムゾーンは、リージョンベースのゾーン ID またはゾーンオフセットのいずれかである必要があります。 地域 ID は、「America/Los_Angeles」のように「area/city」の形式にする必要があります。 ゾーンオフセットは、'(+|-)HH'、'(+|-)HH の形式で指定する必要があります' または '(+|-)HH:mm'、例: '-08'、'+01:00'、'-13:33:33' で、-18:00 から +18:00 の範囲内にある必要があります。 'Z' と 'UTC' は '+00:00' の同義語として受け入れられます。

INVALID_TIME_TRAVEL_SPEC

SQLSTATE: 42K0E

テーブルをタイムトラベルするときに、バージョンとタイムスタンプの両方を指定することはできません。

INVALID_TIME_TRAVEL_TIMESTAMP_EXPR

SQLSTATE: 42K0E

タイムトラベル タイムスタンプ式 <expr> が無効です。

詳細については、 INVALID_TIME_TRAVEL_TIMESTAMP_EXPR

INVALID_TYPED_LITERAL

SQLSTATE: 42604

入力されたリテラル <valueType> の値は無効です。: <value>.

INVALID_UDF_IMPLEMENTATION

SQLSTATE: 38000

関数 <funcName> は ScalarFunction または AggregateFunction を実装しません。

INVALID_UPGRADE_SYNTAX

SQLSTATE: 42809

<command> <supportedOrNot> ソース テーブルは Hive metastore にあり、宛先テーブルは Unity Catalogにあります。

INVALID_URL

SQLSTATE: 22P02

URL が無効です: <url>try_parse_url を使用して無効な URL を許容し、代わりに NULL を返します。

INVALID_USAGE_OF_STAR_OR_REGEX

SQLSTATE: 42000

<prettyName>での <elem> の無効な使用。

INVALID_UTF8_STRING

SQLSTATE: 22029

文字列に無効な UTF8 バイト シーケンスが見つかりました: <str>.

INVALID_UUID

SQLSTATE: 42604

入力 <uuidInput> は有効な UUID ではありません。

UUIDは「xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx」の形式である必要があります

UUIDの形式を確認してください。

INVALID_VARIABLE_DECLARATION

SQLSTATE: 42K0M

無効な変数宣言です。

詳細については、 INVALID_VARIABLE_DECLARATION

INVALID_VARIABLE_TYPE_FOR_QUERY_EXECUTE_IMMEDIATE

SQLSTATE: 42K09

変数の型は文字列型である必要がありますが、 <varType>.

INVALID_VARIANT_CAST

SQLSTATE: 22023 です。

バリアント値 <value><dataType>にキャストできません。 代わりに try_variant_get をご利用ください。

INVALID_VARIANT_FROM_PARQUET

SQLSTATE: 22023 です。

バリアントが無効です。

詳細については、「 INVALID_VARIANT_FROM_PARQUET

INVALID_VARIANT_GET_PATH

SQLSTATE: 22023 です。

パス <path> は、 <functionName>の有効なバリアント抽出パスではありません。

有効なパスは $ で始まり、その後に 0 個以上のセグメント ( [123].name['name']["name"]など) が続く必要があります。

INVALID_VARIANT_SHREDDING_SCHEMA

SQLSTATE: 22023 です。

スキーマ <schema> は有効なバリアント シュレッダ スキーマではありません。

INVALID_WHERE_CONDITION

SQLSTATE: 42903

WHERE条件<condition>に無効な式が含まれています: <expressionList>.

WHERE句でウィンドウ関数、集計関数、ジェネレータ関数を使用しないようにクエリを書き換えます。

INVALID_WINDOW_SPEC_FOR_AGGREGATION_FUNC

SQLSTATE: 42601

<aggFunc>ORDER BYまたはウィンドウ フレームは指定できません。

INVALID_WRITER_COMMIT_MESSAGE

SQLSTATE: 42KDE

データソース ライターが無効な数のコミット メッセージを生成しました。 各タスクから 1 つのライター コミット メッセージを受け取る必要がありましたが、 <detail>.

INVALID_WRITE_DISTRIBUTION

SQLSTATE: 42000

要求された書き込みディストリビューションは無効です。

詳細については、「 INVALID_WRITE_DISTRIBUTION

ISOLATED_COMMAND_FAILURE

SQLSTATE: 39000

<command>を実行できませんでした。コマンド出力:

<output>

ISOLATED_COMMAND_UNKNOWN_FAILURE

SQLSTATE: 39000

<command>を実行できませんでした。

JOIN_CONDITION_IS_NOT_BOOLEAN_TYPE

SQLSTATE: 42K0E

ジョイン条件 <joinCondition> に無効な型 <conditionType>があり、"BOOLEAN" が必要です。

Kafka

SQLSTATE: 22000

一部のデータは、Kafka で使用できなくなったために失われた可能性があります。

Kafka によってデータが期限切れになったか、トピックが

トピックが処理されました。

このような場合にストリーミング クエリが失敗しないようにするには、ソース オプション failOnDataLoss を false に設定します。

理由:

詳細については、Kafka

KINESIS_COULD_NOT_READ_SHARD_UNTIL_END_OFFSET

SQLSTATE: 22000

シャード<shardId>に必要なシーケンス番号が<endSeqNum>されるまで読み取れませんでした

Kinesis ストリーム <stream> とコンシューマーモード <consumerMode>. クエリは、次の理由で失敗します

データ損失の可能性。 最後に読み取られたレコードは、シーケンス番号 <lastSeqNum>でした。

これは、endSeqNum を持つデータがすでに期限切れになっている場合、または Kinesis ストリームが

削除され、同じ名前で再構築されます。 失敗時の動作は上書きできます

spark.databricks.kinesis.failOnDataLoss を設定する を false に設定します。

KINESIS_EFO_CONSUMER_NOT_FOUND

SQLSTATE: 51000

Kinesis ストリーム <streamId>の場合、以前に登録されたストリームの EFO コンシューマー <consumerId> が削除されました。

クエリを再起動して、新しいコンシューマーが登録されるようにします。

KINESIS_EFO_SUBSCRIBE_LIMIT_EXCEEDED

SQLSTATE: 51000

シャード <shard>の場合、subscribeToShard API の前の呼び出しは、次の呼び出しから 5 秒以内でした。

5 秒以上経ってからクエリを再開します。

KINESIS_FETCHED_SHARD_LESS_THAN_TRACKED_SHARD

SQLSTATE: 42K04

Kinesis からフェッチされた最小の shardId (<fetchedShardId>)

追跡される最小の shardId (<trackedShardId>) より小さい

これは予期しないことであり、Kinesis ストリームが削除され、同じ名前で再作成されたときに発生します。

この Kinesis ストリームを使用するストリーミングクエリは、既存のチェックポイントの場所を使用して再起動されます。

新しいチェックポイントの場所でストリーミング クエリを再起動するか、新しい名前でストリームを作成します。

KINESIS_POLLING_MODE_UNSUPPORTED

SQLSTATE: 0A000

Kinesis ポーリングモードはサポートされていません。

KINESIS_RECORD_SEQ_NUMBER_ORDER_VIOLATION

SQLSTATE: 22000

シャード <shard>の場合、以前のフェッチで Kinesis から読み取られた最後のレコードのシーケンス番号は <lastSeqNum>です。

これは、現在のフェッチで読み取られたレコード (シーケンス番号 <recordSeqNum>) よりも大きい値です。

これは予期しないことであり、再試行または次のフェッチの開始位置が正しく初期化されていない場合に発生する可能性があり、ダウンストリームでレコードが重複する可能性があります。

KINESIS_SOURCE_MUST_BE_IN_EFO_MODE_TO_CONFIGURE_CONSUMERS

SQLSTATE: 42KDF

コンシューマー設定 (consumerNameconsumerNamePrefix、または registeredConsumerId) を使用して Kinesis ストリーム から読み取るには、 consumerModeefoする必要があります。

KINESIS_SOURCE_MUST_SPECIFY_REGISTERED_CONSUMER_ID_AND_TYPE

SQLSTATE: 42KDF

登録されたコンシューマーを使用してストリーム Kinesis 読み取るには、registeredConsumerId オプションと registeredConsumerIdType オプションの両方を指定する必要があります。

KINESIS_SOURCE_MUST_SPECIFY_STREAM_NAMES_OR_ARNS

SQLSTATE: 42KDF

Kinesisストリームから読み取るには、streamName または streamARN オプションのいずれか (両方ではない) を、ストリーム名/ARNsのコンマ区切りリストとして構成する必要があります。

KINESIS_SOURCE_NO_CONSUMER_OPTIONS_WITH_REGISTERED_CONSUMERS

SQLSTATE: 42KDF

登録済みのコンシューマーを使用してストリーム Kinesis 読み取るには、consumerName または consumerNamePrefix オプションは有効になりないため、構成しないでください。

KINESIS_SOURCE_REGISTERED_CONSUMER_ID_COUNT_MISMATCH

SQLSTATE: 22023 です。

登録されたコンシューマー ID の数は、Kinesis ストリームの数と等しくなければなりませんが、 <numConsumerIds> つのコンシューマー ID と <numStreams> ストリームを取得しました。

KINESIS_SOURCE_REGISTERED_CONSUMER_NOT_FOUND

SQLSTATE: 22023 です。

指定された登録済みコンシューマー <consumerId> が streamARN <streamARN>で見つかりません。 コンシューマを登録したか、 registeredConsumerId オプションを提供していないことを確認します。

KINESIS_SOURCE_REGISTERED_CONSUMER_TYPE_INVALID

SQLSTATE: 22023 です。

登録されているコンシューマ・タイプ <consumerType> が無効です。 name または ARNのいずれかである必要があります。

KRYO_BUFFER_OVERFLOW

SQLSTATE: 54006

Kryo のシリアル化に失敗しました: <exceptionMsg>. これを回避するには、「<bufferSizeConfKey>」の値を増やします。

LABELS_MISMATCH

SQLSTATE: 42K0L

開始ラベル <beginLabel> が終了ラベル <endLabel>と一致しません。

LABEL_ALREADY_EXISTS

SQLSTATE: 42K0L

ラベル <label> はすでに存在します。 別の名前を選択するか、既存のラベルの名前を変更します。

LOAD_DATA_PATH_NOT_EXISTS

SQLSTATE: 42K03

LOAD DATA 入力パスが存在しません: <path>.

LOCAL_MUST_WITH_SCHEMA_FILE

SQLSTATE: 42601

LOCAL fileのスキーマと一緒に使用する必要がありますが、次のようになります<actualSchema>

LOCATION_ALREADY_EXISTS

SQLSTATE: 42710

マネージドテーブルには、関連付けられたロケーション<location>すでに存在するため、<identifier>という名前を付けることはできません。別のテーブル名を選択するか、既存の場所を先に削除してください。

LOST_TOPIC_PARTITIONS_IN_END_OFFSET_WITH_TRIGGER_AVAILABLENOW

SQLSTATE: KD000

Kafka トピック内の一部のパーティションが、Trigger.AvailableNow を使用したクエリの実行中に失われました。 エラーは一時的なものである可能性があります - クエリを再開し、同じ問題がまだ発生する場合は報告してください。

最新のオフセットの topic-partitions: <tpsForLatestOffset>、終了オフセットの topic-partitions: <tpsForEndOffset>

MALFORMED_AVRO_MESSAGE

SQLSTATE: KD000

不正な形式の Avro メッセージは、メッセージの逆シリアル化で検出されます。 解析 Mode: <mode>. 不正な形式の Avro メッセージを null 結果として処理するには、オプション 'mode' を 'PERMISSIVE' に設定してみてください。

MALFORMED_CHARACTER_CODING

SQLSTATE: 22000

<function>を実行すると無効な値が見つかりました <charset>

MALFORMED_CSV_RECORD

SQLSTATE: KD000

不正な形式の CSV レコード: <badRecord>

MALFORMED_RECORD_IN_PARSING

SQLSTATE: 22023 です。

レコードの解析で不正なレコードが検出されます: <badRecord>.

解析 Mode: <failFastMode>. 不正な形式のレコードを NULL 結果として処理するには、オプション 'mode' を 'PERMISSIVE' に設定してみてください。

詳細については、 MALFORMED_RECORD_IN_PARSING

MALFORMED_VARIANT

SQLSTATE: 22023 です。

バリアント バイナリの形式が正しくありません。 データソースが有効であることを確認してください。

MANAGED_TABLE_WITH_CRED

SQLSTATE: 42613

ストレージ資格情報を使用したマネージドテーブルの作成はサポートされていません。

MATERIALIZED_VIEW_MESA_REFRESH_WITHOUT_PIPELINE_ID

SQLSTATE: 55019

具体化されたビューは、pipelineId を持つよりも前の日付であるため、 <refreshType> できません。 <refreshType>を有効にするには、マテリアライズドビューをドロップして再作成してください。

MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED

SQLSTATE: 56038

具体化ビュー (Materialized View) の操作 <operation> は許可されません。

詳細については、 MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED

MATERIALIZED_VIEW_OUTPUT_WITHOUT_EXPLICIT_ALIAS

SQLSTATE: 0A000

具体化されたビューの出力式 <expression> は、明示的にエイリアス化されている必要があります。

MATERIALIZED_VIEW_OVER_STREAMING_QUERY_INVALID

SQLSTATE: 42000

マテリアライズドビュー <name> ストリーミングクエリで作成できませんでした。 CREATE [OR REFRESH] <st>を使用するか、FROM 句の STREAM キーワードを削除して、このリレーションをバッチクエリに変換してください。

MATERIALIZED_VIEW_UNSUPPORTED_OPERATION

SQLSTATE: 0A000

オペレーション <operation> は、現在、マテリアライズド・ビューではサポートされていません。

MAX_NUMBER_VARIABLES_IN_SESSION_EXCEEDED

SQLSTATE: 54KD1

セッション内の変数の数が最大許容数 (<maxNumVariables>) を超えているため、新しい変数 <variableName> を作成できません。

MAX_RECORDS_PER_FETCH_INVALID_FOR_KINESIS_SOURCE

SQLSTATE: 22023 です。

maxRecordsPerFetch は、以下以下の正の整数である必要があります。 <kinesisRecordLimit>

MERGE_CARDINALITY_VIOLATION

SQLSTATE: 23K01

MERGE文のON探索条件は、ターゲット表の 1 つのローとソース表の複数のローと一致しました。

これにより、ターゲット行が更新操作または削除操作で複数回操作される可能性があり、許可されません。

MERGE_WITHOUT_WHEN

SQLSTATE: 42601

MERGE ステートメントには、少なくとも 1 つの WHEN 句が必要です。

メトリクス

SQLSTATE: 0A000

METRIC CONSTRAINT は有効になっていません。

メトリクス

SQLSTATE: 22023 です。

指定された値 "<argValue>" は、METRIC_STORE table 関数の引数 "<argName>" ではサポートされていません。

詳細については、「メトリクス」を参照してください。

メトリクス

SQLSTATE: 56038

この環境では、現在、ストア ルーチン <routineName> は無効になっています。

メトリクス

SQLSTATE: 42K0E

メトリクス・ビューでは、キャッシュ・テーブルを使用できません。

メトリクス

SQLSTATE: 42K0E

メトリクスビュー機能は無効です。 「spark.databricks.sql.metricView.enabled」がtrueに設定されていることを確認してください。

メトリクス

SQLSTATE: 42K0E

MEASURE() 関数は、入力として属性のみを取りますが、 <expr>

メトリクス

SQLSTATE: 42K0E

CTE 定義では、メトリクス ビューは許可されません。 計画: <plan>

メトリクス

SQLSTATE: 42K0E

メトリクスビューでは、結合を使用できません。 計画: <plan>

メトリクス

SQLSTATE: 42K0E

メトリクスビューの measure 列 <column> を使用するには、結果を生成するために MEASURE() 関数が必要です。

メトリクス

SQLSTATE: 42K0E

メトリクス ビューの使用はサポートされていません。 計画: <plan>

メトリクス

SQLSTATE: 42K0E

メトリクス ビューでは、ウィンドウ関数 <expr>を使用することはできません。

MIGRATION_NOT_SUPPORTED

SQLSTATE: 42601

<table> は、 <tableKind> テーブルではないため、マネージドテーブルへの移行はサポートされていません。

MISMATCHED_TOPIC_PARTITIONS_BETWEEN_END_OFFSET_AND_PREFETCHED

SQLSTATE: KD000

Trigger.AvailableNow の Kafka データソースは、各マイクロバッチの終了オフセットに、同じトピックパーティションを事前にフェッチしたオフセットで提供する必要があります。 エラーは一時的なものである可能性があります - クエリを再開し、同じ問題がまだ発生する場合は報告してください。

プリフェッチされたオフセットの topic-partitions: <tpsForPrefetched>、終了オフセットの topic-partitions: <tpsForEndOffset>.

MISSING_AGGREGATION

SQLSTATE: 42803

非集計式 <expression> は、 GROUP BY 句に参加していない列に基づいています。

列または式を GROUP BYに追加するか、式を集計するか、グループ内のどの値が返されるかを気にしない場合は <expressionAnyValue> を使用します。

詳細については、 MISSING_AGGREGATION

MISSING_CLAUSES_FOR_OPERATION

SQLSTATE: 42601

操作 <operation>の節 <clauses> がありません。必要な条項を追加してください。

MISSING_CONNECTION_OPTION

SQLSTATE: 42000

タイプ '<connectionType>' の接続には、次のオプションを含める必要があります。 <requiredOptions>.

MISSING_DATABASE_FOR_V1_SESSION_CATALOG

SQLSTATE: 3F000

データベース名が v1 セッション・カタログに指定されていません。 v1 カタログを操作するときは、有効なデータベース名を指定してください。

MISSING_GROUP_BY

SQLSTATE: 42803

クエリに GROUP BY 句が含まれていません。 GROUP BYを追加するか、OVER 句を使用してウィンドウ関数に変換します。

MISSING_NAME_FOR_CHECK_CONSTRAINT

SQLSTATE: 42000

CHECK 制約には名前が必要です。

MISSING_PARAMETER_FOR_KAFKA

SQLSTATE: 42KDF

Kafka にはパラメーター <parameterName> が必要ですが、 <functionName>では指定されていません。

MISSING_PARAMETER_FOR_ROUTINE

SQLSTATE: 42KDF

パラメーター ( <parameterName> ) は必須ですが、 <functionName>では指定されていません。

MISSING_SCHEDULE_DEFINITION

SQLSTATE: 42000

スケジュール定義は、 SCHEDULEに従って指定する必要があります。

MISSING_TIMEOUT_CONFIGURATION

SQLSTATE: HY000

操作はタイムアウトしましたが、タイムアウト期間は構成されていません。 処理時間ベースのタイムアウトを設定するには、「mapGroupsWithState」または「flatMapGroupsWithState」操作で「GroupState.setTimeoutDuration()」を使用します。 イベント時間ベースのタイムアウトの場合は、「GroupState.setTimeoutTimestamp()」を使用します そして、'データセット.withWatermark()' を使用してウォーターマークを定義します。

MISSING_WINDOW_SPECIFICATION

SQLSTATE: 42P20

ウィンドウの指定は、 <windowName>WINDOW 句では定義されていません。WINDOW句の詳細については、「<docroot>/sql-ref-syntax-qry-select-window.html」を参照してください。

MODIFY_BUILTIN_CATALOG

SQLSTATE: 42832

組み込みカタログ <catalogName> の変更はサポートされていません。

MULTIPLE_LOAD_PATH

SQLSTATE: 42000

Databricks Delta は、load() API で複数の入力パスをサポートしていません。

パス: <pathList>。 読み込みによって 1 つの DataFrame を構築するには

同じDeltaテーブルから複数のパスをロードしてください。ルートパスをロードしてください

対応するパーティション フィルターを持つ Delta テーブル。 複数のパス

異なる Delta テーブルからのものである場合は、データセットのunion()/unionByName()を使用してください APIs

を使用して、別々の load() 呼び出しによって生成されたDataFramesAPI を結合します。

MULTIPLE_MATCHING_CONSTRAINTS

SQLSTATE: 42891

指定された条件に一致する制約が少なくとも 2 つ見つかりました。

MULTIPLE_QUERY_RESULT_CLAUSES_WITH_PIPE_OPERATORS

SQLSTATE: 42000

<clause1> また <clause2> '|>' を使用して同じ SQL パイプ演算子に共存することはできません。 複数の result 句を別々のパイプ演算子に分割してから、クエリを再試行してください。

MULTIPLE_TIME_TRAVEL_SPEC

SQLSTATE: 42K0E

タイムトラベル節とオプションの両方でタイムトラベルを指定することはできません。

MULTIPLE_XML_DATA_SOURCE

SQLSTATE: 42710

<provider> (<sourceNames>) という名前の複数のデータソースを検出しました。完全修飾クラス名を指定するか、クラスパスから <externalSource> を削除してください。

MULTI_ALIAS_WITHOUT_GENERATOR

SQLSTATE: 42K0E

マルチパート エイリアシング (<names>) は、ジェネレータ機能ではないため、 <expr> ではサポートされていません。

MULTI_SOURCES_UNSUPPORTED_FOR_EXPRESSION

SQLSTATE: 42K0E

<expr> は、複数のソースをサポートしていません。

MULTI_UDF_INTERFACE_ERROR

SQLSTATE: 0A000

複数の UDF インターフェイスを実装することは許可されていません。UDF クラス <className>は .

MUTUALLY_EXCLUSIVE_CLAUSES

SQLSTATE: 42613

相互に排他的な句またはオプション <clauses>. これらの条項のいずれかを削除してください。

MV_ST_ALTER_QUERY_INCORRECT_BACKING_TYPE

SQLSTATE: 42601

入力クエリは <expectedType>を想定していますが、基になるテーブルは <givenType>です。

NAMED_PARAMETERS_NOT_SUPPORTED

SQLSTATE: 4274K

名前付きパラメーターは、関数 <functionName>ではサポートされていません。代わりに、関数呼び出しへの位置引数を使用してクエリを再試行してください。

NAMED_PARAMETERS_NOT_SUPPORTED_FOR_SQL_UDFS

SQLSTATE: 0A000

名前付き引数の参照がサポートされていないため、関数 <functionName> を呼び出すことができません。 この場合、名前付き引数の参照は <argument>です。

NAMED_PARAMETER_SUPPORT_DISABLED

SQLSTATE: 0A000

ここでは名前付き引数の参照が有効になっていないため、関数 <functionName> を呼び出すことができません。

この場合、名前付き引数の参照は <argument>です。

"spark.sql.allowNamedFunctionArguments" を "true" に設定して、機能を有効にします。

NAMESPACE_ALREADY_EXISTS

SQLSTATE: 42000

ネームスペース <nameSpaceName> は既に存在するため、作成できません。

別の名前を選択するか、既存の名前空間を削除するか、既存の名前空間を許容する IF NOT EXISTS 句を追加します。

NAMESPACE_NOT_EMPTY

SQLSTATE: 42000

名前空間 <nameSpaceNameName> にはオブジェクトが含まれているため、名前空間を削除できません。

DROP NAMESPACE ... CASCADE を使用して、名前空間とそのすべてのオブジェクトを削除します。

NAMESPACE_NOT_FOUND

SQLSTATE: 42000

ネームスペース <nameSpaceName> 見つかりません。 名前空間のスペルと正確性を確認します。

で名前を修飾しなかった場合、current_schema() 出力を確認するか、名前を正しく修飾します。

ドロップ時のエラーを許容するには、 DROP NAMESPACE IF EXISTS.

NATIVE_IO_ERROR

SQLSTATE: KD00F

ネイティブ要求が失敗しました。 requestId: <requestId>、クラウド: <cloud>、操作: <operation>

リクエスト: [https: <https>, method = <method>, path = <path>, params = <params>, host = <host>, headers = <headers>, bodyLen = <bodyLen>],

エラー: <error>

NATIVE_XML_DATA_SOURCE_NOT_ENABLED

SQLSTATE: 56038

このクラスターでは、ネイティブ XML データソースは有効になっていません。

NEGATIVE_VALUES_IN_FREQUENCY_EXPRESSION

SQLSTATE: 22003

<frequencyExpression>: <negativeValue>で負の値を見つけましたが、正の整数値を期待していました。

NESTED_AGGREGATE_FUNCTION

SQLSTATE: 42607

別の集約関数の引数に集約関数を使用することはできません。 サブクエリでは内部集計関数を使用してください。

NESTED_EXECUTE_IMMEDIATE

SQLSTATE: 07501

ネストされた EXECUTE IMMEDIATE コマンドは許可されません。 指定された SQL クエリ (<sqlString>) に別の EXECUTE IMMEDIATE コマンドが含まれていないことを確認してください。

NONEXISTENT_FIELD_NAME_IN_LIST

SQLSTATE: HV091

フィールド <nonExistFields> 存在しません。 使用可能なフィールド: <fieldNames>

NON_FOLDABLE_ARGUMENT

SQLSTATE: 42K08

関数 <funcName> では、パラメーター <paramName><paramType>型の折り畳み式である必要がありますが、実際の引数は折りたたみ不可です。

NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION

SQLSTATE: 42613

MERGE ステートメントに複数の MATCHED 句がある場合、条件を省略できるのは最後の MATCHED 句だけです。

NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION

SQLSTATE: 42613

MERGE ステートメントに複数の NOT MATCHED BY SOURCE 句がある場合、条件を省略できるのは最後の NOT MATCHED BY SOURCE 句だけです。

NON_LAST_NOT_MATCHED_BY_TARGET_CLAUSE_OMIT_CONDITION

SQLSTATE: 42613

MERGE ステートメントに NOT MATCHED [BY TARGET] 句が複数ある場合、条件を省略できるのは最後の NOT MATCHED [BY TARGET] 句だけです。

NON_LITERAL_PIVOT_VALUES

SQLSTATE: 42K08

ピボット値に必要なリテラル式は、 <expression>.

NON_PARTITION_COLUMN

SQLSTATE: 42000

PARTITION 句には、パーティション以外の列 ( <columnName>) を含めることはできません。

NON_TIME_WINDOW_NOT_SUPPORTED_IN_STREAMING

SQLSTATE: 42KDE

ウィンドウ関数は、ストリーミング DataFrames/データセットの <windowFunc> (列 <columnName>) ではサポートされていません。

構造化ストリーミングは、 WINDOW 関数を使用した時間枠の集計のみをサポートします。 (ウィンドウ仕様: <windowSpec>)

NOT_ALLOWED_IN_FROM

SQLSTATE: 42601

FROM句では使用できません。

詳細については、NOT_ALLOWED_IN_FROMを参照してください

NOT_ALLOWED_IN_PIPE_OPERATOR_WHERE

SQLSTATE: 42601

パイプ WHERE 句では許可されていません。

詳細については、「 NOT_ALLOWED_IN_PIPE_OPERATOR_WHERE

NOT_A_CONSTANT_STRING

SQLSTATE: 42601

ルーチンまたは句<name>に使用する式<expr>は、NOT NULLである定数STRINGである必要があります。

詳細については、 NOT_A_CONSTANT_STRING

NOT_A_PARTITIONED_TABLE

SQLSTATE: 42809

操作 <operation> はパーティション・テーブルではないため、 <tableIdentWithDB> では許可されません。

NOT_A_SCALAR_FUNCTION

SQLSTATE: 42887

<functionName> ここではスカラー式として表示されますが、関数はテーブル関数として定義されています。 クエリを更新して関数呼び出しを FROM 句に移動するか、代わりに <functionName> をスカラー関数として再定義してください。

NOT_A_TABLE_FUNCTION

SQLSTATE: 42887

<functionName> ここではテーブル関数として表示されていますが、この関数はスカラー関数として定義されています。 クエリを更新して、関数呼び出しを FROM 句の外側に移動するか、代わりに <functionName> をテーブル関数として再定義してください。

NOT_NULL_ASSERT_VIOLATION

SQLSTATE: 42000

NULL 値が非null許容フィールドに現れました: <walkedTypePath>スキーマが Scala タプル/ケースクラス、または Java Beanから推論される場合は、 Scalaを使用してみてください。Option[_] またはその他の null 許容型 (int/Scalaの代わりに java.lang.Integer など)Int) です。

NOT_NULL_CONSTRAINT_VIOLATION

SQLSTATE: 42000

ここでは、 NULL を割り当てることはできません。

詳細については、 NOT_NULL_CONSTRAINT_VIOLATION

NOT_SUPPORTED_CHANGE_COLUMN

SQLSTATE: 0A000

ALTER TABLE ALTER/CHANGE COLUMN は、<table><originType> の列<originName><newType><newName>に変更することはサポートされていません。

NOT_SUPPORTED_COMMAND_FOR_V2_TABLE

SQLSTATE: 0A000

<cmd> は v2 テーブルではサポートされていません。

NOT_SUPPORTED_COMMAND_WITHOUT_HIVE_SUPPORT

SQLSTATE: 0A000

<cmd> はサポートされていませんので、有効にする場合は「spark.sql.catalogImplementation」を「hive」に設定してください。

NOT_SUPPORTED_IN_JDBC_CATALOG

SQLSTATE: 0A000

JDBC カタログでサポートされていないコマンド:

詳細については、 NOT_SUPPORTED_IN_JDBC_CATALOG

NOT_SUPPORTED_WITH_DB_SQL

SQLSTATE: 0A000

<operation> は SQL <endpoint>ではサポートされていません。

NOT_SUPPORTED_WITH_SERVERLESS

SQLSTATE: 0A000

<operation> は、サーバレス コンピュートではサポートされていません。

NOT_UNRESOLVED_ENCODER

SQLSTATE: 42601

未解決のエンコーダーが必要ですが、 <attr> 見つかりませんでした。

NO_DEFAULT_COLUMN_VALUE_AVAILABLE

SQLSTATE: 42608

<colName> は null 許容ではなく、デフォルト値がないため、デフォルト値を特定できません。

NO_HANDLER_FOR_UDAF

SQLSTATE: 42000

UDAF '<functionName>' のハンドラはありません。 sparkSession.udf.登録する(...) その代わりに。

NO_MERGE_ACTION_SPECIFIED

SQLSTATE: 42K0E

df.mergeInto の後には、少なくとも whenMatched/whenNotMatched/whenNotMatchedBySource のいずれかが続く必要があります。

NO_PARENT_EXTERNAL_LOCATION_FOR_PATH

SQLSTATE: 割り当てられていない

パス '<path>' の親外部ロケーションが見つかりませんでした。 親パスの 1 つに外部ロケーションを作成してから、クエリまたはコマンドを再試行してください。

NO_SQL_TYPE_IN_PROTOBUF_SCHEMA

SQLSTATE: 42S22

Protobuf スキーマで <catalystFieldPath> 見つかりません。

NO_STORAGE_LOCATION_FOR_TABLE

SQLSTATE: 割り当てられていない

テーブル資格情報の生成時に、テーブル '<tableId>' の格納場所が見つかりませんでした。 テーブルの種類とテーブルの場所の URL を確認してから、クエリまたはコマンドを再試行してください。

NO_SUCH_CATALOG_EXCEPTION

SQLSTATE: 42704

カタログ '<catalog>' が見つかりませんでした。 カタログ名を確認してから、クエリまたはコマンドを再試行してください。

NO_SUCH_CLEANROOM_EXCEPTION

SQLSTATE: 割り当てられていない

クリーンルーム「<cleanroom>」は存在しません。 クリーンルーム名のスペルが正しいこと、および有効な既存のクリーンルームの名前と一致していることを確認してから、クエリまたはコマンドを再試行してください。

NO_SUCH_EXTERNAL_LOCATION_EXCEPTION

SQLSTATE: 割り当てられていない

外部ロケーション '<externalLocation>' は存在しません。 外部ロケーション名が正しいことを確認してから、クエリまたはコマンドを再試行してください。

NO_SUCH_METASTORE_EXCEPTION

SQLSTATE: 割り当てられていない

メタストアが見つかりませんでした。 アカウント管理者に依頼して、現在のワークスペースにメタストアを割り当ててから、クエリまたはコマンドを再試行してください。

NO_SUCH_PROVIDER_EXCEPTION

SQLSTATE: 割り当てられていない

共有プロバイダ '<providerName>' は存在しません。 共有プロバイダー名のスペルが正しく、有効な既存のプロバイダー名の名前と一致していることを確認してから、クエリまたはコマンドを再試行してください。

NO_SUCH_RECIPIENT_EXCEPTION

SQLSTATE: 割り当てられていない

受信者 '<recipient>' は存在しません。 受信者の名前のスペルが正しく、有効な既存の受信者の名前と一致していることを確認してから、クエリまたはコマンドを再試行してください。

NO_SUCH_SHARE_EXCEPTION

SQLSTATE: 割り当てられていない

共有 '<share>' は存在しません。 共有名のスペルが正しいこと、および有効な既存の共有の名前と一致していることを確認してから、クエリまたはコマンドを再試行してください。

NO_SUCH_STORAGE_CREDENTIAL_EXCEPTION

SQLSTATE: 割り当てられていない

ストレージ資格情報 '<storageCredential>' が存在しません。 ストレージ資格情報の名前のスペルが正しいこと、および有効な既存のストレージ資格情報の名前と一致していることを確認してから、クエリまたはコマンドを再試行してください。

NO_SUCH_USER_EXCEPTION

SQLSTATE: 割り当てられていない

ユーザー '<userName>' は存在しません。 権限を付与するユーザー、または所有権を変更するユーザーのスペルが正しく、有効な既存のユーザーの名前と一致していることを確認してから、クエリまたはコマンドを再試行してください。

NO_UDF_INTERFACE

SQLSTATE: 38000

UDF クラス <className> は UDF インターフェイスを実装していません。

NULLABLE_COLUMN_OR_FIELD

SQLSTATE: 42000

列またはフィールド <name> は null 許容ですが、null 非許容である必要があります。

NULLABLE_ROW_ID_ATTRIBUTES

SQLSTATE: 42000

ロー ID 属性を NULL 可能にすることはできません ( <nullableRowIdAttrs>)。

NULL_DATA_SOURCE_OPTION

SQLSTATE: 22024 です。

データソースの読み取り/書き込みオプション <option> は NULL 値を持つことはできません。

NULL_MAP_KEY

SQLSTATE: 2200E

マップキーとしてnullを使用することはできません。

NULL_QUERY_STRING_EXECUTE_IMMEDIATE

SQLSTATE: 22004

「即時実行」では、クエリ文字列として null 以外の変数が必要ですが、指定された変数 <varName> は null です。

NUMERIC_OUT_OF_SUPPORTED_RANGE

SQLSTATE: 22003

<value> は 38 桁を超えているため、数値として解釈できません。

NUMERIC_VALUE_OUT_OF_RANGE

SQLSTATE: 22003

詳細については、 NUMERIC_VALUE_OUT_OF_RANGE

NUM_COLUMNS_MISMATCH

SQLSTATE: 42826

<operator> 同じ列数の入力に対してのみ実行できますが、最初の入力には <firstNumColumns> 列があり、 <invalidOrdinalNum> 入力には <invalidNumColumns> 列があります。

NUM_TABLE_VALUE_ALIASES_MISMATCH

SQLSTATE: 42826

指定されたエイリアスの数が出力カラムの数と一致しません。

関数名: <funcName>;エイリアスの数: <aliasesNum>;出力カラムの数: <outColsNum>.

OAUTH_CUSTOM_IDENTITY_CLAIM_NOT_PROVIDED

SQLSTATE: 22KD2

カスタム ID 要求は提供されませんでした。

ONLY_SECRET_FUNCTION_SUPPORTED_HERE

SQLSTATE: 42K0E

この<location>では、関数 の <functionName> の呼び出しはサポートされていません。<supportedFunctions>ここでサポートされています。

ONLY_SUPPORTED_WITH_UC_SQL_CONNECTOR

SQLSTATE: 0A000

SQL 操作 <operation> は、Unity Catalog がサポートされている Databricks SQL コネクタでのみサポートされます。

OPERATION_CANCELED

SQLSTATE: HY008

運航は中止となりました。

OPERATION_REQUIRES_UNITY_CATALOG

SQLSTATE: 0AKUD

操作 <operation> では、Unity Catalog が有効になっている必要があります。

OP_NOT_SUPPORTED_READ_ONLY

SQLSTATE: 42KD1

<plan> は、読み取り専用セッション モードではサポートされていません。

ORDER_BY_POS_OUT_OF_RANGE

SQLSTATE: 42805

ORDER BY 位置 <index> が選択リストにありません (有効な範囲は [1, <size>] です)。

PARQUET_CONVERSION_FAILURE

SQLSTATE: 42846

Parquet タイプが <parquetType>であるデータタイプ <dataType> の Parquet コンバーターを作成できません。

詳細については、 PARQUET_CONVERSION_FAILURE

PARQUET_TYPE_ILLEGAL

SQLSTATE: 42846

不正な Parquet タイプ: <parquetType>

PARQUET_TYPE_NOT_RECOGNIZED

SQLSTATE: 42846

認識されない Parquet タイプ:<field>

PARQUET_TYPE_NOT_SUPPORTED

SQLSTATE: 42846

まだサポートされていないParquetタイプ: <parquetType>

PARSE_EMPTY_STATEMENT

SQLSTATE: 42617

構文エラー、予期しない空のステートメント。

PARSE_MODE_UNSUPPORTED

SQLSTATE: 42601

関数 <funcName><mode> モードをサポートしていません。 使用できるモードは PERMISSIVEFAILFASTです。

PARSE_SYNTAX_ERROR

SQLSTATE: 42601

構文エラーが <error> <hint>またはその近くにあります。

PARTITIONS_ALREADY_EXIST

SQLSTATE:428フィート

テーブル <tableName> のパーティション<partitionList>は既に存在するため、ADD または TO RENAMEできません。

別の名前を選択するか、既存のパーティションを削除するか、既存のパーティションを許容するように IF NOT EXISTS 句を追加します。

PARTITIONS_NOT_FOUND

SQLSTATE:428フィート

パーティション <partitionList> がテーブル <tableName>に見つかりません。

パーティションの仕様とテーブル名を確認します。

ドロップ時のエラーを許容するには、 ALTER TABLE ... DROP IF EXISTS PARTITIONを使用します。

PARTITION_COLUMN_NOT_FOUND_IN_SCHEMA

SQLSTATE: 42000

パーティション列 <column> スキーマ <schema>に見つかりません。 パーティション分割用の既存の列を指定してください。

PARTITION_LOCATION_ALREADY_EXISTS

SQLSTATE: 42K04

パーティションの場所 <locationPath> は、テーブル <tableName>にすでに存在しています。

PARTITION_LOCATION_IS_NOT_UNDER_TABLE_DIRECTORY

SQLSTATE: 42KD5

ALTER TABLE SET PARTITION LOCATION ステートメントの実行に失敗しました。次の理由により、

パーティションの場所 <location> がテーブルディレクトリ <table>の下にありません。

これを修正するには、パーティションの場所を <table>のサブディレクトリに設定してください。

PARTITION_METADATA

SQLSTATE: 0AKUC

<action> は、パーティション メタデータの格納が Unity Catalog でサポートされていないため、テーブル <tableName> では許可されません。

PARTITION_NUMBER_MISMATCH

SQLSTATE: KD009

値の数 (<partitionNumber>) がスキーマ サイズと一致しませんでした (<partitionSchemaSize>: 値は <partitionValues>です、スキーマは <partitionSchema>です、ファイル パスは <urlEncodedPath>です。

テーブルを再マテリアライズするか、オーナーにご連絡ください。

PARTITION_TRANSFORM_EXPRESSION_NOT_IN_PARTITIONED_BY

SQLSTATE: 42S23

<expression> は 'partitionedBy' 内になければなりません。

PATH_ALREADY_EXISTS

SQLSTATE: 42K04

パス <outputPath> はすでに存在します。 モードを「上書き」に設定すると、既存のパスが上書きされます。

PATH_NOT_FOUND

SQLSTATE: 42K03

パスが存在しません: <path>

PHOTON_DESERIALIZED_PROTOBUF_MEMORY_LIMIT_EXCEEDED

SQLSTATE: 54000

Photon protobufプランの逆シリアル化には、少なくとも <size> バイトが必要であり、これは

<limit>バイトの制限。これは、非常に大きな計画または非常にの存在が原因である可能性があります

ワイドスキーマ。 クエリを簡略化するか、不要な列を削除するか、Photon を無効にしてみてください。

PHOTON_SERIALIZED_PROTOBUF_MEMORY_LIMIT_EXCEEDED

SQLSTATE: 54000

シリアル化されたPhoton protobufプランのサイズは <size> バイトで、これは

<limit> バイト。 プラン内のデータ型のシリアル化されたサイズは <dataTypeSize> バイトです。

これは、非常に大きなプランまたは非常に広いスキーマの存在が原因である可能性があります。

クエリを書き直して、不要な操作や列を削除するか、Photon を無効にすることを検討してください。

PIPE_OPERATOR_AGGREGATE_EXPRESSION_CONTAINS_NO_AGGREGATE_FUNCTION

SQLSTATE: 0A000

非グループ化式 <expr> は |> AGGREGATE パイプ演算子の引数として提供されますが、集計関数は含まれていません。集計関数を含むように更新してから、クエリを再試行してください。

PIPE_OPERATOR_CONTAINS_AGGREGATE_FUNCTION

SQLSTATE: 0A000

集計関数 <expr> は、パイプ演算子 |> <clause> 句を使用する場合は使用できません。代わりに、パイプ演算子 |> AGGREGATE 句を使用してください。

PIVOT_VALUE_DATA_TYPE_MISMATCH

SQLSTATE: 42K09

無効なピボット値 '<value>': 値のデータ型 <valueType> がピボット列のデータ型 <pivotType>と一致しません。

PROCEDURE_ARGUMENT_NUMBER_MISMATCH

SQLSTATE: 42605

プロシージャ <procedureName> では <expected> 引数が必要ですが、 <actual> 引数が提供されました。

PROCEDURE_CREATION_EMPTY_ROUTINE

SQLSTATE: 0A000

CREATE PROCEDURE 空のルーチン定義は許可されません。

PROCEDURE_CREATION_PARAMETER_OUT_INOUT_WITH_DEFAULT

SQLSTATE: 42601

パラメーター <parameterName> は、パラメーター mode <parameterMode>で定義されます。 OUT パラメーターと INOUT パラメーターは、ルーチンを呼び出すときに省略できないため、 DEFAULT 式をサポートしません。 続行するには、 DEFAULT 句を削除するか、パラメーター モードを INに変更します。

PROCEDURE_NOT_SUPPORTED

SQLSTATE: 0A000

ストアド・プロシージャはサポートされていません

PROCEDURE_NOT_SUPPORTED_WITH_HMS

SQLSTATE: 0A000

ストアド プロシージャは Hive metastoreではサポートされていません。 代わりにUnity Catalogをご利用ください。

PROTOBUF_DEPENDENCY_NOT_FOUND

SQLSTATE: 42K0G

依存関係が見つかりませんでした: <dependencyName>.

PROTOBUF_DESCRIPTOR_FILE_NOT_FOUND

SQLSTATE: 42K0G

パス <filePath>の Protobuf 記述子ファイルの読み取り中にエラーが発生しました。

PROTOBUF_FIELD_MISSING

SQLSTATE: 42K0G

<protobufSchema>でProtobufスキーマで<field>を検索すると、<matchSize>一致しました。候補者: <matches>.

PROTOBUF_FIELD_MISSING_IN_SQL_SCHEMA

SQLSTATE: 42K0G

Protobuf スキーマで <field> が見つかりましたが、SQL スキーマに一致するものはありません。

PROTOBUF_FIELD_TYPE_MISMATCH

SQLSTATE: 42K0G

フィールド : <field>でタイプの不一致が検出されました。

PROTOBUF_JAVA_CLASSES_NOT_SUPPORTED

SQLSTATE: 0A000

Java クラスは <protobufFunction>ではサポートされていません。 代替オプションについては、Databricks サポートにお問い合わせください。

PROTOBUF_MESSAGE_NOT_FOUND

SQLSTATE: 42K0G

記述子でメッセージ <messageName> が見つかりません。

PROTOBUF_NOT_LOADED_SQL_FUNCTIONS_UNUSABLE

SQLSTATE: 22KD3

<functionName>SQLProtobufデータソースがロードされていないため、 関数を呼び出すことができません。

'spark-protobuf' パッケージを読み込んだ状態でジョブまたはセッションを再開し (コマンド ラインで –packages 引数を使用するなど)、クエリまたはコマンドを再試行してください。

PROTOBUF_TYPE_NOT_SUPPORT

SQLSTATE: 42K0G

まだサポートされていないProtobufタイプ: <protobufType>

PS_FETCH_RETRY_EXCEPTION

SQLSTATE: 22000

pubsub fetch ステージのタスクを再試行できません。 ステージ <stageInfo>のパーティション <partitionInfo>、TID <taskId>

PS_INVALID_EMPTY_OPTION

SQLSTATE: 42000

<key> 空の文字列にすることはできません。

PS_INVALID_KEY_TYPE

SQLSTATE: 22000

PubSub 重複排除のキー タイプが無効です: <key>

PS_INVALID_OPTION

SQLSTATE: 42000

オプション <key> は PubSub ではサポートされていません。 テストでのみ使用できます。

PS_INVALID_OPTION_TYPE

SQLSTATE: 42000

<key>のタイプが無効です。想定される <key> のタイプは <type>です。

PS_INVALID_READ_LIMIT

SQLSTATE: 42000

PubSub ストリームの読み取り制限が無効です: <limit>.

PS_INVALID_UNSAFE_ROW_CONVERSION_FROM_PROTO

SQLSTATE: 22000

PubSubMessageMetadata にデコードするには無効な UnsafeRow です。目的のプロトタイプ スキーマは次のとおりです。 <protoSchema>。 入力 UnsafeRow が破損している可能性があります: <unsafeRow>.

PS_MISSING_AUTH_INFO

SQLSTATE: 42000

完全な PubSub 認証情報が見つかりませんでした。

PS_MISSING_REQUIRED_OPTION

SQLSTATE: 42000

必要なオプションが見つかりませんでした: <key>

PS_MOVING_CHECKPOINT_FAILURE

SQLSTATE: 22000

<src>から宛先ディレクトリ (<dest>) への生データ チェックポイント ファイルの移動に失敗しました。

PS_MULTIPLE_AUTH_OPTIONS

SQLSTATE: 42000

Databricks サービスの資格情報または GCP サービス アカウントの資格情報を入力してください。

PS_MULTIPLE_FAILED_EPOCHS

SQLSTATE: 22000

PubSub ストリームは、失敗したフェッチが複数あるため、開始できません: <failedEpochs>.

PS_OPTION_NOT_IN_BOUNDS

SQLSTATE: 22000

<key> 次の境界 (<min><max>) 内にある必要があります (両方の境界を除く)。

PS_PROVIDE_CREDENTIALS_WITH_OPTION

SQLSTATE: 42000

Standard access mode クラスター (旧称 Shared Access mode) では、インスタンスプロファイルによる認証はサポートされていません。 .option() を使用して、ストリームに直接資格情報を提供します。

PS_SPARK_SPECULATION_NOT_SUPPORTED

SQLSTATE: 0A000

PubSub ソース コネクタは、 spark.speculation が無効になっているクラスターでのみ使用できます。

PS_UNABLE_TO_CREATE_SUBSCRIPTION

SQLSTATE: 42000

トピック <topicId>でサブスクリプション<subId>を作成しようとするとエラーが発生しました。サブスクリプションを作成するための十分な権限があることを確認して、もう一度お試しください。

PS_UNABLE_TO_PARSE_PROTO

SQLSTATE: 22000

シリアル化されたバイトを解析してプロトを生成できません。

PS_UNSUPPORTED_GET_OFFSET_CALL

SQLSTATE: 0A000

getOffsetは、制限を指定しないとサポートされません。

Python

SQLSTATE: 38000

データソース<type>``<action> Python できませんでした: <msg>

Python

SQLSTATE: 38000

Python ストリーミング データソースが<action>を実行すると失敗します。 <msg>

QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY

SQLSTATE:428HD

以前に割り当てられた列マスクが現在テーブル スキーマと互換性がないため、参照されるテーブルにアクセスできません。続行するには、テーブルの所有者に連絡してポリシーを更新してください。

詳細については、 QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY

QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY

SQLSTATE:428HD

以前に割り当てられた行レベルのセキュリティ・ポリシーが現在、テーブル・スキーマと互換性がないため、参照されるテーブルにアクセスできません。続行するには、テーブルの所有者に連絡してポリシーを更新してください。

詳細については、 QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY

QUERY_EXECUTION_TIMEOUT_EXCEEDED

SQLSTATE: 57KD0

タイムアウト (<timeoutSec>秒) を超えたため、クエリの実行が取り消されました。 <config>を設定することで、制限を秒単位で増やすことができます。

READ_CURRENT_FILE_NOT_FOUND

SQLSTATE: 42K03

<message>

基になるファイルが更新された可能性があります。 Spark のキャッシュを明示的に無効にするには、SQL で 'REFRESH TABLE tableName' コマンドを実行するか、関連するデータセット/DataFrame を再作成します。

READ_FILES_AMBIGUOUS_ROUTINE_PARAMETERS

SQLSTATE: 4274K

関数 <functionName> の呼び出しには、 <parameterName><alternativeName> が設定されており、これらは互いのエイリアスです。 どちらか1つだけ設定してください。

READ_TVF_UNEXPECTED_REQUIRED_PARAMETER

SQLSTATE: 4274K

必須パラメーター<functionName>``<parameterName>の関数は、名前なしで位置 <expectedPos> に割り当てる必要があります。

RECIPIENT_EXPIRATION_NOT_SUPPORTED

SQLSTATE: 0A000

受信者の有効期限のタイムスタンプは、 TIMESTAMP/TIMESTAMP_LTZ/TIMESTAMP_NTZ タイプのみがサポートされています。

RECURSIVE_PROTOBUF_SCHEMA

SQLSTATE: 42K0G

Protobuf スキーマで再帰的な参照が見つかりましたが、デフォルトでは Spark で処理できません: <fieldDescriptor>. オプション recursive.fields.max.depth 1 から 10 に設定してみてください。10 レベルの再帰を超えることは許可されていません。

RECURSIVE_VIEW

SQLSTATE: 42K0H

再帰ビュー <viewIdent> 検出されます (サイクル: <newPath>)。

REF_DEFAULT_VALUE_IS_NOT_ALLOWED_IN_PARTITION

SQLSTATE: 42601

DEFAULT 列の値への参照は、PARTITION 句内では使用できません。

RELATION_LARGER_THAN_8G

SQLSTATE: 54000

8Gより大きい <relationName> は作れません。

REMOTE_FUNCTION_HTTP_FAILED_ERROR

SQLSTATE: 57012

リモート HTTP 要求が失敗し、コード <errorCode>とエラー メッセージ <errorMessage>

REMOTE_FUNCTION_HTTP_RESULT_PARSE_ERROR

SQLSTATE: 22032

リモート HTTP 応答からの JSON 結果を解析できないため、 <functionName> SQL 関数の評価に失敗しました。エラーメッセージは <errorMessage>です。 API ドキュメントを確認してください: <docUrl>. エラー メッセージに示されている問題を修正し、クエリを再試行してください。

REMOTE_FUNCTION_HTTP_RESULT_UNEXPECTED_ERROR

SQLSTATE: 57012

予期しないリモート HTTP 応答を処理できないため、 <functionName> SQL 関数の評価に失敗しました。エラーメッセージは <errorMessage>です。 API ドキュメントを確認してください: <docUrl>. エラー メッセージに示されている問題を修正し、クエリを再試行してください。

REMOTE_FUNCTION_HTTP_RETRY_TIMEOUT

SQLSTATE: 57012

リモート要求は <N> 回再試行した後に失敗しました。最後に失敗した HTTP エラー コードが <errorCode> され、メッセージが <errorMessage>

REMOTE_FUNCTION_MISSING_REQUIREMENTS_ERROR

SQLSTATE: 57012

<functionName> SQL 関数の評価に失敗しました。<errorMessage>.<docUrl>で要件を確認してください。エラー メッセージに示されている問題を修正し、クエリを再試行してください。

RENAME_SRC_PATH_NOT_FOUND

SQLSTATE: 42K03

<sourcePath>が見つからなかったため、名前を変更できませんでした。

REPEATED_CLAUSE

SQLSTATE: 42614

<clause> 句は、<operation> 操作ごとに最大 1 回使用できます。

REQUIRED_PARAMETER_ALREADY_PROVIDED_POSITIONALLY

SQLSTATE: 4274K

必須パラメーター<parameterName>``<routineName>ルーチンは、名前なしで位置 <positionalIndex> に割り当てられています。

関数呼び出しを更新して、このパラメーターの <parameterName> を持つ名前付き引数を削除するか、位置引数を削除してください

引数を <positionalIndex> で呼び出してから、クエリを再試行してください。

REQUIRED_PARAMETER_NOT_FOUND

SQLSTATE: 4274K

<parameterName> という名前のパラメーターが必要なため、ルーチン <routineName> を呼び出すことができませんが、ルーチン呼び出しで値が指定されませんでした。引数値 (インデックス <index> の位置または名前) を指定するようにルーチン呼び出しを更新し、クエリを再試行してください。

REQUIRES_SINGLE_PART_NAMESPACE

SQLSTATE: 42K05

<sessionCatalog> 単一部分の名前空間が必要ですが、 <namespace>.

RESCUED_DATA_COLUMN_CONFLICT_WITH_SINGLE_VARIANT

SQLSTATE: 4274K

'rescuedDataColumn' DataFrame API リーダー オプションは、'singleVariantColumn' DataFrame API オプションと相互に排他的です。

そのうちの 1 つを削除してから、DataFrame 操作を再試行してください。

RESERVED_CDC_COLUMNS_ON_WRITE

SQLSTATE: 42939

書き込みには、使用される予約済み列 <columnList> が含まれます

内部的にはチェンジデータフィードのメタデータとして。 テーブルに書き込むには、名前の変更/ドロップ

これらの列は、設定することにより、テーブル上のチェンジデータフィードを無効にします

<config> を false に設定します。

RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED

SQLSTATE: 0A000

オプション <option> には、 <source> ソースの標準アクセス モード クラスター (以前の共有アクセス モード) に制限があります。

詳細については、 RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED

ROUTINE_ALREADY_EXISTS

SQLSTATE: 42723

その名前の<existingRoutineType>がすでに存在するため、<newRoutineType> <routineName>を作成できません。

別の名前を選択するか、既存の<existingRoutineType>を削除または置き換えるか、既存の<newRoutineType>を許容するために IF NOT EXISTS 句を追加します。

ROUTINE_NOT_FOUND

SQLSTATE: 42883

ルーチン <routineName> 見つかりません。 スキーマとカタログのスペルと正確性を確認します。

スキーマとカタログで名前を修飾しなかった場合、current_schema() 出力を確認するか、正しいスキーマとカタログで名前を修飾します。

ドロップ時のエラーを許容するには、 DROP ... IF EXISTSを使用します。

ROUTINE_PARAMETER_NOT_FOUND

SQLSTATE: 42000

ルーチン <routineName> は、位置 <pos>で指定されたパラメーター <parameterName> をサポートしていません。<suggestion>

ROUTINE_USES_SYSTEM_RESERVED_CLASS_NAME

SQLSTATE: 42939

指定されたクラス名 '<className>' がシステム使用のために予約されているため、関数 <routineName> を作成できません。クラスの名前を変更して、もう一度やり直してください。

ROW_LEVEL_SECURITY_ABAC_MISMATCH

SQLSTATE: 0A000

ポリシーから継承された行フィルターと明示的に定義された行フィルターとの間に不一致があったため、行フィルターを <tableName> で解決できませんでした。 続行するには、属性ベースのアクセス制御 (ABAC) を無効にし、Databricks サポートにお問い合わせください。

ROW_LEVEL_SECURITY_CHECK_CONSTRAINT_UNSUPPORTED

SQLSTATE: 0A000

行レベルのセキュリティ・ポリシーを使用して、表<tableName>CHECK制約を作成することはサポートされていません。

ROW_LEVEL_SECURITY_DUPLICATE_COLUMN_NAME

SQLSTATE: 42734

<statementType>文がロー・レベルのセキュリティ・ポリシーをテーブルに割り当てようとしましたが、参照される 2 つ以上のカラムの名前が同じ <columnName>で、これは無効です。

ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED

SQLSTATE: 0A000

<tableName>の行レベルのセキュリティ・ポリシーはサポートされていません。

詳細については、「 ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED

ROW_LEVEL_SECURITY_INCOMPATIBLE_SCHEMA_CHANGE

SQLSTATE: 0A000

テーブル <tableName> は行レベルのセキュリティ ポリシーで参照されているため、テーブル から<statementType> <columnName>できません。テーブルの所有者は、続行する前にこのポリシーを削除または変更する必要があります。

ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_SOURCE

SQLSTATE: 0A000

MERGE INTO オペレーションは、ソース表 <tableName>の行レベルのセキュリティ・ポリシーをサポートしていません。

ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_TARGET

SQLSTATE: 0A000

MERGE INTO 操作では、行レベルのセキュリティ・ポリシーを使用したテーブル <tableName> への書き込みはサポートされていません。

ROW_LEVEL_SECURITY_MULTI_PART_COLUMN_NAME

SQLSTATE: 42K05

この文は、ロー・レベルのセキュリティ・ポリシーをテーブルに割り当てようとしましたが、参照されたカラム・ <columnName> に複数の名前部分があり、無効です。

ROW_LEVEL_SECURITY_REQUIRE_UNITY_CATALOG

SQLSTATE: 0A000

行レベルのセキュリティ ポリシーは、Unity Catalog でのみサポートされます。

ROW_LEVEL_SECURITY_SHOW_PARTITIONS_UNSUPPORTED

SQLSTATE: 0A000

SHOW PARTITIONS コマンドは、行レベルのセキュリティ・ポリシーを持つ\<format\> テーブルではサポートされていません。

ROW_LEVEL_SECURITY_TABLE_CLONE_SOURCE_NOT_SUPPORTED

SQLSTATE: 0A000

<mode> 行レベルのセキュリティ・ポリシーを使用したテーブル <tableName> からのクローン作成はサポートされていません。

ROW_LEVEL_SECURITY_TABLE_CLONE_TARGET_NOT_SUPPORTED

SQLSTATE: 0A000

<mode> 行レベルのセキュリティ・ポリシーを使用した表 <tableName> へのクローンはサポートされていません。

ROW_LEVEL_SECURITY_UNSUPPORTED_CONSTANT_AS_PARAMETER

SQLSTATE: 0AKD1

行レベルのセキュリティ ポリシーのパラメーターとして定数を使用することはサポートされていません。 SQL コマンドを更新して行フィルター定義から定数を削除してから、コマンドを再試行してください。

ROW_LEVEL_SECURITY_UNSUPPORTED_PROVIDER

SQLSTATE: 0A000

Failed to execute <statementType> command because row level security ポリシーの割り当ては、テーブル・プロバイダーを持つターゲット・データソースでサポートされていないためです: "<provider>".

ROW_SUBQUERY_TOO_MANY_ROWS

SQLSTATE: 21000

ローとして使用されるサブクエリによって返される複数のロー。

ROW_VALUE_IS_NULL

SQLSTATE: 22023 です。

インデックス <index>で行にNULLが見つかりました。NULL以外の値が必要です。

RULE_ID_NOT_FOUND

SQLSTATE: 22023 です。

ルール名 "<ruleName>" の ID が見つかりませんでした。 RuleIdCollection を変更してください。Scala 新しいルールを追加する場合。

SAMPLE_TABLE_PERMISSIONS

SQLSTATE: 42832

サンプルデータベース/テーブルでサポートされていない権限。

SCALAR_FUNCTION_NOT_COMPATIBLE

SQLSTATE: 42K0O

ScalarFunction <scalarFunc> 、メソッド 'produceResult(InternalRow)' をカスタム実装でオーバーライドしません。

SCALAR_FUNCTION_NOT_FULLY_IMPLEMENTED

SQLSTATE: 42K0P

ScalarFunction <scalarFunc> メソッド 'produceResult(InternalRow)' を実装またはオーバーライドしません。

SCALAR_SUBQUERY_IS_IN_GROUP_BY_OR_AGGREGATE_FUNCTION

SQLSTATE: 0A000

相関スカラー・サブクエリ '<sqlExpr>' は、 GROUP BYにも集合関数にも存在しません。

序数位置を使用して GROUP BY に追加するか、どの値を取得するか気にしない場合は first() (または first_value)でラップします。

SCALAR_SUBQUERY_TOO_MANY_ROWS

SQLSTATE: 21000

式として使用されるサブクエリによって返される複数のロー。

SCHEDULE_ALREADY_EXISTS

SQLSTATE: 42710

すでに <existingScheduleType>があるテーブルに <scheduleType> を追加することはできません。既存のスケジュールを削除するか、 ALTER TABLE ... ALTER <scheduleType> ...それを変更します。

SCHEDULE_PERIOD_INVALID

SQLSTATE: 22003

<timeUnit>のスケジュール期間は、1 から <upperBound> までの整数値である必要があります。受信: <actual>

SCHEMA_ALREADY_EXISTS

SQLSTATE: 42P06

スキーマ <schemaName> は既に存在するため、作成できません。

別の名前を選択するか、既存のスキーマを削除するか、既存のスキーマを許容する IF NOT EXISTS 句を追加します。

SCHEMA_NOT_EMPTY

SQLSTATE: 2BP01

スキーマ <schemaName> にはオブジェクトが含まれているため、スキーマを削除できません。

DROP SCHEMA ... CASCADE を使用して、スキーマとそのすべてのオブジェクトを削除します。

SCHEMA_NOT_FOUND

SQLSTATE: 42704

スキーマ <schemaName> が見つかりません。 スキーマとカタログのスペルと正確性を確認します。

カタログで名前を修飾しなかった場合、current_schema() 出力を確認するか、正しいカタログで名前を修飾します。

ドロップ時のエラーを許容するには、 DROP SCHEMA IF EXISTS.

SCHEMA_REGISTRY_CONFIGURATION_ERROR

SQLSTATE: 42K0G

スキーマ レジストリのスキーマを初期化できませんでした。 <reason>

SECOND_FUNCTION_ARGUMENT_NOT_INTEGER

SQLSTATE: 22023 です。

<functionName>関数の 2 番目の引数は整数である必要があります。

SECRET_FUNCTION_INVALID_LOCATION

SQLSTATE: 42K0E

SECRET関数への 1 つ以上の暗号化されていない参照を使用して<commandType>コマンドを実行できません。このような各関数呼び出しの結果をAES_ENCRYPTで暗号化し、コマンドを再試行してください

SEED_EXPRESSION_IS_UNFOLDABLE

SQLSTATE: 42K08

<exprWithSeed>のシード式<seedExpr>は折りたたみ可能である必要があります。

SERVER_IS_BUSY

SQLSTATE: 08KD1

サーバーがビジー状態であり、要求を処理できませんでした。 しばらく待ってから、もう一度お試しください。

SHOW_COLUMNS_WITH_CONFLICT_NAMESPACE

SQLSTATE: 42K05

SHOW COLUMNS 競合する名前空間がある場合: <namespaceA> != <namespaceB>.

SORT_BY_WITHOUT_BUCKETING

SQLSTATE: 42601

sortBy は bucketBy と一緒に使用する必要があります。

SPARK_JOB_CANCELLED

SQLSTATE: HY008

ジョブ <jobId> キャンセルされました <reason>

SPECIFY_BUCKETING_IS_NOT_ALLOWED

SQLSTATE: 42601

列リストが明示的にない CREATE TABLE では、バケット情報を指定できません。

列リストが明示的なフォームを使用し、バケット情報を指定してください。

または、句を省略してバケット情報を推測できるようにします。

SPECIFY_CLUSTER_BY_WITH_BUCKETING_IS_NOT_ALLOWED

SQLSTATE: 42908

CLUSTER BYCLUSTERED BY INTO BUCKETSの両方を指定することはできません。

SPECIFY_CLUSTER_BY_WITH_PARTITIONED_BY_IS_NOT_ALLOWED

SQLSTATE: 42908

CLUSTER BYPARTITIONED BYの両方を指定することはできません。

SPECIFY_PARTITION_IS_NOT_ALLOWED

SQLSTATE: 42601

カラム・リストが明示的にない CREATE TABLE は、 PARTITIONED BYを指定できません。

列リストが明示的なフォームを使用し、 PARTITIONED BYを指定してください。

または、 PARTITION BY 句を省略してパーティション分割を推論できるようにします。

SQL_CONF_NOT_FOUND

SQLSTATE: 42K0I

SQL 設定 <sqlConf> 見つかりません。 設定が存在することを確認してください。

STAGING_PATH_CURRENTLY_INACCESSIBLE

SQLSTATE: 22000

ターゲットステージングパス <path>へのアクセス中に一時的なエラーが発生しました。数分後に試してください

STAR_GROUP_BY_POS

SQLSTATE: 0A000

スター (*) は、 GROUP BY 序数位置が使用されている場合、選択リストでは使用できません。

STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_HANDLE_STATE

SQLSTATE: 42802

ステートフル プロセッサ操作の実行に失敗しました=<operationType> ハンドルが無効です state=<handleState>

STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_TIME_MODE

SQLSTATE: 42802

ステートフル プロセッサ操作の実行に失敗しました= 無効な timeMode= で<operationType>``<timeMode>

STATEFUL_PROCESSOR_DUPLICATE_STATE_VARIABLE_DEFINED

SQLSTATE: 42802

<stateVarName>という名前の状態変数は、StatefulProcessorですでに定義されています。

STATEFUL_PROCESSOR_INCORRECT_TIME_MODE_TO_ASSIGN_TTL

SQLSTATE: 42802

timeMode=<timeMode>の state=<stateName> に TTL を使用することはできません。代わりに TimeMode.ProcessingTime() を使用してください。

STATEFUL_PROCESSOR_TTL_DURATION_MUST_BE_POSITIVE

SQLSTATE: 42802

TTL duration は 0 より大きくなければなりません for 状態ストア operation=<operationType> on state=<stateName>.

STATEFUL_PROCESSOR_UNKNOWN_TIME_MODE

SQLSTATE: 42802

不明な時間モード <timeMode>。 受け入れられる timeMode モードは 'none'、 'processingTime'、 'eventTime' です。

STATE_STORE_CANNOT_CREATE_COLUMN_FAMILY_WITH_RESERVED_CHARS

SQLSTATE: 42802

サポートされていない開始文字と name=<colFamilyName>の列ファミリを作成できませんでした。

STATE_STORE_CANNOT_USE_COLUMN_FAMILY_WITH_INVALID_NAME

SQLSTATE: 42802

列ファミリの操作=<operationName> を実行できませんでした。名前=<colFamilyName>です。 列ファミリ名を空にしたり、先頭/末尾にスペースを含めたり、予約済みのキーワード=デフォルトを使用したりすることはできません

STATE_STORE_COLUMN_FAMILY_SCHEMA_INCOMPATIBLE

SQLSTATE: 42802

列 family=<colFamilyName>、 oldSchema=<oldSchema>、 newSchema=<newSchema>と互換性のないスキーマ変換 。

STATE_STORE_DOES_NOT_SUPPORT_REUSABLE_ITERATOR

SQLSTATE: 42K06

StateStore <inputClass> は、再利用可能なイテレータをサポートしていません。

STATE_STORE_HANDLE_NOT_INITIALIZED

SQLSTATE: 42802

ハンドルは、このStatefulProcessorに対して初期化されていません。

StatefulProcessor は transformWithState 演算子内でのみ使用してください。

STATE_STORE_INCORRECT_NUM_ORDERING_COLS_FOR_RANGE_SCAN

SQLSTATE: 42802

レンジ スキャン エンコーダーの順序付け順序の数 =<numOrderingCols> が正しくありません。 順序付け順序の数は、0 またはスキーマ列の数より大きくすることはできません。

STATE_STORE_INCORRECT_NUM_PREFIX_COLS_FOR_PREFIX_SCAN

SQLSTATE: 42802

プレフィックス スキャン エンコーダーのプレフィックス列の数=<numPrefixCols> が正しくありません。 プレフィックス列は、0 または num スキーマ列の num 以上にすることはできません。

STATE_STORE_INVALID_CONFIG_AFTER_RESTART

SQLSTATE: 42K06

再起動の間に <configName><oldConfig> から <newConfig> に変更することはできません。 <configName><oldConfig>に設定するか、新しいチェックポイント ディレクトリで再起動してください。

STATE_STORE_INVALID_PROVIDER

SQLSTATE: 42K06

指定された状態ストア Provider <inputClass> は org.apache.spark.sql.execution.ストリーミング.state.StateStoreProvider を拡張しません。

STATE_STORE_INVALID_VARIABLE_TYPE_CHANGE

SQLSTATE: 42K06

クエリの再起動間で <stateVarName><newType> に変更することはできません。 <stateVarName><oldType>に設定するか、新しいチェックポイント ディレクトリで再起動してください。

STATE_STORE_NULL_TYPE_ORDERING_COLS_NOT_SUPPORTED

SQLSTATE: 42802

name=<fieldName> が index=<index> の NULL 型の順序付け列は、範囲スキャン エンコーダーではサポートされていません。

STATE_STORE_PROVIDER_DOES_NOT_SUPPORT_FINE_GRAINED_STATE_REPLAY

SQLSTATE: 42K06

指定された状態ストア Provider <inputClass> は org.apache.spark.sql.execution.ストリーミング.state.SupportsFineGrainedReplay を拡張しません。

したがって、状態データソースではオプション snapshotStartBatchId または readChangeFeed はサポートされていません。

STATE_STORE_STATE_SCHEMA_FILES_THRESHOLD_EXCEEDED

SQLSTATE: 42K06

<numStateSchemaFiles>される状態スキーマ ファイルの数が、このクエリの状態スキーマ ファイルの最大数を超えています。 <maxStateSchemaFiles>.

追加: <addedColumnFamilies>、削除: <removedColumnFamilies>

'spark.sql.ストリーミング.stateStore.stateSchemaFilesThreshold'を設定してください をより大きな数値に戻すか、状態スキーマの変更を元に戻す

STATE_STORE_UNSUPPORTED_OPERATION_ON_MISSING_COLUMN_FAMILY

SQLSTATE: 42802

状態ストアの操作=<operationType> 欠落している列ファミリ=<colFamilyName>ではサポートされていません。

STATE_STORE_VALUE_SCHEMA_EVOLUTION_THRESHOLD_EXCEEDED

SQLSTATE: 42K06

状態スキーマ進化の数 <numSchemaEvolutions> 、この列ファミリで許可されている状態スキーマ進化の最大数 <maxSchemaEvolutions>を超えています。

問題のある列ファミリー: <colFamilyName>

'spark.sql.ストリーミング.stateStore.valueStateSchemaEvolutionThreshold'を設定してください をより大きな数値に戻すか、状態スキーマの変更を元に戻す

STATE_STORE_VARIABLE_SIZE_ORDERING_COLS_NOT_SUPPORTED

SQLSTATE: 42802

name=<fieldName> at index=<index> の可変サイズ順序列は、範囲スキャン エンコーダーではサポートされていません。

STATIC_PARTITION_COLUMN_IN_INSERT_COLUMN_LIST

SQLSTATE: 42713

静的パーティション列 <staticName> も列リストで指定されます。

STDS_COMMITTED_BATCH_UNAVAILABLE

SQLSTATE: KD006

コミットされたバッチが見つかりません。チェックポイントの場所: <checkpointLocation>. 停止する前に、クエリが実行され、マイクロバッチがコミットされたことを確認します。

STDS_CONFLICT_OPTIONS

SQLSTATE: 42613

<options>オプションを一緒に指定することはできません。いずれかご指定ください。

STDS_FAILED_TO_READ_OPERATOR_METADATA

SQLSTATE: 42K03

checkpointLocation=<checkpointLocation> および batchId=<batchId>の演算子メタデータの読み取りに失敗しました。

ファイルが存在しないか、ファイルが破損しています。

ストリーミング クエリを再実行してオペレーターのメタデータを作成し、エラーが続く場合は対応するコミュニティまたはベンダーに報告します。

STDS_FAILED_TO_READ_STATE_SCHEMA

SQLSTATE: 42K03

状態スキーマの読み取りに失敗しました。 ファイルが存在しないか、ファイルが破損しています。 オプション: <sourceOptions>.

ストリーミング クエリを再実行して状態スキーマを構築し、エラーが続く場合は対応するコミュニティまたはベンダーに報告します。

STDS_INVALID_OPTION_VALUE

SQLSTATE: 42616

ソース オプション '<optionName>' の値が無効です。

詳細については、 STDS_INVALID_OPTION_VALUE

STDS_NO_PARTITION_DISCOVERED_IN_STATE_STORE

SQLSTATE: KD006

ステートにはパーティションがありません。 クエリが有効な状態を指していることを再確認してください。 オプション: <sourceOptions>

STDS_OFFSET_LOG_UNAVAILABLE

SQLSTATE: KD006

<batchId> のオフセット ログは存在しません。チェックポイント ロケーション: <checkpointLocation>

クエリに使用できるバッチIDを指定してください - state metadata データソースを使用して、使用可能なバッチIDをクエリできます。

STDS_OFFSET_METADATA_LOG_UNAVAILABLE

SQLSTATE: KD006

メタデータは、 <batchId>のオフセット ログ、チェックポイントの場所: <checkpointLocation>では使用できません。

チェックポイントは、古いSparkバージョンでのみ実行されているようです。 最新の Spark バージョンでストリーミング クエリを実行し、Spark が状態メタデータを構築するようにします。

STDS_REQUIRED_OPTION_UNSPECIFIED

SQLSTATE: 42601

'<optionName>' を指定する必要があります。

ストリーミング

SQLSTATE: 0A000

アダプティブ クエリ実行は、構造化ストリーミングのステートフル演算子ではサポートされていません。

ストリーミング

SQLSTATE: 0A000

マテリアライズド ビュー <viewName>からストリームできません。 具体化されたビューからのストリーミングはサポートされていません。

ストリーミング

SQLSTATE: 42KDE

無効なストリーミング出力モード: <outputMode>.

詳細については、「ストリーミング」を参照してください。

ストリーミング

SQLSTATE: 0A000

ストリーミング リアルタイム モードには、次の制限があります。

詳細については、「ストリーミング」を参照してください。

ストリーミング

SQLSTATE: 42K03

ストリーミング ステートフル オペレーター名が、状態メタデータのオペレーターと一致しません。 これは、ユーザーが既存のストリーミング クエリのステートフル演算子を追加/削除/変更したときに発生する可能性があります。

メタデータ内のステートフル演算子: [<OpsInMetadataSeq>];現在のバッチのステートフル演算子: [<OpsInCurBatchSeq>]

ストリーミング

SQLSTATE: 55019

ストリーミング テーブル <tableName> は、 <operation>.

テーブルが DBSQLから作成されている場合は、 REFRESH <st>を実行してください。

テーブルが DLT のパイプラインによって作成されている場合は、パイプラインの更新を実行してください。

ストリーミング

SQLSTATE: 56038

ストリーミングテーブルは、DLTおよび Databricks SQL ウェアハウスでのみ作成および更新できます。

ストリーミング

SQLSTATE: 42601

操作 <operation> は許可されていません。

詳細については、「ストリーミング」を参照してください。

ストリーミング

SQLSTATE: 42000

ストリーミング テーブル <tableName> は、ストリーミング クエリからのみ作成できます。 FROM句に STREAM キーワードを追加して、このリレーションをストリーミングクエリに変換してください。

ストリーム

SQLSTATE: 42K02

Kinesis ストリーム<streamName>``<region>見つかりません。

正しいストリーム名を指す新しいクエリを開始してください。

STRUCT_ARRAY_LENGTH_MISMATCH

SQLSTATE: 2201E

入力行に、スキーマに必要な予期される数の値がありません。 <expected> フィールドは必須ですが、 <actual> 値は指定されます。

SUM_OF_LIMIT_AND_OFFSET_EXCEEDS_MAX_INT

SQLSTATE: 22003

LIMIT 句と OFFSET 句の合計は、最大 32 ビット整数値 (2,147,483,647) より大きくてはなりませんが、limit = 1 <limit>、offset = <offset>が見つかりました。

SYNC_METADATA_DELTA_ONLY

SQLSTATE: 0AKDD

テーブル同期メタデータの修復コマンドは、デルタ テーブルでのみサポートされています。

SYNC_SRC_TARGET_TBL_NOT_SAME

SQLSTATE: 42KD2

ソース・テーブル名 <srcTable> は、ターゲット・テーブル名 <destTable>と同じである必要があります。

SYNTAX_DISCONTINUED

SQLSTATE: 42601

句またはキーワードのサポート: <clause> は、このコンテキストでは廃止されました。

詳細については、 SYNTAX_DISCONTINUED

TABLE_OR_VIEW_ALREADY_EXISTS

SQLSTATE: 42P07

テーブルまたはビュー <relationName> はすでに存在するため、作成できません。

別の名前を選択するか、既存のオブジェクトを削除するか、既存のオブジェクトを許容する IF NOT EXISTS 句を追加するか、既存のマテリアライズドビューを置き換える OR REPLACE 句を追加するか、OR REFRESH 句を追加して既存のストリーミングテーブルを更新します。

TABLE_OR_VIEW_NOT_FOUND

SQLSTATE: 42P01

テーブルまたはビュー <relationName> 見つかりません。 スキーマとカタログのスペルと正確性を確認します。

スキーマで名前を修飾しなかった場合、current_schema() 出力を確認するか、正しいスキーマとカタログで名前を修飾します。

ドロップ時のエラーを許容するには、 DROP VIEW IF EXISTS または DROP TABLE IF EXISTSを使用します。

詳細については、 TABLE_OR_VIEW_NOT_FOUND

TABLE_VALUED_ARGUMENTS_NOT_YET_IMPLEMENTED_FOR_SQL_FUNCTIONS

SQLSTATE: 0A000

TABLE引数を持つ SQL ユーザー定義関数<functionName>は、この機能がまだ実装されていないため、<action>できません。

TABLE_VALUED_FUNCTION_FAILED_TO_ANALYZE_IN_PYTHON

SQLSTATE: 38000

Python ユーザー定義テーブル関数の分析に失敗しました: <msg>

TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INCOMPATIBLE_WITH_CALL

SQLSTATE: 22023 です。

テーブル <requestedMetadata>メタデータが であるため、テーブル関数 の <functionName> を評価できませんでしたが、関数呼び出し<invalidFunctionCallProperty>.

TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INVALID

SQLSTATE: 22023 です。

テーブル メタデータが無効だったため、テーブル関数 <functionName> を評価できませんでした。 <reason>

TABLE_VALUED_FUNCTION_TOO_MANY_TABLE_ARGUMENTS

SQLSTATE: 54023

テーブル値関数のテーブル引数が多すぎます。

1つのテーブル引数を使用できますが、次のようになります <num>

許可する場合は、「spark.sql.allowMultipleTableArguments.enabled」を「true」に設定してください

TABLE_WITH_ID_NOT_FOUND

SQLSTATE: 42P01

ID が <tableId> のテーブルが見つかりません。 UUIDの正確性を確認します。

タスク

SQLSTATE: 58030

<path>への行の書き込み中にタスクが失敗しました。

TEMP_TABLE_OR_VIEW_ALREADY_EXISTS

SQLSTATE: 42P07

一時ビュー <relationName> は既に存在するため、作成できません。

別の名前を選択するか、既存のビューを削除または置換するか、既存のビューを許容するために IF NOT EXISTS 句を追加します。

TEMP_VIEW_NAME_TOO_MANY_NAME_PARTS

SQLSTATE: 428EK

CREATE TEMPORARY VIEW または、対応するデータセット APIs シングルパートビュー名のみを受け入れますが、次のようになります<actualName>

TRAILING_COMMA_IN_SELECT

SQLSTATE: 42601

SELECT句で末尾のカンマが検出されました。FROM句の前の末尾のカンマを削除します。

TRIGGER_INTERVAL_INVALID

SQLSTATE: 22003

トリガー間隔は、秒に変換できる正の持続時間である必要があります。 受信: <actual> 秒。

UC_BUCKETED_TABLES

SQLSTATE: 0AKUC

バケット化されたテーブルは、Unity Catalog ではサポートされていません。

UC_CATALOG_NAME_NOT_PROVIDED

SQLSTATE: 3D000

Unity Catalogの場合は、カタログ名を明示的に指定してください。 例: SHOW GRANT your.address@email.com ON CATALOG メイン。

コマンド

SQLSTATE: 0AKUC

コマンド : <commandName> は Unity Catalog ではサポートされていません。

詳細については、「 コマンド

コマンド

SQLSTATE: 0AKUC

コマンド:<commandName>は、サーバレスの Unity Catalog コンピュートではサポートされていません。 代わりに、標準または専用アクセス モードのコンピュート リソースを使用してください。

コマンド

SQLSTATE: 0AKUC

コマンド: <commandName>は、標準アクセス モード (以前の共有) の Unity Catalog コンピュート リソースではサポートされていません。 代わりに、専用のアクセスモードを使用してください。

UC_CREDENTIAL_PURPOSE_NOT_SUPPORTED

SQLSTATE: 0AKUC

指定された資格情報の種類はサポートされていません。

UC_DATASOURCE_NOT_SUPPORTED

SQLSTATE: 0AKUC

Unity Catalogでは、<dataSourceFormatName>形式のデータソースはサポートされていません。

UC_DATASOURCE_OPTIONS_NOT_SUPPORTED

SQLSTATE: 0AKUC

データソース オプションは Unity Catalogではサポートされていません。

UC_EXTERNAL_VOLUME_MISSING_LOCATION

SQLSTATE: 42601

LOCATION 句は、外部ボリュームに対して存在する必要があります。 構文 'CREATE EXTERNAL VOLUME ... LOCATION ...' を確認してください。外部ボリュームの作成用。

UC_FAILED_PROVISIONING_STATE

SQLSTATE: 0AKUC

クエリは、テーブル <tableName> を参照しようとしましたが、参照できなかったため失敗しました。: <failureReason>. テーブル <tableName> を更新して [アクティブ] プロビジョニング状態になっていることを確認してから、クエリを再試行してください。

UC_FILE_SCHEME_FOR_TABLE_CREATION_NOT_SUPPORTED

SQLSTATE: 0AKUC

Unity Catalog でファイル スキーム <schemeName> を使用してテーブルを作成することはサポートされていません。

代わりに、同じテーブル プロバイダーの CREATE CONNECTION コマンドを使用してフェデレーション データソース接続を作成し、その接続に基づいてカタログを作成し、その中のテーブルを参照する CREATE FOREIGN CATALOG コマンドを使用してください。

UC_HIVE_METASTORE_FEDERATION_CROSS_CATALOG_VIEW_NOT_SUPPORTED

SQLSTATE: 56038

Hive metastore フェデレーション ビューでは、複数のカタログ間の依存関係はサポートされていません。 フェデレーション カタログのビュー<view> Hive metastore hive_metastore カタログまたは spark_catalog カタログからの依存関係を使用する必要がありますが、その依存関係<dependency>は別のカタログ <referencedCatalog>にあります。 この制約を満たすように依存関係を更新してから、クエリまたはコマンドを再試行してください。

UC_HIVE_METASTORE_FEDERATION_NOT_ENABLED

SQLSTATE: 0A000

このクラスターでは、Hive metastoreフェデレーションが有効になっていません。

カタログ <catalogName> へのアクセスは、このクラスターではサポートされていません

UC_INVALID_DEPENDENCIES

SQLSTATE: 56098

<viewName>の依存関係は <storedDeps> として記録され、<parsedDeps>として解析されます。これは、SQL 以外の API の不適切な使用によって発生した可能性があります。 Databricks Runtime で依存関係を修復するには、 ALTER VIEW <viewName> AS <viewText>を実行します。

UC_INVALID_NAMESPACE

SQLSTATE: 0AKUC

入れ子になった名前空間または空の名前空間は、Unity Catalog ではサポートされていません。

UC_INVALID_REFERENCE

SQLSTATE: 0AKUC

Unity-Catalog 以外のオブジェクト オブジェクト <name> Unity Catalog オブジェクトで参照することはできません。

UC_LAKEHOUSE_FEDERATION_WRITES_NOT_ALLOWED

SQLSTATE: 56038

Unity Catalog レイクハウスフェデレーションの書き込みサポートは、このクラスターのプロバイダー<provider>では有効になっていません。

UC_LOCATION_FOR_MANAGED_VOLUME_NOT_SUPPORTED

SQLSTATE: 42601

管理ボリュームは LOCATION 句を受け入れません。 構文「CREATE VOLUME ...」を確認してください。管理ボリュームの作成用。

UC_NOT_ENABLED

SQLSTATE: 56038

このクラスターではUnity Catalogが有効になっていません。

UC_QUERY_FEDERATION_NOT_ENABLED

SQLSTATE: 56038

Unity Catalog クエリフェデレーションは、このクラスターでは有効になっていません。

サービス

SQLSTATE: 56038

このクラスターでは、サービスの資格情報は有効になっていません。

UC_VOLUMES_NOT_ENABLED

SQLSTATE: 56038

このインスタンスでは、Unity Catalog Volumes のサポートは有効になっていません。

UC_VOLUMES_SHARING_NOT_ENABLED

SQLSTATE: 56038

このインスタンスでは、ボリューム共有のサポートは有効になっていません。

UC_VOLUME_NOT_FOUND

SQLSTATE: 42704

ボリューム <name> は存在しません。 「SHOW VOLUMES」を使用して、使用可能なボリュームを一覧表示してください。

UDF_ENVIRONMENT_ERROR

SQLSTATE: 39000

<udfName>の UDF 依存関係をインストールできませんでした。

詳細については、 UDF_ENVIRONMENT_ERROR

UDF_ERROR

SQLSTATE: 割り当てられていない

関数 <fn> の実行に失敗しました

詳細については、 UDF_ERROR

UDF_LIMITS

SQLSTATE: 54KD0

1 つ以上の UDF 制限に違反しました。

詳細については、 UDF_LIMITS

UDF_MAX_COUNT_EXCEEDED

SQLSTATE: 54KD0

クエリ全体の UDF 制限である <maxNumUdfs> UDF を超えました (パブリック プレビュー期間中は制限付き)。 <numUdfs>見つかりました。UDFは、 <udfNames>でした。

UDF_PYSPARK_ERROR

SQLSTATE: 39000

Python ワーカーが予期せず終了しました

詳細については、 UDF_PYSPARK_ERROR

UDF_PYSPARK_UNSUPPORTED_TYPE

SQLSTATE: 0A000

PySpark UDF <udf> (<eval-type>) は、標準アクセス モード (以前の共有アクセス モード) のクラスターではサポートされていません。

UDF_PYSPARK_USER_CODE_ERROR

SQLSTATE: 39000

実行に失敗しました。

詳細については、 UDF_PYSPARK_USER_CODE_ERROR

UDF_UNSUPPORTED_PARAMETER_DEFAULT_VALUE

SQLSTATE: 0A000

パラメーターのデフォルト値は、ユーザー定義の <functionType> 関数ではサポートされていません。

UDF_USER_CODE_ERROR

SQLSTATE: 39000

関数 <fn> の実行に失敗しました。

詳細については、 UDF_USER_CODE_ERROR

UDTF_ALIAS_NUMBER_MISMATCH

SQLSTATE: 42802

AS 句で指定されたエイリアスの数が、UDTF によって出力される列の数と一致しません。

エイリアス <aliasesSize> 期待していましたが、 <aliasesNames>されました。

指定されたエイリアスの数が、UDTF によって出力される列の数と一致していることを確認してください。

UDTF_INVALID_ALIAS_IN_REQUESTED_ORDERING_STRING_FROM_ANALYZE_METHOD

SQLSTATE: 42802

ユーザー定義テーブル関数の 'analyze' メソッドが、列名式に不要なエイリアス <aliasName>が含まれている要求された OrderingColumn を返したため、ユーザー定義テーブル関数の評価に失敗しました。このエイリアスを削除してから、クエリを再試行してください。

UDTF_INVALID_REQUESTED_SELECTED_EXPRESSION_FROM_ANALYZE_METHOD_REQUIRES_ALIAS

SQLSTATE: 42802

ユーザー定義のテーブル関数の評価に失敗しました。これは、その 'analyze' メソッドが、対応するエイリアスを含まない要求された 'select' 式 (<expression>) を返したためです。UDTFを更新してエイリアスを指定してから、クエリを再試行してください。

UNABLE_TO_ACQUIRE_MEMORY

SQLSTATE: 53200

<requestedBytes>バイトのメモリを取得できませんでした。<receivedBytes>を取得しました。

UNABLE_TO_CONVERT_TO_PROTOBUF_MESSAGE_TYPE

SQLSTATE: 42K0G

SQL タイプ <toType> を Protobuf タイプ <protobufType>に変換できません。

UNABLE_TO_FETCH_HIVE_TABLES

SQLSTATE: 58030

Hive データベースのテーブルをフェッチできません: <dbName>. エラー クラス名: <className>.

UNABLE_TO_INFER_SCHEMA

SQLSTATE: 42KD9

<format>のスキーマを推測できません。手動で指定する必要があります。

UNAUTHORIZED_ACCESS

SQLSTATE: 42501

不正アクセス:

<report>

UNBOUND_SQL_PARAMETER

SQLSTATE: 42P02

バインドされていないパラメーターが見つかりました: <name>argsを修正し、map()array()struct()などの SQL リテラルまたはコレクションコンストラクタ関数へのパラメーターのマッピングを提供してください。

UNCLOSED_BRACKETED_COMMENT

SQLSTATE: 42601

括弧で囲まれていないコメントが見つかりました。 コメントの最後に*/を付けてください。

UNEXPECTED_INPUT_TYPE

SQLSTATE: 42K09

関数 <functionName> のパラメーター <paramIndex> には <requiredType> 型が必要ですが、<inputSql> 型は <inputType>です。

UNEXPECTED_INPUT_TYPE_OF_NAMED_PARAMETER

SQLSTATE: 42K09

function <functionName><namedParamKey> パラメーターには <requiredType> 型が必要ですが、<inputSql> の型は <inputType>です。<hint>

UNEXPECTED_OPERATOR_IN_STREAMING_VIEW

SQLSTATE: 42KDD

予期しない演算子がストリーミング ソースとして CREATE VIEW ステートメントに<op>されています。

ストリーミング ビュー クエリは、 SELECTWHERE、および UNION ALL 操作のみで構成する必要があります。

UNEXPECTED_POSITIONAL_ARGUMENT

SQLSTATE: 4274K

ルーチン <routineName> を呼び出すことはできません。 <parameterName>に割り当てられた名前付き引数の後に位置引数が含まれているためです。位置引数が最初に来るように再配置してから、クエリを再試行してください。

UNEXPECTED_SERIALIZER_FOR_CLASS

SQLSTATE: 42846

クラス <className> に予期しない式シリアライザーがあります。 「STRUCT」または「IF」を期待し、「STRUCT」を返しますが、 <expr>が見つかりました。

UNKNOWN_FIELD_EXCEPTION

SQLSTATE: KD003

解析中に <changeType> が検出されました: <unknownFieldBlob>これは、自動再試行で修正できます。 <isRetryable>

詳細については、 UNKNOWN_FIELD_EXCEPTION

UNKNOWN_POSITIONAL_ARGUMENT

SQLSTATE: 4274K

ルーチン <routineName> の呼び出しには、位置 . <pos>に不明な位置引数 <sqlExpr> が含まれています。これは無効です。

UNKNOWN_PRIMITIVE_TYPE_IN_VARIANT

SQLSTATE: 22023 です。

ID が <id> の不明なプリミティブ型がバリアント値で見つかりました。

UNKNOWN_PROTOBUF_MESSAGE_TYPE

SQLSTATE: 42K0G

<descriptorName>をメッセージとして扱おうとしましたが、<containingType>でした。

UNPIVOT_REQUIRES_ATTRIBUTES

SQLSTATE: 42K0A

UNPIVOT <empty>式が指定されていない場合、指定されたすべての<given>式を列にする必要があります。これらは列ではありません: [<expressions>]。

UNPIVOT_REQUIRES_VALUE_COLUMNS

SQLSTATE: 42K0A

UNPIVOTには、少なくとも 1 つの値列を指定する必要があります。すべての列は id として指定されます。

UNPIVOT_VALUE_DATA_TYPE_MISMATCH

SQLSTATE: 42K09

ピボット解除値の列は、最も一般的でないタイプを共有する必要がありますが、一部のタイプは共有しません: [<types>]。

UNPIVOT_VALUE_SIZE_MISMATCH

SQLSTATE: 428C4

すべてのピボット解除値列は、値列名(<names>)と同じサイズである必要があります。

UNRECOGNIZED_PARAMETER_NAME

SQLSTATE: 4274K

ルーチン呼び出しには、<argumentName>という名前の引数の名前付き引数参照が含まれていたため、ルーチン <routineName> を呼び出すことができませんが、このルーチンには、この名前の引数を含むシグネチャは含まれていません。次のいずれかを意味しましたか? [<proposal>] をクリックします。

UNRECOGNIZED_SQL_TYPE

SQLSTATE: 42704

認識できない SQL タイプ - 名前: <typeName>、id: <jdbcType>.

UNRECOGNIZED_STATISTIC

SQLSTATE: 42704

統計 <stats> が認識されません。 有効な統計には、 countcount_distinctapprox_count_distinctmeanstddevminmax、パーセンタイルの値が含まれます。 パーセンタイルは、0% から 100% の範囲で、数値の後に '%' を付ける必要があります。

UNRESOLVABLE_TABLE_VALUED_FUNCTION

SQLSTATE: 42883

テーブル値関数への <name> を解決できませんでした。

<name>がテーブル値関数として定義されていること、およびすべての必須パラメーターが正しく指定されていることを確認してください。

<name>が定義されていない場合は、テーブル値関数を作成してから使用してください。

テーブル値関数の定義の詳細については、 Apache Spark のドキュメントを参照してください。

UNRESOLVED_ALL_IN_GROUP_BY

SQLSTATE: 42803

select 句に基づいて GROUP BY ALL のグループ化列を推論することはできません。 グループ化列を明示的に指定してください。

UNRESOLVED_COLUMN

SQLSTATE: 42703

名前が <objectName> の列、変数、または関数パラメーターは解決できません。

詳細については、 UNRESOLVED_COLUMN

UNRESOLVED_FIELD

SQLSTATE: 42703

名前が <fieldName> のフィールドは、struct-type 列 <columnPath>では解決できません。

詳細については、UNRESOLVED_FIELDを参照してください

UNRESOLVED_MAP_KEY

SQLSTATE: 42703

<objectName> をマップ・キーとして解決できません。 キーが文字列リテラルの場合は、一重引用符 '' で囲みます。

詳細については、 UNRESOLVED_MAP_KEY

UNRESOLVED_ROUTINE

SQLSTATE: 42883

検索パス のルーチン <routineName> を解決できません <searchPath>

<routineName>のスペルを確認し、ルーチンが存在することを確認し、カタログとスキーマに対する特権を持っていること、およびルーチンUSE``EXECUTEしていることを確認します。

詳細については、 UNRESOLVED_ROUTINE

UNRESOLVED_USING_COLUMN_FOR_JOIN

SQLSTATE: 42703

USING<colName> は、結合の <side> 側では解決できません。 <side>側の列:[<suggestion>]。

UNRESOLVED_VARIABLE

SQLSTATE: 42883

検索パス の変数<variableName>を解決できません <searchPath>

UNSTRUCTURED_DATA_PROCESSING_UNSUPPORTED_FILE_FORMAT

SQLSTATE: 0A000

非構造化ファイル形式の <format> はサポートされていません。 サポートされているファイル形式は <supportedFormats>です。

format<expr>式からサポートされている形式のいずれかに更新してから、クエリを再試行してください。

UNSTRUCTURED_DATA_PROCESSING_UNSUPPORTED_MODEL

SQLSTATE: 0A000

非構造化モデル <model> はサポートされていません。 サポートされているモデルは <supportedModels>です。

サポートされているモデルのいずれかに切り替えてから、クエリを再試行してください。

UNSTRUCTURED_OCR_COLUMN_NOT_ALLOWED_WITH_METADATA_MODEL_OPTION

SQLSTATE: 42000

function パラメーター 'ocrText' は、'metadataModel' オプションを指定する場合は NULL または省略する必要があります。 指定された 'metadataModel' オプションは、指定された 'ocrText' が禁止されているメタデータ抽出をトリガーします。

UNSUPPORTED_ADD_FILE

SQLSTATE: 0A000

ファイルの追加をサポートしていません。

詳細については、「 UNSUPPORTED_ADD_FILE

UNSUPPORTED_ALTER_COLUMN_PARAMETER

SQLSTATE: 0A000

ALTER <commandTableType> での<parameter>の指定はサポートされていません。

UNSUPPORTED_ARROWTYPE

SQLSTATE: 0A000

サポートされていない矢印タイプ <typeName>.

UNSUPPORTED_BATCH_TABLE_VALUED_FUNCTION

SQLSTATE: 42000

関数 <funcName> はバッチ問合せをサポートしていません。

UNSUPPORTED_CALL

SQLSTATE: 0A000

クラス "<className>" のメソッド "<methodName>" を呼び出すことはできません。

詳細については、 UNSUPPORTED_CALL

UNSUPPORTED_CHAR_OR_VARCHAR_AS_STRING

SQLSTATE: 0A000

char/varchar 型は、テーブル スキーマでは使用できません。

Spark 3.0以前と同様にSparkで文字列型として扱う場合は、「spark.sql.legacy.charVarcharAsString」を「true」に設定してください。

UNSUPPORTED_CLAUSE_FOR_OPERATION

SQLSTATE: 0A000

<clause><operation>ではサポートされていません。

UNSUPPORTED_COLLATION

SQLSTATE: 0A000

照合 <collationName> は、次の場合にはサポートされていません。

詳細については、 UNSUPPORTED_COLLATION

UNSUPPORTED_COMMON_ANCESTOR_LOC_FOR_FILE_STREAM_SOURCE

SQLSTATE: 42616

ソース・パスとsourceArchiveDirの共通の祖先は、UCに登録する必要があります。

このエラー メッセージが表示される場合は、ソース パスと sourceArchiveDir を別の外部ロケーションに登録している可能性があります。

それらを単一の外部ロケーションに入れてください。

UNSUPPORTED_CONSTRAINT_CLAUSES

SQLSTATE: 0A000

制約句 <clauses> はサポートされていません。

UNSUPPORTED_CONSTRAINT_TYPE

SQLSTATE: 42000

サポートされていない制約タイプです。 <supportedConstraintTypes>のみがサポートされています

UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY

SQLSTATE: 0A000

ファイルに対する直接クエリでサポートされていないデータソースの種類: <dataSourceType>

UNSUPPORTED_DATATYPE

SQLSTATE: 0A000

サポートされていないデータ型 <typeName>.

UNSUPPORTED_DATA_SOURCE_SAVE_MODE

SQLSTATE: 0A000

<createMode>モードでは、データソース「<source>」を書き込むことはできません。代わりに「追加」モードまたは「上書き」モードを使用してください。

UNSUPPORTED_DATA_TYPE_FOR_DATASOURCE

SQLSTATE: 0A000

<format>データソースは、タイプ <columnType>の列<columnName>をサポートしていません。

UNSUPPORTED_DATA_TYPE_FOR_ENCODER

SQLSTATE: 0A000

<dataType>のエンコーダーを作成できません。UDF または DataFrame には、別の出力データ型を使用してください。

UNSUPPORTED_DEFAULT_VALUE

SQLSTATE: 0A000

DEFAULT 列の値はサポートされていません。

詳細については、 UNSUPPORTED_DEFAULT_VALUE

UNSUPPORTED_DESERIALIZER

SQLSTATE: 0A000

デシリアライザーはサポートされていません。

詳細については、 UNSUPPORTED_DESERIALIZER

UNSUPPORTED_EXPRESSION_GENERATED_COLUMN

SQLSTATE: 42621

生成式 <expressionStr> で生成列<fieldName>を作成できません。これは<reason>.

UNSUPPORTED_EXPR_FOR_OPERATOR

SQLSTATE: 42K0E

クエリ演算子に、サポートされていない式が 1 つ以上含まれています。

WHERE句でウィンドウ関数、集計関数、ジェネレータ関数を避けるために書き直すことを検討してください。

無効な式: [<invalidExprSqls>]

UNSUPPORTED_EXPR_FOR_PARAMETER

SQLSTATE: 42K0E

クエリ パラメーターにサポートされていない式が含まれています。

パラメーターは、変数またはリテラルのいずれかです。

無効な式: [<invalidExprSql>]

UNSUPPORTED_EXPR_FOR_WINDOW

SQLSTATE: 42P20

<sqlExpr> ウィンドウ関数内ではサポートされていません。

UNSUPPORTED_FEATURE

SQLSTATE: 0A000

この機能は、次の場合はサポートされていません。

詳細については、「 UNSUPPORTED_FEATURE

UNSUPPORTED_FN_TYPE

SQLSTATE: 0A000

サポートされていないユーザー定義関数タイプ: <language>

UNSUPPORTED_GENERATOR

SQLSTATE: 42K0E

ジェネレータはサポートされていません。

詳細については、 UNSUPPORTED_GENERATOR

UNSUPPORTED_GROUPING_EXPRESSION

SQLSTATE: 42K0E

grouping()/grouping_id() は GroupingSets/Cube/Rollup でのみ使用できます。

UNSUPPORTED_INITIAL_POSITION_AND_TRIGGER_PAIR_FOR_KINESIS_SOURCE

SQLSTATE: 42616

<trigger> 初期位置が <initialPosition> の場合は、Kinesis ソースではサポートされていません

UNSUPPORTED_INSERT

SQLSTATE: 42809

ターゲットに挿入できません。

詳細については、UNSUPPORTED_INSERTを参照してください。

UNSUPPORTED_JOIN_TYPE

SQLSTATE: 0A000

サポートされていない結合の種類 '<typ>'。 サポートされている結合タイプは次のとおりです。 <supported>

UNSUPPORTED_MANAGED_TABLE_CREATION

SQLSTATE: 0AKDD

データソース<dataSource>を使用したマネージドテーブル<tableName>の作成はサポートされていません。データソース DELTA を使用するか、 CREATE EXTERNAL TABLE <tableName> ... USING <dataSource> ...

UNSUPPORTED_MERGE_CONDITION

SQLSTATE: 42K0E

MERGE 操作にサポートされていない <condName> 条件が含まれています。

詳細については、「 UNSUPPORTED_MERGE_CONDITION

UNSUPPORTED_NESTED_ROW_OR_COLUMN_ACCESS_POLICY

SQLSTATE: 0A000

テーブル <tableName> には、行レベルのセキュリティ・ポリシーまたはカラム・マスクを持つ別のテーブルを間接的に参照する行レベルのセキュリティ・ポリシーまたはカラム・マスクがあります。これはサポートされていません。 呼び出しシーケンス: <callSequence>

UNSUPPORTED_OVERWRITE

SQLSTATE: 42902

読み取り元のターゲットを上書きすることはできません。

詳細については、 UNSUPPORTED_OVERWRITE

UNSUPPORTED_PARTITION_TRANSFORM

SQLSTATE: 0A000

サポートされていないパーティション変換: <transform>. サポートされている変換は、 identitybucket、および clusterByです。 トランスフォーム式でこれらのいずれかが使用されていることを確認します。

UNSUPPORTED_SAVE_MODE

SQLSTATE: 0A000

保管モード <saveMode> は、次の場合にはサポートされていません。

詳細については、 UNSUPPORTED_SAVE_MODE

UNSUPPORTED_SHOW_CREATE_TABLE

SQLSTATE: 0A000

SHOW CREATE TABLEコマンドがサポートされていません。

詳細については、 UNSUPPORTED_SHOW_CREATE_TABLE

UNSUPPORTED_SINGLE_PASS_ANALYZER_FEATURE

SQLSTATE: 0A000

シングルパス アナライザーは、 <feature>をまだサポートしていないため、このクエリまたはコマンドを処理できません。

UNSUPPORTED_STREAMING_OPERATOR_WITHOUT_WATERMARK

SQLSTATE: 0A000

<outputMode> 出力モードは、ウォーターマークのないストリーミング / データセットの<statefulOperator>ではサポートされていません DataFrames

UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW

SQLSTATE: 0A000

ビューのストリーミングはサポートされていません。 理由:

詳細については、 UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW

UNSUPPORTED_STREAMING_OPTIONS_PERMISSION_ENFORCED

SQLSTATE: 0A000

ストリーミング オプション <options> は、標準アクセス モード クラスター (以前の共有) のデータソース <source> ではサポートされていません。 オプションが指定され、スペルが正しいことを確認し、制限がないか https://docs.databricks.com/en/compute/access-mode-limitations.html#streaming-limitations-and-requirements-for-unity-catalog-shared-access-mode を確認してください。

UNSUPPORTED_STREAMING_SINK_PERMISSION_ENFORCED

SQLSTATE: 0A000

データソース <sink> は、標準アクセス モード クラスター (以前の共有) のストリーミング シンクとしてはサポートされていません。

UNSUPPORTED_STREAMING_SOURCE_PERMISSION_ENFORCED

SQLSTATE: 0A000

データソース <source> は、標準アクセスモードのクラスター (以前の共有) のストリーミング ソースとしてはサポートされていません。

UNSUPPORTED_STREAMING_TABLE_VALUED_FUNCTION

SQLSTATE: 42000

機能 <funcName> はストリーミングをサポートしていません。 STREAMキーワードを削除してください

UNSUPPORTED_STREAM_READ_LIMIT_FOR_KINESIS_SOURCE

SQLSTATE: 0A000

<streamReadLimit> Kinesis ソースではサポートされていません

UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY

SQLSTATE: 0A000

サポートされていないサブクエリ式:

詳細については、 UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY

UNSUPPORTED_TIMESERIES_COLUMNS

SQLSTATE: 56038

時系列列を使用したプライマリ・キーの作成はサポートされていません

UNSUPPORTED_TIMESERIES_WITH_MORE_THAN_ONE_COLUMN

SQLSTATE: 0A000

複数の時系列カラム <colSeq> を持つプライマリキーの作成はサポートされていません

UNSUPPORTED_TRIGGER_FOR_KINESIS_SOURCE

SQLSTATE: 0A000

<trigger> Kinesis ソースではサポートされていません

UNSUPPORTED_TYPED_LITERAL

SQLSTATE: 0A000

<unsupportedType> 型のリテラルはサポートされていません。サポートされているタイプは <supportedTypes>です。

UNSUPPORTED_UDF_FEATURE

SQLSTATE: 0A000

この関数 <function> では、新しいバージョンの Databricks ランタイムを必要とする次の機能を使用します。 <features>. 詳しくは <docLink> にご相談ください。

UNSUPPORTED_UDF_TYPES_IN_SAME_PLACE

SQLSTATE: 0A000

UDF タイプを一緒に使用することはできません。 <types>

UNTYPED_SCALA_UDF

SQLSTATE: 42K0E

入力タイプ情報がない型指定されていない Scala UDF を使用しています。

Spark は、プリミティブ型の引数を使用して Scala クロージャに盲目的に null を渡す場合があり、クロージャは null 引数の Java 型のデフォルト値を参照します。 udf((x: Int) => x, IntegerType)、null 入力の場合、結果は 0 です。 このエラーを解決するには、次の方法があります。

  1. 型指定された Scala UDF APIs(戻り値の型パラメーターなし)を使用します。 udf((x: Int) => x)
  2. Java UDF APIsを使用します。udf(new UDF1[String, Integer] { override def call(s: String): Integer = s.length() }, IntegerType)、入力タイプがすべて非プリミティブの場合。
  3. "spark.sql.legacy.allowUntypedScalaUDF" を "true" に設定し、この API は注意して使用してください。

UPGRADE_NOT_SUPPORTED

SQLSTATE: 0AKUC

テーブルは Hive metastore から Unity Catalogへのアップグレードの対象外です。 理由:

詳細については、 UPGRADE_NOT_SUPPORTED

USER_DEFINED_FUNCTIONS

SQLSTATE: 42601

ユーザー定義関数が無効です:

詳細については、 USER_DEFINED_FUNCTIONS

USER_RAISED_EXCEPTION

SQLSTATE: P0001

<errorMessage>

USER_RAISED_EXCEPTION_PARAMETER_MISMATCH

SQLSTATE: P0001

raise_error()関数は、エラークラス<errorClass>、パラメーターを期待する<expectedParms>を発生させるために使用されました。

指定されたパラメーターは、予期されるパラメーターと一致しません <providedParms>

必要なパラメーターをすべて指定してください。

USER_RAISED_EXCEPTION_UNKNOWN_ERROR_CLASS

SQLSTATE: P0001

raise_error()関数は、不明なエラークラスを発生させるために使用されました。 <errorClass>

VARIABLE_ALREADY_EXISTS

SQLSTATE: 42723

変数 <variableName> は既に存在するため、作成できません。

別の名前を選択するか、既存の変数を削除または置き換えます。

VARIABLE_NOT_FOUND

SQLSTATE: 42883

変数 <variableName> が見つかりません。 スキーマとカタログのスペルと正確性を確認します。

スキーマとカタログで名前を修飾しなかった場合、current_schema() 出力を確認するか、正しいスキーマとカタログで名前を修飾します。

ドロップ時のエラーを許容するには、 DROP VARIABLE IF EXISTS.

VARIANT_CONSTRUCTOR_SIZE_LIMIT

SQLSTATE: 22023 です。

16 MiB を超えるバリアントは作成できません。 バリアント値の最大許容サイズは 16 MiB です。

VARIANT_DUPLICATE_KEY

SQLSTATE: 22023 です。

オブジェクト キー が重複しているため、バリアントをビルドできませんでした <key>.

VARIANT_SIZE_LIMIT

SQLSTATE: 22023 です。

<functionName><sizeLimit> より大きいバリアントをビルドできません。

この式への大きな入力文字列は避けてください (たとえば、関数呼び出しを追加して式のサイズを確認し、大きすぎる場合は最初に NULL 1 に変換します)。

VIEW_ALREADY_EXISTS

SQLSTATE: 42P07

ビュー <relationName> は既に存在するため、作成できません。

別の名前を選択するか、既存のオブジェクトを削除または置換するか、既存のオブジェクトを許容する IF NOT EXISTS 句を追加します。

VIEW_EXCEED_MAX_NESTED_DEPTH

SQLSTATE: 54K00

<viewName>のビューの深さが最大ビュー解像度の深さ(<maxNestedDepth>)を超えています。

エラーを避けるために解析は中止されます。 これを回避したい場合は、「spark.sql.view.maxNestedViewDepth」の値を増やしてみてください。

VIEW_NOT_FOUND

SQLSTATE: 42P01

ビュー <relationName> 見つかりません。 スキーマとカタログのスペルと正確性を確認します。

スキーマで名前を修飾しなかった場合、current_schema() 出力を確認するか、正しいスキーマとカタログで名前を修飾します。

ドロップ時のエラーを許容するには、 DROP VIEW IF EXISTS.

VOLUME_ALREADY_EXISTS

SQLSTATE: 42000

ボリューム <relationName> は既に存在するため、作成できません。

別の名前を選択するか、既存のオブジェクトを削除または置換するか、既存のオブジェクトを許容する IF NOT EXISTS 句を追加します。

WINDOW_FUNCTION_AND_FRAME_MISMATCH

SQLSTATE: 42K0E

<funcName> function は、1 つのオフセット ( <windowExpr>) を持つ順序付けられた行ベースのウィンドウ フレームでのみ評価できます。

WINDOW_FUNCTION_WITHOUT_OVER_CLAUSE

SQLSTATE: 42601

ウィンドウ関数 <funcName> には OVER 句が必要です。

WITH_CREDENTIAL

SQLSTATE: 42601

WITH CREDENTIAL 構文は <type>ではサポートされていません。

WRITE_STREAM_NOT_ALLOWED

SQLSTATE: 42601

writeStream は、ストリーミング データセット/DataFrameでのみ呼び出すことができます。

WRONG_COLUMN_DEFAULTS_FOR_DELTA_ALTER_TABLE_ADD_COLUMN_NOT_SUPPORTED

SQLSTATE: 0AKDC

新しいDEFAULT

列を以前に存在していた Delta テーブルに格納します。デフォルトなしで列を追加してください

最初に値を設定し、次に 2 番目の ALTER TABLE ALTER COLUMN SET DEFAULT コマンドを実行して適用します

代わりに、将来挿入される行に使用します。

WRONG_COLUMN_DEFAULTS_FOR_DELTA_FEATURE_NOT_ENABLED

SQLSTATE: 0AKDE

<commandType>コマンドが列DEFAULT値を割り当てたため、コマンドの実行に失敗しました。

しかし、対応するテーブル機能が有効になっていませんでした。 コマンドを再試行してください

tableName の実行後ALTER TABLE SET

TBLPROPERTIES('delta.feature.allowColumnDefaults' = 'supported') です。

WRONG_COMMAND_FOR_OBJECT_TYPE

SQLSTATE: 42809

操作 <operation> には <requiredType>が必要です。 しかし、 <objectName><foundType>です。 代わりに <alternative> を使用してください。

WRONG_NUM_ARGS

SQLSTATE: 42605

<functionName>には <expectedNum> パラメーターが必要ですが、実際の数は <actualNum>です。

詳細については、 WRONG_NUM_ARGS

XML_ROW_TAG_MISSING

SQLSTATE: 42KDF

<rowTag> オプションは、XML 形式のファイルを読み取るために必要です。

XML_UNSUPPORTED_NESTED_TYPES

SQLSTATE: 0N000

XML では、<dataType>の内部タイプとして <innerDataType> はサポートされていません。<dataType>内で<innerDataType>を使用する場合は、StructTypeフィールドで囲んでください。

XML_WILDCARD_RESCUED_DATA_CONFLICT_ERROR

SQLSTATE: 22023 です。

レスキューされたデータとワイルドカード列を同時に有効にすることはできません。 wildcardColumnName オプションを削除します。

ZORDERBY_COLUMN_DOES_NOT_EXIST

SQLSTATE: 42703

ZOrderBy 列 <columnName> が存在しません。

Delta Lake

DELTA_ACTIVE_SPARK_SESSION_NOT_FOUND

SQLSTATE: 08003

アクティブな SparkSession が見つかりませんでした

DELTA_ACTIVE_TRANSACTION_ALREADY_SET

SQLSTATE: 0B000

新しいtxnがすでにアクティブになっている場合は、アクティブとして設定できません

DELTA_ADDING_COLUMN_WITH_INTERNAL_NAME_FAILED

SQLSTATE: 42000

名前が予約されているため、列 <colName> を追加できませんでした。

DELTA_ADDING_DELETION_VECTORS_DISALLOWED

SQLSTATE: 0A000

現在の操作で、新しい削除ベクトルの作成が許可されていないテーブルに削除ベクトルを追加しようとしました。 バグレポートを提出してください。

DELTA_ADDING_DELETION_VECTORS_WITH_TIGHT_BOUNDS_DISALLOWED

SQLSTATE: 42000

削除ベクトルを追加するすべての操作では、統計の tightBounds 列を false に設定する必要があります。 バグレポートを提出してください。

DELTA_ADD_COLUMN_AT_INDEX_LESS_THAN_ZERO

SQLSTATE: 42KD3

<columnName>を追加するインデックス<columnIndex>が 0 より小さい

DELTA_ADD_COLUMN_PARENT_NOT_STRUCT

SQLSTATE: 42KD3

<columnName> は、親が StructType ではないため、追加できません。設立する <other>

DELTA_ADD_COLUMN_STRUCT_NOT_FOUND

SQLSTATE: 42KD3

構造体が位置に見つかりません <position>

DELTA_ADD_CONSTRAINTS

SQLSTATE: 0A000

CHECK制約を追加するにはALTER TABLE ADD CONSTRAINTを使用してください。

DELTA_AGGREGATE_IN_GENERATED_COLUMN

SQLSTATE: 42621

<sqlExpr>見つかりました。生成された列では、集計式を使用できません

DELTA_AGGREGATION_NOT_SUPPORTED

SQLSTATE: 42903

集計関数は <operation> <predicate>ではサポートされていません。

DELTA_ALTER_COLLATION_NOT_SUPPORTED_BLOOM_FILTER

SQLSTATE: 428FR

<column> の照合順序を変更できませんでした。これは、ブルーム フィルター インデックスがあるためです。 既存の照合順序を保持するか、ブルーム フィルタ インデックスを削除してから、コマンドを再試行して照合順序を変更してください。

DELTA_ALTER_COLLATION_NOT_SUPPORTED_CLUSTER_BY

SQLSTATE: 428FR

<column> の照合順序を変更できませんでした。これは、クラスタリング列であるためです。 既存の照合を保持するか、 ALTER TABLE コマンドを使用してカラムを非クラスタリングカラムに変更し、コマンドを再試行して照合を変更してください。

DELTA_ALTER_TABLE_CHANGE_COL_NOT_SUPPORTED

SQLSTATE: 42837

ALTER TABLE CHANGE COLUMN は、列 <currentType> の変更はサポートされていません。 <newType>

DELTA_ALTER_TABLE_CLUSTER_BY_NOT_ALLOWED

SQLSTATE: 42000

ALTER TABLE CLUSTER BY は Delta リキッドクラスタリングのあるテーブルでのみサポートされています。

DELTA_ALTER_TABLE_CLUSTER_BY_ON_PARTITIONED_TABLE_NOT_ALLOWED

SQLSTATE: 42000

ALTER TABLE CLUSTER BY パーティション・テーブルには適用できません。

DELTA_ALTER_TABLE_RENAME_NOT_ALLOWED

SQLSTATE: 42000

操作は許可されていません: S3 上の最終的な整合性によって Delta トランザクション ログが破損する可能性があるため、S3 上のマネージド Delta テーブルでは ALTER TABLE RENAME TO は許可されません。 そうすることを主張し、新しい名前の <newName> Delta テーブルが以前に存在したことがないことが確実な場合は、 <key> を true に設定することでこれを有効にすることができます。

DELTA_ALTER_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED

SQLSTATE: 42000

ALTER TABLE SET TBLPROPERTIESを使用して<tableFeature>テーブル機能を有効にすることはできません。CREATE OR REPLACE TABLE CLUSTER BY を使用して、クラスタリングを含む Delta テーブルを作成してください。

DELTA_AMBIGUOUS_DATA_TYPE_CHANGE

SQLSTATE: 429BQ

<column>のデータ型を <from> から <to>に変更することはできません。この変更には列の削除と追加が含まれているため、あいまいです。 これらの変更は、 ALTER TABLE [ADD | DROP | RENAME] COLUMNを使用して個別に行ってください。

DELTA_AMBIGUOUS_PARTITION_COLUMN

SQLSTATE: 42702

あいまいなパーティション列 <column><colMatches>できます。

DELTA_AMBIGUOUS_PATHS_IN_CREATE_TABLE

SQLSTATE: 42613

CREATE TABLE には、 <identifier><location>の 2 つの異なる場所が含まれています。

CREATE TABLE ステートメントから LOCATION 句を削除するか、

<config> このチェックをスキップするには、true に設定します。

DELTA_ARCHIVED_FILES_IN_LIMIT

SQLSTATE: 42KDC

<table> には、指定された<limit>レコードのLIMITを満たすのに十分なアーカイブされていないファイルのレコードが含まれていません。

DELTA_ARCHIVED_FILES_IN_SCAN

SQLSTATE: 42KDC

このクエリの一部としてスキャンする必要がある <numArchivedFiles> 、テーブル <table> にアーカイブされている可能性のあるファイルが見つかりました。

アーカイブされたファイルにはアクセスできません。 アーカイブまでの現在時刻は <archivalTime>として構成されています。

クエリ フィルタを調整して、アーカイブされたファイルを除外してください。

DELTA_BLOCK_COLUMN_MAPPING_AND_CDC_OPERATION

SQLSTATE: 42KD4

オペレーション "<opName>" は、テーブルがチェンジデータフィード (CDF) を有効にし、 DROP COLUMN または RENAME COLUMNを使用してスキーマを変更した場合は使用できません。

DELTA_BLOOM_FILTER_DROP_ON_NON_EXISTING_COLUMNS

SQLSTATE: 42703

次の存在しない列のブルームフィルターインデックスを削除できません: <unknownColumns>

DELTA_BLOOM_FILTER_OOM_ON_WRITE

SQLSTATE: 82100

次の列のブルームフィルターインデックスの書き込み中にOutOfMemoryErrorが発生しました <columnsWithBloomFilterIndices>

ブルームフィルタインデックスのメモリフットプリントを減らすには、'numItems' オプションに小さい値を選択し、'fpp' オプションに大きい値を選択するか、インデックスを作成する列を減らします。

DELTA_CANNOT_CHANGE_DATA_TYPE

SQLSTATE: 429BQ

データ型を変更できません: <dataType>

DELTA_CANNOT_CHANGE_LOCATION

SQLSTATE: 42601

Delta テーブルの '場所' を SET TBLPROPERTIESを使用して変更することはできません。 代わりに ALTER TABLE SET LOCATION をご利用ください。

DELTA_CANNOT_CHANGE_PROVIDER

SQLSTATE: 42939

'provider' は予約済みのテーブル プロパティであり、変更することはできません。

DELTA_CANNOT_CREATE_BLOOM_FILTER_NON_EXISTING_COL

SQLSTATE: 42703

次の存在しない列のブルームフィルターインデックスを作成できません。 <unknownCols>

DELTA_CANNOT_CREATE_LOG_PATH

SQLSTATE: 42KD5

作成できません <path>

DELTA_CANNOT_DESCRIBE_VIEW_HISTORY

SQLSTATE: 42809

ビューの履歴を説明できません。

DELTA_CANNOT_DROP_BLOOM_FILTER_ON_NON_INDEXED_COLUMN

SQLSTATE: 42703

インデックスが作成されていない列にブルーム フィルター インデックスを削除できません。 <columnName>

DELTA_CANNOT_DROP_CHECK_CONSTRAINT_FEATURE

SQLSTATE: 0AKDE

CHECK制約テーブル機能を削除できません。

最初に削除する必要がある制約は、 <constraints>です。

DELTA_CANNOT_DROP_COLLATIONS_FEATURE

SQLSTATE: 0AKDE

照合テーブル機能を削除できません。

デフォルト以外の照合順序を持つ列は、最初に UTF8_BINARY を使用するように変更する必要があります ( <colNames>)。

DELTA_CANNOT_EVALUATE_EXPRESSION

SQLSTATE: 0AKDC

式を評価できません: <expression>

DELTA_CANNOT_FIND_BUCKET_SPEC

SQLSTATE: 22000

バケット化 Delta テーブルが必要ですが、テーブルにバケット仕様が見つかりません

DELTA_CANNOT_GENERATE_CODE_FOR_EXPRESSION

SQLSTATE: 0AKDC

式のコードを生成できません: <expression>

DELTA_CANNOT_MODIFY_APPEND_ONLY

SQLSTATE: 42809

このテーブルは、追加のみを許可するように設定されています。 更新または削除を許可する場合は、'ALTER TABLE <table_name> SET TBLPROPERTIES (<config>=false)' を使用してください。

DELTA_CANNOT_MODIFY_COORDINATED_COMMITS_DEPENDENCIES

SQLSTATE: 42616

<Command> このテーブルでは Coordinated コミットが有効になっており、それらに依存しているため、In-commit Timestamp テーブルのプロパティをオーバーライドまたは設定解除することはできません。 それらを削除してください("delta.enableInCommitTimestamps"、 "delta.inCommitTimestampEnablementVersion"、 "delta.inCommitTimestampEnablementTimestamp") を TBLPROPERTIES 句から実行し、コマンドを再試行します。

DELTA_CANNOT_MODIFY_TABLE_PROPERTY

SQLSTATE: 42939

Delta テーブル構成 <prop> はユーザーが指定できません

DELTA_CANNOT_OVERRIDE_COORDINATED_COMMITS_CONFS

SQLSTATE: 42616

<Command> 既存のターゲット・テーブルの整合されたコミット設定をオーバーライドすることはできません。 それら ("delta.coordinatedCommits.commitCoordinator-preview"、"delta.coordinatedCommits.commitCoordinatorConf-preview"、"delta.coordinatedCommits.tableConf-preview") を TBLPROPERTIES 句から削除してから、コマンドを再試行してください。

DELTA_CANNOT_RECONSTRUCT_PATH_FROM_URI

SQLSTATE: 22KD1

相対パスに変換できない uri (<uri>) がトランザクション ログで見つかりました。

DELTA_CANNOT_RELATIVIZE_PATH

SQLSTATE: 42000

パス (<path>) は、

トランザクション・ログ。 これを次のように再実行してください。

%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog("<userPath>", true)

次に、次のコマンドも実行します。

%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog("<path>")

DELTA_CANNOT_RENAME_PATH

SQLSTATE: 22KD1

<currentPath>の名前を に変更できません <newPath>

DELTA_CANNOT_REPLACE_MISSING_TABLE

SQLSTATE: 42P01

テーブル <tableName> は存在しないため、置き換えることはできません。 CREATE OR REPLACE TABLE を使用してテーブルを作成します。

DELTA_CANNOT_RESOLVE_COLUMN

SQLSTATE: 42703

<columnName> を解決できません <schema>

DELTA_CANNOT_RESTORE_TABLE_VERSION

SQLSTATE: 22003

テーブルをバージョン <version>に復元できません。 利用可能なバージョン: [<startVersion>, <endVersion>]。

DELTA_CANNOT_RESTORE_TIMESTAMP_EARLIER

SQLSTATE: 22003

テーブルをタイムスタンプ (<requestedTimestamp>) に復元することはできません。これは、使用可能な最も古いバージョンより前の状態であるためです。 タイムスタンプは(<earliestTimestamp>)の後に使用してください。

DELTA_CANNOT_RESTORE_TIMESTAMP_GREATER

SQLSTATE: 22003

テーブルをタイムスタンプ (<requestedTimestamp>) に復元することはできません。これは、利用可能な最新バージョンより後のためです。 (<latestTimestamp>) の前にタイムスタンプを使用してください

DELTA_CANNOT_SET_COORDINATED_COMMITS_DEPENDENCIES

SQLSTATE: 42616

<Command> コミット内タイムスタンプ テーブルのプロパティを coordinated コミットと共に設定することはできません。これは、後者が前者に依存し、前者を内部的に設定するためです。 それらを削除してください("delta.enableInCommitTimestamps"、 "delta.inCommitTimestampEnablementVersion"、 "delta.inCommitTimestampEnablementTimestamp") を TBLPROPERTIES 句から実行し、コマンドを再試行します。

DELTA_CANNOT_SET_LOCATION_ON_PATH_IDENTIFIER

SQLSTATE: 42613

パス・ベースのテーブルの場所は変更できません。

DELTA_CANNOT_SET_MANAGED_STATS_COLUMNS_PROPERTY

SQLSTATE: 42616

非 DLT テーブルに delta.managedDataSkippingStatsColumns を設定できません

DELTA_CANNOT_SET_UC_COMMIT_COORDINATOR_CONF_IN_COMMAND

SQLSTATE: 42616

コミットコーディネーターとして 'unity-catalog' を有効にすると、コマンドから設定 "<configuration>" を設定できません。 TBLPROPERTIES句から削除してから、コマンドを再試行してください。

DELTA_CANNOT_SET_UC_COMMIT_COORDINATOR_CONF_IN_SESSION

SQLSTATE: 42616

コミットコーディネーターとして 'unity-catalog' を有効にすると、SparkSession 設定から設定 "<configuration>" を設定できません。 spark.conf.unset("<configuration>")を実行して設定を解除し、コマンドを再試行してください。

DELTA_CANNOT_UNSET_COORDINATED_COMMITS_CONFS

SQLSTATE: 42616

ALTER 調整されたコミット構成の設定を解除することはできません。 調整されたコミットからテーブルをダウングレードするには、 TABLE[table-name]DROP FEATURE‘coordinatedCommits-preview’を使用して再試行ALTER

DELTA_CANNOT_UPDATE_ARRAY_FIELD

SQLSTATE: 429BQ

%1$s フィールドを更新できません %2$s タイプ: %2$s.element を更新して要素を更新してください。

DELTA_CANNOT_UPDATE_MAP_FIELD

SQLSTATE: 429BQ

%1$s フィールドを更新できません %2$s タイプ: %2$s.key または %2$s.value を更新してマップを更新してください。

DELTA_CANNOT_UPDATE_OTHER_FIELD

SQLSTATE: 429BQ

<tableName> タイプのフィールドを更新できません <typeName>

DELTA_CANNOT_UPDATE_STRUCT_FIELD

SQLSTATE: 429BQ

<tableName>フィールドを更新できません <fieldName> タイプ: フィールドを追加、削除、または更新して構造体を更新します

DELTA_CANNOT_USE_ALL_COLUMNS_FOR_PARTITION

SQLSTATE:428フィート

パーティション列にすべての列を使用することはできません

DELTA_CANNOT_VACUUM_LITE

SQLSTATE: 55000

VACUUM LITE は、一部のファイルが Delta ログによって参照されていないため、すべての対象ファイルを削除できるわけではありません。 VACUUM FULL実行してください。

DELTA_CANNOT_WRITE_INTO_VIEW

SQLSTATE: 0A000

<table> ビューです。 ビューへの書き込みはサポートされていません。

DELTA_CAST_OVERFLOW_IN_TABLE_WRITE

SQLSTATE: 22003

オーバーフローのため<sourceType>``<targetType>タイプの列<columnName>に値を書き込めませんでした。

入力値に try_cast を使用してオーバーフローを許容し、代わりに NULL を返します。

必要に応じて、<storeAssignmentPolicyFlag> を「LEGACY」に設定してこのエラーを回避するか、 <updateAndMergeCastingFollowsAnsiEnabledFlag> を true に設定して古い動作に戻し、UPDATEMERGE<ansiEnabledFlag>に従います。

DELTA_CDC_NOT_ALLOWED_IN_THIS_VERSION

SQLSTATE: 0AKDC

設定 delta.enableChangeDataFeed 設定できません。 Deltaからのチェンジデータフィードはまだ利用できません。

DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_DATA_SCHEMA

SQLSTATE: 0AKDC

バージョン <start><end> の間のテーブル変更の取得は、互換性のないデータ スキーマのために失敗しました。

読み取りスキーマはバージョン <readVersion><readSchema>されていますが、バージョン <incompatibleVersion>で互換性のないデータ スキーマが見つかりました。

可能であれば、 <config>endVersionに設定してエンド バージョンのスキーマを使用してテーブルの変更を取得するか、サポートにお問い合わせください。

DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_SCHEMA_CHANGE

SQLSTATE: 0AKDC

バージョン <start><end> の間のテーブル変更の取得は、互換性のないスキーマ変更のために失敗しました。

読み取りスキーマはバージョン <readVersion><readSchema>されていますが、バージョン <incompatibleVersion>で互換性のないスキーマの変更が見つかりました。

可能であれば、バージョン <start> から <incompatibleVersion> - 1 へ、およびバージョン <incompatibleVersion> から <end>へのテーブルの変更を個別にクエリを実行してください。

DELTA_CHANGE_DATA_FILE_NOT_FOUND

SQLSTATE: 42K03

トランザクション・ログで参照されているファイル・ <filePath> が見つかりません。 これは、データが table DELETE ステートメントを使用せずにファイル・システムから手動で削除された場合に発生する可能性があります。 このリクエストはチェンジデータフィードを対象としているように見えますが、その場合、変更データファイルが保持期間を過ぎ、 VACUUM ステートメントによって削除された場合にこのエラーが発生する可能性があります。 詳細については、以下を参照してください。 <faqPath>

DELTA_CHANGE_TABLE_FEED_DISABLED

SQLSTATE: 42807

delta.enableChangeDataFeed を使用してテーブルに書き込むことはできません セット。 Deltaからのチェンジデータフィードはご利用いただけません。

DELTA_CHECKPOINT_NON_EXIST_TABLE

SQLSTATE: 42K03

存在しないテーブル <path>をチェックポイントできません。 _delta_logディレクトリ内のファイルを手動で削除しましたか?

DELTA_CLONE_AMBIGUOUS_TARGET

SQLSTATE: 42613

CLONEターゲットとして 2 つのパスが提供されているため、どちらを使用するかはあいまいです。外部の

CLONEの位置は、パスと同時に<externalLocation>で提供されました

<targetIdentifier>.

DELTA_CLONE_INCOMPLETE_FILE_COPY

SQLSTATE: 42000

ファイル (<fileName>) は完全にはコピーされていません。 予想されるファイル サイズ: <expectedSize>、見つかりました: <actualSize>。 ファイル・サイズのチェックを無視して操作を続行するには、 <config> を false に設定します。

DELTA_CLONE_UNSUPPORTED_SOURCE

SQLSTATE: 0AKDC

サポートされていない <mode> クローン ソース '<name>' (形式は <format>です。

サポートされている形式は、「delta」、「iceberg」、「Parquet」です。

DELTA_CLUSTERING_CLONE_TABLE_NOT_SUPPORTED

SQLSTATE: 0A000

CLONE は Delta DBR バージョン < 14.0 のリキッドクラスタリングを使用したテーブルではサポートされていません。

DELTA_CLUSTERING_COLUMNS_DATATYPE_NOT_SUPPORTED

SQLSTATE: 0A000

CLUSTER BY は、次の列はサポートされていません: <columnsWithDataTypes> はデータのスキップをサポートしていません。

DELTA_CLUSTERING_COLUMNS_MISMATCH

SQLSTATE: 42P10

指定されたクラスタリング列が既存のテーブルの列と一致しません。

  • 提供: <providedClusteringColumns>
  • 現有: <existingClusteringColumns>

DELTA_CLUSTERING_COLUMN_MISSING_STATS

SQLSTATE: 22000

リキッドクラスタリングでは、統計を持つためにクラスタリング列が必要です。 統計スキーマでクラスタリング列 '<columns>' が見つかりませんでした:

<schema>

DELTA_CLUSTERING_CREATE_EXTERNAL_NON_LIQUID_TABLE_FROM_LIQUID_TABLE

SQLSTATE: 22000

リキッドクラスタリングを使用するテーブルディレクトリからリキッドクラスタリングを使用しない外部テーブルを作成することは許可されていません。パス: <path>

DELTA_CLUSTERING_NOT_SUPPORTED

SQLSTATE: 42000

'<operation>' はクラスタリングをサポートしていません。

DELTA_CLUSTERING_PHASE_OUT_FAILED

SQLSTATE: 0AKDE

テーブル機能でテーブルの<phaseOutType>を完了できません (理由: <reason>``<tableFeatureToAdd>)。OPTIMIZEコマンドをもう一度試してください。

== エラー ==

<error>

DELTA_CLUSTERING_REPLACE_TABLE_WITH_PARTITIONED_TABLE

SQLSTATE: 42000

REPLACE パーティション化されたテーブルを持つリキッドクラスタリングを持つ Delta テーブルは許可されません。

DELTA_CLUSTERING_SHOW_CREATE_TABLE_WITHOUT_CLUSTERING_COLUMNS

SQLSTATE: 0A000

SHOW CREATE TABLE は Delta クラスタリング列がないリキッドクラスタリングのあるテーブルではサポートされていません。

DELTA_CLUSTERING_TO_PARTITIONED_TABLE_WITH_NON_EMPTY_CLUSTERING_COLUMNS

SQLSTATE: 42000

リキッドクラスタリングを使用した Delta テーブルをパーティションテーブルに移行することは、既存のテーブルに空でないクラスタリングカラムがある場合、オペレーション (<operation>) では許可されません。

最初にクラスタリング列を削除するには、 ALTER TABLE CLUSTER BY NONE を実行してください。

DELTA_CLUSTERING_WITH_DYNAMIC_PARTITION_OVERWRITE

SQLSTATE: 42000

動的パーティション上書きモードは、リキッドクラスタリングのある Delta テーブルでは許可されていません。

DELTA_CLUSTERING_WITH_PARTITION_PREDICATE

SQLSTATE: 0A000

OPTIMIZE リキッドクラスタリングを持つ Delta テーブルのコマンドは、パーティション述語をサポートしていません。 述語を削除してください: <predicates>.

DELTA_CLUSTERING_WITH_ZORDER_BY

SQLSTATE: 42613

OPTIMIZE リキッドクラスタリングを持つ Delta テーブルのコマンドは、ZORDER BYを指定できません。 ZORDER BY (<zOrderBy>) を削除してください。

DELTA_CLUSTER_BY_INVALID_NUM_COLUMNS

SQLSTATE: 54000

CLUSTER BY リキッドクラスタリングの場合、クラスタリングカラムは最大 <numColumnsLimit> 個までサポートされますが、テーブルには <actualNumColumns> 個のクラスタリングカラムがあります。 余分なクラスタリング列を削除してください。

DELTA_CLUSTER_BY_SCHEMA_NOT_PROVIDED

SQLSTATE: 42908

スキーマが定義されていない場合、 CLUSTER BY を指定することはできません。 テーブル <tableName>のスキーマを定義してください。

DELTA_CLUSTER_BY_WITH_BUCKETING

SQLSTATE: 42613

クラスタリングとバケット化の両方を指定することはできません。 クラスタリングを使用して Delta テーブルを作成する場合は、 CLUSTERED BY INTO BUCKETS / bucketBy を削除してください。

DELTA_CLUSTER_BY_WITH_PARTITIONED_BY

SQLSTATE: 42613

クラスタリングとパーティション分割の両方を指定することはできません。 クラスタリングを使用して Delta テーブルを作成する場合は、 PARTITIONED BY / partitionBy / partitionedBy を削除してください。

DELTA_COLLATIONS_NOT_SUPPORTED

SQLSTATE: 0AKDC

照合順序は Delta Lake ではサポートされていません。

DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_PARTITIONED_COLUMN

SQLSTATE: 0AKDC

データのスキップは、パーティション列 '<column>' ではサポートされていません。

DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_TYPE

SQLSTATE: 0AKDC

データのスキップは、タイプ <type>の列 '<column>' ではサポートされていません。

DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET

SQLSTATE: 42703

max column id プロパティ (<prop>) は、カラムマッピングが有効なテーブルでは設定されていません。

DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET_CORRECTLY

SQLSTATE: 42703

カラムマッピングが有効なテーブルの max column id プロパティ (<prop>) は <tableMax>で、すべてのフィールドの最大カラム id (<fieldMax>) より小さくすることはできません。

DELTA_COLUMN_MISSING_DATA_TYPE

SQLSTATE: 42601

カラム <colName> のデータ型が指定されていません。

DELTA_COLUMN_NOT_FOUND

SQLSTATE: 42703

指定された列 <columnName> 見つかりません [<columnList>]

DELTA_COLUMN_NOT_FOUND_IN_MERGE

SQLSTATE: 42703

INSERT<colNames>からターゲット テーブルの列 '<targetCol>' が見つかりません。INSERT 句では、ターゲット・テーブルのすべてのカラムの値を指定する必要があります。

DELTA_COLUMN_NOT_FOUND_IN_SCHEMA

SQLSTATE: 42703

<columnName> が見つかりませんでした:

<tableSchema>

DELTA_COLUMN_PATH_NOT_NESTED

SQLSTATE: 42704

<columnPath>ネストされたデータ型であると予想されていましたが、<other>.探していた

ネストされたフィールド内の <column> のインデックス。

スキーマ:

<schema>

DELTA_COLUMN_STRUCT_TYPE_MISMATCH

SQLSTATE: 2200G

構造体列<source>は、<targetTable><targetType> フィールド <targetField> に挿入できません。

DELTA_COMMIT_INTERMEDIATE_REDIRECT_STATE

SQLSTATE: 42P01

リダイレクト テーブルの状態 '<state>' 内のテーブルのコミットを処理できません。

DELTA_COMPACTION_VALIDATION_FAILED

SQLSTATE: 22000

パス <compactedPath> から <newPath> への圧縮の検証に失敗しました: バグ レポートを提出してください。

DELTA_COMPLEX_TYPE_COLUMN_CONTAINS_NULL_TYPE

SQLSTATE: 22005

ネストされた NullType が <dataType>の列 <columName> で見つかりました。Delta では、複合型での NullType の記述はサポートされていません。

DELTA_CONCURRENT_APPEND

SQLSTATE: 2D521

ConcurrentAppendException: 並列更新によってファイルが <partition> に追加されました。 <retryMsg> <conflictingCommit>

詳細については、 <docLink> を参照してください。

DELTA_CONCURRENT_DELETE_DELETE

SQLSTATE: 2D521

ConcurrentDeleteDeleteException: このトランザクションは、並列更新によって削除された 1 つ以上のファイルを削除しようとしました ( <file>など)。 操作をやり直してください。<conflictingCommit>

詳細については、 <docLink> を参照してください。

DELTA_CONCURRENT_DELETE_READ

SQLSTATE: 2D521

ConcurrentDeleteReadException: このトランザクションは、並列更新によって削除された 1 つ以上のファイル ( <file>など) を読み取ろうとしました。 操作をやり直してください。<conflictingCommit>

詳細については、 <docLink> を参照してください。

DELTA_CONCURRENT_TRANSACTION

SQLSTATE: 2D521

ConcurrentTransactionException: このエラーは、複数のストリーミング クエリが同じチェックポイントを使用してこのテーブルに書き込んでいる場合に発生します。 同じストリーミング クエリの複数のインスタンスを同時に実行しましたか?<conflictingCommit>

詳細については、 <docLink> を参照してください。

DELTA_CONCURRENT_WRITE

SQLSTATE: 2D521

ConcurrentWriteException: 現在のトランザクションがテーブルを読み取ってから、並列トランザクションが新しいデータを書き込みました。 操作をやり直してください。<conflictingCommit>

詳細については、 <docLink> を参照してください。

DELTA_CONFLICT_SET_COLUMN

SQLSTATE: 42701

次の SET 列から競合があります: <columnList>.

DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_COMMAND

SQLSTATE: 42616

<command>中は、コマンドから構成「<configuration>」を設定できません。TBLPROPERTIES句から削除してから、コマンドを再試行してください。

DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_SESSION

SQLSTATE: 42616

<command>中は、SparkSession 構成から構成「<configuration>」を設定できません。spark.conf.unset("<configuration>")を実行して設定を解除し、コマンドを再試行してください。

DELTA_CONSTRAINT_ALREADY_EXISTS

SQLSTATE: 42710

制約 '<constraintName>' はすでに存在します。 最初に古い制約を削除してください。

古い制約:

<oldConstraint>

DELTA_CONSTRAINT_DATA_TYPE_MISMATCH

SQLSTATE: 42K09

<columnName> のデータ・タイプは <columnType> であり、この列は次のチェック制約によって参照されるため、データ・タイプ <dataType> に変更できません。

<constraints>

DELTA_CONSTRAINT_DEPENDENT_COLUMN_CHANGE

SQLSTATE: 42K09

<columnName> を変更できません。これは、この列が次のチェック制約によって参照されているためです。

<constraints>

DELTA_CONSTRAINT_DOES_NOT_EXIST

SQLSTATE: 42704

存在しない制約 <constraintName> をテーブル <tableName>から削除できません。 エラーのスローを回避するには、パラメーター IF EXISTS を指定するか、 SQL セッション構成<config><confValue> に設定します。

DELTA_CONVERSION_MERGE_ON_READ_NOT_SUPPORTED

SQLSTATE: 0AKDC

Merge-On-Read <format> テーブルの変換はサポートされていません: <path><hint>

DELTA_CONVERSION_NO_PARTITION_FOUND

SQLSTATE: 42KD6

テーブル <tableName>のカタログにパーティション情報が見つかりませんでした。 パーティションを検出するために、テーブルで「Msck REPAIR TABLE」を実行しましたか?

DELTA_CONVERSION_UNSUPPORTED_COLLATED_PARTITION_COLUMN

SQLSTATE: 0AKDC

照合されたパーティション列の <colName> を持つ Parquet テーブルを Delta に変換できません。

DELTA_CONVERSION_UNSUPPORTED_COLUMN_MAPPING

SQLSTATE: 0AKDC

CONVERT TO DELTAを使用する場合、構成 '<config>' を <mode> に設定することはできません。

DELTA_CONVERSION_UNSUPPORTED_SCHEMA_CHANGE

SQLSTATE: 0AKDC

サポートされていないスキーマの変更が <format> テーブルで見つかりました: <path><hint>

DELTA_CONVERT_NON_PARQUET_TABLE

SQLSTATE: 0AKDC

CONVERT TO DELTA は Parquet テーブルのみをサポートしていますが、 <sourceName> ソースを変換しようとしています。 <tableId>

DELTA_CONVERT_TO_DELTA_ROW_TRACKING_WITHOUT_STATS

SQLSTATE: 22000

統計を収集せずに行追跡を有効にすることはできません。

行追跡を有効にする場合は、次の操作を行います。

  1. 統計情報の収集を有効にするには、次のコマンドを実行します

SET <statisticsCollectionPropertyKey> = true です

  1. NO STATISTICS オプションを使用せずに CONVERT TO DELTA を実行します。

統計を収集しない場合は、行の追跡を無効にします。

  1. デフォルトでのテーブル機能の有効化を無効にするには、次のコマンドを実行します。

RESET <rowTrackingTableFeatureDefaultKey>

  1. デフォルトでテーブルプロパティを非アクティブ化するには、次のコマンドを実行します。

SET <rowTrackingDefaultPropertyKey> = いいえ

DELTA_COPY_INTO_TARGET_FORMAT

SQLSTATE: 0AKDD

COPY INTO target は Delta テーブルである必要があります。

DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_SCHEMA

SQLSTATE: 42601

外部テーブルを作成しようとしています <tableName>

from <path> Delta を使用しますが、スキーマは

入力パスが空です。

Deltaの詳細については、以下を参照してください。 <docLink>

DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_TXN_LOG

SQLSTATE: 42K03

外部テーブルを作成しようとしています <tableName>

%2$s から Deltaを使用して 、 にトランザクション・ログが存在しない

%2$s/_delta_log.アップストリームジョブをチェックして、

format("delta") で、パスがテーブルのルートであること。

Deltaの詳細については、以下を参照してください。 <docLink>

DELTA_CREATE_TABLE_IDENTIFIER_LOCATION_MISMATCH

SQLSTATE: 0AKDC

別の場所でパスベースの Delta テーブルを作成することはサポートされていません。 識別子: <identifier>, 場所: <location>

DELTA_CREATE_TABLE_MISSING_TABLE_NAME_OR_LOCATION

SQLSTATE: 42601

テーブルの名前または場所を指定する必要があります。

DELTA_CREATE_TABLE_SCHEME_MISMATCH

SQLSTATE: 42KD7

指定されたスキーマは、 <path>の既存のスキーマと一致しません。

== 指定 ==

<specifiedSchema>

== 既存の ==

<existingSchema>

== 違い ==

<schemaDifferences>

既存のスキーマを保持する場合は、

schema を create table コマンドから取得します。 それ以外の場合は、次のことを確認してください。

スキーマが一致します。

DELTA_CREATE_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED

SQLSTATE: 42000

TBLPROPERTIESを使用して<tableFeature>テーブル機能を有効にすることはできません。CREATE OR REPLACE TABLE CLUSTER BY を使用して、クラスタリングを含む Delta テーブルを作成してください。

DELTA_CREATE_TABLE_WITH_DIFFERENT_CLUSTERING

SQLSTATE: 42KD7

指定されたクラスタリング列が、 <path>の既存のクラスタリング列と一致しません。

== 指定 ==

<specifiedColumns>

== 既存の ==

<existingColumns>

DELTA_CREATE_TABLE_WITH_DIFFERENT_PARTITIONING

SQLSTATE: 42KD7

指定されたパーティション分割は、 <path>の既存のパーティション設定と一致しません。

== 指定 ==

<specifiedColumns>

== 既存の ==

<existingColumns>

DELTA_CREATE_TABLE_WITH_DIFFERENT_PROPERTY

SQLSTATE: 42KD7

指定されたプロパティは、 <path>の既存のプロパティと一致しません。

== 指定 ==

<specifiedProperties>

== 既存の ==

<existingProperties>

DELTA_CREATE_TABLE_WITH_NON_EMPTY_LOCATION

SQLSTATE: 42601

テーブル ('<tableId>') を作成できません。 関連付けられている場所 ('<tableLocation>') は空ではなく、Delta テーブルでもありません。

DELTA_DATA_CHANGE_FALSE

SQLSTATE: 0AKDE

'dataChange' オプションが false に設定されているため、テーブルのメタデータを変更できません。 試行された操作: '<op>'。

DELTA_DELETED_PARQUET_FILE_NOT_FOUND

SQLSTATE: 42K03

トランザクション・ログで参照されているファイル・ <filePath> が見つかりません。 このParquetファイルは、 Deltaのデータ保持ポリシーに基づいて削除される場合があります。

デフォルトの Delta データ保持期間: <logRetentionPeriod>. Parquet ファイルの変更時刻: <modificationTime>. Parquet ファイルの削除時間: <deletionTime>. Deltaバージョンで削除されました:<deletionVersion>

DELTA_DELETION_VECTOR_MISSING_NUM_RECORDS

SQLSTATE: 2D521

numRecords 統計が欠落している削除ベクトルを持つファイルをコミットすることは無効です。

DELTA_DOMAIN_METADATA_NOT_SUPPORTED

SQLSTATE: 0A000

ドメインの DomainMetadata アクションが検出されましたが、 <domainNames>DomainMetadataTableFeature が有効になっていません。

DELTA_DROP_COLUMN_AT_INDEX_LESS_THAN_ZERO

SQLSTATE: 42KD8

ドロップ列へのインデックス <columnIndex> が 0 未満です

DELTA_DROP_COLUMN_ON_SINGLE_FIELD_SCHEMA

SQLSTATE: 0AKDC

1 つのカラムを持つスキーマからカラムを削除することはできません。 スキーマ:

<schema>

DELTA_DUPLICATE_ACTIONS_FOUND

SQLSTATE: 2D521

パス <path> のファイル操作 '<actionType>' が複数回指定されました。

<conflictingPath>と競合します。

同じパスを持つ複数のファイル操作が 1 つのコミットに存在することは無効です。

DELTA_DUPLICATE_COLUMNS_FOUND

SQLSTATE: 42711

重複する列が見つかりました <coltype>: <duplicateCols>

DELTA_DUPLICATE_COLUMNS_ON_INSERT

SQLSTATE: 42701

INSERT句の列名が重複しています

DELTA_DUPLICATE_COLUMNS_ON_UPDATE_TABLE

SQLSTATE: 42701

<message>

テーブルを更新する前に、重複する列を削除してください。

DELTA_DUPLICATE_DATA_SKIPPING_COLUMNS

SQLSTATE: 42701

重複したデータが見つかりました。: <columns>.

DELTA_DUPLICATE_DOMAIN_METADATA_INTERNAL_ERROR

SQLSTATE: 42601

内部エラー: 同じトランザクション内の 2 つの DomainMetadata アクションは同じドメインを持っています <domainName>

DELTA_DV_HISTOGRAM_DESERIALIZATON

SQLSTATE: 22000

テーブルの整合性の検証中に、削除されたレコード カウント ヒストグラムを逆シリアル化できませんでした。

DELTA_DYNAMIC_PARTITION_OVERWRITE_DISABLED

SQLSTATE: 0A000

動的パーティション上書きモードは、セッション構成または書き込みオプションで指定されますが、 spark.databricks.delta.dynamicPartitionOverwrite.enabled=falseでは無効になります。

DELTA_EMPTY_DATA

SQLSTATE: 428GU

Delta テーブルの作成に使用されるデータには列がありません。

DELTA_EMPTY_DIRECTORY

SQLSTATE: 42K03

ディレクトリにファイルが見つかりませんでした: <directory>.

DELTA_EXCEED_CHAR_VARCHAR_LIMIT

SQLSTATE: 22001

値 "<value>" が char/varchar 型の長さ制限を超えています。 失敗したチェック: <expr>.

DELTA_FAILED_CAST_PARTITION_VALUE

SQLSTATE:22018

パーティション値を <value> にキャストできませんでした <dataType>

DELTA_FAILED_FIND_ATTRIBUTE_IN_OUTPUT_COLUMNS

SQLSTATE: 42703

既存のターゲット出力の中から <newAttributeName> 見つかりませんでした <targetOutputColumns>

DELTA_FAILED_INFER_SCHEMA

SQLSTATE: 42KD9

指定されたファイルの一覧からスキーマを推論できませんでした。

DELTA_FAILED_MERGE_SCHEMA_FILE

SQLSTATE: 42KDA

ファイル <file>のスキーマをマージできませんでした :

<schema>

SQLSTATE: KD001

ファイルのフッターを読み取れませんでした: <currentFile>

DELTA_FAILED_RECOGNIZE_PREDICATE

SQLSTATE: 42601

述語 '<predicate>' を認識できません

DELTA_FAILED_SCAN_WITH_HISTORICAL_VERSION

SQLSTATE: KD002

最新バージョンの Delta ソースのフル スキャンが想定されますが、バージョンの履歴スキャンが見つかりました <historicalVersion>

DELTA_FAILED_TO_MERGE_FIELDS

SQLSTATE: 22005

フィールド '<currentField>' と '<updateField>' のマージに失敗しました

DELTA_FEATURES_PROTOCOL_METADATA_MISMATCH

SQLSTATE: 0AKDE

次のテーブル機能はメタデータで有効になっていますが、プロトコルにはリストされていないため、このテーブルを操作できません: <features>.

DELTA_FEATURES_REQUIRE_MANUAL_ENABLEMENT

SQLSTATE: 0AKDE

テーブルスキーマでは、次のテーブル機能を手動で有効にする必要があります: <unsupportedFeatures>.

これを行うには、上記の各機能に対して次のコマンドを実行します。

ALTER TABLE table_name SET TBLPROPERTIES ('delta.feature.feature_name' = 'supported')

"table_name" と "feature_name" を実際の値に置き換えます。

現在サポートされている機能: <supportedFeatures>.

DELTA_FEATURE_CAN_ONLY_DROP_CHECKPOINT_PROTECTION_WITH_HISTORY_TRUNCATION

SQLSTATE: 55000

チェックポイント保護機能を削除できませんでした。

この機能は、履歴を切り捨てることによってのみ削除できます。

TRUNCATE HISTORYオプションで再試行してください。

ALTER TABLE table_name DROP FEATURE チェックポイント保護 TRUNCATE HISTORY

DELTA_FEATURE_DROP_CHECKPOINT_FAILED

SQLSTATE: 22KD0

チェックポイントの作成に失敗したため、 <featureName> のドロップに失敗しました。

しばらくしてからもう一度お試しください。 問題が解決しない場合は、Databricks サポートにお問い合わせください。

DELTA_FEATURE_DROP_CHECKPOINT_PROTECTION_WAIT_FOR_RETENTION_PERIOD

SQLSTATE: 22KD0

ドロップされたフィーチャの痕跡がまだ残っているため、操作は成功しませんでした

テーブル履歴で。 CheckpointProtection は、これらの履歴

バージョンの有効期限が切れています。

CheckpointProtection を削除するには、過去のバージョンが

expire を実行してから、このコマンドを繰り返します。 履歴バージョンの保持期間は、次のとおりです

現在、 <truncateHistoryLogRetentionPeriod>.

DELTA_FEATURE_DROP_CONFLICT_REVALIDATION_FAIL

SQLSTATE: 0AKDE

並列トランザクションによってテーブルが変更されたため、フィーチャを削除できません。

操作をやり直してください。

<concurrentCommit>

DELTA_FEATURE_DROP_DEPENDENT_FEATURE

SQLSTATE: 0AKDE

テーブル フィーチャ <feature> を削除できません。このテーブルの他のフィーチャ (<dependentFeatures>) は <feature>に依存しているためです。

この機能を削除する前に、まずそれらを削除してください。

DELTA_FEATURE_DROP_FEATURE_NOT_PRESENT

SQLSTATE: 0AKDE

このテーブルから <feature> を削除できません。これは、現在テーブルのプロトコルに存在しないためです。

DELTA_FEATURE_DROP_HISTORICAL_VERSIONS_EXIST

SQLSTATE: 0AKDE

Deltaログには、この機能を使用する履歴バージョンが含まれているため、<feature>をドロップできません。

履歴保存期間(<logRetentionPeriodKey>=<logRetentionPeriod>)までお待ちください

フィーチャが最後にアクティブになってから経過しています。

または、 TRUNCATE HISTORY 保存期間が終了するまでお待ちください(<truncateHistoryLogRetentionPeriod>)

次に、次のコマンドを実行します。

ALTER TABLE table_name DROP FEATURE feature_name TRUNCATE HISTORY

DELTA_FEATURE_DROP_HISTORY_TRUNCATION_NOT_ALLOWED

SQLSTATE: 0AKDE

この特定の機能では、履歴の切り捨ては必要ありません。

DELTA_FEATURE_DROP_NONREMOVABLE_FEATURE

SQLSTATE: 0AKDE

この機能はドロップサポートされていないため、 <feature> ドロップできません。

Databricksサポートにお問い合わせください。

DELTA_FEATURE_DROP_UNSUPPORTED_CLIENT_FEATURE

SQLSTATE: 0AKDE

この Databricks バージョンではサポートされていないため、 <feature> をドロップできません。

Databricks を上位バージョンで使用することを検討してください。

DELTA_FEATURE_DROP_WAIT_FOR_RETENTION_PERIOD

SQLSTATE: 0AKDE

<feature>のドロップは部分的に成功しました。

この機能は、現在のバージョンのテーブルでは使用されなくなりました。 ただし、機能

は、テーブルの履歴バージョンにまだ存在します。 テーブル機能は削除できません

これらの履歴バージョンの有効期限が切れるまで、テーブルプロトコルから。

プロトコルからテーブル機能を削除するには、履歴バージョンが

expire を実行してから、このコマンドを繰り返します。 履歴バージョンの保持期間は、次のとおりです

現在、 <logRetentionPeriodKey>=<logRetentionPeriod>として設定されています。

または、 TRUNCATE HISTORY 保存期間が終了するまでお待ちください(<truncateHistoryLogRetentionPeriod>)

次に、次のコマンドを実行します。

ALTER TABLE table_name DROP FEATURE feature_name TRUNCATE HISTORY

DELTA_FEATURE_REQUIRES_HIGHER_READER_VERSION

SQLSTATE: 0AKDE

テーブル機能 <feature> を有効にできません。これは、より高いリーダープロトコルバージョン (現在の <current>) が必要なためです。 テーブルのリーダープロトコルバージョンを <required>にアップグレードするか、リーダーテーブル機能をサポートするバージョンにアップグレードすることを検討してください。 テーブル プロトコル バージョンの詳細については、 <docLink> を参照してください。

DELTA_FEATURE_REQUIRES_HIGHER_WRITER_VERSION

SQLSTATE: 0AKDE

テーブル機能 <feature> を有効にできません。これは、より高いライター プロトコル バージョン (現在の <current>) が必要なためです。 テーブルの Writer プロトコルバージョンを <required>にアップグレードするか、ライターテーブル機能をサポートするバージョンにアップグレードすることを検討してください。 テーブル プロトコル バージョンの詳細については、 <docLink> を参照してください。

DELTA_FILE_ALREADY_EXISTS

SQLSTATE: 42K04

既存のファイルパス <path>

DELTA_FILE_LIST_AND_PATTERN_STRING_CONFLICT

SQLSTATE: 42613

ファイル・リストとパターン文字列の両方を指定することはできません。

DELTA_FILE_NOT_FOUND

SQLSTATE: 42K03

ファイルパス <path>

DELTA_FILE_NOT_FOUND_DETAILED

SQLSTATE: 42K03

トランザクション・ログで参照されているファイル・ <filePath> が見つかりません。 これは、データが table DELETE ステートメントを使用せずにファイル・システムから手動で削除された場合に発生します。 詳細については、以下を参照してください。 <faqPath>

DELTA_FILE_OR_DIR_NOT_FOUND

SQLSTATE: 42K03

該当するファイルまたはディレクトリはありません。 <path>

DELTA_FILE_TO_OVERWRITE_NOT_FOUND

SQLSTATE: 42K03

書き換えるファイル (<path>) が候補ファイルに見つかりません:

<pathList>

DELTA_FOUND_MAP_TYPE_COLUMN

SQLSTATE: KD003

MapType が見つかりました。 MapType のキーまたは値にアクセスするには、1 つを指定します

の:

<key> または

<value>

その後に列の名前が続きます (その列が構造体型の場合のみ)。

例えば。 mymap.key.mykey

列が基本型の場合は、mymap.key または mymap.value で十分です。

スキーマ:

<schema>

DELTA_GENERATED_COLUMNS_DATA_TYPE_MISMATCH

SQLSTATE: 42K09

<columnName> のデータ型は <columnType> であり、この列は次の生成された列によって参照されるため、データ型 <dataType> に変更できません。

<generatedColumns>

DELTA_GENERATED_COLUMNS_DEPENDENT_COLUMN_CHANGE

SQLSTATE: 42K09

<columnName> は、次の生成された列によって参照されているため、変更できません。

<generatedColumns>

DELTA_GENERATED_COLUMNS_EXPR_TYPE_MISMATCH

SQLSTATE: 42K09

生成された列 <columnName> の式タイプは <expressionType>ですが、列タイプは <columnType>

DELTA_GENERATED_COLUMN_UPDATE_TYPE_MISMATCH

SQLSTATE: 42K09

<currentName> は、生成された列または生成された列によって使用される列です。 データ型は <currentDataType> であり、データ型に変換できません <updateDataType>

DELTA_GEOSPATIAL_NOT_SUPPORTED

SQLSTATE: 0AKDC

地理空間タイプは、このバージョンの Delta Lake ではサポートされていません。

DELTA_ICEBERG_COMPAT_VIOLATION

SQLSTATE: KD00E

IcebergCompatV\<version\> の検証に失敗しました。

詳細については、「 DELTA_ICEBERG_COMPAT_VIOLATION

DELTA_IDENTITY_COLUMNS_ALTER_COLUMN_NOT_SUPPORTED

SQLSTATE: 429BQ

ALTER TABLE ALTER COLUMN は、 IDENTITY 列ではサポートされていません。

DELTA_IDENTITY_COLUMNS_ALTER_NON_DELTA_FORMAT

SQLSTATE: 0AKDD

ALTER TABLE ALTER COLUMN SYNC IDENTITY は Deltaでのみサポートされています。

DELTA_IDENTITY_COLUMNS_ALTER_NON_IDENTITY_COLUMN

SQLSTATE: 429BQ

ALTER TABLE ALTER COLUMN SYNC IDENTITY IDENTITY列以外の列で呼び出すことはできません。

DELTA_IDENTITY_COLUMNS_EXPLICIT_INSERT_NOT_SUPPORTED

SQLSTATE: 42808

GENERATED ALWAYS AS IDENTITY<colName>の値を指定することはサポートされていません。

DELTA_IDENTITY_COLUMNS_ILLEGAL_STEP

SQLSTATE: 42611

IDENTITY column step を 0 にすることはできません。

DELTA_IDENTITY_COLUMNS_NON_DELTA_FORMAT

SQLSTATE: 0AKDD

IDENTITY 列は Delta でのみサポートされます。

DELTA_IDENTITY_COLUMNS_PARTITION_NOT_SUPPORTED

SQLSTATE: 42601

PARTITIONED BY IDENTITY<colName> はサポートされていません。

DELTA_IDENTITY_COLUMNS_REPLACE_COLUMN_NOT_SUPPORTED

SQLSTATE: 429BQ

ALTER TABLE REPLACE COLUMNS は、 IDENTITY 列のテーブルではサポートされていません。

DELTA_IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE

SQLSTATE: 428H2

DataType <dataType> は、 IDENTITY 列ではサポートされていません。

DELTA_IDENTITY_COLUMNS_UPDATE_NOT_SUPPORTED

SQLSTATE: 42808

UPDATE IDENTITY<colName>はサポートされていません。

DELTA_IDENTITY_COLUMNS_WITH_GENERATED_EXPRESSION

SQLSTATE: 42613

IDENTITY 生成された列式で列を指定することはできません。

DELTA_ILLEGAL_OPTION

SQLSTATE: 42616

オプション '<name>' の値 '<input>' が無効です。 <explain>

DELTA_ILLEGAL_USAGE

SQLSTATE: 42601

Delta テーブル<operation>ときに <option> を使用することはできません。

DELTA_INCONSISTENT_BUCKET_SPEC

SQLSTATE: 42000

Delta バケット テーブルの BucketSpec がメタデータの BucketSpec と一致しません。予想 : <expected>. 実際: <actual>

DELTA_INCONSISTENT_LOGSTORE_CONFS

SQLSTATE: F0000

(<setKeys>) を異なる値に設定することはできません。 どちらか一方のみを設定するか、同じ値に設定してください。

DELTA_INCORRECT_ARRAY_ACCESS

SQLSTATE: KD003

ArrayType に誤ってアクセスしています。 arrayname.element.elementname position を使用して、

配列に追加します。

DELTA_INCORRECT_ARRAY_ACCESS_BY_NAME

SQLSTATE: KD003

ArrayType が見つかりました。 ArrayType の要素にアクセスするには、次のように指定します。

<rightName> <wrongName>の代わりに。

スキーマ:

<schema>

DELTA_INCORRECT_GET_CONF

SQLSTATE: 42000

'conf.getConf() の代わりに getConf() を使用してください。

DELTA_INCORRECT_LOG_STORE_IMPLEMENTATION

SQLSTATE: 0AKDC

通常、このエラーは、デフォルトの LogStore 実装 (その

は、HDFSLogStore は、HDFS 以外のストレージ システム上の Delta テーブルに書き込むために使用されます。

テーブルの更新でトランザクション ACID の保証を取得するには、

ストレージ・システムに適したLogStoreの正しい実装。

詳細については、 <docLink> を参照してください。

DELTA_INDEX_LARGER_OR_EQUAL_THAN_STRUCT

SQLSTATE: 42KD8

列をドロップするインデックス <position> が構造体の長さと等しいか、それより大きい: <length>

DELTA_INDEX_LARGER_THAN_STRUCT

SQLSTATE: 42KD8

<columnName>を追加するインデックス<index>構造体の長さよりも大きい: <length>

DELTA_INSERT_COLUMN_ARITY_MISMATCH

SQLSTATE: 42802

<tableName>」、 <columnName>に書き込むことはできません。ターゲット テーブルには <numColumns> 列がありますが、挿入されたデータには <insertColumns> 列があります

DELTA_INSERT_COLUMN_MISMATCH

SQLSTATE: 42802

<columnName>INSERT

DELTA_INVALID_AUTO_COMPACT_TYPE

SQLSTATE: 22023 です。

無効な自動コンパクト タイプ: <value>. 使用できる値は <allowed>です。

DELTA_INVALID_BUCKET_COUNT

SQLSTATE: 22023 です。

無効なバケット数: <invalidBucketCount>. バケット カウントは、2 の累乗で 8 以上の正の数である必要があります。 代わりに <validBucketCount> を使用できます。

DELTA_INVALID_BUCKET_INDEX

SQLSTATE: 22023 です。

パーティション列にバケット列が見つかりません

DELTA_INVALID_CALENDAR_INTERVAL_EMPTY

SQLSTATE: 2200P

間隔を NULL または空白にすることはできません。

DELTA_INVALID_CDC_RANGE

SQLSTATE: 22003

CDC の開始 <start> から終了までの <end> の範囲が無効でした。 終了を開始より前にすることはできません。

DELTA_INVALID_CHARACTERS_IN_COLUMN_NAME

SQLSTATE: 42K05

属性名 "<columnName>" に無効な文字が含まれています。" ,;{}()\n\t="です。 名前を変更するにはエイリアスを使用してください。

DELTA_INVALID_CHARACTERS_IN_COLUMN_NAMES

SQLSTATE: 42K05

' ,;{}()nt=' をスキーマの列名に含めてください。

無効な列名: <invalidColumnNames>.

他のキャラクターを使用して、もう一度お試しください。

または、列マッピングを有効にして、これらの文字を引き続き使用します。

DELTA_INVALID_CLONE_PATH

SQLSTATE: 22KD1

CLONEのターゲット場所は、絶対パスまたはテーブル名である必要があります。を使用します。

<path>の代わりに絶対パス。

DELTA_INVALID_COLUMN_NAMES_WHEN_REMOVING_COLUMN_MAPPING

SQLSTATE: 42K05

' ,;{}()nt=' をスキーマの列名に含めてください。

無効な列名: <invalidColumnNames>.

列名に無効な文字が含まれている場合、列マッピングは削除できません。

列の名前を変更して無効な文字を削除し、このコマンドを再度実行してください。

DELTA_INVALID_FORMAT

SQLSTATE: 22000

互換性のない形式が検出されました。

Delta のトランザクション ログが ''<deltaRootPath>/\_delta_logで見つかりました。

しかし、あなたはformat( "<format>")を使用して<operation> <path>しようとしています。必ず使用してください

'format("delta")' は、デルタ テーブルの読み取りと書き込みを行います。

Deltaの詳細については、以下を参照してください。 <docLink>

DELTA_INVALID_GENERATED_COLUMN_REFERENCES

SQLSTATE: 42621

生成された列は、存在しない列または別の生成された列を使用することはできません

DELTA_INVALID_IDEMPOTENT_WRITES_OPTIONS

SQLSTATE: 42616

べき等 Dataframe の書き込みに対する無効なオプション: <reason>

DELTA_INVALID_INTERVAL

SQLSTATE: 22006

<interval> は有効な INTERVALではありません。

DELTA_INVALID_INVENTORY_SCHEMA

SQLSTATE: 42000

指定された INVENTORY のスキーマには、必要なフィールドの一部が含まれていません。 必須フィールドは次のとおりです。 <expectedSchema>

DELTA_INVALID_ISOLATION_LEVEL

SQLSTATE: 25000

無効な独立性レベル '<isolationLevel>'

DELTA_INVALID_LOGSTORE_CONF

SQLSTATE: F0000

(<classConfig>) と (<schemeConfig>) は同時に設定できません。 それらの1つのグループのみを設定してください。

DELTA_INVALID_MANAGED_TABLE_SYNTAX_NO_SCHEMA

SQLSTATE: 42000

マネージドテーブルを作成しようとしています <tableName>

Delta を使用しますが、スキーマは指定されていません。

Deltaの詳細については、以下を参照してください。 <docLink>

DELTA_INVALID_PARTITION_COLUMN

SQLSTATE: 42996

<columnName> は、テーブル <tableName>の有効なパーティション列ではありません。

DELTA_INVALID_PARTITION_COLUMN_NAME

SQLSTATE: 42996

" ,;{}()nt="です。 名前をパーティション列に変更してください。 このチェックは、spark.conf.set("spark.databricks.delta.partitionColumnValidity.enabled", false) を設定することでオフにすることができますが、Delta の他の機能が正しく動作しない可能性があるため、これはお勧めしません。

DELTA_INVALID_PARTITION_COLUMN_TYPE

SQLSTATE: 42996

<dataType> 型の列<name>をパーティション列として使用することはサポートされていません。

DELTA_INVALID_PARTITION_PATH

SQLSTATE: 22KD1

パーティションパスフラグメントは、 part1=foo/part2=barのような形式にする必要があります。 パーティションパス: <path>

DELTA_INVALID_PROTOCOL_DOWNGRADE

SQLSTATE: KD004

プロトコルバージョンを <oldProtocol> からにダウングレードすることはできません <newProtocol>

DELTA_INVALID_PROTOCOL_VERSION

SQLSTATE: KD004

サポートされていない Delta プロトコル バージョン: テーブル "<tableNameOrPath>" にはリーダー バージョン ( <readerRequired> ) とライター バージョン <writerRequired>が必要ですが、このバージョンの Databricks ではリーダー バージョン <supportedReaders> とライター バージョン <supportedWriters>(. 新しいリリースにアップグレードしてください。

DELTA_INVALID_TABLE_VALUE_FUNCTION

SQLSTATE: 22000

関数 <function> は、CDC 読み取りでサポートされていないテーブル値関数です。

DELTA_INVALID_TIMESTAMP_FORMAT

SQLSTATE: 22007

指定されたタイムスタンプ <timestamp> は、予期される構文 <format>と一致しません。

DELTA_LOG_ALREADY_EXISTS

SQLSTATE: 42K04

Deltaログはすでに <path>

DELTA_LOG_FILE_NOT_FOUND_FOR_STREAMING_SOURCE

SQLSTATE: 42K03

一度も削除していない場合は、クエリが遅れている可能性があります。 チェックポイントを削除して、最初からやり直してください。 このような事態が再び起こらないようにするには、Delta テーブルのアイテム保持ポリシーを更新します

DELTA_MATERIALIZED_ROW_TRACKING_COLUMN_NAME_MISSING

SQLSTATE: 22000

マテリアライズド <rowTrackingColumn> 列名が <tableName>にありません。

DELTA_MAX_ARRAY_SIZE_EXCEEDED

SQLSTATE: 42000

Int.MaxValue - 8 未満の制限を使用してください。

DELTA_MAX_COMMIT_RETRIES_EXCEEDED

SQLSTATE: 40000

このコミットは <numAttempts> 回試行されましたが成功しなかったため、失敗しました。

これは、 Delta テーブルが多数の並列によって連続的にコミットされていることが原因である可能性があります

コミット。

コミットは次のバージョンで開始されました: <startVersion>

コミットは次のバージョンで失敗しました: <failVersion>

コミットが試行されたアクションの数: <numActions>

このコミットの試行に費やされた合計時間: <timeSpent> ミリ秒

DELTA_MAX_LIST_FILE_EXCEEDED

SQLSTATE: 42000

ファイルリストには、最大で <maxFileListSize> エントリを含める必要があります。 <numFiles>.

DELTA_MERGE_ADD_VOID_COLUMN

SQLSTATE: 42K09

VOID 型の列 <newColumn> を追加できません。 void 以外の型を明示的に指定してください。

DELTA_MERGE_INCOMPATIBLE_DATATYPE

SQLSTATE: 42K09

互換性のないデータ型のマージに失敗しました <currentDataType><updateDataType>

DELTA_MERGE_INCOMPATIBLE_DECIMAL_TYPE

SQLSTATE: 42806

互換性のない 10 進数の型をマージできませんでした <decimalRanges>

DELTA_MERGE_MATERIALIZE_SOURCE_FAILED_REPEATEDLY

SQLSTATE: 25000

MERGEステートメントのソースを実体化したままにすることは、繰り返し失敗しています。

DELTA_MERGE_MISSING_WHEN

SQLSTATE: 42601

MERGE ステートメントには、少なくとも 1 つの WHEN 句が必要です。

DELTA_MERGE_RESOLVED_ATTRIBUTE_MISSING_FROM_INPUT

SQLSTATE: 42601

解決済みの属性<missingAttributes>``<input> in 演算子にありません <merge>

DELTA_MERGE_UNEXPECTED_ASSIGNMENT_KEY

SQLSTATE: 22005

予期しない割り当てキー: <unexpectedKeyClass> - <unexpectedKeyObject>

DELTA_MERGE_UNRESOLVED_EXPRESSION

SQLSTATE: 42601

与えられた<cols>``<clause><sqlExpr>を解決できません。

DELTA_METADATA_CHANGED

SQLSTATE: 2D521

MetadataChangedException: Delta テーブルのメタデータが並列更新によって変更されました。 操作をやり直してください。<conflictingCommit>

DELTA_MISSING_CHANGE_DATA

SQLSTATE: KD002

変更データがなかったため、範囲 [<startVersion> , <endVersion>] の変更データの取得中にエラーが発生しました

バージョン[<version>]に収録されています。 このテーブルでチェンジデータフィードを有効にしている場合、

DESCRIBE HISTORY を使用して、最初に有効になった日時を確認します。

それ以外の場合、変更データの記録を開始するには、TABLEtable_nameSET TBLPROPERTIES' ALTER

(<key>=true)' です。

DELTA_MISSING_COLUMN

SQLSTATE: 42703

テーブルの列に <columnName> が見つかりません: <columnList>

DELTA_MISSING_COMMIT_INFO

SQLSTATE: KD004

このテーブルでは、すべてのコミットに CommitInfo アクションが存在する必要がある機能 <featureName> が有効になっています。 ただし、コミット バージョン . <version>には CommitInfo アクションがありません。

DELTA_MISSING_COMMIT_TIMESTAMP

SQLSTATE: KD004

このテーブルでは、CommitInfo アクションに commitTimestamp が存在する必要がある機能 <featureName> が有効になっています。 ただし、このフィールドはコミット バージョン <version>では設定されていません。

DELTA_MISSING_DELTA_TABLE

SQLSTATE: 42P01

<tableName> Delta テーブルではありません。

DELTA_MISSING_DELTA_TABLE_COPY_INTO

SQLSTATE: 42P01

テーブルが存在しません。 最初に CREATE TABLE <tableName>を使用して空の Delta テーブルを作成します。

DELTA_MISSING_ICEBERG_CLASS

SQLSTATE: 56038

Iceberg クラスが見つかりませんでした。 Delta Icebergサポートがインストールされていることを確認してください。

詳しくは <docLink> をご覧ください。

DELTA_MISSING_NOT_NULL_COLUMN_VALUE

SQLSTATE: 23502

NOT NULL制約を持つ列 <columnName>が、テーブルに書き込まれるデータにありません。

DELTA_MISSING_PARTITION_COLUMN

SQLSTATE: 42KD6

パーティション列 <columnName> スキーマに見つかりません <columnList>

DELTA_MISSING_PART_FILES

SQLSTATE: 42KD6

チェックポイントバージョンのすべてのパーツファイルが見つかりませんでした: <version>

DELTA_MISSING_PROVIDER_FOR_CONVERT

SQLSTATE: 0AKDC

CONVERT TO DELTA は Parquet テーブルのみをサポートします。 ターゲットが Parquet ディレクトリの場合は parquet.`<path>` に書き換えてください。

DELTA_MISSING_SET_COLUMN

SQLSTATE: 42703

SET 列が見つかりません <columnName> 列 : <columnList>.

DELTA_MISSING_TRANSACTION_LOG

SQLSTATE: 42000

互換性のない形式が検出されました。

あなたは Deltaを使用して<operation> <path>しようとしていますが、ありません

トランザクション・ログが存在します。 アップストリームジョブをチェックして、書き込んでいることを確認します

format("delta") を使用し、テーブルの基本パスを %1$s にしようとしていることを確認します。

Deltaの詳細については、以下を参照してください。 <docLink>

DELTA_MODE_NOT_SUPPORTED

SQLSTATE: 0AKDC

指定されたモード '<mode>' はサポートされていません。 サポートされているモードは次のとおりです。 <supportedModes>

DELTA_MULTIPLE_CDC_BOUNDARY

SQLSTATE: 42614

CDC 読み取り用に複数の <startingOrEnding> 引数が用意されています。 <startingOrEnding>タイムスタンプまたは<startingOrEnding>バージョンのいずれかを指定してください。

DELTA_MULTIPLE_CONF_FOR_SINGLE_COLUMN_IN_BLOOM_FILTER

SQLSTATE: 42614

複数のブルームフィルターインデックス構成が列のコマンドに渡されます。 <columnName>

DELTA_MULTIPLE_SOURCE_ROW_MATCHING_TARGET_ROW_IN_MERGE

SQLSTATE: 21506

複数のソース行が一致し、同じ行を変更しようとしたため、マージを実行できません

Delta テーブルのターゲット行が競合する可能性のある方法で。 Merge の SQL セマンティクスにより、

同じターゲット行で複数のソース行が一致すると、結果があいまいになることがあります

一致するものの更新または削除にどのソース行を使用すべきかが不明瞭であるため

ターゲット行。 ソーステーブルを前処理して、次の可能性を排除できます。

複数の一致。 を参照してください。

<usageReference>

DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_COMMAND

SQLSTATE: 42616

<command>中、両方の調整されたコミット設定 ("delta.coordinatedCommits.commitCoordinator-preview"、"delta.coordinatedCommits.commitCoordinatorConf-preview") がコマンドに設定されているか、どちらも設定されていません。欠落しています: "<configuration>"。 この設定を TBLPROPERTIES 句で指定するか、他の設定を削除してから、コマンドを再試行してください。

DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_SESSION

SQLSTATE: 42616

<command>中、両方の調整されたコミット構成 ("coordinatedCommits.commitCoordinator-preview"、"coordinatedCommits.commitCoordinatorConf-preview") が SparkSession 構成で設定されているか、どちらも設定されていません。欠落しています: "<configuration>"。 この構成を SparkSession で設定するか、他の構成の設定を解除してから、コマンドを再試行してください。

DELTA_NAME_CONFLICT_IN_BUCKETED_TABLE

SQLSTATE: 42000

次の列名は、Delta バケット テーブルの内部使用専用に予約されています。 <names>

DELTA_NESTED_FIELDS_NEED_RENAME

SQLSTATE: 42K05

入力スキーマには、ターゲットテーブルとは異なる大文字のネストされたフィールドが含まれています。

Delta への書き込み中にこれらのフィールドのデータが失われないように、名前を変更する必要があります。

田畑:

<fields>.

元のスキーマ:

<schema>

DELTA_NESTED_NOT_NULL_CONSTRAINT

SQLSTATE: 0AKDC

フィールド<parent><nestType>タイプには、NOT NULL制約が含まれています。Delta は NOT NULL 配列またはマップ内に入れ子になった制約をサポートしていません。 このエラーを抑制し、指定された制約をサイレントに無視するには、 <configKey> = true を設定します。

解析された <nestType> の種類:

<nestedPrettyJson>

DELTA_NESTED_SUBQUERY_NOT_SUPPORTED

SQLSTATE: 0A000

ネストされたサブクエリは、 <operation> 条件ではサポートされていません。

DELTA_NEW_CHECK_CONSTRAINT_VIOLATION

SQLSTATE: 23512

<numRows> <tableName> の行が新しい CHECK 制約に違反している (<checkConstraint>)

DELTA_NEW_NOT_NULL_VIOLATION

SQLSTATE: 23512

<numRows> <tableName>の行が新しいNOT NULL制約に違反している <colName>

DELTA_NON_BOOLEAN_CHECK_CONSTRAINT

SQLSTATE: 42621

CHECK constraint '<name>' (<expr>) はブール式である必要があります。

DELTA_NON_DETERMINISTIC_EXPRESSION_IN_GENERATED_COLUMN

SQLSTATE: 42621

<expr>見つかりました。生成された列では、非決定論的な式を使用できません。

DELTA_NON_DETERMINISTIC_FUNCTION_NOT_SUPPORTED

SQLSTATE: 0AKDC

非決定論的関数は、 <operation> <expression>

DELTA_NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION

SQLSTATE: 42601

MERGE ステートメントに複数の MATCHED 句がある場合、条件を省略できるのは最後の MATCHED 句だけです。

DELTA_NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION

SQLSTATE: 42601

MERGE ステートメントに複数の NOT MATCHED BY SOURCE 句がある場合、条件を省略できるのは最後の NOT MATCHED BY SOURCE 句だけです。

DELTA_NON_LAST_NOT_MATCHED_CLAUSE_OMIT_CONDITION

SQLSTATE: 42601

MERGE ステートメントに複数の NOT MATCHED 句がある場合、条件を省略できるのは最後の NOT MATCHED 句だけです

DELTA_NON_PARSABLE_TAG

SQLSTATE: 42601

タグ を解析できませんでした <tag>

ファイルタグは次のとおりです。 <tagList>

DELTA_NON_PARTITION_COLUMN_ABSENT

SQLSTATE: KD005

Delta に書き込まれるデータには、パーティション分割されていない列が少なくとも 1 つ含まれている必要があります。<details>

DELTA_NON_PARTITION_COLUMN_REFERENCE

SQLSTATE: 42P10

述部は、パーティション以外の列 '<columnName>' を参照します。 参照できるのはパーティション列のみです: [<columnList>]

DELTA_NON_PARTITION_COLUMN_SPECIFIED

SQLSTATE: 42P10

パーティション化されていない列は、パーティション化列のみが想定される場所で指定されます (<columnList>``<fragment>)。

DELTA_NON_SINGLE_PART_NAMESPACE_FOR_CATALOG

SQLSTATE: 42K05

カタログDelta 1 つの部分からなる名前空間が必要ですが、<identifier> つは複数の部分から成ります。

DELTA_NON_UC_COMMIT_COORDINATOR_NOT_SUPPORTED_IN_COMMAND

SQLSTATE: 42616

コマンドからコミットコーディネーターを「<nonUcCoordinatorName>」に設定することはサポートされていません。なぜなら、UC-マネージドテーブルはコミットコーディネーターとして「unity-catalog」しか持てないからです。 これを 'unity-catalog' に変更するか、 TBLPROPERTIES 句からすべての Coordinated コミット テーブル プロパティを削除してから、コマンドを再試行してください。

DELTA_NON_UC_COMMIT_COORDINATOR_NOT_SUPPORTED_IN_SESSION

SQLSTATE: 42616

SparkSession 構成からコミット コーディネーターを '<nonUcCoordinatorName>' に設定することはサポートされていません。なぜなら、UC-マネージドテーブルはコミットコーディネーターとして 'unity-catalog' しか持つことができないからです。spark.conf.set("<coordinatorNameDefaultKey>", "unity-catalog")を実行して 'unity-catalog' に変更するか、spark.conf.unset("<coordinatorNameDefaultKey>")spark.conf.unset("<coordinatorConfDefaultKey>")spark.conf.unset("<tableConfDefaultKey>") を実行して SparkSession 設定からすべての Coordinated コミット テーブルのプロパティを削除してから、コマンドを再試行してください。

DELTA_NOT_A_DATABRICKS_DELTA_TABLE

SQLSTATE: 42000

<table> Delta テーブルではありません。 Databricks Delta を使用してこのテーブルを作成する場合は、最初にこのテーブルを削除してください。

DELTA_NOT_A_DELTA_TABLE

SQLSTATE: 0AKDD

<tableName> Delta テーブルではありません。 Delta Lake で再作成する場合は、最初にこのテーブルを削除してください。

DELTA_NOT_NULL_COLUMN_NOT_FOUND_IN_STRUCT

SQLSTATE: 42K09

構造体に見つからないnull許容列: <struct>

DELTA_NOT_NULL_CONSTRAINT_VIOLATED

SQLSTATE: 23502

NOT NULL 列 : <columnName>の制約に違反しました。

DELTA_NOT_NULL_NESTED_FIELD

SQLSTATE: 0A000

null 非許容の入れ子になったフィールドを null 許容の親に追加することはできません。 それに応じて、親列の null 値の許容を設定してください。

DELTA_NO_COMMITS_FOUND

SQLSTATE: KD006

コミットが見つかりませんでした <logPath>

DELTA_NO_RECREATABLE_HISTORY_FOUND

SQLSTATE: KD006

で再作成可能なコミットが見つかりませんでした <logPath>

DELTA_NO_REDIRECT_RULES_VIOLATED

SQLSTATE: 42P01

操作が許可されていない: リダイレクト機能のあるテーブルでは <operation> を実行できません。

リダイレクトなしルールは、 <noRedirectRules>満たされていません。

DELTA_NO_RELATION_TABLE

SQLSTATE: 42P01

テーブル <tableIdent> 見つかりません

DELTA_NO_START_FOR_CDC_READ

SQLSTATE: 42601

CDC 読み取りに startingVersion または startingTimestamp が指定されていません。

DELTA_NULL_SCHEMA_IN_STREAMING_WRITE

SQLSTATE: 42P18

Delta は、ストリーミング書き込みのスキーマで NullTypes を受け入れません。

DELTA_ONEOF_IN_TIMETRAVEL

SQLSTATE: 42601

タイムトラベルには「timestampAsOf」または「versionAsOf」を指定してください。

DELTA_ONLY_OPERATION

SQLSTATE: 0AKDD

<operation> は Delta テーブルでのみサポートされています。

DELTA_OPERATION_MISSING_PATH

SQLSTATE: 42601

<operation>のパスまたはテーブル識別子を指定してください。

DELTA_OPERATION_NOT_ALLOWED

SQLSTATE: 0AKDC

操作が許可されていない: Delta テーブルでは <operation> はサポートされていません

DELTA_OPERATION_NOT_ALLOWED_DETAIL

SQLSTATE: 0AKDC

操作は許可されていません: Delta テーブルでは <operation> はサポートされていません。 <tableName>

DELTA_OPERATION_NOT_SUPPORTED_FOR_COLUMN_WITH_COLLATION

SQLSTATE: 0AKDC

<operation> は、デフォルト以外の照合<collation>を持つ列<colName>ではサポートされていません。

DELTA_OPERATION_NOT_SUPPORTED_FOR_EXPRESSION_WITH_COLLATION

SQLSTATE: 0AKDC

<operation> は、デフォルト以外の照合順序を使用するため、式 <exprText> ではサポートされていません。

DELTA_OPERATION_ON_TEMP_VIEW_WITH_GENERATED_COLS_NOT_SUPPORTED

SQLSTATE: 0A000

<operation> コマンドを一時ビューで使用して、生成された列を含む Delta テーブルを参照することはサポートされていません。 Delta テーブルで <operation> コマンドを直接実行してください

DELTA_OPERATION_ON_VIEW_NOT_ALLOWED

SQLSTATE: 0AKDC

操作が許可されていない: ビューに対して <operation> を実行できません。

DELTA_OPTIMIZE_FULL_NOT_SUPPORTED

SQLSTATE: 42601

OPTIMIZE FULL は、空でないクラスタリング列を持つクラスタ化テーブルでのみサポートされます。

DELTA_OVERWRITE_MUST_BE_TRUE

SQLSTATE: 42000

コピー オプション overwriteSchema は、 OVERWRITE = 'true' を設定しないと指定できません。

DELTA_OVERWRITE_SCHEMA_WITH_DYNAMIC_PARTITION_OVERWRITE

SQLSTATE: 42613

'overwriteSchema' は、動的パーティション上書きモードでは使用できません。

DELTA_PARTITION_COLUMN_CAST_FAILED

SQLSTATE: 22525

パーティション列の値 <value><dataType> にキャストできませんでした <columnName>

DELTA_PARTITION_COLUMN_NOT_FOUND

SQLSTATE: 42703

パーティション列 <columnName> スキーマに見つかりません [<schemaMap>]

DELTA_PARTITION_SCHEMA_IN_ICEBERG_TABLES

SQLSTATE: 42613

パーティションスキーマは、Iceberg テーブルを変換するときには指定できません。 これは自動的に推論されます。

DELTA_PATH_DOES_NOT_EXIST

SQLSTATE: 42K03

<path> 存在しないか、Delta テーブルではありません。

DELTA_PATH_EXISTS

SQLSTATE: 42K04

OVERWRITE = 'true' を設定しないと、既存のパス <path> に書き込むことはできません。

DELTA_POST_COMMIT_HOOK_FAILED

SQLSTATE: 2DKD0

Delta テーブル バージョンへのコミットは成功しましたが<version>コミット後フックの実行中にエラーが発生しました <name> <message>

DELTA_PROTOCOL_CHANGED

SQLSTATE: 2D521

ProtocolChangedException: Delta テーブルのプロトコル バージョンが並列更新によって変更されました。 <additionalInfo> <conflictingCommit>

詳細については、 <docLink> を参照してください。

DELTA_PROTOCOL_PROPERTY_NOT_INT

SQLSTATE: 42K06

プロトコル プロパティ <key> は整数である必要があります。 設立する <value>

DELTA_READ_FEATURE_PROTOCOL_REQUIRES_WRITE

SQLSTATE: KD004

リーダー プロトコル バージョンのみをアップグレードしてテーブル機能を使用することはできません。 ライター プロトコル バージョンは、続行するには少なくとも <writerVersion> である必要があります。 テーブル プロトコル バージョンの詳細については、 <docLink> を参照してください。

DELTA_READ_TABLE_WITHOUT_COLUMNS

SQLSTATE: 428GU

列がない Delta テーブル <tableName> を読み取ろうとしています。

テーブルを読み取ることができるように mergeSchema = true オプションを使用して、新しいデータを書き込みます。

DELTA_REGEX_OPT_SYNTAX_ERROR

SQLSTATE: 2201B

<regExpOption>」の構文を再確認してください

DELTA_REPLACE_WHERE_IN_OVERWRITE

SQLSTATE: 42613

replaceWhere を上書きフィルターと組み合わせて使用することはできません

DELTA_REPLACE_WHERE_MISMATCH

SQLSTATE: 44000

書き込まれたデータは、部分的なテーブル上書き条件または制約 '<replaceWhere>' に準拠していません。

<message>

DELTA_REPLACE_WHERE_WITH_DYNAMIC_PARTITION_OVERWRITE

SQLSTATE: 42613

'replaceWhere' 式と 'partitionOverwriteMode'='dynamic' の両方を DataFrameWriter オプションで設定することはできません。

DELTA_REPLACE_WHERE_WITH_FILTER_DATA_CHANGE_UNSET

SQLSTATE: 42613

'replaceWhere' は、'dataChange' が false に設定されている場合、データ フィルターと共に使用できません。 フィルター: <dataFilters>

DELTA_ROW_ID_ASSIGNMENT_WITHOUT_STATS

SQLSTATE: 22000

行カウント統計がないと、行 ID を割り当てることはできません。

Scala
Collect statistics for the table by running the following code in a Scala notebook and retry:

import com.databricks.sql.transaction.tahoe.DeltaLog

import com.databricks.sql.transaction.tahoe.stats.StatisticsCollection

import org.apache.spark.sql.catalyst.TableIdentifier

val log = DeltaLog.forTable(spark, TableIdentifier(table_name))

StatisticsCollection.recompute(spark, log)

DELTA_SCHEMA_CHANGED

SQLSTATE: KD007

検出されたスキーマの変更:

ストリーミング ソース スキーマ: <readSchema>

データ・ファイル・スキーマ: <dataSchema>

クエリを再起動してみてください。 この問題がクエリの再起動間で繰り返される場合

進行していると、互換性のないスキーマ変更を行ったため、

新しいチェックポイント・ディレクトリを使用してゼロからクエリを実行します。

DELTA_SCHEMA_CHANGED_WITH_STARTING_OPTIONS

SQLSTATE: KD007

バージョン <version>で検出されたスキーマの変更:

ストリーミング ソース スキーマ: <readSchema>

データ・ファイル・スキーマ: <dataSchema>

クエリを再起動してみてください。 この問題がクエリの再起動間で繰り返される場合

進行していると、互換性のないスキーマ変更を行ったため、

新しいチェックポイント・ディレクトリを使用してゼロからクエリを実行します。 その後も問題が解決しない場合

新しいチェックポイント・ディレクトリに変更する場合は、既存のチェックポイント・ディレクトリを変更する必要がある場合があります。

'startingVersion' または 'startingTimestamp' オプションを指定して、次の値より新しいバージョンから開始します。

<version> を新しいチェックポイント・ディレクトリに置き換えます。

DELTA_SCHEMA_CHANGED_WITH_VERSION

SQLSTATE: KD007

バージョン <version>で検出されたスキーマの変更:

ストリーミング ソース スキーマ: <readSchema>

データ・ファイル・スキーマ: <dataSchema>

クエリを再起動してみてください。 この問題がクエリの再起動間で繰り返される場合

進行していると、互換性のないスキーマ変更を行ったため、

新しいチェックポイント・ディレクトリを使用してゼロからクエリを実行します。

DELTA_SCHEMA_CHANGE_SINCE_ANALYSIS

SQLSTATE: KD007

Delta テーブルのスキーマは、DataFrame 以降、互換性のない方法で変更されました

または DeltaTable オブジェクトが作成されました。 DataFrame または DeltaTable オブジェクトを再定義してください。

変遷:

<schemaDiff> <legacyFlagMessage>

DELTA_SCHEMA_NOT_PROVIDED

SQLSTATE: 42908

テーブル スキーマは提供されません。 REPLACEテーブルを使用し、AS SELECTクエリが提供されていない場合は、テーブルのスキーマ(列定義)を指定してください。

DELTA_SCHEMA_NOT_SET

SQLSTATE: KD008

テーブル スキーマが設定されていません。 データを書き込むか、 CREATE TABLE を使用してスキーマを設定します。

DELTA_SET_LOCATION_SCHEMA_MISMATCH

SQLSTATE: 42KD7

新しい Delta ロケーションのスキーマは、現在のテーブル スキーマとは異なります。

元のスキーマ:

<original>

宛先スキーマ:

<destination>

これが意図的な変更である場合は、次のコマンドを実行してこのチェックをオフにすることができます。

%%sql セット <config> = true

DELTA_SHALLOW_CLONE_FILE_NOT_FOUND

SQLSTATE: 42K03

トランザクション・ログで参照されているファイル・ <filePath> が見つかりません。 これは、データが table DELETE ステートメントを使用せずにファイル・システムから手動で削除された場合に発生する可能性があります。 このテーブルはシャロークローンのように見えますが、その場合、このテーブルのクローン元のテーブルが、クローンがまだ使用しているファイルを削除した場合に、このエラーが発生する可能性があります。 クローンを元のテーブルから独立させる場合は、代わりにディープクローンを使用します。

DELTA_SHARING_CANNOT_MODIFY_RESERVED_RECIPIENT_PROPERTY

SQLSTATE: 42939

<prefix>で始まる事前定義プロパティは変更できません。

DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED

SQLSTATE: 42704

データは、セッション内の現在の受信者に適用されない受信者プロパティ <property> によって制限されます。

詳細については、 DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED

DELTA_SHARING_INVALID_OP_IN_EXTERNAL_SHARED_VIEW

SQLSTATE: 42887

<operation> アカウント間で共有されている Delta Sharing ビューでは使用できません。

DELTA_SHARING_INVALID_PROVIDER_AUTH

SQLSTATE: 28000

プロバイダ <provider>の認証タイプ<authenticationType>が不正です。

DELTA_SHARING_INVALID_RECIPIENT_AUTH

SQLSTATE: 28000

受信者<recipient>の認証タイプ<authenticationType>が不正です。

DELTA_SHARING_INVALID_SHARED_DATA_OBJECT_NAME

SQLSTATE: 42K05

Share内の <type> を参照する名前が無効です。 [スキーマ] の形式に従って、共有内で <type>の名前を使用できます。[<type>]、 または、[catalog] の形式に従って、テーブルの元のフルネームを使用することもできます。[スキーマ]。[>タイプ>]。

使用する名前がわからない場合は、「SHOW ALL IN SHARE [share]」を実行して、削除する <type> の名前を見つけることができます。列 "name" は共有内の <type>の名前で、列 "shared_object" は <type>の元のフルネームです。

DELTA_SHARING_MAXIMUM_RECIPIENT_TOKENS_EXCEEDED

SQLSTATE: 54000

受信者の <recipient>には 2 つ以上のトークンがあります。

DELTA_SHARING_RECIPIENT_PROPERTY_NOT_FOUND

SQLSTATE: 42704

受信者プロパティ <property> が存在しません。

DELTA_SHARING_RECIPIENT_TOKENS_NOT_FOUND

SQLSTATE: 42704

受信者トークンが受信者の <recipient>にありません。

DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_COLUMN

SQLSTATE: 42P10

非パーティション化列 <badCols> が指定されます SHOW PARTITIONS

DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_TABLE

SQLSTATE: 42809

SHOW PARTITIONS パーティション化されていないテーブルでは許可されません。 <tableName>

DELTA_SOURCE_IGNORE_DELETE

SQLSTATE: 0A000

バージョン <version>でストリーミング ソースから削除されたデータ (<removedFile>など) を検出しました。これは現在サポートされていません。 削除を無視する場合は、オプション 'ignoreDeletes' を 'true' に設定します。 ソース・テーブルは、パス <dataPath>にあります。

DELTA_SOURCE_TABLE_IGNORE_CHANGES

SQLSTATE: 0A000

バージョン <version>のソーステーブルでデータ更新 (<file>など) を検出しました。これは現在サポートされていません。 これが定期的に発生し、変更をスキップしても問題ない場合は、オプション 'skipChangeCommits' を 'true' に設定します。 データの更新を反映させる場合は、新しいチェックポイント ディレクトリでこのクエリを再起動するか、DLT を使用している場合はフル リフレッシュしてください。 これらの変更に対応する必要がある場合は、MVに切り替えてください。 ソース・テーブルは、パス <dataPath>にあります。

DELTA_STARTING_VERSION_AND_TIMESTAMP_BOTH_SET

SQLSTATE: 42613

<version>」または「<timestamp>」のいずれかを提供してください

DELTA_STATS_COLLECTION_COLUMN_NOT_FOUND

SQLSTATE: 42000

<statsType> Parquet メタデータの列の統計が見つかりません: <columnPath>.

DELTA_STREAMING_CANNOT_CONTINUE_PROCESSING_POST_SCHEMA_EVOLUTION

SQLSTATE: KD002

Delta バージョン <previousSchemaChangeVersion> と Delta ストリーミング ソースの <currentSchemaChangeVersion> の間で 1 つ以上の非加法スキーマ変更 (<opType>) が検出されました。

<currentSchemaChangeVersion>で最終化されたスキーマを使用してストリーム処理を続行する前に、スキーマの変更をシンクテーブルに手動で反映するかどうかを確認してください。

シンクテーブルのスキーマを修正した場合、または修正する必要がないと判断した場合は、次の SQL 設定のいずれかを設定して、非加法スキーマ変更のブロックを解除し、ストリーム処理を続行できます。

この一連のスキーマ変更のためだけに、この特定のストリームのブロックを解除するには: <allowCkptVerKey> = <allowCkptVerValue>を設定します。

この特定のストリームのブロックを解除するには: 設定 <allowCkptKey> = <allowCkptValue>

すべてのストリームのブロックを解除するには、 <allowAllKey> = <allowAllValue>を設定します。

または、該当する場合は、SQL conf で <allowAllMode><opSpecificMode> に置き換えて、このスキーマ変更タイプのみのストリームのブロックを解除することもできます。

DELTA_STREAMING_CHECK_COLUMN_MAPPING_NO_SNAPSHOT

SQLSTATE: KD002

列マッピング Delta スキーマの変更を確認するときに、開始バージョンのログ・スナップショットを取得できませんでした。 別の開始バージョンを選択するか、「<config>」を「true」に設定して、自己責任でストリーミング読み取りを強制的に有効にしてください。

DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE

SQLSTATE: 42KD4

ストリーミング読み取りは、互換性のないスキーマ変更 (例: 名前の変更、削除、またはデータ型の変更)。

この問題を解決するための詳細情報と可能な次の手順については、次のドキュメントを参照してください。 <docLink>

スキーマの読み取り: <readSchema>. 互換性のないデータスキーマ: <incompatibleSchema>.

DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE_USE_SCHEMA_LOG

SQLSTATE: 42KD4

ストリーミング読み取りは、互換性のないスキーマ変更 (例: 名前の変更、削除、またはデータ型の変更)。

Delta ストリーム処理の非加法スキーマ進化を有効にするために、'schemaTrackingLocation' を指定してください。

詳細については、 <docLink> を参照してください。

スキーマの読み取り: <readSchema>. 互換性のないデータスキーマ: <incompatibleSchema>.

DELTA_STREAMING_METADATA_EVOLUTION

SQLSTATE: 22000

Delta テーブルのスキーマ、テーブル構成、またはプロトコルがストリーミング中に変更されました。

スキーマまたはメタデータの追跡ログが更新されました。

更新されたメタデータを使用して処理を続行するには、ストリームを再起動してください。

更新されたスキーマ: <schema>.

更新されたテーブル構成: <config>.

更新されたテーブルプロトコル: <protocol>

DELTA_STREAMING_SCHEMA_EVOLUTION_UNSUPPORTED_ROW_FILTER_COLUMN_MASKS

SQLSTATE: 22000

スキーマ追跡を使用したソーステーブル <tableId> からのストリーミングでは、行フィルタまたは列マスクはサポートされていません。

行フィルターまたは列マスクを削除するか、スキーマ追跡を無効にしてください。

DELTA_STREAMING_SCHEMA_LOCATION_CONFLICT

SQLSTATE: 22000

テーブルまたは「<table>」にあるテーブルからのストリーミング中に、スキーマの場所「<loc>」の競合が検出されました。

別のストリームが同じスキーマの場所を再利用している可能性がありますが、これは許可されていません。

この表のいずれかのストリームのリーダーオプションとして、新しい一意の schemaTrackingLocation パスまたは streamingSourceTrackingId を指定してください。

DELTA_STREAMING_SCHEMA_LOCATION_NOT_UNDER_CHECKPOINT

SQLSTATE: 22000

スキーマの場所 '<schemaTrackingLocation>' は、チェックポイントの場所 '<checkpointLocation>' の下に配置する必要があります。

DELTA_STREAMING_SCHEMA_LOG_DESERIALIZE_FAILED

SQLSTATE: 22000

Delta ストリーミング ソース スキーマ ログの '<location>' のログ ファイルが不完全です。

スキーマ・ログが破損している可能性があります。 新しいスキーマの場所を選択してください。

DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_DELTA_TABLE_ID

SQLSTATE: 22000

Delta ストリームを読み取ろうとしたときに、互換性のない Delta テーブル ID が検出されました。

永続化テーブル ID: <persistedId>、テーブル ID: <tableId>

スキーマ・ログが再利用されている可能性があります。 新しいスキーマの場所を選択してください。

DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_PARTITION_SCHEMA

SQLSTATE: 22000

Deltaストリームを読み取ろうとしたときに互換性のないパーティションスキーマが検出されました。

永続化スキーマ: <persistedSchema>、Delta パーティション スキーマ: <partitionSchema>

テーブルのパーティション スキーマを最近手動で変更した場合は、スキーマ ログを再初期化する新しいスキーマの場所を選択してください。

DELTA_STREAMING_SCHEMA_LOG_INIT_FAILED_INCOMPATIBLE_METADATA

SQLSTATE: 22000

次の理由により、Delta ストリーミング ソース スキーマ ログを初期化できませんでした

テーブル バージョン <a> から <b>へのストリーミング バッチの提供中に、互換性のないスキーマまたはプロトコルの変更が検出されました。

DELTA_STREAMING_SCHEMA_LOG_PARSE_SCHEMA_FAILED

SQLSTATE: 22000

Delta ストリーミング ソース スキーマ ログからスキーマを解析できませんでした。

スキーマ・ログが破損している可能性があります。 新しいスキーマの場所を選択してください。

DELTA_TABLE_ALREADY_CONTAINS_CDC_COLUMNS

SQLSTATE: 42711

テーブルでチェンジデータキャプチャを有効にできません。 テーブルにはすでに含まれています

予約された列<columnList>

テーブルのチェンジデータフィードのメタデータとして内部的に使用されます。 有効にするには

テーブル上のチェンジデータフィードは、これらの列の名前を変更/削除します。

DELTA_TABLE_ALREADY_EXISTS

SQLSTATE: 42P07

テーブル <tableName> はすでに存在します。

DELTA_TABLE_FOR_PATH_UNSUPPORTED_HADOOP_CONF

SQLSTATE: 0AKDC

現在、DeltaTable.forPath は <allowedPrefixes> で始まる hadoop 設定キーのみをサポートしていますが、 <unsupportedOptions>

DELTA_TABLE_ID_MISMATCH

SQLSTATE: KD007

<tableLocation> の Delta テーブルは、このコマンドがテーブルを使用している間に置き換えられました。

テーブル ID は <oldId> されていましたが、現在は <newId>です。

現在のコマンドを再試行して、テーブルの一貫したビューが読み取られることを確認してください。

DELTA_TABLE_LOCATION_MISMATCH

SQLSTATE: 42613

既存のテーブル <tableName> の場所は <existingTableLocation>です。 指定した場所と一致しません <tableLocation>

DELTA_TABLE_NOT_FOUND

SQLSTATE: 42P01

Delta テーブル <tableName> が存在しません。

DELTA_TABLE_NOT_SUPPORTED_IN_OP

SQLSTATE: 42809

テーブルは <operation>ではサポートされていません。 代わりにパスを使用してください。

DELTA_TABLE_ONLY_OPERATION

SQLSTATE: 0AKDD

<tableName> Delta テーブルではありません。 <operation> は Delta テーブルでのみサポートされます。

DELTA_TARGET_TABLE_FINAL_SCHEMA_EMPTY

SQLSTATE: 428GU

ターゲット テーブルの最終スキーマが空です。

DELTA_TIMESTAMP_GREATER_THAN_COMMIT

SQLSTATE: 42816

指定されたタイムスタンプ(<providedTimestamp>)は、これに使用可能な最新バージョンの後です

テーブル (<tableName>). <maximumTimestamp>前またはのタイムスタンプを使用してください。

DELTA_TIMESTAMP_INVALID

SQLSTATE: 42816

指定されたタイムスタンプ (<expr>) は、有効なタイムスタンプに変換できません。

DELTA_TIME_TRAVEL_INVALID_BEGIN_VALUE

SQLSTATE: 42604

<timeTravelKey> 有効な開始値である必要があります。

DELTA_TRUNCATED_TRANSACTION_LOG

SQLSTATE: 42K03

<path>: 手動削除、ログ保存ポリシー (<logRetentionKey>=<logRetention>) およびチェックポイント保存ポリシー (<checkpointRetentionKey>=<checkpointRetention>) により、トランザクション ログが切り捨てられたため、バージョン <version> で状態を再構築できません

DELTA_TRUNCATE_TABLE_PARTITION_NOT_SUPPORTED

SQLSTATE: 0AKDC

操作が許可されていない: Delta テーブルの TRUNCATE TABLE では、パーティション述語はサポートされていません。 DELETE を使用して、特定のパーティションまたは行を削除します。

DELTA_UDF_IN_GENERATED_COLUMN

SQLSTATE: 42621

<udfExpr>見つかりました。生成された列でユーザー定義関数を使用することはできません

DELTA_UNEXPECTED_ACTION_EXPRESSION

SQLSTATE: 42601

予期しないアクション式 <expression>.

DELTA_UNEXPECTED_NUM_PARTITION_COLUMNS_FROM_FILE_NAME

SQLSTATE: KD009

<expectedColsSize> つのパーティション列が必要です: <expectedCols>ですが、<parsedCols> ファイル名の解析から<parsedColsSize>パーティション列が見つかりました: <path>

DELTA_UNEXPECTED_PARTIAL_SCAN

SQLSTATE: KD00A

Delta ソースのフル スキャンが想定されていますが、部分スキャンが見つかりました。 パス:<path>

DELTA_UNEXPECTED_PARTITION_COLUMN_FROM_FILE_NAME

SQLSTATE: KD009

パーティション列 の <expectedCol>が必要ですが、ファイル名の解析でパーティション列の <parsedCol> が見つかりました。 <path>

DELTA_UNEXPECTED_PARTITION_SCHEMA_FROM_USER

SQLSTATE: KD009

CONVERT カタログから推論されたパーティションスキーマとは異なるパーティションスキーマで呼び出された DELTA 、カタログからパーティションスキーマを選択できるようにスキーマを提供しないでください。

カタログパーティションスキーマ:

<catalogPartitionSchema>

提供されるパーティションスキーマ:

<userPartitionSchema>

DELTA_UNIFORM_COMPATIBILITY_LOCATION_CANNOT_BE_CHANGED

SQLSTATE: 0AKDC

delta.universalFormat.compatibility.location は変更できません。

DELTA_UNIFORM_COMPATIBILITY_LOCATION_NOT_REGISTERED

SQLSTATE: 42K0I

delta.universalFormat.compatibility.location がカタログに登録されていません。

DELTA_UNIFORM_COMPATIBILITY_MISSING_OR_INVALID_LOCATION

SQLSTATE: 42601

Uniform 互換性形式の場所がないか、無効です。 delta.universalFormat.compatibility.location のディレクトリを空に設定してください。

失敗した理由:

詳細については、 DELTA_UNIFORM_COMPATIBILITY_MISSING_OR_INVALID_LOCATION

DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION

SQLSTATE: KD00E

IcebergDeltaUniform の の読み取りに失敗しました。

詳細については、 DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION

DELTA_UNIFORM_INGRESS_NOT_SUPPORTED

SQLSTATE: 0A000

ユニフォームイングレステーブルの作成または更新はサポートされていません。

DELTA_UNIFORM_INGRESS_NOT_SUPPORTED_FORMAT

SQLSTATE: 0AKDC

形式 <fileFormat> はサポートされていません。 元のファイル形式としての iceberg のみがサポートされています。

DELTA_UNIFORM_NOT_SUPPORTED

SQLSTATE: 0AKDC

ユニバーサル形式は、 Unity Catalog テーブルでのみサポートされています。

DELTA_UNIFORM_REFRESH_NOT_SUPPORTED

SQLSTATE: 0AKDC

REFRESH 識別子 SYNC UNIFORM は、次の理由によりサポートされていません。

詳細については、 DELTA_UNIFORM_REFRESH_NOT_SUPPORTED

DELTA_UNIFORM_REFRESH_NOT_SUPPORTED_FOR_MANAGED_ICEBERG_TABLE_WITH_METADATA_PATH

SQLSTATE: 0AKDC

REFRESH TABLE with の METADATA_PATH は、マネージド Iceberg テーブルではサポートされていません

DELTA_UNIVERSAL_FORMAT_CONVERSION_FAILED

SQLSTATE: KD00E

テーブル バージョン <version> をユニバーサル形式 <format>に変換できませんでした。 <message>

DELTA_UNIVERSAL_FORMAT_VIOLATION

SQLSTATE: KD00E

ユニバーサル形式(<format>)の検証に失敗しました。 <violation>

DELTA_UNKNOWN_CONFIGURATION

SQLSTATE: F0000

不明な構成が指定されました: <config>

DELTA_UNKNOWN_PRIVILEGE

SQLSTATE: 42601

不明な権限: <privilege>

DELTA_UNKNOWN_READ_LIMIT

SQLSTATE: 42601

不明な読み取り制限: <limit>

DELTA_UNRECOGNIZED_COLUMN_CHANGE

SQLSTATE: 42601

認識できない列の変更<otherClass>古いバージョンの Delta Lake を実行している可能性があります。

DELTA_UNRECOGNIZED_INVARIANT

SQLSTATE: 56038

認識されない不変条件。 Sparkのバージョンをアップグレードしてください。

DELTA_UNRECOGNIZED_LOGFILE

SQLSTATE: KD00B

認識されないログファイル <fileName>

DELTA_UNSET_NON_EXISTENT_PROPERTY

SQLSTATE: 42616

テーブル内の存在しないプロパティ '<property>' の設定を解除しようとしました <tableName>

DELTA_UNSUPPORTED_ABS_PATH_ADD_FILE

SQLSTATE: 0AKDC

<path> 絶対パスを持つファイルの追加はサポートされていません

DELTA_UNSUPPORTED_ALTER_TABLE_CHANGE_COL_OP

SQLSTATE: 0AKDC

ALTER TABLE CHANGE COLUMN は、列 <fieldPath><oldField> から <newField>

DELTA_UNSUPPORTED_ALTER_TABLE_REPLACE_COL_OP

SQLSTATE: 0AKDC

サポートされていない ALTER TABLE REPLACE COLUMNS 操作。 理由: <details>

スキーマの変更に失敗しました:

<oldSchema>

宛先:

<newSchema>

DELTA_UNSUPPORTED_CLONE_REPLACE_SAME_TABLE

SQLSTATE: 0AKDC

既存のテーブル (<tableName>) を CLONEREPLACEしようとしました。この操作は

サポート。 別のターゲットを CLONE に試すか、現在のターゲットのテーブルを削除します。

DELTA_UNSUPPORTED_COLUMN_MAPPING_MODE_CHANGE

SQLSTATE: 0AKDC

列マッピング モードを '<oldMode>' から '<newMode>' に変更することはサポートされていません。

DELTA_UNSUPPORTED_COLUMN_MAPPING_OPERATIONS_ON_COLUMNS_WITH_BLOOM_FILTER_INDEX

SQLSTATE: 0AKDC

列に対して <opName> 列マッピング操作を実行できませんでした <columnNames>

これらの列にはブルームフィルターインデックスがあるためです。

列に対して列マッピング操作を実行する場合

ブルームフィルターインデックス付き、

最初にブルームフィルターインデックスを削除してください。

DROP BLOOMFILTER INDEX ON TABLE テーブル名 FOR COLUMNS(<columnNames>)

代わりに、テーブル上のすべてのブルーム フィルター インデックスを削除する場合は、次を使用します。

DROP BLOOMFILTER INDEX ON TABLE テーブル名

DELTA_UNSUPPORTED_COLUMN_MAPPING_PROTOCOL

SQLSTATE: KD004

現在のテーブル プロトコル バージョンでは、列マッピング モードの変更はサポートされていません

<config>.

列マッピングに必要な Delta プロトコルのバージョン:

<requiredVersion>

テーブルの現在の Delta プロトコルバージョン:

<currentVersion>

<advice>

DELTA_UNSUPPORTED_COLUMN_MAPPING_SCHEMA_CHANGE

SQLSTATE: 0AKDC

スキーマの変更が検出されました。

古いスキーマ:

<oldTableSchema>

新しいスキーマ:

<newTableSchema>

カラム・マッピング・モードの変更中にスキーマを変更することはできません。

DELTA_UNSUPPORTED_COLUMN_MAPPING_WRITE

SQLSTATE: 0AKDC

カラム・マッピング・モードでのデータ書き込みはサポートされていません。

DELTA_UNSUPPORTED_COLUMN_TYPE_IN_BLOOM_FILTER

SQLSTATE: 0AKDC

<dataType> 型の列に対するブルーム フィルター インデックスの作成はサポートされていません。 <columnName>

DELTA_UNSUPPORTED_COMMENT_MAP_ARRAY

SQLSTATE: 0AKDC

<fieldPath>にコメントを追加できません。マップのキー/値または配列要素へのコメントの追加はサポートされていません。

DELTA_UNSUPPORTED_DATA_TYPES

SQLSTATE: 0AKDC

サポートされていないデータ型を使用している列が見つかりました: <dataTypeList>. 「<config>」を「false」に設定すると、タイプチェックを無効にすることができます。 この種類のチェックを無効にすると、ユーザーはサポートされていない Delta テーブルを作成できる場合があり、レガシ テーブルの読み取り/書き込みを試みる場合にのみ使用する必要があります。

DELTA_UNSUPPORTED_DATA_TYPE_IN_GENERATED_COLUMN

SQLSTATE: 42621

<dataType> 生成された列の結果にすることはできません

DELTA_UNSUPPORTED_DEEP_CLONE

SQLSTATE: 0A000

ディープクローンは、この Delta バージョンではサポートされていません。

DELTA_UNSUPPORTED_DESCRIBE_DETAIL_VIEW

SQLSTATE: 42809

<view> ビューです。 DESCRIBE DETAIL はテーブルでのみサポートされています。

DELTA_UNSUPPORTED_DROP_CLUSTERING_COLUMN

SQLSTATE: 0AKDC

クラスタリング列 (<columnList>) の削除は許可されていません。

DELTA_UNSUPPORTED_DROP_COLUMN

SQLSTATE: 0AKDC

DROP COLUMN は、Delta テーブルではサポートされていません。 <advice>

DELTA_UNSUPPORTED_DROP_NESTED_COLUMN_FROM_NON_STRUCT_TYPE

SQLSTATE: 0AKDC

ネストされた列は StructType からのみ削除できます。 設立する <struct>

DELTA_UNSUPPORTED_DROP_PARTITION_COLUMN

SQLSTATE: 0AKDC

パーティション列 (<columnList>) の削除は許可されていません。

DELTA_UNSUPPORTED_EXPRESSION

SQLSTATE: 0A000

<causedBy>でサポートされていない式タイプ (<expType>)サポートされているタイプは [<supportedTypes>] です。

DELTA_UNSUPPORTED_EXPRESSION_GENERATED_COLUMN

SQLSTATE: 42621

<expression> 生成された列では使用できません

DELTA_UNSUPPORTED_FEATURES_FOR_READ

SQLSTATE: 56038

Unsupported Delta read 特徴量テーブル "<tableNameOrPath>" には、このバージョンの Databricks: <unsupported> でサポートされていないリーダー テーブル機能が必要です。 Delta Lake機能の互換性の詳細については、<link>を参照してください。

DELTA_UNSUPPORTED_FEATURES_FOR_WRITE

SQLSTATE: 56038

Unsupported Delta write 特徴量テーブル "<tableNameOrPath>" には、このバージョンの Databricks: <unsupported> でサポートされていない writer テーブル機能が必要です。 Delta Lake機能の互換性の詳細については、<link>を参照してください。

DELTA_UNSUPPORTED_FEATURES_IN_CONFIG

SQLSTATE: 56038

次の Spark 構成または Delta テーブル プロパティで構成されたテーブル機能は、このバージョンの Databricks では認識されません: <configs>

DELTA_UNSUPPORTED_FEATURE_STATUS

SQLSTATE: 0AKDE

テーブル機能 <feature> のステータスが「サポート」されていることを期待していましたが、「<status>」を取得しました。

DELTA_UNSUPPORTED_FIELD_UPDATE_NON_STRUCT

SQLSTATE: 0AKDC

ネストされたフィールドの更新は StructType でのみサポートされていますが、タイプ : : <dataType><columnName>のフィールドを更新しようとしています。

DELTA_UNSUPPORTED_FSCK_WITH_DELETION_VECTORS

SQLSTATE: 0A000

'FSCK REPAIR TABLE' コマンドは、削除ベクトル ファイルが欠落しているテーブル バージョンではサポートされていません。

サポートにお問い合わせください。

DELTA_UNSUPPORTED_GENERATE_WITH_DELETION_VECTORS

SQLSTATE: 0A000

'GENERATE symlink_format_manifest' コマンドは、削除ベクトルを持つテーブルバージョンではサポートされていません。

削除ベクトルのないバージョンのテーブルを生成するには、「REORG TABLE table APPLY (PURGE)」を実行します。 その後、「GENERATE」コマンドを再実行します。

並列トランザクションが REORGGENERATEの間に削除ベクトルを再度追加していないことを確認します。

マニフェストを定期的に生成する必要がある場合、または並列トランザクションを防止できない場合は、'ALTER TABLE テーブル SET TBLPROPERTIES (delta.enableDeletionVectors) を使用して、このテーブルで削除ベクトルを無効にすることを検討してください = false)' です。

DELTA_UNSUPPORTED_INVARIANT_NON_STRUCT

SQLSTATE: 0AKDC

StructTypes 以外のネストされたフィールドの不変式はサポートされていません。

DELTA_UNSUPPORTED_IN_SUBQUERY

SQLSTATE: 0AKDC

In Subquery は、 <operation> 条件ではサポートされていません。

DELTA_UNSUPPORTED_LIST_KEYS_WITH_PREFIX

SQLSTATE: 0A000

listKeywithPrefix は使用できません

DELTA_UNSUPPORTED_MANIFEST_GENERATION_WITH_COLUMN_MAPPING

SQLSTATE: 0AKDC

マニフェストの生成は、列マッピングを利用するテーブルではサポートされません。これは、外部リーダーがこれらの Delta テーブルを読み取ることができないためです。 詳細については、Delta のドキュメントを参照してください。

DELTA_UNSUPPORTED_MERGE_SCHEMA_EVOLUTION_WITH_CDC

SQLSTATE: 0A000

MERGE INTO スキーマ進化を伴う操作は、現在、出力 CDC 書き込みをサポートしていません。

DELTA_UNSUPPORTED_MULTI_COL_IN_PREDICATE

SQLSTATE: 0AKDC

複数列の In 述部は、 <operation> 条件ではサポートされていません。

DELTA_UNSUPPORTED_NESTED_COLUMN_IN_BLOOM_FILTER

SQLSTATE: 0AKDC

ネストされたカラムでのブルームファイラーインデックスの作成は、現在サポートされていません。 <columnName>

DELTA_UNSUPPORTED_NESTED_FIELD_IN_OPERATION

SQLSTATE: 0AKDC

ネストされたフィールドは、 <operation> (field = <fieldName>) ではサポートされていません。

DELTA_UNSUPPORTED_NON_EMPTY_CLONE

SQLSTATE: 0AKDC

クローン先テーブルが空ではありません。 CLONEを実行する前に、テーブルをTRUNCATEまたはDELETE FROMしてください。

DELTA_UNSUPPORTED_OUTPUT_MODE

SQLSTATE: 0AKDC

データソース <dataSource><mode> 出力モードをサポートしていません

DELTA_UNSUPPORTED_PARTITION_COLUMN_IN_BLOOM_FILTER

SQLSTATE: 0AKDC

パーティション分割列でのブルーム フィルター インデックスの作成はサポートされていません。 <columnName>

DELTA_UNSUPPORTED_RENAME_COLUMN

SQLSTATE: 0AKDC

列の名前変更は、Delta テーブルではサポートされていません。 <advice>

DELTA_UNSUPPORTED_SCHEMA_DURING_READ

SQLSTATE: 0AKDC

Delta では、読み取り時のスキーマの指定はサポートされていません。

DELTA_UNSUPPORTED_SORT_ON_BUCKETED_TABLES

SQLSTATE: 0A000

SORTED BY Delta バケット テーブルではサポートされていません

DELTA_UNSUPPORTED_SOURCE

SQLSTATE: 0AKDD

<operation> 宛先は Delta ソースのみをサポートします。

<plan>

DELTA_UNSUPPORTED_STATIC_PARTITIONS

SQLSTATE: 0AKDD

パーティション仕様での静的パーティションの指定は、現在、挿入中にはサポートされていません

DELTA_UNSUPPORTED_STRATEGY_NAME

SQLSTATE: 22023 です。

サポートされていない戦略名: <strategy>

DELTA_UNSUPPORTED_SUBQUERY

SQLSTATE: 0AKDC

サブクエリは、 <operation> ではサポートされていません (条件 = <cond>)。

DELTA_UNSUPPORTED_SUBQUERY_IN_PARTITION_PREDICATES

SQLSTATE: 0AKDC

サブクエリは、パーティション述部ではサポートされていません。

DELTA_UNSUPPORTED_TIME_TRAVEL_MULTIPLE_FORMATS

SQLSTATE: 42613

タイムトラベルを複数の形式で指定することはできません。

DELTA_UNSUPPORTED_TIME_TRAVEL_VIEWS

SQLSTATE: 0AKDC

タイムトラベル ビュー、サブクエリ、ストリーム、またはチェンジデータフィード クエリはできません。

DELTA_UNSUPPORTED_TRUNCATE_SAMPLE_TABLES

SQLSTATE: 0A000

サンプル テーブルの切り捨てはサポートされていません

DELTA_UNSUPPORTED_TYPE_CHANGE_IN_SCHEMA

SQLSTATE: 0AKDC

サポートされていない型の変更が適用されたため、このテーブルを操作できません。 フィールド <fieldName><fromType> から <toType>に変更されました。

DELTA_UNSUPPORTED_TYPE_CHANGE_ON_COLUMNS_WITH_BLOOM_FILTER_INDEX

SQLSTATE: 0AKDC

列のデータ型を変更できませんでした <columnNames>

これらの列にはブルームフィルターインデックスがあるためです。

Bloom Filter Index(es)を使用して列のデータ型を変更する場合は、

最初にブルームフィルターインデックスを削除してください。

DROP BLOOMFILTER INDEX ON TABLE テーブル名 FOR COLUMNS(<columnNames>)

代わりに、テーブル上のすべてのブルーム フィルター インデックスを削除する場合は、次を使用します。

DROP BLOOMFILTER INDEX ON TABLE テーブル名

DELTA_UNSUPPORTED_VACUUM_SPECIFIC_PARTITION

SQLSTATE: 0AKDC

テーブル vacuum Delta るときは、ベースパス(<baseDeltaPath>)を指定してください。 特定のパーティションvacuumは現在サポートされていません。

DELTA_UNSUPPORTED_WRITES_STAGED_TABLE

SQLSTATE: 42807

テーブルの実装では、次の書き込みはサポートされていません。 <tableName>

DELTA_UNSUPPORTED_WRITES_WITHOUT_COORDINATOR

SQLSTATE: 0AKDC

コミット・コーディネータ <coordinatorName>に登録されているテーブルに対して書き込みを実行しようとしています。 ただし、このコーディネーターの実装は現在の環境では使用できず、コーディネーターなしの書き込みは許可されません。

DELTA_UNSUPPORTED_WRITE_SAMPLE_TABLES

SQLSTATE: 0A000

サンプル テーブルへの書き込みはサポートされていません

DELTA_UPDATE_SCHEMA_MISMATCH_EXPRESSION

SQLSTATE: 42846

<fromCatalog><toCatalog>にキャストできません。ネストされたすべての列が一致する必要があります。

DELTA_VACUUM_COPY_INTO_STATE_FAILED

SQLSTATE: 22000

VACUUM ON データ ファイルは成功しましたが、状態 COPY INTO ガベージ コレクションは失敗しました。

DELTA_VERSIONS_NOT_CONTIGUOUS

SQLSTATE: KD00C

バージョン (<versionList>) は連続していません。

詳細については、 DELTA_VERSIONS_NOT_CONTIGUOUS

DELTA_VIOLATE_CONSTRAINT_WITH_VALUES

SQLSTATE: 23001

CHECK 制約 <constraintName> <expression> 値を持つ行によって違反されました:

<values>

DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED

SQLSTATE: 0A000

テーブル <table> のプロパティの検証に違反しました。

詳細については、 DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED

DELTA_WRITE_INTO_VIEW_NOT_SUPPORTED

SQLSTATE: 0A000

<viewIdentifier> ビューです。 ビューにデータを書き込むことはできません。

DELTA_ZORDERING_COLUMN_DOES_NOT_EXIST

SQLSTATE: 42703

Z-Ordering 列<columnName>がデータ スキーマに存在しません。

DELTA_ZORDERING_ON_COLUMN_WITHOUT_STATS

SQLSTATE: KD00D

<cols>Z-Orderingは

現在、これらの列の統計を収集していないため、効果がありません。 を参照してください。

<link>

詳細については、データのスキップと Z-Orderingを参照してください。 無効にできます

このチェックは、設定によって

'%%sql set <zorderColStatKey> = false'

DELTA_ZORDERING_ON_PARTITION_COLUMN

SQLSTATE: 42P10

<colName> パーティション列です。 Z-Ordering はデータ列に対してのみ実行できます

Delta Sharing

DELTA_SHARING_ACTIVATION_NONCE_DOES_NOT_EXIST

SQLSTATE: 割り当てられていない

アクティベーションが見つかりません。 使用したアクティベーションリンクが無効であるか、有効期限が切れています。 アクティベーションリンクを再生成して、再試行してください。

DELTA_SHARING_CROSS_REGION_SHARE_UNSUPPORTED

SQLSTATE: 割り当てられていない

<regionHint>リージョンとその外部のリージョン間での共有はサポートされていません。

DELTA_SHARING_GET_RECIPIENT_PROPERTIES_INVALID_DEPENDENT

SQLSTATE: 割り当てられていない

current_recipient 関数で定義されたビューは共有専用であり、データ受信者側からのみクエリを実行できます。ID が <securableId> で提供されているセキュリティ保護可能なリソースは、Delta Sharing View ではありません。

DELTA_SHARING_MUTABLE_SECURABLE_KIND_NOT_SUPPORTED

SQLSTATE: 割り当てられていない

提供されているセキュリティ保護可能な種類の <securableKind> は、Delta Sharing での変更可能性をサポートしていません。

DELTA_SHARING_ROTATE_TOKEN_NOT_AUTHORIZED_FOR_MARKETPLACE

SQLSTATE: 割り当てられていない

提供されているセキュリティ保護可能な種類の <securableKind> は、Marketplace サービスによって開始されるトークンのローテーション アクションをサポートしていません。

DS_AUTH_TYPE_NOT_AVAILABLE

SQLSTATE: 割り当てられていない

<dsError>: プロバイダエンティティ <providerEntity>では使用できません。

DS_CDF_NOT_ENABLED

SQLSTATE: 割り当てられていない

<dsError>: <tableName>のチェンジデータフィードにアクセスできません。 CDFは、元のデルタ・テーブルで有効になっていません。 データ提供者にお問い合わせください。

DS_CDF_NOT_SHARED

SQLSTATE: 割り当てられていない

<dsError>: <tableName>のチェンジデータフィードにアクセスできません。 CDF はテーブル上で共有されません。 データ提供者にお問い合わせください。

DS_CDF_RPC_INVALID_PARAMETER

SQLSTATE: 割り当てられていない

<dsError>: <message>

DS_CLIENT_AUTH_ERROR_FOR_DB_DS_SERVER

SQLSTATE: 割り当てられていない

<dsError>: <message>

DS_CLIENT_ERROR_FOR_DB_DS_SERVER

SQLSTATE: 割り当てられていない

<dsError>: <message>

DS_CLIENT_OAUTH_TOKEN_EXCHANGE_FAILURE

SQLSTATE: 割り当てられていない

<dsError>: <message>

DS_CLIENT_OAUTH_TOKEN_EXCHANGE_UNAUTHORIZED

SQLSTATE: 割り当てられていない

<dsError>: <message>

DS_CLOUD_VENDOR_UNAVAILABLE

SQLSTATE: 割り当てられていない

<dsError>:クラウドベンダーが一時的に <rpcName>利用できないため、再試行してください。<traceId>

DS_DATA_MATERIALIZATION_COMMAND_FAILED

SQLSTATE: 割り当てられていない

<dsError>: 組織から<runId>されたデータ マテリアライゼーション タスクの実行がコマンドで失敗<orgId> <command>

DS_DATA_MATERIALIZATION_COMMAND_NOT_SUPPORTED

SQLSTATE: 割り当てられていない

<dsError>: 組織から <runId> されたデータ実体化タスクの実行 <orgId> コマンドをサポートしていない <command>

DS_DATA_MATERIALIZATION_NO_VALID_NAMESPACE

SQLSTATE: 割り当てられていない

<dsError>: <tableName>の実体化を作成するための有効な名前空間が見つかりませんでした。 これを修正するには、データプロバイダーにお問い合わせください。

DS_DATA_MATERIALIZATION_RUN_DOES_NOT_EXIST

SQLSTATE: 割り当てられていない

<dsError>: 組織<orgId>から<runId>データ具体化タスク実行が存在しない

DS_DELTA_ILLEGAL_STATE

SQLSTATE: 割り当てられていない

<dsError>: <message>

DS_DELTA_MISSING_CHECKPOINT_FILES

SQLSTATE: 割り当てられていない

<dsError>: バージョン: <version>のチェックポイントのすべてのパーツ ファイルが見つかりませんでした。 <suggestion>

DS_DELTA_NULL_POINTER

SQLSTATE: 割り当てられていない

<dsError>: <message>

DS_DELTA_RUNTIME_EXCEPTION

SQLSTATE: 割り当てられていない

<dsError>: <message>

DS_EXPIRE_TOKEN_NOT_AUTHORIZED_FOR_MARKETPLACE

SQLSTATE: 割り当てられていない

<dsError>: 提供されているセキュリティ保護可能な種類の <securableKind> は、Marketplace サービスによって開始されるトークンの有効期限アクションをサポートしていません。

DS_FAILED_REQUEST_TO_OPEN_DS_SERVER

SQLSTATE: 割り当てられていない

<dsError>: <message>

DS_FEATURE_ONLY_FOR_DATABRICKS_TO_DATABRICKS

SQLSTATE: 割り当てられていない

<dsError>: <feature> は、 Databricks から Databricks Delta への共有に対してのみ有効です。

DS_FILE_LISTING_EXCEPTION

SQLSTATE: 割り当てられていない

<dsError>: <storage>: <message>

DS_FILE_SIGNING_EXCEPTION

SQLSTATE: 割り当てられていない

<dsError>: <message>

DS_FLAKY_NETWORK_CONNECTION

SQLSTATE: 割り当てられていない

<dsError>:ネットワーク接続が不安定な <rpcName>、再試行してください。<traceId>

DS_FOREIGN_TABLE_METADATA_REFRESH_FAILED

SQLSTATE: 割り当てられていない

<dsError>: <message>

DS_HADOOP_CONFIG_NOT_SET

SQLSTATE: 割り当てられていない

<dsError>: <key> は呼び出し元によって設定されません。

DS_ILLEGAL_STATE

SQLSTATE: 割り当てられていない

<dsError>: <message>

DS_INTERNAL_ERROR_FROM_DB_DS_SERVER

SQLSTATE: 割り当てられていない

<dsError>: <message>

DS_INVALID_AZURE_PATH

SQLSTATE: 割り当てられていない

<dsError>: 無効な Azure パス: <path>.

DS_INVALID_DELTA_ACTION_OPERATION

SQLSTATE: 割り当てられていない

<dsError>: <message>

DS_INVALID_FIELD

SQLSTATE: 割り当てられていない

<dsError>: <message>

DS_INVALID_ITERATOR_OPERATION

SQLSTATE: 割り当てられていない

<dsError>: <message>

DS_INVALID_PARTITION_SPEC

SQLSTATE: 割り当てられていない

<dsError>: <message>

DS_INVALID_RESPONSE_FROM_DS_SERVER

SQLSTATE: 割り当てられていない

<dsError>: <message>

DS_MATERIALIZATION_QUERY_FAILED

SQLSTATE: 割り当てられていない

<dsError>: <schema>のクエリに失敗しました。シェア<share>から<table>

DS_MATERIALIZATION_QUERY_TIMEDOUT

SQLSTATE: 割り当てられていない

<dsError>: クエリが 1 <schema>でタイムアウトしました。<timeoutInSec>秒後にShare <share>から<table>します。

DS_MISSING_IDEMPOTENCY_KEY

SQLSTATE: 割り当てられていない

<dsError>: 冪等性キーは、クエリ<schema>ときに必要です。Share <share>から<table>非同期的に行われます。

DS_MORE_THAN_ONE_RPC_PARAMETER_SET

SQLSTATE: 割り当てられていない

<dsError>: 次のいずれか <parameters>のみを指定してください。

DS_NO_METASTORE_ASSIGNED

SQLSTATE: 割り当てられていない

<dsError>: 現在のワークスペースにメタストアが割り当てられていません (workspaceId: <workspaceId>)。

DS_O2D_OIDC_WORKLOAD_IDENTITY_TOKEN_GENERATION_FAILED

SQLSTATE: 割り当てられていない

<dsError>: O2D OIDC プロバイダーのワークロード ID トークンの生成に失敗しました: <message>.

DS_PAGINATION_AND_QUERY_ARGS_MISMATCH

SQLSTATE: 割り当てられていない

<dsError>: ページネーションまたはクエリ引数が一致しません。

DS_PARTITION_COLUMNS_RENAMED

SQLSTATE: 割り当てられていない

<dsError>: 共有テーブルでパーティション列 [<renamedColumns>] の名前が変更されました。 これを修正するには、データプロバイダーにお問い合わせください。

DS_QUERY_BEFORE_START_VERSION

SQLSTATE: 割り当てられていない

<dsError>: テーブル データのクエリを実行できるのは、バージョン <startVersion>以降のみです。

DS_QUERY_TIMEOUT_ON_SERVER

SQLSTATE: 割り当てられていない

<dsError>: <numIter>イテレーション間で更新<numActions>後に<tableName><queryType>を処理するときにタイムアウトが発生しました。<progressUpdate> <suggestion> <traceId>

DS_RATE_LIMIT_ON_DS_SERVER

SQLSTATE: 割り当てられていない

<dsError>: <message>

DS_RECIPIENT_RPC_INVALID_PARAMETER

SQLSTATE: 割り当てられていない

<dsError>: <message>

DS_RESOURCE_ALREADY_EXIST_ON_DS_SERVER

SQLSTATE: 割り当てられていない

<dsError>: <message>

DS_RESOURCE_EXHAUSTED

SQLSTATE: 割り当てられていない

<dsError>: 制限を超えた <resource> : [<limitSize>]<suggestion>.<traceId>

DS_RESOURCE_NOT_FOUND_ON_DS_SERVER

SQLSTATE: 割り当てられていない

<dsError>: <message>

DS_SYSTEM_WORKSPACE_GROUP_PERMISSION_UNSUPPORTED

SQLSTATE: 割り当てられていない

<securableType>に対する権限をシステム生成グループ <principal>に付与できません。

DS_TIME_TRAVEL_NOT_PERMITTED

SQLSTATE: 割り当てられていない

<dsError>: タイムトラベルクエリは、履歴が で共有されていない限り <tableName>許可されません。 データ提供者にお問い合わせください。

DS_UNAUTHORIZED

SQLSTATE: 割り当てられていない

<dsError>:不正。

DS_UNAUTHORIZED_D2O_OIDC_RECIPIENT

SQLSTATE: 割り当てられていない

<dsError>: 許可されていない D2O OIDC 受信者: <message>.

DS_UNKNOWN_EXCEPTION

SQLSTATE: 割り当てられていない

<dsError>: <traceId>

DS_UNKNOWN_QUERY_ID

SQLSTATE: 割り当てられていない

<dsError>: 不明なクエリ ID が <schema><queryID> です。シェア<share>から<table>

DS_UNKNOWN_QUERY_STATUS

SQLSTATE: 割り当てられていない

<dsError>: クエリ ID の不明なクエリ ステータス<queryID> <schema>のクエリ ステータス。シェア<share>から<table>

DS_UNKNOWN_RPC

SQLSTATE: 割り当てられていない

<dsError>: 不明な rpc の <rpcName>

DS_UNSUPPORTED_DELTA_READER_VERSION

SQLSTATE: 割り当てられていない

<dsError>: Delta プロトコル リーダー バージョン <tableReaderVersion><supportedReaderVersion> より高く、デルタ共有サーバーではサポートされていません。

DS_UNSUPPORTED_DELTA_TABLE_FEATURES

SQLSTATE: 割り当てられていない

<dsError>: テーブル内にあるテーブルの特徴<tableFeatures>``\<versionStr\> \<historySharingStatusStr\> \<optionStr\>

DS_UNSUPPORTED_OPERATION

SQLSTATE: 割り当てられていない

<dsError>: <message>

DS_UNSUPPORTED_STORAGE_SCHEME

SQLSTATE: 割り当てられていない

<dsError>: サポートされていないストレージ スキーム: <scheme>.

DS_UNSUPPORTED_TABLE_TYPE

SQLSTATE: 割り当てられていない

<dsError>: <schema>を取得できませんでした。<table> は、種類 [<tableType>] のテーブルが現在 Delta Sharing プロトコルでサポートされていないため、Share <share> からします。

DS_USER_CONTEXT_ERROR

SQLSTATE: 割り当てられていない

<dsError>: <message>

DS_VIEW_SHARING_FUNCTIONS_NOT_ALLOWED

SQLSTATE: 割り当てられていない

<dsError>: 次の関数: ビュー共有クエリで <functions> は使用できません。

DS_WORKSPACE_DOMAIN_NOT_SET

SQLSTATE: 割り当てられていない

<dsError>: ワークスペース <workspaceId> ドメインが設定されていません。

DS_WORKSPACE_NOT_FOUND

SQLSTATE: 割り当てられていない

<dsError>: ワークスペース <workspaceId> が見つかりませんでした。

オートローダ

CF_ADD_NEW_NOT_SUPPORTED

SQLSTATE: 0A000

スキーマ <addNewColumnsMode> スキーマが指定されている場合、スキーマ進化モードはサポートされません。 このモードを使用するには、代わりに cloudFiles.schemaHints を使用してスキーマを指定できます。

CF_AMBIGUOUS_AUTH_OPTIONS_ERROR

SQLSTATE: 42000

(デフォルト) ディレクトリの notification-setup 認証オプションが見つかりました

リスティングモード:

<options>

ファイル通知モードを使用する場合は、明示的に設定してください。

.option("cloudFiles.<useNotificationsKey>"", "true")

または、オプションの検証をスキップしてこれらを無視する場合は、

認証オプションでは、次の設定を行うことができます。

.option("cloudFiles.ValidateOptionsKey>", "false")

CF_AMBIGUOUS_INCREMENTAL_LISTING_MODE_ERROR

SQLSTATE: 42000

増分リスト・モード(cloudFiles.<useIncrementalListingKey>)

およびファイル通知(cloudFiles.<useNotificationsKey>)

が同時に有効になっています。

必ず1つだけ選択してください。

CF_AZURE_AUTHENTICATION_MISSING_OPTIONS

SQLSTATE: 42000

Azure で認証するには、Databricks サービスの資格情報、または clientId と clientSecret の両方を指定してください。

CF_AZURE_AUTHENTICATION_MULTIPLE_OPTIONS

SQLSTATE: 42000

Databricks サービスの資格情報が提供されている場合、他の資格情報オプション (例: clientId、clientSecret、または connectionString) を指定する必要があります。

CF_AZURE_STORAGE_SUFFIXES_REQUIRED

SQLSTATE: 42000

Azure の adlsBlobSuffix と adlsDfsSuffix が必要

CF_BUCKET_MISMATCH

SQLSTATE: 22000

ファイル イベント <fileEvent><storeType>が、ソース (<source>) で予期されたものと異なります。

CF_CANNOT_EVOLVE_SCHEMA_LOG_EMPTY

SQLSTATE: 22000

スキーマログが空の場合は、スキーマを進化できません。 スキーマ ログの場所: <logPath>

CF_CANNOT_PARSE_QUEUE_MESSAGE

SQLSTATE: 22000

次のキュー メッセージを解析できません。 <message>

CF_CANNOT_RESOLVE_CONTAINER_NAME

SQLSTATE: 22000

パスからコンテナ名を解決できません: <path>、解決されたuri: <uri>

CF_CANNOT_RUN_DIRECTORY_LISTING

SQLSTATE: 22000

非同期バックフィル スレッドが実行されている場合は、ディレクトリ リストを実行できません

CF_CLEAN_SOURCE_ALLOW_OVERWRITES_BOTH_ON

SQLSTATE: 42000

cloudFiles.cleanSource と cloudFiles.allowOverwrites を同時にオンにすることはできません。

CF_CLEAN_SOURCE_UNAUTHORIZED_WRITE_PERMISSION

SQLSTATE: 42501

Auto Loader は、ソース ディレクトリへの書き込みアクセス許可がないため、処理されたファイルを削除できません。

<reason>

修正するには、次のいずれかを実行します。

  1. ソースディレクトリへの書き込み権限を付与する OR
  2. cleanSourceを「OFF」に設定する

また、SQLConf spark.databricks.cloudFiles.cleanSource.disabledDueToAuthorizationErrors を設定して、ストリームのブロックを解除することもできます を 'true' に設定します。

CF_DUPLICATE_COLUMN_IN_DATA

SQLSTATE: 22000

テーブルのパーティションスキーマを推測しようとしたときにエラーが発生しました。 データ パスとパーティション パスに同じ列が複製されています。 パーティション値を無視するには、.option("cloudFiles.<partitionColumnsKey>", "{comma-separated-list}")

CF_EMPTY_DIR_FOR_SCHEMA_INFERENCE

SQLSTATE: 42000

入力パス <path> が空の場合、スキーマを推論できません。 入力パスにファイルがあるときにストリームを開始してみてください、またはスキーマを指定してください。

CF_EVENT_GRID_AUTH_ERROR

SQLSTATE: 22000

Event Grid サブスクリプションを作成できませんでした。 あなたのサービスを確認してください

principal には <permissionType> Event Grid サブスクリプションがあります。 詳細については、以下をご覧ください。

<docLink>

CF_EVENT_GRID_CREATION_FAILED

SQLSTATE: 22000

Event Grid サブスクリプションを作成できませんでした。 Microsoft.EventGrid が

サブスクリプションにリソース プロバイダーとして登録されています。 詳細については、以下をご覧ください。

<docLink>

CF_EVENT_GRID_NOT_FOUND_ERROR

SQLSTATE: 22000

Event Grid サブスクリプションを作成できませんでした。 ストレージを確認してください

アカウント (<storageAccount>) はリソースグループ (<resourceGroup>) の下にあり、

ストレージ アカウントは "StorageV2 (汎用 v2)" アカウントです。 詳細については、以下をご覧ください。

<docLink>

CF_EVENT_NOTIFICATION_NOT_SUPPORTED

SQLSTATE: 0A000

Auto Loader イベント通知モードは、<cloudStore> ではサポートされていません。

CF_FAILED_TO_CHECK_STREAM_NEW

SQLSTATE: 22000

ストリームが新しいかどうかを確認できませんでした

CF_FAILED_TO_CREATED_PUBSUB_SUBSCRIPTION

SQLSTATE: 22000

サブスクリプションを作成できませんでした: <subscriptionName>。 同じ名前のサブスクリプションがすでに存在し、別のトピック <otherTopicName>に関連付けられています。 目的のトピックは <proposedTopicName>です。 既存のサブスクリプションを削除するか、新しいリソース サフィックスを使用してサブスクリプションを作成します。

CF_FAILED_TO_CREATED_PUBSUB_TOPIC

SQLSTATE: 22000

トピックの作成に失敗しました: <topicName>。 同じ名前のトピックがすでに存在します。<reason> 既存のトピックを削除するか、別のリソースサフィックスを使用して再試行してください

CF_FAILED_TO_DELETE_GCP_NOTIFICATION

SQLSTATE: 22000

トピック <topicName>のバケット <bucketName> の ID が <notificationId> の通知を削除できませんでした。GCP Console から通知を再試行するか、手動で削除してください。

CF_FAILED_TO_DESERIALIZE_PERSISTED_SCHEMA

SQLSTATE: 22000

永続化されたスキーマを文字列から逆シリアル化できませんでした: '<jsonSchema>'

CF_FAILED_TO_EVOLVE_SCHEMA

SQLSTATE: 22000

スキーマログがないとスキーマを進化できません。

CF_FAILED_TO_FIND_PROVIDER

SQLSTATE: 42000

のプロバイダーが見つかりませんでした <fileFormatInput>

CF_FAILED_TO_INFER_SCHEMA

SQLSTATE: 22000

入力パス <path>の既存のファイルから形式<fileFormatInput>のスキーマを推論できませんでした。

詳細については、 CF_FAILED_TO_INFER_SCHEMA

CF_FAILED_TO_WRITE_TO_SCHEMA_LOG

SQLSTATE: 22000

<path>の場所にあるスキーマ ログへの書き込みに失敗しました。

CF_FILE_FORMAT_REQUIRED

SQLSTATE: 42000

必要なオプションが見つかりませんでした: cloudFiles.format。

CF_FOUND_MULTIPLE_AUTOLOADER_PUBSUB_SUBSCRIPTIONS

SQLSTATE: 22000

トピック <topicName> のプレフィックスが Auto Loader である複数の (<num>) サブスクリプションが見つかりました。

<subscriptionList>

サブスクリプションは、トピックごとに 1 つだけにする必要があります。 トピックに複数のサブスクリプションがないことを手動で確認してください。

CF_GCP_AUTHENTICATION

SQLSTATE: 42000

次のいずれかをご用意ください: <clientEmail><client>

<privateKey>、Databricks サービス資格情報を使用するための<serviceCredential><privateKeyId>または提供します。

または、GCP リソースでの認証にデフォルトの GCP 認証情報プロバイダチェーンを使用するために、これらのいずれも指定しません。

CF_GCP_LABELS_COUNT_EXCEEDED

SQLSTATE: 22000

GCPリソースに対して受信したラベル (<num>) が多すぎます。リソースあたりの最大ラベル数は <maxNum>です。

CF_GCP_RESOURCE_TAGS_COUNT_EXCEEDED

SQLSTATE: 22000

GCP リソースに対して受信したリソース タグ (<num>) が多すぎます。 リソース タグはリソース上の GCP ラベルとして格納され、特定のタグ Databricks このラベル クォータの一部を消費するため、リソースあたりのリソース タグの最大数は <maxNum> です。

CF_INCOMPLETE_LOG_FILE_IN_SCHEMA_LOG

SQLSTATE: 22000

パスのスキーマ・ログ内の不完全なログ・ファイル <path>

CF_INCOMPLETE_METADATA_FILE_IN_CHECKPOINT

SQLSTATE: 22000

Auto Loaderチェックポイント内の不完全なメタデータファイル

CF_INCORRECT_BATCH_USAGE

SQLSTATE: 42887

CloudFilesはストリーミングソースです。 spark.readの代わりにspark.readStreamを使用してください。 このチェックを無効にするには、 <cloudFilesFormatValidationEnabled> を false に設定します。

CF_INCORRECT_SQL_PARAMS

SQLSTATE: 42000

cloud_files メソッドは、読み込み元のパスとファイル形式の 2 つの必須文字列パラメーターを受け入れます。 ファイル リーダー オプションは、文字列のキーと値のマップで指定する必要があります。 例えば。 cloud_files("path", "JSON", map("オプション1", "値1")). 受け: <params>

CF_INCORRECT_STREAM_USAGE

SQLSTATE: 42887

ストリーミングソースとして「cloudFiles」を使用するには、オプション「cloudFiles.format」を使用してファイル形式を指定してください。 .load() を使用して DataFrame を作成します。 このチェックを無効にするには、 <cloudFilesFormatValidationEnabled> を false に設定します。

CF_INTERNAL_ERROR

SQLSTATE: 42000

内部エラー。

詳細については、 CF_INTERNAL_ERROR

CF_INVALID_ARN

SQLSTATE: 42000

無効な ARN : <arn>

CF_INVALID_AZURE_CERTIFICATE

SQLSTATE: 42000

オプション cloudFiles.certificate で指定された秘密鍵は解析できません。 PEM 形式の有効な公開キーを提供してください。

CF_INVALID_AZURE_CERT_PRIVATE_KEY

SQLSTATE: 42000

オプション cloudFiles.certificatePrivateKey で提供される秘密鍵 解析できません。 有効な秘密鍵をPEM形式で提供してください。

CF_INVALID_CHECKPOINT

SQLSTATE: 42000

このチェックポイントは有効な CloudFiles ソース ではありません

CF_INVALID_CLEAN_SOURCE_MODE

SQLSTATE: 42000

クリーン・ソース・オプション <value>のモードが無効です。

CF_INVALID_GCP_RESOURCE_TAG_KEY

SQLSTATE: 42000

GCP リソースのリソース タグ キーが無効です: <key>。 キーは小文字で始まり、1 から 63 文字以内で、小文字、数字、アンダースコア (_)、ハイフン (-) のみを含める必要があります。

CF_INVALID_GCP_RESOURCE_TAG_VALUE

SQLSTATE: 42000

GCP リソースのリソース タグ値が無効です: <value>。 値は 0 から 63 文字以内で、小文字、数字、アンダースコア (_)、ハイフン (-) のみを含める必要があります。

CF_INVALID_MANAGED_FILE_EVENTS_OPTION_KEYS

SQLSTATE: 42000

Auto Loader は、管理対象ファイル・イベントで使用する場合、以下のオプションをサポートしません。

<optionList>

これらのオプションを削除してから、ストリームを再起動することをお勧めします。

CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE

SQLSTATE: 22000

Managed File Events サービスからの応答が無効です。 詳細については、Databricks サポートにお問い合わせください。

詳細については、 CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE

CF_INVALID_SCHEMA_EVOLUTION_MODE

SQLSTATE: 42000

cloudFiles です。<schemaEvolutionModeKey> {

"<addNewColumns>"

"<failOnNewColumns>"

"<rescue>"

"<noEvolution>"}

CF_INVALID_SCHEMA_HINTS_OPTION

SQLSTATE: 42000

スキーマ ヒントでは、特定の列を 1 回だけ指定できます。

この場合、列を再定義します。 <columnName>

schemaHintsで複数回:

<schemaHints>

CF_INVALID_SCHEMA_HINT_COLUMN

SQLSTATE: 42000

スキーマ ヒントを使用して、マップと配列の入れ子になった型をオーバーライドすることはできません。

競合する列: <columnName>

CF_LATEST_OFFSET_READ_LIMIT_REQUIRED

SQLSTATE: 22000

latestOffset は、このソースで ReadLimit を指定して呼び出す必要があります。

CF_LOG_FILE_MALFORMED

SQLSTATE: 22000

ログ ファイルの形式が正しくありません: <fileName>から正しいログ バージョンを読み取れませんでした。

CF_MANAGED_FILE_EVENTS_BACKFILL_IN_PROGRESS

SQLSTATE: 22000

includeExistingFiles を false に設定することで、外部ロケーション内の既存のファイルを無視するように Auto Loader に要求しました。 ただし、Managed File Events サービスは、外部ロケーション内の既存のファイルを引き続き検出しています。 Managed File Events が外部ロケーション内のすべてのファイルの検出を完了した後で、再試行してください。

CF_MANAGED_FILE_EVENTS_ENDPOINT_NOT_FOUND

SQLSTATE: 42000

管理ファイル・イベントで Auto Loader を使用していますが、入力パス '<path>' の外部ロケーションでファイル・イベントが有効になっていないか、または入力パスが無効であるようです。 Databricks管理者に依頼して、入力パスの外部ロケーションでファイルイベントを有効にしてください。

CF_MANAGED_FILE_EVENTS_ENDPOINT_PERMISSION_DENIED

SQLSTATE: 42000

管理対象ファイル・イベントで Auto Loader を使用していますが、入力パス '<path>' の外部ロケーションまたはボリュームにアクセスできないか、または入力パスが無効です。 Databricks管理者に依頼して、外部ロケーションまたはボリュームの読み取り権限を付与するか、既存の外部ロケーションまたはボリューム内の有効な入力パスを指定してください。

CF_MANAGED_FILE_EVENTS_ONLY_ON_SERVERLESS

SQLSTATE: 56038

Managed File Events を使用したAuto Loaderは、Databricks サーバレスでのみ使用できます。続行するには、このワークロードを Databricks サーバレスに移動するか、cloudFiles.useManagedFileEvents をオフにしてください オプション。

CF_MAX_MUST_BE_POSITIVE

SQLSTATE: 42000

max は正の値でなければならない

CF_METADATA_FILE_CONCURRENTLY_USED

SQLSTATE: 22000

複数のストリーミング クエリが同時に使用されています <metadataFile>

CF_MISSING_METADATA_FILE_ERROR

SQLSTATE: 42000

ストリーミング ソース チェックポイント ディレクトリのメタデータ ファイルがありません。 このメタデータ

ファイルにはストリームの重要なデフォルト・オプションが含まれているため、ストリームを再始動できません

今すぐ。 詳細については、Databricks サポートにお問い合わせください。

CF_MISSING_PARTITION_COLUMN_ERROR

SQLSTATE: 42000

パーティション列 <columnName> が指定されたスキーマに存在しません。

<schema>

CF_MISSING_SCHEMA_IN_PATHLESS_MODE

SQLSTATE: 42000

.schema()を使用してスキーマを指定してください ファイル通知モードの使用中に CloudFiles ソースへのパスが提供されない場合。 あるいは、スキーマを推論する Auto Loader を得るには、 .load() でベースパスを指定してください。

CF_MULTIPLE_PUBSUB_NOTIFICATIONS_FOR_TOPIC

SQLSTATE: 22000

バケット<bucketName>のトピック<topicName>に関する既存の通知が見つかりました:

通知、ID

<notificationList>

意図しないイベントでサブスクライバーを汚染しないように、上記の通知を削除して再試行してください。

CF_NEW_PARTITION_ERROR

SQLSTATE: 22000

新しいパーティション列がファイルから推論されました: [<filesList>] スキーマ内のすべてのパーティション列を指定するか、値を抽出するパーティション列のリストを指定してください: .option("cloudFiles.partitionColumns", "{comma-separated-list|empty-string}")

CF_PARTITON_INFERENCE_ERROR

SQLSTATE: 22000

現在のファイルバッチのパーティションスキーマを推測しようとしたときにエラーが発生しました。 パーティション列は、.option("cloudFiles.<partitionColumnOption>", "{comma-separated-list}")

CF_PATH_DOES_NOT_EXIST_FOR_READ_FILES

SQLSTATE: 42000

入力パス <path> が存在しない場合は、ファイルを読み取ることができません。 入力パスが存在することを確認し、再試行してください。

CF_PERIODIC_BACKFILL_NOT_SUPPORTED

SQLSTATE: 0A000

非同期バックフィルが無効になっている場合、定期的なバックフィルはサポートされません。 非同期バックフィル/ディレクトリリストを有効にするには、 spark.databricks.cloudFiles.asyncDirListing を true に設定します

CF_PREFIX_MISMATCH

SQLSTATE: 22000

一致しないイベントが見つかりました: キー <key> にプレフィックスがありません。 <prefix>

CF_PROTOCOL_MISMATCH

SQLSTATE: 22000

<message>

コードに他の変更を加える必要がない場合は、SQL

設定: '<sourceProtocolVersionKey> = <value>'

をクリックしてストリームを再開します。 以下を参照してください。

<docLink>

詳細については、こちらをご覧ください。

CF_REGION_NOT_FOUND_ERROR

SQLSTATE: 42000

デフォルトの AWS リージョンを取得できませんでした。 cloudFiles.region オプションを使用してリージョンを指定してください。

CF_RESOURCE_SUFFIX_EMPTY

SQLSTATE: 42000

通知サービスを作成できませんでした: リソース サフィックスを空にすることはできません。

CF_RESOURCE_SUFFIX_INVALID_CHAR_AWS

SQLSTATE: 42000

通知サービスを作成できませんでした: リソース サフィックスには、英数字、ハイフン (-)、アンダースコア (_) のみを使用できます。

CF_RESOURCE_SUFFIX_INVALID_CHAR_AZURE

SQLSTATE: 42000

通知サービスの作成に失敗しました: リソース サフィックスには、小文字、数字、ダッシュ (-) のみを使用できます。

CF_RESOURCE_SUFFIX_INVALID_CHAR_GCP

SQLSTATE: 42000

通知サービスを作成できませんでした: リソース サフィックスには、英数字、ハイフン (-)、アンダースコア (_)、ピリオド (.)、チルダ (~) プラス記号 (+)、およびパーセント記号 (<percentSign>) のみを使用できます。

CF_RESOURCE_SUFFIX_LIMIT

SQLSTATE: 42000

通知サービスを作成できませんでした: リソース サフィックスに <limit> 文字を超えることはできません。

CF_RESOURCE_SUFFIX_LIMIT_GCP

SQLSTATE: 42000

通知サービスの作成に失敗しました: リソース サフィックスは <lowerLimit> 文字から <upperLimit> 文字の間でなければなりません。

CF_RESTRICTED_GCP_RESOURCE_TAG_KEY

SQLSTATE: 22000

制限された GCP リソース タグ キー (<key>) が見つかりました。 Auto Loader では、次の GCP リソース タグ キーが制限されています。 [<restrictedKeys>]

CF_RETENTION_GREATER_THAN_MAX_FILE_AGE

SQLSTATE: 42000

cloudFiles.cleanSource.retentionDuration cloudFiles.maxFileAge より大きくすることはできません。

CF_SAME_PUB_SUB_TOPIC_NEW_KEY_PREFIX

SQLSTATE: 22000

トピック: <topic> のプレフィックス: <prefix>の通知を作成できませんでした。 同じ名前のトピックに別のプレフィックス ( <oldPrefix>) が既に存在します。 セットアップに別のリソース サフィックスを使用するか、既存のセットアップを削除してみてください。

CF_SCHEMA_LOG_DEEP_CLONE_FAILED

SQLSTATE: 42000

ソース スキーマ ログからスキーマ ログ エントリを複製して移行できませんでした。

CF_SFTP_MISSING_PASSWORD_OR_KEY_FILE

SQLSTATE: 42000

SFTP には、パスワードまたはキー ファイルを指定する必要があります。

ソース URI または <passwordOption>でパスワードを指定するか、 <keyFileOption>でキーファイルの内容を指定してください。

CF_SFTP_NOT_ENABLED

SQLSTATE: 0A000

SFTP ファイルへのアクセスが有効になっていません。詳細については、Databricks サポートにお問い合わせください。

CF_SFTP_REQUIRE_UC_CLUSTER

SQLSTATE: 0A000

SFTP ファイルにアクセスするには、UC 対応のクラスターが必要です。 詳細については、Databricks サポートにお問い合わせください。

CF_SFTP_USERNAME_NOT_FOUND

SQLSTATE: 42000

SFTP にはユーザー名を指定する必要があります。

ユーザー名はソース uri または <option>で入力してください。

CF_SOURCE_DIRECTORY_PATH_REQUIRED

SQLSTATE: 42000

ソースディレクトリのパスをオプションで指定してください path

CF_SOURCE_UNSUPPORTED

SQLSTATE: 0A000

現在、クラウド ファイル ソース は、 S3、 Azure Blob Storage (wasb/wasbs)、 Azure データ レイク Gen1 (adl) および Gen2 (abfs/abfss) パスのみをサポートしています。 パス: '<path>', 解決された URI: '<uri>'

CF_STATE_INCORRECT_SQL_PARAMS

SQLSTATE: 42000

cloud_files_state 関数は、cloudFiles ストリームのチェックポイント ディレクトリを表す文字列 パラメーター、またはストリーミング テーブルを識別するマルチパート tableName、および状態を読み込むチェックポイント バージョンを表す省略可能な 2 番目の整数パラメーターを受け取ります。 2 番目のパラメーターは、最新のチェックポイントを読み取るために 'latest' にすることもできます。 受け: <params>

CF_STATE_INVALID_CHECKPOINT_PATH

SQLSTATE: 42000

入力チェックポイント・パス・ <path> が無効です。 パスが存在しないか、cloud_filesソースが見つかりません。

CF_STATE_INVALID_VERSION

SQLSTATE: 42000

指定したバージョン <version> が存在しないか、解析中に削除されました。

CF_THREAD_IS_DEAD

SQLSTATE: 22000

<threadName> スレッドが死んでいます。

CF_UNABLE_TO_DERIVE_STREAM_CHECKPOINT_LOCATION

SQLSTATE: 42000

ソース チェックポイントの場所からストリーム チェックポイントの場所を取得できません: <checkPointLocation>

CF_UNABLE_TO_DETECT_FILE_FORMAT

SQLSTATE: 42000

<fileSize> サンプル ファイルからソース ファイル形式を検出できません。見つかった <formats>形式を指定してください。

CF_UNABLE_TO_EXTRACT_BUCKET_INFO

SQLSTATE: 42000

バケット情報を抽出できません。 パス: '<path>'、解決されたuri: '<uri>'.

CF_UNABLE_TO_EXTRACT_KEY_INFO

SQLSTATE: 42000

重要な情報を抽出できません。 パス: '<path>'、解決されたuri: '<uri>'.

CF_UNABLE_TO_EXTRACT_STORAGE_ACCOUNT_INFO

SQLSTATE: 42000

ストレージ アカウント情報を抽出できません。パス: '<path>', 解決された URI: '<uri>'

CF_UNABLE_TO_LIST_EFFICIENTLY

SQLSTATE: 22000

パス <path>のディレクトリ名変更イベントを受け取りましたが、このディレクトリを効率的にリストできません。 ストリームを続行するには、オプション 'cloudFiles.ignoreDirRenames' を設定します を true に設定し、このデータを処理するために cloudFiles.backfillInterval を使用して定期的なバックフィルを有効にすることを検討してください。

CF_UNEXPECTED_READ_LIMIT

SQLSTATE: 22000

予期しない ReadLimit : <readLimit>

CF_UNKNOWN_OPTION_KEYS_ERROR

SQLSTATE: 42000

不明なオプションキーが見つかりました:

<optionList>

提供されているすべてのオプションキーが正しいことを確認してください。 スキップしたい場合は、

オプションを検証し、これらの不明なオプションを無視すると、次のように設定できます。

.option("cloudFiles.<validateOptions>""false")

CF_UNKNOWN_READ_LIMIT

SQLSTATE: 22000

不明な読み取り制限: <readLimit>

CF_UNSUPPORTED_CLOUD_FILES_SQL_FUNCTION

SQLSTATE: 0A000

ストリーミング ソースを作成するための 関数SQL 'cloud_files' は、DLT パイプラインでのみサポートされています。Auto Loader詳細については、以下をご覧ください。

<docLink>

CF_UNSUPPORTED_FORMAT_FOR_SCHEMA_INFERENCE

SQLSTATE: 0A000

スキーマ推論は、形式 ( <format>) ではサポートされていません。 スキーマを指定してください。

CF_UNSUPPORTED_LOG_VERSION

SQLSTATE: 0A000

UnsupportedLogVersion: サポートされる最大ログバージョンは v\<maxVersion\>ですが、 v\<version\>に遭遇しました。 ログ ファイルは新しいバージョンの DBR によって生成され、このバージョンでは読み取ることができません。 アップグレードをお願いします。

CF_UNSUPPORTED_SCHEMA_EVOLUTION_MODE

SQLSTATE: 0A000

スキーマ進化モード <mode> は、 <format>形式ではサポートされていません。 スキーマ進化モードを「なし」に設定してください。

CF_USE_DELTA_FORMAT

SQLSTATE: 42000

Delta テーブルからの読み取りは、この構文ではサポートされていません。 Delta からデータを使用する場合は、ドキュメントを参照してください: Delta テーブルの読み取り (<deltaDocLink>) または Delta テーブルをストリームソースとして読み取り (<streamDeltaDocLink>) してください。 Delta からのストリーミング ソースは、データの増分消費に対して既に最適化されています。

地理空間

EWKB_PARSE_ERROR

SQLSTATE: 22023 です。

EWKB の解析エラー: 位置で<parseError> <pos>

GEOJSON_PARSE_ERROR

SQLSTATE: 22023 です。

GeoJSON の解析エラー: 位置で<parseError> <pos>

詳細については、 GEOJSON_PARSE_ERROR

H3_INVALID_CELL_ID

SQLSTATE: 22023 です。

<h3Cell> は有効な H3 セル ID ではありません

詳細については、 H3_INVALID_CELL_ID

H3_INVALID_GRID_DISTANCE_VALUE

SQLSTATE: 22023 です。

H3 グリッド距離 <k> は負でない必要があります

詳細については、 H3_INVALID_GRID_DISTANCE_VALUE

H3_INVALID_RESOLUTION_VALUE

SQLSTATE: 22023 です。

H3 解像度 <r> は、 <minR> から <maxR>の間でなければなりません。

詳細については、 H3_INVALID_RESOLUTION_VALUE

H3_NOT_ENABLED

SQLSTATE: 0A000

<h3Expression> が無効になっているか、サポートされていません。 Photon を有効にするか、H3 式をサポートする階層に切り替えることを検討してください

詳細については、「 H3_NOT_ENABLED

H3_PENTAGON_ENCOUNTERED_ERROR

SQLSTATE: 22023 です。

グリッド距離を持つ <h3Cell> の六進法リングを計算しているときに五角形に遭遇しました <k>

H3_UNDEFINED_GRID_DISTANCE

SQLSTATE: 22023 です。

<h3Cell1><h3Cell2>の間のH3グリッド距離は未定義です

ST_DIFFERENT_SRID_VALUES

SQLSTATE: 22023 です。

"<sqlFunction>" の引数は、同じ SRID 値を持つ必要があります。 見つかった SRID 値 : <srid1>, <srid2>

ST_INVALID_ARGUMENT

SQLSTATE: 22023 です。

"<sqlFunction>": <reason>

ST_INVALID_ARGUMENT_TYPE

SQLSTATE: 22023 です。

"<sqlFunction>" の引数は、型である必要があります <validTypes>

ST_INVALID_CRS_TRANSFORMATION_ERROR

SQLSTATE: 22023 です。

<sqlFunction>: SRID <srcSrid> から SRID への CRS 変換が無効またはサポートされていない <trgSrid>

ST_INVALID_ENDIANNESS_VALUE

SQLSTATE: 22023 です。

エンディアン '<e>' は 'NDR' (リトル エンディアン) または 'XDR' (ビッグ エンディアン) のいずれかである必要があります

ST_INVALID_GEOHASH_VALUE

SQLSTATE: 22023 です。

<sqlFunction>: 無効な geohash 値: '<geohash>'。 geohash 値は、https://en.wikipedia.org/wiki/Geohash#Textual_representation で説明されているように、有効な小文字の base32 文字列である必要があります

ST_INVALID_INDEX_VALUE

SQLSTATE: 22023 です。

<sqlFunction>: 指定された地理空間値のインデックス <index> が無効です。

ST_INVALID_PRECISION_VALUE

SQLSTATE: 22023 です。

精度 <p><minP> から <maxP>の間でなければなりません。

ST_INVALID_SRID_VALUE

SQLSTATE: 22023 です。

無効またはサポートされていない SRID <srid>

ST_NOT_ENABLED

SQLSTATE: 0A000

<stExpression> が無効になっているか、サポートされていません。 Photon を有効にするか、ST 式をサポートする階層に切り替えることを検討してください

ST_UNSUPPORTED_RETURN_TYPE

SQLSTATE: 0A000

GEOGRAPHY データ型と GEOMETRY データ型は、クエリで返すことはできません。次のいずれかの SQL 式を使用して、標準の交換形式に変換します。 <projectionExprs>.

WKB_PARSE_ERROR

SQLSTATE: 22023 です。

WKB の解析エラー: 位置で<parseError> <pos>

詳細については、 WKB_PARSE_ERROR

WKT_PARSE_ERROR

SQLSTATE: 22023 です。

WKT の解析エラー: 位置で<parseError> <pos>

詳細については、「 WKT_PARSE_ERROR

Unity Catalog

CONFLICTING_COLUMN_NAMES_ERROR

SQLSTATE: 42711

<columnName> は、末尾に空白がある/しない同じ名前の別の列 (たとえば、''<columnName>という名前の既存の列) と競合しています。列の名前を別の名前に変更してください。

CONNECTION_CREDENTIALS_NOT_SUPPORTED_FOR_ONLINE_TABLE_CONNECTION

SQLSTATE: 割り当てられていない

タイプ <connectionType>の接続の接続レベルの資格情報を取得する要求が無効です。 このような資格情報は、マネージド PostgreSQL 接続でのみ使用できます。

CONNECTION_TYPE_NOT_ENABLED

SQLSTATE: 割り当てられていない

接続の種類 '<connectionType>' が有効になっていません。 ご利用いただくには接続を有効にしてください。

DELTA_SHARING_READ_ONLY_RECIPIENT_EXISTS

SQLSTATE: 割り当てられていない

同じ共有識別子 '<existingMetastoreId>' を持つ受信者オブジェクト '<existingRecipientName>' がすでに存在します。

DELTA_SHARING_READ_ONLY_SECURABLE_KIND

SQLSTATE: 割り当てられていない

Delta Sharing のセキュリティ保護可能な種類の <securableKindName> のデータは読み取り専用であり、作成、変更、削除することはできません。

EXTERNAL_ACCESS_DISABLED_ON_METASTORE

SQLSTATE: 割り当てられていない

非 Databricks コンピュート環境では、メタストア<metastoreName>の外部データアクセスが無効になっているため、資格情報の自動販売が拒否されます。 メタストア管理者に連絡して、メタストアで [外部データ アクセス] 構成を有効にしてください。

EXTERNAL_ACCESS_NOT_ALLOWED_FOR_TABLE

SQLSTATE: 割り当てられていない

ID が <tableId> のテーブルは、その種類が <securableKind> であるため Databricks コンピュート環境の外部からアクセスできません。 外部からアクセスできるのは、 'TABLE_EXTERNAL'、 'TABLE_DELTA_EXTERNAL'、 'TABLE_DELTAテーブルの種類のみです。

EXTERNAL_USE_SCHEMA_ASSIGNED_TO_INCORRECT_SECURABLE_TYPE

SQLSTATE: 割り当てられていない

USE SCHEMA``EXTERNAL権限は、このエンティティ<assignedSecurableType>には適用されず、スキーマまたはカタログにのみ割り当てることができます。<assignedSecurableType> オブジェクトから権限を削除し、代わりにスキーマまたはカタログに割り当ててください。

EXTERNAL_WRITE_NOT_ALLOWED_FOR_TABLE

SQLSTATE: 割り当てられていない

id <tableId> のテーブルは、その種類が <securableKind> であるため Databricks コンピュート環境の外部から書き込むことはできません。 外部に書き込めるのは、 'TABLE_EXTERNAL' と 'TABLE_DELTA_EXTERNAL' のテーブルの種類のみです。

FOREIGN_CATALOG_STORAGE_ROOT_MUST_SUPPORT_WRITES

SQLSTATE: 割り当てられていない

タイプ <catalogType> のフォーリンカタログの保管場所は、データのアンロードに使用され、読み取り専用にすることはできません。

HMS

SQLSTATE: 割り当てられていない

入力パス <url><resourceType>s の数が、オーバーラップする HMS <resourceType>s の許容制限 (<overlapLimit>) を超えています。

INVALID_RESOURCE_NAME_DELTA_SHARING

SQLSTATE: 割り当てられていない

Delta Sharing 要求は、リソース名を使用してサポートされていません

INVALID_RESOURCE_NAME_ENTITY_TYPE

SQLSTATE: 割り当てられていない

指定されたリソース名はエンティティ型 <provided> を参照していますが、予期されています <expected>

INVALID_RESOURCE_NAME_METASTORE_ID

SQLSTATE: 割り当てられていない

指定されたリソース名は、現在の要求のスコープ内にないメタストアを参照しています

LOCATION_OVERLAP

SQLSTATE: 割り当てられていない

入力パス URL '<path>' は '<caller>' 呼び出し内の <overlappingLocation> と重なっています。<conflictingSummary>

REDSHIFT_FOREIGN_CATALOG_STORAGE_ROOT_MUST_BE_S3

SQLSTATE: 割り当てられていない

フォーリンカタログ Redshift ストレージルートは AWS S3である必要があります。

SECURABLE_KIND_DOES_NOT_SUPPORT_LAKEHOUSE_FEDERATION

SQLSTATE: 割り当てられていない

Securable with kind <securableKind> はレイクハウスフェデレーションをサポートしていません。

SECURABLE_KIND_NOT_ENABLED

SQLSTATE: 割り当てられていない

セキュリティ保護可能な種類 '<securableKind>' が有効になっていません。 これがプレビュー機能に関連付けられているセキュリティ保護可能な種類である場合は、ワークスペース設定で有効にしてください。

SECURABLE_TYPE_DOES_NOT_SUPPORT_LAKEHOUSE_FEDERATION

SQLSTATE: 割り当てられていない

タイプ <securableType> のセキュリティ保護可能は、レイクハウスフェデレーションをサポートしていません。

ソース

SQLSTATE: 割り当てられていない

ソース テーブルに <columnCount> を超える列があります。 列の数を <columnLimitation> 列以下にしてください。

トークン

SQLSTATE: 割り当てられていない

交換された AAD トークンの有効期間が <lifetime> されており、構成が短すぎます。 Azure AD 設定を確認して、一時アクセス トークンの有効期間が少なくとも 1 時間であることを確認してください。https://learn.microsoft.com/azure/active-directory/develop/active-directory-configurable-トークン-ライフタイム

UC_ABAC_EVALUATION_ERROR

SQLSTATE: 割り当てられていない

<resource>での ABAC ポリシーの評価中にエラーが発生しました。

UC_AUTHZ_ACTION_NOT_SUPPORTED

SQLSTATE: 割り当てられていない

<actionName>の承認はサポートされていません。呼び出されたRPCがこのリソースタイプに実装されていることを確認してください

HMS

SQLSTATE: 割り当てられていない

組み込み Hive metastore の接続を作成できません。これは、ユーザー: <userId>ワークスペースの管理者ではないためです。 <workspaceId>

HMS

SQLSTATE: 割り当てられていない

組み込み HMS 接続 '<connectionName>' の制限付きフィールドを変更しようとしました。 「ウェアハウス」のみ更新できます。

UC_CANNOT_RENAME_PARTITION_FILTERING_COLUMN

SQLSTATE: 割り当てられていない

テーブル列 <originalLogicalColumn> の名前を変更できませんでした。これは、 <sharedTableName>のパーティション フィルタリングに使用されているためです。 続行するには、共有からテーブルを削除し、列の名前を変更して、目的のパーティション フィルタリング列と再度共有できます。 ただし、これにより、受信者のストリーミングクエリが壊れる可能性があります。

UC_CHILD_CREATION_FORBIDDEN_FOR_NON_UC_CLUSTER

SQLSTATE: 割り当てられていない

要求が UC クラスターからのものではないため<parentSecurableType> '<parentSecurable>' の下に <securableType>'<securable>' を作成できません。

UC_CLOUD_STORAGE_ACCESS_FAILURE

SQLSTATE: 割り当てられていない

クラウドストレージにアクセスできませんでした: <errMsg> exceptionTraceId=<exceptionTraceId>

UC_CONFLICTING_CONNECTION_OPTIONS

SQLSTATE: 割り当てられていない

ユーザー名/パスワードと oauth 認証オプションの両方を使用して接続を作成することはできません。 いずれかお選びください。

UC_CONNECTION_EXISTS_FOR_CREDENTIAL

SQLSTATE: 割り当てられていない

資格情報 '<credentialName>' には 1 つ以上の依存接続があります。 force オプションを使用して資格情報の更新または削除を続行できますが、この資格情報を使用する接続が機能しなくなる可能性があります。

UC_CONNECTION_EXPIRED_ACCESS_TOKEN

SQLSTATE: 割り当てられていない

接続に関連付けられているアクセス トークンの有効期限が切れています。 接続を更新して OAuth フローを再起動し、トークンを取得してください。

UC_CONNECTION_EXPIRED_REFRESH_TOKEN

SQLSTATE: 割り当てられていない

接続に関連付けられている更新トークンの有効期限が切れています。 接続を更新して OAuth フローを再起動し、新しいトークンを取得してください。

UC_CONNECTION_IN_FAILED_STATE

SQLSTATE: 割り当てられていない

接続は FAILED 状態です。 有効な資格情報で接続を更新して、再度アクティブ化してください。

UC_CONNECTION_MISSING_REFRESH_TOKEN

SQLSTATE: 割り当てられていない

接続に関連付けられた更新トークンはありません。 ID プロバイダーの OAuth クライアント統合を更新して更新トークンを返し、接続を更新または再作成して OAuth フローを再開し、必要なトークンを取得してください。

UC_CONNECTION_OAUTH_EXCHANGE_FAILED

SQLSTATE: 割り当てられていない

OAuth トークンの交換が HTTP ステータス コード . <httpStatus>で失敗しました。 返されるサーバー応答または例外メッセージは次のとおりです。 <response>

UC_COORDINATED_COMMITS_NOT_ENABLED

SQLSTATE: 割り当てられていない

調整されたコミットのサポートは有効になっていません。 Databricks サポートにお問い合わせください。

UC_CREATE_FORBIDDEN_UNDER_INACTIVE_SECURABLE

SQLSTATE: 割り当てられていない

<securableName>」はアクティブでない<parentSecurableType><parentSecurableName>」の下にあるため、<securableType>作成できません。親のセキュリティ保護可能なものを削除して、親を再作成してください。

UC_CREDENTIAL_ACCESS_CONNECTOR_PARSING_FAILED

SQLSTATE: 割り当てられていない

指定されたアクセス コネクタ ID の解析に失敗しました: <accessConnectorId>。 フォーマットを確認してから、もう一度やり直してください。

UC_CREDENTIAL_FAILED_TO_OBTAIN_VALIDATION_TOKEN

SQLSTATE: 割り当てられていない

アクセス コネクタでクラウドのアクセス許可の検証を実行するための AAD トークンを取得できませんでした。 アクションを再試行してください。

UC_CREDENTIAL_INVALID_CLOUD_PERMISSIONS

SQLSTATE: 割り当てられていない

資格情報を登録するには、ID が <accessConnectorId>の対応するアクセス コネクタに対する共同作成者ロールが必要です。 アカウント管理者にお問い合わせください。

UC_CREDENTIAL_INVALID_CREDENTIAL_TYPE_FOR_PURPOSE

SQLSTATE: 割り当てられていない

資格情報の種類 '<credentialType>' は、目的 '<credentialPurpose>' ではサポートされていません

UC_CREDENTIAL_PERMISSION_DENIED

SQLSTATE: 割り当てられていない

タイプが <storageCredentialType>の認証情報を作成または更新できるのは、アカウント管理者だけです。

UC_CREDENTIAL_TRUST_POLICY_IS_OPEN

SQLSTATE: 割り当てられていない

IAMロールの trust ポリシーを使用して、Databricks アカウントがロールを引き受けるには、外部 ID が必要です。アカウント管理者に連絡して、外部 ID 条件を追加してください。 この動作は、混乱した副問題 https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html) を防ぐためのものです。

UC_CREDENTIAL_UNPRIVILEGED_SERVICE_PRINCIPAL_NOT_SUPPORTED

SQLSTATE: 割り当てられていない

サービスプリンシパルは、 CREATE_STORAGE_CREDENTIAL 特権を使用して登録する マネージド ID を使用することはできません。 マネージド ID を登録するには、サービスプリンシパルにアカウント admin ロールを割り当ててください。

UC_CREDENTIAL_WORKSPACE_API_PROHIBITED

SQLSTATE: 割り当てられていない

アカウント管理者以外としての認証情報の作成または更新は、アカウントレベルの API ではサポートされていません。 代わりに、ワークスペース レベルの API を使用してください。

UC_DELTA_UNIVERSAL_FORMAT_CANNOT_PARSE_ICEBERG_VERSION

SQLSTATE: 割り当てられていない

メタデータの場所 <metadataLocation>から Iceberg テーブル バージョンを解析できません。

UC_DELTA_UNIVERSAL_FORMAT_CONCURRENT_WRITE

SQLSTATE: 割り当てられていない

同じ iceberg メタデータ バージョンへの並列更新が検出されました。

UC_DELTA_UNIVERSAL_FORMAT_INVALID_METADATA_LOCATION

SQLSTATE: 割り当てられていない

コミットされたメタデータの場所 <metadataLocation> が無効です。 これは、テーブルのルート・ディレクトリ <tableRoot>のサブディレクトリではありません。

UC_DELTA_UNIVERSAL_FORMAT_MISSING_FIELD_CONSTRAINT

SQLSTATE: 割り当てられていない

指定されたデルタ アイスバーグ形式の変換情報に必須フィールドがありません。

UC_DELTA_UNIVERSAL_FORMAT_NON_CREATE_CONSTRAINT

SQLSTATE: 割り当てられていない

作成時のデルタ アイスバーグ形式情報の設定はサポートされていません。

UC_DELTA_UNIVERSAL_FORMAT_TOO_LARGE_CONSTRAINT

SQLSTATE: 割り当てられていない

指定されたデルタ アイスバーグ形式の変換情報が大きすぎます。

UC_DELTA_UNIVERSAL_FORMAT_UPDATE_INVALID

SQLSTATE: 割り当てられていない

均一メタデータは、均一が有効になっている Delta テーブルでのみ更新できます。

UC_DEPENDENCY_DEPTH_LIMIT_EXCEEDED

SQLSTATE: 割り当てられていない

<resourceType><ref>」の深さが制限を超えている(または循環参照がある)。

UC_DEPENDENCY_DOES_NOT_EXIST

SQLSTATE: 割り当てられていない

<resourceType> '<ref>' は、基になるリソースの 1 つが存在しないため無効です。 <cause>

UC_DEPENDENCY_PERMISSION_DENIED

SQLSTATE: 割り当てられていない

<resourceType> '<ref>' は、基になるリソースの 1 つの所有者が承認チェックに失敗したため、実行するための十分な権限を持っていません。 <cause>

UC_DUPLICATE_CONNECTION

SQLSTATE: 割り当てられていない

同じURLを持つ「<connectionName>」という接続がすでに存在します。 重複を作成する代わりに、その接続を使用する許可を所有者に依頼してください。

UC_DUPLICATE_FABRIC_CATALOG_CREATION

SQLSTATE: 割り当てられていない

既存のカタログと一致する URL 「<storageLocation>」の Fabric カタログを作成しようとしましたが、これは許可されていません。

UC_DUPLICATE_TAG_ASSIGNMENT_CREATION

SQLSTATE: 割り当てられていない

タグキー <tagKey> によるタグの割り当てがすでに存在します

UC_ENTITY_DOES_NOT_HAVE_CORRESPONDING_ONLINE_CLUSTER

SQLSTATE: 割り当てられていない

エンティティ <securableType> <entityId> には、対応するオンラインクラスターがありません。

UC_EXCEEDS_MAX_FILE_LIMIT

SQLSTATE: 割り当てられていない

<maxFileResults>以上のファイルがあります。返されるファイルの数を制限するには、[max_results]を指定してください。

UC_EXTERNAL_LOCATION_OP_NOT_ALLOWED

SQLSTATE: 割り当てられていない

<opName> <extLoc> <reason>できません。<suggestion>

UC_FEATURE_DISABLED

SQLSTATE: 割り当てられていない

<featureName> は現在 UC で無効になっています。

UC_FOREIGN_CATALOG_FOR_CONNECTION_TYPE_NOT_SUPPORTED

SQLSTATE: 割り当てられていない

接続タイプ '<connectionType>' のフォーリンカタログの作成はサポートされていません。 この接続タイプは、管理されたインジェストパイプラインを作成するためにのみ使用できます。 詳細については Databricksドキュメントを参照してください。

UC_FOREIGN_CREDENTIAL_CHECK_ONLY_FOR_READ_OPERATIONS

SQLSTATE: 割り当てられていない

フォーリンテーブルの READ 資格情報のみを取得できます。

UC_FOREIGN_KEY_CHILD_COLUMN_LENGTH_MISMATCH

SQLSTATE: 割り当てられていない

外部キー <constraintName> 子列と親列のサイズが異なります。

UC_FOREIGN_KEY_COLUMN_MISMATCH

SQLSTATE: 割り当てられていない

外部キーの親カラムが、参照されているプライマリ・キーの子カラムと一致しません。 外部キーの親列は (<parentColumns>) で、主キーの子列は (<primaryKeyChildColumns>です。

UC_FOREIGN_KEY_COLUMN_TYPE_MISMATCH

SQLSTATE: 割り当てられていない

外部キーの子列タイプが親列タイプと一致しません。 外部キーの子列 <childColumnName> のタイプは <childColumnType> で、親列 <parentColumnName> のタイプは <parentColumnType>です。

UC_GCP_INVALID_PRIVATE_KEY

SQLSTATE: 割り当てられていない

アクセスが拒否されました。 原因: サービス アカウントの秘密キーが無効です。

UC_GCP_INVALID_PRIVATE_KEY_JSON_FORMAT

SQLSTATE: 割り当てられていない

Google Server アカウント OAuth Private Key は、必須フィールドを持つ有効な JSON オブジェクトである必要があります。サービス アカウントの詳細ページの「KEYS」セクションから生成された完全な JSON ファイルを提供してください。

UC_GCP_INVALID_PRIVATE_KEY_JSON_FORMAT_MISSING_FIELDS

SQLSTATE: 割り当てられていない

Google Server アカウント OAuth Private Key は、必須フィールドを持つ有効な JSON オブジェクトである必要があります。サービス アカウントの詳細ページの「KEYS」セクションから生成された完全な JSON ファイルを提供してください。 欠落しているフィールドは次のとおりです <missingFields>

UC_IAM_ROLE_NON_SELF_ASSUMING

SQLSTATE: 割り当てられていない

このストレージ認証情報の IAMロールは、自己仮定ではないことが判明しました。 ロールの信頼と IAM ポリシーを確認して、 IAMロールが Unity Catalog ストレージ資格情報のドキュメントに従って引き受けることができることを確認してください。

UC_ICEBERG_COMMIT_CONFLICT

SQLSTATE: 割り当てられていない

<tableName>をコミットできません : メタデータの場所<baseMetadataLocation> <catalogMetadataLocation>から変更されました。

UC_ICEBERG_COMMIT_INVALID_TABLE

SQLSTATE: 割り当てられていない

非 Managed Iceberg テーブルに対して Managed Iceberg コミットを実行できません: <tableName>.

UC_ICEBERG_COMMIT_MISSING_FIELD_CONSTRAINT

SQLSTATE: 割り当てられていない

指定された Managed Iceberg コミット情報に必須フィールドがありません。

UC_ID_MISMATCH

SQLSTATE: 割り当てられていない

<type> <name> に ID がありません <wrongId>。操作をやり直してください。

UC_INVALID_ACCESS_DBFS_ENTITY

SQLSTATE: 割り当てられていない

フェデレーション カタログ <catalogName><securableType> <securableName> のアクセスが無効です。 <reason>

UC_INVALID_CLOUDFLARE_ACCOUNT_ID

SQLSTATE: 割り当てられていない

Cloudflare アカウント ID が無効です。

UC_INVALID_CREDENTIAL_CLOUD

SQLSTATE: 割り当てられていない

無効な資格情報クラウド プロバイダー '<cloud>'。 許可されたクラウド プロバイダー '<allowedCloud>'。

UC_INVALID_CREDENTIAL_PURPOSE_VALUE

SQLSTATE: 割り当てられていない

資格情報の「目的」に対して値「<value>」が無効です。 使用できる値 '<allowedValues>'.

UC_INVALID_CREDENTIAL_TRANSITION

SQLSTATE: 割り当てられていない

接続を <startingCredentialType> から <endingCredentialType>に更新できません。 有効な移行は、ユーザー名/パスワードベースの接続から OAuth トークンベースの接続への唯一の移行です。

UC_INVALID_CRON_STRING_FABRIC

SQLSTATE: 割り当てられていない

cron 文字列が無効です。 見つかった: '<cronString>' 解析例外: '<message>'

UC_INVALID_DIRECT_ACCESS_MANAGED_TABLE

SQLSTATE: 割り当てられていない

Invalid direct access マネージドテーブル <tableName>. ソーステーブルとパイプライン定義が定義されていないことを確認します。

UC_INVALID_EMPTY_STORAGE_LOCATION

SQLSTATE: 割り当てられていない

カタログ '<catalogName>' の <securableType> '<securableName>' の予期しない空の格納場所。このエラーを修正するには、 DESCRIBE SCHEMA <catalogName>を実行してください。このページ<securableName> して更新します。

UC_INVALID_OPTIONS_UPDATE

SQLSTATE: 割り当てられていない

更新に無効なオプションが指定されました。 無効なオプション: <invalidOptions>. 使用できるオプション: <allowedOptions>.

UC_INVALID_OPTION_VALUE

SQLSTATE: 割り当てられていない

'<option>' の値 '<value>' が無効です。使用できる値 '<allowedValues>'.

UC_INVALID_OPTION_VALUE_EMPTY

SQLSTATE: 割り当てられていない

<option>」を空にすることはできません。 空でない値を入力してください。

UC_INVALID_R2_ACCESS_KEY_ID

SQLSTATE: 割り当てられていない

R2 アクセス キー ID が無効です。

UC_INVALID_R2_SECRET_ACCESS_KEY

SQLSTATE: 割り当てられていない

R2シークレットアクセスキーが無効です。

UC_INVALID_RULE_CONDITION

SQLSTATE: 割り当てられていない

ルール '<ruleName>' の無効な条件です。 コンパイル エラーでメッセージ '<message>' が表示されます。

UC_INVALID_UPDATE_ON_SYSTEM_WORKSPACE_ADMIN_GROUP_OWNED_SECURABLE

SQLSTATE: 割り当てられていない

<securableName>」は内部グループによって所有されているため<securableType>更新できません。詳細については、Databricks サポートにお問い合わせください。

UC_INVALID_WASBS_EXTERNAL_LOCATION_STORAGE_CREDENTIAL

SQLSTATE: 割り当てられていない

Storage Credential <storageCredentialName> が DBFSルートに関連付けられていない場合、wasbs 外部ロケーションの作成は禁止されます。

UC_LOCATION_INVALID_SCHEME

SQLSTATE: 割り当てられていない

ストレージの場所の URI スキームが無効です : <scheme>

UC_MALFORMED_OAUTH_SERVER_RESPONSE

SQLSTATE: 割り当てられていない

トークン・サーバーからの応答に、フィールド <missingField>がありませんでした。 返されるサーバーの応答は次のとおりです。 <response>

UC_METASTORE_ASSIGNMENT_STATUS_INVALID

SQLSTATE: 割り当てられていない

<metastoreAssignmentStatus>」を割り当てることはできません。 MANUALLY_ASSIGNABLEAUTO_ASSIGNMENT_ENABLED のみがサポートされています。

UC_METASTORE_CERTIFICATION_NOT_ENABLED

SQLSTATE: 割り当てられていない

メタストア認定が有効になっていません。

UC_METASTORE_DB_SHARD_MAPPING_NOT_FOUND

SQLSTATE: 割り当てられていない

内部エラーのため、メタストア ID <metastoreId> のメタストアからデータベース シャードへのマッピングを取得できませんでした。 Databricks サポートにお問い合わせください。

UC_METASTORE_HAS_ACTIVE_MANAGED_ONLINE_CATALOGS

SQLSTATE: 割り当てられていない

メタストア <metastoreId> には、 <numberManagedOnlineCatalogs> 管理されたオンライン カタログがあります。 それらを明示的に削除してから、メタストアの削除を再試行してください。

UC_METASTORE_STORAGE_ROOT_CREDENTIAL_UPDATE_INVALID

SQLSTATE: 割り当てられていない

メタストアのルート資格情報は、メタストアのルートの場所を更新するときに定義できません。 資格情報は、メタストアの親外部ロケーションからフェッチされます。

UC_METASTORE_STORAGE_ROOT_DELETION_INVALID

SQLSTATE: 割り当てられていない

メタストア ストレージのルートの場所の削除に失敗しました。 <reason>

UC_METASTORE_STORAGE_ROOT_READ_ONLY_INVALID

SQLSTATE: 割り当てられていない

メタストアのルート <securableType> は読み取り専用にできません。

UC_METASTORE_STORAGE_ROOT_UPDATE_INVALID

SQLSTATE: 割り当てられていない

メタストア ストレージ ルートは、一度設定すると更新できません。

UC_MODEL_INVALID_STATE

SQLSTATE: 割り当てられていない

ステータスが <modelVersionStatus>のモデルバージョン<modelVersion>の一時的な「<opName>」資格情報を生成できません。'<opName>' 資格情報は、ステータスが <validStatus>

UC_NO_ORG_ID_IN_CONTEXT

SQLSTATE: 割り当てられていない

組織 ID (またはワークスペース ID) にアクセスしようとしましたが、コンテキストにはありません。

UC_ONLINE_CATALOG_NOT_MUTABLE

SQLSTATE: 割り当てられていない

<rpcName> 要求が <fieldName>に更新されます。オンラインストア コンピュート タブを使用して、オンライン カタログの comment、owner、isolationMode 以外のものを変更します。

UC_ONLINE_CATALOG_QUOTA_EXCEEDED

SQLSTATE: 割り当てられていない

メタストアに <quota> 個を超えるオンラインストアを作成できず、すでに <currentCount>があります。 既存のオンラインストアにアクセスできない場合があります。 メタストア管理者に連絡して、アクセス権を付与するか、詳細な手順を確認してください。

UC_ONLINE_INDEX_CATALOG_INVALID_CRUD

SQLSTATE: 割り当てられていない

オンラインインデックスカタログは、/vector-search APIを使用して <action> する必要があります。

UC_ONLINE_INDEX_CATALOG_NOT_MUTABLE

SQLSTATE: 割り当てられていない

<rpcName> 要求が <fieldName>に更新されます。/vector-search API を使用して、オンラインインデックスカタログの comment、owner、isolationMode 以外のものを変更します。

UC_ONLINE_INDEX_CATALOG_QUOTA_EXCEEDED

SQLSTATE: 割り当てられていない

メタストアに <quota> 個を超えるオンライン インデックス カタログを作成できず、既に <currentCount>. 既存のオンライン索引カタログにアクセスできない場合があります。 メタストア管理者に連絡して、アクセス権を付与するか、詳細な手順を確認してください。

UC_ONLINE_INDEX_INVALID_CRUD

SQLSTATE: 割り当てられていない

オンラインインデックスは、/vector-search APIを介して <action> する必要があります。

UC_ONLINE_STORE_INVALID_CRUD

SQLSTATE: 割り当てられていない

オンラインストアは、オンラインストア コンピュート タブで <action> する必要があります。

UC_ONLINE_TABLE_COLUMN_NAME_TOO_LONG

SQLSTATE: 割り当てられていない

ソース テーブルの列名 <columnName> が長すぎます。 最大長は <maxLength> 文字です。

UC_ONLINE_TABLE_PRIMARY_KEY_COLUMN_NOT_IN_SOURCE_TABLE_PRIMARY_KEY_CONSTRAINT

SQLSTATE: 割り当てられていない

カラム <columnName> は、ソーステーブルの既存の PRIMARY KEY 制約の一部ではないため、オンラインテーブルのプライマリキーカラムとして使用できません。 詳しくは、 <docLink>

UC_ONLINE_TABLE_TIMESERIES_KEY_NOT_IN_SOURCE_TABLE_PRIMARY_KEY_CONSTRAINT

SQLSTATE: 割り当てられていない

<columnName> は、ソース テーブルの既存の PRIMARY KEY 制約の時系列列ではないため、オンライン テーブルの時系列キーとして使用することはできません。 詳しくは、 <docLink>

UC_ONLINE_VIEWS_PER_SOURCE_TABLE_QUOTA_EXCEEDED

SQLSTATE: 割り当てられていない

ソーステーブルごとに <quota> 個を超えるオンラインテーブルを作成することはできません。

UC_ONLINE_VIEW_ACCESS_DENIED

SQLSTATE: 割り当てられていない

リソース <resourceName>にアクセスするには、サーバレス SQLウェアハウスを使用する必要があります。 UI でクエリを実行したり、データベース カタログを表示したりするために使用しているウェアハウスがサーバレスであることを確認してください。 詳しくは、 <docLink>

UC_ONLINE_VIEW_CONTINUOUS_QUOTA_EXCEEDED

SQLSTATE: 割り当てられていない

オンラインストアで <quota> つ以上の連続したオンラインビューを作成することはできず、すでに <currentCount>があります。 既存のオンラインビューにアクセスできない場合があります。 オンラインストアの管理者に連絡して、アクセス権を付与してもらうか、詳細な手順を確認してください。

UC_ONLINE_VIEW_DOES_NOT_SUPPORT_DMK

SQLSTATE: 割り当てられていない

<tableKind> Databricksマネージド キーを使用してストレージの場所の下に作成することはできません。マネージド キーの暗号化がないストレージの場所で別のスキーマ/カタログを選択してください Databricks。

UC_ONLINE_VIEW_INVALID_CATALOG

SQLSTATE: 割り当てられていない

カタログ <catalogName> が無効で、種類 <catalogKind> 内に <tableKind> を作成することができません。 <tableKind> は、 <validCatalogKinds>のカタログでのみ作成できます。

UC_ONLINE_VIEW_INVALID_SCHEMA

SQLSTATE: 割り当てられていない

無効なスキーマ <schemaName> で、種類 <schemaKind> 内に <tableKind> を作成する必要があります。 <tableKind> は、 <validSchemaKinds>のスキーマでのみ作成できます。

UC_ONLINE_VIEW_INVALID_TTL_TIME_COLUMN_TYPE

SQLSTATE: 割り当てられていない

タイプ <columnType> の列 <columnName> は、TTL 時間列として使用できません。使用できる型は <supportedTypes>です。

UC_OUT_OF_AUTHORIZED_PATHS_SCOPE

SQLSTATE: 割り当てられていない

許可されたパス エラー。 <securableType>ロケーション<location>がカタログの許可パス内に定義されていません: : <catalogName>.カタログの所有者に依頼して、カタログで定義されている認証済みパスのリストにパスを追加してください。

UC_OVERLAPPED_AUTHORIZED_PATHS

SQLSTATE: 割り当てられていない

'authorized_paths' オプションには、重複するパスが含まれています: <overlappingPaths>. 各パスが一意であり、リスト内の他のパスと交差していないことを確認します。

UC_PAGINATION_AND_QUERY_ARGS_MISMATCH

SQLSTATE: 割り当てられていない

クエリ引数 '<arg>' は '<received>' に設定され、これは最初のページ区切り呼び出し ('<expected>') で使用される値とは異なります

UC_PATH_TOO_LONG

SQLSTATE: 割り当てられていない

入力パスが長すぎます。 許容される長さ: <maxLength>。 入力長: <inputLength>。 入力: <path>...

UC_PER_METASTORE_DATABASE_CONCURRENCY_LIMIT_EXCEEDED

SQLSTATE: 割り当てられていない

メタストア <metastoreId>からデータベースへの要求が多すぎます。 しばらくしてからもう一度お試しください。

UC_PRIMARY_KEY_ON_NULLABLE_COLUMN

SQLSTATE: 割り当てられていない

プライマリ・キー・ <constraintName> は、子カラム <childColumnNames> が null 許容であるため、作成できません。 列の NULL 値の許容を変更して、再試行してください。

UC_REQUEST_TIMEOUT

SQLSTATE: 割り当てられていない

この操作には時間がかかりすぎました。

UC_ROOT_STORAGE_S3_BUCKET_NAME_CONTAINS_DOT

SQLSTATE: 割り当てられていない

ドットを含むルート ストレージ S3 バケット名は、Unity Catalog でサポートされていません。 <uri>

UC_SCHEMA_EMPTY_STORAGE_LOCATION

SQLSTATE: 割り当てられていない

カタログ '<catalogName>' のスキーマ '<schemaName>' の予期しない空の格納場所。スキーマが <validPathSchemesListStr>のパススキームを使用していることを確認してください。

サービス

SQLSTATE: 割り当てられていない

リクエストの処理中に一時的な問題が発生しています。 しばらくしてからもう一度お試しください。 問題が解決しない場合は、サポートにお問い合わせください。

UC_STORAGE_CREDENTIAL_ACCESS_CONNECTOR_PARSING_FAILED

SQLSTATE: 割り当てられていない

指定されたアクセス コネクタ ID の解析に失敗しました: <accessConnectorId>。 フォーマットを確認してから、もう一度やり直してください。

UC_STORAGE_CREDENTIAL_DBFS_ROOT_CREATION_PERMISSION_DENIED

SQLSTATE: 割り当てられていない

ユーザー <userId> がワークスペースの管理者ではないため DBFSルート のストレージ資格情報を作成できません。 <workspaceId>

UC_STORAGE_CREDENTIAL_DBFS_ROOT_INVALID_LOCATION

SQLSTATE: 割り当てられていない

ロケーション <location> が DBFSルート内にない <dbfsRootLocation>

UC_STORAGE_CREDENTIAL_DBFS_ROOT_PRIVATE_DBFS_ENABLED

SQLSTATE: 割り当てられていない

DBFSルート ストレージ資格情報は、ファイアウォールが有効なワークスペースではまだサポートされていません DBFS

UC_STORAGE_CREDENTIAL_DBFS_ROOT_PRIVATE_NOT_SUPPORTED

SQLSTATE: 割り当てられていない

現在のワークスペースの DBFSルート ストレージ資格情報はまだサポートされていません

UC_STORAGE_CREDENTIAL_DBFS_ROOT_WORKSPACE_DISABLED

SQLSTATE: 割り当てられていない

DBFSルート がワークスペースで有効になっていない <workspaceId>

UC_STORAGE_CREDENTIAL_FAILED_TO_OBTAIN_VALIDATION_TOKEN

SQLSTATE: 割り当てられていない

アクセス コネクタでクラウドのアクセス許可の検証を実行するための AAD トークンを取得できませんでした。 アクションを再試行してください。

UC_STORAGE_CREDENTIAL_INVALID_CLOUD_PERMISSIONS

SQLSTATE: 割り当てられていない

ストレージ資格情報を登録するには、ID が <accessConnectorId>の対応するアクセス コネクタに対する共同作成者ロールが必要です。 アカウント管理者にお問い合わせください。

UC_STORAGE_CREDENTIAL_PERMISSION_DENIED

SQLSTATE: 割り当てられていない

タイプが <storageCredentialType>のストレージ認証情報を作成または更新できるのは、アカウント管理者のみです。

UC_STORAGE_CREDENTIAL_SERVICE_PRINCIPAL_MISSING_VALIDATION_TOKEN

SQLSTATE: 割り当てられていない

サービスプリンシパルの検証トークンがありません。 有効な ARM スコープの Entra ID トークンを 'X-Databricks-Azure-SP-Management-token' 要求ヘッダーに指定し、再試行してください。 詳しくはhttps://docs.databricks.com/api/workspace/storagecredentials

UC_STORAGE_CREDENTIAL_TRUST_POLICY_IS_OPEN

SQLSTATE: 割り当てられていない

IAMロールの trust ポリシーを使用して、Databricks アカウントがロールを引き受けるには、外部 ID が必要です。アカウント管理者に連絡して、外部 ID 条件を追加してください。 この動作は、混乱した副問題 https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html) を防ぐためのものです。

UC_STORAGE_CREDENTIAL_UNPRIVILEGED_SERVICE_PRINCIPAL_NOT_SUPPORTED

SQLSTATE: 割り当てられていない

サービスプリンシパルは、 CREATE_STORAGE_CREDENTIAL 特権を使用して登録する マネージド ID を使用することはできません。 マネージド ID を登録するには、サービスプリンシパルにアカウント admin ロールを割り当ててください。

UC_STORAGE_CREDENTIAL_WASBS_NOT_DBFS_ROOT

SQLSTATE: 割り当てられていない

場所<location>が DBFSルート内にないため、ストレージ資格情報を作成できません <storageCredentialName>

UC_STORAGE_CREDENTIAL_WORKSPACE_API_PROHIBITED

SQLSTATE: 割り当てられていない

アカウント管理者以外としてのストレージ認証情報の作成または更新は、アカウントレベルの API ではサポートされていません。 代わりに、ワークスペース レベルの API を使用してください。

UC_SYSTEM_WORKSPACE_GROUP_PERMISSION_UNSUPPORTED

SQLSTATE: 割り当てられていない

<securableType>に対する権限をシステム生成グループ <principal>に付与できません。

UC_TAG_ASSIGNMENT_WITH_KEY_DOES_NOT_EXIST

SQLSTATE: 割り当てられていない

タグキー <tagKey> によるタグの割り当てが存在しません

UC_UNSUPPORTED_HTTP_CONNECTION_BASE_PATH

SQLSTATE: 割り当てられていない

無効なベース パスが指定されました。ベース パスは /api/リソース/v1 のようになります。 サポートされていないパス: <path>

UC_UNSUPPORTED_HTTP_CONNECTION_HOST

SQLSTATE: 割り当てられていない

無効なホスト名が指定されました。ホスト名は、パス サフィックスのないhttps://www.databricks.com のようなものである必要があります。 サポートされていないホスト: <host>

UC_UNSUPPORTED_LATIN_CHARACTER_IN_PATH

SQLSTATE: 割り当てられていない

基本的な Latin/Latin-1 ASCII 文字のみが外部ロケーション/ボリューム/テーブルパスでサポートされています。 サポートされていないパス: <path>

UC_UPDATE_FORBIDDEN_FOR_PROVISIONING_SECURABLE

SQLSTATE: 割り当てられていない

<securableType> '<securableName>' はプロビジョニング中であるため、更新できません。

UC_WRITE_CONFLICT

SQLSTATE: 割り当てられていない

<type> <name>は別の要求によって変更されました。操作をやり直してください。

UNITY_CATALOG_EXTERNAL_COORDINATED_COMMITS_REQUEST_DENIED

SQLSTATE: 割り当てられていない

セキュリティ上、有効なコンピュート環境以外からテーブル '<tableId>' に対するコミット/getCommits のリクエスト Databricks Unity Catalog 拒否されます。 Unity Catalog との統合については、Databricks サポートにお問い合わせください。

UNITY_CATALOG_EXTERNAL_CREATE_STAGING_TABLE_REQUEST_DENIED

SQLSTATE: 割り当てられていない

セキュリティのため、有効なコンピュート環境外からのステージングテーブル '<tableFullName>' の作成要求 Databricks Unity Catalog 拒否されました。 Unity Catalog との統合については、Databricks サポートにお問い合わせください。

UNITY_CATALOG_EXTERNAL_CREATE_TABLE_REQUEST_FOR_NON_EXTERNAL_TABLE_DENIED

SQLSTATE: 割り当てられていない

セキュリティ上の理由から、 Databricks Unity Catalog 有効なコンピュート環境の外部から非外部テーブル '<tableFullName>' を作成するリクエストは拒否されます。 Unity Catalog との統合については、Databricks サポートにお問い合わせください。

UNITY_CATALOG_EXTERNAL_GENERATE_PATH_CREDENTIALS_DENIED

SQLSTATE: 割り当てられていない

セキュリティ上の理由から、有効なコンピュート環境の外部からパス '<path>' のアクセス資格情報を生成する要求 Databricks Unity Catalog 拒否されました。 Unity Catalog との統合については、Databricks サポートにお問い合わせください。

UNITY_CATALOG_EXTERNAL_GENERATE_TABLE_CREDENTIALS_DENIED

SQLSTATE: 割り当てられていない

セキュリティのため、有効なコンピュート環境の外部からテーブル '<tableId>' のアクセス資格情報を生成する要求 Databricks Unity Catalog 拒否されました。 Unity Catalog との統合については、Databricks サポートにお問い合わせください。

UNITY_CATALOG_EXTERNAL_GET_FOREIGN_CREDENTIALS_DENIED

SQLSTATE: 割り当てられていない

セキュリティ保護が有効なコンピュート環境の外部からセキュリティ保護可能なリソースの外部資格情報を取得する要求は Databricks Unity Catalog セキュリティ上の理由から拒否されます。

UNITY_CATALOG_EXTERNAL_UPDATA_METADATA_SNAPSHOT_DENIED

SQLSTATE: 割り当てられていない

セキュリティ上の理由から、有効なコンピュート環境の外部からのメタデータスナップショットの更新要求 Databricks Unity Catalog 拒否されます。

WRITE_CREDENTIALS_NOT_SUPPORTED_FOR_LEGACY_MANAGED_ONLINE_TABLE

SQLSTATE: 割り当てられていない

オンライン・カタログ内の管理オンライン・テーブルの書き込み資格情報を取得する要求が無効です。

ファイルAPI

FILES_API_API_IS_NOT_ENABLED

SQLSTATE: 割り当てられていない

<api_name> API が有効になっていません

FILES_API_API_IS_NOT_ENABLED_FOR_CLOUD_PATHS

SQLSTATE: 割り当てられていない

Files API の要求されたメソッドは、クラウド パスではサポートされていません

FILES_API_AWS_ACCESS_DENIED

SQLSTATE: 割り当てられていない

ストレージバケットへのアクセスが AWS によって拒否されます。

FILES_API_AWS_ALL_ACCESS_DISABLED

SQLSTATE: 割り当てられていない

ストレージバケットへのすべてのアクセスが AWS で無効になっています。

FILES_API_AWS_BUCKET_DOES_NOT_EXIST

SQLSTATE: 割り当てられていない

ストレージバケットが AWS に存在しません。

FILES_API_AWS_FORBIDDEN

SQLSTATE: 割り当てられていない

ストレージバケットへのアクセスは AWS によって禁止されています。

FILES_API_AWS_INVALID_AUTHORIZATION_HEADER

SQLSTATE: 割り当てられていない

ワークスペースが正しく設定されていない: AWS ワークスペースのルートストレージバケットと同じリージョンにある必要があります。

FILES_API_AWS_INVALID_BUCKET_NAME

SQLSTATE: 割り当てられていない

ストレージバケット名が無効です。

FILES_API_AWS_KMS_KEY_DISABLED

SQLSTATE: 割り当てられていない

ストレージバケットにアクセスするために設定された KMS キーは、AWS で無効になっています。

FILES_API_AWS_UNAUTHORIZED

SQLSTATE: 割り当てられていない

AWS リソースへのアクセスは許可されていません。

FILES_API_AZURE_ACCOUNT_IS_DISABLED

SQLSTATE: 割り当てられていない

ストレージ アカウントは Azure で無効になっています。

FILES_API_AZURE_CONTAINER_DOES_NOT_EXIST

SQLSTATE: 割り当てられていない

Azure コンテナーが存在しません。

FILES_API_AZURE_FORBIDDEN

SQLSTATE: 割り当てられていない

ストレージ コンテナーへのアクセスは Azure によって禁止されています。

FILES_API_AZURE_HAS_A_LEASE

SQLSTATE: 割り当てられていない

Azureは、現在リソースにリースがあると回答しました。 後でもう一度やり直してください。

FILES_API_AZURE_INSUFFICIENT_ACCOUNT_PERMISSION

SQLSTATE: 割り当てられていない

アクセスされているアカウントには、この操作を実行するための十分なアクセス許可がありません。

FILES_API_AZURE_INVALID_STORAGE_ACCOUNT_NAME

SQLSTATE: 割り当てられていない

Azure のストレージ アカウントにアクセスできません: ストレージ アカウント名が無効です。

FILES_API_AZURE_KEY_BASED_AUTHENTICATION_NOT_PERMITTED

SQLSTATE: 割り当てられていない

キー コンテナー コンテナーが Azure に見つかりません。 顧客管理のキーの設定を確認します。

FILES_API_AZURE_KEY_VAULT_KEY_NOT_FOUND

SQLSTATE: 割り当てられていない

Azure Key Vault キーが Azure に見つかりません。 顧客管理のキーの設定を確認します。

FILES_API_AZURE_KEY_VAULT_VAULT_NOT_FOUND

SQLSTATE: 割り当てられていない

キー コンテナー コンテナーが Azure に見つかりません。 顧客管理のキーの設定を確認します。

FILES_API_AZURE_MI_ACCESS_CONNECTOR_NOT_FOUND

SQLSTATE: 割り当てられていない

Azure Managed Identity Credential with Access Connector が見つかりません。 これは、IP アクセス制御によってリクエストが拒否されたことが原因である可能性があります。

FILES_API_AZURE_OPERATION_TIMEOUT

SQLSTATE: 割り当てられていない

許可された時間内に操作を完了できませんでした。

FILES_API_AZURE_PATH_INVALID

SQLSTATE: 割り当てられていない

要求されたパスは Azure では無効です。

FILES_API_AZURE_PATH_IS_IMMUTABLE

SQLSTATE: 割り当てられていない

要求されたパスは不変です。

FILES_API_AZURE_UNSUPPORTED_HEADER

SQLSTATE: 割り当てられていない

operation で指定されたヘッダーの 1 つはサポートされていません。

FILES_API_CATALOG_NOT_FOUND

SQLSTATE: 割り当てられていない

<unity_catalog_error_message>

FILES_API_CLOUD_RESOURCE_EXHAUSTED

SQLSTATE: 割り当てられていない

<message>

FILES_API_COLON_IS_NOT_SUPPORTED_IN_PATH

SQLSTATE: 割り当てられていない

':' 文字はパスではサポートされていません

FILES_API_CONTROL_PLANE_NETWORK_ZONE_NOT_ALLOWED

SQLSTATE: 割り当てられていない

Databricks コントロール プレーン ネットワーク ゾーンは許可されていません。

FILES_API_DIRECTORIES_CANNOT_HAVE_BODIES

SQLSTATE: 割り当てられていない

本文は提供されましたが、ディレクトリにファイル本文を含めることはできません

FILES_API_DIRECTORY_IS_NOT_EMPTY

SQLSTATE: 割り当てられていない

ディレクトリが空ではありません。 この操作は、空でないディレクトリではサポートされていません。

FILES_API_DIRECTORY_IS_NOT_FOUND

SQLSTATE: 割り当てられていない

アクセスしているディレクトリが見つかりません。

FILES_API_DUPLICATED_HEADER

SQLSTATE: 割り当てられていない

要求には、一度だけ許可されるヘッダーの複数のコピーが含まれていました。

FILES_API_DUPLICATE_QUERY_PARAMETER

SQLSTATE: 割り当てられていない

クエリ パラメーター '<parameter_name>' は 1 回だけ指定する必要がありますが、複数回指定されています。

FILES_API_EMPTY_BUCKET_NAME

SQLSTATE: 割り当てられていない

DBFS バケット名が空です。

FILES_API_ENTITY_TOO_LARGE

SQLSTATE: 割り当てられていない

オブジェクトが最大許容オブジェクトサイズを超えています。

FILES_API_EXPIRATION_TIME_MUST_BE_PRESENT

SQLSTATE: 割り当てられていない

有効期限が存在している必要があります

FILES_API_EXPIRED_TOKEN

SQLSTATE: 割り当てられていない

提供されたトークンの有効期限が切れています。

FILES_API_EXPIRE_TIME_MUST_BE_IN_THE_FUTURE

SQLSTATE: 割り当てられていない

ExpireTime は将来の値である必要があります

FILES_API_EXPIRE_TIME_TOO_FAR_IN_FUTURE

SQLSTATE: 割り当てられていない

要求された TTL がサポートされている TTL より長い (1 時間)

FILES_API_EXTERNAL_LOCATION_PATH_OVERLAP_OTHER_UC_STORAGE_ENTITY

SQLSTATE: 割り当てられていない

<unity_catalog_error_message>

FILES_API_FILE_ALREADY_EXISTS

SQLSTATE: 割り当てられていない

作成中のファイルはすでに存在します。

FILES_API_FILE_NOT_FOUND

SQLSTATE: 割り当てられていない

アクセス中のファイルが見つかりません。

FILES_API_FILE_OR_DIRECTORY_ENDS_IN_DOT

SQLSTATE: 割り当てられていない

'.' 文字で終わるファイルまたはディレクトリはサポートされていません。

FILES_API_FILE_SIZE_EXCEEDED

SQLSTATE: 割り当てられていない

ファイル サイズは <max_download_size_in_bytes> バイトを超えてはなりませんが、<size_in_bytes> バイトが見つかりました。

FILES_API_GCP_ACCOUNT_IS_DISABLED

SQLSTATE: 割り当てられていない

GCP でストレージ バケットへのアクセスが無効になっています。

FILES_API_GCP_BUCKET_DOES_NOT_EXIST

SQLSTATE: 割り当てられていない

ストレージ バケットが GCP に存在しません。

FILES_API_GCP_FORBIDDEN

SQLSTATE: 割り当てられていない

バケットへのアクセスは GCP によって禁止されています。

FILES_API_GCP_KEY_DISABLED_OR_DESTROYED

SQLSTATE: 割り当てられていない

そのロケーションに設定された顧客管理の暗号化キーは、無効または破棄されます。

FILES_API_GCP_REQUEST_IS_PROHIBITED_BY_POLICY

SQLSTATE: 割り当てられていない

バケットへのリクエスト GCP はポリシーにより禁止されていますので、 VPC Service Controlsを確認してください。

FILES_API_HOST_TEMPORARILY_NOT_AVAILABLE

SQLSTATE: 割り当てられていない

クラウドプロバイダーホストは一時的に利用できません。しばらくしてからもう一度お試しください。

FILES_API_INVALID_CONTINUATION_TOKEN

SQLSTATE: 割り当てられていない

指定されたページ・トークンが無効です。

FILES_API_INVALID_PAGE_TOKEN

SQLSTATE: 割り当てられていない

無効なページトークン

FILES_API_INVALID_PATH

SQLSTATE: 割り当てられていない

無効なパス: <validation_error>

FILES_API_INVALID_RANGE

SQLSTATE: 割り当てられていない

範囲ヘッダーが無効です。

FILES_API_INVALID_RESOURCE_FULL_NAME

SQLSTATE: 割り当てられていない

<unity_catalog_error_message>

FILES_API_INVALID_SESSION_TOKEN

SQLSTATE: 割り当てられていない

無効なセッション・トークン

FILES_API_INVALID_SESSION_TOKEN_TYPE

SQLSTATE: 割り当てられていない

セッション トークンの種類が無効です。 「<expected>」を予想していましたが、「<actual>」が出ました。

FILES_API_INVALID_TIMESTAMP

SQLSTATE: 割り当てられていない

タイムスタンプが無効です。

FILES_API_INVALID_UPLOAD_TYPE

SQLSTATE: 割り当てられていない

アップロードの種類が無効です。 「<expected>」を予想していましたが、「<actual>」が出ました。

FILES_API_INVALID_URL_PARAMETER

SQLSTATE: 割り当てられていない

パラメーターとして渡された URL が無効です

FILES_API_INVALID_VALUE_FOR_OVERWRITE_QUERY_PARAMETER

SQLSTATE: 割り当てられていない

クエリ パラメーター 'overwrite' は true,false のいずれかである必要がありますが、以前は <got_values>

FILES_API_INVALID_VALUE_FOR_QUERY_PARAMETER

SQLSTATE: 割り当てられていない

Query パラメーター '<parameter_name>' は次のいずれかである必要があります。ただし、次の条件では<expected> <actual>

FILES_API_MALFORMED_REQUEST_BODY

SQLSTATE: 割り当てられていない

要求本文の形式が正しくありません

FILES_API_MANAGED_CATALOG_FEATURE_DISABLED

SQLSTATE: 割り当てられていない

<unity_catalog_error_message>

FILES_API_METASTORE_NOT_FOUND

SQLSTATE: 割り当てられていない

<unity_catalog_error_message>

FILES_API_METHOD_IS_NOT_ENABLED_FOR_JOBS_BACKGROUND_COMPUTE_ARTIFACT_STORAGE

SQLSTATE: 割り当てられていない

要求されたファイル API 方法は、ジョブ バックグラウンド コンピュート アーティファクト ストレージではサポートされていません。

FILES_API_MISSING_CONTENT_LENGTH

SQLSTATE: 割り当てられていない

リクエストには content-length ヘッダーが必要です。

FILES_API_MISSING_QUERY_PARAMETER

SQLSTATE: 割り当てられていない

クエリ パラメーター '<parameter_name>' は必須ですが、要求にありません。

FILES_API_MISSING_REQUIRED_PARAMETER_IN_REQUEST

SQLSTATE: 割り当てられていない

要求に必要なパラメーターがありません。

FILES_API_MODEL_VERSION_IS_NOT_READY

SQLSTATE: 割り当てられていない

モデルバージョンはまだ準備ができていません

FILES_API_MULTIPART_UPLOAD_ABORT_PRESIGNED_URL_NOT_SUPPORTED

SQLSTATE: 割り当てられていない

マルチパートアップロードを中止するための署名付き URL は、<cloud_storage_provider> に格納されたファイルではサポートされていません。

FILES_API_MULTIPART_UPLOAD_EMPTY_PART_LIST

SQLSTATE: 割り当てられていない

パーツのリストには少なくとも 1 つの要素が必要ですが、空でした。

FILES_API_MULTIPART_UPLOAD_INVALID_PART_NUMBER

SQLSTATE: 割り当てられていない

部品番号は、アップロードの開始時に受信した応答に記載されている範囲内である必要があります。

FILES_API_MULTIPART_UPLOAD_MISSING_ETAG

SQLSTATE: 割り当てられていない

ETag は、<cloud_storage_provider> に格納されているファイルに対して提供する必要があります。 少なくとも 1 つの ETag が提供されていないか、空です。

FILES_API_MULTIPART_UPLOAD_MODIFIED_STORAGE_ENTITY_STATE

SQLSTATE: 割り当てられていない

アップロードが開始されてからストレージ エンティティの内部状態が変更されている (ファイル パスが同じ基になるクラウド ストレージの場所を指していないためなど)。 新しいアップロード・セッションを開始して続行します。

FILES_API_MULTIPART_UPLOAD_NON_TRAILING_PARTS_WITH_DIFFERENT_SIZES

SQLSTATE: 割り当てられていない

マルチパートアップロードセッションの一部としてアップロードされるパートは、<cloud_storage_provider>に保存されているファイルと同じサイズである必要があります。ただし、最後のパートはこれより小さくてもかまいません。

FILES_API_MULTIPART_UPLOAD_PART_SIZE_OUT_OF_RANGE

SQLSTATE: 割り当てられていない

マルチパート・アップロード・セッションの一部としてアップロードされるパートのサイズは、アップロードの開始時に受信したレスポンスで提供される範囲内である必要があります。

FILES_API_MULTIPART_UPLOAD_SESSION_NOT_FOUND

SQLSTATE: 割り当てられていない

アップロード セッションが見つかりません。 中止されたか、または完了した可能性があります。

FILES_API_MULTIPART_UPLOAD_UNORDERED_PART_LIST

SQLSTATE: 割り当てられていない

部品のリストは部品番号で並べ替える必要がありますが、順序付けられていません。

FILES_API_NOT_ENABLED_FOR_PLACE

SQLSTATE: 割り当てられていない

このワークスペース/アカウントでは、 <place> の Files API が有効になっていません

FILES_API_NOT_SUPPORTED_FOR_INTERNAL_WORKSPACE_STORAGE

SQLSTATE: 割り当てられていない

ファイル API の要求されたメソッドは、内部ワークスペース ストレージではサポートされていません

FILES_API_OPERATION_MUST_BE_PRESENT

SQLSTATE: 割り当てられていない

操作が存在する必要があります

FILES_API_PAGE_SIZE_MUST_BE_GREATER_OR_EQUAL_TO_ZERO

SQLSTATE: 割り当てられていない

page_size 0 以上である必要があります

FILES_API_PATH_END_WITH_A_SLASH

SQLSTATE: 割り当てられていない

'/' 文字で終わるパスはディレクトリを表します。 この API は、ディレクトリに対する操作をサポートしていません。

FILES_API_PATH_IS_A_DIRECTORY

SQLSTATE: 割り当てられていない

指定されたパスは、既存のディレクトリを指しています。 この API は、ディレクトリに対する操作をサポートしていません。

FILES_API_PATH_IS_A_FILE

SQLSTATE: 割り当てられていない

指定されたパスは既存のファイルを指しています。 この API は、ファイルに対する操作をサポートしていません。

FILES_API_PATH_IS_NOT_A_VALID_UTF8_ENCODED_URL

SQLSTATE: 割り当てられていない

指定されたパスは有効なUTF-8でエンコードされたURLではありませんでした

FILES_API_PATH_IS_NOT_ENABLED_FOR_DATAPLANE_PROXY

SQLSTATE: 割り当てられていない

指定されたパスはデータプレーンプロキシに対して有効になっていません

FILES_API_PATH_MUST_BE_PRESENT

SQLSTATE: 割り当てられていない

パスが存在する必要があります

FILES_API_PATH_NOT_SUPPORTED

SQLSTATE: 割り当てられていない

<rejection_message>

FILES_API_PATH_TOO_LONG

SQLSTATE: 割り当てられていない

指定されたファイルパスが長すぎます。

FILES_API_PRECONDITION_FAILED

SQLSTATE: 割り当てられていない

前提条件のため、要求が失敗しました。

FILES_API_PRESIGNED_URLS_FOR_MODELS_NOT_SUPPORTED

SQLSTATE: 割り当てられていない

モデルの署名付き URL の Files API は、現在サポートされていません

FILES_API_R2_CREDENTIALS_DISABLED

SQLSTATE: 割り当てられていない

R2 は現在サポートされていません。

FILES_API_RANGE_NOT_SATISFIABLE

SQLSTATE: 割り当てられていない

要求された範囲が満たされません。

FILES_API_RECURSIVE_LIST_IS_NOT_SUPPORTED

SQLSTATE: 割り当てられていない

ファイルの再帰的なリストはサポートされていません。

FILES_API_REQUEST_GOT_ROUTED_INCORRECTLY

SQLSTATE: 割り当てられていない

要求が正しくルーティングされませんでした

FILES_API_REQUEST_MUST_INCLUDE_ACCOUNT_INFORMATION

SQLSTATE: 割り当てられていない

リクエストにはアカウント情報を含める必要があります

FILES_API_REQUEST_MUST_INCLUDE_USER_INFORMATION

SQLSTATE: 割り当てられていない

リクエストにはユーザー情報を含める必要があります

FILES_API_REQUEST_MUST_INCLUDE_WORKSPACE_INFORMATION

SQLSTATE: 割り当てられていない

リクエストにはワークスペース情報を含める必要があります

FILES_API_RESOURCE_IS_READONLY

SQLSTATE: 割り当てられていない

リソースは読み取り専用です。

FILES_API_RESOURCE_NOT_FOUND

SQLSTATE: 割り当てられていない

<unity_catalog_error_message>

FILES_API_SCHEMA_NOT_FOUND

SQLSTATE: 割り当てられていない

<unity_catalog_error_message>

FILES_API_SECURE_URL_CANT_BE_ACCESSED

SQLSTATE: 割り当てられていない

URLにアクセスできません。

FILES_API_SIGNATURE_VERIFICATION_FAILED

SQLSTATE: 割り当てられていない

署名の検証に失敗しました。

FILES_API_STORAGE_CONTEXT_IS_NOT_SET

SQLSTATE: 割り当てられていない

このワークスペースのストレージ構成にはアクセスできません。

FILES_API_STORAGE_CREDENTIAL_NOT_FOUND

SQLSTATE: 割り当てられていない

<unity_catalog_error_message>

FILES_API_TABLE_TYPE_NOT_SUPPORTED

SQLSTATE: 割り当てられていない

ファイル API は <table_type> ではサポートされていません

FILES_API_UC_IAM_ROLE_NON_SELF_ASSUMING

SQLSTATE: 割り当てられていない

<unity_catalog_error_message>

FILES_API_UC_MODEL_INVALID_STATE

SQLSTATE: 割り当てられていない

<unity_catalog_error_message>

FILES_API_UC_PERMISSION_DENIED

SQLSTATE: 割り当てられていない

<unity_catalog_error_message>

FILES_API_UC_RESOURCE_EXHAUSTED

SQLSTATE: 割り当てられていない

<message>

FILES_API_UC_UNSUPPORTED_LATIN_CHARACTER_IN_PATH

SQLSTATE: 割り当てられていない

<unity_catalog_error_message>

FILES_API_UC_VOLUME_NAME_CHANGED

SQLSTATE: 割り当てられていない

<unity_catalog_error_message>

FILES_API_UNEXPECTED_ERROR_WHILE_PARSING_URI

SQLSTATE: 割り当てられていない

URI の解析時に予期しないエラーが発生しました

FILES_API_UNEXPECTED_QUERY_PARAMETERS

SQLSTATE: 割り当てられていない

予期しないクエリ パラメーター: <unexpected_query_parameters>

FILES_API_UNKNOWN_METHOD

SQLSTATE: 割り当てられていない

不明な方法 <method>

FILES_API_UNKNOWN_SERVER_ERROR

SQLSTATE: 割り当てられていない

不明なサーバーエラーです。

FILES_API_UNKNOWN_URL_HOST

SQLSTATE: 割り当てられていない

URL ホストが不明です。

FILES_API_UNSUPPORTED_PATH

SQLSTATE: 割り当てられていない

指定されたパスは、Files API ではサポートされていません。 指定されたパスに '../' または './' シーケンス。 指定されたパスで複数の連続するスラッシュが使用されていないことを確認してください(例: ‘///’).

FILES_API_URL_GENERATION_DISABLED

SQLSTATE: 割り当てられていない

署名付き URL の生成は、 <cloud>では有効になっていません。

FILES_API_VOLUME_TYPE_NOT_SUPPORTED

SQLSTATE: 割り当てられていない

ファイル API は <volume_type> ではサポートされていません。

FILES_API_WORKSPACE_IS_CANCELED

SQLSTATE: 割り当てられていない

ワークスペースがキャンセルされました。

FILES_API_WORKSPACE_IS_NOT_FOUND

SQLSTATE: 割り当てられていない

このワークスペースのストレージ構成にはアクセスできません。

DLTの

ALTER_SCHEDULE_SCHEDULE_DOES_NOT_EXIST

SQLSTATE: 42704

既存のスケジュールまたはトリガがないテーブルの <type> は変更できません。 スケジュールまたはトリガーをテーブルに追加してから、テーブルを変更してください。

API_QUOTA_EXCEEDED

SQLSTATE: KD000

データソース<sourceName>の API クォータを超えました。

詳細については、 API_QUOTA_EXCEEDED

APPLY_CHANGES_PARTIAL_UPDATES_NOT_ENABLED

SQLSTATE: 割り当てられていない

Feature COLUMNS TO UPDATE はプレビュー段階であり、お使いのワークスペースでは有効になっていません。 この機能の詳細を確認し、プライベート プレビューにアクセスするには、Databricks の担当者にお問い合わせください。

ARCHITECTURE_MIGRATION_FAILURE

SQLSTATE: 割り当てられていない

詳細については、 ARCHITECTURE_MIGRATION_FAILURE

CANNOT_ADD_COLUMN_TO_INCLUDE_COLUMNS

SQLSTATE: 割り当てられていない

新しい列(<columnNames>)は、テーブル <qualifiedTableName>のパイプライン定義のinclude_columnsフィールドに追加されます。 データ損失の可能性を回避するためにテーブルを完全に更新するか、これらの列をinclude_columnsから削除してください。

CANNOT_EXCLUDE_NON_EXISTENT_COLUMN

SQLSTATE: 割り当てられていない

パイプライン定義では、ソース <sourceType>のテーブル <qualifiedTableName> に存在しない列 (<columnNames>) は除外されます。これらの列をexclude_columnsフィールドから削除してください。

CANNOT_FILTER_OUT_REQUIRED_COLUMN

SQLSTATE: 割り当てられていない

パイプライン定義には、インジェストのソース <sourceType> のテーブル <qualifiedTableName> に必要な列 (<columnNames>) が含まれていません。include_columnsに追加するか、exclude_columnsから削除してください。

CANNOT_INCLUDE_NON_EXISTENT_COLUMN

SQLSTATE: 割り当てられていない

パイプライン定義には、ソース <sourceType>のテーブル <qualifiedTableName> に存在しない列 (<columnNames>) が含まれます。これらの列をinclude_columnsフィールドから削除してください。

CANNOT_INGEST_TABLE_WITHOUT_PRIMARY_KEY

SQLSTATE: 割り当てられていない

<sourceType> ソースのテーブル<qualifiedTableName>にはプライマリキーがありません。

コネクタ構成で主キーを指定して、テーブルが存在する場合は取り込んでください。

CANNOT_REMOVE_COLUMN_FROM_EXCLUDE_COLUMNS

SQLSTATE: 割り当てられていない

列 (<columnNames>) は、テーブル のパイプライン定義の exclude_columns フィールドから削除 <qualifiedTableName>。 データ損失の可能性を回避するためにテーブルを完全に更新するか、これらの列をexclude_columnsに追加し直してください。

CANNOT_SET_CATALOG_FOR_HMS_PIPELINE

SQLSTATE: 割り当てられていない

UC を使用する場合は、ストレージの場所が定義されている既存のパイプラインにカタログを追加することはできません。UC を使用して新しいパイプラインを作成し、カタログを設定します。

既存の保存場所: '<storageLocation>'

ご請求いただいたカタログ: '<catalog>'

CANNOT_SPECIFY_BOTH_INCLUDE_EXCLUDE_COLUMNS

SQLSTATE: 割り当てられていない

パイプライン定義では、 <identifier>の include_columns と exclude_columns の両方が指定されています。 そのうちの1つを削除してください。

CANNOT_UPDATE_CLUSTERING_COLUMNS

SQLSTATE: 割り当てられていない

テーブル <tableName> のクラスタリング列は、パーティション列を使用しているため、更新できません。 テーブルでは、パーティション列またはクラスタリング列のいずれかを使用できますが、両方は使用できません。

リキッドクラスタリングとパーティショニングを切り替えるには、このテーブルの完全な更新をトリガーします。

CANNOT_UPDATE_PARTITION_COLUMNS

SQLSTATE: 割り当てられていない

ストリーミング テーブル <tableName>のパーティション列を更新できません。

電流: <existingPartitionColumns>,

要求: <requestedPartitionColumns>

このパーティションの変更を適用するには、このテーブルと、パーティション列が更新された他のストリーミング テーブルの完全な更新をトリガーします。

または、この変更を元に戻して、既存のパーティション列を引き続き使用します。

CANNOT_UPDATE_TABLE_SCHEMA

SQLSTATE: 割り当てられていない

テーブル <tableName>の現在のスキーマと新しいスキーマをマージできませんでした。

このスキーマの変更を続行するには、このテーブルの完全な更新をトリガーします。

ユースケースとスキーマの変更によっては、スキーマの変更を回避できる場合があります – 出力スキーマが既存のスキーマと互換性を持つようにクエリを更新できます (たとえば、列を正しいデータ型に明示的にキャストするなど)。

CANNOT_WRITE_TO_INACTIVE_COLUMNS

SQLSTATE: 割り当てられていない

宛先の次のテーブルには、現在のソース テーブルと競合する非アクティブな列があります。

<details>

これらの列は、以前にソース テーブルから削除されているため、レプリケート先テーブルでは非アクティブのままです。

更新を続行するには、テーブルに対して FULL REFRESH を実行するか、 ALTER TABLE DROP COLUMN コマンドを使用してこれらの非アクティブな列を宛先テーブルから削除し、更新を再試行してください。

CANNOT_WRITE_TO_INACTIVE_TABLES

SQLSTATE: 割り当てられていない

デスティネーションの次のテーブルは非アクティブで、現在のソーステーブルと競合しています。 <tables>.

これらのテーブルは、以前にソースから削除されたか、コネクタから選択解除されたため、非アクティブのままです。

更新を続行するには、テーブルに対して FULL REFRESH を実行するか、カタログ エクスプローラーまたは DROP TABLE コマンドを使用してこれらの非アクティブなテーブルを宛先から削除し、更新を再試行してください。

CANNOT_WRITE_TO_TABLES_PENDING_RESET

SQLSTATE: 割り当てられていない

デスティネーションの次のテーブルは、前回の完全更新で正しくリセットされていません: <tables>.

回復するには、それらを完全に更新してください。

CATALOG_SPEC_UNSUPPORTED

SQLSTATE: 割り当てられていない

CatalogSpecs は、現在、データベース・コネクターでサポートされていません。 カタログスペックを削除してください。

CDC_APPLIER_REQUIRES_ALL_DESTINATION_TABLES_FULL_REFRESH

SQLSTATE: 割り当てられていない

1 つのデスティネーション・テーブルのフル・リフレッシュと、同じソースからの別のデスティネーション・テーブルの通常の更新はサポートされていません。

可能であれば、両方のテーブルを完全に更新して続行してください。

完全更新テーブル: <fullRefreshTables>

ソース <sourceTable>の宛先テーブル: <destinationTables>

CDC_APPLIER_SCHEMA_CHANGED_DURING_STREAMING

SQLSTATE: 割り当てられていない

スキーマ バージョン <dataSchemaVersion> は、読み取りスキーマ バージョン <readSchemaVersion>とは異なります。

DLT は更新を再試行します。

CDC_INCOMPATIBLE_SCHEMA_CHANGES

SQLSTATE: 割り当てられていない

スキーマ バージョン <previousSchemaVersion>から <currentSchemaVersion>への互換性のないスキーマ変更 (<cause>) が発生しました。

したがって、 <tableName>の変更の適用を続行することはできません。 テーブルの完全な更新をリクエストしてください。

前のスキーマ: <previousSchema>

現在のスキーマ: <currentSchema>

CDC_POTENTIAL_DATA_GAPS

SQLSTATE: 割り当てられていない

次の表 [<needFullRefreshTableList>] では、 <retention> 日間正常に更新されていません。

これらのテーブルまたはパイプライン全体で完全な更新を行ってください。

CDC_SAME_TABLE_FROM_MULTIPLE_SOURCES

SQLSTATE: 割り当てられていない

同じテーブル名を複数のソースから <table> 見つけました。 <sources>.

競合を避けるために、それらを異なるパイプラインに分割してください。

CDC_TABLE_NOT_FOUND_IN_ALL_TABLES

SQLSTATE: 割り当てられていない

テーブル <table> は、ソース データベースの all tables スナップショットに見つかりません。

テーブル仕様の詳細:

<tableSpec>

CHANGES_HMS_PIPELINE_TO_UC_NOT_ALLOWED

SQLSTATE: 割り当てられていない

HMS パイプラインを UC パイプラインに変更することはできません。

CHANGES_UC_PIPELINE_TO_HMS_NOT_ALLOWED

SQLSTATE: 割り当てられていない

UC パイプラインを HMS パイプラインに変更することはできません。

CHANGING_CATALOG_NOT_ALLOWED

SQLSTATE: 割り当てられていない

既存のパイプラインのカタログは変更できません。 既存のカタログ: '<existingCatalog>'. 要求されたカタログ: '<requestedCatalog>'。

CHANGING_TARGET_SCHEMA_NOT_ALLOWED

SQLSTATE: 割り当てられていない

ターゲット スキーマの変更は許可されません。 理由: <reason>

クラスター

SQLSTATE: 57000

使用可能なクレジットを使い果たしたため、クラスターを作成できませんでした。 アカウントをアップグレードするための支払い方法を追加してください。

クラスター

SQLSTATE: 42501

クラスターを作成する権限がありません。 管理者に問い合わせてください。

クラスター

SQLSTATE: 56038

ワークスペースの試用期間が終了したため、クラスターの作成または開始に失敗しました。 管理者に問い合わせてください。

クラスター

SQLSTATE: KDL01

パイプライン クラスター システムの起動に失敗しました : <clusterId> <clusterStateMessage>

このエラーは、パイプラインの設定ミスが原因である可能性があります。

パイプライン クラスター構成と関連するクラスターポリシーを確認します。

クラスター

SQLSTATE: 58000

パイプライン クラスター システムの起動に失敗しました : <clusterId> <clusterStateMessage>

このエラーは一時的なものである可能性があります - パイプラインを再起動し、同じ問題が引き続き発生する場合は報告してください。

クラスター

SQLSTATE: 42501

このパイプライン用に構成されたクラスターポリシーにアクセスする権限がありません。 管理者に問い合わせてください。

クラスター

SQLSTATE: KDL01

詳細については、「クラスター」を参照してください。

クラスター

SQLSTATE: 割り当てられていない

ドライバーとの通信が失われました。 クラスター <clusterId><timeoutSeconds> 秒間到達できませんでした。

COLUMN_TO_UPDATE_NOT_FOUND

SQLSTATE: 割り当てられていない

COLUMNS TO で指定された列<column>``UPDATEソース Dataframe に見つかりません。

並列

SQLSTATE: 割り当てられていない

アップグレードのための更新 '<upgradedUpdateId>' を開始しましたが、以前の更新 '<oldUpdateId>' を停止できませんでした。

このエラーは一時的なものである可能性があります。 パイプラインは自動的に再試行され、問題は自動的に解決されます。

同じ問題が引き続き発生する場合は、このエラーを Databricks に報告してください。

データセット

SQLSTATE: 割り当てられていない

データセット <datasetName> は既に存在します。 クエリ関数がビューまたはテーブルとして一度だけマークされていることを確認してください。

データセット

SQLSTATE: 割り当てられていない

データセット '<datasetName>' を読み取れませんでした。 このデータセットはパイプラインで定義されていません。

このテーブルが別のパイプラインによって管理されている場合は、 dlt.read / dlt.readStream を使用してテーブルを読み取ったり、名前の前に LIVE キーワードを付加したりしないでください。

DROP_SCHEDULE_SCHEDULE_DOES_NOT_EXIST

SQLSTATE: 42000

既存のスケジュールまたはトリガーがないテーブルに SCHEDULE を削除することはできません。

DUPLICATED_INGESTION_CONFIG_TABLE_SPECS

SQLSTATE: 割り当てられていない

インジェスト パイプライン構成に重複するテーブルが含まれています。 各テーブルが一意であることを確認してください。

EMPTY_INGESTION_CONFIG_OBJECTS

SQLSTATE: 割り当てられていない

インジェスト設定オブジェクトが空です。

EVENT_LOG_PICKER_FEATURE_NOT_SUPPORTED

SQLSTATE: 割り当てられていない

このパイプラインでは、 Unity Catalog へのイベント ログの発行はサポートされていません。 これが予期せぬ場合は、Databricks サポートにお問い合わせください。

FAILED_TO_CREATE_EVENT_LOG

SQLSTATE: 割り当てられていない

識別子 <eventLogIdentifier>のパイプライン (id=<pipelineId>) イベント ログを作成できませんでした。詳細については、以下の例外を参照してください。

FAILED_TO_UPDATE_EVENT_LOG

SQLSTATE: 割り当てられていない

パイプライン (id=<pipelineId>) イベント ログ識別子を可視性 の <newVisibility><newEventLogIdentifier> に更新できませんでした。詳細については、以下の例外を参照してください。

FLOW_SCHEMA_CHANGED

SQLSTATE: 割り当てられていない

フロー <flowName> は、実行中にスキーマの変更が発生したため、終了しました。

スキーマの変更は既存のターゲットスキーマと互換性があり、フローの次の実行は新しいスキーマで再開できます。

バッチ

SQLSTATE: 割り当てられていない

DLT ForeachBatch シンクは現在サポートされていません。

DLT ForeachBatch シンクのプライベート プレビューには、 PREVIEW チャンネルが必要です。

DLTシンク: <sinkNames>

GATEWAY_PIPELINE_INIT_SCRIPTS_NOT_ALLOWED

SQLSTATE: 割り当てられていない

Gateway パイプラインでは、クラスター initスクリプトは許可されません。 <from>から削除してください。

GATEWAY_PIPELINE_SPARK_CONF_NOT_ALLOWED

SQLSTATE: 割り当てられていない

Gateway パイプラインでは、spark config [<configs>] は許可されません。 <from>から削除してください。

ILLEGAL_COLUMN_TO_UPDATE_DATA_TYPE

SQLSTATE: 割り当てられていない

COLUMNS TO UPDATE で指定する列のデータ型は文字列配列である必要がありますが、<illegalDataType>.

ILLEGAL_SCHEMA_FIELD_IN_PIPELINE_SPEC

SQLSTATE: 割り当てられていない

パイプライン設定で指定された「スキーマ」フィールドは不正です。 理由: <reason>

INGESTION_CONFIG_DUPLICATED_SCHEMA

SQLSTATE: 割り当てられていない

インジェスト パイプライン構成に重複するスキーマが含まれています。 各スキーマが一意であることを確認してください。

INGESTION_GATEWAY_AUTHENTICATION_FAILURE

SQLSTATE: 割り当てられていない

認証の失敗

詳細については、 INGESTION_GATEWAY_AUTHENTICATION_FAILURE

INGESTION_GATEWAY_CDC_NOT_ENABLED

SQLSTATE: 割り当てられていない

CDC は '<entityName>' <entityType> で有効になっていません。エラー メッセージ: '<errorMessage>'。

INGESTION_GATEWAY_MISSING_CONNECTION_REFERENCE

SQLSTATE: 割り当てられていない

インジェスト ゲートウェイ構成に接続がありません。

資格情報を含む Unity Catalog 接続への参照を追加してください。

インジェスト ゲートウェイ パイプライン定義の詳細:

<definition>

INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_CATALOG

SQLSTATE: 割り当てられていない

インジェスト ゲートウェイ構成に内部ストレージの場所カタログがありません。

内部保管場所カタログを追加してください。

インジェスト ゲートウェイ パイプライン定義の詳細:

<definition>

INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_NAME

SQLSTATE: 割り当てられていない

インジェスト ゲートウェイ構成に内部ストレージの場所の名前がありません。

内部保存場所の名前を追加してください。

インジェスト ゲートウェイ パイプライン定義の詳細:

<definition>

INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_SCHEMA

SQLSTATE: 割り当てられていない

インジェスト ゲートウェイ構成に内部ストレージの場所スキーマがありません。

内部ストレージの場所スキーマを追加してください。

インジェスト ゲートウェイ パイプライン定義の詳細:

<definition>

INGESTION_GATEWAY_UNREACHABLE_HOST_OR_PORT_FAILURE

SQLSTATE: 割り当てられていない

ホスト名 <host> やポート <port>が正しくないため、接続に失敗しました。

詳細については、 INGESTION_GATEWAY_UNREACHABLE_HOST_OR_PORT_FAILURE

INSTANCE_POOL_CAPACITY_EXCEEDED

SQLSTATE: 54000

この操作がインスタンス・プールの容量を超えるため、クラスターの作成または開始に失敗しました: <errorMessage>

INVALID_APPLY_CHANGES_COMMAND

SQLSTATE: 割り当てられていない

APPLY CHANGES コマンドが無効です。 <reason>

INVALID_ARGUMENT_TYPE

SQLSTATE: 割り当てられていない

無効な型の値がパラメーター '<paramName>' に渡されます。 予想 <expectedType><additionalMsg>

INVALID_EVENT_LOG_PICKER_CONFIGURATION

SQLSTATE: 割り当てられていない

パイプライン仕様に無効なイベント ログ ピッカー構成が見つかりました: <message>

INVALID_NAME_IN_USE_COMMAND

SQLSTATE: 割り当てられていない

コマンドの名前 '<name>' が無効です <command> 。 理由: <reason>

INVALID_REFRESH_SELECTION

SQLSTATE: 割り当てられていない

この更新に指定された更新選択パラメーターは、次の理由で無効です

詳細については、 INVALID_REFRESH_SELECTION

INVALID_SCHEMA_NAME

SQLSTATE: 割り当てられていない

パイプライン設定で指定されたスキーマ '<schemaName>' が無効です。 理由: <reason>

INVALID_TRIGGER_INTERVAL_FORMAT

SQLSTATE: 割り当てられていない

<configurationType>に指定されたトリガー間隔構成が無効です

LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_CLASSIC

SQLSTATE: 割り当てられていない

データセットクエリ定義の外部 LIVE 仮想スキーマ(@dlt.tableアノテーション)を使用してデータセットを参照することはサポートされていません。

LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_DPM

SQLSTATE: 割り当てられていない

データセットクエリ定義の外部 LIVE 仮想スキーマ <identifier> (つまり、@dlt.tableアノテーション)を使用してデータセットを参照することはサポートされていません。

LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_SPARK_SQL

SQLSTATE: 割り当てられていない

spark.sql で仮想スキーマを使用してデータセットを参照する LIVE (...) API は、データセットのクエリ定義 (@dlt.table アノテーション) の外部で呼び出すことはできません。 これは、データセット クエリ定義内でのみ呼び出すことができます。

MATERIALIZED_VIEW_METADATA_READ_FAILURE

SQLSTATE: 割り当てられていない

メタデータの読み取りエラーのため、テーブル <tableName> の更新に失敗しました。 Databricks サポートにお問い合わせください。

MAX_RETRY_REACHED_BEFORE_ENZYME_RECOMPUTE

SQLSTATE: 割り当てられていない

最大再試行回数に達しました。 再試行回数:<flowRetryCount>. maxFlowFailureRetryCountThreshold:<maxFlowRetryAttempts>. <message>

METASTORE_OPERATION_TIMED_OUT

SQLSTATE: 割り当てられていない

<tableName> のメタストア情報の更新に関連する操作に、<timeout>よりも時間がかかりました。

この問題は一時的なものであるか、構成されたメタストア クライアントのバグを示している可能性があります。 パイプラインを再起動し、問題が解決しない場合は報告してください。

MISSING_CREATE_SCHEMA_PRIVILEGE

SQLSTATE: 割り当てられていない

ユーザー '<userName>' には、カタログにスキーマを作成する権限がありません <catalogName>

MISSING_CREATE_TABLE_PRIVILEGE

SQLSTATE: 割り当てられていない

ユーザー '<userName>' には、スキーマにテーブルを作成する権限がありません <schemaName>

MISSING_RUN_AS_USER

SQLSTATE: 割り当てられていない

更新プログラムに実行ユーザーが指定されていません。

MOVE_TABLE_BETWEEN_PIPELINES_DESTINATION_PIPELINE_NOT_FOUND

SQLSTATE: 42000

宛先パイプライン <pipelineId> が見つかりません。 パイプラインと同じワークスペースにいること、自分がパイプラインの所有者であること、およびパイプラインが少なくとも 1 回は実行されていることを確認します。

MOVE_TABLE_BETWEEN_PIPELINES_DESTINATION_PIPELINE_NOT_IN_NEW_ARCHITECTURE

SQLSTATE: 55000

宛先パイプライン <pipelineId> は Direct Publishing Modeを使用していません。 パイプライン間でテーブルを移動するには、ソース パイプラインと宛先パイプラインの両方が Direct Publishing Modeにある必要があります。

MOVE_TABLE_BETWEEN_PIPELINES_DESTINATION_PIPELINE_PERMISSION_DENIED

SQLSTATE: 42000

この操作は許可されていません。宛先パイプライン <pipelineId>の所有者ではありません。 パイプライン間でテーブルを移動できるのは所有者だけです。

MOVE_TABLE_BETWEEN_PIPELINES_DESTINATION_PIPELINE_TYPE_NOT_WORKSPACE

SQLSTATE: 55000

宛先パイプライン <pipelineId> は標準パイプラインではありません。 標準のパイプライン間でのテーブルの移動のみがサポートされています。

MOVE_TABLE_BETWEEN_PIPELINES_FEATURE_DISABLED

SQLSTATE: 0A000

パイプライン間での <tableType> 移動はまだサポートされていません。

MOVE_TABLE_BETWEEN_PIPELINES_SOURCE_PIPELINE_NOT_FOUND

SQLSTATE: 42000

ソース パイプライン <pipelineId>、 を管理しているテーブル <tableName>が見つかりません。 パイプラインと同じワークスペースにいること、自分がパイプラインの所有者であること、およびパイプラインが少なくとも 1 回は実行されていることを確認します。

MOVE_TABLE_BETWEEN_PIPELINES_SOURCE_PIPELINE_NOT_IN_NEW_ARCHITECTURE

SQLSTATE: 55000

ソース パイプライン <pipelineId> は、テーブル テーブルを管理し<tableName>、ダイレクト パブリッシング (Direct Publishing) Modeを使用していません。 パイプライン間でテーブルを移動するには、ソース パイプラインと宛先パイプラインの両方が Direct Publishing Modeにある必要があります。

MOVE_TABLE_BETWEEN_PIPELINES_SOURCE_PIPELINE_PERMISSION_DENIED

SQLSTATE: 42000

この操作を実行することは許可されていません。ソース パイプラインの所有者ではありません <pipelineId>、 はテーブル を管理しています <tableName>。 パイプライン間でテーブルを移動できるのは所有者だけです。

MOVE_TABLE_BETWEEN_PIPELINES_SOURCE_PIPELINE_TYPE_NOT_WORKSPACE

SQLSTATE: 55000

ソース パイプライン <pipelineId>、 テーブル <tableName>の管理は、標準パイプラインではありません。 標準のパイプライン間でのテーブルの移動のみがサポートされています。

MOVE_TABLE_BETWEEN_PIPELINES_TABLE_CHANGED

SQLSTATE: 40000

操作中にテーブル <tableName> が変更されました。 もう一度やり直してください

MOVE_TABLE_BETWEEN_PIPELINES_UPDATE_IS_RUNNING

SQLSTATE: 55000

テーブル<tableName>のパイプライン<pipelineId>が実行されています。操作を実行する前にパイプラインを停止してください。

MUTUALLY_EXCLUSIVE_OPTIONS

SQLSTATE: 割り当てられていない

相互に排他的なオプション <options>. これらのオプションのいずれかを削除してください。

NON_UC_TABLE_ALREADY_MANAGED_BY_OTHER_PIPELINE

SQLSTATE: 割り当てられていない

テーブル '<tableName>' は、すでにパイプライン <otherPipelineId>によって管理されています。

テーブル '<tableName>' をこのパイプラインで管理する場合は、

  1. パイプライン '<otherPipelineId>' からテーブルを削除します。
  2. このパイプラインの完全な更新更新を開始します。

複数のパイプラインからテーブルを引き続き管理する場合は、パイプライン設定で構成 pipelines.tableManagedByMultiplePipelinesCheck.enabledfalse に設定して、このチェックを無効にします。

テーブルに対する並列操作は互いに競合し、予期しない結果につながる可能性があるため、これはお勧めしません。

ノートブック

SQLSTATE: 42000

ノートブック '<notebookPath>' を読み込めません。

NO_TABLES_IN_PIPELINE

SQLSTATE: 割り当てられていない

パイプラインには少なくとも 1 つのテーブルが定義されている必要がありますが、パイプラインにテーブルが見つかりませんでした。

必要なソース ファイルが含まれていること、およびソース コードにテーブル定義が含まれていることを確認してください (例: SQL コードでは [ CREATE <mv> ]、Python コードでは @dlt.table)。

このチェックにはテーブルのみがカウントされることに注意してください。 このエラーは、パイプラインにビューまたはフローのみを含めた場合にも発生する可能性があります。

NO_WORKER_ENVIRONMENTS

SQLSTATE: 56038

組織にワーカー環境がないため、クラスターの作成または開始に失敗しました。 Databricks サポートにお問い合わせください。

パイプライン

SQLSTATE: 割り当てられていない

パイプラインは、部分的な実行後に再試行できないエラーが発生したため、ソース テーブル (<tables>) の分析に失敗しました。

新しいパイプライン更新プログラムは作成されません。 イベントログを確認し、それに応じて問題を修正してください。

パイプライン

SQLSTATE: 割り当てられていない

テーブルはまだ更新する準備ができていません

詳細については、「パイプライン」を参照してください。

パイプライン

SQLSTATE: 54000

タイプ '<pipelineType>' のアクティブなパイプラインの制限に達したため、更新 '<updateId>' を開始できません。

PIP_INSTALL_ERROR

SQLSTATE: 割り当てられていない

%pip install の呼び出し中にエラーが発生しました。

PIP_INSTALL_NOT_AT_TOP_OF_NOTEBOOK

SQLSTATE: 割り当てられていない

ノートブックの「<notebookPath>」の上部にない %pip install を含むセルが見つかりました

すべての %pip インストール セルをノートブックの先頭に移動します。

PY4J_BLOCKED_API

SQLSTATE: 割り当てられていない

現在の環境でサポートされていない Python API を使用しています。

代替案については Databricksドキュメントを確認してください。

<additionalInfo>

REFERENCE_DLT_DATASET_OUTSIDE_QUERY_DEFINITION

SQLSTATE: 割り当てられていない

DLT データセットの <identifier> をデータセットクエリ定義の外部で参照すること (@dlt.table アノテーション) はサポートされていません。 代わりに、データセットクエリ定義内で読んでください。

更新

SQLSTATE: 42710

すでに <existingType>があるテーブルに <type> を追加することはできません。既存のスケジュールを削除するか、 ALTER TABLE ... ALTER <type> ...それを変更します。

RESERVED_KEYWORD_IN_USE_CATALOG

SQLSTATE: 割り当てられていない

USE CATALOG '<reservedKeyword>' は不正です。これは、 '<reservedKeyword>' が DLT の予約キーワードであるためです。

RESERVED_KEYWORD_IN_USE_SCHEMA

SQLSTATE: 割り当てられていない

USE SCHEMA '<reservedKeyword>' は不正です。これは、 '<reservedKeyword>' が DLT の予約キーワードであるためです。

実行

SQLSTATE: 割り当てられていない

更新プログラムの指定された実行ユーザー '<runAsUserId>' がワークスペースに存在しません。

SAAS_CONNECTION_ERROR

SQLSTATE: KD000

<sourceName>ソースに接続できませんでした。エラーコード: <saasConnectionErrorCode>

詳細については、 SAAS_CONNECTION_ERROR

SAAS_CONNECTOR_SCHEMA_CHANGE_ERROR

SQLSTATE: 割り当てられていない

<sourceName> ソースのテーブル <tableName> でスキーマの変更が発生しました。

詳細については、 SAAS_CONNECTOR_SCHEMA_CHANGE_ERROR

SAAS_CONNECTOR_SOURCE_API_ERROR

SQLSTATE: KD000

<sourceName> API 呼び出しでエラーが発生しました。ソース API の種類: <saasSourceApiType>。 エラーコード: <saasSourceApiErrorCode>

宛先テーブルを更新してみてください。 問題が解決しない場合は、チケットを提出してください。

SAAS_CONNECTOR_UNSUPPORTED_ERROR

SQLSTATE: 0A000

サポートされていないエラーがデータソース で発生 <sourceName>

詳細については、 SAAS_CONNECTOR_UNSUPPORTED_ERROR

SAAS_INCOMPATIBLE_SCHEMA_CHANGES_DURING_INIT

SQLSTATE: 割り当てられていない

パイプラインの初期化時に互換性のないスキーマの変更が検出されました。

<details>

影響を受けるテーブルに対して完全な更新を実行してください。

SAAS_SCHEMA_DIVERGED_DURING_ANALYSIS

SQLSTATE: 割り当てられていない

ソース テーブル (<table>) の分析されたスキーマが、予期されるスキーマから逸脱しています。

パイプラインの更新を再試行し、問題が解決したかどうかを確認してください。

この問題が解決しない場合は、上記のテーブルで完全な更新を実行してください

想定されるスキーマ:

<expectedSchema>

実際のスキーマ:

<actualSchema>

SAAS_UC_CONNECTION_INACCESSIBLE

SQLSTATE: 割り当てられていない

指定された接続 <connectionName> にアクセスできません。 接続を確認してから、もう一度お試しください。

詳細については、 SAAS_UC_CONNECTION_INACCESSIBLE

SCHEMA_SPEC_EMPTY_CATALOG

SQLSTATE: 割り当てられていない

SchemaSpec の catalog フィールドには空の文字列があります。

空の文字列を削除するか、カタログ名を追加してください。 (このスキーマがソースのカタログに属していない場合は、フィールドを設定しないでください)。

スキーマ仕様の詳細:

<schemaSpec>

SCHEMA_SPEC_EMPTY_SCHEMA

SQLSTATE: 割り当てられていない

SchemaSpec の schema フィールドには空の文字列があります。

空の文字列を削除するか、スキーマ名を追加してください。 (このテーブルがソースのスキーマに属していない場合は、フィールドを設定しないでください。

スキーマ仕様の詳細:

<schemaSpec>

SCHEMA_SPEC_REQUIRE_ONE_OF_CATALOG_SCHEMA

SQLSTATE: 割り当てられていない

ソースカタログとソーススキーマの少なくとも 1 つが存在する必要があります。 しかし、どちらも空っぽです。

スキーマ仕様の詳細:

<schemaSpec>

SERVICENOW_CONNECTOR_INSTANCE_HIBERNATION_ERROR

SQLSTATE: KD000

ServiceNowでエラーが発生しました。 ソース API の種類: <saasSourceApiType>

ServiceNow インスタンスに接続できませんでした。 インスタンスが休止状態または非アクティブのようです。

ServiceNow 管理ポータルにログインし、インスタンスが完全にウェイクアップするまでしばらく待ちます。

再試行するには、パイプライン全体を再実行するか、この特定の宛先テーブルを更新します。 エラーが続く場合は、チケットを提出してください。

SERVICENOW_CONNECTOR_INVALID_TABLE_ERROR

SQLSTATE: KD000

ServiceNowでエラーが発生しました。 ソース API の種類: <saasSourceApiType>

テーブル '<tableName>' のスキーマをクエリできませんでした。 このユーザーの ServiceNow アカウントにテーブルが存在しません。

テーブル名に入力ミスがないか確認し、ユーザーがテーブルにアクセスするために必要な権限を持っていることを確認してください。

再試行するには、パイプライン全体を再実行するか、この特定の宛先テーブルを更新します。 エラーが続く場合は、チケットを提出してください。

SERVICENOW_CONNECTOR_MALFORMED_ENDPOINT_URL_ERROR

SQLSTATE: KD000

ServiceNowでエラーが発生しました。 ソース API の種類: <saasSourceApiType>

無効な ServiceNow API エンドポイント URL が検出されました。 URL 構造が予期される ServiceNow 形式と一致しません。

UC 接続資格情報で ServiceNow インスタンス構成を確認します。

詳細については、 SERVICENOW_CONNECTOR_MALFORMED_ENDPOINT_URL_ERROR

SERVICENOW_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR

SQLSTATE: KD000

ServiceNowでエラーが発生しました。 ソース API の種類: <saasSourceApiType>

詳細については、 SERVICENOW_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR

SET_TBLPROPERTIES_NOT_ALLOWED_FOR_DLT_DATASET

SQLSTATE: 0A000

ALTER <commandTableType> ... SET TBLPROPERTIES はサポートされていません。 テーブルのプロパティを変更するには、元の定義を変更して更新を実行してください。

SFDC_CONNECTOR_BULK_QUERY_JOB_INCOMPLETE

SQLSTATE: KD000

オブジェクト <objName> の取り込みは、Salesforce API クエリジョブに時間がかかりすぎたか、失敗したか、手動でキャンセルされたため、不完全です。

詳細については、 SFDC_CONNECTOR_BULK_QUERY_JOB_INCOMPLETE

SFDC_CONNECTOR_CREATE_BULK_QUERY_JOB_FAILED

SQLSTATE: KD000

Salesforce 一括 API クエリジョブの作成に失敗したため、オブジェクト <objName> の取り込みが不完全です。 エラーコード: <saasSourceApiErrorCode>

<actionText>.

SINKS_NOT_SUPPORTED_IN_SEG

SQLSTATE: 割り当てられていない

DLT シンクは、インターネットにないワークスペースではサポートされていません。 次のシンクが見つかりました。 <sinkNames>

START_PYTHON_REPL_TIMED_OUT

SQLSTATE: 割り当てられていない

Python REPL の開始を待機している間にタイムアウトします。 <timeoutSeconds>秒以上かかりました。

ストリーミング

SQLSTATE: 割り当てられていない

<command> コマンドのターゲット表<target>見つかりません。ターゲット テーブル <target> がパイプラインで定義されていません。

TABLE_SPEC_BOTH_CATALOG_SCHEMA_REQUIRED

SQLSTATE: 割り当てられていない

TableSpec にソース カタログやソース スキーマの 1 つがありません。

テーブル仕様の詳細:

<tableSpec>

TABLE_SPEC_EMPTY_CATALOG

SQLSTATE: 割り当てられていない

TableSpec の catalog フィールドに空の文字列があります。

空の文字列を削除するか、カタログ名を追加してください。 (このテーブルがソースのカタログに属していない場合は、フィールドを設定しないでください。

テーブル仕様の詳細:

<tableSpec>

TABLE_SPEC_EMPTY_SCHEMA

SQLSTATE: 割り当てられていない

TableSpec のスキーマ フィールドに空の文字列があります。

空の文字列を削除するか、スキーマ名を追加してください。 (このテーブルがソースのスキーマに属していない場合は、フィールドを設定しないでください。

テーブル仕様の詳細:

<tableSpec>

TABLE_SPEC_EMPTY_TABLE

SQLSTATE: 割り当てられていない

テーブル名が空です。 テーブル名を入力してください。

テーブル仕様の詳細:

<tableSpec>

TABLE_TOKEN_NOT_EXIST_FOR_SCHEMA_EVOLUTION_LEGACY_TABLE

SQLSTATE: 割り当てられていない

スキーマの進化は、メタデータがないために有効にできません。 完全な更新をトリガーしてください。

理由: スナップショット テーブル トークンは、スキーマ進化が有効な場合に定義する必要があります。

TRIGGER_INTERVAL_VALUE_INVALID

SQLSTATE: 22003

トリガー間隔は正の持続時間である必要があり、最大許容値は 2,147,483,647 秒です。 受信: <actual> 秒。

TRIGGER_SOURCE_TYPE_NOT_SUPPORTED

SQLSTATE: 0A000

種類が <type> のソース <source>は、現在 trigger でサポートされていません。

UC_CLEARING_TARGET_SCHEMA_NOT_ALLOWED

SQLSTATE: 割り当てられていない

のターゲット スキーマ フィールドをクリアすることは、UC パイプラインでは許可されません。 理由: <reason>

UC_TARGET_SCHEMA_REQUIRED

SQLSTATE: 割り当てられていない

ターゲット スキーマ フィールドは、UC パイプラインに必要です。 理由: <reason>

UNEXPECTED_PIPELINE_SCHEMA_PERMISSION_ERROR

SQLSTATE: 割り当てられていない

パイプライン <pipelineId>のスキーマ権限を確認しているときに予期しないエラーが発生しました。 Databricks サポートにお問い合わせください。

UNRESOLVED_SINK_PATH

SQLSTATE: 割り当てられていない

シンク <identifier> のストレージパスは解決できません。 Databricks サポートにお問い合わせください。

UNRESOLVED_TABLE_PATH

SQLSTATE: 割り当てられていない

<identifier> のストレージ・パスを解決できません。 Databricks サポートにお問い合わせください。

UNSUPPORTED_CHANNEL_FOR_DPM

SQLSTATE: 割り当てられていない

Direct Publishing の対応していないチャンネル Mode. 「CURRENT」か「PREVIEW」チャンネルのどちらかを期待していますが、「PREVIOUS」が手に入りました

UNSUPPORTED_COMMAND_IN_NON_DPM_PIPELINE

SQLSTATE: 割り当てられていない

<command> ダイレクト パブリッシング モードが有効な DLT パイプラインでのみサポート

UNSUPPORTED_COMMAND_IN_QUERY_DEFINITION

SQLSTATE: 割り当てられていない

'<command>' はクエリ定義ではサポートされていません。 コマンドをクエリ定義の外部に移動してください。 Python の DLT パイプラインの場合は、 '<command>' を @dlt.table(/@dlt.view() の外部に移動します。 デコレータ。 Scala の DLT パイプラインの場合は、'query' メソッドの外部に '<command>' を移動します。

UNSUPPORTED_FEATURE_FOR_WORKSPACE

SQLSTATE: 0A000

<featureName> は、お使いのワークスペースではサポートされていません。 Databricks サポートに連絡して、ワークスペースでこの機能を有効にしてください。

UNSUPPORTED_LANGUAGE

SQLSTATE: 0A000

ノートブック '<notebookPath>' の読み込みに失敗しました<language>。現在サポートされているのは <supportedLanguages> ノートブックのみです。

UNSUPPORTED_MANAGED_INGESTION_SOURCE_TYPE

SQLSTATE: 割り当てられていない

無効なマネージド インジェスト パイプライン定義、サポートされていないソース タイプ: <sourceType>

UNSUPPORTED_SAAS_INGESTION_TYPE

SQLSTATE: 割り当てられていない

提供されているインジェストの種類 <ingestionType> はサポートされていません。

この問題が解決しない場合は、Databricks サポートにお問い合わせください。

UNSUPPORTED_SPARK_SQL_COMMAND

SQLSTATE: 割り当てられていない

'<command>' は spark.sql("...") ではサポートされていません。 DLT PythonのAPI。 サポートされているコマンド: <supportedCommands>.

USE_CATALOG_IN_HMS

SQLSTATE: 割り当てられていない

USE CATALOG UC 対応 DLT パイプラインでのみサポートされます

VIEW_TEXT_NOT_SAVED_IN_UC

SQLSTATE: 割り当てられていない

Unity Catalog にクエリが保存されていないため、テーブル <tableName> を更新できません。 Databricks サポートにお問い合わせください。

WORKDAY_REPORT_URL_EMPTY

SQLSTATE: 割り当てられていない

Workday レポートの URL が空です。 少なくとも 1 つのレポートを提供する必要があります。

ワークスペース

SQLSTATE: 54000

このワークスペースでは既に '<maxActiveUpdates>' のアクティブなパイプラインが実行されているため、更新 ' '<updateId>' を開始できません。

ABAC_ROW_COLUMN_POLICIES_NOT_SUPPORTED_ON_ASSIGNED_CLUSTERS

SQLSTATE: 割り当てられていない

ポリシー ルールを通じて割り当てられた行フィルターまたは列マスクを使用したテーブル <tableFullName> に対するクエリは、割り当てられたクラスターではサポートされていません。

AZURE_ENTRA_CREDENTIALS_MISSING

SQLSTATE: 割り当てられていない

Azure Entra (別名 Azure Active Directory) の資格情報がありません。

Entraアカウントでログインしていることを確認してください

または、ユーザー設定> Git 統合で Azure DevOps 個人用アクセス トークン (PAT) を設定しています。

PAT を使用せず、Repos API で Azure DevOps を使用している場合は、

Azure Entra アクセス トークンを使用する必要があります。

Entra アクセス トークンを取得する手順については、https://docs.microsoft.com/azure/databricks/dev-tools/api/latest/aad/app-aad-トークン を参照してください。Azure

AZURE_ENTRA_CREDENTIALS_PARSE_FAILURE

SQLSTATE: 割り当てられていない

Azure Entra (Azure Active Directory) の資格情報でエラーが発生しました。 からログアウトしてみてください

エントラ https://portal.azure.com) そして、再度ログインします。

または、ユーザー設定>Git統合にアクセスして、設定することもできます

Azure DevOps 個人用アクセス トークンをアップします。

AZURE_ENTRA_LOGIN_ERROR

SQLSTATE: 割り当てられていない

Azure Active Directory の資格情報でエラーが発生しました。 からログアウトしてみてください

Azure Active Directory https://portal.azure.com) そして、再度ログインします。

CLEAN_ROOM_DELTA_SHARING_ENTITY_NOT_AUTHORIZED

SQLSTATE: 割り当てられていない

クリーンルーム delta sharing securable の認証情報生成はリクエストできません。

CLEAN_ROOM_HIDDEN_SECURABLE_PERMISSION_DENIED

SQLSTATE: 割り当てられていない

タイプ<securableType>と種類が<securableKind>の安全な<securableName>はクリーンルームシステムによって管理されており、ユーザーはアクセスできません。

CONSTRAINT_ALREADY_EXISTS

SQLSTATE: 割り当てられていない

名前 <constraintName> の制約がすでに存在する場合は、別の名前を選択してください。

CONSTRAINT_DOES_NOT_EXIST

SQLSTATE: 割り当てられていない

制約 <constraintName> が存在しません。

COULD_NOT_READ_REMOTE_REPOSITORY

SQLSTATE: 割り当てられていない

リモート リポジトリ (<repoUrl>を読み取れませんでした。

リモートのGitプロバイダーに移動して、次のことを確認してください。

  1. リモート Git リポジトリ URL は有効です。
  2. パーソナルアクセストークンまたはアプリパスワードには適切なリポジトリへのアクセス権があります。

COULD_NOT_RESOLVE_REPOSITORY_HOST

SQLSTATE: 割り当てられていない

<repoUrl>のホストを解決できませんでした。

CSMS_BEGINNING_OF_TIME_NOT_SUPPORTED

SQLSTATE: 割り当てられていない

パラメーター beginning_of_time を true にすることはできません。

CSMS_CONTINUATION_TOKEN_EXPIRED

SQLSTATE: 割り当てられていない

継続トークンに対して要求されたオブジェクトが見つかりませんでした。

CSMS_INVALID_CONTINUATION_TOKEN

SQLSTATE: 割り当てられていない

継続トークンが無効です。 原因: <msg>

CSMS_INVALID_MAX_OBJECTS

SQLSTATE: 割り当てられていない

パラメーター の <value> max_objects、期待値が [<minValue>, <maxValue>] にありません。

CSMS_INVALID_URI_FORMAT

SQLSTATE: 割り当てられていない

URI 形式が無効です。 予想されるボリューム (例: "/Volumes/catalog/schema/volume") またはクラウドストレージパス (例: "s3://some-uri")

Kafka

SQLSTATE: 割り当てられていない

Kafka トピックを提供する必要があります

CSMS_LOCATION_ERROR

SQLSTATE: 割り当てられていない

オブジェクトをリストできませんでした。 その場所に解決が必要な問題があります。 細部: <msg>

CSMS_LOCATION_NOT_KNOWN

SQLSTATE: 割り当てられていない

uri の場所が見つかりません <path>

CSMS_METASTORE_RESOLUTION_FAILED

SQLSTATE: 割り当てられていない

要求のメタストアを特定できません。

サービス

SQLSTATE: 割り当てられていない

サービスが無効になっています

CSMS_UNITY_CATALOG_ENTITY_NOT_FOUND

SQLSTATE: 割り当てられていない

Unity Catalog エンティティが見つかりません。 カタログ、スキーマ、ボリューム、および/または外部ロケーションが存在することを確認します。

CSMS_UNITY_CATALOG_EXTERNAL_LOCATION_DOES_NOT_EXIST

SQLSTATE: 割り当てられていない

Unity Catalog 外部ロケーションは存在しません。

CSMS_UNITY_CATALOG_EXTERNAL_STORAGE_OVERLAP

SQLSTATE: 割り当てられていない

URI が他のボリュームと重複している

CSMS_UNITY_CATALOG_METASTORE_DOES_NOT_EXIST

SQLSTATE: 割り当てられていない

要求のメタストアを特定できません。 メタストアが存在しません

CSMS_UNITY_CATALOG_PERMISSION_DENIED

SQLSTATE: 割り当てられていない

権限がありません

CSMS_UNITY_CATALOG_TABLE_DOES_NOT_EXIST

SQLSTATE: 割り当てられていない

Unity Catalog テーブルが存在しません。

CSMS_UNITY_CATALOG_VOLUME_DOES_NOT_EXIST

SQLSTATE: 割り当てられていない

Unity Catalog ボリュームが存在しません。

CSMS_URI_MISSING

SQLSTATE: 割り当てられていない

uri を指定する必要があります

CSMS_URI_TOO_LONG

SQLSTATE: 割り当てられていない

provided uri が長すぎます。 最大許容長は <maxLength>です。

DMK_CATALOGS_DISALLOWED_ON_CLASSIC_COMPUTE

SQLSTATE: 割り当てられていない

Databricks デフォルト Storage には、Classic コンピュートを使用してアクセスすることはできません。 サーバレス コンピュートを使用して、デフォルト Storage のデータにアクセスしてください

GITHUB_APP_COULD_NOT_REFRESH_CREDENTIALS

SQLSTATE: 割り当てられていない

リンクされた GitHub アプリの資格情報を更新できなかったため、操作が失敗しました。

もう一度やり直すか、[ユーザー設定] > [Git 統合] に移動して、Git プロバイダー アカウントを再リンクしてみてください。

問題が解決しない場合は、サポートチケットを提出してください。

GITHUB_APP_CREDENTIALS_NO_ACCESS

SQLSTATE: 割り当てられていない

GitHub アカウントへのリンクにはアクセス権がありません。 このエラーを修正するには:

  1. リポジトリの管理者は、次の場所に移動する必要がありますhttps://github.com/apps/databricks/installations/new に移動し、Databricks GitHub アプリをリポジトリにインストールします。

または、GitHub アカウントの所有者がアカウントにアプリケーションをインストールして、アカウントのリポジトリへのアクセス権を付与することもできます。

  1. アプリがすでにインストールされている場合は、管理者に依頼して、'Only select repositories' オプションでスコープ アクセスを使用している場合は、このリポジトリを選択してこのリポジトリへのアクセスが含まれていることを確認します。

詳細については、https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app を参照してください。

問題が解決しない場合は、サポートチケットを提出してください。

GITHUB_APP_EXPIRED_CREDENTIALS

SQLSTATE: 割り当てられていない

リンクされた GitHub アプリの資格情報は、6 か月間非アクティブだった後に期限切れになりました。

[ユーザー設定] > [Git 統合] に移動し、資格情報を再リンクしてみてください。

問題が解決しない場合は、サポートチケットを提出してください。

GITHUB_APP_INSTALL_ON_DIFFERENT_USER_ACCOUNT

SQLSTATE: 割り当てられていない

GitHub アカウントへのリンクにはアクセス権がありません。 このエラーを修正するには:

  1. GitHub ユーザーの<gitCredentialUsername>https://github.com/apps/databricks/installations/new に移動する必要があります をクリックし、アクセスを許可するためにアカウント <gitCredentialUsername> にアプリをインストールします。
  2. ユーザーがアプリを既にインストールしていて <gitCredentialUsername> 、[リポジトリのみを選択する] オプションでスコープ アクセスを使用している場合は、このリポジトリを選択して、このリポジトリへのアクセスが含まれていることを確認する必要があります。

詳細については、https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app を参照してください。

問題が解決しない場合は、サポートチケットを提出してください。

GITHUB_APP_INSTALL_ON_ORGANIZATION

SQLSTATE: 割り当てられていない

GitHub アカウントへのリンクにはアクセス権がありません。 このエラーを修正するには:

  1. GitHub 組織の所有者は、<organizationName>に移動する必要があります https://github.com/apps/databricks/installations/new をクリックし、組織の <organizationName> にアプリをインストールしてアクセスを許可します。
  2. アプリが GitHub Organization <organizationName>に既にインストールされている場合は、この組織の所有者に、スコープ付きアクセスを [Only select repositories] オプションで使用している場合に、このリポジトリを選択してこのリポジトリへのアクセスが含まれていることを確認してもらいます。

詳細については、https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app を参照してください。

問題が解決しない場合は、サポートチケットを提出してください。

GITHUB_APP_INSTALL_ON_YOUR_ACCOUNT

SQLSTATE: 割り当てられていない

GitHub アカウントへのリンクにはアクセス権がありません。 このエラーを修正するには:

  1. https://github.com/apps/databricks/installations/new に移動し、アカウントにアプリをインストールして<gitCredentialUsername>アクセスを許可します。
  2. アプリが既にインストールされており、[リポジトリのみを選択する] オプションでスコープ アクセスを使用している場合は、このリポジトリを選択して、このリポジトリへのアクセスが含まれていることを確認します。

詳細については、https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app を参照してください。

問題が解決しない場合は、サポートチケットを提出してください。

GIT_CREDENTIAL_GENERIC_INVALID

SQLSTATE: 割り当てられていない

リポジトリ URL の Git プロバイダー資格情報が無効です <repoUrl>.

現在の Git 資格情報プロバイダーは <gitCredentialProvider> で、ユーザー名は <gitCredentialUsername>です。

[ユーザー設定] > [Git 統合] に移動して、資格情報を表示します。

リモートのGitプロバイダーに移動して、次のことを確認してください。

  1. 正しい Git ユーザーEメールまたはユーザー名と Git プロバイダーの資格情報を入力しました。
  2. トークンまたはアプリのパスワードに正しいリポジトリアクセス権があります。
  3. トークンの有効期限が切れていません。
  4. GitプロバイダーでSSOを有効にした場合は、必ずトークンを承認してください。

GIT_CREDENTIAL_INVALID_PAT

SQLSTATE: 割り当てられていない

リポジトリ URL <repoUrl>の Git プロバイダのパーソナル アクセス トークン資格情報が無効です。

現在の Git 資格情報プロバイダーは <gitCredentialProvider> で、ユーザー名は <gitCredentialUsername>です。

[ユーザー設定] > [Git 統合] に移動して、資格情報を表示します。

リモートのGitプロバイダーに移動して、次のことを確認してください。

  1. 正しい Git ユーザーEメールまたはユーザー名と Git プロバイダーの資格情報を入力しました。
  2. トークンまたはアプリのパスワードに正しいリポジトリアクセス権があります。
  3. トークンの有効期限が切れていません。
  4. GitプロバイダーでSSOを有効にした場合は、必ずトークンを承認してください。

GIT_CREDENTIAL_MISSING

SQLSTATE: 割り当てられていない

Git 資格情報は構成されていませんが、このリポジトリには資格情報が必要です (<repoUrl>)。

[ユーザー設定] > [Git 統合] に移動して、Git 資格情報を設定します。

GIT_CREDENTIAL_NO_WRITE_PERMISSION

SQLSTATE: 割り当てられていない

リポジトリ (<repoUrl>) への書き込みアクセス権が付与されていません<gitCredentialProvider>

このリモートリポジトリへの書き込みアクセス権があることを確認します (<gitCredentialUsername>)。

GIT_CREDENTIAL_PROVIDER_MISMATCHED

SQLSTATE: 割り当てられていない

リポジトリの Git 資格情報プロバイダーが正しくありません。

現在の Git 資格情報のプロバイダー (<gitCredentialProvider>) がリポジトリの Git プロバイダーのプロバイダー <repoUrl>と一致しません。

別のリポジトリを試すか、ユーザー設定> Git 統合に移動して、Git 資格情報を更新してください。

GIT_PROXY_CLUSTER_NOT_READY

SQLSTATE: 割り当てられていない

プロキシGitクラスターの準備ができていません。

GIT_SECRET_IN_CODE

SQLSTATE: 割り当てられていない

コミットで見つかったシークレット。 詳細: <secretDetail>。 このエラーを修正するには:

シークレットを削除して、もう一度コミットしてみてください。

問題が解決しない場合は、サポートチケットを提出してください。

HIERARCHICAL_NAMESPACE_NOT_ENABLED

SQLSTATE: 割り当てられていない

Azure ストレージ アカウントで階層型名前空間が有効になっていません。

INVALID_FIELD_LENGTH

SQLSTATE: 割り当てられていない

<rpcName> <fieldName> 長すぎます。 最大長は <maxLength> 文字です。

INVALID_PARAMETER_VALUE

SQLSTATE: 割り当てられていない

<msg>

詳細については、 INVALID_PARAMETER_VALUE

ジョブ

SQLSTATE: 割り当てられていない

タスク フレームワーク: runId <runId> と orgId <orgId> のタスクのタスク実行出力が見つかりませんでした。

ジョブ

SQLSTATE: 割り当てられていない

タスクフレームワーク:runId <runId> と orgId <orgId> のタスクのタスク実行状態が見つかりませんでした。

ジョブ

SQLSTATE: 割り当てられていない

ID が <taskId> のタスクの RPC ClientConfig が存在しません。

ジョブ

SQLSTATE: 割り当てられていない

ID が <taskId> のタスクは存在しません。

ジョブ

SQLSTATE: 割り当てられていない

タスクレジストリ: サポートされていない、または不明な JobTask で、クラス <taskClassName>.

PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_EXTERNAL_SHALLOW_CLONE

SQLSTATE: 割り当てられていない

外部シャロークローン・テーブル・ <tableFullName> へのパス・ベースのアクセスはサポートされていません。 代わりに、テーブル名を使用してシャロークローンにアクセスしてください。

PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_FABRIC

SQLSTATE: 割り当てられていない

URL '<url>' にあるファブリック テーブルが見つかりません。 REFRESH FOREIGN CATALOGコマンドを使用して、Fabricテーブルにデータを格納してください。

PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_TABLES_WITH_ROW_COLUMN_ACCESS_POLICIES

SQLSTATE: 割り当てられていない

行フィルタまたは列マスクを使用したテーブル <tableFullName> へのパスベースのアクセスはサポートされていません。

PERMISSION_DENIED

SQLSTATE: 割り当てられていない

ユーザーは<resourceType> '<resourceName>' に<msg>を持っていません。

REDASH_DELETE_ASSET_HANDLER_INVALID_INPUT

SQLSTATE: 割り当てられていない

オブジェクト削除要求を解析できません: <invalidInputMsg>

REDASH_DELETE_OBJECT_NOT_IN_TRASH

SQLSTATE: 割り当てられていない

ごみ箱にないオブジェクト <resourceName> を削除できません

REDASH_PERMISSION_DENIED

SQLSTATE: 割り当てられていない

リソースが見つからないか、リソースにアクセスする権限がありません <resourceId>

REDASH_QUERY_NOT_FOUND

SQLSTATE: 割り当てられていない

クエリ ID からリソースが見つかりません <queryId>

REDASH_QUERY_SNIPPET_CREATION_FAILED

SQLSTATE: 割り当てられていない

新しいクエリ スニペットを作成できません

REDASH_QUERY_SNIPPET_QUOTA_EXCEEDED

SQLSTATE: 割り当てられていない

クエリ スニペットの数のクォータに達しました。 現在のクォータは <quota>です。

REDASH_QUERY_SNIPPET_TRIGGER_ALREADY_IN_USE

SQLSTATE: 割り当てられていない

指定したトリガー <trigger> は、このワークスペース内の別のクエリ スニペットによって既に使用されています。

リソース

SQLSTATE: 割り当てられていない

要求されたリソース <resourceName> が存在しません

REDASH_RESTORE_ASSET_HANDLER_INVALID_INPUT

SQLSTATE: 割り当てられていない

オブジェクト削除要求を解析できません: <invalidInputMsg>

REDASH_RESTORE_OBJECT_NOT_IN_TRASH

SQLSTATE: 割り当てられていない

ごみ箱にないオブジェクト <resourceName> 復元できません

REDASH_TRASH_OBJECT_ALREADY_IN_TRASH

SQLSTATE: 割り当てられていない

すでにゴミ箱に捨てられたオブジェクトをゴミ箱に入れることができません <resourceName>

REDASH_UNABLE_TO_GENERATE_RESOURCE_NAME

SQLSTATE: 割り当てられていない

id からリソース名を生成できませんでした <id>

REDASH_VISUALIZATION_CREATION_FAILED

SQLSTATE: 割り当てられていない

新しいビジュアライゼーションを作成できません

REDASH_VISUALIZATION_NOT_FOUND

SQLSTATE: 割り当てられていない

視覚化が見つかりませんでした <visualizationId>

REDASH_VISUALIZATION_QUOTA_EXCEEDED

SQLSTATE: 割り当てられていない

クエリ <query_id> の視覚化数のクォータに達しました。 現在のクォータは <quota>です。

REPOSITORY_URL_NOT_FOUND

SQLSTATE: 割り当てられていない

リモートリポジトリ (<repoUrl>) が見つかりません。

現在の Git 資格情報プロバイダーは <gitCredentialProvider> で、ユーザー名は <gitCredentialUsername>です。

リモートのGitプロバイダーに移動して、次のことを確認してください。

  1. リモート Git リポジトリ URL は有効です。
  2. パーソナルアクセストークンまたはアプリパスワードには適切なリポジトリへのアクセス権があります。

リソース

SQLSTATE: 割り当てられていない

<resourceType><resourceIdentifier>」はすでに存在します

リソース

SQLSTATE: 割り当てられていない

<resourceType><resourceIdentifier>」は存在しません。

ROW_COLUMN_ACCESS_POLICIES_NOT_SUPPORTED_ON_ASSIGNED_CLUSTERS

SQLSTATE: 割り当てられていない

行フィルターまたは列マスクを使用したテーブル <tableFullName> に対するクエリは、割り当てられたクラスターではサポートされていません。

ROW_COLUMN_SECURITY_NOT_SUPPORTED_WITH_TABLE_IN_DELTA_SHARING

SQLSTATE: 割り当てられていない

テーブル <tableFullName> は Delta Sharing と共有されており、行/列のセキュリティを使用できません。

サービス

SQLSTATE: 割り当てられていない

<serviceName>サービスは一時的にメンテナンス中です。しばらくしてからもう一度お試しください。

TABLE_WITH_ROW_COLUMN_SECURITY_NOT_SUPPORTED_IN_ONLINE_MODE

SQLSTATE: 割り当てられていない

テーブル <tableFullName> には、行/カラム・セキュリティとオンライン・マテリアライズド・ビューの両方を含めることはできません。

TOO_MANY_ROWS_TO_UPDATE

SQLSTATE: 割り当てられていない

更新する行が多すぎるため、更新を中止します。