Classes de erro na Databricks
Aplica-se a: Databricks SQL
Databricks Runtime 12.2e acima
As classes de erro são descritivas, legíveis por humanos, strings exclusivas da condição de erro.
Você pode usar classes de erro para lidar programaticamente com erros em seu aplicativo sem a necessidade de analisar a mensagem de erro.
Esta é uma lista de condições de erro comuns e nomeadas retornadas pela Databricks.
Databricks Runtime e Databricks SQL
ADD_DEFAULT_UNSUPPORTED
Falha ao executar o comando <statementType>
porque os valores DEFAULT
não são suportados ao adicionar novas colunas à fonte de dados de destino existente anteriormente com o provedor de tabela: "<dataSource>
".
FUNÇÃO_AGREGADA_COM_EXPRESSÃO_NÃO DETERMINÍSTICA
A expressão não determinística <sqlExpr>
não deve aparecer nos argumentos de uma função agregada.
IA
Falha ao analisar a saída do modelo ao converter para o returnType especificado: "<dataType>
", a resposta JSON foi: "<responseString>
". Atualize o returnType para que corresponda ao conteúdo do tipo representado pelo JSON da resposta e, em seguida, tente novamente a consulta.
IA
A saída real do modelo tem mais de uma coluna “<responseString>
”. No entanto, o tipo de retorno especificado [“<dataType>
”] tem somente uma coluna. Atualize o ReturnType para conter o mesmo número de colunas da saída do modelo e, em seguida, tente a consulta novamente.
IA
Ocorreu um erro ao fazer uma solicitação HTTP para a função <funcName>
: <errorMessage>
IA
Resposta HTTP inválida para a função <funcName>
: <errorMessage>
IA
O número máximo de palavras deve ser um número inteiro não negativo, mas obteve <maxWords>
.
IA
Os parâmetros de modelo fornecidos (<modelParameters>
) são inválidos na função AI_QUERY
para servir endpoint "<endpointName>
".
Para obter mais detalhes, consulte AI
IA
AI function: "<functionName>
" requer cadeias de caracteres <format>
válidas para o parâmetro responseFormat
, mas encontrou o seguinte formato de resposta: "<invalidResponseFormat>
". Exceção: <errorMessage>
IA
Ocorreu um erro ao analisar a resposta JSON para a função <funcName>
: <errorMessage>
IA
Falha ao analisar o esquema para o servidor endpoint "<endpointName>
": <errorMessage>
, a resposta JSON foi: "<responseJson>
".
Defina o parâmetro returnType
manualmente na função AI_QUERY
para substituir a resolução do esquema.
IA
A função <funcName>
não é suportada no ambiente atual. Ele está disponível apenas em Databricks SQL Pro e sem servidor.
IA
Falha ao avaliar a função SQL "<functionName>
" porque o argumento fornecido de <invalidValue>
tem "<invalidDataType>
", mas somente os seguintes tipos são suportados: <supportedDataTypes>
. Atualize a chamada da função para fornecer um argumento do tipo strings e tente novamente a consulta.
IA
Formato de resposta não suportado encontrado.
Para obter mais detalhes, consulte AI
IA
AI função: "<functionName>
" não é compatível com o seguinte tipo como tipo de retorno: "<typeName>
". O tipo de retorno deve ser um tipo SQL válido compreendido pelo Catalyst e suportado pela função AI. Os tipos atualmente suportados incluem: <supportedValues>
IA
O valor fornecido “<argValue>
” não é suportado pelo argumento “<argName>
”. Os valores suportados são: <supportedValues>
IA
O senhor esperava que o tipo de tarefa endpoint fosse "Chat" para suporte de saída estruturada, mas encontrou "<taskType>
" para o endpoint "<endpointName>
".
IA
O “<sqlExpr>
” fornecido não é suportado pelo argumento returnType.
IA
Parâmetros conflitantes detectados para a função SQL vector_search
: <conflictParamNames>
.<hint>
IA
vector_search
Não há suporte para a função SQL com o tipo de coluna incorporada <embeddingColumnType>
.
IA
vector_search
A função SQL está sem parâmetro de entrada de consulta. Especifique pelo menos um de: <parameterNames>
.
IA
O parâmetro query
para vector_search
A função SQL não é compatível com a pesquisa vetorial hybrid
. Em vez disso, use query_text
.
IA
O texto da consulta não foi encontrado na função SQL vector_search
para a pesquisa vetorial hybrid
. Forneça query_text
.
IA
vector_search
Não há suporte para a função SQL com tipo de índice <indexType>
.
IA
query_vector
deve ser especificado para o índice <indexName>
porque não está associado a um modelo de incorporação endpoint.
IA
Falha ao materializar vector_search
SQL consulta de função do tipo spark <dataType>
para Scala- objetos nativos durante a codificação da solicitação com erro: <errorMessage>
.
IA
vector_search
Não há suporte para a função SQL com tipo de consulta <unexpectedQueryType>
. Por favor, especifique um de: <supportedQueryTypes>
.
IA
vector_search
Não há suporte para a função SQL com num_results maior que <maxLimit>
. O limite especificado foi <requestedLimit>
. Tente novamente com num_results <= \<maxLimit\>
TODOS OS PARÂMETROS DEVEM SER NOMEADOS
O uso de consultas parametrizadas por nome exige que todos os parâmetros sejam nomeados. Nomes que faltam parâmetros: <exprs>
.
TODAS AS COLUNAS DE PARTIÇÃO NÃO SÃO PERMITIDAS
Não é possível usar todas as colunas para colunas de partição.
ALTER_SCHEDULE_NÃO_EXISTE
Não é possível alterar <scheduleType>
em uma tabela sem um programa ou acionador existente. Adicione um programar ou acionador à tabela antes de tentar alterá-la.
ALTER_TABLE_COLUMN_DESCRIPTOR_DUPLICATE
ALTER TABLE <type>
a coluna <columnName>
especifica o descritor “<optionName>
” mais de uma vez, o que é inválido.
ALIAS_AMBÍGUO_IN_NESTED_CTE
O nome <name>
é ambíguo no CTE aninhado.
Defina <config>
como “CORRECTED
” para que o nome definido no CTE interno tenha precedência. Se definido como “LEGACY
”, as definições externas de CTE terão precedência.
Consulte https://spark.apache.org/docs/latest/sql-migration-guide.html#query-engine '.
COLUNA OU CAMPO AMBÍGUO
A coluna ou campo <name>
é ambíguo e tem <n>
correspondências.
REFERÊNCIA DE COLUNA AMBÍGUA
A coluna <name>
é ambígua. Isso ocorre porque o senhor juntou vários DataFrame e alguns desses DataFrames são os mesmos.
Essa coluna aponta para um dos DataFrames, mas o Spark não consegue descobrir qual deles.
Antes de unir os DataFrames, o senhor deve criar um alias com nomes diferentes em DataFrame.alias
,
e especifique a coluna usando um nome qualificado, por exemplo df.alias("a").join(df.alias("b"), col("a.id") > col("b.id"))
.
RESTRIÇÃO_AMBÍGUA
Referência ambígua à restrição <constraint>
.
ALIAS AMBÍGUO_LATERAL_COLUMN_ALIAS
O alias <name>
da coluna lateral é ambíguo e tem <n>
correspondências.
REFERÊNCIA_AMBÍGUA
A referência <name>
é ambígua, pode ser: <referenceNames>
.
REFERÊNCIA_AMBÍGUA_PARA_CAMPOS
Referência ambígua ao campo <field>
. Ela aparece <count>
vezes no esquema.
ANALYZE_CONSTRAINTS_NOT_SUPPORTED
ANALYZE CONSTRAINTS
não é suportado.
ANSI_CONFIG_NÃO PODE SER DESATIVADO
A configuração ANSI SQL <config>
não pode ser desativada neste produto.
AQE_THREAD_INTERROMPIDO
O thread do AQE foi interrompido, provavelmente devido ao cancelamento da consulta pelo usuário.
ARGUMENTO NÃO CONSTANTE
A função <functionName>
inclui um parâmetro <parameterName>
na posição <pos>
que exige um argumento constante. Por favor, compute o argumento <sqlExpr>
separadamente e passe o resultado como uma constante.
ARITHMETIC_OVERFLOW
<message>
.<alternative>
Se necessário, defina <config>
como “false” para ignorar esse erro.
Para obter mais detalhes, consulte ARITHMETIC_OVERFLOW
ATRIBUIÇÃO_ARITY_MISCOMPATIBILIDADE
O número de colunas ou variáveis atribuídas ou com alias: <numTarget>
não corresponde ao número de expressões de origem: <numExpr>
.
A CONTAR_OF_JOIN
Invalid as-of join.
Para obter mais detalhes, consulte AS_OF_JOIN
padrão
Não há suporte para o uso dos valores de default quandorescuedDataColumn
está ativado. O senhor pode remover essa verificação definindo spark.databricks.sql.avro.rescuedDataBlockUserDefinedSchemaDefaultValue
como false, mas os valores de default não serão aplicados e os valores nulos ainda serão usados.
AVRO_INCOMPATIBLE_READ_TYPE
Não é possível converter Avro <avroPath>
para SQL <sqlPath>
porque o tipo de dados codificado original é <avroType>
, mas o senhor está tentando ler o campo como <sqlType>
, o que levaria a uma resposta incorreta.
Para permitir a leitura desse campo, ative a configuração SQL: "spark.sql.legacy.avro.allowIncompatibleSchema".
AVRO_POSITIONAL_FIELD_MATCHING_NÃO SUPORTADO
O uso da correspondência de campo posicional não é suportado quando rescuedDataColumn
ou failOnUnknownFields
estão habilitados. Remova essas opções para continuar.
lotes
Não foi possível encontrar o lote <batchMetadataFile>
.
AS OPÇÕES DO BIGQUERY SÃO MUTUAMENTE EXCLUSIVAS
As credenciais de conexão do BigQuery devem ser especificadas com o parâmetro "GoogleServiceAccountKeyJson" ou com todos os parâmetros "projectId", "OAuthServiceAcctEmail", "OAuthPvtKey".
ESTOURO ARITMÉTICO_BINÁRIO
<value1> <symbol> <value2>
causou transbordamento. Use <functionName>
para ignorar o problema de estouro e retornar NULL
.
Booleano
Boolean A declaração <invalidStatement>
é inválida. Esperava uma única linha com um valor do tipo BOOLEAN
, mas recebi uma linha vazia.
CATÁLOGO EMBUTIDO
<operation>
não é compatível com catálogos integrados.
CALL_ON_STREAMING_DATASET_NÃO SUPORTADO
O método <methodName>
não pode ser chamado no conjunto de dados de transmissão/DataFrame.
NÃO É POSSÍVEL ALTER_COLLATION_BUCKET_COLUMN
ALTER TABLE (ALTER|CHANGE) COLUMN
não é possível alterar o agrupamento de tipos/subtipos de colunas de compartimento, mas encontrei a coluna de compartimento <columnName>
na tabela <tableName>
.
NÃO É POSSÍVEL ALTERAR_PARTITION_COLUMN
ALTER TABLE (ALTER|CHANGE) COLUMN
não é compatível com colunas de partição, mas encontrei a coluna de partição <columnName>
na tabela <tableName>
.
NÃO É POSSÍVEL ATRIBUIR EVENT_TIME_COLUMN_WITHOUT_WATERMARK
A marca d'água precisa ser definida para reatribuir a coluna de horário do evento. Não foi possível encontrar a definição de marca d'água na consulta de transmissão.
NÃO É POSSÍVEL DIGITAR _CAST_DADOS
Não é possível transmitir <sourceType>
para <targetType>
.
NÃO É POSSÍVEL CONVERTER_PROTOBUF_FIELD_TYPE_EM SQL_TYPE
Não é possível converter Protobuf <protobufColumn>
em SQL <sqlColumn>
porque o esquema é incompatível (protobufType = <protobufType>
, sqlType = <sqlType>
).
NÃO É POSSÍVEL CONVERTER_PROTOBUF_MESSAGE_TYPE_TO_SQL_TYPE
Não é possível converter <protobufType>
de Protobuf para o tipo SQL <toType>
.
NÃO É POSSÍVEL CONVERTER_SQL_TYPE_EM _PROTOBUF_FIELD_TYPE
Não é possível converter o SQL <sqlColumn>
em Protobuf <protobufColumn>
porque o esquema é incompatível (protobufType = <protobufType>
, sqlType = <sqlType>
).
NÃO É POSSÍVEL CONVERTER_SQL_VALUE_TO_PROTOBUF_ENUM_TYPE
Não é possível converter o SQL <sqlColumn>
em Protobuf <protobufColumn>
porque <data>
não está nos valores definidos para o enum: <enumString>
.
NÃO É POSSÍVEL COPIAR_ESTADO
Não é possível copiar o estado do catálogo, como o banco de dados atual e a visualização temporária de Unity Catalog para um catálogo legado.
NÃO É POSSÍVEL CRIAR_DATA_SOURCE_TABLE
Falha ao criar a tabela de fontes de dados <tableName>
:
Para obter mais detalhes, consulte CANNOT_CREATE_DATA_SOURCE_TABLE
NÃO É POSSÍVEL DECODIFICAR O URL
O URL fornecido não pode ser decodificado: <url>
. Verifique se o URL está formatado corretamente e tente novamente.
NÃO É POSSÍVEL EXCLUIR_PERTENCENTE AO SISTEMA
O <resourceType>
de propriedade do sistema não pode ser excluído.
NÃO É POSSÍVEL DERRUPAR_AMBIGUOUS_CONSTRAINT
Não é possível eliminar a restrição com o nome <constraintName>
compartilhado por uma restrição CHECK
e uma restrição PRIMARY KEY
ou FOREIGN KEY
. Você pode descartar o PRIMARY KEY
ou
FOREIGN KEY
restrição por consultas:
ALTER TABLE
.. DROP PRIMARY KEY
ou
ALTER TABLE
.. DROP FOREIGN KEY
..
NÃO É POSSÍVEL ESTABELECER UMA CONEXÃO
Não é possível estabelecer conexão com o banco de dados <jdbcDialectName>
remoto. Verifique as informações de conexão e as credenciais, por exemplo. opções de host, porta, usuário, senha e banco de dados. ** Se o senhor acredita que as informações estão corretas, verifique a configuração de rede do seu workspacee certifique-se de que não haja restrições de saída para o host. Verifique também se o host não bloqueia as conexões de entrada da rede em que o clustering workspace's Spark está implantado. ** Mensagem de erro detalhada: <causeErrorMessage>
.
NÃO É POSSÍVEL ESTABELECER UMA CONEXÃO SEM SERVIDOR
Não é possível estabelecer conexão com o banco de dados <jdbcDialectName>
remoto. Verifique as informações de conexão e as credenciais, por exemplo. opções de host, porta, usuário, senha e banco de dados. ** Se o senhor acredita que as informações estão corretas, permita o tráfego de entrada da Internet para o seu host, pois está usando computação sem servidor. Se suas políticas de rede não permitirem o tráfego de entrada da Internet, use computação sem servidor ou entre em contato com seu representante Databricks para saber mais sobre redes privadas sem servidor. ** Mensagem de erro detalhada: <causeErrorMessage>
.
NÃO É POSSÍVEL INVOCAR_IN_TRANSFORMAÇÕES
As transformações e ações do conjunto de dados só podem ser invocadas pelo driver, não dentro de outras transformações do conjunto de dados; por exemplo, dataset1.map(x = > conjunto de dados2.values.count () * x) é inválido porque as transformações de valores e a ação de contagem não podem ser executadas dentro das transformações do dataset1.map. Para obter mais informações, consulte SPARK
-28702.
NÃO É POSSÍVEL CARREGAR_FUNCTION_CLASS
Não é possível carregar a classe <className>
ao registrar a função <functionName>
, verifique se ela está no classpath.
NÃO É POSSÍVEL CARREGAR _PROTOBUF_CLASS
Não foi possível carregar a classe Protobuf com o nome <protobufClassName>
. <explanation>
.
NÃO É POSSÍVEL CARREGAR_STATE_STORE
Ocorreu um erro durante o estado de carregamento.
Para obter mais detalhes, consulte CANNOT_LOAD_STATE_STORE
NÃO É POSSÍVEL MESCLAR_INCOMPATIBLE_DATA_TYPE
Falha em merge tipos de dados incompatíveis <left>
e <right>
. Verifique os tipos de dados das colunas que estão sendo mescladas e certifique-se de que sejam compatíveis. Se necessário, considere converter as colunas em tipos de dados compatíveis antes de tentar o merge.
NÃO É POSSÍVEL MESCLAR_ESQUEMAS
Falha na mesclagem de esquemas:
Esquema inicial:
<left>
Esquema que não pode ser mesclado com o esquema inicial:
<right>
.
NÃO É POSSÍVEL MODIFICAR_CONFIG
Não é possível modificar o valor da configuração do Spark: <key>
.
Veja também https://spark.apache.org/docs/latest/sql-migration-guide.html#ddl-statements '.
NÃO É POSSÍVEL ANALISAR_DECIMAL
Não é possível analisar decimal. Certifique-se de que a entrada seja um número válido com separadores opcionais de ponto decimal ou vírgula.
NÃO É POSSÍVEL ANALISAR_INTERVALO
Não é possível analisar <intervalString>
. Certifique-se de que o valor fornecido esteja em um formato válido para definir um intervalo. Você pode consultar a documentação para obter o formato correto. Se o problema persistir, verifique se o valor de entrada não é nulo ou vazio e tente novamente.
NÃO É POSSÍVEL ANALISAR_JSON_FIELD
Não é possível analisar o nome do campo <fieldName>
e o valor <fieldValue>
do tipo de tokens JSON <jsonType>
para direcionar o tipo de dados Spark <dataType>
.
NÃO É POSSÍVEL ANALISAR_PROTOBUF_DESCRIPTOR
Erro ao analisar bytes de descritor no Protobuf FileDescriptorSet.
NÃO É POSSÍVEL ANALISAR_TIMESTAMP
<message>
. Use <func>
para tolerar cadeias de caracteres de entrada inválidas e, em vez disso, retorne NULL
.
NÃO É POSSÍVEL CONSULTAR A TABELA DURANTE A INICIALIZAÇÃO
Não é possível consultar o MV/ST durante a inicialização.
Para obter mais detalhes, consulte CANNOT_QUERY_TABLE_DURING_INITIALIZATION
NÃO É POSSÍVEL LER O ARQUIVO ARQUIVADO
Não é possível ler o arquivo no caminho <path>
porque ele foi arquivado. Ajuste seus filtros de consulta para excluir arquivos arquivados.
NÃO É POSSÍVEL LER O ARQUIVO
Não é possível ler o arquivo <format>
no caminho: <path>
.
Para obter mais detalhes, consulte CANNOT_READ_FILE
NÃO É POSSÍVEL LER_SENSITIVE_KEY_FROM_SECURE_PROVIDER
Não é possível ler key '<key>
' sensível do provedor seguro.
NÃO É POSSÍVEL RECONHECER O TIPO DE HIVE
Cannot recognize hive type strings: <fieldType>
, coluna: <fieldName>
. O tipo de dados especificado para o campo não pode ser reconhecido pelo Spark SQL. Verifique o tipo de dados do campo especificado e certifique-se de que seja um tipo de dados Spark SQL válido. Consulte a documentação do Spark SQL para obter uma lista de tipos de dados válidos e seu formato. Se o tipo de dados estiver correto, verifique se o senhor está usando uma versão compatível do Spark SQL.
NÃO É POSSÍVEL REFERENCIAR_UC_IN_HMS
Não é possível fazer referência a um Unity Catalog <objType>
em objetos Hive metastore.
NÃO É POSSÍVEL REMOVER A PROPRIEDADE RESERVADA
Não é possível remover a propriedade reservada: <property>
.
NÃO É POSSÍVEL RENOMEAR_ACROSS_CATALOG
Não é permitido renomear um <type>
em todos os catálogos.
NÃO É POSSÍVEL RENOMEAR_ACROSS_SCHEMA
Não é permitido renomear um <type>
entre esquemas.
NÃO É POSSÍVEL RESOLVER_DATAFRAME_COLUMN
Não é possível resolver a coluna <name>
do dataframe. Provavelmente é por causa de referências ilegais como df1.select(df2.col("a"))
.
NÃO É POSSÍVEL RESOLVER_STAR_EXPAND
Não é possível resolver <targetString>
.* dadas as colunas de entrada <columns>
. Verifique se a tabela ou estrutura especificada existe e está acessível nas colunas de entrada.
NÃO É POSSÍVEL RESTAURAR_PERMISSIONS_PARA_PATH
Falha ao definir as permissões no caminho criado <path>
de volta para <permission>
.
NÃO PODE _SHALLOW_CLONE_ACROSS_UC_AND_HMS
Não é possível fazer a clonagem superficial de tabelas em Unity Catalog e Hive metastore.
NÃO É POSSÍVEL _SHALLOW_CLONE_NESTED
Não é possível clonar superficialmente uma tabela <table>
que já é um clone superficial.
NÃO É POSSÍVEL _SHALLOW_CLONE_NON_UC_MANAGED_TABLE_AS_SOURCE_OR_TARGET
O clone superficial só é compatível com o tipo de tabela MANAGED
. A tabela <table>
não é a tabela MANAGED
.
NÃO É POSSÍVEL ATUALIZAR O CAMPO
Não é possível atualizar o tipo <fieldName>
do campo <table>
:
Para obter mais detalhes, consulte CANNOT_UPDATE_FIELD
NÃO É POSSÍVEL USAR O TIPO DE DADOS
Não é possível transmitir <expression>
de <sourceType>
para <targetType>
.
<details>
NÃO PODE_USAR_KRYO
Não é possível carregar o codec de serialização Kryo. A serialização Kryo não pode ser usada no cliente Spark Connect. Use a serialização Java, forneça um Codec personalizado ou use o Spark Classic.
NÃO É POSSÍVEL VALIDAR A CONEXÃO
A validação da conexão <jdbcDialectName>
não é suportada. Entre em contato com o suporte da Databricks para obter soluções alternativas ou defina "spark.databricks.testConnectionBeforeCreation" para “false” para pular o teste de conexão antes de criar um objeto de conexão.
NÃO É POSSÍVEL ESCREVER_STATE_STORE
Erro ao gravar arquivos de armazenamento do estado para o provedor <providerClass>
.
Para obter mais detalhes, consulte CANNOT_WRITE_STATE_STORE
CAST_INVÁLIDA_ENTRADA
O valor <expression>
do tipo <sourceType>
não pode ser convertido em <targetType>
porque está malformado. Corrija o valor de acordo com a sintaxe ou altere seu tipo de destino. Use try_cast
para tolerar entradas malformadas e, em vez disso, retornar NULL
.
Para obter mais detalhes, consulte CAST_INVALID_INPUT
CAST_OVERFLOW
O valor <value>
do tipo <sourceType>
não pode ser convertido em <targetType>
devido a um estouro. Use try_cast
para tolerar o estouro e, em vez disso, retornar NULL
.
CAST_OVERFLOW_IN_TABLE_INSERT
Falha ao atribuir um valor do tipo <sourceType>
à coluna do tipo <targetType>
ou à variável <columnName>
devido a um estouro. Use try_cast
no valor de entrada para tolerar o estouro e, em vez disso, retornar NULL
.
CATÁLOGO NÃO ENCONTRADO
O catálogo <catalogName>
não foi encontrado. Considere a possibilidade de definir a configuração do SQL <config>
para um plug-in de catálogo.
CHECKPOINT_RDD_BLOCK_ID_NOT_FOUND
O bloco de checkpoint <rddBlockId>
não foi encontrado!
Ou o executor que originalmente fez o checkpoint dessa partição não está mais ativo ou o RDD original não tem mais existência.
Se esse problema persistir, considere usar rdd.checkpoint()
em vez disso, que é mais lento do que o checkpoint local, mas mais tolerante a falhas.
REFERÊNCIA DE CLASSE CIRCULAR
Não pode ter referências circulares na classe, mas obtive a referência circular da classe <t>
.
CLASS_NOT_OVERRIDE_EXPECTED_METHOD
<className>
deve substituir <method1>
ou <method2>
.
CLASS_UNSUPPORTED_BY_MAP_OBJECTS
MapObjects
não suporta a classe <cls>
como coleção resultante.
comando
O comando Clean Room não é suportado
CLEANROOM_INVALID_SHARED_DATA_OBJECT_NAME
Nome inválido para referenciar um <type>
dentro de uma sala limpa. Use o nome <type>
dentro da sala limpa seguindo o formato de [catálogo]. [esquema]. [<type>
].
Se não tiver certeza do nome a ser usado, o senhor pode executar "SHOW ALL IN CLEANROOM
[clean_room]" e usar o valor da coluna "name".
CLOUD_FILE_SOURCE_FILE_NOT_FOUND
Uma notificação de arquivo foi recebida para file: <filePath>
, mas ela não existe mais. Certifique-se de que os arquivos não sejam excluídos antes de serem processados. Para continuar sua transmissão, o senhor pode definir a configuração Spark SQL <config>
como verdadeira.
ERRO DO PROVEDOR DE NUVEM
Erro do provedor de nuvem: <message>
agrupamento
O clustering especificado não corresponde ao da tabela existente <tableName>
.
Especificado clustering colunas: [<specifiedClusteringString>
].
Colunas de clustering existentes: [<existingClusteringString>
].
agrupamento
'<operation>
' não oferece suporte a clustering.
agrupamento
Entre em contato com o representante da Databricks para ativar o recurso de clustering-by-auto.
agrupamento
Ative ClusteringTable.enableClusteringTableFeature para usar CLUSTER BY
AUTO.
agrupamento
CLUSTER BY
O AUTO exige que a Otimização Preditiva esteja ativada.
agrupamento
CLUSTER BY
O AUTO só é compatível com as tabelas gerenciadoras de UC.
CODEC_NÃO_DISPONÍVEL
O codec <codecName>
não está disponível.
Para obter mais detalhes, consulte CODEC_NOT_AVAILABLE
CODEC_SHORT_NAME_NOT_FOUND
Não é possível encontrar um nome curto para o codec <codecName>
.
NOME_INVÁLIDO_AGRUPAMENTO
O valor <collationName>
não representa um nome de agrupamento correto. Nomes de agrupamento válidos sugeridos: [<proposals>
].
PROVEDOR DE AGRUPAMENTO INVÁLIDO
O valor <provider>
não representa um provedor de agrupamento correto. Os provedores suportados são: [<supportedProviders>
].
INCOMPATIBILIDADE DE AGRUPAMENTO
Não foi possível determinar qual agrupamento usar para funções e operadores de cadeias de caracteres.
Para obter mais detalhes, consulte COLLATION_MISMATCH
COLLECTION_SIZE_LIMIT_EXCEEDED
Não é possível criar uma matriz com elementos <numberOfElements>
que excedam o limite de tamanho da matriz <maxRoundedArrayLength>
,
Para obter mais detalhes, consulte COLLECTION_SIZE_LIMIT_EXCEEDED
ALIASES DE COLUNA NÃO PERMITIDOS
Aliases de coluna não são permitidos em <op>
.
A COLUNA JÁ EXISTE
A coluna <columnName>
já existe. Escolha outro nome ou renomeie a coluna existente.
COLUMN_ARRAY_ELEMENT_TYPE_MISMATCH
Alguns valores no campo <pos>
são incompatíveis com o tipo de matriz de coluna. Tipo esperado <type>
.
COLUMN_MASKS_ABAC_MISMATCH
As máscaras de coluna não puderam ser resolvidas em <tableName>
porque havia uma incompatibilidade entre as máscaras de coluna herdadas de políticas e as máscaras de coluna definidas explicitamente. Para continuar, desative o Controle de acesso baseado em atributos (ABAC) e entre em contato com o suporte da Databricks.
COLUMN_MASKS_CHECK_CONSTRAINT_NÃO SUPORTADO
A criação da restrição CHECK
na tabela <tableName>
com políticas de máscara de coluna não é suportada.
MÁSCARAS DE COLUNA DUPLICADAS USANDO O NOME DA COLUNA
Uma declaração <statementType>
tentou atribuir uma política de máscara de coluna a uma coluna que incluía duas ou mais outras colunas referenciadas na lista USING COLUMNS
com o mesmo nome <columnName>
, o que é inválido.
COLUMN_MASKS_FEATURE_NOT_SUPPORTED
As políticas de máscara de coluna para <tableName>
não são suportadas:
Para obter mais detalhes, consulte COLUMN_MASKS_FEATURE_NOT_SUPPORTED
COLUMN_MASKS_INCOMPATIBLE_SCHEMA_CHANGE
Não é possível usar <statementType> <columnName>
da tabela <tableName>
porque ela é referenciada em uma política de máscara de coluna para a coluna <maskedColumn>
. O proprietário da tabela deve remover ou alterar essa política antes de continuar.
COLUMN_MASKS_MERGE_UNSUPPORTED_SOURCE
MERGE INTO
As operações não suportam políticas de máscara de coluna na tabela de origem <tableName>
.
COLUMN_MASKS_MERGE_UNSUPPORTED_TARGET
MERGE INTO
operações não suportam a gravação na tabela <tableName>
com políticas de máscara de coluna.
COLUMN_MASKS_MULTI_PART_TARGET_COLUMN_NAME
Essa declaração tentou atribuir uma política de máscara de coluna a uma coluna <columnName>
com várias partes de nome, o que é inválido.
MÁSCARAS DE COLUNA EM VÁRIAS PARTES USANDO O NOME DA COLUNA
Essa declaração tentou atribuir uma política de máscara de coluna a uma coluna e a lista USING COLUMNS
incluiu o nome <columnName>
com várias partes do nome, o que é inválido.
MÁSCARAS DE COLUNA NÃO ATIVADAS
O suporte para definir máscaras de coluna não está habilitado
COLUMN_MASKS_REQUIRE_UNITY_CATALOG
As políticas de máscara de coluna são compatíveis apenas com o Unity Catalog.
COLUMN_MASKS_SHOW_PARTITIONS_NÃO SUPORTADO
SHOW PARTITIONS
comando não é compatível com as tabelas\<format\>
com máscaras de coluna.
COLUMN_MASKS_TABLE_CLONE_SOURCE_NOT_SUPPORTED
<mode>
clone da tabela <tableName>
com políticas de máscara de coluna não é suportado.
COLUMN_MASKS_TABLE_CLONE_TARGET_NOT_SUPPORTED
<mode>
clone na tabela <tableName>
com políticas de máscara de coluna não é suportado.
COLUMN_MASKS_UNSUPPORTED_CONSTANT_AS_PARAMETER
O uso de uma constante como parâmetro em uma política de máscara de coluna não é suportado. Atualize seu comando SQL para remover a constante da definição da máscara de coluna e, em seguida, tente novamente o comando.
COLUMN_MASKS_UNSUPPORTED_PROVIDER
Falha ao executar <statementType>
comando porque a atribuição de políticas de máscara de coluna não é compatível com a fonte de dados de destino com o provedor de tabela: "<provider>
".
COLUMN_MASKS_UNSUPORTED_SUBQUERY
Não é possível executar <operation>
para a tabela <tableName>
porque ela contém uma ou mais políticas de máscara de coluna com expressões de subconsulta, que ainda não são suportadas. Entre em contato com o proprietário da tabela para atualizar as políticas de máscara de coluna e continuar.
MÁSCARAS DE COLUNA USANDO O NOME DA COLUNA IGUAL À COLUNA_COLUMN_COLUMN
A coluna <columnName>
tinha o mesmo nome da coluna de destino, o que é inválido; remova a coluna da lista USING COLUMNS
e tente novamente o comando.
COLUNA NÃO DEFINIDA NA TABELA
<colType>
a coluna <colName>
não está definida na tabela <tableName>
, as colunas definidas da tabela são: <tableCols>
.
COLUNA NÃO ENCONTRADA
A coluna <colName>
não pode ser encontrada. Verifique a ortografia e a exatidão do nome da coluna de acordo com a configuração do SQL <caseSensitiveConfig>
.
COLUNA_ORDINAL_OUT_OF_BOUNDS
Coluna ordinal fora dos limites. O número de colunas na tabela é <attributesLength>
, mas o ordinal da coluna é <ordinal>
.
Os atributos são os seguintes: <attributes>
.
ERRO DE RESTRIÇÃO PRECEDENTE POR VÍRGULA
',' inesperado antes da definição da (s) restrição (ões). Certifique-se de que a cláusula de restrição não comece com uma vírgula quando as colunas (e expectativas) não estiverem definidas.
COMMENT_ON_CONNECTION_NO_IMPLEMENTED_YET
O comando COMMENT ON CONNECTION
ainda não foi implementado
COMPARATOR_RETURNS_NULL
O comparador retornou um NULL
para uma comparação entre <firstValue>
e <secondValue>
.
Ele deve retornar um inteiro positivo para “maior que”, 0 para “igual” e um inteiro negativo para “menor que”.
Para reverter para um comportamento obsoleto em que NULL
é tratado como 0 (igual), você deve definir “spark.sql.legacy.allowNullComparisonResultinArraySort” como “true”.
ENTRADA_EXPRESSION_EXPRESSION_INSUPORTED_INPUT
Não é possível processar tipos de dados de entrada para a expressão: <expression>
.
Para obter mais detalhes, consulte COMPLEX_EXPRESSION_UNSUPPORTED_INPUT
concorrente
Outra instância dessa consulta [id: <queryId>
] acabou de ser iniciada por uma sessão concorrente [runId existente: <existingQueryRunId>
new runId: <newQueryRunId>
].
concorrente
O número mínimo de slots livres necessários no clustering é <numTasks>
, mas o clustering tem apenas <numSlots>
slots livres. A consulta será interrompida ou falhará. Aumentar o tamanho do clustering para prosseguir.
concorrente
atualização concorrente para o site log. Trabalho de transmissão múltipla detectado para <batchId>
.
Certifique-se de que apenas uma transmissão Job seja executada em um local de ponto de verificação específico por vez.
CONFIG_NOT_AVAILABLE
A configuração <config>
não está disponível.
ESTRUTURAS_DE_DIRETÓRIOS CONFLITANTES
Estruturas de diretórios conflitantes detectadas.
Caminhos suspeitos:
<discoveredBasePaths>
Se os caminhos fornecidos forem diretórios de partição, defina "basePath" nas opções da fonte de dados para especificar o diretório raiz da tabela.
Se houver vários diretórios raiz, carregue-os separadamente e, em seguida, una-os.
NOMES DE COLUNAS DE PARTIÇÃO CONFLITANTES
Nomes de colunas de partição conflitantes detectados:
<distinctPartColLists>
Para diretórios de tabelas particionadas, os arquivos de dados só devem estar em diretórios de folhas.
E diretórios no mesmo nível devem ter o mesmo nome de coluna de partição.
Verifique os seguintes diretórios em busca de arquivos inesperados ou nomes de colunas de partições inconsistentes:
<suspiciousPaths>
PROVEDOR CONFLITANTE
O provedor especificado <provider>
é inconsistente com o provedor de catálogo existente <expectedProvider>
. Por favor, use 'USING <expectedProvider>
' e tente novamente o comando.
CONECTAR
Erro genérico do Spark Connect.
Para obter mais detalhes, consulte CONNECT
A CONEXÃO_JÁ_EXISTE
Não é possível criar a conexão <connectionName>
porque ela já existe.
Escolha um nome diferente, elimine ou substitua a conexão existente ou adicione a cláusula IF NOT EXISTS
para tolerar conexões pré-existentes.
NOME_DA_CONEXÃO_NÃO_PODE_SER_VAZIO
Não é possível executar esse comando porque o nome da conexão deve ser não vazio.
CONEXÃO NÃO ENCONTRADA
Não é possível executar esse comando porque o nome da conexão <connectionName>
não foi encontrado.
OPÇÃO DE CONEXÃO_NÃO_SUPORTADA
As conexões do tipo '<connectionType>
' não suportam as seguintes opções: <optionsNotSupported>
. Opções suportadas: <allowedOptions>
.
TIPO DE CONEXÃO_NÃO_SUPORTADO
Não é possível criar uma conexão do tipo '<connectionType>
. Tipos de conexão suportados: <allowedTypes>
.
MIGRAÇÃO CONNECT_SESSION_MIGRATION
Erro genérico de migração de sessão (ID de usuário: <userId>
, ID de sessão: <sessionId>
, serverSessionID: <serverSessionId>
).
Para obter mais detalhes, consulte CONNECT_SESSION_MIGRATION
RESTRIÇÕES_REQUIRE_UNITY_CATALOG
As restrições de tabela são compatíveis apenas com o Unity Catalog.
ENTRADA_INVÁLIDA_CONVERSÃO
O valor <str> (<fmt>
) não pode ser convertido em <targetType>
porque está malformado. Corrija o valor de acordo com a sintaxe ou altere seu formato. Use <suggestion>
para tolerar entradas malformadas e, em vez disso, retornar NULL
.
COPIAR_INTO_COLUMN_ARITY_MISMATCH
Não consigo escrever para <tableName>
, o motivo é
Para obter mais detalhes, consulte COPY_INTO_COLUMN_ARITY_MISMATCH
COPIAR EM CREDENCIAIS NÃO PERMITIDAS
Esquema <scheme>
inválido. As credenciais de origem COPY INTO
atualmente suportam apenas s3/s3n/s3a/wasbs/abfss.
COPIAR_EM_CREDENCIAIS_OBRIGATÓRIO
COPY INTO
as credenciais de origem devem especificar <keyList>
.
COPIAR_EM_ARQUIVOS_DUPLICADOS_COPIAR_NÃO_PERMITIDO
Os arquivos duplicados foram confirmados em uma concorrente COPY INTO
operações. Tente novamente mais tarde.
COPIAR_INO_ENCRIPTYPTION_NO_ALLOWED_ON
Esquema <scheme>
inválido. A criptografia de origem COPY INTO
atualmente suporta apenas s3/s3n/s3a/abfss.
COPIAR_INTO_ENCRYPTION_NO_SUPORTED_FOR_AZURE
COPY INTO
A criptografia suporta apenas o ADLS Gen2 ou o esquema de arquivo abfss\://
COPIAR_PARA_ENCRIPTAÇÃO_OBRIGATÓRIO
COPY INTO
a criptografia de origem deve especificar '<key>
'.
COPIAR_INTO_ENCRYPTION_REQUIRED_WITH_EXPECTED
Opção de criptografia inválida <requiredKey>
. A criptografia de origem COPY INTO
deve especificar '<requiredKey>
' = '<keyValue>
'.
COPIAR_INTO_FEATURE_INCOMPATIBLE_SETTING_
O recurso COPY INTO
'<feature>
' não é compatível com '<incompatibleSetting>
'.
COPIAR_INTO_NON_BLIND_APPEND_NOT_ALLOWED
COPY INTO
que não seja anexar dados não tem permissão para execução simultânea com outras transações. Tente novamente mais tarde.
COPIAR_INTO_ROCKSDB_MAX_RETRY_EXCEEDED
COPY INTO
falhou ao carregar seu estado, o número máximo de tentativas foi excedido.
COPIAR_INTO_SCHEMA_MISMATCH_WITH_TARGET_TABLE
Foi detectada uma incompatibilidade de esquema durante a cópia para a tabela Delta (Tabela: <table>
).
Isso pode indicar um problema com os dados recebidos, ou o esquema da tabela Delta pode ser evoluído automaticamente de acordo com os dados recebidos por meio da configuração:
COPY_OPTIONS
('mergeSchema' = 'verdadeiro')
Diferença de esquema:
<schemaDiff>
COPIAR_INTO_SOURCE_FILE_FORMAT_NÃO SUPORTADO
O formato dos arquivos de origem deve ser um dos seguintes: CSV, JSON, AVRO, ORC, PARQUET
, TEXT ou BINARYFILE
. Não há suporte para o uso do COPY INTO
em tabelas Delta como fonte, pois dados duplicados podem ser ingeridos após as operações do OPTIMIZE
. Essa verificação pode ser desativada com a execução do comando SQL set spark.databricks.delta.copyInto.formatCheck.enabled = false
.
COPIAR_INTO_SOURCE_SCHEMA_INFERENCE_FAILED
O diretório de origem não continha nenhum arquivo analisável do tipo <format>
. Verifique o conteúdo de '<source>
'.
O erro pode ser silenciado definindo '<config>
' como 'false'.
COPIAR_INTO_STATE_INTERNAL_ERROR
Ocorreu um erro interno ao processar o estado COPY INTO
.
Para obter mais detalhes, consulte COPY_INTO_STATE_INTERNAL_ERROR
COPIAR_INTO_SYNTAX_ERROR
Falha ao analisar o comando COPY INTO
.
Para obter mais detalhes, consulte COPY_INTO_SYNTAX_ERROR
COPY_IN_IN_UNSUPPORTED_FEATURE
O recurso COPY INTO
'<feature>
' não é suportado.
COPY_UNLOAD_FORMAT_TYPE_NOT_SUPPORTED
Não é possível descarregar dados no formato '<formatType>
'. Os formatos suportados para <connectionType>
são: <allowedFormats>
.
CREATE_FOREIGN_SCHEMA_AINDA NÃO IMPLEMENTADO
O comando CREATE FOREIGN SCHEMA
ainda não foi implementado
CREATE_FOREIGN_TABLE_NÃO_IMPLEMENTADA_AINDA
O comando CREATE FOREIGN TABLE
ainda não foi implementado
CRIAR_OU_REFRESH_MV_ST_ASYNC
Não é possível CREATE
OU REFRESH
visualização materializada ou tabelas de transmissão com ASYNC
especificado. Remova ASYNC
da instrução CREATE
OR REFRESH
ou use REFRESH ASYNC
para refresh a visualização materializada existente ou as tabelas de transmissão de forma assíncrona.
CRIAR_VISUALIZAÇÃO_PERMANENTE_SEM ALIAS
Não é permitido criar o permanente view <name>
sem atribuir explicitamente um alias para a expressão <attr>
.
CREATE_TABLE_COLUMN_DESCRIPTOR_DUPLICATE
CREATE TABLE
a coluna <columnName>
especifica o descritor “<optionName>
” mais de uma vez, o que é inválido.
CREATE_VIEW_COLUMN_ARITY_MISMATCH
Não é possível criar view <viewName>
, o motivo é o seguinte
Para obter mais detalhes, consulte CREATE_VIEW_COLUMN_ARITY_MISMATCH
CREDENCIAL_AUSENTE
Forneça credenciais ao criar ou atualizar locais externos.
CSV_ENFORCE_SCHEMA_NOT_SUPPORTED
A opção CSV enforceSchema
não pode ser definida ao usar rescuedDataColumn
ou failOnUnknownFields
, pois as colunas são lidas por nome e não por ordinal.
REFERÊNCIA_FUNCIONAL_CÍCLICA
Referência de função cíclica detectada: <path>
.
DATABRICKS_DELTA_NOT_ENABLED
Databricks Delta não está habilitado em seu site account.<hints>
TIPO DE DADOS_INCOMPATIBILIDADE
Não é possível resolver <sqlExpr>
devido à incompatibilidade de tipos de dados:
Para obter mais detalhes, consulte DATATYPE_MISMATCH
TIPO DE DADO_MISSING_SIZE
O tipo de dados <type>
requer um parâmetro de comprimento, por exemplo <type>
(10). Por favor, especifique o comprimento.
DATA_LINEAGE_SECURE_VIEW_LEAF_NODE_NÃO TEM RELAÇÃO
Write Lineage malsucedido: falta de relação correspondente com as políticas do CLM/RLS.
A FONTE DE DADOS JÁ EXISTE
A fonte de dados '<provider>
' já existe. Escolha um nome diferente para a nova fonte de dados.
ERRO EXTERNO DA FONTE DE DADOS
O senhor encontrou um erro ao salvar em uma fonte de dados externa.
A FONTE DE DADOS NÃO EXISTE
A fonte de dados '<provider>
' não foi encontrada. Certifique-se de que a fonte de dados esteja registrada.
FONTE DE DADOS NÃO ENCONTRADA
Falha ao localizar a fonte de dados: <provider>
. Verifique se o nome do provedor está correto e se o pacote está registrado corretamente e é compatível com sua versão do Spark.
OPÇÃO_FONTE DE DADOS_CONTÊINS_CARACTERES_INVÁLIDOS
A opção <option>
não deve estar vazia e não deve conter caracteres inválidos, consulta strings, ou parâmetros.
A OPÇÃO_FONTE DE DADOS_É_OBRIGATÓRIA
A opção <option>
é obrigatória.
DATA_SOURCE_TABLE_SCHEMA_MISMATCH
O esquema da tabela fonte de dados não corresponde ao esquema esperado. Se o senhor estiver usando a API DataFrameReader.schema ou criando uma tabela, evite especificar o esquema.
fonte de dados schema: <dsSchema>
Esquema esperado: <expectedSchema>
URL DA FONTE DE DADOS _NÃO_PERMITIDA
JDBC O URL não é permitido nas opções de fonte de dados; em vez disso, especifique as opções 'host', 'port' e 'database'.
DATETIME_FIELD_OUT_OF_BOUNDS
<rangeMessage>
. Se necessário, defina <ansiConfig>
como “false” para ignorar esse erro.
DATETIME_OVERFLOW
Estouro de operações de data e hora: <operation>
.
DC_API_QUOTA_EXCEDIDO
O senhor excedeu a cota do site API para a fonte de dados <sourceName>
.
Para obter mais detalhes, consulte DC_API_QUOTA_EXCEEDED
ERRO_DE_CONEXÃO DC_
Falha ao fazer uma conexão com a fonte <sourceName>
. Código de erro: <errorCode>
.
Para obter mais detalhes, consulte DC_CONNECTION_ERROR
ERRO DA API DC_DYNAMICS_
Ocorreu um erro nas chamadas da API do Dynamics, errorCode: <errorCode>
.
Para obter mais detalhes, consulte DC_DYNAMICS_API_ERROR
ERRO DO DC_NETSUITE
Ocorreu um erro nas chamadas JDBC do Netsuite, errorCode: <errorCode>
.
Para obter mais detalhes, consulte DC_NETSUITE_ERROR
DC_SCHEMA_CHANGE_ERROR
SQLSTATE: nenhum atribuído
Uma mudança de esquema ocorreu na tabela <tableName>
da fonte <sourceName>
.
Para obter mais detalhes, consulte DC_SCHEMA_CHANGE_ERROR
ERRO DA API DC_SERVICENOW_API
Ocorreu um erro nas chamadas de API do ServiceNow, errorCode: <errorCode>
.
Para obter mais detalhes, consulte DC_SERVICENOW_API_ERROR
DC_SFDC_BULK_QUERY_JOB_INCOMPLETE
A ingestão do objeto <objName>
está incompleta porque o trabalho de consulta do Salesforce API demorou muito, falhou ou foi cancelado manualmente.
Para tentar novamente, o senhor pode reexecutar todo o site pipeline ou refresh essa tabela de destino específica. Se o erro persistir, registre um ticket. Job ID: <jobId>
. Job status: <jobStatus>
.
ERRO DA API DO DC_SHAREPOINT_API
Ocorreu um erro nas chamadas da API do Sharepoint, errorCode: <errorCode>
.
Para obter mais detalhes, consulte DC_SHAREPOINT_API_ERROR
ERRO DA API DE ORIGEM DA DC_SOURCE
Ocorreu um erro na chamada à API <sourceName>
. Fonte Tipo de API: <apiType>
. Código de erro: <errorCode>
.
Às vezes, isso pode acontecer quando o senhor atinge o limite da API <sourceName>
. Se o senhor não tiver excedido o limite da API, tente executar novamente o conector. Se o problema persistir, registre um ticket.
DC_UNSUPPORTED_ERROR
Ocorreu um erro não suportado na fonte de dados <sourceName>
.
Para obter mais detalhes, consulte DC_UNSUPPORTED_ERROR
ERRO DA API DC_WORKDAY_RAAS_API
Ocorreu um erro nas chamadas de API do Workday RAAS, errorCode: <errorCode>
.
Para obter mais detalhes, consulte DC_WORKDAY_RAAS_API_ERROR
A PRECISÃO_DECIMAL_EXCEDE_PRECISIÃO_MÁXIMA
A precisão decimal <precision>
excede a precisão máxima <maxPrecision>
.
padrão
O banco de dados padrão <defaultDatabase>
não existe, crie-o primeiro ou altere o banco de dados default para <defaultDatabase>
.
padrão
É possível que os arquivos subjacentes tenham sido atualizados. O senhor pode invalidar explicitamente o cache em Spark executando o comando 'REFRESH TABLE
tableName' em SQL ou recriando o conjunto de dados/DataFrame envolvido. Se o cache de disco estiver obsoleto ou os arquivos subjacentes tiverem sido removidos, o senhor poderá invalidar o cache de disco manualmente reiniciando o clustering.
padrão
A palavra-chave DEFAULT
em um comando MERGE
, INSERT
, UPDATE
ou SET VARIABLE
não pôde ser atribuída diretamente a uma coluna de destino porque fazia parte de uma expressão.
Por exemplo: UPDATE
SETc1 = DEFAULT
é permitido, mas UPDATE T
SETc1 =
default+ 1
não é permitido.
padrão
Falha ao executar o comando <statementType>
porque os valores DEFAULT
não são suportados para a fonte de dados de destino com o provedor de tabela: "<dataSource>
".
DESCREVE_JSON_NOT_EXTENDED
DESCRIBE TABLE
... AS JSON só é compatível quando [EXTENDED|FORMATTED
] é especificado.
Por exemplo: DESCRIBE EXTENDED <tableName>
AS JSON é suportado, mas DESCRIBE <tableName>
AS JSON não é.
DIFERENTE_DELTA_TABLE_READ_BY_STREAMING_SOURCE
A consulta de transmissão estava lendo de uma tabela Delta inesperada (id = '<newTableId>
').
Ele costumava ler de outra tabela Delta (id = '<oldTableId>
') de acordo com o ponto de verificação.
Isso pode acontecer quando você alterou o código para ler de uma nova tabela ou excluiu e
recriou uma tabela. Reverta sua alteração ou exclua seu ponto de verificação de consulta de transmissão
para reiniciar do zero.
DISTINCT_WINDOW_FUNCTION_NÃO SUPORTADO
Funções de janela distintas não são suportadas: <windowExpr>
.
DIVIDIR POR ZERO
Divisão por zero. Use try_divide
para tolerar que o divisor seja 0 e, em vez disso, retorne NULL
. Se necessário, defina <config>
como “false” para ignorar esse erro.
Para obter mais detalhes, consulte DIVIDE_BY_ZERO
DLT_EXPECTATIONS_NÃO_SUPORTADAS
As expectativas são suportadas apenas em um pipeline DLT.
visualização
MATERIALIZED
A visualização com uma cláusula CLUSTER BY
é suportada apenas em um DLT pipeline.
visualização
<mv>
são suportados somente em um pipeline DLT.
visualização
<mv>
Os esquemas com um tipo especificado são suportados somente em um pipeline DLT.
visualização
CONSTRAINT
As cláusulas em um view são compatíveis apenas com um DLT pipeline.
DROP_SCHEDULE_NÃO_EXISTE
Não é possível descartar o site SCHEDULE
em uma tabela sem um programa ou acionador existente.
NOMES_DE_CTE DUPLICADOS
A definição de CTE não pode ter nomes duplicados: <duplicateNames>
.
NOME_DO_DE_CAMPO DUPLICADO EM _ARROW_STRUCT
Nomes de campo duplicados no Arrow Struct não são permitidos, obtive <fieldNames>
.
CHAVE_MAP_CHAVE DUPLICADA
Foi encontrado um mapa duplicado key <key>
, verifique os dados de entrada.
Se quiser remover a chave duplicada, o senhor pode definir <mapKeyDedupPolicy>
como "LAST_WIN
" para que a key inserida por último tenha precedência.
NOME_MÉTRICA_DUPLICADO
O nome métricas não é exclusivo: <metricName>
. O mesmo nome não pode ser usado para métricas com resultados diferentes.
No entanto, são permitidas várias instâncias de métricas com o mesmo resultado e nome (por exemplo, o autoadesão).
ATRIBUIÇÕES_DUPLICADAS
As colunas ou variáveis <nameList>
aparecem mais de uma vez como alvos de atribuição.
CLÁUSULAS DUPLICADAS
Foram encontradas cláusulas duplicadas: <clauseName>
. Por favor, remova um deles.
CHAVE_DUPLICADA
Encontrada chave duplicada <keyColumn>
.
ATRIBUIÇÃO DE PARÂMETROS DE ROTINA DUPLICADOS
A chamada para a rotina <routineName>
é inválida porque inclui várias atribuições de argumentos para o mesmo nome de parâmetro <parameterName>
.
Para obter mais detalhes, consulte DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT
NOMES DE PARÂMETROS DE ROTINA DUPLICADOS
Foram encontrados nomes duplicados na lista de parâmetros da rotina definida pelo usuário <routineName>
: <names>
.
COLUNAS DE RETORNO DE ROTINAS DUPLICADAS
Coluna (s) duplicada (s) encontrada (s) na lista de colunas da cláusula RETURNS
da rotina definida pelo usuário <routineName>
: <columns>
.
EMITINDO LINHAS_OLDER_THAN_WATERMARK_NOT_ALLOWED
O nó anterior emitiu uma linha com EventTime=<emittedRowEventTime>
que é mais antiga que current_watermark_value=<currentWatermark>
Isso pode levar a problemas de correção nos operadores com estado no final do pipeline de execução.
Corrija a lógica do operador para emitir linhas após o valor atual da marca d'água global.
VALOR_DE_CAMPO JSON VAZIO
Falha ao analisar uma cadeia de caracteres vazia para o tipo de dados <dataType>
.
ARQUIVO_LOCAL_VAZIO_EM_STAGING_ACCESS_QUERY
Arquivo local vazio na consulta de teste <operation>
EMPTY_SCHEMA_NOT_SUPPORTED_FOR_DATASOURCE
A fonte de dados <format>
não suporta a gravação de esquemas vazios ou aninhados. Certifique-se de que o esquema de dados tenha pelo menos uma ou mais colunas.
CODIFICADOR NÃO ENCONTRADO
Não foi encontrado um codificador do tipo <typeName>
para a representação interna do Spark SQL.
Considere alterar o tipo de entrada para um dos suportados em '<docroot>
/sql-ref-datatypes.html'.
END_LABEL_WITHOUT_BEGIN_LABEL
End rótulo <endLabel>
não pode existir sem o begin rótulo.
END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_LATEST_WITH_TRIGGER_DISPONÍVEL AGORA
Algumas partições no(s) tópico(s) do Kafka informam que o deslocamento disponível é menor que o deslocamento final durante a execução da consulta com Trigger.AvailableNow. O erro pode ser temporário - reinicie sua consulta e relate se você ainda vê o mesmo problema.
compensação mais recente: <latestOffset>
, compensação final: <endOffset>
END_OFFSET_HAS_MAIOR OFFSET_FOR_TOPIC_PARTITION_THA_PREFETCHED
Para Kafka fonte de dados com Trigger.AvailableNow, o deslocamento final deve ter um deslocamento menor ou igual por cada partição de tópico do que o deslocamento pré-buscado. O erro pode ser temporário - reinicie sua consulta e relate se você ainda vê o mesmo problema.
deslocamento pré-buscado: <prefetchedOffset>
, deslocamento final: <endOffset>
.
ERROR_READING_AVRO_UNKNOWN_FINGERPRINT
Erro ao ler dados avro — encontrou uma impressão digital desconhecida: <fingerprint>
, não tenho certeza de qual esquema usar.
Isso poderia acontecer se você registrasse esquemas adicionais depois de iniciar seu contexto do Spark.
EVENT_LOG_REQUIRES_SHARED_COMPUTE
Não é possível consultar o evento logs de um cluster Assigned ou No Isolation Shared; em vez disso, use um cluster padrão (anteriormente compartilhado) ou um depósito Databricks SQL.
EVENT_LOG_INDISPONÍVEL
Nenhum evento logs disponível para <tableOrPipeline>
. Tente novamente mais tarde depois que os eventos forem gerados
EVENT_LOG_UNSUPORTED_TABLE_TYPE
O tipo de tabela <tableIdentifier>
é <tableType>
.
Consultar o evento logs só é compatível com visualização materializada, tabelas de transmissão ou pipeline DLT
EVENT_TIME_NÃO_ON_TIMESTAMP_TYPE
A hora do evento <eventName>
tem o tipo inválido <eventType>
, mas era esperado “TIMESTAMP
”.
EXCEDER O COMPRIMENTO DO LIMITE
Excede a limitação de comprimento do tipo char/varchar: <limit>
.
EXCEPT_NESTED_COLUMN_INVALID_TYPE
EXCEPT
A coluna <columnName>
foi resolvida e esperava-se que fosse StructType, mas encontrou o tipo <dataType>
.
EXCEPT_OVERLAPPING_COLUMNS
As colunas em uma lista EXCEPT
devem ser distintas e não sobrepostas, mas devem ter (<columns>
).
EXCEPT_RESOLVED_COLUMNS_WITHOUT_MATCH
EXCEPT
as colunas [<exceptColumns>
] foram resolvidas, mas não coincidem com nenhuma das colunas [<expandedColumns>
] da expansão estelar.
EXCEPT_UNRESOLVED_COLUMN_IN_STRUCT_EXPANSION
O nome da coluna/campo <objectName>
na cláusula EXCEPT
não pode ser resolvido. Você quis dizer uma das seguintes coisas: [<objectList>
]?
Observação: as colunas aninhadas na cláusula EXCEPT
podem não incluir qualificadores (nome da tabela, nome da coluna da estrutura principal etc.) durante uma expansão da estrutura; tente remover os qualificadores se eles forem usados com colunas aninhadas.
executor
Não há memória suficiente para criar a relação de transmissão <relationClassName>
. Tamanho da relação = <relationSize>
. Memória total usada por essa tarefa = <taskMemoryUsage>
. Executor Memory Manager métricas: onHeapExecutionMemoryUsed = <onHeapExecutionMemoryUsed>
, offHeapExecutionMemoryUsed = <offHeapExecutionMemoryUsed>
, onHeapStorageMemoryUsed = <onHeapStorageMemoryUsed>
, offHeapStorageMemoryUsed = <offHeapStorageMemoryUsed>
. [sparkPlanId: <sparkPlanId>
] Desative as transmissões para essa consulta usando 'set spark.sql.autoBroadcastJoinThreshold=-1' ou usando a dica join para forçar o embaralhamento join.
executor
Não há memória suficiente para armazenar a relação de transmissão <relationClassName>
. Tamanho da relação = <relationSize>
. Nível de armazenamento = <storageLevel>
. [sparkPlanId: <sparkPlanId>
] Desabilite as transmissões para essa consulta usando 'set spark.sql.autoBroadcastJoinThreshold=-1' ou usando a dica join para forçar o embaralhamento join.
ALIASES EXECUT_IMMEDIATE_DUPLICATE_ARGUMENT_ALIASES
A cláusula USING
desse comando EXECUTE IMMEDIATE
continha vários argumentos com o mesmo alias (<aliases>
), o que é inválido; atualize o comando para especificar aliases exclusivos e tente novamente.
ESPERE VISUALIZAÇÃO_PERMANENTE_NOT_TEMP
'<operation>
' espera um view permanente, mas <viewName>
é um view temporário.
ESPERAR_TABLE_NÃO_VIEW
'<operation>
' espera uma tabela, mas <viewName>
é um view.
Para obter mais detalhes, consulte EXPECT_TABLE_NOT_VIEW
EXPECT_VIEW_NOT_TABLE
A tabela <tableName>
não suporta <operation>
.
Para obter mais detalhes, consulte EXPECT_VIEW_NOT_TABLE
FALHA NA DECODIFICAÇÃO_DA EXPRESSÃO
Falha ao decodificar uma linha para um valor das expressões: <expressions>
.
FALHA NA CODIFICAÇÃO DA EXPRESSÃO
Falha ao codificar um valor das expressões: <expressions>
em uma linha.
O TIPO DE EXPRESSÃO NÃO É ORDENÁVEL
A expressão de coluna <expr>
não pode ser classificada porque seu tipo <exprType>
não pode ser ordenada.
ESQUEMA DE TABELA EXTERNA INVÁLIDO
Tabelas externas não suportam o esquema <scheme>
.
ESCOPO INVÁLIDO_REFRESH_INVÁLIDO DO TECIDO
Erro ao executar 'REFRESH FOREIGN <scope> <name>
'. Não é possível acessar refresh um Fabric <scope>
diretamente; em vez disso, use 'REFRESH FOREIGN CATALOG <catalogName>
' para acessar refresh o Fabric Catalog.
FALHA NA EXECUÇÃO_UDF
A função definida pelo usuário (<functionName>
: (<signature>
) = > <result>
) falhou devido a: <reason>
.
FALHA NA CHAMADA DE FUNÇÃO
Falha na preparação da função <funcName>
para chamada. Por favor, verifique os argumentos da função.
FALHADO_JDBC
Falha em JDBC <url>
nas operações:
Para obter mais detalhes, consulte FAILED_JDBC
TIPO DE ESTRUTURA DE ANÁLISE COM FALHA
Falha na análise da estrutura: <raw>
.
FALHA NA LEITURA DO ARQUIVO_DE_LEITURA
Erro ao ler o arquivo <path>
.
Para obter mais detalhes, consulte FAILED_READ_FILE
FALHOU_REGISTER_CLASS_WITH_KRYO
Falha ao registrar classes com o Kryo.
FALHOU_RENOME_PATH
Falha ao renomear <sourcePath>
para <targetPath>
, pois o destino já existe.
FALHOU_RENAME_TEMP_FILE
Falha ao renomear o arquivo temporário <srcPath>
para <dstPath>
, pois FileSystem.rename retornou false.
FALHA DE ROW_TO_JSON
Falha ao converter o valor da linha <value>
da classe <class>
para o tipo SQL de destino <sqlType>
no formato JSON.
FALHA NO CARREGAMENTO DA ROTINA
Falha ao carregar a rotina <routineName>
.
FALHOU EM ANALISAR MUITO COMPLEXO
A declaração, incluindo as possíveis funções SQL e a visualização referenciada, era muito complexa para ser analisada.
Para mitigar esse erro, divida a instrução em várias partes menos complexas.
recurso
O recurso <featureName>
não está ativado. Considere definir a configuração <configKey>
como <configValue>
para ativar esse recurso.
recurso
<feature>
não é compatível com o armazém Classic SQL. Para usar esse recurso, use um Pro ou serverless SQL warehouse.
recurso
<feature>
não é suportado sem o Unity Catalog. Para usar esse recurso, ative o Unity Catalog.
recurso
<feature>
não é suportado em seu ambiente. Para usar esse recurso, entre em contato com o suporte da Databricks.
O CAMPO JÁ EXISTE
Não é possível a coluna <op>
, porque <fieldNames>
já existe em <struct>
.
CAMPO NÃO ENCONTRADO
Esse campo de estrutura <fieldName>
não existe em <fields>
.
FILE_IN_STAGING_PATH_JAREADY_EXISTS
O arquivo no caminho de teste <path>
já existe, mas OVERWRITE
não está definido
GRUPOS DE MAPAS PLANOS COM STATE_USER_FUNCTION_ERROR
Ocorreu um erro na função fornecida pelo usuário em flatmapGroupsWithState. Motivo: <reason>
FORBIDDEN_DATASOURCE_IN_SERVERLESS
Não é permitido consultar a fonte de dados <source>
em serverless compute . Somente <allowlist>
fonte de dados é suportada em serverless compute.
OPERAÇÃO_PROIBIDA
As operações <statement>
não são permitidas no site <objectType>
: <objectName>
.
lotes
Ocorreu um erro na função fornecida pelo usuário em foreach lotes sink. Motivo: <reason>
PARA CADA ERRO DE FUNÇÃO DO USUÁRIO
Ocorreu um erro na função fornecida pelo usuário no foreach sink. Motivo: <reason>
INCOMPATIBILIDADE DE CHAVE ESTRANGEIRA
As colunas pai estrangeiras key <parentColumns>
não correspondem às colunas filho primárias key <childColumns>
.
O NOME DO OBJETO ESTRANGEIRO NÃO PODE ESTAR VAZIO
Não é possível executar esse comando porque o nome estrangeiro <objectType>
deve ser não vazio.
FONTES DE DADOS MÚLTIPLAS ENCONTRADAS
Foram detectadas várias fontes de dados com o nome '<provider>
'. Verifique se a fonte de dados não está registrada e localizada simultaneamente no classpath.
DE _JSON_CONFLICTING_SCHEMA_UPDATES
A inferência from_json encontrou atualizações de esquema conflitantes em: <location>
DE_JSON_CORRUPT_RECORD_COLUMN_IN_SCHEMA
from_json encontrou o nome da coluna CorruptRecord (<columnNameOfCorruptRecord>
) presente
em um objeto JSON e não pode mais prosseguir. Configure um valor diferente para
a opção 'ColumnNameOfCorruptRecord'.
DE _JSON_CORRUPT_SCHEMA
A inferência from_json não conseguiu ler o esquema armazenado em: <location>
FROM_JSON_INFERENCE_FAILED
from_json não conseguiu inferir o esquema. Em vez disso, forneça um.
DE _JSON_INFERENCE_NOT_SUPPORTED
A inferência from_json só é compatível com a definição de tabelas de transmissão
DE CONFIGURAÇÃO_JSON_INVÁLIDA_DE_CONFIGURAÇÃO
A configuração from_json é inválida:
Para obter mais detalhes, consulte FROM_JSON_INVALID_CONFIGURATION
DE _JSON_SCHEMA_EVOLUTION_FAILED
from_json não pôde evoluir de <old>
para <new>
OS PARÂMETROS DA FUNÇÃO DEVEM SER NOMEADOS
A função <function>
requer parâmetros nomeados. Nomes que faltam parâmetros: <exprs>
. Atualize a chamada da função para adicionar nomes para todos os parâmetros, por exemplo, <function>
(param_name = >...).
COLUNA_GERADA_COM_VALOR_PADRÃO
Uma coluna não pode ter um valor default e uma expressão de geração, mas a coluna <colName>
tem um valor default: (<defaultValue>
) e uma expressão de geração: (<genExpr>
).
GET_TABLES_BY_TYPE_UNSUPPORTED_BY_HIVE_VERSION
O Hive 2.2 e versões inferiores não são compatíveis com getTablesByType. Use o Hive 2.3 ou uma versão superior.
GET_WARMUP_TRACING_FAILED
Falha ao obter o rastreamento de aquecimento. Causa: <cause>
.
GET_WARMUP_TRACING_FUNCTION_NOT_ALLOWED
Função get_warmup_tracing () não permitida.
GRAPHITE_SINK_INVALID_PROTOCOL
Protocolo de grafite inválido: <protocol>
.
GRAPHITE_SINK_PROPERTY_MISSINK
O coletor de grafite requer a propriedade '<property>
'.
GROUPING_COLUMN_MISMATCH
A coluna de agrupamento (<grouping>
) não pode ser encontrada nas colunas de agrupamento <groupingColumns>
.
GROUPING_ID_COLUMN_MISMATCH
As colunas de grouping_id (<groupingIdColumn>
) não correspondem às colunas de agrupamento (<groupByColumns>
).
GROUPING_SIZE_LIMIT_EXCEEDED
O tamanho dos conjuntos de agrupamento não pode ser maior que <maxSize>
.
AGRUPAR POR AGREGADO
Funções agregadas não são permitidas em GROUP BY
, mas foram encontradas em <sqlExpr>
.
Para obter mais detalhes, consulte GROUP_BY_AGGREGATE
AGRUPAR POR AGREGADO
GROUP BY <index>
se refere a uma expressão <aggExpr>
que contém uma função agregada. Funções agregadas não são permitidas em GROUP BY
.
AGRUPAR POR POS_FORA DO INTERVALO
GROUP BY
a posição <index>
não está na lista de seleção (o intervalo válido é [1, <size>
]).
O TIPO DE EXPRESSÃO DE GRUPO NÃO É ORDENÁVEL
A expressão <sqlExpr>
não pode ser usada como uma expressão de agrupamento porque seu tipo de dados <dataType>
não é um tipo de dados ordenável.
HDFS_HTTP_ERROR
Ao tentar ler do HDFS, a solicitação HTTP falhou.
Para obter mais detalhes, consulte HDFS_HTTP_ERROR
HLL_INVALID_INPUT_SKETCH_BUFFER
Chamada inválida para <function>
; somente buffers de esboço HLL válidos são suportados como entradas (como aqueles produzidos pela função hll_sketch_agg
).
HLL_INVALID_LG_K
Chamada inválida para <function>
; o valor lgConfigK
deve estar entre <min>
e <max>
, inclusive: <value>
.
HLL_UNION_DIFFERENT_LG_K
Os esboços têm valores lgConfigK
diferentes: <left>
e <right>
. Defina o parâmetro allowDifferentLgConfigK
como true para chamar <function>
com valores lgConfigK
diferentes.
EXCEÇÃO DO ANALISADOR HÍBRIDO
Ocorreu uma falha ao tentar resolver uma consulta ou comando tanto com o analisador de ponto fixo legado quanto com o resolvedor de passagem única.
Para obter mais detalhes, consulte HYBRID_ANALYZER_EXCEPTION
IDENTIFICADOR_TOO_MANY_NAME_PARTS
<identifier>
não é um identificador válido, pois tem mais de 2 partes de nome.
OPÇÃO_GERADORA DE SEQUÊNCIA DUPLICADA EM COLUNAS DE IDENTIDADE
Opção de gerador de sequência de colunas IDENTITY
duplicada: <sequenceGeneratorOption>
.
COLUNAS DE IDENTIDADE _ILLEGAL_STEP
IDENTITY
a etapa da coluna não pode ser 0.
IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE
O tipo de dados <dataType>
não é compatível com as colunas IDENTITY
.
DIA DA SEMANA ILEGAL
Entrada ilegal para o dia da semana: <string>
.
STATE_STORE_VALUE ILEGAL
Valor ilegal fornecido ao armazenamento do estado
Para obter mais detalhes, consulte ILLEGAL_STATE_STORE_VALUE
OPÇÃO_URI_SCHEME_OF_CONNECTION_DE_CONNECTION_OPTION INAPROPRIADA
A conexão não pode ser criada devido ao esquema inadequado do URI <uri>
fornecido para a opção de conexão '<option>
'.
Esquema (s) permitido (s): <allowedSchemes>
.
Adicione um esquema se ele não estiver presente no URI ou especifique um esquema a partir dos valores permitidos.
COLUNA DINÂMICA INCOMPARÁVEL
Coluna dinâmica <columnName>
inválida. As colunas dinâmicas devem ser comparáveis.
TIPO_COLUNA_DE_COLUNA INCOMPATÍVEL
<operator>
só pode ser executado em tabelas com tipos de coluna compatíveis. A coluna <columnOrdinalNumber>
da tabela <tableOrdinalNumber>
é do tipo <dataType1>
, que não é compatível com <dataType2>
na mesma coluna da primeira tabela.<hint>
.
REGISTRO_DE_FONTE DE DADOS INCOMPATÍVEL
Detectou um DataSourceRegister incompatível. Remova a biblioteca incompatível do classpath ou atualize-a. Erro: <message>
DADOS INCOMPATÍVEIS PARA TABELA
Não é possível gravar dados incompatíveis para a tabela <tableName>
:
Para obter mais detalhes, consulte INCOMPATIBLE_DATA_FOR_TABLE
TIPOS DE JUNÇÃO INCOMPATÍVEIS
Os tipos join <joinType1>
e <joinType2>
são incompatíveis.
INCOMPATIBLE_VIEW_SCHEMA_CHANGE
A consulta SQL de view <viewName>
tem uma alteração de esquema incompatível e a coluna <colName>
não pode ser resolvida. Esperava colunas <expectedNum>
com o nome <colName>
, mas obtive <actualCols>
.
Tente recriar o site view executando: <suggestion>
.
DEFINIÇÃO_TIPO_DE_TIPO INCOMPLETA
Tipo complexo incompleto:
Para obter mais detalhes, consulte INCOMPLETE_TYPE_DEFINITION
COMPORTAMENTO_CROSS_VERSION INCONSISTENTE
Você pode obter um resultado diferente devido à atualização para
Para obter mais detalhes, consulte INCONSISTENT_BEHAVIOR_CROSS_VERSION
NÚMERO_DE_ARGUMENTOS INCORRETO
<failure>
, <functionName>
requer pelo menos <minArgs>
argumentos e no máximo <maxArgs>
argumentos.
TAXA DE AUMENTO DE CRESCIMENTO INCORRETA
O deslocamento máximo com <rowsPerSecond>
rowsPerSecond é <maxSeconds>
, mas 'RampUpTimeSeconds' é <rampUpTimeSeconds>
.
AGRUPAMENTO INDETERMINADO
Não foi possível determinar qual agrupamento usar para operações de strings. Use a cláusula COLLATE
para definir o agrupamento explicitamente.
AGRUPAMENTO INDETERMINADO EM EXPRESSÃO
O tipo de dados de <expr>
tem agrupamento indeterminado. Use a cláusula COLLATE
para definir o agrupamento explicitamente.
AGRUPAMENTO INDETERMINADO NO ESQUEMA
O esquema contém agrupamento indeterminado em: [<columnPaths>
]. Use a cláusula COLLATE
para definir o agrupamento explicitamente.
O ÍNDICE JÁ EXISTE
Não é possível criar o índice <indexName>
na tabela <tableName>
porque ele já existe.
ÍNDICE NÃO ENCONTRADO
Não é possível encontrar o índice <indexName>
na tabela <tableName>
.
INFINITE_STREAMING_TRIGGER_NÃO SUPORTADO
O tipo de acionador <trigger>
não é compatível com esse tipo de clustering.
Use um tipo de gatilho diferente, por exemplo Disponível agora, uma vez.
INSERT_COLUMN_ARITY_MISMATCH
Não consigo escrever para <tableName>
, o motivo é
Para obter mais detalhes, consulte INSERT_COLUMN_ARITY_MISMATCH
INSERT_PARTITION_COLUMN_ARITY_MISMATCH
Não é possível gravar em '<tableName>
', <reason>
:
Colunas da tabela: <tableColumns>
.
Colunas de partição com valores estáticos: <staticPartCols>
.
Colunas de dados: <dataColumns>
.
PERMISSÕES_INSUFICIENTES
Privilégios insuficientes:
<report>
PERMISSÕES_EXT_LOC INSUFICIENTES
O usuário <user>
não tem privilégios suficientes para a localização externa <location>
.
PERMISSÕES_INSUFICIENTES_NO_PROPRIETÁRIO
Não há proprietário para <securableName>
. Peça ao administrador que defina um proprietário.
PERMISSÕES DE PROPRIEDADE INSUFICIENTES
O usuário não possui <securableName>
.
PERMISSÕES_PROTEGÍVEIS INSUFICIENTES
O usuário não tem permissão <action>
em <securableName>
.
PERMISSÕES_SECURABLE_PARENT_OWNER INSUFICIENTES
O dono do <securableName>
é diferente do dono do <parentSecurableName>
.
CRED DE ARMAZENAMENTO DE PERMISSÕES INSUFICIENTES
A credencial de armazenamento <credentialName>
tem privilégios insuficientes.
PERMISSÕES_SUBJACENTES_SEGURÁVEIS INSUFICIENTES
O usuário não pode usar <action>
em <securableName>
por causa das permissões nos protegíveis subjacentes.
PERMISSÕES_SUBJACENTES INSUFICIENTES_SEGURABLES_VERBOSE
O usuário não pode usar <action>
em <securableName>
por causa das permissões nos protegíveis subjacentes:
<underlyingReport>
INTERVAL_ARITHMETIC_OVERFLOW
Estouro de números inteiros ao operar com intervalos.
Para obter mais detalhes, consulte INTERVAL_ARITHMETIC_OVERFLOW
INTERVALO_DIVIDIDO_POR_ZERO
Divisão por zero. Use try_divide
para tolerar que o divisor seja 0 e, em vez disso, retorne NULL
.
FILTRO AGREGADO INVÁLIDO
A expressão FILTER
<filterExpr>
em uma função agregada é inválida.
Para obter mais detalhes, consulte INVALID_AGGREGATE_FILTER
ÍNDICE_DE_MATRIZ INVÁLIDO
O índice <indexValue>
está fora dos limites. A matriz tem elementos <arraySize>
. Use a função SQL get()
para tolerar o acesso ao elemento em um índice inválido e, em vez disso, retorne NULL
.
Para obter mais detalhes, consulte INVALID_ARRAY_INDEX
ÍNDICE_DE_ARRAY_IN_ELEMENT_AT INVÁLIDO
O índice <indexValue>
está fora dos limites. A matriz tem elementos <arraySize>
. Use try_element_at
para tolerar o acesso ao elemento em um índice inválido e, em vez disso, retorne NULL
.
Para obter mais detalhes, consulte INVALID_ARRAY_INDEX_IN_ELEMENT_AT
SINTAXE INVÁLIDA DO NOME_ATRIBUTO_ATRIBUTO
Erro de sintaxe no nome do atributo: <name>
. Verifique se os backticks aparecem em pares, se uma cadeia de caracteres entre aspas é uma parte completa do nome e use um backtick somente dentro de partes de nomes entre aspas.
AUTENTICAÇÃO INVÁLIDA_AWS_
Escolha exatamente um dos seguintes métodos de autenticação:
- Forneça o nome de sua credencial de serviço Databricks (
<serviceCredential>
) (como uma opção de transmissão de faísca ou como uma variável de ambiente de clustering). - Forneça a AWS AccessKey (
<awsAccessKey>
) e a SecretAccessKey (<awsSecretKey>
) para usar a chave AWS. - Não forneça nem a chave AWS nem uma credencial de serviço Databricks para usar a cadeia de provedores de credenciais default AWS para autenticação Kinesis.
OPÇÕES_AWS_AUTHENTICATION_EXPLÍCITAS INVÁLIDAS
Forneça o nome de sua credencial de serviço da Databricks (<serviceCredential>
)
OU ambos <awsAccessKey>
e <awsSecretKey>
POSIÇÃO_BITMAP INVÁLIDA
A posição <bitPosition>
do bitmap indexado em 0 está fora dos limites. O bitmap tem <bitmapNumBits>
bits (<bitmapNumBytes>
bytes).
DECLARAÇÃO_BOOLEANA INVÁLIDA
Boolean é esperado na condição, mas <invalidStatement>
foi encontrado.
LIMITE_INVÁLIDO
O limite <boundary>
é inválido: <invalidValue>
.
Para obter mais detalhes, consulte INVALID_BOUNDARY
TIPO DE DADOS INVÁLIDO_BUCKET_COLUMN_DA_COLUNA
Não é possível usar <type>
para coluna de balde. Os tipos de dados agrupados não são compatíveis com o agrupamento.
ARQUIVO_DE_DE_BUCKET INVÁLIDO
Arquivo de bucket inválido: <path>
.
CADEIA DE BYTES INVÁLIDA
O formato esperado é ByteString, mas era <unsupported> (<class>
).
NOME_DA_COLUNA_AS_CAMINHO INVÁLIDO
A fonte de dados <datasource>
não pode salvar a coluna <columnName>
porque seu nome contém alguns caracteres que não são permitidos em caminhos de arquivo. Por favor, use um alias para renomeá-lo.
TIPO DE DADOS DE COLUNA OU CAMPO INVÁLIDO
A coluna ou campo <name>
é do tipo <type>
, embora seja necessário ser <expectedType>
.
VALOR_CONF_DE_INVÁLIDO
O valor '<confValue>
' na configuração “<confName>
” é inválido.
Para obter mais detalhes, consulte INVALID_CONF_VALUE
TIPO_DE_REGISTRO_CORRUPTO INVÁLIDO
A coluna <columnName>
para registros corrompidos deve ter o tipo STRING
anulável, mas obteve <actualType>
.
USO DO DESTINATÁRIO ATUAL INVÁLIDO
current_recipient
A função só pode ser usada no comando CREATE VIEW
ou no comando ALTER VIEW
para definir uma ação somente view em Unity Catalog.
CURSOR INVÁLIDO
O cursor é inválido.
Para obter mais detalhes, consulte INVALID_CURSOR
PADRÃO_DE_DATA E HORA INVÁLIDO
Padrão de data e hora não reconhecido: <pattern>
.
Para obter mais detalhes, consulte INVALID_DATETIME_PATTERN
VALOR_PADRÃO INVÁLIDO
Falha ao executar o comando <statement>
porque a coluna ou variável de destino <colName>
tem um valor DEFAULT
<defaultValue>
,
Para obter mais detalhes, consulte INVALID_DEFAULT_VALUE
VALOR_DELIMITADOR INVÁLIDO
Valor inválido para delimitador.
Para obter mais detalhes, consulte INVALID_DELIMITER_VALUE
CATÁLOGO_DEST_INVÁLIDO
O catálogo de destino do comando SYNC
deve estar no Unity Catalog. Encontrou <catalog>
.
MEMÓRIA_DO_DRIVER INVÁLIDA
A memória do sistema <systemMemory>
deve ser pelo menos <minSystemMemory>
.
Aumente o tamanho do heap usando a opção -driver-memory ou "<config>
" na configuração do Spark.
OPÇÕES_DINÂMICAS INVÁLIDAS
As opções passadas<option_list> são proibidas para a tabela estrangeira<table_name>.
LOCALIZAÇÃO_VAZIA_INVÁLIDA
O nome do local não pode ser uma cadeia de caracteres vazia, mas <location>
foi fornecido.
ESC INVÁLIDO
Foi encontrada uma cadeia de caracteres de escape inválida: <invalidEscape>
. As cadeias de escape devem conter apenas um caractere.
CARACTERE DE ESCAPE INVÁLIDO
EscapeChar
deveria ser um literal de cadeia de caracteres de comprimento um, mas obteve <sqlExpr>
.
MEMÓRIA_EXECUTOR_INVÁLIDA
A memória do executor <executorMemory>
deve ser, no mínimo, <minSystemMemory>
.
Aumente a memória do executor usando a opção -executor-memory ou "<config>
" na configuração do Spark.
CODIFICADOR DE EXPRESSÃO INVÁLIDO
Foi encontrado um codificador de expressão inválido. Espera uma instância de ExpressionEncoder, mas obteve <encoderType>
. Para obter mais informações, consulte '<docroot>
/api/java/index.html?org/apache/spark/sql/Encoder.html'.
TIPO_EXTERNO_EXTERNO INVÁLIDO
O tipo externo <externalType>
não é válido para o tipo <type>
na expressão <expr>
.
TIPO_DE_EXTRACT_BASE_FIELD_INVÁLIDO
Não é possível extrair um valor de <base>
. Precisa de um tipo complexo [STRUCT
, ARRAY
, MAP
], mas tenho <other>
.
CAMPO DE EXTRAÇÃO INVÁLIDO
Não é possível extrair <field>
de <expr>
.
TIPO_DE_EXTRAÇÃO INVÁLIDO
O nome do campo deve ser um literal de cadeia de caracteres não nulo, mas é <extraction>
.
NOME_DE_CAMPO INVÁLIDO
O nome do campo <fieldName>
é inválido: <path>
não é uma estrutura.
FORMATO_DE_VÁLIDO
O formato é inválido: <format>
.
Para obter mais detalhes, consulte INVALID_FORMAT
FRAÇÃO_DE_SEGUNDO INVÁLIDA
O intervalo válido para segundos é [0, 60] (inclusive), mas o valor fornecido é <secAndMicros>
. Para evitar esse erro, use try_make_timestamp
, que retorna NULL
em caso de erro.
Se o senhor não quiser usar a versão de registro de data e hora da sessão default dessa função, use try_make_timestamp_ntz
ou try_make_timestamp_ltz
.
IDENTIFICADOR INVÁLIDO
O identificador <handle>
é inválido.
Para obter mais detalhes, consulte INVALID_HANDLE
MÉTODO DE SOLICITAÇÃO DE HTTP INVÁLIDO
O parâmetro de entrada: method, value: <paramValue>
não é um parâmetro válido para http_request porque não é um método HTTP válido.
CAMINHO DE SOLICITAÇÃO HTTP INVÁLIDO
O parâmetro de entrada: path, value: <paramValue>
não é um parâmetro válido para http_request porque a travessia do caminho não é permitida.
IDENTIFICADOR INVÁLIDO
O identificador sem aspas <ident>
é inválido e deve ser citado novamente como: <ident>
.
Os identificadores sem aspas só podem conter letras ASCII
('a' - 'z', 'A' - 'Z'), dígitos ('0' - '9') e barra inferior ('_').
Os identificadores não citados também não devem começar com um dígito.
Diferentes fontes de dados e meta stores podem impor restrições adicionais aos identificadores válidos.
ÍNDICE_DE_ZERO INVÁLIDO
O índice 0 é inválido. Um índice deve ser< 0 or > 0 (o primeiro elemento tem índice 1).
TABELA_INLINE_INVÁLIDA
Tabela embutida inválida.
Para obter mais detalhes, consulte INVALID_INLINE_TABLE
FORMATO DE INTERVALO INVÁLIDO
Erro ao analisar '<input>
' no intervalo. Certifique-se de que o valor fornecido esteja em um formato válido para definir um intervalo. Você pode consultar a documentação para obter o formato correto.
Para obter mais detalhes, consulte INVALID_INTERVAL_FORMAT
INTERVALO_DE_INVÁLIDO_COM_ADIÇÃO DE MICROSSEGUNDOS
Não é possível adicionar um intervalo a uma data porque sua parte de microssegundos não é 0. Se necessário, defina <ansiConfig>
como “false” para ignorar esse erro.
FUNÇÃO_DISTRIBUIÇÃO_INVERSA_INVÁLIDA
Função de distribuição inversa inválida <funcName>
.
Para obter mais detalhes, consulte INVALID_INVERSE_DISTRIBUTION_FUNCTION
IDENTIFICADOR_DE_JAVA_NOME_DE_CAMPO INVÁLIDO
<fieldName>
não é um identificador válido de Java e não pode ser usado como nome de campo
<walkedTypePath>
.
INVÁLIDO_JOIN_TYPE_FOR_JOINWITH
Invalid join type in joinWith: <joinType>
.
TIPO DE DADOS JSON_INVÁLIDO
Falha ao converter a cadeia de caracteres JSON '<invalidType>
' em um tipo de dados. Insira um tipo de dados válido.
TIPO DE DADOS PARA AGRUPAMENTOS INVÁLIDO JSON_JSON_TYPE_FOR_COLLATIONS
Os agrupamentos só podem ser aplicados a tipos de strings, mas o tipo de dados JSON é <jsonType>
.
TIPO DE REGISTRO JSON_INVÁLIDO
Detectou um tipo inválido de um registro JSON ao inferir um esquema comum no modo <failFastMode>
. Esperava um tipo STRUCT
, mas encontrei <invalidType>
.
CAMPO RAIZ JSON_JSON INVÁLIDO
Não é possível converter o campo raiz JSON para o tipo Spark de destino.
TIPO INVÁLIDO_JSON_SCHEMA_MAP_MAP
O esquema de entrada <jsonSchema>
só pode conter STRING
como um tipo key para um MAP
.
TAMANHO INVÁLIDO DO BUFFER_KRYO_SERIALIZER
O valor da configuração “<bufferSizeConfKey>
” deve ser menor que 2048 MiB, mas obteve <bufferSizeConfValue>
MiB.
USO INVÁLIDO DO RÓTULO
O uso do rótulo <labelName>
é inválido.
Para obter mais detalhes, consulte INVALID_LABEL_USAGE
CHAMADA DE FUNÇÃO LAMBDA INVÁLIDA
Chamada de função lambda inválida.
Para obter mais detalhes, consulte INVALID_LAMBDA_FUNCTION_CALL
TIPO DE JUNÇÃO LATERAL INVÁLIDO
A união <joinType>
com correlação LATERAL
não é permitida porque uma subconsulta OUTER
não pode se correlacionar com seus join parceiros. Remova a correlação LATERAL
ou use uma união INNER
ou uma união LEFT OUTER
.
EXPRESSÃO SEMELHANTE A UM LIMITE INVÁLIDO
O limite, como a expressão <expr>
, é inválido.
Para obter mais detalhes, consulte INVALID_LIMIT_LIKE_EXPRESSION
CAMINHO_NÃO_ABSOLUTO INVÁLIDO
O caminho não absoluto fornecido <path>
não pode ser qualificado. Atualize o caminho para que seja um local de montagem dbfs válido.
EXPRESSÕES_NÃO_DETERMINÍSTICAS INVÁLIDAS
O operador espera uma expressão determinística, mas a expressão real é <sqlExprs>
.
INTERVALO_NUMÉRICO_LITERAL INVÁLIDO
O literal numérico <rawStrippedQualifier>
está fora do intervalo válido para <typeName>
com valor mínimo de <minValue>
e valor máximo de <maxValue>
. Ajuste o valor adequadamente.
MÉTRICAS INVÁLIDAS_OBSERVADAS_OBSERVADAS
Métricas observadas inválidas.
Para obter mais detalhes, consulte INVALID_OBSERVED_METRICS
OPÇÕES_INVÁLIDAS
Opções inválidas:
Para obter mais detalhes, consulte INVALID_OPTIONS
POSICIONAMENTO INVÁLIDO DE PANDAS_UDF
O agregado de grupo Pandas UDF <functionList>
não pode ser invocado junto com outras funções agregadas que não sejamPandas.
VALOR_MARCADOR_PARÂMETRO INVÁLIDO
Um mapeamento de parâmetros inválido foi fornecido:
Para obter mais detalhes, consulte INVALID_PARAMETER_MARKER_VALUE
VALOR__DO_PARÂMETRO INVÁLIDO
O valor do (s) parâmetro (s) <parameter>
em <functionName>
é inválido:
Para obter mais detalhes, consulte INVALID_PARAMETER_VALUE
TIPO DE DADOS DE COLUNA DE PARTIÇÃO INVÁLIDO
Não é possível usar <type>
para coluna de partição.
OPERAÇÃO_DE_PARTIÇÃO INVÁLIDA
O comando de partição é inválido.
Para obter mais detalhes, consulte INVALID_PARTITION_OPERATION
VALOR_DE_PARTIÇÃO INVÁLIDO
Falha ao converter o valor <value>
para o tipo de dados <dataType>
para a coluna de partição <columnName>
. Certifique-se de que o valor corresponda ao tipo de dados esperado para essa coluna de partição.
ID DE PIPELINE INVÁLIDA
O ID do pipeline <pipelineId>
não é válido.
O ID do pipeline deve ser um UUID no formato "xxxxxxxx-xxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx
PRIVILÉGIO_INVÁLIDO
O privilégio <privilege>
não é válido para <securable>
.
CHAVE DE PROPRIEDADE INVÁLIDA
<key>
é uma propriedade inválida key, use aspas, por exemplo. SET <key>=<value>
.
VALOR_DA_PROPRIEDADE INVÁLIDO
<value>
é um valor de propriedade inválido, use aspas, por exemplo SET <key>=<value>
NOME_COLUNA_QUALIFICADO INVÁLIDO
O nome da coluna <columnName>
é inválido porque não está qualificado com um nome de tabela ou consiste em mais de 4 partes de nome.
PARÂMETROS DE CONSULTA_CONSULTA_MISTOS INVÁLIDOS
A consulta parametrizada deve usar parâmetros posicionais ou nomeados, mas não ambos.
INVALID_REGEXP_REPLACE
Não foi possível executar regexp_replace para source = “<source>
”, pattern = “<pattern>
”, replacement = “<replacement>
” e position = <position>
.
FORMATO DE COMANDO INVÁLIDO
O formato esperado é 'RESET
' ou 'RESET
key'. Se o senhor quiser incluir caracteres especiais em key, use aspas, por exemplo, RESET key
.
CREDENCIAIS INVÁLIDAS_S3_COPY_CREDENCIAIS
COPY INTO
as credenciais devem incluir AWS_ACCESS_KEY
, AWS_SECRET_KEY
e AWS_SESSION_TOKEN
.
MODO DE SALVAMENTO INVÁLIDO
O modo de salvamento especificado <mode>
é inválido. Os modos de salvamento válidos incluem "append", "overwrite", "ignore", "error", "errorifexists" e "default".
ESQUEMA_INVÁLIDO
O esquema de entrada <inputSchema>
não é uma cadeia de caracteres de esquema válida.
Para obter mais detalhes, consulte INVALID_SCHEMA
ESQUEMA_OU_NOME_DA_RELAÇÃO INVÁLIDOS
<name>
não é um nome válido para tabelas/esquemas. Os nomes válidos contêm somente caracteres alfabéticos, números e _.
ESQUEMA_INVÁLIDO
O catálogo do Unity não é compatível com <name>
como o esquema de arquivo default.
CONSULTA SECRETA INVÁLIDA
Pesquisa secreta inválida:
Para obter mais detalhes, consulte INVALID_SECRET_LOOKUP
SINTAXE INVÁLID_SET_SET_
O formato esperado é 'SET
', 'SET
key' ou 'SET
key=value'. Se o senhor quiser incluir caracteres especiais em key, ou incluir ponto e vírgula no valor, use aspas, por exemplo, SET key
=value
.
NOME_ALIAS_COMPARTILHADO INVÁLIDO
O nome do alias <sharedObjectType>
deve estar no formato “schema.name”.
COLUNA INVÁLIDA_VARIANTE_ÚNICA
A opção singleVariantColumn
não pode ser usada se também houver um esquema especificado pelo usuário.
CATÁLOGO_DE_ORIGEM INVÁLIDO
O catálogo de origem não deve estar no Unity Catalog para o comando SYNC
. Encontrou <catalog>
.
SQL_ARG INVÁLIDO
O argumento <name>
de sql()
é inválido. Considere a possibilidade de substituí-lo por um literal SQL ou por funções de construtor de coleção, como map()
, array()
, struct()
.
SINTAXE_SQL_INVÁLIDA
Sintaxe SQL inválida:
Para obter mais detalhes, consulte INVALID_SQL_SYNTAX
CAMINHO_DE_ESTÁGIO_INVÁLIDO_IN_STAGING_ACCESS_QUERY
Caminho de teste inválido na consulta staging <operation>
: <path>
DECLARAÇÃO_DE_INVÁLIDA_PARA_EXECUTE_INTO
A cláusula INTO
de EXECUTE IMMEDIATE
só é válida para consultas, mas a instrução fornecida não é uma consulta: <sqlString>
.
DECLARAÇÃO_OU_CLÁUSULA INVÁLIDA
A declaração ou cláusula: <operation>
não é válida.
EXPRESSÃO_SUBCONSULTA_SUBCONSULTA INVÁLIDA
Subconsulta inválida:
Para obter mais detalhes, consulte INVALID_SUBQUERY_EXPRESSION
TARGET_FOR_ALTER_COMMAND INVÁLIDO
ALTER <commandTableType>
... <command>
não suporta <tableName>
. Em vez disso, use ALTER <targetTableType>
... <command>
.
COMANDO INVÁLIDO_TARGET_FOR_SET_TBLPROPERTIES_DE_COMMAND
ALTER <commandTableType>
... SET TBLPROPERTIES
não suporta <tableName>
. Em vez disso, use ALTER <targetTableType>
... SET TBLPROPERTIES
.
REFERÊNCIA_TEMP_OBJ_REFERENCE INVÁLIDA
Não é possível criar o objeto persistente <objName>
do tipo <obj>
porque ele faz referência ao objeto temporário <tempObjName>
do tipo <tempObj>
. Torne o objeto temporário <tempObjName>
persistente ou torne o objeto persistente <objName>
temporário.
FORMATO_DE_HORA INVÁLIDO
O timestamp <timestamp>
fornecido não corresponde à sintaxe esperada <format>
.
FUSO HORÁRIO INVÁLIDO
O fuso horário: <timeZone>
é inválido. O fuso horário deve ser um ID de fuso com base na região ou um deslocamento de zona. Os IDs de região devem ter o formato 'área/cidade', como 'America/Los_Angeles'. Os deslocamentos de zona devem estar no formato '(+|-) HH',' (+|-) HH'ou' (+|-) HH:mm', por exemplo,' -08 ', '+ 01:00' ou '- 13:33:33 ', e deve estar no intervalo de - 18:00 a + 18:00. 'Z' e 'UTC' são aceitos como sinônimos para '+ 00:00 '.
ESPECIFICAÇÃO DE TEMPO DE VIAGEM INVÁLIDA
Não é possível especificar a versão e o carimbo de data/hora ao viajar no tempo pela tabela.
TIME_TRAVEL_TIMESTAMP_EXPR INVÁLIDO
A expressão viagem do tempo timestamp <expr>
é inválida.
Para obter mais detalhes, consulte INVALID_TIME_TRAVEL_TIMESTAMP_EXPR
LITERAL_DIGITADO_INVÁLIDO
O valor do literal digitado <valueType>
é inválido: <value>
.
IMPLEMENTAÇÃO INVÁLID_UDF_
A função <funcName>
não implementa uma ScalarFunction ou AggregateFunction.
SINTAXE INVÁLIDA_UPGRADE_
<command> <supportedOrNot>
A tabela de origem está em Hive metastore e a tabela de destino está em Unity Catalog.
URL_DE_INVÁLIDA
O URL é inválido: <url>
. Use try_parse_url
para tolerar URLs inválidas e, em vez disso, retornar NULL
.
USO_DE_STAR_OU_REGEX INVÁLIDO
Uso inválido de <elem>
em <prettyName>
.
CADEIA DE CARACTERES UTF8_INVÁLIDA
Sequência de bytes UTF8 inválida encontrada nas strings: <str>
.
UUID INVÁLIDO
A entrada <uuidInput>
não é um UUID válido.
O UUID deve estar no formato 'xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx'
Verifique o formato do UUID.
DECLARAÇÃO_VARIÁVEL_INVÁLIDA
Declaração de variável inválida.
Para obter mais detalhes, consulte INVALID_VARIABLE_DECLARATION
TIPO_VARIÁVEL_INVÁLIDO_PARA_QUERY_EXECUTE_IMMEDIATE
O tipo de variável deve ser do tipo strings, mas o senhor obteve <varType>
.
ELENCO DE VARIANTE INVÁLIDO
O valor da variante <value>
não pode ser convertido em <dataType>
. Em vez disso, use try_variant_get
.
VARIANTE_DE_PARQUET INVÁLIDA
Variante inválida.
Para obter mais detalhes, consulte INVALID_VARIANT_FROM_PARQUET
VARIANT_GET_PATH INVÁLIDO
O caminho <path>
não é um caminho de extração de variante válido em <functionName>
.
Um caminho válido deve começar com $
e ser seguido por zero ou mais segmentos como [123]
, .name
, ['name']
, ou ["name"]
.
ESQUEMA_VARIANTE_SHREDDING_INVÁLIDO
O esquema <schema>
não é um esquema de destruição de variantes válido.
CONDIÇÃO_DE_ONDE INVÁLIDA
A condição WHERE
<condition>
contém expressões inválidas: <expressionList>
.
Reescreva a consulta para evitar funções de janela, funções agregadas e funções geradoras na cláusula WHERE
.
ESPECIFICAÇÃO DE JANELA INVÁLIDA PARA FUNÇÃO DE AGREGAÇÃO
Não é possível especificar ORDER BY
ou uma moldura de janela para <aggFunc>
.
MENSAGEM INVÁLIDA_WRITER_COMMIT_WRITER
A fonte de dados writer gerou um número inválido de mensagens commit. O senhor esperava exatamente uma mensagem de commit do escritor de cada tarefa, mas recebeu <detail>
.
DISTRIBUIÇÃO_GRAVAÇÃO_INVÁLIDA
A distribuição de gravação solicitada é inválida.
Para obter mais detalhes, consulte INVALID_WRITE_DISTRIBUTION
FALHA DE COMANDO_DE_COMANDO ISOLADA
Falha ao executar <command>
. Saída de comando:
<output>
FALHA ISOLADA DE COMANDO DESCONHECIDA
Falha ao executar <command>
.
unir-se
A condição join <joinCondition>
tem o tipo inválido <conditionType>
, esperado "BOOLEAN
".
Kafka
Alguns dados podem ter sido perdidos porque não estão mais disponíveis no Kafka;
Os dados foram envelhecidos pelo Kafka ou o tópico pode ter sido excluído antes que todos os dados no
o tópico foi processado.
Se o senhor não quiser que a consulta de transmissão falhe nesses casos, defina a opção de origem failOnDataLoss como false.
Motivo:
Para obter mais detalhes, consulte Kafka
KINESIS_COULD_NOT_READ_SHARD_UNTIL_END_OFFSET
Não foi possível ler até o número de sequência desejado <endSeqNum>
para o fragmento <shardId>
em
kinesis transmissão <stream>
com modo consumidor <consumerMode>
. A consulta falhará devido a
possível perda de dados. O último registro lido foi no número de sequência <lastSeqNum>
.
Isso pode acontecer se os dados com endSeqNum já tiverem sido envelhecidos ou se a transmissão Kinesis tiver sido
excluído e reconstruído com o mesmo nome. O comportamento de falha pode ser anulado
definindo spark.databricks.kinesis.failonDataLoss para falso na configuração do Spark.
KINESIS_EFO_CONSUMER_NOT_FOUND
Para a transmissão da kinesis <streamId>
, o consumidor EFO registrado anteriormente <consumerId>
da transmissão foi excluído.
Reinicie a consulta para que um novo consumidor seja cadastrado.
KINESIS_EFO_SUBSCRIBE_LIMIT_EXCEEDED
Para o fragmento <shard>
, a chamada anterior da API subscribeToShard estava dentro dos 5 segundos da próxima chamada.
Reinicie a consulta após 5 segundos ou mais.
KINESIS_FETCHED_SHARD_LESS_THAN_TRACKED_SHARD
O shardId mínimo obtido do Kinesis (<fetchedShardId>
)
é menor do que o mínimo de shardID rastreado (<trackedShardId>
).
Isso é inesperado e ocorre quando uma transmissão Kinesis é excluída e recriada com o mesmo nome,
e uma consulta de transmissão usando esse Kinesis transmissão é reiniciada usando um local de ponto de verificação existente.
Reinicie a consulta de transmissão com um novo local de ponto de verificação ou crie uma transmissão com um novo nome.
KINESIS_POLLING_MODE_NÃO SUPORTADO
Não há suporte para o modo de sondagem Kinesis.
KINESIS_RECORD_SEQ_NUMBER_ORDER_VIOLATION
Para o fragmento <shard>
, o último registro lido do Kinesis em buscas anteriores tem o número de sequência <lastSeqNum>
,
que é maior do que o registro lido na busca atual com o número de sequência <recordSeqNum>
.
Isso é inesperado e pode ocorrer quando a posição inicial de retry ou next fetch é inicializada incorretamente e pode resultar em registros duplicados no downstream.
KINESIS_SOURCE_DEVE ESTAR NO MODO EFO PARA CONFIGURAR CONSUMIDORES
Para ler na transmissão Kinesis com configurações de consumidor (consumerName
, consumerNamePrefix
ou registeredConsumerId
), consumerMode
deve ser efo
.
KINESIS_SOURCE_MUST_SPECIFY_REGISTERED_CONSUMER_ID_AND_TYPE
Para ler na transmissão Kinesis com consumidores registrados, o senhor deve especificar as opções registeredConsumerId
e registeredConsumerIdType
.
KINESIS_SOURCE_MUST_SPECIFY_STREAM_NAMES_OR_ARNS
Para ler a partir de Kinesis transmissão, o senhor deve configurar uma das opções streamName
ou streamARN
(mas não ambas) como uma lista de nomes de transmissão separados por vírgula/ARNs.
KINESIS_SOURCE_NO_CONSUMER_OPTIONS_WITH_REGISTERED_CONSUMERS
Para ler na transmissão Kinesis com consumidores registrados, não configure as opções consumerName
ou consumerNamePrefix
, pois elas não terão efeito.
KINESIS_SOURCE_REGISTERED_CONSUMER_ID_COUNT_MISMATCH
O número de IDs de consumidores registrados deveria ser igual ao número de Kinesis transmissões, mas obteve <numConsumerIds>
IDs de consumidores e <numStreams>
transmissões.
KINESIS_SOURCE_REGISTERED_CONSUMER_NOT_FOUND
O consumidor registrado <consumerId>
fornecido não pode ser encontrado para o StreamArn <streamARN>
. Verifique se você registrou o consumidor ou não forneceu a opção registeredConsumerId
.
KINESIS_SOURCE_REGISTERED_CONSUMER_TYPE_INVALID
O tipo de consumidor registrado <consumerType>
é inválido. Deve ser name
ou ARN
.
KRYO_BUFFER_OVERFLOW
Falha na serialização do Kryo: <exceptionMsg>
. Para evitar isso, aumente o valor “<bufferSizeConfKey>
”.
rótulo
O rótulo inicial <beginLabel>
não corresponde ao rótulo final <endLabel>
.
rótulo
O rótulo <label>
já existe. Escolha outro nome ou renomeie o rótulo existente.
CAMINHO_DO_CARREGADO_NÃO_EXISTE
O caminho de entrada LOAD DATA não existe: <path>
.
LOCAL_MUST_WITH_SCHEMA_FILE
LOCAL
deve ser usado junto com o esquema de file
, mas obteve: <actualSchema>
.
A LOCALIZAÇÃO JÁ EXISTE
Não é possível nomear a tabela gerenciar como <identifier>
, pois o local associado <location>
já existe. Escolha um nome de tabela diferente ou remova primeiro o local existente.
LOST_TOPIC_PARTITIONS_IN_END_OFFSET_WITH_TRIGGER_DISPONÍVEL AGORA
Algumas partições no(s) tópico(s) do Kafka foram perdidas durante a execução da consulta com Trigger.AvailableNow. O erro pode ser temporário - reinicie sua consulta e relate se você ainda vê o mesmo problema.
partições de tópicos para o deslocamento mais recente: <tpsForLatestOffset>
, partições de tópicos para o deslocamento final: <tpsForEndOffset>
MENSAGEM AVRO MALFORMADA
As mensagens Avro malformadas são detectadas na desserialização da mensagem. Analisar Mode: <mode>
. Para processar uma mensagem Avro malformada como resultado nulo, tente definir a opção 'mode' como 'PERMISSIVE
'.
CODIFICAÇÃO DE CARACTERES MALFORMADOS
Valor inválido encontrado ao executar <function>
com <charset>
CSV_RECORD MALFORMADO
Registro CSV malformado: <badRecord>
REGISTRO MALFORMADO NA ANÁLISE
Registros malformados são detectados na análise de registros: <badRecord>
.
Analisar Mode: <failFastMode>
. Para processar registros malformados como resultado nulo, tente definir a opção 'mode' como 'PERMISSIVE
'.
Para obter mais detalhes, consulte MALFORMED_RECORD_IN_PARSING
VARIANTE_DEFORMADA
O binário variante está malformado. Verifique se a fonte de dados é válida.
gerenciar
Não há suporte para a criação de tabela gerenciar com credencial de armazenamento.
MATERIALIZED_VIEW_MESA_REFRESH_WITHOUT_PIPELINE_ID
Não é possível <refreshType>
materializar view porque ele é anterior a ter um pipelineId. Para habilitar <refreshType>
, o senhor deve remover e recriar o site materializado view.
OPERAÇÃO DE VISUALIZAÇÃO MATERIALIZADA NÃO PERMITIDA
O materializado view operações <operation>
não é permitido:
Para obter mais detalhes, consulte MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED
MATERIALIZED_VIEW_OUTPUT_WITHOUT_EXPLÍCITO_ALIAS
A expressão de saída <expression>
em um view materializado deve ter um alias explícito.
MATERIALIZED_VIEW_OVER_STREAMING_QUERY_INVALID
materializado view <name>
não pôde ser criado com a consulta de transmissão. Por favor, use CREATE
[OR REFRESH
] <st>
ou remova a palavra-chave STREAM
da cláusula FROM
para transformar essa relação em uma consulta de lotes.
OPERAÇÃO_VISUAL_VISUALIZAÇÃO_NÃO SUPORTADA
operações <operation>
não é suportado atualmente na visualização materializada.
MAX_NUMBER_VARIABLES_IN_SESSION_EXCEEDED
Não é possível criar a nova variável <variableName>
porque o número de variáveis na sessão excede o número máximo permitido (<maxNumVariables>
).
MAX_RECORDS_PER_FETCH_INVALID_FOR_KINESIS_SOURCE
maxRecordsPerfetch precisa ser um número inteiro positivo menor ou igual a <kinesisRecordLimit>
mesclar
A condição de pesquisa ON
da instrução MERGE
correspondeu a uma única linha da tabela de destino com várias linhas da tabela de origem.
Isso pode fazer com que a linha de destino seja operada mais de uma vez com uma operação de atualização ou exclusão, o que não é permitido.
mesclar
Deve haver pelo menos uma cláusula WHEN
em uma declaração MERGE
.
métricas
METRIC CONSTRAINT
não está habilitado.
métricas
O valor fornecido “<argValue>
” não é suportado pelo argumento “<argName>
” para a função de tabela METRIC_STORE
.
Para obter mais detalhes, consulte métricas
métricas
métricas A rotina de armazenamento <routineName>
está atualmente desativada nesse ambiente.
métricas
A métricas view não tem permissão para usar tabelas de cache.
métricas
O recurso métricas view está desativado. Certifique-se de que “spark.databricks.sql.metricView.enabled” esteja definido como verdadeiro.
métricas
A função MEASURE
() só recebe um atributo como entrada, mas obteve <expr>
métricas
As métricas view não são permitidas nas definições de CTE. plano: <plan>
métricas
As métricas view não têm permissão para usar o join. plano: <plan>
métricas
O uso da coluna de medida <column>
de uma métrica view requer uma função MEASURE
() para produzir resultados.
métricas
O uso de métricas view não é suportado. plano: <plan>
métricas
As métricas view não têm permissão para usar a função de janela <expr>
.
MIGRAÇÃO NÃO SUPORTADA
<table>
não é compatível com a migração para a tabela gerenciar porque não é uma tabela <tableKind>
.
TOPIC_PARTITIONS_PARTITIONS_INCOMPATÍVEL ENTRE _END_OFFSET_AND_PREFETCHED
Kafka A fonte de dados em Trigger.AvailableNow deve fornecer as mesmas partições de tópicos em offset pré-definido para offset final para cada micro-lote. O erro pode ser temporário - reinicie sua consulta e relate se você ainda vê o mesmo problema.
partições de tópicos para deslocamento pré-buscado: <tpsForPrefetched>
, partições de tópicos para deslocamento final: <tpsForEndOffset>
.
AGREGAÇÃO_AUSENTE
A expressão não agregadora <expression>
é baseada em colunas que não participam da cláusula GROUP BY
.
Adicione as colunas ou a expressão ao GROUP BY
, agregue a expressão ou use <expressionAnyValue>
se você não se importa com quais valores dentro de um grupo serão retornados.
Para obter mais detalhes, consulte MISSING_AGGREGATION
CLÁUSULAS_FALTAS_PARA_OPERAÇÃO
Cláusula ausente <clauses>
para operações <operation>
. Adicione as cláusulas necessárias.
OPÇÃO_DE_CONEXÃO AUSENTE
As conexões do tipo '<connectionType>
' devem incluir as seguintes opções: <requiredOptions>
.
FALTA_BANCO_DE_DADOS_CATÁLOGO_DE_V1_SESSION_CATALOG
O nome do banco de dados não está especificado no catálogo de sessões v1. Certifique-se de fornecer um nome de banco de dados válido ao interagir com o catálogo v1.
AUSENTE_GROUP_BY
A consulta não inclui a cláusula GROUP BY
. Adicione GROUP BY
ou transforme-o nas funções da janela usando as cláusulas OVER.
NOME_DO_AUSENTE PARA _CHECK_CONSTRAINT
CHECK
a restrição deve ter um nome.
PARÂMETRO_DE_AUSENTE_PARA_KAFKA
O parâmetro <parameterName>
é necessário para o Kafka, mas não é especificado em <functionName>
.
PARÂMETRO_DE_AUSENTE_PARA_ROTINA
O parâmetro <parameterName>
é obrigatório, mas não está especificado em <functionName>
.
DEFINIÇÃO_DE_PROGRAMAÇÃO_AUSENTE
Uma definição de programa deve ser fornecida após SCHEDULE
.
CONFIGURAÇÃO_DE_TEMPO LIMITE AUSENTE
As operações atingiram o tempo limite, mas não foi configurado um tempo limite de duração. Para definir um tempo limite baseado no tempo de processamento, use 'GroupState.setTimeoutDuration()' em suas operações 'mapGroupsWithState' ou 'flatMapGroupsWithState'. Para tempo limite baseado em tempo de evento, use 'groupState.setTimeoutTimeStamp () ' e definir uma marca d'água usando 'dataset.withWatermark()'.
ESPECIFICAÇÃO_DE_JANELA_AUSENTE
A especificação da janela não está definida na cláusula WINDOW
para <windowName>
. Para obter mais informações sobre as cláusulas do site WINDOW
, consulte '<docroot>
/sql-ref-syntax-qry-select-window.html'.
MODIFICAR CATÁLOGO_EMBUTIDO
Não há suporte para a modificação do catálogo integrado <catalogName>
.
CAMINHO_DE_CARREGAMENTO MÚLTIPLO
O Databricks Delta não oferece suporte a vários caminhos de entrada na API load().
caminhos: <pathList>
. Para criar um único DataFrame carregando
vários caminhos da mesma tabela Delta, carregue o caminho raiz do
a tabela Delta com os filtros de partição correspondentes. Se os vários caminhos
são de tabelas Delta diferentes, use a função union()/unionByName() do conjunto de dados. APIs
para combinar os DataFrames gerados por chamadas separadas da API load().
RESTRIÇÕES_DE_CORRESPONDÊNCIA MÚLTIPLAS
Foram encontradas pelo menos duas restrições correspondentes à condição fornecida.
CLÁUSULAS DE RESULTADOS DE CONSULTA MÚLTIPLAS COM OPERADORES DE TUBULAÇÃO
<clause1>
e <clause2>
não podem coexistir no mesmo operador de pipe SQL usando '|>'. Separe as várias cláusulas de resultado em operadores de canal separados e, em seguida, repita a consulta novamente.
ESPECIFICAÇÃO DE VIAGEM TEMPORAL MÚLTIPLA
Não é possível especificar viagem do tempo na cláusula viagem do tempo e nas opções.
FONTE DE DADOS_XML_MÚLTIPLAS
Foram detectadas várias fontes de dados com o nome <provider> (<sourceNames>
). Especifique o nome da classe totalmente qualificado ou remova <externalSource>
do classpath.
VÁRIOS ALIAS_SEM GERADOR
O aliasing de várias partes (<names>
) não é suportado com <expr>
, pois não é uma função geradora.
VÁRIAS FONTES NÃO SUPORTADAS PARA EXPRESSÃO
A expressão <expr>
não suporta mais de uma fonte.
ERRO DE INTERFACE MULTI_UDF
Não é permitido implementar várias interfaces UDF, classe UDF <className>
.
CLÁUSULAS MUTUAMENTE EXCLUSIVAS
Cláusulas ou opções mutuamente exclusivas <clauses>
. Remova uma dessas cláusulas.
MV_ST_ALTER_QUERY_INCORRECT_BACKING_TYPE
A consulta de entrada espera um <expectedType>
, mas a tabela subjacente é <givenType>
.
PARÂMETROS_NOMEADOS_NÃO SUPORTADOS
Os parâmetros nomeados não são suportados pela função <functionName>
; em vez disso, tente novamente a consulta com argumentos posicionais para a chamada da função.
PARÂMETROS_NOMEADOS_NÃO SUPORTADOS PARA SQL_UDFS
Não é possível chamar a função <functionName>
porque as referências de argumentos nomeados não são suportadas. Nesse caso, a referência do argumento nomeado foi <argument>
.
NOMEADO_PARÂMETRO_SUPPORT_DISABLED
Não é possível chamar a função <functionName>
porque as referências de argumentos nomeados não estão habilitadas aqui.
Nesse caso, a referência do argumento nomeado foi <argument>
.
Defina "spark.sql.allowNamedFunctionArguments" como "true" para ativar o recurso.
O NAMESPACE_JA_EXISTE
Não é possível criar o namespace <nameSpaceName>
porque ele já existe.
Escolha um nome diferente, elimine o namespace existente ou adicione a cláusula IF NOT EXISTS
para tolerar o namespace preexistente.
NAMESPACE_NOT_EMPTY
Não é possível descartar um namespace <nameSpaceNameName>
porque ele contém objetos.
Use DROP NAMESPACE
... CASCADE
para eliminar o namespace e todos os seus objetos.
NAMESPACE_NOT_FOUND
O namespace <nameSpaceName>
não pode ser encontrado. Verifique a ortografia e a exatidão do namespace.
Se você não qualificou o nome com, verifique a saída current_schema () ou qualifique o nome corretamente.
Para tolerar o erro ao descartar, use DROP NAMESPACE IF EXISTS
.
ERRO DE IO_NATIVO
Falha na solicitação nativa. requestId: <requestId>
, cloud: <cloud>
, operações: <operation>
solicitação: [https: <https>
, method = <method>
, path = <path>
, params = <params>
, host = <host>
, headers = <headers>
, bodyLen = <bodyLen>
],
erro: <error>
FONTE DE DADOS_XML_DA_NÃO_HABILITADA
A fonte de dados XML nativa não está habilitada nesse clustering.
VALORES_NEGATIVOS_IN_FREQUENCY_EXPRESSION
Encontrou o valor negativo em <frequencyExpression>
: <negativeValue>
, mas esperava um valor integral positivo.
FUNÇÃO_AGREGADA_ANINHADA
Não é permitido usar uma função agregada no argumento de outra função agregada. Use a função agregada interna em uma subconsulta.
ANINHADO_EXECUTAR_IMEDIATO
Não são permitidos EXECUTE IMMEDIATE
comandos aninhados. Certifique-se de que a consulta SQL fornecida (<sqlString>
) não contenha outro comando EXECUTE IMMEDIATE
.
NOME_DO_DE_CAMPO INEXISTENTE NA LISTA
O (s) campo (s) <nonExistFields>
(s) não existem. Campos disponíveis: <fieldNames>
ARGUMENTO NÃO DOBRÁVEL
A função <funcName>
exige que o parâmetro <paramName>
seja uma expressão dobrável do tipo <paramType>
, mas o argumento real não é dobrável.
CONDIÇÃO DE OMISSÃO DE CLÁUSULA NÃO CORRESPONDENTE
Quando há mais de uma cláusula MATCHED
em uma instrução MERGE
, somente a última cláusula MATCHED
pode omitir a condição.
CONDIÇÃO NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION
Quando há mais de uma cláusula NOT MATCHED BY SOURCE
em uma instrução MERGE
, somente a última cláusula NOT MATCHED BY SOURCE
pode omitir a condição.
CONDIÇÃO NON_LAST_NOT_MATCHED_BY_TARGET_CLAUSE_OMIT_CONDITION
Quando há mais de uma cláusula NOT MATCHED [BY TARGET
] em uma declaração MERGE
, somente a última cláusula NOT MATCHED [BY TARGET
] pode omitir a condição.
VALORES_DINÂMICO_NÃO_LITERAIS
Expressões literais necessárias para valores dinâmicos, encontradas em <expression>
.
COLUNA NÃO_PARTICIONÁRIA
PARTITION
a cláusula não pode conter a coluna sem partição: <columnName>
.
NO_TIME_WINDOW_NOT_SUPORTED_IN_STREAMING
A função de janela não é suportada em <windowFunc>
(como coluna <columnName>
) na transmissão DataFrames/dataset.
A transmissão estruturada suporta apenas a agregação de janelas de tempo usando a função WINDOW
. (especificação da janela: <windowSpec>
)
NÃO É PERMITIDO EM
Não permitido na cláusula FROM
:
Para obter mais detalhes, consulte NOT_ALLOWED_IN_FROM
NÃO É PERMITIDO NO OPERADOR DE TUBULAÇÃO ONDE
Não permitido na cláusula pipe WHERE
:
Para obter mais detalhes, consulte NOT_ALLOWED_IN_PIPE_OPERATOR_WHERE
NÃO_A_CONSTANTE_STRING
A expressão <expr>
usada para a rotina ou cláusula <name>
deve ser uma constante STRING
, que é NOT NULL
.
Para obter mais detalhes, consulte NOT_A_CONSTANT_STRING
NOT_A_TABELA_PARTICIONADA
operações <operation>
não é permitido para <tableIdentWithDB>
porque não é uma tabela particionada.
FUNÇÃO_NOT_A_SCALAR
<functionName>
aparece como uma expressão escalar aqui, mas a função foi definida como uma função de tabela. Atualize a consulta para mover a chamada da função para a cláusula FROM
ou, em vez disso, redefina <functionName>
como uma função escalar.
NOT_A_TABLE_FUNCTION
<functionName>
aparece como uma função de tabela aqui, mas a função foi definida como uma função escalar. Atualize a consulta para mover a chamada da função para fora da cláusula FROM
ou, em vez disso, redefina <functionName>
como uma função de tabela.
NOT_NULL_ASSERT_VIOLATION
NULL
O valor apareceu em um campo não anulável: <walkedTypePath>
Se o esquema for inferido de uma classe Scala tuple/case ou de um bean Java, tente usar Scala.Option[_] ou outros tipos anuláveis (como java.lang.Integer em vez de int/Scala.Int).
VIOLAÇÃO DE RESTRIÇÃO NÃO NULA
Atribuir um NULL
não é permitido aqui.
Para obter mais detalhes, consulte NOT_NULL_CONSTRAINT_VIOLATION
COLUNA NOT_SUPPORTED_CHANGE_COLUMN
ALTER TABLE ALTER
/CHANGE COLUMN
não é suportado para alterar a coluna <originName>
de <table>
com o tipo <originType>
para <newName>
com o tipo <newType>
.
COMANDO NÃO SUPORTADO PARA TABELA_V2
<cmd>
não é compatível com tabelas v2.
COMANDO NÃO SUPORTADO SEM SUPORTE HIVE
<cmd>
não é suportado, se você quiser habilitá-lo, defina “spark.sql.catalogImplementation” como “hive”.
NÃO É SUPORTADO NO CATÁLOGO JDBC
Comando não suportado no catálogo JDBC:
Para obter mais detalhes, consulte NOT_SUPPORTED_IN_JDBC_CATALOG
NÃO SUPORTADO_COM_DB_SQL
<operation>
não é suportado em um SQL <endpoint>
.
NÃO SUPORTED_COM_SERVERLESS
<operation>
não é compatível com o site serverless compute.
CODIFICADOR NOT_UNRESOLVED_
Esperava-se um codificador não resolvido, mas <attr>
foi encontrado.
NENHUM VALOR_DEFAULT_COLUMN_DISPONÍVEL
Não é possível determinar o valor default para <colName>
, pois ele não é anulável e não tem valor default.
NENHUM MANIPULADOR PARA UDAF
Nenhum manipulador para o UDAF '<functionName>
'. Use sparkSession.udf.registro(...) em vez disso.
NENHUMA AÇÃO DE MESCLAGEM ESPECIFICADA
df.mergeInto precisa ser seguido por pelo menos um de WhenMatched/WhenNotMatched/WhenNotMatchedBySource.
NÃO_PARENT_LOCALIZAÇÃO_EXTERNA_PARA_CAMINHO
SQLSTATE: nenhum atribuído
Nenhum local externo principal foi encontrado para o caminho '<path>
'. Crie um local externo em um dos caminhos principais e tente novamente a consulta ou o comando.
NÃO_SQL_TYPE_IN_PROTOBUF_SCHEMA
Não é possível encontrar o endereço <catalystFieldPath>
no esquema Protobuf.
NENHUM LOCAL DE ARMAZENAMENTO PARA TABELA
SQLSTATE: nenhum atribuído
Nenhum local de armazenamento foi encontrado para a tabela '<tableId>
' ao gerar as credenciais da tabela. Verifique o tipo de tabela e a URL de localização da tabela e, em seguida, tente novamente a consulta ou o comando.
NENHUMA EXCEÇÃO DE CATÁLOGO
O catálogo '<catalog>
' não foi encontrado. Verifique o nome do catálogo e tente novamente a consulta ou o comando.
NENHUMA EXCEÇÃO DE SALA LIMPA
SQLSTATE: nenhum atribuído
A sala limpa '<cleanroom>
' não existe. Verifique se o nome da sala limpa está escrito corretamente e se corresponde ao nome de uma sala limpa válida existente e, em seguida, tente novamente a consulta ou o comando.
NENHUMA EXCEÇÃO DE LOCALIZAÇÃO EXTERNA
SQLSTATE: nenhum atribuído
O local externo '<externalLocation>
' não existe. Verifique se o nome do local externo está correto e tente novamente a consulta ou o comando.
NENHUMA EXCEÇÃO DE METASTORE_DE-METASTORE
SQLSTATE: nenhum atribuído
A metastore não foi encontrada. Solicite ao administrador do site account que atribua um metastore ao site workspace atual e, em seguida, tente novamente a consulta ou o comando.
NENHUMA EXCEÇÃO DE PROVEDOR
SQLSTATE: nenhum atribuído
O provedor de compartilhamento '<providerName>
' não existe. Verifique se o nome do provedor de compartilhamento está escrito corretamente e se corresponde ao nome de um provedor existente válido e, em seguida, tente novamente a consulta ou o comando.
NENHUMA EXCEÇÃO DE DESTINATÁRIO
SQLSTATE: nenhum atribuído
O destinatário '<recipient>
' não existe. Verifique se o nome do destinatário está escrito corretamente e se corresponde ao nome de um destinatário válido existente e, em seguida, tente novamente a consulta ou o comando.
NENHUMA EXCEÇÃO DE COMPARTILHAMENTO
SQLSTATE: nenhum atribuído
O compartilhamento '<share>
' não existe. Verifique se o nome do compartilhamento está escrito corretamente e se corresponde ao nome de um compartilhamento válido existente e, em seguida, tente novamente a consulta ou o comando.
NENHUMA EXCEÇÃO DE CREDENCIAL_CREDENCIAL_DE_ARMAZENAMENTO
SQLSTATE: nenhum atribuído
A credencial de armazenamento '<storageCredential>
' não existe. Verifique se o nome da credencial de armazenamento está escrito corretamente e se corresponde ao nome de uma credencial de armazenamento válida existente e, em seguida, tente novamente a consulta ou o comando.
NENHUMA EXCEÇÃO DE USUÁRIO
SQLSTATE: nenhum atribuído
O usuário '<userName>
' não existe. Verifique se o usuário ao qual o senhor concedeu permissão ou alterou a propriedade está escrito corretamente e se corresponde ao nome de um usuário válido existente e, em seguida, tente novamente a consulta ou o comando.
INTERFACE_NÃO_UDF
A classe UDF <className>
não implementa nenhuma interface UDF.
COLUNA OU CAMPO ANULÁVEL
A coluna ou campo <name>
é anulável, embora seja necessário que não seja anulável.
ATRIBUTOS NULLABLE_ROW_ID_ATTRIBUTES
Os atributos de ID de linha não podem ser anulados: <nullableRowIdAttrs>
.
OPÇÃO NULL_DATA_SOURCE_SOURCE
fonte de dados read/write option <option>
não pode ter valor nulo.
CHAVE_MAP_NULA
Não é possível usar null como mapa key.
NULL_QUERY_STRING_EXECUTE_IMMEDIATE
O Execute immediate requer uma variável não nula como string de consulta, mas a variável fornecida <varName>
é nula.
SAÍDA NUMÉRICA DO INTERVALO SUPORTADO
O valor <value>
não pode ser interpretado como numérico, pois tem mais de 38 dígitos.
VALOR_NUMÉRICO_FORA DO INTERVALO
Para obter mais detalhes, consulte NUMERIC_VALUE_OUT_OF_RANGE
INCOMPATIBILIDADE DE NUM_COLUMNS_
<operator>
só pode ser executado em entradas com o mesmo número de colunas, mas a primeira entrada tem colunas <firstNumColumns>
e a entrada <invalidOrdinalNum>
tem colunas <invalidNumColumns>
.
NUM_TABLE_VALUE_ALIASES_INCOMPATIBILIDADE
O número de aliases fornecidos não corresponde ao número de colunas de saída.
Nome da função: <funcName>
; número de aliases: <aliasesNum>
; número de colunas de saída: <outColsNum>
.
OAUTH_CUSTOM_IDENTITY_CLAIM_NOT_PROVIDED
Nenhuma reivindicação de identidade personalizada foi fornecida.
ONLY_SECRET_FUNCTION_SUPORTED_HERE
A função de chamada <functionName>
não é suportada neste <location>
; <supportedFunctions>
é suportado aqui.
SOMENTE _SUPORTADO_COM_UC_SQL_CONNECTOR
SQL operações <operation>
é compatível apenas com os conectores Databricks SQL com suporte a Unity Catalog.
operações
operações foi cancelado.
operações
operações <operation>
requer Unity Catalog ativado.
OP_NOT_SUPPORTED_READ_ONLY
<plan>
não é suportado no modo de sessão somente leitura.
ORDENAR POR POS_FORA DO INTERVALO
ORDER BY
a posição <index>
não está na lista de seleção (o intervalo válido é [1, <size>
]).
FALHA NA CONVERSÃO DO PARQUET
Não foi possível criar um conversor de Parquet para o tipo de dados <dataType>
cujo tipo de Parquet é <parquetType>
.
Para obter mais detalhes, consulte PARQUET_CONVERSION_FAILURE
TIPO DE PARQUETE_ILEGAL
Ilegal Parquet type: <parquetType>
.
TIPO DE PARQUETE NÃO RECONHECIDO
Não reconhecido Parquet type: <field>
.
TIPO DE PARQUETE NÃO SUPORTADO
Parquet tipo ainda não suportado: <parquetType>
.
ANALISAR_EMPTY_STATEMENT
Erro de sintaxe, declaração vazia inesperada.
PARSE_MODE_NÃO SUPORTADO
A função <funcName>
não suporta o modo <mode>
. Os modos aceitáveis são PERMISSIVE
e FAILFAST
.
ERRO DE SINTAXE DE ANÁLISE
Erro de sintaxe em ou próximo a <error> <hint>
.
PARTIÇÕES_JÃO_EXISTEM
Não é possível ADICIONAR ou RENAME
À (s) partição (ões) <partitionList>
na tabela <tableName>
porque elas já existem.
Escolha um nome diferente, elimine a partição existente ou adicione a cláusula IF NOT EXISTS
para tolerar uma partição preexistente.
PARTIÇÕES_NÃO_ENCONTRADAS
As partições <partitionList>
não podem ser encontradas na tabela <tableName>
.
Verifique a especificação da partição e o nome da tabela.
Para tolerar o erro ao descartar, use ALTER TABLE
... DROP IF EXISTS PARTITION
.
COLUNA DE PARTIÇÃO NÃO ENCONTRADA NO ESQUEMA
Coluna de partição <column>
não encontrada no esquema <schema>
. Forneça a coluna existente para particionamento.
A LOCALIZAÇÃO DA PARTIÇÃO JÁ EXISTE
A localização da partição <locationPath>
já existe na tabela <tableName>
.
A LOCALIZAÇÃO DA PARTIÇÃO NÃO ESTÁ SOB O DIRETÓRIO DA TABELA
Falha ao executar a instrução ALTER TABLE SET PARTITION LOCATION
, porque o
a localização da partição <location>
não está no diretório da tabela <table>
.
Para corrigir isso, defina a localização da partição para um subdiretório <table>
.
METADADOS DE PARTIÇÃO
<action>
não é permitido na tabela <tableName>
, pois o armazenamento de metadados de partição não é compatível com o Unity Catalog.
INCOMPATIBILIDADE DO NÚMERO DA PARTIÇÃO
O número de valores (<partitionNumber>
) não correspondeu ao tamanho do esquema (<partitionSchemaSize>
): os valores são <partitionValues>
, o esquema é <partitionSchema>
, o caminho do arquivo é <urlEncodedPath>
.
Por favor, rematerialize a tabela ou entre em contato com o proprietário.
PARTITION_TRANSFORM_EXPRESSION_NOT_IN_PARTITIONED_BY
A expressão <expression>
deve estar dentro de 'PartitionedBy'.
O CAMINHO JÁ EXISTE
O caminho <outputPath>
já existe. Defina o modo como “sobrescrever” para substituir o caminho existente.
CAMINHO NÃO ENCONTRADO
O caminho não existe: <path>
.
PHOTON_DESERIALIZED_PROTOBUF_MEMORY_LIMIT_EXCEEDED
A desserialização do plano protobuf do Photon requer pelo menos <size>
bytes, o que excede o
limite de <limit>
bytes. Isso pode ser devido a um plano muito grande ou à presença de um
esquema amplo. Tente simplificar a consulta, remover colunas desnecessárias ou desativar o Photon.
PHOTON_SERIALIZED_PROTOBUF_MEMORY_LIMIT_EXCEEDED
O plano de protobuf do Photon serializado tem o tamanho <size>
bytes, o que excede o limite de
<limit>
bytes. O tamanho serializado dos tipos de dados no plano é de <dataTypeSize>
bytes.
Isso pode ser devido a um plano muito grande ou à presença de um esquema muito amplo.
Considere reescrever a consulta para remover operações e colunas indesejadas ou desativar o Photon.
PIPE_OPERATOR_AGGREGATE_EXPRESSION_CONTAINS_NO_AGGREGATE_FUNCTION
A expressão sem agrupamento <expr>
é fornecida como argumento para o operador de canal | > AGGREGATE
, mas não contém nenhuma função agregada; atualize-a para incluir uma função agregada e tente novamente a consulta.
PIPE_OPERATOR_CONTAINS_AGGREGATE_FUNCTION
A função agregada <expr>
não é permitida ao usar a cláusula do operador de tubulação | > <clause>
; em vez disso, use a cláusula operador de tubulação | > AGGREGATE
.
PIVOT_VALUE_DATA_TYPE_MISMATCH
Valor dinâmico inválido '<value>
': o tipo de dados de valor <valueType>
não corresponde ao tipo de dados da coluna dinâmica <pivotType>
.
PROCEDURO_ARGUMENT_NUMBER_MISMATCH
O procedimento <procedureName>
espera <expected>
argumentos, mas <actual>
foi fornecido.
PROCEDURE_CREATION_EMPTY_ROUTINE
CREATE PROCEDURE
com uma definição de rotina vazia não é permitido.
PARÂMETRO DE CRIAÇÃO DO PROCEDIMENTO OUT_INOUT_WITH_DEFAULT
O parâmetro <parameterName>
é definido com o modo de parâmetro <parameterMode>
. Os parâmetros OUT e INOUT
não podem ser omitidos ao invocar uma rotina e, portanto, não suportam uma expressão DEFAULT
. Para continuar, remova a cláusula DEFAULT
ou altere o modo de parâmetro para IN
.
PROCEDIMENTO NÃO SUPORTADO
O procedimento armazenado não é suportado
PROCEDIMENTO NÃO SUPORTADO COM HMS
O procedimento armazenado não é compatível com o site Hive metastore. Em vez disso, use o Unity Catalog.
PROTOBUF_DEPENDENCY_NOT_FOUND
Não foi possível encontrar a dependência: <dependencyName>
.
PROTOBUF_DESCRIPTOR_FILE_NOT_FOUND
Erro ao ler o arquivo descritor Protobuf no caminho: <filePath>
.
PROTOBUF_FIELD_MISSING
A busca por <field>
no esquema Protobuf em <protobufSchema>
deu <matchSize>
correspondências. Candidatos: <matches>
.
PROTOBUF_FIELD_MISSING_IN_SQL_SCHEMA
Encontrado <field>
no esquema Protobuf, mas não há correspondência no esquema SQL.
PROTOBUF_FIELD_TYPE_MISMATCH
Incompatibilidade de tipo encontrada no campo: <field>
.
PROTOBUF_JAVA_CLASSES_NÃO SUPORTADO
Não há suporte para classes Java no site <protobufFunction>
. Entre em contato com o suporte da Databricks sobre opções alternativas.
PROTOBUF_MESSAGE_NOT_FOUND
Não é possível localizar a mensagem <messageName>
no descritor.
PROTOBUF_NOT_LOADED_SQL_FUNCTIONS_INUTILIZÁVEL
Não é possível chamar a função <functionName>
SQL porque a Protobuf fonte de dados não está carregada.
Reinicie seu trabalho ou sessão com o pacote 'spark-protobuf' carregado, por exemplo, usando o argumento -pacote na linha de comando e, em seguida, tente novamente sua consulta ou comando.
PROTOBUF_TYPE_NOT_SUPPORT
Protobuf tipo ainda não suportado: <protobufType>
.
EXCEÇÃO PS_FETCH_RETRY_EXCEPTION
A tarefa no estágio de busca do pubsub não pode ser repetida. Partição <partitionInfo>
no estágio <stageInfo>
, TID <taskId>
.
OPÇÃO_PS_INVÁLIDA_VAZIA
<key>
não pode ser uma cadeia de caracteres vazia.
PS_INVALID_KEY_TYPE
Invalid key type for PubSub dedup: <key>
.
OPÇÃO_INVÁLIDA_PS
A opção <key>
não é suportada pelo PubSub. Ele só pode ser usado em testes.
TIPO_OPÇÃO_INVÁLIDA_PS_INVÁLIDA
Tipo inválido para <key>
. Espera-se que o tipo <key>
seja do tipo <type>
.
PS_INVALID_READ_LIMIT
Limite de leitura inválido na transmissão do PubSub: <limit>
.
PS_INVALID_UNSAFE_ROW_CONVERSION_FROM_PROTO
UnsafeRow inválido para decodificar para PubSubmessageMetadata; o proto-esquema desejado é: <protoSchema>
. A entrada UnsafeRow pode estar corrompida: <unsafeRow>
.
PS_MISSING_AUTH_INFO
Falha ao encontrar informações completas de autenticação do PubSub.
OPÇÃO_PS_AUSENTE_OBRIGATÓRIA
Não foi possível encontrar a opção necessária: <key>
.
FALHA DO PS_MOVING_CHECKPOINT_CHECKPOINT_
Falha ao mover arquivos de ponto de verificação de dados brutos de <src>
para o diretório de destino: <dest>
.
PS_MULTIPLE_AUTH_OPTIONS
Forneça sua credencial de serviço Databricks ou suas credenciais de serviço GCP account .
PS_MULTIPLE_FAILED_EPOCHS
A transmissão do PubSub não pode ser iniciada porque há mais de uma falha de busca: <failedEpochs>
.
PS_OPTION_NOT_IN_BOUNDS
<key>
deve estar dentro dos seguintes limites (<min>
, <max>
), excluindo ambos os limites.
PS_PROVIDE_CREDENTIALS_WITH_OPTION
O clustering do modo de acesso padrão (antigo modo de acesso compartilhado) não oferece suporte à autenticação com perfil de instância. Forneça credenciais para a transmissão diretamente usando .option().
PS_SPARK_ESPECULAÇÃO_NÃO SUPORTADA
O conector de origem PubSub só está disponível em clustering com spark.speculation
desativado.
PS_INCAPAZ DE CRIAR UMA ASSINATURA
Ocorreu um erro ao tentar criar a inscrição <subId>
no tópico <topicId>
. Verifique se há permissões suficientes para criar uma inscrição e tente novamente.
PS_INCAPAZ DE ANALISAR_PROTO
Não é possível analisar bytes serializados para gerar proto.
PS_UNSUPPORTED_GET_OFFSET_CALL
GetOffset não é suportado sem fornecer um limite.
Python
Falha ao acessar <action>
Python fonte de dados <type>
: <msg>
Python
Falha ao acessar Python transmissão fonte de dados perform <action>
: <msg>
A TABELA CONSULTADA É INCOMPATÍVEL COM A POLÍTICA DE MÁSCARA DE COLUNA
Não é possível acessar a tabela referenciada porque uma máscara de coluna atribuída anteriormente é incompatível com o esquema da tabela; para continuar, entre em contato com o proprietário da tabela para atualizar a política:
Para obter mais detalhes, consulte QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY
TABELA_CONSULTA_INCOMPATÍVEL_COM_POLÍTICA_DE_SEGURANÇA_NÍVEL DE LINHA
Não é possível acessar a tabela referenciada porque uma política de segurança em nível de linha atribuída anteriormente é atualmente incompatível com o esquema da tabela; para continuar, entre em contato com o proprietário da tabela para atualizar a política:
Para obter mais detalhes, consulte QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY
QUERY_EXECUTION_TIMEOUT_EXCEDED
A execução da consulta foi cancelada devido à ultrapassagem do tempo limite (<timeoutSec>
s). Você pode aumentar o limite em segundos definindo <config>
.
LEIA O ARQUIVO_CURRENT_NOT_FOUND
<message>
É possível que os arquivos subjacentes tenham sido atualizados. O senhor pode invalidar explicitamente o cache em Spark executando o comando 'REFRESH TABLE
tableName' em SQL ou recriando o conjunto de dados/DataFrame envolvido.
READ_FILES_AMBIGUOUS_ROUTINE_PARAMETERS
A invocação da função <functionName>
tem <parameterName>
e <alternativeName>
definidos, que são aliases um do outro. Por favor, defina apenas um deles.
PARÂMETRO READ_TVF_UNEXPECTED_REQUIRED_REQUIRED_
O parâmetro obrigatório <parameterName>
da função <functionName>
deve ser atribuído na posição <expectedPos>
sem o nome.
DESTINATÁRIO_EXPIRAÇÃO_NÃO SUPORTADA
Somente os tipos TIMESTAMP
/TIMESTAMP_LTZ
/TIMESTAMP_NTZ
são compatíveis com o carimbo de data e hora de expiração do destinatário.
ESQUEMA RECURSIVE_PROTOBUF_SCHEMA
Encontrada referência recursiva no esquema Protobuf, que não pode ser processada por Spark por default: <fieldDescriptor>
. tente definir a opção recursive.fields.max.depth
1 a 10. Não é permitido ultrapassar 10 níveis de recursão.
VISUALIZAÇÃO RECURSIVA
Recursivo view <viewIdent>
detectado (ciclo: <newPath>
).
REF_DEFAULT_VALUE_NÃO_PERMITIDO NA PARTIÇÃO
Referências aos valores da coluna DEFAULT
não são permitidas na cláusula PARTITION
.
RELAÇÃO MAIOR QUE 8G
Não é possível construir um <relationName>
maior que 8G.
FUNÇÃO_REMOTA_HTTP_FAILED_ERROR
A solicitação HTTP remota falhou com o código <errorCode>
e a mensagem de erro <errorMessage>
FUNÇÃO_REMOTA_HTTP_RESULT_PARSE_ERROR
Falha ao avaliar a função SQL <functionName>
devido à incapacidade de analisar o resultado JSON da resposta HTTP remota; a mensagem de erro é <errorMessage>
. Verifique a documentação da API: <docUrl>
. Corrija o problema indicado na mensagem de erro e tente fazer a consulta novamente.
FUNÇÃO_REMOTA_HTTP_RESULT_ERRO INESPERADO
Falha ao avaliar a função SQL <functionName>
devido à incapacidade de processar a resposta HTTP remota inesperada; a mensagem de erro é <errorMessage>
. Verifique a documentação da API: <docUrl>
. Corrija o problema indicado na mensagem de erro e tente fazer a consulta novamente.
FUNÇÃO REMOTA DO HTTP_RETRY_TIMEOUT
A solicitação remota falhou após tentar novamente <N>
vezes; o último código de erro HTTP com falha foi <errorCode>
e a mensagem foi <errorMessage>
FUNÇÃO_REMOTA_ERRO_REQUISITOS_DE_REQUISITOS
Falha ao avaliar a função SQL <functionName>
porque <errorMessage>
. Verifique os requisitos em <docUrl>
. Corrija o problema indicado na mensagem de erro e tente fazer a consulta novamente.
RENOMEAR_SRC_PATH_NOT_FOUND
Falha ao renomear, pois <sourcePath>
não foi encontrado.
CLÁUSULA REPETIDA
A cláusula <clause>
pode ser usada no máximo uma vez por <operation>
operações.
PARÂMETRO_OBRIGATÓRIO_JÁ FORNECIDO_POSICIONALMENTE
O parâmetro obrigatório <parameterName>
da rotina <routineName>
foi atribuído na posição <positionalIndex>
sem o nome.
Atualize a chamada da função para remover o argumento nomeado com <parameterName>
para esse parâmetro ou remover o posicional
argumente em <positionalIndex>
e tente a consulta novamente.
PARÂMETRO_OBRIGATÓRIO_NOT_FOUND
Não é possível invocar a rotina <routineName>
porque o parâmetro chamado <parameterName>
é obrigatório, mas a chamada de rotina não forneceu um valor. Atualize a chamada de rotina para fornecer um valor de argumento (posicionalmente no índice <index>
ou pelo nome) e tente novamente a consulta.
EXIGE UM NAMESPACE _SINGLE_PART_
<sessionCatalog>
requer um namespace de parte única, mas obteve <namespace>
.
CONFLITO_DE_COLUMNA_COLUMN_RESGATADO_WITH_SINGLE_VARIANT
A opção de leitura da API DataFrame 'rescuedDataColumn' é mutuamente exclusiva da opção da API DataFrame 'singleVariantColumn'.
Remova um deles e tente novamente o site DataFrame operações.
COLUNAS CDC_RESERVADAS EM GRAVAÇÃO
A gravação contém colunas reservadas <columnList>
que são usadas
internamente como metadados para o Change Data Feed. Para escrever na tabela, renomeie/solte
essas colunas ou desative Alterar feed de dados na tabela definindo
<config>
muito falso.
PERMISSÃO_OPÇÃO_RESTRITA_STREAMING_APLICADA
A opção <option>
tem valores restritos no clustering do modo de acesso padrão (anteriormente, modo de acesso compartilhado) para a fonte <source>
.
Para obter mais detalhes, consulte RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED
A ROTINA JÁ EXISTE
Não é possível criar o <newRoutineType> <routineName>
porque um <existingRoutineType>
desse nome já existe.
Escolha um nome diferente, elimine ou substitua o <existingRoutineType>
existente ou adicione a cláusula IF NOT EXISTS
para tolerar um <newRoutineType>
preexistente.
ROTINA NÃO ENCONTRADA
A rotina <routineName>
não pode ser encontrada. Verifique a ortografia e a exatidão do esquema e do catálogo.
Se você não qualificou o nome com um esquema e um catálogo, verifique a saída current_schema () ou qualifique o nome com o esquema e o catálogo corretos.
Para tolerar o erro ao descartar, use DROP
... IF EXISTS
.
PARÂMETRO DE ROTINA NÃO ENCONTRADO
A rotina <routineName>
não suporta o parâmetro <parameterName>
especificado na posição <pos>
.<suggestion>
ROTINE_USES_SYSTEM_RESERVED_CLASS_NAME
A função <routineName>
não pode ser criada porque o nome de classe especificado '<className>
' está reservado para uso do sistema. Renomeie a classe e tente novamente.
ROW_LEVEL_SECURITY_ABAC_MISMATCH
Os filtros de linha não puderam ser resolvidos em <tableName>
porque havia uma incompatibilidade entre os filtros de linha herdados de políticas e os filtros de linha definidos explicitamente. Para continuar, desative o Controle de acesso baseado em atributos (ABAC) e entre em contato com o suporte da Databricks.
ROW_LEVEL_SECURITY_CHECK_CONSTRAINT_NÃO SUPORTADO
A criação da restrição CHECK
na tabela <tableName>
com políticas de segurança em nível de linha não é suportada.
SECURITY_LEVE_DUPLICATE_COLUMN_NAME
Uma instrução <statementType>
tentou atribuir uma política de segurança em nível de linha a uma tabela, mas duas ou mais colunas referenciadas tinham o mesmo nome <columnName>
, o que é inválido.
FUNCIONALIDADE DE SEGURANÇA EM NÍVEL DE LINHA NÃO SUPORTADA
As políticas de segurança em nível de linha para <tableName>
não são suportadas:
Para obter mais detalhes, consulte ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED
NÍVEL DE LINHA DE SEGURANÇA INCOMPATÍVEL COM ALTERAÇÃO DO ESQUEMA
Não é possível usar <statementType> <columnName>
da tabela <tableName>
porque ela é referenciada em uma política de segurança em nível de linha. O proprietário da tabela deve remover ou alterar essa política antes de continuar.
ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_SOURCE
MERGE INTO
As operações não suportam políticas de segurança em nível de linha na tabela de origem <tableName>
.
ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_TARGET
MERGE INTO
As operações não suportam a gravação na tabela <tableName>
com políticas de segurança em nível de linha.
SECURITY_LEVE_LINE_SECURITY_MULTI_PART_COLUMN_NAME
Essa instrução tentou atribuir uma política de segurança em nível de linha a uma tabela, mas a coluna referenciada <columnName>
tinha várias partes de nome, o que é inválido.
ROW_LEVEL_SECURITY_REQUIRE_UNITY_CATALOG
As políticas de segurança em nível de linha são compatíveis apenas com o Unity Catalog.
ROW_LEVEL_SECURITY_SHOW_PARTITIONS_NÃO SUPORTADO
SHOW PARTITIONS
comando não é compatível com as tabelas\<format\>
com política de segurança em nível de linha.
SECURITY_LEVE_TABLE_CLONE_SOURCE_NOT_SUPPORTED
<mode>
clone da tabela <tableName>
com política de segurança em nível de linha não é suportado.
SECURITY_LEVEL DE LINHA TABLE_CLONE_TARGET_NOT_SUPPORTED
<mode>
clone na tabela <tableName>
com política de segurança em nível de linha não é suportado.
ROW_LEVEL_SECURITY_UNSUPORTED_CONSTANT_AS_PARAMETER
O uso de uma constante como parâmetro em uma política de segurança em nível de linha não é suportado. Atualize seu comando SQL para remover a constante da definição do filtro de linha e, em seguida, tente novamente o comando.
ROW_LEVEL_SECURITY_UNSUPORTED_PROVIDER
Falha ao executar <statementType>
comando porque a atribuição de política de segurança em nível de linha não é compatível com a fonte de dados de destino com o provedor de tabela: "<provider>
".
ROW_SUBQUERY_DEMAS_MANY_ROWS
Mais de uma linha retornada por uma subconsulta usada como linha.
O VALOR DA LINHA É_NULL
Encontrado NULL
em uma linha no índice <index>
, esperava um valor diferente deNULL
.
ID DA REGRA NÃO ENCONTRADA
Não foi encontrado um ID para o nome da regra “<ruleName>
”. Modifique RuleIdCollection.Scala se o senhor estiver adicionando uma nova regra.
SAMPLE_TABLE_PERMISSIONS
Permissões não suportadas em bancos de dados/tabelas de amostra.
FUNÇÃO_ESCALAR_NÃO_COMPATÍVEL
ScalarFunction <scalarFunc>
não substitui o método 'produceResult (InternalRow) 'pela implementação personalizada.
SCALAR_FUNCTION_NÃO _TOTALMENTE IMPLEMENTADA
ScalarFunction <scalarFunc>
não implementa nem substitui o método 'produceResult (InternalRow) '.
A SUBCONSULTA_ESCALAR_ESTA_EM_FUNÇÃO_DE_AGRUPADA_BY_OU_AGREGATE_FUNCTION
A subconsulta escalar correlacionada '<sqlExpr>
' não está presente em GROUP BY
nem em uma função agregada.
Adicione-o a GROUP BY
usando a posição ordinal ou envolva-o em first()
(ou first_value
) se você não se importa com o valor obtido.
SCALAR_SUBQUERY_MUITAS_ROWES_ROWS
Mais de uma linha retornada por uma subconsulta usada como expressão.
programar
Não é possível adicionar <scheduleType>
a uma tabela que já tenha <existingScheduleType>
. O senhor pode deixar o programa existente ou usar ALTER TABLE
... ALTER <scheduleType>
... para alterá-lo.
programar
O período de programação para <timeUnit>
deve ser um valor inteiro entre 1 e <upperBound>
(inclusive). Recebido: <actual>
.
O ESQUEMA JÁ EXISTE
Não é possível criar o esquema <schemaName>
porque ele já existe.
Escolha um nome diferente, elimine o esquema existente ou adicione a cláusula IF NOT EXISTS
para tolerar um esquema preexistente.
ESQUEMA NÃO VAZIO
Não é possível descartar um esquema <schemaName>
porque ele contém objetos.
Use DROP SCHEMA
... CASCADE
para eliminar o esquema e todos os seus objetos.
ESQUEMA NÃO ENCONTRADO
O esquema <schemaName>
não pode ser encontrado. Verifique a ortografia e a exatidão do esquema e do catálogo.
Se você não qualificou o nome com um catálogo, verifique a saída current_schema () ou qualifique o nome com o catálogo correto.
Para tolerar o erro ao descartar, use DROP SCHEMA IF EXISTS
.
SCHEMA_REGISTRY_CONFIGURATION_ERROR
O esquema do registro do esquema não pôde ser inicializado. <reason>
.
SEGUNDA FUNÇÃO ARGUMENTO_NOT_INTEIRO
O segundo argumento da função <functionName>
precisa ser um número inteiro.
FUNÇÃO_SECRETA_LOCALIZAÇÃO_INVÁLIDA
Não é possível executar o comando <commandType>
com uma ou mais referências não criptografadas à função SECRET
; criptografe o resultado de cada uma dessas chamadas de função com AES_ENCRYPT
e tente o comando novamente
SEED_EXPRESSION_É_DESDOBRÁVEL
A expressão inicial <seedExpr>
da expressão <exprWithSeed>
deve ser dobrável.
O SERVIDOR ESTÁ OCUPADO
O servidor está ocupado e não conseguiu lidar com a solicitação. Aguarde um momento e tente novamente.
SHOW_COLUNNS_WITH_CONFLICT_NAMESPACE
SHOW COLUMNS
com namespaces conflitantes: <namespaceA>
! = <namespaceB>
.
CLASSIFICAR POR SEM INTERVALO
SortBy deve ser usado junto com BucketBy.
SPARK_JOB_CANCELLED
Job <jobId>
cancelado <reason>
ESPECIFICAR _BUCKETING_IS_NOT_ALLOWED
Um site CREATE TABLE
sem lista explícita de colunas não pode especificar informações de bucketing.
Por favor, use o formulário com a lista explícita de colunas e especifique as informações de bucketing.
Como alternativa, permita que as informações de bucketing sejam inferidas omitindo a cláusula.
ESPECIFICAR _CLUSTER_BY_WITH_BUCKETING_IS_NOT_ALLOWED
Não é possível especificar CLUSTER BY
e CLUSTERED BY INTO BUCKETS
.
ESPECIFICAR _CLUSTER_BY_WITH_PARTITIONED_BY_IS_NOT_ALLOWED
Não é possível especificar CLUSTER BY
e PARTITIONED BY
.
ESPECIFICAR_PARTIÇÃO_IS_NÃO_PERMITIDO
Um CREATE TABLE
sem lista de colunas explícita não pode especificar PARTITIONED BY
.
Use o formulário com uma lista de colunas explícita e especifique PARTITIONED BY
.
Como alternativa, permita que o particionamento seja inferido omitindo a cláusula PARTITION BY
.
SQL_CONF_NOT_FOUND
A configuração do SQL <sqlConf>
não pode ser encontrada. Verifique se a configuração existe.
STAGING_PATH_CURRENTLY_INACESSÍVEL
Erro transitório ao acessar o caminho de teste de destino <path>
, tente em alguns minutos
STAR_GROUP_BY_POS
Estrela (*) não é permitida em uma lista de seleção quando GROUP BY
é usada em uma posição ordinal.
O PROCESSADOR_STATEFUL_NÃO_PODE EXECUTAR_OPERAÇÃO_COM_INVALID_HANDLE_STATE
Falha ao executar operações de processador com estado=<operationType>
com estado de identificador inválido=<handleState>
.
O PROCESSADOR_STATEFUL_NÃO_PODE EXECUTAR_OPERAÇÃO_WITH_INVALID_TIME_MODE
Falha ao executar operações de processador stateful=<operationType>
com timeMode= inválido.<timeMode>
PROCESSADOR_ESTATÍFICO_DUPLICADO_VARIÁVEL_DEFINIDO
A variável de estado com o nome <stateVarName>
já foi definida no StatefulProcessor.
PROCESSADOR_STATEFUL_INCORRECT_TIME_MODE_TO_ASSIGN_TTL
Não é possível usar TTL para state=<stateName>
em TimeMode=<timeMode>
; em vez disso, use TimeMode.processingTime ().
PROCESSADOR_STATEFUL_TTL_DURAÇÃO_DEVE SER POSITIVA
A duração TTL deve ser maior que zero para armazenamento do estado operações=<operationType>
on state=<stateName>
.
PROCESSADOR_STATEFUL_MODE_TIME_DESCONHECIDO
Modo de tempo desconhecido <timeMode>
. Os modos TimeMode aceitos são 'none', 'processingTime', 'eventTime'
STATE_STORE_CANNOT_CREATE_COLUMN_FAMILY_WITH_RESERVED_CHARS
Falha ao criar família de colunas com caractere inicial e nome =<colFamilyName>
não suportados.
STATE_STORE_NÃO PODE USAR_COLUMN_FAMILY_WITH_INVALID_NAME
Falha ao executar a família de colunas operações=<operationName>
com nome inválido=<colFamilyName>
. O nome da família da coluna não pode estar vazio, incluir espaços à esquerda/à direita ou usar a palavra-chave reservada=default
STATE_STORE_COLUMN_FAMILY_SCHEMA_INCOMPATÍVEL
Transformações de esquema incompatíveis com a coluna family=<colFamilyName>
, oldSchema=<oldSchema>
, newSchema=<newSchema>
.
STATE_STORE_DOES_NOT_SUPPORT_REUSABLE_ITERATOR
StateStore <inputClass>
não suporta iterador reutilizável.
STATE_STORE_HANDLE_NOT_INITIALIZED
O identificador não foi inicializado para esse StatefulProcessor.
Use somente o StatefulProcessor dentro do operador transformWithState.
STATE_STORE_INCORRECT_NUM_ORDERING_COLS_FOR_RANGE_SCAN
Número incorreto de ordinais de ordenação =<numOrderingCols>
para o codificador de varredura de alcance. O número de ordinais ordenados não pode ser zero ou maior que o número de colunas do esquema.
STATE_STORE_INCORRECT_NUM_PREFIX_COLS_FOR_PREFIX_SCAN
Número incorreto de colunas de prefixo =<numPrefixCols>
para o codificador de varredura de prefixo. As colunas de prefixo não podem ser zero, maiores ou iguais ao número de colunas do esquema.
STATE_STORE_INVALID_CONFIG_AFTER_RESTART
Não é possível alterar <configName>
de <oldConfig>
para <newConfig>
entre as reinicializações. Defina <configName>
como <oldConfig>
ou reinicie com um novo diretório de pontos de verificação.
STATE_STORE_INVALID_PROVIDER
O provedor de armazenamento do estado fornecido <inputClass>
não estende org.apache.spark.sql.execution.transmissão.state.StateStoreProvider.
STATE_STORE_INVALID_VARIABLE_TYPE_CHANGE
Não é possível alterar <stateVarName>
para <newType>
entre as reinicializações da consulta. Defina <stateVarName>
como <oldType>
ou reinicie com um novo diretório de pontos de verificação.
STATE_STORE_NULL_TYPE_ORDERING_COLS_NOT_SUPPORTED
A coluna de ordenação de tipo nulo com name=<fieldName>
em index=<index>
não é suportada pelo codificador de varredura de alcance.
STATE_STORE_PROVIDER_DOES_NÃO_SUPPORT_FINE_GRAINED_STATE_REPLAY
O provedor de armazenamento do estado <inputClass>
fornecido não estende org.apache.spark.sql.execution.transmission.state.SupportsFineGrainedReplay.
Portanto, ele não oferece suporte à opção snapshotStartBatchId ou readChangeFeed no estado fonte de dados.
STATE_STORE_STATE_SCHEMA_FILES_THRESHOLD_EXCEEDED
O número de arquivos de esquema de estado <numStateSchemaFiles>
excede o número máximo de arquivos de esquema de estado para essa consulta: <maxStateSchemaFiles>
.
Adicionado: <addedColumnFamilies>
, removido: <removedColumnFamilies>
Por favor, defina 'spark.sql.transmissão.stateStore.stateSchemaFilesThreshold' para um número maior ou reverta as modificações do esquema de estado
STATE_STORE_UNSUPPORTED_OPERATION_ON_MISSING_COLUMN_FAMILY
armazenamento do estado operações=<operationType>
not supported on missing column family=<colFamilyName>
.
STATE_STORE_VALUE_SCHEMA_EVOLUTION_THRESHOLD_EXCEEDED
O número de estados de evolução do esquema <numSchemaEvolutions>
excede o número máximo de estados de evolução do esquema, <maxSchemaEvolutions>
, permitido para essa família de colunas.
Família de colunas ofensivas: <colFamilyName>
Por favor, defina 'spark.sql.transmissão.stateStore.valueStateSchemaEvolutionThreshold' para um número maior ou reverta as modificações do esquema de estado
STATE_STORE_VARIABLE_SIZE_ORDERING_COLS_NOT_SUPPORTED
A coluna de ordenação de tamanho variável com name=<fieldName>
em index=<index>
não é suportada pelo codificador de varredura de alcance.
COLUNA DE PARTIÇÃO ESTÁTICA NA LISTA DE COLUNAS DE INSERÇÃO
A coluna de partição estática <staticName>
também é especificada na lista de colunas.
STDS_COMMITTED_BATCH_INDISPONÍVEL
Não foram encontrados lotes comprometidos, localização do ponto de controle: <checkpointLocation>
. Certifique-se de que a consulta tenha sido executada e confirmada em qualquer microbatch antes de interromper.
STDS_CONFLICT_OPTIONS
As opções <options>
não podem ser especificadas juntas. Por favor, especifique aquele.
STDS_FALHOU NA LEITURA DOS METADADOS DO OPERADOR
Falha ao ler os metadados do operador para checkpointLocation=<checkpointLocation>
e batchId=<batchId>
.
Ou o arquivo não existe ou está corrompido.
Execute novamente a consulta de transmissão para construir os metadados do operador e informe à comunidade ou aos fornecedores correspondentes se o erro persistir.
STDS_FAILED_TO_READ_STATE_SCHEMA
Falha ao ler o esquema de estado. Ou o arquivo não existe ou está corrompido. opções: <sourceOptions>
.
Execute novamente a consulta de transmissão para construir o esquema de estado e informe a comunidade ou os fornecedores correspondentes se o erro persistir.
VALOR_OPÇÃO_DE_INVÁLIDO STDS_INVÁLIDO
Valor inválido para a opção de origem '<optionName>
':
Para obter mais detalhes, consulte STDS_INVALID_OPTION_VALUE
STDS_NO_PARTITION_DISCOVERED_IN_STATE_STORE
O estado não tem nenhuma partição. Verifique se a consulta aponta para o estado válido. opções: <sourceOptions>
STDS_OFFSET_LOG_INDISPONÍVEL
O deslocamento log para <batchId>
não existe, local do ponto de verificação: <checkpointLocation>
.
Especifique o ID do lote que está disponível para consulta - o senhor pode consultar os IDs de lotes disponíveis usando a fonte de dados de metadados do estado.
STDS_OFFSET_METADATA_LOG_INDISPONÍVEL
Os metadados não estão disponíveis para o deslocamento log para <batchId>
, local do ponto de verificação: <checkpointLocation>
.
O ponto de verificação parece ser executado apenas com versões mais antigas do Spark. executar a consulta de transmissão com a versão recente do Spark, para que o Spark construa os metadados de estado.
STDS_REQUIRED_OPTION_NÃO ESPECIFICADO
'<optionName>
' deve ser especificado.
transmissão
O Adaptive Query Execution não é compatível com operadores stateful na transmissão estruturada.
transmissão
Não é possível transmitir do materializado view <viewName>
. não há suporte para a transmissão da visualização materializada.
transmissão
Modo de saída de transmissão inválido: <outputMode>
.
Para obter mais detalhes, consulte transmissão
transmissão
O modo de transmissão tempo real tem a seguinte limitação:
Para obter mais detalhes, consulte transmissão
transmissão
O nome do operador com estado de transmissão não corresponde ao operador nos metadados de estado. É provável que isso aconteça quando o usuário adiciona/remove/altera o operador de estado da consulta de transmissão existente.
Operadores com estado nos metadados: [<OpsInMetadataSeq>
]; Stateful operators in current lotes: [<OpsInCurBatchSeq>
].
transmissão
A tabela de transmissão <tableName>
precisa ser atualizada para executar <operation>
.
Se a tabela for criada a partir de DBSQL
, o senhor deve executar REFRESH <st>
.
Se a tabela for criada por um pipeline no DLT, o senhor deve executar uma atualização do pipeline.
transmissão
As tabelas de transmissão só podem ser criadas e atualizadas em DLT e Databricks SQL Warehouses.
transmissão
As operações <operation>
não são permitidas:
Para obter mais detalhes, consulte transmissão
transmissão
tabela de transmissão <tableName>
só pode ser criada a partir de uma consulta de transmissão. Adicione a palavra-chave STREAM
à sua cláusula FROM
para transformar essa relação em uma consulta de transmissão.
transmissão
Kinesis A transmissão <streamName>
em <region>
não foi encontrada.
Por favor, inicie uma nova consulta apontando para o nome correto da transmissão.
INCOMPATIBILIDADE DE STRUCT_ARRAY_LENGTH_MISMATCH
A linha de entrada não tem o número esperado de valores exigidos pelo esquema. Os campos <expected>
são obrigatórios, enquanto os valores <actual>
são fornecidos.
A SOMA DO LIMITE E DO DESLOCAMENTO EXCEDE O MAX_INT
A soma da cláusula LIMIT
e da cláusula OFFSET
não deve ser maior que o valor inteiro máximo de 32 bits (2.147.483.647), mas o limite encontrado = <limit>
, offset = <offset>
.
SYNC_METADATA_DELTA_ONLY
O comando Repair table sync metadata só é compatível com a tabela delta.
SYNC_SRC_TARGET_TBL_NOT_SAME
O nome da tabela de origem <srcTable>
deve ser igual ao nome da tabela de destino <destTable>
.
SYNTAX_DESCONTINUADO
O suporte da cláusula ou palavra-chave: <clause>
foi descontinuado neste contexto.
Para obter mais detalhes, consulte SYNTAX_DISCONTINUED
TABELA_OU_VIEW_JA_EXISTE_EXISTE_EXISTE_
Não é possível criar uma tabela ou view <relationName>
porque ela já existe.
Escolha um nome diferente, elimine o objeto existente, adicione a cláusula IF NOT EXISTS
para tolerar objetos pré-existentes, adicione a cláusula OR REPLACE
para substituir a tabela materializada existente view, ou adicione a cláusula OR REFRESH
para refresh a tabela de transmissão existente.
TABELA OU VISUALIZAÇÃO NÃO ENCONTRADA
A tabela ou view <relationName>
não pode ser encontrada. Verifique a ortografia e a exatidão do esquema e do catálogo.
Se você não qualificou o nome com um esquema, verifique a saída current_schema () ou qualifique o nome com o esquema e o catálogo corretos.
Para tolerar o erro ao descartar, use DROP VIEW IF EXISTS
ou DROP TABLE IF EXISTS
.
Para obter mais detalhes, consulte TABLE_OR_VIEW_NOT_FOUND
TABLE_VALUED_ARGUMENTS_NOT_YET_ET_IMPLEMENTED_FOR_SQL_FUNCTIONS
Cannot <action>
Função definida pelo usuário SQL <functionName>
com argumentos TABLE
porque essa funcionalidade ainda não foi implementada.
FALHA NA ANÁLISE DA FUNÇÃO DE VALOR DA TABELA EM PYTHON
Falha ao analisar a função de tabela definida pelo usuário do Python: <msg>
TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INCOMPATIBLE_WITH_CALL
Falha ao avaliar a função de tabela <functionName>
porque seus metadados de tabela são <requestedMetadata>
, mas a função chama <invalidFunctionCallProperty>
.
TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INVALID
Falha ao avaliar a função de tabela <functionName>
porque seus metadados de tabela eram inválidos; <reason>
.
FUNÇÃO COM VALOR DE TABELA _MUITOS ARGUMENTOS DE TABELA
Há muitos argumentos de tabela para funções com valor de tabela.
Ele permite um argumento de tabela, mas obteve: <num>
.
Se você quiser permitir isso, defina “spark.sql.allowMultipleTableArguments.enabled” como “true”
TABELA COM ID NÃO ENCONTRADA
A tabela com ID <tableId>
não pode ser encontrada. Verifique a exatidão do UUID.
tarefa
A tarefa falhou ao gravar linhas em <path>
.
TEMP_TABLE_OU_VIEW_JA_EXISTE_EXISTE_
Não é possível criar o site temporário view <relationName>
porque ele já existe.
Escolha um nome diferente, elimine ou substitua o view existente ou adicione a cláusula IF NOT EXISTS
para tolerar a visualização pré-existente.
TEMP_VIEW_NAME_MUITO_ANY_NAME_PARTS
CREATE TEMPORARY VIEW
ou o conjunto de dados correspondente APIs aceita apenas nomes view de uma única parte, mas obteve: <actualName>
.
TRAILING_COMMA_IN_SELECT
Vírgula final detectada na cláusula SELECT
. Remova a vírgula final antes da cláusula FROM
.
TRIGGER_INTERVAL_INVALID
O intervalo de acionamento deve ter uma duração positiva que possa ser convertida em segundos inteiros. Recebido: <actual>
segundos.
UC_BUCKETED_TABLES
Não há suporte para tabelas com baldes no Unity Catalog.
UC_CATALOG_NAME_NÃO_FORNECIDO
Para o Unity Catalog, especifique explicitamente o nome do catálogo. Por exemplo, SHOW GRANT your.address@email.com ON CATALOG
main.
comando
O(s) comando(s): <commandName>
não são compatíveis com o Unity Catalog.
Para obter mais detalhes, consulte comando
comando
O(s) comando(s): <commandName>
não é(são) suportado(s) para Unity Catalog compute em serverless. Em vez disso, use um recurso compute com modo de acesso padrão ou dedicado.
comando
O(s) comando(s): <commandName>
não é(são) suportado(s) para Unity Catalog compute recurso no modo de acesso padrão (anteriormente compartilhado). Em vez disso, use o modo de acesso dedicado.
UC_CREDENTIAL_PROPOSITO_NÃO_SUPORTADO
O tipo de credencial especificado não é suportado.
UC_DATASOURCE_NOT_SUPPORTED
A fonte de dados formato <dataSourceFormatName>
não é compatível com Unity Catalog.
UC_DATASOURCE_OPTIONS_NO_SUPPORTED
As opções de fonte de dados não são suportadas em Unity Catalog.
UC_EXTERNAL_VOLUME_LOCALIZAÇÃO_AUSENTE
LOCATION
a cláusula deve estar presente para volume externo. Verifique a sintaxe 'CREATE EXTERNAL VOLUME
... LOCATION
...' para criar um volume externo.
UC_FAILED_PROVISIONING_STATE
A consulta falhou porque tentou se referir à tabela <tableName>
, mas não conseguiu fazer isso: <failureReason>
. Atualize a tabela <tableName>
para garantir que ela esteja em um estado de provisionamento ativo e, em seguida, tente novamente a consulta.
UC_FILE_SCHEME_FOR_TABLE_CREATION_NO_SUPPORTED
Não há suporte para a criação de tabela no Unity Catalog com o esquema de arquivo <schemeName>
.
Em vez disso, crie uma conexão de fonte de dados federada usando o comando CREATE CONNECTION
para o mesmo provedor de tabela e, em seguida, crie um catálogo com base na conexão com um comando CREATE FOREIGN CATALOG
para fazer referência às tabelas nele contidas.
UC_HIVE_METASTORE_FEDERATION_CROSS_CATALOG_VIEW_NOT_SUPPORTED
Hive metastore A federação view não oferece suporte a dependências em vários catálogos. A visualização <view>
no catálogo Hive metastore Federation deve usar a dependência do catálogo hive_metastore ou spark_catalog, mas sua dependência <dependency>
está em outro catálogo <referencedCatalog>
. Atualize as dependências para satisfazer essa restrição e, em seguida, tente novamente sua consulta ou comando.
UC_HIVE_METASTORE_FEDERAÇÃO_NÃO_HABILITADA
Hive metastore A federação não está ativada nesse clustering.
O acesso ao catálogo <catalogName>
não é compatível com esse clustering.
DEPENDÊNCIAS UC_INVALID_
As dependências de <viewName>
são registradas como <storedDeps>
enquanto são analisadas como <parsedDeps>
. Isso provavelmente ocorreu devido ao uso inadequado de uma API não SQL. O senhor pode reparar as dependências no Databricks Runtime executando ALTER VIEW <viewName>
AS <viewText>
.
NAMESPACE UC_INVALID_
Espaços de nomes aninhados ou vazios não são suportados no Unity Catalog.
UC_INVÁLIDA_REFERÊNCIA
O objeto que não é do Unity-Catalog <name>
não pode ser referenciado em objetos do Unity Catalog.
UC_LAKEHOUSE_FEDERATION_ESCREVE NÃO É PERMITIDO
Unity Catalog O suporte de gravação da lakehouse Federation não está ativado para o provedor <provider>
neste cluster.
UC_LOCATION_FOR_MANAGED_VOLUME_NÃO_SUPORTADO
gerenciar volume não aceita a cláusula LOCATION
. Verifique a sintaxe 'CREATE VOLUME
...' para criar um volume gerenciar.
UC_NÃO_HABILITADO
Unity Catalog não está ativado nesse clustering.
UC_QUERY_FEDERAÇÃO_NÃO_HABILITADA
Unity Catalog O Query Federation não está ativado nesse clustering.
serviço
As credenciais de serviço não estão ativadas nesse clustering.
UC_VOLUMES_NÃO_HABILITADO
O suporte para Unity Catalog Volumes não está ativado nesta instância.
UC_VOLUMES_COMPARTILHAMENTO_NÃO_HABILITADO
O suporte ao Volume compartilhamento não está habilitado nesta instância.
UC_VOLUME_NÃO_ENCONTRADO
O volume <name>
não existe. Use 'SHOW VOLUMES
' para listar os volumes disponíveis.
ERRO DE AMBIENTE UDF
Falha ao instalar as dependências do UDF para <udfName>
.
Para obter mais detalhes, consulte UDF_ENVIRONMENT_ERROR
ERRO_UDF
SQLSTATE: nenhum atribuído
Falha na execução da função <fn>
Para obter mais detalhes, consulte UDF_ERROR
LIMITES_UDF
Um ou mais limites de UDF foram violados.
Para obter mais detalhes, consulte UDF_LIMITS
UDF_MAX_COUNT_EXCEEDED
Excedeu o limite de UDF de <maxNumUdfs>
UDFs em toda a consulta (limitado durante a visualização pública). Encontrou <numUdfs>
. Os UDFs foram: <udfNames>
.
UDF_PYSPARK_ERROR
O Python worker saiu inesperadamente
Para obter mais detalhes, consulte UDF_PYSPARK_ERROR
UDF_PYSPARK_UNSUPPORTED_TYPE
PySpark UDF <udf> (<eval-type>
) não é compatível com o clustering no modo de acesso padrão (antigo modo de acesso compartilhado).
UDF_PYSPARK_USER_CODE_ERROR
A execução falhou.
Para obter mais detalhes, consulte UDF_PYSPARK_USER_CODE_ERROR
VALOR_PADRÃO DO PARÂMETRO UDF_NÃO SUPORTADO
O valor do parâmetro default não é compatível com a função <functionType>
definida pelo usuário.
UDF_USER_CODE_ERROR
A execução da função <fn>
falhou.
Para obter mais detalhes, consulte UDF_USER_CODE_ERROR
UDTF_ALIAS_NUMBER_MISCOMPATIBILIDADE
O número de aliases fornecidos na cláusula AS não corresponde ao número de colunas geradas pela UDTF.
Esperava apelidos <aliasesSize>
, mas recebi <aliasesNames>
.
Certifique-se de que o número de aliases fornecidos corresponda ao número de colunas geradas pela UDTF.
UDTF_INVALID_ALIAS_IN_REQUESTED_ORDERING_STRING_FROM_ANALYZE_METHOD
Falha ao avaliar a função de tabela definida pelo usuário porque seu método 'analyze' retornou uma OrderingColumn solicitada cuja expressão de nome de coluna incluía um alias desnecessário <aliasName>
; remova esse alias e tente a consulta novamente.
UDTF_INVALID_REQUESTED_SELECTED_EXPRESSION_FROM_ANALYZE_METHOD_REQUIRES_ALIAS
Falha ao avaliar a função de tabela definida pelo usuário porque seu método 'analyze' retornou uma expressão 'select' solicitada (<expression>
) que não inclui um alias correspondente; atualize a UDTF para especificar um alias e tente a consulta novamente.
INCAPAZ DE ADQUIRIR MEMÓRIA
Não foi possível adquirir <requestedBytes>
bytes de memória, obtive <receivedBytes>
.
INCAPAZ DE CONVERTER EM PROTOBUF_MESSAGE_TYPE
Não é possível converter o tipo SQL <toType>
para o tipo Protobuf <protobufType>
.
NÃO É POSSÍVEL BUSCAR TABELAS HIVE
Não foi possível buscar tabelas do banco de dados Hive: <dbName>
. Nome da classe de erro: <className>
.
INCAPAZ DE INFERIR O ESQUEMA
Não é possível inferir o esquema para <format>
. Ele deve ser especificado manualmente.
ACESSO_NÃO AUTORIZADO
Acesso não autorizado:
<report>
PARÂMETRO_SQL_UNBOUND_
Foi encontrado o parâmetro não vinculado: <name>
. Por favor, corrija o site args
e forneça um mapeamento do parâmetro para um literal SQL ou funções de construtor de coleção, como map()
, array()
, struct()
.
COMENTÁRIO COM COLCHETES NÃO FECHADOS
Encontrei um comentário não fechado entre colchetes. Por favor, anexe */ no final do comentário.
TIPO_DE_ENTRADA INESPERADO
O parâmetro <paramIndex>
da função <functionName>
requer o tipo <requiredType>
, porém <inputSql>
tem o tipo <inputType>
.
PARÂMETRO_TIPO_DE_NOME_DA_ENTRADA INESPERADO
O parâmetro <namedParamKey>
da função <functionName>
requer o tipo <requiredType>
, mas <inputSql>
tem o tipo <inputType>
.<hint>
OPERADOR_IN_STREAMING_VIEW INESPERADO
Operador inesperado <op>
na declaração CREATE VIEW
como uma fonte de transmissão.
Uma consulta de transmissão view deve consistir apenas em SELECT
, WHERE
e UNION ALL
operações.
ARGUMENTO_POSICIONAL_INESPERADO
Não é possível invocar a rotina <routineName>
porque ela contém argumentos posicionais após o argumento nomeado atribuído a <parameterName>
; reorganize-os para que os argumentos posicionais venham primeiro e, em seguida, tente novamente a consulta.
SERIALIZER_FOR_CLASS INESPERADO
A classe <className>
tem um serializador de expressões inesperado. Espera “STRUCT
” ou “IF
”, que retorna “STRUCT
”, mas encontrou <expr>
.
EXCEÇÃO DE CAMPO DESCONHECIDA
Encontrou <changeType>
durante a análise: <unknownFieldBlob>
, que pode ser corrigida com uma nova tentativa automática: <isRetryable>
Para obter mais detalhes, consulte UNKNOWN_FIELD_EXCEPTION
ARGUMENTO_POSICIONAL_DESCONHECIDO
A invocação da rotina <routineName>
contém um argumento posicional desconhecido <sqlExpr>
na posição <pos>
. Isso é inválido.
TIPO EM VARIANTE PRIMITIVA DESCONHECIDA
Um tipo primitivo desconhecido com id <id>
foi encontrado em um valor variante.
TIPO DE MENSAGEM DE PROTOBUF_DESCONHECIDO
Tentando tratar <descriptorName>
como uma mensagem, mas era <containingType>
.
UNPIVOT_REQUIRES_ATTRIBUTES
UNPIVOT
exige que todas as expressões <given>
fornecidas sejam colunas quando nenhuma expressão <empty>
é fornecida. Essas não são colunas: [<expressions>
].
UNPIVOT_REQUIRES_VALUE_COLUMNS
Pelo menos uma coluna de valor precisa ser especificada para UNPIVOT
, todas as colunas especificadas como ids.
UNPIVOT_VALUE_DATA_TYPE_MISMATCH
As colunas de valor Unpivot devem compartilhar um tipo menos comum, mas alguns tipos não: [<types>
].
UNPIVOT_VALUE_SIZE_MISMATCH
Todas as colunas de valores não dinâmicos devem ter o mesmo tamanho que os nomes das colunas de valores (<names>
).
NOME_DO_PARÂMETRO NÃO RECONHECIDO
Não é possível invocar a rotina <routineName>
porque a chamada de rotina incluiu uma referência de argumento nomeada para o argumento chamado <argumentName>
, mas essa rotina não inclui nenhuma assinatura contendo um argumento com esse nome. Você quis dizer uma das seguintes? [<proposal>
].
TIPO_SQL_TYPE NÃO RECONHECIDO
Tipo de SQL não reconhecido - nome: <typeName>
, id: <jdbcType>
.
ESTATÍSTICA NÃO RECONHECIDA
A estatística <stats>
não é reconhecida. As estatísticas válidas incluem count
, count_distinct
, approx_count_distinct
, mean
, stddev
, min
, max
e valores percentuais. O percentil deve ser um valor numérico seguido por '%', dentro do intervalo de 0% a 100%.
FUNÇÃO_TABLE_VALUED_DE_TABELA NÃO RESOLVIDA
Não foi possível resolver <name>
para uma função com valor de tabela.
Certifique-se de que <name>
esteja definida como uma função com valor de tabela e que todos os parâmetros necessários sejam fornecidos corretamente.
Se <name>
não estiver definido, crie a função com valor de tabela antes de usá-la.
Para obter mais informações sobre a definição de funções com valores de tabela, consulte a documentação do site Apache Spark.
NÃO RESOLVIDO _ALL_IN_GROUP_BY
Não é possível inferir colunas de agrupamento para GROUP BY ALL
com base na cláusula select. Especifique explicitamente as colunas de agrupamento.
COLUNA_DE_RESOLUÇÃO
Um parâmetro de coluna, variável ou função com o nome <objectName>
não pode ser resolvido.
Para obter mais detalhes, consulte UNRESOLVED_COLUMN
CAMPO_DE_RESOLUÇÃO
Um campo com o nome <fieldName>
não pode ser resolvido com a coluna do tipo de estrutura <columnPath>
.
Para obter mais detalhes, consulte UNRESOLVED_FIELD
CHAVE_MAP_CHAVE NÃO RESOLVIDA
Não é possível resolver a coluna <objectName>
como um mapa key. Se o key for um literal de cadeia de caracteres, adicione aspas simples '' ao redor dele.
Para obter mais detalhes, consulte UNRESOLVED_MAP_KEY
ROTINA NÃO RESOLVIDA
Não é possível resolver a rotina <routineName>
no caminho de pesquisa <searchPath>
.
Verifique a ortografia de <routineName>
, verifique se a rotina existe e confirme se você tem o privilégio USE
no catálogo e no esquema e EXECUTE
na rotina.
Para obter mais detalhes, consulte UNRESOLVED_ROUTINE
NÃO RESOLVIDO USING_COLUMN_FOR_JOIN
USING
A coluna <colName>
não pode ser resolvida no lado <side>
do site join. As colunas do lado <side>
: [<suggestion>
].
VARIÁVEL_NÃO RESOLVIDA
Não é possível resolver a variável <variableName>
no caminho de pesquisa <searchPath>
.
PROCESSAMENTO DE DADOS NÃO ESTRUTURADOS _FORMATO DE ARQUIVO NÃO SUPORTADO
O formato de arquivo não estruturado <format>
não é suportado. Os formatos de arquivo suportados são <supportedFormats>
.
Atualize o format
da sua expressão <expr>
para um dos formatos compatíveis e, em seguida, tente novamente a consulta.
MODELO_DE_PROCESSAMENTO_NÃO SUPORTADO_DADOS NÃO ESTRUTURADOS
O modelo não estruturado <model>
não é suportado. Os modelos suportados são <supportedModels>
.
Mude para um dos modelos compatíveis e, em seguida, repita a consulta.
UNSTRUCTURED_OCR_COLUMN_NOT_ALLOWED_WITH_METADATA_MODEL_OPTION
O parâmetro da função 'OCRText' deve ser NULL
ou omitido quando a opção 'MetadataModel' é especificada. Uma opção 'MetadataModel' especificada aciona a extração de metadados, onde um 'OCRText' fornecido é proibido.
_ADD_FILE NÃO SUPORTADO
Não suporta adicionar arquivo.
Para obter mais detalhes, consulte UNSUPPORTED_ADD_FILE
PARÂMETRO_ALTER_COLUMN_DE_COLUMN NÃO SUPORTADO
A especificação de <parameter>
com ALTER <commandTableType>
não é suportada.
TIPO DE SETA NÃO SUPORTADO
Tipo de seta <typeName>
não suportado.
FUNÇÃO_BATCH_TABLE_VALUED_VALUED_FUNCTION NÃO SUPORTADA
A função <funcName>
não oferece suporte a consultas de lotes.
CHAMADA NÃO SUPORTADA
Não é possível chamar o método “<methodName>
” da classe “<className>
”.
Para obter mais detalhes, consulte UNSUPPORTED_CALL
_CHAR_OR_VARCHAR_AS_STRING NÃO SUPORTADO
O tipo char/varchar não pode ser usado no esquema da tabela.
Se o senhor quiser que o site Spark os trate como tipos de cadeias de caracteres iguais aos do site Spark 3.0 e anteriores, defina "spark.sql.legacy.charVarcharAsString" como "true".
CLÁUSULA_PARA_OPERAÇÃO NÃO SUPORTADA
O <clause>
não é compatível com <operation>
.
UNSUPPORTED_COLLATION
O agrupamento <collationName>
não é suportado para:
Para obter mais detalhes, consulte UNSUPPORTED_COLLATION
NÃO SUPORTADO_COMMON_ANCESTOR_LOC_FOR_FILE_STREAM_SOURCE
O ancestral comum do caminho de origem e do sourceArchiveDir deve ser registrado na UC.
Se receber essa mensagem de erro, é provável que o caminho de origem e o sourceArchiveDir tenham sido registrados em locais externos diferentes.
Coloque-os em um único local externo.
CLÁUSULAS DE RESTRIÇÃO NÃO SUPORTADAS
As cláusulas de restrição <clauses>
não são suportadas.
TIPO_DE_RESTRIÇÃO NÃO SUPORTADO
Tipo de restrição não suportado. Somente <supportedConstraintTypes>
são suportados
FONTE DE DADOS NÃO SUPORTADA PARA CONSULTA DIRETA
Tipo de fonte de dados não suportado para consulta direta em arquivos: <dataSourceType>
TIPO DE DADOS NÃO SUPORTADO
Tipo de dados não suportado <typeName>
.
DATA_SOURCE_SAVE_MODE NÃO SUPORTADO
A fonte de dados "<source>
" não pode ser gravada no modo <createMode>
. Em vez disso, use o modo “Anexar” ou “Substituir”.
DATA_TYPE_FOR_DATASOURCE NÃO SUPORTADO
A fonte de dados <format>
não suporta a coluna <columnName>
do tipo <columnType>
.
DATA_TYPE_FOR_ENCODER NÃO SUPORTADO
Não é possível criar um codificador para <dataType>
. Utilize um tipo de dados de saída diferente para seu UDF ou DataFrame.
VALOR_DEFAULT_PADRÃO NÃO SUPORTADO
DEFAULT
valores de coluna não são suportados.
Para obter mais detalhes, consulte UNSUPPORTED_DEFAULT_VALUE
DESERIALIZADOR NÃO SUPORTADO
O desserializador não é suportado:
Para obter mais detalhes, consulte UNSUPPORTED_DESERIALIZER
EXPRESSION_GENERATED_COLUMN NÃO SUPORTADA
Não é possível criar a coluna <fieldName>
gerada com a expressão de geração <expressionStr>
porque <reason>
.
EXPR_FOR_OPERATOR NÃO SUPORTADO
Um operador de consulta contém uma ou mais expressões não suportadas.
Considere reescrevê-la para evitar funções de janela, funções agregadas e funções geradoras na cláusula WHERE
.
Expressões inválidas: [<invalidExprSqls>
]
EXPR_FOR_PARAMETER NÃO SUPORTADO
Um parâmetro de consulta contém expressões não suportadas.
Os parâmetros podem ser variáveis ou literais.
Expressão inválida: [<invalidExprSql>
]
EXPR_FOR_WINDOW NÃO SUPORTADO
A expressão <sqlExpr>
não é suportada em uma função de janela.
FUNCIONALIDADE_NÃO SUPORTADA
O recurso não é suportado:
Para obter mais detalhes, consulte UNSUPPORTED_FEATURE
TIPO_FN NÃO SUPORTADO
Tipo de função definido pelo usuário não suportado: <language>
GERADOR_DE_SUPORTADO
O gerador não é suportado:
Para obter mais detalhes, consulte UNSUPPORTED_GENERATOR
EXPRESSÃO DE AGRUPAMENTO NÃO SUPORTADA
grouping () /grouping_id () só pode ser usado com groupingSets/cube/Rollup.
POSIÇÃO_INICIAL_AND_TRIGGER_PAIR_FOR_KINESIS_SOURCE NÃO SUPORTADA
<trigger>
com a posição inicial <initialPosition>
não é compatível com a fonte Kinesis
INSUPPORTED_INSERT
Não é possível inserir no alvo.
Para obter mais detalhes, consulte UNSUPPORTED_INSERT
TYPE_JOIN_TYPE NÃO SUPORTADO
Não suportado join type '<typ>
'. Os tipos de join suportados incluem: <supported>
.
CRIAÇÃO DE TABELA GERENCIADA NÃO SUPORTADA
Não há suporte para a criação de uma tabela gerenciar <tableName>
usando o recurso de dados <dataSource>
. Você precisa usar a fonte de dados DELTA
ou criar uma tabela externa usando CREATE EXTERNAL TABLE <tableName>
... USING <dataSource>
...
CONDIÇÃO_DE FUSÃO NÃO SUPORTADA
MERGE
operações contém uma condição não suportada <condName>
.
Para obter mais detalhes, consulte UNSUPPORTED_MERGE_CONDITION
POLICY_NESTED_ROW_OR_COLUMN_ACCESS_POLICY NÃO SUPORTADA
A tabela <tableName>
tem uma política de segurança em nível de linha ou máscara de coluna que se refere indiretamente a outra tabela com uma política de segurança em nível de linha ou máscara de coluna; isso não é suportado. Sequência de chamadas: <callSequence>
UNSUPPORTED_OVERWRITE
Não é possível sobrescrever o alvo do qual também está sendo lido.
Para obter mais detalhes, consulte UNSUPPORTED_OVERWRITE
TRANSFORMAÇÃO DE PARTIÇÃO NÃO SUPORTADA
Transformação de partição não suportada: <transform>
. As transformações suportadas são identity
, bucket
e clusterBy
. Certifique-se de que sua expressão de transformação use uma dessas.
MODE_SAVE_MODE NÃO SUPORTADO
O modo de salvamento <saveMode>
não é suportado para:
Para obter mais detalhes, consulte UNSUPPORTED_SAVE_MODE
NÃO SUPORTADO_SHOW_CREATE_TABLE
Sem suporte a SHOW CREATE TABLE
comando.
Para obter mais detalhes, consulte UNSUPPORTED_SHOW_CREATE_TABLE
FEATURE_SINGLE_PASS_ANALYZER_FEATURE NÃO SUPORTADO
O analisador de passagem única não pode processar essa consulta ou comando porque ainda não é compatível com <feature>
.
OPERADOR DE STREAMING_WITHOUT_WATERMARK NÃO SUPORTADO
<outputMode>
modo de saída não suportado para <statefulOperator>
na transmissão DataFrames/dataset without watermark.
OPÇÕES DE STREAMING_FOR_VIEW NÃO SUPORTADAS
Não suportado para transmissão para view. Motivo:
Para obter mais detalhes, consulte UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW
NÃO SUPORTED_STREAMING_OPTIONS_PERMISSION_ENFORCED
As opções de transmissão <options>
não são compatíveis com a fonte de dados <source>
em um clustering de modo de acesso padrão (anteriormente compartilhado). Confirme se as opções estão especificadas e escritas corretamente e verifiquehttps://docs.databricks.com/en/compute/access-mode-limitations.html#streaming-limitations-and-requirements-for-unity-catalog-shared-access-mode para ver as limitações.
PERMISSION_PERMISSION_INFORCED_STREAMING_SINK_ENFORCED
A fonte de dados <sink>
não é suportada como um sink de transmissão em um clustering de modo de acesso padrão (anteriormente compartilhado).
NÃO SUPORTED_STREAMING_SOURCE_PERMISSION_ENFORCED
A fonte de dados <source>
não é suportada como uma fonte de transmissão em um clustering de modo de acesso padrão (anteriormente compartilhado).
FUNÇÃO_STREAMING_TABLE_VALUED_DE_TABELA NÃO SUPORTADA
A função <funcName>
não é compatível com a transmissão. Remova a palavra-chave STREAM
_STREAM_READ_LIMIT_FOR_KINESIS_SOURCE NÃO SUPORTADO
<streamReadLimit>
não é compatível com a fonte Kinesis
SUBQUERY_EXPRESSION_CATEGORY NÃO SUPORTADA
Expressão de subconsulta não suportada:
Para obter mais detalhes, consulte UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY
_TIMESERIES_COLUMNS NÃO SUPORTADAS
Não há suporte para a criação do site key primário com colunas de séries temporais
SÉRIE TEMPORAL NÃO SUPORTADA COM _MORE_THAN_ONE_COLUMN
Não há suporte para a criação do site key primário com mais de uma coluna de série temporal <colSeq>
_TRIGGER_FOR_KINESIS_SOURCE NÃO SUPORTADO
<trigger>
não é compatível com a fonte Kinesis
NÃO SUPORTADO_TYPED_LITERAL
Literais do tipo <unsupportedType>
não são suportados. Os tipos suportados são <supportedTypes>
.
FUNCIONALIDADE_UDF_FEATURE NÃO SUPORTADO
A função <function>
usa o(s) seguinte(s) recurso(s) que requerem uma versão mais recente do tempo de execução do Databricks: <features>
. Consulte <docLink>
para obter detalhes.
_UDF_TYPES_IN_SAME_PLACE NÃO SUPORTADO
Os tipos de UDF não podem ser usados juntos: <types>
SCALA_UDF NÃO DIGITADO
O senhor está usando o Scala UDF não tipado, que não tem o tipo de informação de entrada.
Spark pode cegamente passar null para o fechamento Scala com argumento de tipo primitivo, e o fechamento verá o valor default do tipo Java para o argumento null, por exemplo. udf((x: Int) => x, IntegerType)
, o resultado é 0 para entrada nula. Para se livrar desse erro, você poderia:
- usar APIs Scala UDF tipadas (sem parâmetro de tipo de retorno), por exemplo.
udf((x: Int) => x)
. - usar APIs Java UDF, por exemplo.
udf(new UDF1[String, Integer] { override def call(s: String): Integer = s.length() }, IntegerType)
, se os tipos de entrada forem todos não primitivos. - Defina "spark.sql.legacy.allowUntypedScalaUDF" como "true" e use essa API com cautela.
ATUALIZAÇÃO NÃO SUPORTADA
A tabela não é elegível para upgrade de Hive metastore para Unity Catalog. Motivo:
Para obter mais detalhes, consulte UPGRADE_NOT_SUPPORTED
FUNÇÕES_DEFINIDAS PELO USUÁRIO
A função definida pelo usuário é inválida:
Para obter mais detalhes, consulte USER_DEFINED_FUNCTIONS
USER_RAISED_EXCEPTION
<errorMessage>
USER_RAISED_EXCEPTION_PARAMETER_PARAMETER_MISMATCH
A função raise_error()
foi usada para gerar a classe de erro: <errorClass>
, que espera parâmetros: <expectedParms>
.
Os parâmetros fornecidos <providedParms>
não correspondem aos parâmetros esperados.
Certifique-se de fornecer todos os parâmetros esperados.
USER_RAISED_EXCEPTION_UNKNOWN_ERROR_CLASS
A função raise_error()
foi usada para gerar uma classe de erro desconhecida: <errorClass>
A VARIÁVEL_JÁ_EXISTE
Não é possível criar a variável <variableName>
porque ela já existe.
Escolha um nome diferente ou elimine ou substitua a variável existente.
VARIÁVEL_NÃO_ENCONTRADA
A variável <variableName>
não pode ser encontrada. Verifique a ortografia e a exatidão do esquema e do catálogo.
Se você não qualificou o nome com um esquema e um catálogo, verifique a saída current_schema () ou qualifique o nome com o esquema e o catálogo corretos.
Para tolerar o erro ao descartar, use DROP VARIABLE IF EXISTS
.
LIMITE DE TAMANHO DO CONSTRUTOR DA VARIANTE
Não é possível construir uma variante maior que 16 MiB. O tamanho máximo permitido de um valor de Variante é 16 MiB.
VARIANTE_DUPLICATE_KEY
Falha ao criar a variante devido a um objeto duplicado key <key>
.
LIMITE DE TAMANHO DA VARIANTE
Não é possível criar uma variante maior que <sizeLimit>
em <functionName>
.
Evite usar strings de entrada grandes para essa expressão (por exemplo, adicione chamadas de função para verificar o tamanho da expressão e convertê-la para NULL
primeiro se for muito grande).
visualização
Não é possível criar view <relationName>
porque ele já existe.
Escolha um nome diferente, elimine ou substitua o objeto existente ou adicione a cláusula IF NOT EXISTS
para tolerar objetos preexistentes.
visualização
A profundidade de view <viewName>
excede a profundidade máxima da resolução de view (<maxNestedDepth>
).
A análise é abortada para evitar erros. Se o senhor quiser contornar esse problema, tente aumentar o valor de "spark.sql.view.maxNestedViewDepth".
visualização
O endereço view <relationName>
não pode ser encontrado. Verifique a ortografia e a exatidão do esquema e do catálogo.
Se você não qualificou o nome com um esquema, verifique a saída current_schema () ou qualifique o nome com o esquema e o catálogo corretos.
Para tolerar o erro ao descartar, use DROP VIEW IF EXISTS
.
O VOLUME _JÁ_EXISTE_
Não é possível criar o volume <relationName>
porque ele já existe.
Escolha um nome diferente, elimine ou substitua o objeto existente ou adicione a cláusula IF NOT EXISTS
para tolerar objetos preexistentes.
INCOMPATIBILIDADE DE FUNÇÃO DE JANELA E DE ESTRUTURA
<funcName>
A função só pode ser avaliada em uma moldura de janela ordenada baseada em linhas com um único deslocamento: <windowExpr>
.
WINDOW_FUNCTION_WITHOUT_OVER_CLAUSE
A função de janela <funcName>
requer uma cláusula OVER.
WITH_CREDENTIAL
WITH CREDENTIAL
a sintaxe não é suportada para <type>
.
WRITE_STREAM_NOT_ALLOWED
writeStream
pode ser chamado apenas no conjunto de dados de transmissão/DataFrame.
WRONG_COLUMN_DEFAULTS_PAR_DELTA_ALTER_TABLE_ADD_COLUMN_NOT_SUPPORTED
Falha ao executar o comando porque os valores de DEFAULT
não são suportados ao adicionar novos
colunas em tabelas Delta existentes anteriormente; adicione a coluna sem um default
primeiro, e depois executar um segundo ALTER TABLE ALTER COLUMN SET DEFAULT
comando para aplicar o
em vez disso, para futuras linhas inseridas.
WRONG_COLUMN_DEFAULTS_FOR_DELTA_FEATURE_NOT_ENABLED
Falha ao executar o comando <commandType>
porque ele atribuiu um valor à coluna DEFAULT
,
mas o recurso de tabela correspondente não foi ativado. Tente novamente o comando
depois de executar ALTER TABLE
TableName SET
TBLPROPERTIES
('delta.recurso.allowColumnDefaults' = 'suportado').
COMANDO_DO_ERRADO PARA TIPO DE OBJETO
As operações <operation>
requerem um <requiredType>
. Mas <objectName>
é <foundType>
. Em vez disso, use <alternative>
.
NUM_ARGS ERRADO
O <functionName>
requer parâmetros <expectedNum>
, mas o número real é <actualNum>
.
Para obter mais detalhes, consulte WRONG_NUM_ARGS
XML_ROW_TAG_AUSENTE
<rowTag>
a opção é necessária para ler arquivos no formato XML.
TIPOS_ANINHADOS_XML_NÃO SUPORTADOS
O XML não suporta <innerDataType>
como tipo interno de <dataType>
. Por favor, envolva o <innerDataType>
em um campo StructType ao usá-lo dentro de <dataType>
.
XML_WILDCARD_RESCUED_DATA_CONFLICT_ERROR
Os dados recuperados e a coluna curinga não podem ser ativados simultaneamente. Remova a opção wildcardColumnName.
ZORDERBY_COLUMN_DOES_NÃO_EXISTE
A coluna <columnName>
do ZorderBy não existe.
Delta Lake
SESSÃO DELTA_ACTIVE_SPARK_NÃO ENCONTRADA
Não foi possível encontrar a SparkSession ativa
DELTA_ACTIVE_TRANSACTION_JA_SET
Não é possível definir um novo txn como ativo quando um já está ativo
DELTA_ADDING_COLUMN_WITH_INTERNAL_NAME_FAILED
Falha ao adicionar a coluna <colName>
porque o nome está reservado.
DELTA_ADDING_DELETION_VECTORS_NÃO PERMITIDO
As operações atuais tentaram adicionar um vetor de exclusão a uma tabela que não permite a criação de novos vetores de exclusão. Por favor, registre um relatório de bug.
DELTA_ADDING_DELETION_VECTORS_WITH_TIGHT_BOUNDS_DISALLOWED
Todas as operações que adicionam vetores de exclusão devem definir a coluna tightBounds nas estatísticas como false. Por favor, registre um relatório de bug.
DELTA_ADD_COLUMN_AT_INDEX_LESS_THA_ZERO
O índice <columnIndex>
para adicionar a coluna <columnName>
é menor que 0
DELTA_ADD_COLUMN_PARENT_NO_STRUCT
Não é possível adicionar <columnName>
porque seu pai não é um StructType. Encontrado <other>
DELTA_ADD_COLUMN_STRUCT_NOT_FOUND
Estrutura não encontrada na posição <position>
DELTA_ADD_CONSTRAINTS
Use ALTER TABLE
ADD CONSTRAINT
para adicionar restrições CHECK
.
DELTA_AGGREGATE_IN_GENERATED_COLUMN
Encontrou <sqlExpr>
. Uma coluna gerada não pode usar uma expressão agregada
DELTA_AGGREGATION_NÃO SUPORTADO
As funções agregadas não são suportadas no <operation> <predicate>
.
FILTRO DE BLOOM DELTA_ALTER_COLLATION_NOT_SUPPORTED_BLOOM
Falha ao alterar o agrupamento da coluna <column>
porque ela tem um índice de filtro de flor. Mantenha o agrupamento existente ou elimine o índice do filtro de floração e tente novamente o comando para alterar o agrupamento.
DELTA_ALTER_COLLATION_NOT_SUPPORTED_CLUSTER_BY
Falha ao alterar o agrupamento da coluna <column>
porque ela é uma coluna clustering. Por favor, mantenha o agrupamento existente ou altere a coluna para uma coluna nãoclustering com um comando ALTER TABLE
e, em seguida, tente novamente o comando para alterar o agrupamento.
DELTA_ALTER_TABLE_CHANGE_COL_NO_SUPPORTED
ALTER TABLE CHANGE COLUMN
não é suportado para alterar a coluna <currentType>
para <newType>
DELTA_ALTER_TABLE_CLUSTER_BY_NOT_ALLOWED
ALTER TABLE CLUSTER BY
é compatível apenas com a tabela Delta com clustering Liquid.
DELTA_ALTER_TABLE_CLUSTER_BY_ON_PARTITIONED_TABLE_NOT_ALLOWED
ALTER TABLE CLUSTER BY
não pode ser aplicado a uma tabela particionada.
DELTA_ALTER_TABLE_RENOME_NÃO PERMITIDO
operações não permitidas: ALTER TABLE RENAME
TO não é permitido para gerenciar Delta tabelas em S3, pois eventual consistência em S3 pode corromper a transação Delta log. Se o senhor insistir em fazer isso e tiver certeza de que nunca houve uma tabela Delta com o novo nome <newName>
antes, poderá habilitá-la definindo <key>
como true.
DELTA_ALTER_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED
Não é possível ativar o recurso da tabela <tableFeature>
usando ALTER TABLE SET TBLPROPERTIES
. Use CREATE
OU REPLACE TABLE CLUSTER BY
para criar uma tabela Delta com clustering.
ALTERAÇÃO DO TIPO DE DADOS DELTA_AMBIGUOUS_
Não é possível alterar o tipo de dados de <column>
de <from>
para <to>
. Essa alteração contém remoções e adições de colunas, portanto, elas são ambíguas. Faça essas alterações individualmente usando ALTER TABLE
[ADD | DROP | RENAME
] COLUMN
.
COLUNA DE PARTIÇÃO DELTA AMBÍGUA
A coluna de partição ambígua <column>
pode ser <colMatches>
.
CAMINHOS DELTA_AMBÍGUOS EM _CREATE_TABLE
CREATE TABLE
contém dois locais diferentes: <identifier>
e <location>
.
Você pode remover a cláusula LOCATION
da instrução CREATE TABLE
ou definir
<config>
para verdadeiro para pular essa verificação.
DELTA_ARQUIVADOS_IN_LIMIT
A Tabela <table>
não contém registros suficientes em arquivos não arquivados para satisfazer os registros LIMIT
de <limit>
especificados.
DELTA_ARQUIVADOS_IN_SCAN
Foram encontrados <numArchivedFiles>
arquivos potencialmente arquivados na tabela <table>
que precisam ser digitalizados como parte dessa consulta.
Os arquivos arquivados não podem ser acessados. A hora atual até o arquivamento está configurada como <archivalTime>
.
Ajuste seus filtros de consulta para excluir quaisquer arquivos arquivados.
DELTA_BLOCK_COLUMN_MAPPING_AND_CDC_OPERATION
As operações "<opName>
" não são permitidas quando a tabela tiver ativado o feed de dados de alteração (CDF) e tiver sofrido alterações de esquema usando DROP COLUMN
ou RENAME COLUMN
.
DELTA_BLOOM_FILTER_DROP_ON_NON_EXISTING_COLUNAS
Não é possível eliminar índices de filtro de floração para as seguintes colunas inexistentes: <unknownColumns>
DELTA_BLOOM_FILTER_OOM_ON_WRITE
Ocorreu OutOfMemoryError ao escrever índices de filtro bloom para a (s) seguinte (s) coluna (s): <columnsWithBloomFilterIndices>
.
Você pode reduzir o consumo de memória dos índices do filtro bloom escolhendo um valor menor para a opção 'numItems', um valor maior para a opção 'fpp' ou indexando menos colunas.
DELTA_NÃO PODE ALTERAR O TIPO DE DADOS
Não é possível alterar o tipo de dados: <dataType>
DELTA_NÃO_PODE_ALTERAR_LOCALIZAÇÃO
Não é possível alterar o "local" da tabela Delta usando SET TBLPROPERTIES
. Em vez disso, use ALTER TABLE SET LOCATION
.
DELTA_CANNOT_CHANGE_PROVIDER
'provider' é uma propriedade de tabela reservada e não pode ser alterada.
DELTA_CANNOT_CREATE_BLOOM_FILTER_NON_EXISTING_COL
Não é possível criar índices de filtro de floração para as seguintes colunas inexistentes: <unknownCols>
DELTA_NÃO_CONSEGUE_CRIAR_LOG_PATH
Não é possível criar <path>
DELTA_CANNOT_DESCRIBE_VIEW_HISTORY
Não é possível descrever a história de um view.
DELTA_CANNOT_DROP_BLOOM_FILTER_ON_NON_INDEXED_COLUMN
Não é possível descartar o índice do filtro Bloom em uma coluna não indexada: <columnName>
DELTA_CANNOT_DROP_CHECK_CONSTRAINT_FEATURE
Não é possível eliminar o recurso da tabela de restrições CHECK
.
As seguintes restrições devem ser eliminadas primeiro: <constraints>
.
DELTA_CANNOT_DROP_COLLATIONS_FEATURE
Não é possível eliminar o recurso da tabela de collations.
As colunas com collations nãodefault devem ser alteradas para usar UTF8_BINARY first: <colNames>
.
DELTA_CANNOT_EVALUATE_EXPRESSION
Não é possível avaliar a expressão: <expression>
DELTA_CANNOT_FIND_BUCKET_SPEC
Esperando uma tabela Delta de bucketing, mas não consegue encontrar a especificação do bucket na tabela
DELTA_NÃO_CONSEGUE_GERAR_CÓDIGO_PARA_EXPRESSÃO
Não é possível gerar código para expressão: <expression>
DELTA_CANNOT_MODIFY_APPEND_ONLY
Essa tabela está configurada para permitir somente acréscimos. Se você quiser permitir atualizações ou exclusões, use 'ALTER TABLE
<table_name> SET TBLPROPERTIES (<config>
=false)'.
DELTA_CANNOT_MODIFY_COORDINATED_COMMITS_DEPENDENCIES
<Command>
não pode substituir ou cancelar a definição das propriedades da tabela de carimbo de data/hora emcommit porque o commit coordenado está ativado nessa tabela e depende delas. Por favor, remova-os (“delta.enableInCommitTimeStamps”, “Versão de habilitação do selo de data/hora delta.incommit”, “Carimbo de data/hora de habilitação do selo de data e hora do delta.in commit”) da cláusula TBLPROPERTIES
e, em seguida, tente novamente o comando.
DELTA_NÃO PODE MODIFICAR A PROPRIEDADE DA TABELA
A configuração da tabela Delta <prop>
não pode ser especificada pelo usuário
DELTA_NÃO PODE ANULAR_COORDINATED_COMMITS_CONFS
<Command>
não pode substituir as configurações de confirmação coordenadas para uma tabela de destino existente. Remova-os ("delta.coordinatedCommits.commitCoordinator-preview", "delta.coordinatedCommits.commitCoordinatorConf-preview", "delta.coordinatedCommits.tableConf-preview") da cláusula TBLPROPERTIES
e tente novamente o comando.
DELTA_NÃO_CONSEGUE_RECONSTRUIR_CAMINHO_DE_URI
Um uri (<uri>
) que não pode ser transformado em um caminho relativo foi encontrado na transação log.
DELTA_NÃO CONSEGUE_RELATIVIZE_PATH
Um caminho (<path>
) que não pode ser relativizado com a entrada atual encontrada no
transação log. Por favor, reexecute isso como:
%%scala com.databricks.delta.delta.FixAbsolutePathSinLog (“<userPath>
”, verdadeiro)
e depois também a execução:
%%scala com.databricks.delta.delta.FixAbsolutePathSinLog (“<path>
”)
DELTA_NÃO CONSEGUE_RENOMEAR_CAMINHO
Não é possível renomear <currentPath>
para <newPath>
DELTA_CANNOT_REPLACE_TABLE_MISSING_TABLE
A tabela <tableName>
não pode ser substituída porque não existe. Use CREATE
OU REPLACE TABLE
para criar a tabela.
COLUNA DELTA NÃO PODE RESOLVER
Não é possível resolver a coluna <columnName>
em <schema>
DELTA_NÃO CONSEGUE RESTAURAR A VERSÃO DA TABELA
Não é possível restaurar a tabela para a versão <version>
. Versões disponíveis: [<startVersion>
, <endVersion>
].
DELTA_CANNOT_RESTORE_TIMESTAMP_EARLY
Não é possível restaurar a tabela com o carimbo de data/hora (<requestedTimestamp>
), pois estava antes da versão mais antiga disponível. Use um carimbo de data/hora após (<earliestTimestamp>
).
DELTA_CANNOT_RESTORE_TIMESTAMP_GREATER
Não é possível restaurar a tabela com o carimbo de data/hora (<requestedTimestamp>
), pois está após a versão mais recente disponível. Use um carimbo de data/hora antes (<latestTimestamp>
)
DELTA_CANNOT_SET_COORDINATED_COMMITS_DEPENDENCIES
<Command>
não pode definir as propriedades da tabela de carimbo de data/hora emcommit juntamente com o commit coordenado, porque o último depende do primeiro e define o primeiro internamente. Por favor, remova-os (“delta.enableInCommitTimeStamps”, “Versão de habilitação do selo de data/hora delta.incommit”, “Carimbo de data/hora de habilitação do selo de data e hora do delta.in commit”) da cláusula TBLPROPERTIES
e, em seguida, tente novamente o comando.
DELTA_CANNOT_SET_LOCATION_ON_PATH_IDENTIFIER
Não é possível alterar a localização de uma tabela baseada em caminhos.
DELTA_CANNOT_SET_MANAGED_STATS_COLUMNS_PROPERTY
Não é possível definir delta.managedDataSkippingStatsColumns em uma tabela não DLT
DELTA_CANNOT_SET_UC_COMMIT_COORDINATOR_CONF_IN_COMMAND
Ao ativar o 'unity-catalog' como coordenador do commit, a configuração "<configuration>
" não pode ser definida pelo comando. Por favor, remova-o da cláusula TBLPROPERTIES
e tente novamente o comando.
DELTA_CANNOT_SET_UC_COMMIT_COORDINATOR_CONF_IN_SESSION
Ao ativar o 'unity-catalog' como coordenador do commit, a configuração "<configuration>
" não pode ser definida nas configurações do SparkSession. Desmarque-o executando spark.conf.unset("<configuration>")
e tente novamente o comando.
DELTA_CANNOT_UNSET_COORDINATED_COMMITS_CONFS
ALTER
não pode cancelar configurações de confirmação coordenadas. Para fazer downgrade de uma tabela a partir de um commit coordenado, tente novamente usando ALTER
TABLE[table-name]
DROP recurso‘coordinatedCommits-preview’
.
DELTA_CANNOT_UPDATE_ARRAY_FIELD
Não é possível atualizar o campo %1$s tipo %2$s: atualize o elemento atualizando %2$s.element
DELTA_CANNOT_UPDATE_MAP_FIELD
Cannot update %1$s field %2$s type: atualize um mapa atualizando %2$s.key ou %2$s.value
DELTA_CANNOT_UPDATE_OTHER_FIELD
Não é possível atualizar o campo <tableName>
do tipo <typeName>
DELTA_CANNOT_UPDATE_STRUCT_FIELD
Não é possível atualizar o campo <tableName>
<fieldName>
type: atualize a estrutura adicionando, excluindo ou atualizando seus campos
DELTA_NÃO_PODE_USAR_TODAS_COLUNAS_PARA_PARTIÇÃO
Não é possível usar todas as colunas para colunas de partição
DELTA NÃO PODE VACUUM_LITE
VACUUM
O LITE não pode excluir todos os arquivos elegíveis, pois alguns arquivos não são referenciados pelo site Delta log. Favor executar VACUUM FULL
.
DELTA_NÃO_CONSEGUE_ESCREVER_INTO_VIEW
<table>
é um view. Não há suporte para gravações em view.
DELTA_CAST_OVERFLOW_IN_TABLE_WRITE
Falha ao gravar um valor do tipo <sourceType>
na coluna <columnName>
do tipo <targetType>
devido a um estouro.
Use try_cast
no valor de entrada para tolerar o estouro e, em vez disso, retornar NULL
.
Se necessário, defina <storeAssignmentPolicyFlag>
como “LEGACY
” para ignorar esse erro ou configure <updateAndMergeCastingFollowsAnsiEnabledFlag>
como true para reverter ao comportamento antigo e siga <ansiEnabledFlag>
em UPDATE
e MERGE
.
DELTA_CDC_NÃO É PERMITIDO NESTA VERSÃO
Configuração Delta.EnableChangeDataFeed não pode ser configurado. O feed de dados de alteração da Delta ainda não está disponível.
DELTA_CHANGE_DATA_FEED_ESQUEMA DE DADOS INCOMPATÍVEL
A recuperação das alterações da tabela entre as versões <start>
e <end>
falhou devido a um esquema de dados incompatível.
Seu esquema de leitura é <readSchema>
na versão <readVersion>
, mas encontramos um esquema de dados incompatível na versão <incompatibleVersion>
.
Se possível, recupere as alterações da tabela usando o esquema da versão final definindo <config>
como endVersion
ou entre em contato com o suporte.
DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_SCHEMA_CHANGE
A recuperação das alterações da tabela entre as versões <start>
e <end>
falhou devido a uma alteração incompatível do esquema.
Seu esquema de leitura é <readSchema>
na versão <readVersion>
, mas encontramos uma alteração de esquema incompatível na versão <incompatibleVersion>
.
Se possível, consulte as alterações da tabela separadamente da versão <start>
para <incompatibleVersion>
- 1 e da versão <incompatibleVersion>
para <end>
.
DELTA_CHANGE_DATA_DATA_FILE_NOT_FOUND
O arquivo <filePath>
referenciado na transação log não pode ser encontrado. Isso pode ocorrer quando os dados são excluídos manualmente do sistema de arquivos em vez de usar a instrução table DELETE
. Essa solicitação parece ter como alvo o Change Data Feed. Se for esse o caso, esse erro pode ocorrer quando o arquivo de dados de alteração está fora do período de retenção e foi excluído pela declaração VACUUM
. Para obter mais informações, consulte <faqPath>
DELTA_CHANGE_TABLE_FEED_DISABLED
Não é possível gravar na tabela com delta.enableChangeDataFeed conjunto. O feed de dados de alteração da Delta não está disponível.
DELTA_CHECKPOINT_TABELA_NON_EXISTE_TABLE
Não é possível verificar uma tabela inexistente <path>
. Você excluiu manualmente os arquivos no diretório _delta_log?
DELTA_CLONE_AMBIGUOUS_TARGET
Dois caminhos foram fornecidos como o destino CLONE
, então é ambíguo qual usar. Um externo
a localização para CLONE
foi fornecida em <externalLocation>
ao mesmo tempo que o caminho
<targetIdentifier>
.
DELTA_CLONE_CÓPIA DE ARQUIVO INCOMPLETA
O arquivo (<fileName>
) não foi copiado completamente. Tamanho de arquivo esperado: <expectedSize>
, encontrado: <actualSize>
. Para continuar com as operações, ignorando a verificação do tamanho do arquivo, defina <config>
como false.
DELTA_CLONE_SOURCE_NÃO SUPORTADA
Fonte de clone <mode>
não suportada '<name>
', cujo formato é <format>
.
Os formatos compatíveis são "delta", "iceberg" e "Parquet".
DELTA_CLUSTERING_CLONE_TABLE_NOT_SUPPORTED
CLONE
não é compatível com a tabela Delta com clustering Liquid para a versão DBR < 14.0.
DELTA_CLUSTERING_COLUMNS_TIPO DE DADOS NÃO SUPORTADO
CLUSTER BY
não é suportado porque as seguintes colunas: <columnsWithDataTypes>
não suportam o salto de dados.
DELTA_CLUSTERING_COLUMNS_MISMATCH
As colunas de clustering fornecidas não correspondem às da tabela existente.
- fornecido:
<providedClusteringColumns>
- existente:
<existingClusteringColumns>
DELTA_CLUSTERING_COLUMN_MISSING_STATS
O clustering líquido exige que as colunas de clustering tenham estatísticas. Não foi possível encontrar coluna(s) de clustering '<columns>
' no esquema de estatísticas:
<schema>
DELTA_CLUSTERING_CREATE_EXTERNAL_NON_LIQUID_TABLE_FROM_LIQUID_TABLE
Não é permitido criar uma tabela externa sem clustering líquido a partir de um diretório de tabela com clustering líquido; caminho: <path>
.
DELTA_CLUSTERING_NÃO SUPORTADO
'<operation>
' não oferece suporte a clustering.
DELTA_CLUSTERING_PHASE_OUT_OUT_FAILED
Não é possível concluir o <phaseOutType>
da tabela com o recurso de tabela <tableFeatureToAdd>
(motivo: <reason>
). Tente novamente o comando OPTIMIZE
.
== Erro ==
<error>
DELTA_CLUSTERING_REPLACE_TABLE_WITH_PARTITIONED_TABLE
REPLACE
uma tabela Delta com clustering Liquid com uma tabela particionada não é permitida.
DELTA_CLUSTERING_SHOW_CREATE_TABLE_WITHOUT_CLUSTERING_COLUMNS
SHOW CREATE TABLE
não é compatível com a tabela Delta com clustering Liquid sem nenhuma coluna de clustering.
DELTA_CLUSTERING_TO_PARTITIONED_TABLE_WITH_NON_EMPTY_CLUSTERING_COLUMNS
A transição de uma tabela Delta com Liquid clustering para uma tabela particionada não é permitida para operações: <operation>
, quando a tabela existente tiver colunas clustering não vazias.
Por favor, execute ALTER TABLE CLUSTER BY
NONE para remover as colunas clustering primeiro.
DELTA_CLUSTERING_WITH_DYNAMIC_PARTITION_OVERWRITE
O modo de substituição de partição dinâmica não é permitido para a tabela Delta com clustering líquido.
DELTA_CLUSTERING_WITH_PARTITION_PREDICATE
OPTIMIZE
O comando para a tabela Delta com Liquid clustering não oferece suporte a predicados de partição. Remova os predicados: <predicates>
.
DELTA_CLUSTERING_COM_ZORDER_BY
OPTIMIZE
O comando para a tabela Delta com clustering Liquid não pode especificar ZORDER BY
. Por favor, remova ZORDER BY (<zOrderBy>
).
DELTA_CLUSTER_BY_INVALID_NUM_COLUMNS
CLUSTER BY
para o clustering Liquid suporta até <numColumnsLimit>
colunas de clustering, mas a tabela tem <actualNumColumns>
colunas de clustering. Remova as colunas extras do site clustering.
DELTA_CLUSTER_BY_SCHEMA_NOT_FORNECIDO
Não é permitido especificar CLUSTER BY
quando o esquema não está definido. Defina o esquema para a tabela <tableName>
.
DELTA_CLUSTER_BY_WITH_BUCKETING
O clustering e o bucketing não podem ser especificados. Remova CLUSTERED BY INTO BUCKETS
/ bucketBy se o senhor quiser criar uma tabela Delta com clustering.
DELTA_CLUSTER_BY_WITH_PARTITIONED_BY
O clustering e o particionamento não podem ser especificados. Remova PARTITIONED BY
/ partitionBy / partitionedBy se o senhor quiser criar uma tabela Delta com clustering.
DELTA_COLLATIONS_NÃO SUPORTADO
Os agrupamentos não são compatíveis com o Delta Lake.
DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_PARTITIONED_COLUMN
O salto de dados não é suportado na coluna de partição '<column>
'.
DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_TYPE
O salto de dados não é suportado na coluna '<column>
' do tipo <type>
.
DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET
A propriedade max column id (<prop>
) não está definida em uma tabela habilitada para mapeamento de colunas.
DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET_CORRECTAMENTE
A propriedade max column id (<prop>
) em uma tabela habilitada para mapeamento de colunas é <tableMax>
, que não pode ser menor que a id máxima da coluna para todos os campos (<fieldMax>
).
DELTA_COLUMN_TIPO DE DADOS AUSENTE
O tipo de dados da coluna <colName>
não foi fornecido.
COLUNA DELTA NÃO ENCONTRADA
Não foi possível encontrar a coluna <columnName>
fornecida [<columnList>
]
COLUNA DELTA NÃO ENCONTRADA NA MESCLAGEM
Não foi possível encontrar a coluna '<targetCol>
' da tabela de destino nas colunas INSERT
: <colNames>
. A cláusula INSERT
deve especificar o valor para todas as colunas da tabela de destino.
COLUNA DELTA NÃO ENCONTRADA NO ESQUEMA
Não foi possível encontrar a coluna <columnName>
em:
<tableSchema>
DELTA_COLUMN_PATH_NO_NESTED
Esperava que <columnPath>
fosse um tipo de dados aninhado, mas encontrei <other>
. Estava procurando o
índice de <column>
em um campo aninhado.
Esquema:
<schema>
DELTA_COLUMN_STRUCT_TYPE_DISCOMPATIBILIDADE
A coluna de estrutura <source>
não pode ser inserida em um campo <targetType>
<targetField>
em <targetTable>
.
DELTA_COMMIT_INTERMEDIATE_REDIRECT_STATE
Não é possível lidar com o commit da tabela no estado da tabela de redirecionamento '<state>
'.
FALHA NA VALIDAÇÃO DA COMPACTAÇÃO DO DELTA
A validação da compactação do caminho <compactedPath>
a <newPath>
falhou: envie um relatório de bug.
DELTA_COMPLEX_TYPE_COLUMN_CONTAINS_NULL_TYPE
Foi encontrado NullType aninhado na coluna <columName>
, que é de <dataType>
. O Delta não suporta a gravação de NullType em tipos complexos.
DELTA_CONCURRENT_APPEND
ConcurrentAppendException: Os arquivos foram adicionados a <partition>
por uma atualização concorrente. <retryMsg> <conflictingCommit>
Consulte <docLink>
para obter mais detalhes.
DELTA_CONCURRENT_EXCLUIR_EXCLUIR
ConcurrentDeleteDeleteException: Essa transação tentou excluir um ou mais arquivos que foram excluídos (por exemplo, <file>
) por uma atualização concorrente. Por favor, tente as operações novamente.<conflictingCommit>
Consulte <docLink>
para obter mais detalhes.
DELTA_CONCURRENT_EXCLUIR_LER
ConcurrentDeleteReadException: Essa transação tentou ler um ou mais arquivos que foram excluídos (por exemplo, <file>
) por uma atualização concorrente. Por favor, tente as operações novamente.<conflictingCommit>
Consulte <docLink>
para obter mais detalhes.
DELTA_CONCURRENT_TRANSACTION
ConcurrentTransactionException: Esse erro ocorre quando várias consultas de transmissão estão usando o mesmo ponto de verificação para gravar nessa tabela. O senhor executou várias instâncias da mesma consulta de transmissão ao mesmo tempo?<conflictingCommit>
Consulte <docLink>
para obter mais detalhes.
DELTA_GRAVAÇÃO SIMULTÂNEA
ConcurrentWriteException: Uma transação concorrente gravou novos dados desde que a transação atual leu a tabela. Por favor, tente as operações novamente.<conflictingCommit>
Consulte <docLink>
para obter mais detalhes.
DELTA_CONFLICT_SET_COLUMN
Há um conflito entre essas colunas SET
: <columnList>
.
DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_COMMAND
Durante <command>
, a configuração "<configuration>
" não pode ser definida pelo comando. Remova-o da cláusula TBLPROPERTIES
e tente novamente o comando.
DELTA_CONF_OVERRIDE_NOT_SUPORTED_IN_SESSION
Durante <command>
, a configuração "<configuration>
" não pode ser definida a partir das configurações do SparkSession. Desmarque-o executando spark.conf.unset("<configuration>")
e tente novamente o comando.
DELTA_CONSTRAINT_JA_EXISTE
A restrição '<constraintName>
' já existe. Exclua primeiro a restrição antiga.
Restrição antiga:
<oldConstraint>
DELTA_CONSTRAINT_DATA_TYPE_DISCOMPATIBILIDADE
A coluna <columnName>
tem o tipo de dados <columnType>
e não pode ser alterada para o tipo de dados <dataType>
porque essa coluna é referenciada pelas seguintes restrições de verificação:
<constraints>
DELTA_CONSTRAINT_DEPENDENT_COLUMN_CHANGE
Não é possível alterar a coluna <columnName>
porque essa coluna é referenciada pelas seguintes restrições de verificação:
<constraints>
DELTA_CONSTRAINT_NÃO_EXISTE
Não é possível eliminar a restrição <constraintName>
inexistente da tabela <tableName>
. Para evitar a ocorrência de um erro, forneça o parâmetro IF EXISTS
ou defina a configuração da sessão SQL <config>
para <confValue>
.
DELTA_CONVERSION_MERGE_ON_READ_NO_SUPPORTED
Não há suporte para a conversão da tabela merge-On-Read <format>
: <path>
, <hint>
DELTA_CONVERSION_NÃO_PARTIÇÃO_ENCONTRADA
Não foram encontradas informações de partição no catálogo da tabela <tableName>
. O senhor já executou "Msck REPAIR TABLE
" em sua tabela para descobrir partições?
COLUNA DELTA_CONVERSION_NÃO SUPORTADA_COLLATED_PARTITION_DE_COLUMN
Não é possível converter a tabela Parquet com coluna de partição agrupada <colName>
em Delta.
DELTA_CONVERSION_UNSUPPORTED_COLUMN_MAPPING
A configuração '<config>
' não pode ser definida como <mode>
ao usar CONVERT
TO DELTA
.
DELTA_CONVERSION_UNSUPPORTED_SCHEMA_CHANGE
Foram encontradas alterações de esquema não suportadas na tabela <format>
: <path>
, <hint>
DELTA_CONVERT_NON_PARQUET TABLE
CONVERT
A TO DELTA
suporta apenas tabelas Parquet, mas o senhor está tentando converter uma fonte <sourceName>
: <tableId>
DELTA_CONVERT_TO_DELTA_ROW_TRACKING_WITHOUT_STATS
Não é possível ativar o acompanhamento de linhas sem coletar estatísticas.
Se o senhor quiser ativar o acompanhamento de linhas, faça o seguinte:
- Habilite a coleta de estatísticas executando o comando
SET <statisticsCollectionPropertyKey>
= verdadeiro
- execução
CONVERT
TODELTA
sem a opção NOSTATISTICS
.
Se o senhor não quiser coletar estatísticas, desative o acompanhamento de linha:
- Desative a ativação do recurso de tabela pelo site default executando o comando:
RESET <rowTrackingTableFeatureDefaultKey>
- Desativar a propriedade da tabela em default executando:
SET <rowTrackingDefaultPropertyKey>
= falso
DELTA_COPY_INTO_TARGET_FORMAT
COPY INTO
O destino deve ser uma tabela Delta.
DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_SCHEMA
Você está tentando criar uma tabela externa <tableName>
de <path>
usando Delta, mas o esquema não é especificado quando o
o caminho de entrada está vazio.
Para saber mais sobre a Delta, consulte <docLink>
DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_TXN_LOG
Você está tentando criar uma tabela externa <tableName>
de %2$s
usando Delta, mas não há nenhuma transação log presente no
%2$s/_delta_log
. Verifique o trabalho upstream para ter certeza de que ele está escrevendo usando
formato (“delta”) e que o caminho é a raiz da tabela.
Para saber mais sobre a Delta, consulte <docLink>
DELTA_CREATE_TABLE_IDENTIFIER_LOCATION_INCOMPATIBILIDADE
Não há suporte para a criação de uma tabela Delta baseada em caminho com um local diferente. Identificador: <identifier>
, Localização: <location>
DELTA_CREATE_TABLE_AUSENTE_NOME_DA_TABELA OU LOCALIZAÇÃO_DE_TABELA
O nome ou a localização da tabela devem ser especificados.
DELTA_CREATE_TABLE_SCHEME_DISCOMPATIBILIDADE
O esquema especificado não corresponde ao esquema existente em <path>
.
== Especificado ==
<specifiedSchema>
== Existente ==
<existingSchema>
== Diferenças ==
<schemaDifferences>
Se sua intenção é manter o esquema existente, você pode omitir a
do comando create table. Caso contrário, certifique-se de que
o esquema corresponde.
DELTA_CREATE_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED
Não é possível ativar o recurso da tabela <tableFeature>
usando TBLPROPERTIES
. Use CREATE
OU REPLACE TABLE CLUSTER BY
para criar uma tabela Delta com clustering.
DELTA_CREATE_TABLE_WITH_DIFFERENT_CLUSTERING
As colunas de clustering especificadas não correspondem às colunas de clustering existentes em <path>
.
== Especificado ==
<specifiedColumns>
== Existente ==
<existingColumns>
DELTA_CREATE_TABLE_WITH_DIFFERENTE_PARTITIONING
O particionamento especificado não corresponde ao particionamento existente em <path>
.
== Especificado ==
<specifiedColumns>
== Existente ==
<existingColumns>
DELTA_CREATE_TABLE_WITH_DIFFERENT_PROPERTY
As propriedades especificadas não correspondem às propriedades existentes em <path>
.
== Especificado ==
<specifiedProperties>
== Existente ==
<existingProperties>
DELTA_CREATE_TABLE_WITH_NON_EMPTY_LOCATION
Não é possível criar tabela ('<tableId>
'). O local associado ('<tableLocation>
') não está vazio e também não é uma tabela Delta.
DELTA_DATA_CHANGE_FALSE
Não é possível alterar os metadados da tabela porque a opção 'dataChange' está definida como falsa. Operações tentadas: '<op>
'.
DELTA_DELETED_PARQUET_FILE_NOT_FOUND
O arquivo <filePath>
referenciado na transação log não pode ser encontrado. Esse arquivo Parquet pode ser excluído de acordo com a política de retenção de dados da Delta.
padrão Delta duração da retenção de dados: <logRetentionPeriod>
. Hora da modificação do arquivo Parquet: <modificationTime>
. Hora da exclusão do arquivo Parquet: <deletionTime>
. Excluído na versão Delta: <deletionVersion>
.
DELTA_DELETION_VETOR_NUM_RECORDS AUSENTES
É inválido fazer o commit de arquivos com vetores de exclusão que não tenham a estatística numRecords.
DELTA_DOMAIN_METADATA_NÃO SUPORTADO
Detectou ação (ões) de DomainMetadata para os domínios <domainNames>
, mas DomainMetadatatableFeature não está habilitado.
DELTA_DROP_COLUMN_AT_INDEX_LESS_THA_ZERO
O índice <columnIndex>
para descartar a coluna é menor que 0
DELTA_DROP_COLUMN_ON_SINGLE_FIELD_SCHEMA
Não é possível eliminar a coluna de um esquema com uma única coluna. Esquema:
<schema>
DELTA_DUPLICATE_ACÇÕES_ENCONTRADAS
O arquivo operações '<actionType>
' para o caminho <path>
foi especificado várias vezes.
Isso entra em conflito com <conflictingPath>
.
Não é válido que existam várias operações de arquivo com o mesmo caminho em um único commit.
DELTA_DUPLICATE_COLUNAS_ENCONTRADAS
Coluna (s) duplicada (s) <coltype>
encontrada (s): <duplicateCols>
DELTA_DUPLICATE_COLUNAS_ON_INSERT
Nomes de colunas duplicados na cláusula INSERT
DELTA_DUPLICATE_COLUMNS_ON_UPDATE_TABLE
<message>
Remova as colunas duplicadas antes de atualizar sua tabela.
DELTA_DUPLICATE_DATA_SKIPPING_COLUMNS
Colunas duplicadas que ignoram dados foram encontradas: <columns>
.
DELTA_DUPLICATE_DOMAIN_METADATA_INTERNAL_ERROR
Erro interno: duas ações DomainMetadata na mesma transação têm o mesmo domínio <domainName>
DELTA_DV_HISTOGRAMA_DESSERIALIZAÇÃO
Não foi possível desserializar o histograma de contagens de registros excluídos durante a verificação da integridade da tabela.
DELTA_DYNAMIC_PARTITION_OVERWRITE_DISABLED
O modo de substituição dinâmica de partição é especificado pelas opções de configuração ou gravação da sessão, mas é desativado por spark.databricks.delta.dynamicPartitionOverwrite.enabled=false
.
DELTA_VAZIOS_DADOS
Os dados usados na criação da tabela Delta não têm nenhuma coluna.
DIRETÓRIO_VAZIO DELTA
Nenhum arquivo encontrado no diretório: <directory>
.
DELTA_EXCEED_CHAR_VARCHAR_LIMIT
O valor “<value>
” excede a limitação de comprimento do tipo char/varchar. Falha na verificação: <expr>
.
VALOR DA PARTIÇÃO DELTA_FAILED_CAST_PARTITION
Falha ao converter o valor da partição <value>
para <dataType>
DELTA_FAILED_FIND_ATTRIBUTE_IN_OUTPUT_COLUMNS
Não foi possível encontrar <newAttributeName>
entre a saída de destino existente <targetOutputColumns>
ESQUEMA DELTA_FAILED_INFER_SCHEMA
Falha ao inferir o esquema da lista de arquivos fornecida.
ARQUIVO DE ESQUEMA DELTA_FAILED_MERGE_
Falha ao acessar merge schema do arquivo <file>
:
<schema>
DELTA_FAILED_READ_FILE_FOOTER
Não foi possível ler o rodapé do arquivo: <currentFile>
DELTA_FAILED_RECOGNIZE_PREDICATE
Não é possível reconhecer o predicado '<predicate>
'
DELTA_FAILED_SCAN_WITH_HISTORICAL_VERSION
Esperava uma varredura completa da versão mais recente da fonte Delta, mas encontrei uma varredura histórica da versão <historicalVersion>
FALHA NO DELTA AO MESCLAR CAMPOS
Falha ao acessar merge fields '<currentField>
' and '<updateField>
'
DELTA_FEATURES_PROTOCOL_METADATA_MISCOMPATIBILIDADE
Não é possível operar nessa tabela porque os seguintes recursos da tabela estão habilitados nos metadados, mas não estão listados no protocolo: <features>
.
DELTA_FEATURES_REQUER ATIVAÇÃO MANUAL
Seu esquema de tabela requer a ativação manual do(s) seguinte(s) recurso(s) de tabela: <unsupportedFeatures>
.
Para isso, execute o seguinte comando para cada um dos recursos listados acima:
ALTER TABLE
table_name SET TBLPROPERTIES
('delta.recurso.recurso' = 'suportado')
Substitua "table_name" e "recurso" por valores reais.
Recurso(s) atualmente suportado(s): <supportedFeatures>
.
DELTA_FEATURE_CAN_ONLY_DROP_CHECKPOINT_PROTECTION_WITH_HISTORY_TRUNCATION
Não foi possível eliminar o recurso Checkpoint Protection.
Esse recurso só pode ser eliminado com o truncamento da história.
Tente novamente com a opção TRUNCATE HISTORY
:
ALTER TABLE
table_name DROP FEATURE
Proteção de pontos de verificação TRUNCATE HISTORY
DELTA_FEATURE_DROP_CHECKPOINT_FAILED
A eliminação de <featureName>
falhou devido a uma falha na criação do ponto de verificação.
Tente novamente mais tarde. Se o problema persistir, entre em contato com o suporte da Databricks.
DELTA_FEATURE_DROP_CHECKPOINT_PROTECTION_WAIT_WAIT_FOR_RETENTION_PERIOD
As operações não foram bem-sucedidas porque ainda há vestígios de recurso descartado
na tabela história. O CheckPointProtection não pode ser descartado até esses históricos
as versões expiraram.
Para descartar o CheckPointProtection, aguarde as versões históricas para
expirar e, em seguida, repetir esse comando. O período de retenção para versões históricas é
atualmente configurado para <truncateHistoryLogRetentionPeriod>
.
DELTA_FEATURE_DROP_CONFLICT_REVALIDAÇÃO_FALHA
Não é possível descartar o recurso porque uma transação concorrente modificou a tabela.
Por favor, tente as operações novamente.
<concurrentCommit>
DELTA_FEATURE_DROP_DEPENDENT_FEATURE
Não é possível eliminar a tabela recurso <feature>
porque algum outro recurso (<dependentFeatures>
) nessa tabela depende de <feature>
.
Considere a possibilidade de eliminá-los primeiro antes de eliminar esse recurso.
DELTA_FEATURE_DROP_FEATURE_NO_PRESENTE
Não é possível excluir <feature>
dessa tabela porque ela não está presente atualmente no protocolo da tabela.
DELTA_FEATURE_DROP_HISTORICAL_VERSIONS_EXIST
Não é possível descartar <feature>
porque o site Delta log contém versões históricas que usam o recurso.
Aguarde até o período de retenção do histórico (<logRetentionPeriodKey>=<logRetentionPeriod>
)
se passou desde a última vez que o recurso esteve ativo.
Como alternativa, aguarde até que o período de retenção TRUNCATE HISTORY
expire (<truncateHistoryLogRetentionPeriod>
)
e depois a execução:
ALTER TABLE
table_name DROP FEATURE
recurso TRUNCATE HISTORY
DELTA_FEATURE_DROP_HISTORY_TRUNCATION_NOT_ALLOWED
O recurso específico não requer truncamento de história.
DELTA_FEATURE_DROP_NONREMOVABLE_FEATURE
Não é possível descartar <feature>
porque não há suporte para descartar esse recurso.
Entre em contato com o suporte da Databricks.
DELTA_FEATURE_DROP_UNSUPORTED_CLIENT_FEATURE
Não é possível descartar o endereço <feature>
porque ele não é compatível com esta versão do Databricks.
Considere a possibilidade de usar o Databricks com uma versão superior.
DELTA_FEATURE_DROP_WAIT_WAIT_FOR_RETENTION_PERIOD
Lançar <feature>
foi parcialmente bem-sucedido.
O recurso não é mais usado na versão atual da tabela. No entanto, o recurso
ainda está presente nas versões históricas da tabela. O recurso de tabela não pode ser descartado
do protocolo da tabela até que essas versões históricas tenham expirado.
Para eliminar o recurso de tabela do protocolo, aguarde até que as versões históricas sejam
expirar e, em seguida, repetir esse comando. O período de retenção para versões históricas é
atualmente configurado como <logRetentionPeriodKey>=<logRetentionPeriod>
.
Como alternativa, aguarde até que o período de retenção TRUNCATE HISTORY
expire (<truncateHistoryLogRetentionPeriod>
)
e depois a execução:
ALTER TABLE
table_name DROP FEATURE
recurso TRUNCATE HISTORY
DELTA_FEATURE_REQUIRES_HIGHER_READER_VERSION
Não é possível ativar o recurso de tabela <feature>
porque ele exige uma versão superior do protocolo do leitor (atual <current>
). Considere a possibilidade de atualizar a versão do protocolo de leitura da tabela para <required>
, ou para uma versão que ofereça suporte a recurso de tabela de leitura. Consulte o site <docLink>
para obter mais informações sobre as versões do protocolo da tabela.
DELTA_FEATURE_REQUIRES_HIGHER_WRITER_VERSION
Não é possível ativar o recurso de tabela <feature>
porque ele exige uma versão mais alta do protocolo de gravação (atual <current>
). Considere a possibilidade de atualizar a versão do protocolo de gravação da tabela para <required>
, ou para uma versão que ofereça suporte a recurso de tabela de gravação. Consulte o site <docLink>
para obter mais informações sobre as versões do protocolo da tabela.
DELTA_FILE_JA_EXISTE_
Caminho de arquivo existente <path>
DELTA_FILE_LIST_AND_PATTERN_STRING_CONFLICT
Não é possível especificar a lista de arquivos e as cadeias de padrões.
ARQUIVO_DELTA_NÃO_ENCONTRADO
Caminho do arquivo <path>
DELTA_FILE_NOT_FOUND_DETAILED
O arquivo <filePath>
referenciado na transação log não pode ser encontrado. Isso ocorre quando os dados são excluídos manualmente do sistema de arquivos em vez de usar a instrução table DELETE
. Para obter mais informações, consulte <faqPath>
ARQUIVO_DELTA_OU_DIR_NÃO_ENCONTRADO
Esse arquivo ou diretório não existe: <path>
ARQUIVO_DELTA_PARA_SOBRESCREVER_NÃO_ENCONTRADO
O arquivo (<path>
) a ser reescrito não foi encontrado entre os arquivos candidatos:
<pathList>
COLUNA DELTA_FOUND_MAP_TYPE_COLUMN
Um MapType foi encontrado. Para acessar o key ou o valor de um MapType, especifique um
de:
<key>
ou
<value>
seguido pelo nome da coluna (somente se essa coluna for do tipo estrutura).
ex. mymap.key.mykey
Se a coluna for um tipo básico, mymap.key ou mymap.value é suficiente.
Esquema:
<schema>
DELTA_GENERATED_COLUMNS_DATA_TYPE_DISCOMPATIBILIDADE
A coluna <columnName>
tem o tipo de dados <columnType>
e não pode ser alterada para o tipo de dados <dataType>
porque essa coluna é referenciada pelas seguintes colunas geradas:
<generatedColumns>
DELTA_GENERATED_COLUMNS_DEPENDENT_COLUMN_CHANGE
Não é possível alterar a coluna <columnName>
porque essa coluna é referenciada pelas seguintes colunas geradas:
<generatedColumns>
DELTA_GENERATED_COLUMNS_EXPR_TYPE_DISCOMPATIBILIDADE
O tipo de expressão da coluna gerada <columnName>
é <expressionType>
, mas o tipo de coluna é <columnType>
DELTA_GENERATED_COLUMN_UPDATE_TYPE_MISMATCH
A coluna <currentName>
é uma coluna gerada ou usada por uma coluna gerada. O tipo de dados é <currentDataType>
e não pode ser convertido em tipo de dados <updateDataType>
DELTA_GEOSPATIAL_NÃO SUPORTADO
Os tipos geoespaciais não são compatíveis com esta versão do Delta Lake.
DELTA_ICEBERG_COMPAT_VIOLAÇÃO
A validação do IcebergCompatV\<version\>
falhou.
Para obter mais detalhes, consulte DELTA_ICEBERG_COMPAT_VIOLATION
DELTA_IDENTITY_COLUMNS_ALTER_COLUMN_NOT_SUPPORTED
ALTER TABLE ALTER COLUMN
não é compatível com as colunas IDENTITY
.
DELTA_IDENTITY_COLUMNS_ALTER_NON_DELTA_FORMAT
ALTER TABLE ALTER COLUMN SYNC IDENTITY
é suportado apenas pela Delta.
DELTA_IDENTITY_COLUMNS_ALTER_NON_IDENTITY_COLUMN
ALTER TABLE ALTER COLUMN SYNC IDENTITY
não pode ser chamado em colunas que não sejam IDENTITY
.
DELTA_IDENTITY_COLUMNS_EXPLICIT_INSERT_NOT_SUPPORTED
O fornecimento de valores para a coluna GENERATED ALWAYS
AS IDENTITY
<colName>
não é suportado.
DELTA_IDENTITY_COLUMNS_ILLEGAL_STEP
IDENTITY
a etapa da coluna não pode ser 0.
COLUNAS DE IDENTIDADE DELTA SEM FORMATO DELTA
IDENTITY
são suportadas apenas pela Delta.
PARTIÇÃO DELTA_IDENTITY_COLUMNS_NÃO SUPORTADA
PARTITIONED BY IDENTITY
a coluna <colName>
não é suportada.
DELTA_IDENTITY_COLUMNS_REPLACE_COLUMN_NOT_SUPPORTED
ALTER TABLE REPLACE COLUMNS
não é compatível com tabelas com colunas IDENTITY
.
DELTA_IDENTITY_COLUMNS_TIPO DE DADOS NÃO SUPORTADO
O tipo de dados <dataType>
não é compatível com as colunas IDENTITY
.
DELTA_IDENTITY_COLUMNS_UPDATE_NOT_SUPPORTED
UPDATE
na coluna IDENTITY
<colName>
não é suportada.
DELTA_IDENTITY_COLUMNS_WITH_GENERATED_EXPRESSION
IDENTITY
a coluna não pode ser especificada com uma expressão de coluna gerada.
OPÇÃO_ILEGAL DELTA
Valor inválido '<input>
' para a opção '<name>
', <explain>
USO ILEGAL DO DELTA
O uso de <option>
não é permitido quando <operation>
uma tabela Delta.
ESPECIFICAÇÃO DE BUCKET INCONSISTENTE DO DELTA
O BucketSpec na tabela de baldes Delta não corresponde ao BucketSpec dos metadados. Esperado: <expected>
. Atual: <actual>
.
DELTA_INCONSISTENT_LOGSTORE_CONFS
(<setKeys>
) não pode ser definido com valores diferentes. Defina apenas um deles ou defina-os com o mesmo valor.
DELTA_INCORRECT_ARRAY_ACCESS
Acessando incorretamente um ArrayType. Use a posição arrayname.element.elementname para
adicionar a uma matriz.
DELTA_INCORRECT_ARRAY_ACCESS_BY_NAME
Foi encontrado um ArrayType. Para acessar elementos de um ArrayType, especifique
<rightName>
em vez de <wrongName>
.
Esquema:
<schema>
DELTA_INCORRECT_GET_CONF
Use getConf()
em vez de `conf.getConf ()
IMPLEMENTAÇÃO DELTA_INCORRECT_LOG_STORE_
O erro geralmente ocorre quando a implementação do default LogStore, que
é o HDFSLogStore, é usado para gravar em uma tabela Delta em um sistema de armazenamento não HDFS.
Para obter as garantias ACID transacionais nas atualizações de tabelas, o senhor precisa usar o
implementação correta do LogStore que seja apropriada para seu sistema de armazenamento.
Consulte <docLink>
para obter detalhes.
DELTA_INDEX_LARGER_OU_IGUAL_THA_STRUCT
Índice <position>
para descartar uma coluna igual ou maior que o comprimento da estrutura: <length>
DELTA_INDEX_MAIOR QUE O STRUCT
O índice <index>
para adicionar a coluna <columnName>
é maior que o comprimento da estrutura: <length>
DELTA_INSERT_COLUMN_ARIDADE_INCOMPATIBILIDADE
Não é possível gravar em '<tableName>
', <columnName>
; a tabela de destino tem <numColumns>
coluna (s), mas os dados inseridos têm <insertColumns>
coluna (s)
DELTA_INSERT_COLUMN_INCOMPATIBILIDADE
A coluna <columnName>
não está especificada em INSERT
DELTA_INVALID_AUTO_COMPACT_TYPE
Tipo de compactação automática inválido: <value>
. Os valores permitidos são: <allowed>
.
CONTAGEM DE BUCKETS DELTA INVÁLIDA
Contagem de baldes inválida: <invalidBucketCount>
. A contagem de baldes deve ser um número positivo com potência de 2 e pelo menos 8. Em vez disso, você pode usar <validBucketCount>
.
ÍNDICE DELTA_INVALID_BUCKET_INDEX
Não é possível encontrar a coluna do bucket nas colunas da partição
DELTA_INVALID_CALENDAR_INTERVAL_EMPTY
O intervalo não pode ser nulo ou em branco.
INTERVALO CDC DELTA INVÁLIDO
CDC O intervalo entre o início <start>
e o final <end>
era inválido. O fim não pode ser antes de começar.
DELTA_CARACTERES_INVÁLIDOS NO NOME_DA_COLUNA
O nome do atributo “<columnName>
” contém caracteres inválidos entre”,; {} ()\n\ t=”. Use um alias para renomeá-lo.
CARACTERES DELTA_INVÁLIDOS EM NOMES DE COLUNAS
Foram encontrados caracteres inválidos entre ',; {} () nt=' nos nomes das colunas do seu esquema.
Nomes de coluna inválidos: <invalidColumnNames>
.
Use outros caracteres e tente novamente.
Como alternativa, ative o mapeamento de colunas para continuar usando esses caracteres.
DELTA_INVALID_CLONE_PATH
O local de destino para CLONE
precisa ser um caminho absoluto ou nome de tabela. Use um
caminho absoluto em vez de <path>
.
DELTA_INVALID_COLUMN_NAMES_WHEN_REMOVING_COLUMN_MAPPING
Foram encontrados caracteres inválidos entre ',; {} () nt=' nos nomes das colunas do seu esquema.
Nomes de coluna inválidos: <invalidColumnNames>
.
O mapeamento de colunas não pode ser removido quando há caracteres inválidos nos nomes das colunas.
Renomeie as colunas para remover os caracteres inválidos e execute esse comando novamente.
FORMATO DELTA INVÁLIDO
Formato incompatível detectado.
Uma transação log para Delta foi encontrada em <deltaRootPath>/\_delta_log
,
mas você está tentando <operation> <path>
usando o formato (“<format>
”). Você deve usar
'format (“delta”) 'ao ler e gravar em uma tabela delta.
Para saber mais sobre a Delta, consulte <docLink>
REFERÊNCIAS DE COLUNA DELTA_INVALID_GENERATED_GENERATED_COLUMN_REFERÊNCIAS
Uma coluna gerada não pode usar uma coluna inexistente ou outra coluna gerada
DELTA_INVALID_IDEMPOTENT_WRITES_OPTIONS
Opções inválidas para gravações idempotentes do Dataframe: <reason>
INTERVALO_INVÁLIDO_DELTA
<interval>
não é um INTERVAL
válido.
ESQUEMA DE INVENTÁRIO DELTA INVÁLIDO
O esquema para o INVENTORY
especificado não contém todos os campos obrigatórios. Os campos obrigatórios são: <expectedSchema>
NÍVEL DE ISOLAMENTO DELTA_INVÁLIDO
nível de isolamento inválido '<isolationLevel>
'
DELTA_INVALID_LOGSTORE_CONF
(<classConfig>
) e (<schemeConfig>
) não podem ser definidos ao mesmo tempo. Por favor, defina apenas um grupo deles.
DELTA_INVALID_MANAGED_TABLE_SYNTAXE_NO_SCHEMA
O senhor está tentando criar uma tabela gerenciar <tableName>
usando Delta, mas o esquema não é especificado.
Para saber mais sobre a Delta, consulte <docLink>
COLUNA DE PARTIÇÃO DELTA_INVÁLIDA
<columnName>
não é uma coluna de partição válida na tabela <tableName>
.
NOME DA COLUNA DA PARTIÇÃO DELTA INVÁLIDA
Foram encontradas colunas de partição com caracteres inválidos entre”,; {} () nt=”. Altere o nome das suas colunas de partição. Essa verificação pode ser desativada configurando spark.conf.set("spark.databricks.delta.partitionColumnValidity.enabled", false); no entanto, isso não é recomendado, pois outros recursos do site Delta podem não funcionar corretamente.
TIPO_COLUNA_PARTIÇÃO_INVÁLIDA_DELTA
O uso da coluna <name>
do tipo <dataType>
como coluna de partição não é suportado.
CAMINHO DE PARTIÇÃO DELTA_INVÁLIDO
Um fragmento de caminho de partição deve ter o formato part1=foo/part2=bar
. O caminho da partição: <path>
DELTA_INVALID_PROTOCOL_DOWNGRADE
A versão do protocolo não pode ser rebaixada de <oldProtocol>
para <newProtocol>
VERSÃO DO PROTOCOLO DELTA_INVÁLIDA
Versão do protocolo Delta não suportada: a tabela "<tableNameOrPath>
" requer a versão de leitura <readerRequired>
e a versão de gravação <writerRequired>
, mas esta versão do Databricks suporta as versões de leitura <supportedReaders>
e as versões de gravação <supportedWriters>
. Atualize para uma versão mais recente.
FUNÇÃO_VALOR_TABLE_DELTA_INVALID_TABLE_VALUE
A função <function>
é uma função de valor de tabela sem suporte para leituras de CDC.
FORMATO DELTA_INVALID_TIMESTAMP
O carimbo de data/hora <timestamp>
fornecido não corresponde à sintaxe esperada <format>
.
DELTA_LOG_JA_EXISTE_
Já existe um site Delta log no endereço do senhor. <path>
DELTA_LOG_FILE_NOT_FOUND_FOR_STREAMING_SOURCE
Se você nunca a excluiu, é provável que sua consulta esteja atrasada. Exclua seu ponto de verificação para reiniciar do zero. Para evitar que isso aconteça novamente, o senhor pode atualizar a política de retenção de sua tabela Delta
DELTA_MATERIALIZED_ROW_TRACKING_COLUMN_NAME_AUSENTE
Nome da coluna <rowTrackingColumn>
materializado ausente para <tableName>
.
DELTA_MAX_ARRAY_SIZE_EXCEDED
Use um limite menor que int.maxValue - 8.
DELTA_MAX_COMMIT_RETRIES_EXCEDED
Esse commit falhou, pois foi tentado <numAttempts>
vezes, mas não foi bem-sucedido.
Isso pode ser causado pelo fato de a tabela Delta ser continuamente comprometida por muitos concorrente
Compromisso.
commit começar at version: <startVersion>
O commit falhou na versão: <failVersion>
Número de ações tentadas para commit: <numActions>
Tempo total gasto na tentativa de fazer esse commit: <timeSpent>
ms
DELTA_MAX_LIST_FILE_EXCEEDED
A lista de arquivos deve ter no máximo <maxFileListSize>
entradas, com <numFiles>
.
DELTA_MERGE_ADD_VOID_COLUMN
Não é possível adicionar a coluna <newColumn>
com o tipo VOID. Especifique explicitamente um tipo não vazio.
TIPO DE DADOS DELTA_MERGE_INCOMPATIBLE_DATATYPE
Falha ao acessar merge tipos de dados incompatíveis <currentDataType>
e <updateDataType>
DELTA_MERGE_TIPO_DECIMAL INCOMPATÍVEL
Falha em merge tipos decimais com incompatibilidade <decimalRanges>
DELTA_MERGE_MATERIALIZE_SOURCE_FALHOU REPETIDAMENTE
Manter a fonte da declaração MERGE
materializada falhou repetidamente.
DELTA_MERGE_AUSENTE_QUANDO
Deve haver pelo menos uma cláusula WHEN
em uma declaração MERGE
.
DELTA_MERGE_RESOLVED_ATTRIBUTE_MISSING_FROM_INPUT
Atributo (s) resolvido (s) <missingAttributes>
ausente (s) em <input>
no operador <merge>
CHAVE_DE_ATRIBUIÇÃO_INESPERADA DELTA_MERGE_INESPERADA
Atribuição inesperada key: <unexpectedKeyClass>
- O senhor não pode fazer isso. <unexpectedKeyObject>
EXPRESSÃO DELTA_MERGE_NÃO RESOLVIDA
Não é possível resolver <sqlExpr>
em <clause>
considerando <cols>
.
DELTA_METADATA_ALTERADO
MetadataChangedException: Os metadados da tabela Delta foram alterados por uma atualização concorrente. Por favor, tente as operações novamente.<conflictingCommit>
DELTA AUSENTE_ALTERAR_DADOS
Erro ao obter dados de alteração para o intervalo [<startVersion>
, <endVersion>
], pois os dados de alteração não foram
gravado para a versão [<version>
]. Se você ativou a alteração do feed de dados nesta tabela,
use DESCRIBE HISTORY
para ver quando ele foi ativado pela primeira vez.
Caso contrário, para começar a gravar, altere o uso de dados ALTER
TABLEtable_name
SET TBLPROPERTIES`
(<key>
=verdadeiro) `.
COLUNA DELTA AUSENTE
Não é possível encontrar <columnName>
nas colunas da tabela: <columnList>
DELTA_MISSING_COMMIT_INFO
Essa tabela tem o recurso <featureName>
ativado, o que exige a presença da ação CommitInfo em cada commit. No entanto, a ação CommitInfo não está presente na versão do commit <version>
.
DELTA_MISSING_COMMIT_TIMESTAMP
Essa tabela tem o recurso <featureName>
ativado, o que exige a presença de commitTimestamp na ação CommitInfo. No entanto, esse campo não foi definido na versão do commit <version>
.
DELTA_MISSING_TABELA_DELTA
<tableName>
não é uma tabela Delta.
DELTA_MISSING_DELTA_TABLE_COPIAR_INTO
A tabela não existe. Primeiro, crie uma tabela Delta vazia usando CREATE TABLE <tableName>
.
CLASSE DELTA_MISSING_ICEBERG
A classe Iceberg não foi encontrada. Certifique-se de que o suporte ao Delta Iceberg esteja instalado.
Consulte <docLink>
para obter mais detalhes.
VALOR_DA_COLUNA_AUSENTE_NULL_COLUMN_DELTA
A coluna <columnName>
, que tem uma restrição NOT NULL
, está ausente dos dados que estão sendo gravados na tabela.
COLUNA DE PARTIÇÃO DELTA AUSENTE
Coluna de partição <columnName>
não encontrada no esquema <columnList>
DELTA_PART_FILES AUSENTES
Não foi possível encontrar todos os arquivos de peças da versão do ponto de verificação: <version>
DELTA_MISSING_PROVIDER_FOR_CONVERT
CONVERT
A TO DELTA
suporta apenas tabelas Parquet. Reescreva seu destino como parquet.`<path>`
se for um diretório Parquet.
DELTA_CONJUNTO_COLUNA AUSENTE
SET
coluna <columnName>
não encontrada, dadas as colunas: <columnList>
.
DELTA_MISSING_TRANSACTION_LOG
Formato incompatível detectado.
O senhor está tentando acessar <operation> <path>
usando Delta, mas não há
log de transações presente. Verifique o trabalho upstream para ter certeza de que ele está escrevendo
usando format (“delta”) e que você está tentando %1$s o caminho base da tabela.
Para saber mais sobre a Delta, consulte <docLink>
MODO DELTA NÃO SUPORTADO
O modo especificado '<mode>
' não é suportado. Os modos suportados são: <supportedModes>
DELTA_MULTIPLE_CDC_BOUNDARY
Múltiplos argumentos <startingOrEnding>
fornecidos para a leitura do CDC. Forneça uma das versões <startingOrEnding>
Timestamp ou <startingOrEnding>
.
DELTA_MULTIPLE_CONF_FOR_SINGLE_COLUMN_IN_BLOOM_FILTER
Múltiplas configurações de índice de filtro bloom passadas para o comando da coluna: <columnName>
DELTA_MULTIPLE_SOURCE_ROW_MATCHING_TARGET_ROW_IN_MERGE
Não é possível realizar a mesclagem, pois várias linhas de origem corresponderam e tentaram modificar a mesma
linha de destino na tabela Delta de maneiras possivelmente conflitantes. Por SQL semântica de mesclagem,
quando várias linhas de origem coincidem na mesma linha de destino, o resultado pode ser ambíguo
pois não está claro qual linha de origem deve ser usada para atualizar ou excluir a correspondência
linha alvo. Você pode pré-processar a tabela de origem para eliminar a possibilidade de
várias partidas. Por favor, consulte
<usageReference>
DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_COMMAND
Durante <command>
, ambas as configurações de commit coordenado ("delta.coordinatedCommits.commitCoordinator-preview", "delta.coordinatedCommits.commitCoordinatorConf-preview") são definidas no comando ou nenhuma delas. Falta: “<configuration>
”. Especifique essa configuração na cláusula TBLPROPERTIES
ou remova a outra configuração e, em seguida, tente novamente o comando.
DELTA_MUST_SET_TOL_COORDINATED_COMMITS_CONFS_IN_SESSION
Durante <command>
, ambas as configurações de commit coordenado ("coordinatedCommits.commitCoordinator-preview", "coordinatedCommits.commitCoordinatorConf-preview") são definidas nas configurações do site SparkSession ou nenhuma delas. Falta: “<configuration>
”. Defina essa configuração no SparkSession ou desfaça a outra configuração e, em seguida, tente novamente o comando.
DELTA_NAME_CONFLICT_IN_BUCKETED_TABLE
Os nomes de coluna a seguir são reservados apenas para uso interno da tabela em blocos Delta: <names>
DELTA_NESTED_FIELDS_NEED_RENOMEAR
O esquema de entrada contém campos aninhados que são capitalizados de forma diferente da tabela de destino.
Eles precisam ser renomeados para evitar a perda de dados nesses campos durante a gravação no Delta.
Campos:
<fields>
.
Esquema original:
<schema>
RESTRIÇÃO DELTA_NESTED_NOT_NULL_CONSTRAINT
O tipo <nestType>
do campo <parent>
contém uma restrição NOT NULL
. A Delta não oferece suporte a NOT NULL
restrições aninhadas em matrizes ou mapas. Para suprimir esse erro e ignorar silenciosamente as restrições especificadas, defina <configKey>
= true.
Tipo <nestType>
analisado:
<nestedPrettyJson>
DELTA_NESTED_SUBQUERY_NÃO SUPORTADO
A subconsulta aninhada não é suportada na condição <operation>
.
DELTA_NEW_CHECK_CONSTRAINT_VIOLATION
<numRows>
linhas em <tableName>
violam a nova restrição CHECK
(<checkConstraint>
)
VIOLAÇÃO DELTA_NEW_NOT_NULL_
<numRows>
linhas em <tableName>
violam a nova restrição NOT NULL
em <colName>
DELTA_NON_BOOLEAN_CHECK_CONSTRAINT
CHECK
A restrição '<name>
' (<expr>
) deve ser uma expressão booleana.
EXPRESSÃO DELTA_NON_DETERMINISTIC_IN_GENERATED_COLUMN
Encontrou <expr>
. Uma coluna gerada não pode usar uma expressão não determinística.
FUNÇÃO DELTA_NON_DETERMINISTIC_NÃO SUPORTADA
Funções não determinísticas não são suportadas no <operation> <expression>
CONDIÇÃO DE OMISSÃO DA CLÁUSULA DELTA_NON_LAST_MATCHED_CLAUSE_OMITS
Quando há mais de uma cláusula MATCHED
em uma instrução MERGE
, somente a última cláusula MATCHED
pode omitir a condição.
DELTA_NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION
Quando há mais de uma cláusula NOT MATCHED BY SOURCE
em uma instrução MERGE
, somente a última cláusula NOT MATCHED BY SOURCE
pode omitir a condição.
CONDIÇÃO DELTA_NON_LAST_NOT_MATCHED_CLAUSE_OMIT_CONDITION
Quando há mais de uma cláusula NOT MATCHED
em uma instrução MERGE
, somente a última cláusula NOT MATCHED
pode omitir a condição
DELTA_NON_PARSABLE_TAG
Não foi possível analisar a tag <tag>
.
As tags de arquivo são: <tagList>
DELTA_NON_PARTITION_COLUMN_AUSENT
Os dados gravados no Delta precisam conter pelo menos uma coluna não particionada.<details>
REFERÊNCIA DE COLUNA DELTA_NON_PARTITION_PARTITION
O predicado faz referência à coluna sem partição '<columnName>
'. Somente as colunas da partição podem ser referenciadas: [<columnList>
]
DELTA_NON_PARTITION_COLUMN_ESPECIFICADO
As colunas sem particionamento <columnList>
são especificadas onde somente as colunas de particionamento são esperadas: <fragment>
.
DELTA_NON_SINGLE_PART_NAMESPACE_PARA_CATALOG
O catálogo Delta requer um namespace de parte única, mas o <identifier>
é de várias partes.
DELTA_NON_UC_COMMIT_COORDINATOR_NOT_SUPPORTED_IN_COMMAND
Não há suporte para a configuração do coordenador do commit como '<nonUcCoordinatorName>
' no comando, porque as tabelas do UC-gerenciar só podem ter 'unity-catalog' como coordenador do commit. Altere-o para 'unity-catalog' ou remova todas as propriedades da tabela Coordinated commit da cláusula TBLPROPERTIES
e, em seguida, tente novamente o comando.
DELTA_NON_UC_COMMIT_COORDINATOR_NO_SUPORTED_IN_SESSION
Não há suporte para a definição do coordenador de commit como '<nonUcCoordinatorName>
' nas configurações de SparkSession, porque as tabelas do UC-gerenciar só podem ter 'unity-catalog' como coordenador de commit. Altere-o para 'unity-catalog' executando spark.conf.set("<coordinatorNameDefaultKey>", "unity-catalog")
ou remova todas as propriedades da tabela de commits coordenados das configurações do site SparkSession executando spark.conf.unset("<coordinatorNameDefaultKey>")
, spark.conf.unset("<coordinatorConfDefaultKey>")
, spark.conf.unset("<tableConfDefaultKey>")
e, em seguida, tente novamente o comando.
DELTA_NOT_A_DATABRICKS_DELTA_TABELA_DELTA
<table>
não é uma tabela Delta. Elimine essa tabela primeiro se o senhor quiser criá-la com o Databricks Delta.
DELTA_NOT_A_TABELA_DELTA
<tableName>
não é uma tabela Delta. Por favor, abandone essa tabela primeiro se o senhor quiser recriá-la com o Delta Lake.
DELTA_NOT_NULL_COLUMN_NOT_FOUND_IN_STRUCT
Coluna não anulável não encontrada na estrutura: <struct>
DELTA_NOT_NULL_CONSTRAINT_VIOLATED
NOT NULL
restrição violada para a coluna: <columnName>
.
CAMPO DELTA_NOT_NULL_ANINHADO
Um campo aninhado não anulável não pode ser adicionado a um pai anulável. Defina adequadamente a nulidade da coluna principal.
DELTA_NO_COMMITS_FOUND
Nenhum commit encontrado em <logPath>
DELTA_NO_RECREATABLE_HISTORY_FOUND
Nenhum commit recriável encontrado em <logPath>
DELTA_NO_REDIRECT_RULES_VIOLADO
operações not allowed: <operation>
não pode ser executado em uma tabela com recurso de redirecionamento.
As regras de não redirecionamento não estão satisfeitas <noRedirectRules>
.
TABELA DELTA_NO_RELATION_TABLE
Tabela <tableIdent>
não encontrada
DELTA_NO_START_PAR_CDC_READ
Nenhuma versão inicial ou registro de data e hora inicial foi fornecido para a leitura do CDC.
DELTA_NULL_SCHEMA_IN_STREAMING_WRITE
Delta não aceita NullTypes no esquema para gravações de transmissão.
DELTA_ONEOF_IN_TIME TRAVEL
Forneça 'timestampAsOf' ou 'versionAsOf' para viagem do tempo.
OPERAÇÃO DELTA_ONLY_
<operation>
só é compatível com as tabelas Delta.
CAMINHO AUSENTE DA OPERAÇÃO DELTA
Forneça o caminho ou o identificador da tabela para <operation>
.
OPERAÇÃO DELTA NÃO PERMITIDA
operações não permitidas: <operation>
não é compatível com as tabelas do site Delta
DETALHE DA OPERAÇÃO DELTA NÃO PERMITIDO
operações não permitidas: <operation>
não é compatível com as tabelas do site Delta: <tableName>
DELTA_OPERATION_NO_SUPORTED_FOR_COLUMN_WITH_COLLATION
<operation>
não é compatível com a coluna <colName>
com agrupamento <collation>
nãodefault.
DELTA_OPERATION_NOT_SUPORTED_FOR_EXPRESSION_WITH_COLLATION
<operation>
não é compatível com a expressão <exprText>
porque ela não usadefault collation.
DELTA_OPERATION_ON_TEMP_VIEW_WITH_GENERATED_COLS_NOT_SUPPORTED
<operation>
comando on a temp view referindo-se a uma tabela Delta que contém colunas geradas não é suportado. Execute o comando <operation>
diretamente na tabela Delta
DELTA_OPERATION_ON_VIEW_NO_ALLOWED
operações não permitidas: <operation>
não pode ser executado em um view.
DELTA_OPTIMIZE_FULL_NO_SUPPORTED
OPTIMIZE FULL
só é compatível com tabelas agrupadas com colunas clustering não vazias.
DELTA_OVERWRITE DEVE SER VERDADEIRO
A opção de cópia overwriteSchema não pode ser especificada sem definir OVERWRITE
= 'true'.
DELTA_OVERWRITE_SCHEMA_WITH_DYNAMIC_PARTITION_OVERWRITE
'OverwriteSchema' não pode ser usado no modo de substituição dinâmica de partições.
DELTA_PARTITION_COLUMN_CAST_FAILED
Falha ao converter o valor <value>
para <dataType>
para a coluna de partição <columnName>
COLUNA DE PARTIÇÃO DELTA NÃO ENCONTRADA
Coluna de partição <columnName>
não encontrada no esquema [<schemaMap>
]
ESQUEMA DE PARTIÇÃO DELTA EM TABELAS DE ICEBERG
O esquema de partição não pode ser especificado na conversão de tabelas Iceberg. Ele é inferido automaticamente.
DELTA_PATH_NÃO_EXISTE
<path>
não existe ou não é uma tabela Delta.
DELTA_PATH_EXISTE
Não é possível gravar no caminho <path>
já existente sem definir OVERWRITE
= 'true'.
DELTA_POST_COMMIT_HOOK_FAILED
O commit da tabela Delta versão <version>
foi bem-sucedido, mas ocorreu um erro ao executar o hookcommit <name> <message>
PROTOCOLO DELTA ALTERADO
ProtocolChangedException: A versão do protocolo da tabela Delta foi alterada por uma atualização concorrente. <additionalInfo> <conflictingCommit>
Consulte <docLink>
para obter mais detalhes.
DELTA_PROTOCOL_PROPERTY_NOT_INT
A propriedade do protocolo <key>
precisa ser um número inteiro. Encontrado <value>
O PROTOCOLO DELTA_READ_FEATURE_EXIGE_WRITE
Não é possível atualizar apenas a versão do protocolo do leitor para usar o recurso de tabela. A versão do protocolo Writer deve ser pelo menos <writerVersion>
para continuar. Consulte o site <docLink>
para obter mais informações sobre as versões do protocolo da tabela.
DELTA_READ_TABLE_SEM_COLUNAS
O senhor está tentando ler uma tabela Delta <tableName>
que não tem nenhuma coluna.
Escreva alguns dados novos com a opção mergeSchema = true
para poder ler a tabela.
DELTA_REGEX_OPT_SYNTAX_ERROR
Verifique novamente sua sintaxe para '<regExpOption>
'
DELTA_REPLACE_WHERE_IN_OVERWRITE
Você não pode usar replaceWhere em conjunto com um filtro de substituição
DELTA_REPLACE_WHERE_MISMATCH
Os dados gravados não estão em conformidade com a condição ou restrição de substituição parcial da tabela '<replaceWhere>
'.
<message>
DELTA_REPLACE_WHERE_WITH_DYNAMIC_PARTITION_OVERWRITE
Uma expressão 'replaceWhere' e 'partitionOverwriteMode'='dynamic' não podem ser definidas nas opções do DataFrameWriter.
DELTA_REPLACE_WHERE_WITH_FILTER_DATA_CHANGE_UNSET
'replaceWhere' não pode ser usado com filtros de dados quando 'dataChange' está definido como false. Filtros: <dataFilters>
DELTA_ROW_ID_ASSIGNMENT_WITHOUT_STATS
Não é possível atribuir IDs de linha sem estatísticas de contagem de linhas.
Collect statistics for the table by running the following code in a Scala notebook and retry:
import com.databricks.sql.transaction.tahoe.DeltaLog
import com.databricks.sql.transaction.tahoe.stats.StatisticsCollection
import org.apache.spark.sql.catalyst.TableIdentifier
val log = DeltaLog.forTable(spark, TableIdentifier(table_name))
StatisticsCollection.recompute(spark, log)
DELTA_SCHEMA_CHANGED
Alteração detectada no esquema:
esquema de fonte de transmissão: <readSchema>
esquema do arquivo de dados: <dataSchema>
Tente reiniciar a consulta. Se esse problema se repetir na consulta, a consulta será reiniciada sem
o senhor fez uma alteração incompatível no esquema e precisa começar a trabalhar com o seu
consulta do zero usando um novo diretório de pontos de verificação.
DELTA_SCHEMA_ALTERADO COM OPÇÕES INICIAIS
Alteração de esquema detectada na versão <version>
:
esquema de fonte de transmissão: <readSchema>
esquema do arquivo de dados: <dataSchema>
Tente reiniciar a consulta. Se esse problema se repetir na consulta, a consulta será reiniciada sem
o senhor fez uma alteração incompatível no esquema e precisa começar a trabalhar com o seu
consulta do zero usando um novo diretório de pontos de verificação. Se o problema persistir após
mudando para um novo diretório de ponto de verificação, talvez seja necessário alterar o existente
Opção 'startingVersion' ou 'startingTimestamp' para começar a partir de uma versão mais recente que
<version>
com um novo diretório de pontos de verificação.
DELTA_SCHEMA_ALTERADO COM_VERSÃO_DE_VERSÃO
Alteração de esquema detectada na versão <version>
:
esquema de fonte de transmissão: <readSchema>
esquema do arquivo de dados: <dataSchema>
Tente reiniciar a consulta. Se esse problema se repetir na consulta, a consulta será reiniciada sem
o senhor fez uma alteração incompatível no esquema e precisa começar a trabalhar com o seu
consulta do zero usando um novo diretório de pontos de verificação.
DELTA_SCHEMA_CHANGE_SINCE_ANALYSIS
O esquema de sua tabela Delta foi alterado de forma incompatível desde o DataFrame
ou o objeto DeltaTable foi criado. Redefina seu objeto DataFrame ou DeltaTable.
Mudanças:
<schemaDiff> <legacyFlagMessage>
DELTA_SCHEMA_NOT_FORNECIDO
O esquema da tabela não é fornecido. Forneça o esquema (definição de coluna) da tabela ao usar a tabela REPLACE
e uma consulta AS SELECT
não será fornecida.
DELTA_SCHEMA_NÃO_DEFINIDO
O esquema da tabela não está definido. Escreva dados nele ou use CREATE TABLE
para definir o esquema.
DELTA_SET_LOCATION_SCHEMA_MISCOMPATIBILIDADE
O esquema do novo local Delta é diferente do esquema da tabela atual.
esquema original:
<original>
esquema de destino:
<destination>
Se essa for uma alteração pretendida, você pode desativar essa verificação executando:
%%sql set <config>
= true
DELTA_SHALLOW_CLONE_FILE_NOT_FOUND
O arquivo <filePath>
referenciado na transação log não pode ser encontrado. Isso pode ocorrer quando os dados são excluídos manualmente do sistema de arquivos em vez de usar a instrução table DELETE
. Essa tabela parece ser um clone superficial. Se for esse o caso, esse erro pode ocorrer quando a tabela original da qual essa tabela foi clonada excluiu um arquivo que o clone ainda está usando. Se você quiser que qualquer clone seja independente da tabela original, use um clone DEEP.
DELTA_SHARING_NÃO PODE MODIFICAR A PROPRIEDADE RESERVADA DO DESTINATÁRIO
As propriedades predefinidas que começam com <prefix>
não podem ser modificadas.
DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED
Os dados são restritos pela propriedade <property>
do destinatário que não se aplica ao destinatário atual na sessão.
Para obter mais detalhes, consulte DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED
DELTA_SHARING_INVALID_OP_IN_EXTERNAL_SHARED_VIEW
<operation>
não podem ser usados na visualização Delta Sharing que são compartilhados entre account.
DELTA_SHARING_INVALID_PROVIDER_AUTH
Tipo de autenticação ilegal <authenticationType>
para o provedor <provider>
.
DELTA_SHARING_INVALID_RECIPIENT_AUTH
Tipo de autenticação ilegal <authenticationType>
para o destinatário <recipient>
.
DELTA_SHARING_INVALID_SHARING_DATA_OBJECT_NAME
Nome inválido para referenciar um <type>
dentro de um Compartilhamento. Você pode usar o nome de <type>
dentro do compartilhamento seguindo o formato [esquema]. [<type>
], ou você também pode usar o nome completo original da tabela seguindo o formato [catálogo]. [esquema]. [> digite >].
Se não tiver certeza do nome a ser usado, o senhor pode executar "SHOW ALL IN SHARE
[share]" e encontrar o nome do <type>
a ser removido: a coluna "name" é o nome do <type>
dentro do compartilhamento e a coluna "shared_object" é o nome completo original do <type>
.
DELTA_SHARING_MAXIMUM_RECIPIENT_TOKENS_EXCEDED
Há mais de dois tokens para o destinatário <recipient>
.
DELTA_SHARING_DESTINATÁRIO_PROPERTY_NOT_FOUND
A propriedade do destinatário <property>
não existe.
TOKENS DE DESTINATÁRIO DE COMPARTILHAMENTO DELTA NÃO ENCONTRADOS
Faltam tokens de destinatário para o destinatário <recipient>
.
DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_COLUMN
As colunas sem particionamento <badCols>
são especificadas para SHOW PARTITIONS
DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_TABLE
SHOW PARTITIONS
não é permitido em uma tabela que não esteja particionada: <tableName>
DELTA_SOURCE_IGNORE_DELETE
Foram detectados dados excluídos (por exemplo, <removedFile>
) da fonte de transmissão na versão <version>
. No momento, isso não é suportado. Se você quiser ignorar as exclusões, defina a opção 'ignoreDeletes' como 'true'. A tabela de origem pode ser encontrada no caminho <dataPath>
.
DELTA_SOURCE_TABLE_IGNORE_CHANGES
Detectou uma atualização de dados (por exemplo, <file>
) na tabela de origem na versão <version>
. No momento, isso não é suportado. Se isso acontecer regularmente e você quiser pular as alterações, defina a opção 'skipChangeCommits' como 'true'. Se o senhor quiser que a atualização de dados seja refletida, reinicie essa consulta com um novo diretório de ponto de verificação ou faça um refresh completo se estiver usando DLT. Se você precisar lidar com essas mudanças, mude para MVs. A tabela de origem pode ser encontrada no caminho <dataPath>
.
DELTA_STARTING_VERSION_E_TIMESTAMP_BOTH_SET
Forneça '<version>
' ou '<timestamp>
'
COLUNA DA COLUNA DELTA_STATS_COLUMN_NOT_FOUND
<statsType>
Não foram encontradas estatísticas para a coluna nos metadados do Parquet: <columnPath>
.
DELTA_STREAMING_NÃO PODE CONTINUAR PROCESSANDO_POST_SCHEMA_EVOLUTION
Detectamos uma ou mais alterações de esquema não aditivas (<opType>
) entre Delta versão <previousSchemaChangeVersion>
e <currentSchemaChangeVersion>
na fonte de transmissão Delta.
Verifique se o senhor deseja propagar manualmente a(s) alteração(ões) do esquema para a tabela de destino antes de prosseguirmos com o processamento da transmissão usando o esquema finalizado em <currentSchemaChangeVersion>
.
Depois de corrigir o esquema da tabela de drenagem ou decidir que não há necessidade de corrigir, o senhor pode definir (uma das) seguintes configurações SQL para desbloquear a(s) alteração(ões) de esquema não aditiva(s) e continuar o processamento da transmissão.
Para desbloquear essa transmissão específica apenas para essa série de alterações de esquema: set <allowCkptVerKey> = <allowCkptVerValue>
.
Para desbloquear essa transmissão específica: defina <allowCkptKey> = <allowCkptValue>
Para desbloquear todas as transmissões: set <allowAllKey> = <allowAllValue>
.
Alternativamente, se for o caso, o senhor pode substituir <allowAllMode>
por <opSpecificMode>
no SQL conf para desbloquear a transmissão apenas para esse tipo de alteração de esquema.
DELTA_STREAMING_CHECK_COLUMN_MAPPING_NO_SNAPSHOT
Falha ao obter o Delta log Snapshot para a versão começada ao verificar as alterações no esquema de mapeamento de colunas. Escolha uma versão diferente do começar ou force a ativação da transmissão lida por sua conta e risco, definindo '<config>
' como 'true'.
DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE
A leitura de transmissão não é suportada em tabelas com alterações de esquema incompatíveis com a leitura (por exemplo, o renomear ou eliminar ou alterar o tipo de dados).
Para obter mais informações e possíveis próximas etapas para resolver esse problema, consulte a documentação em <docLink>
Esquema de leitura: <readSchema>
. Esquema de dados incompatível: <incompatibleSchema>
.
DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE_USE_SCHEMA_LOG
A leitura de transmissão não é suportada em tabelas com alterações de esquema incompatíveis com a leitura (por exemplo, o renomear ou eliminar ou alterar o tipo de dados).
Forneça um 'schemaTrackingLocation' para permitir a evolução não aditiva do esquema para o processamento da transmissão Delta.
Consulte <docLink>
para obter mais detalhes.
Esquema de leitura: <readSchema>
. Esquema de dados incompatível: <incompatibleSchema>
.
DELTA_STREAMING_METADATA_EVOLUTION
O esquema, a configuração da tabela ou o protocolo de sua tabela Delta foi alterado durante a transmissão.
O esquema ou metadados que acompanham o site log foram atualizados.
Reinicie a transmissão para continuar o processamento usando os metadados atualizados.
Esquema atualizado: <schema>
.
Configurações de tabela atualizadas: <config>
.
Protocolo de tabela atualizado: <protocol>
DELTA_STREAMING_SCHEMA_EVOLUTION_UNSUPPORTED_ROW_FILTER_COLUMN_MASKS
transmissão da tabela de origem <tableId>
com acompanhamento de esquema não suporta filtros de linha ou máscaras de coluna.
O senhor deve eliminar os filtros de linha ou as máscaras de coluna ou desativar o acompanhamento do esquema.
DELTA_STREAMING_SCHEMA_LOCATION_CONFLICT
Foi detectado um local de esquema conflitante '<loc>
' durante a transmissão da tabela ou tabela localizada em '<table>
'.
Outra transmissão pode estar reutilizando o mesmo local do esquema, o que não é permitido.
Forneça um novo caminho exclusivo para schemaTrackingLocation
ou streamingSourceTrackingId
como uma opção de leitor para uma das transmissões dessa tabela.
DELTA_STREAMING_SCHEMA_LOCATION_NOT_UNDER_CHECKPOINT
A localização do esquema '<schemaTrackingLocation>
' deve ser colocada sob a localização do ponto de verificação '<checkpointLocation>
'.
DELTA_STREAMING_SCHEMA_LOG_DESSERIALIZE_FAILED
Arquivo log incompleto no esquema de origem da transmissão Delta log em '<location>
'.
O esquema log pode ter sido corrompido. Escolha um novo local para o esquema.
DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_DELTA_TABLE_ID
Detectado ID de tabela Delta incompatível ao tentar ler a transmissão Delta.
ID da tabela persistente: <persistedId>
, ID da tabela: <tableId>
O esquema log pode ter sido reutilizado. Escolha um novo local para o esquema.
DELTA_STREAMING_SCHEMA_LOG_ESQUEMA_PARTIÇÃO_INCOMPATÍVEL
Foi detectado um esquema de partição incompatível ao tentar ler a transmissão Delta.
Persisted schema (esquema persistente): <persistedSchema>
, Delta partition schema: <partitionSchema>
Escolha um novo local de esquema para reinicializar o esquema log se o senhor tiver alterado manualmente o esquema de partição da tabela recentemente.
DELTA_STREAMING_SCHEMA_LOG_INIT_FAILED_INCOMPATIBLE_METADATA
Não foi possível inicializar o esquema de origem de transmissão Delta log porque
Detectamos uma alteração incompatível de esquema ou protocolo ao servir uma transmissão de lotes da versão da tabela <a>
para <b>
.
DELTA_STREAMING_SCHEMA_LOG_PARSE_SCHEMA_FAILED
Falha ao analisar o esquema do esquema de origem da transmissão Delta log.
O esquema log pode ter sido corrompido. Escolha um novo local para o esquema.
DELTA_TABLE_JA_CONTAINS_CDC_COLUMNS
Não foi possível ativar a captura de dados de alterações (CDC) na tabela. A tabela já contém
colunas reservadas <columnList>
que serão
ser usado internamente como metadados para o feed de dados de alteração da tabela. Para habilitar
Altere o feed de dados na tabela renomeie/elimine essas colunas.
A TABELA DELTA JÁ EXISTE
A tabela <tableName>
já existe.
DELTA_TABLE_FOR_PATH_UNSUPORTED_HADOOP_CONF
Atualmente, o DeltaTable.forPath só é compatível com a chave de configuração do hadoop que começa com <allowedPrefixes>
, mas obteve <unsupportedOptions>
INCOMPATIBILIDADE DE IDENTIFICAÇÃO DA TABELA DELTA
A tabela Delta em <tableLocation>
foi substituída enquanto esse comando estava usando a tabela.
O ID da tabela era <oldId>
, mas agora é <newId>
.
Tente novamente o comando atual para garantir que ele leia um view consistente da tabela.
INCOMPATIBILIDADE DE LOCALIZAÇÃO DA TABELA DELTA
A localização da tabela <tableName>
existente é <existingTableLocation>
. Ele não corresponde ao local especificado <tableLocation>
.
TABELA DELTA NÃO ENCONTRADA
A tabela Delta <tableName>
não existe.
DELTA_TABLE_NÃO_SUPORTADA_IN_OP
A tabela não é suportada em <operation>
. Em vez disso, use um caminho.
DELTA_TABLE_ONLY_OPERATION
<tableName>
não é uma tabela Delta. <operation>
só é compatível com as tabelas Delta.
DELTA_TARGET_TABLE_FINAL_SCHEMA_EMPTY
O esquema final da tabela de destino está vazio.
DELTA_TIMESTAMP_MAIOR QUE O COMMIT
O carimbo de data/hora fornecido (<providedTimestamp>
) é posterior à versão mais recente disponível para este
mesa (<tableName>
). Use um carimbo de data/hora antes ou em <maximumTimestamp>
.
DELTA_TIMESTAMP_INVALID
O carimbo de data/hora fornecido (<expr>
) não pode ser convertido em um carimbo de data/hora válido.
DELTA_TIME_TRAVEL_VALOR INICIAL INVÁLIDO
<timeTravelKey>
precisa ser um valor inicial válido.
REGISTRO DE TRANSAÇÕES DELTA TRUNCADO
<path>
: Não é possível reconstruir o estado na versão <version>
porque a transação log foi truncada devido à exclusão manual ou à política de retenção log (<logRetentionKey>=<logRetention>
) e à política de retenção de ponto de verificação (<checkpointRetentionKey>=<checkpointRetention>
).
PARTIÇÃO DELTA_TRUNCATE_TABLE_NÃO_SUPORTADA_NÃO_SUPORTADA
operações não permitidas: TRUNCATE TABLE
nas tabelas Delta não suporta predicados de partição; use DELETE
para excluir partições ou linhas específicas.
DELTA_UDF_IN_GENERATED_COLUMN
Encontrou <udfExpr>
. Uma coluna gerada não pode usar uma função definida pelo usuário
EXPRESSÃO DE AÇÃO DELTA INESPERADA
Expressão de ação inesperada <expression>
.
DELTA_UNEXPECTED_NUM_PARTITION_COLUMNS_FROM_FILE_NAME
Esperava a (s) coluna (s) da partição <expectedColsSize>
: <expectedCols>
, mas encontrei a (s) coluna (s) da partição <parsedColsSize>
: <parsedCols>
ao analisar o nome do arquivo: <path>
ANÁLISE PARCIAL INESPERADA DE DELTA
Esperava uma varredura completa das fontes da Delta, mas encontrei uma varredura parcial. caminho:<path>
COLUNA DE PARTIÇÃO DELTA_INESPERADA DO NOME DO ARQUIVO
Esperava a coluna de partição <expectedCol>
, mas encontrei a coluna de partição <parsedCol>
ao analisar o nome do arquivo: <path>
DELTA_INEXPECTED_PARTITION_SCHEMA_FROM_USER
CONVERT
TO DELTA
foi chamado com um esquema de partição diferente do esquema de partição inferido do catálogo. Evite fornecer o esquema para que o esquema de partição possa ser escolhido no catálogo.
esquema de partição do catálogo:
<catalogPartitionSchema>
esquema de partição fornecido:
<userPartitionSchema>
DELTA_UNIFORM_COMPATIBILITY_LOCATION_NÃO_PODE_SER_ALTERADO
delta.universalFormat.compatibility.Location não pode ser alterado.
DELTA_UNIFORM_COMPATIBILITY_LOCATION_NO_REGISTRADO
delta.universalformat.compatibility.Location não está registrado no catálogo.
DELTA_UNIFORME_COMPATIBILITY_AUSENTE_OR_INVÁLIDA_LOCALIZAÇÃO
Local ausente ou inválido para o formato de compatibilidade uniforme. Defina um diretório vazio para delta.universalformat.compatibility.Location.
Motivo da falha:
Para obter mais detalhes, consulte DELTA_UNIFORM_COMPATIBILITY_MISSING_OR_INVALID_LOCATION
DELTA_UNIFORM_ICEBERG_INGRESS_VIOLAÇÃO
Ler Iceberg com uniforme Delta falhou.
Para obter mais detalhes, consulte DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION
DELTA_UNIFORM_INGRESS_NÃO SUPORTADO
Não há suporte para a criação ou atualização da tabela de entrada uniforme.
FORMATO DELTA_UNIFORM_INGRESS_NÃO SUPORTADO
O formato <fileFormat>
não é suportado. Somente iceberg como formato de arquivo original é suportado.
DELTA_UNIFORM_NÃO SUPORTADO
O formato universal só é compatível com as tabelas do Unity Catalog.
DELTA_UNIFORM_REFRESH_NÃO SUPORTADO
REFRESH
O identificador SYNC UNIFORM
não é suportado pelo motivo:
Para obter mais detalhes, consulte DELTA_UNIFORM_REFRESH_NOT_SUPPORTED
DELTA_UNIFORM_REFRESH_NOT_SUPPORTED_FOR_MANAGED_ICEBERG_TABLE_WITH_METADATA_PATH
REFRESH TABLE
com METADATA_PATH
não é suportado para gerenciar Iceberg tables
FALHA NA CONVERSÃO DO FORMATO DELTA_UNIVERSAL_
Falha ao converter a versão <version>
da tabela para o formato universal <format>
. <message>
VIOLAÇÃO DO FORMATO DELTA_UNIVERSAL
A validação do Formato Universal (<format>
) falhou: <violation>
CONFIGURAÇÃO DELTA_UNKNOWN_
Uma configuração desconhecida foi especificada: <config>
PRIVILÉGIO DELTA_UNKNOWN_
Privilégio desconhecido: <privilege>
DELTA_UNKNOWN_READ_LIMIT
Limite de leitura desconhecido: <limit>
ALTERAÇÃO DA COLUNA DELTA_UNRECOGNIZED_COLUMN_CHANGE
Alteração de coluna não reconhecida <otherClass>
. O senhor pode estar executando uma versão desatualizada do Delta Lake.
DELTA_INVARIANTE_NÃO RECONHECIDO
Invariante não reconhecida. Atualize sua versão do Spark.
ARQUIVO DELTA_UNRECOGNIZED_LOG
Arquivo log não reconhecido <fileName>
DELTA_UNSET_NON_EXISTENT_PROPERTY
Tentativa de remover a propriedade inexistente '<property>
' na tabela <tableName>
DELTA_UNSUPPORTED_ABS_PATH_ADD_FILE
<path>
não suporta a adição de arquivos com um caminho absoluto
DELTA_UNSUPORTED_ALTER_TABLE_CHANGE_COL_OP
ALTER TABLE CHANGE COLUMN
não é suportado para alterar a coluna <fieldPath>
de <oldField>
para <newField>
DELTA_UNSUPPORTED_ALTER_TABLE_REPLACE_COL_OP
Não suportado ALTER TABLE REPLACE COLUMNS
operações. Motivo: <details>
Falha ao alterar o esquema de:
<oldSchema>
para:
<newSchema>
DELTA_UNSUPPORTED_CLONE_REPLACE_SAME_TABLE
Você tentou REPLACE
em uma tabela existente (<tableName>
) com CLONE
. Esta operação é
não suportado. Tente um alvo diferente para CLONE
ou exclua a tabela no destino atual.
DELTA_UNSUPPORTED_COLUMN_MAPPING_MODE_CHANGE
Não há suporte para alterar o modo de mapeamento de colunas de '<oldMode>
' para '<newMode>
'.
DELTA_UNSUPPORTED_COLUMN_MAPPING_OPERATIONS_ON_COLUMNS_WITH_BLOOM_FILTER_INDEX
Falha ao executar operações de mapeamento de coluna <opName>
na(s) coluna(s) <columnNames>
porque essas colunas têm Índice (es) de filtro Bloom.
Se o senhor quiser realizar operações de Column Mapping na(s) coluna(s)
com Índice (es) de filtro Bloom,
remova primeiro o (s) Índice (es) do filtro Bloom:
DROP BLOOMFILTER INDEX ON TABLE
Nome da tabela (FOR COLUMNS(<columnNames>
)
Se, em vez disso, você quiser remover todos os índices do filtro Bloom na tabela, use:
DROP BLOOMFILTER INDEX ON TABLE
Nome da tabela
PROTOCOLO DE MAPEAMENTO DE COLUNA DELTA NÃO SUPORTADO
Sua versão atual do protocolo de tabela não suporta a alteração dos modos de mapeamento de colunas
usando <config>
.
Versão necessária do protocolo Delta para mapeamento de colunas:
<requiredVersion>
A versão atual do protocolo Delta de sua tabela:
<currentVersion>
<advice>
DELTA_UNSUPPORTED_COLUMN_MAPPING_SCHEMA_CHANGE
A alteração do esquema foi detectada:
esquema antigo:
<oldTableSchema>
novo esquema:
<newTableSchema>
Alterações de esquema não são permitidas durante a alteração do modo de mapeamento de colunas.
DELTA_UNSUPPORTED_COLUMN_MAPPING_WRITE
A gravação de dados com o modo de mapeamento de colunas não é suportada.
DELTA_UNSUPPORTED_COLUMN_TYPE_IN_BLOOM_FILTER
A criação de um índice de filtro bloom em uma coluna com o tipo <dataType>
não é suportada: <columnName>
DELTA_UNSUPPORTED_COMMENT_MAP_ARRAY
Não é possível adicionar um comentário a <fieldPath>
. Não há suporte para adicionar um comentário a um mapa key/value ou elemento de matriz.
DELTA_UNSUPPORTED_DATA_TYPES
Colunas encontradas usando tipos de dados não suportados: <dataTypeList>
. Você pode definir '<config>
' como 'false' para desativar a verificação de tipo. A desativação dessa verificação de tipo pode permitir que os usuários criem tabelas Delta sem suporte e só deve ser usada ao tentar ler/gravar tabelas herdadas.
DELTA_UNSUPPORTED_DATA_TYPE_IN_GENERATED_COLUMN
<dataType>
não pode ser o resultado de uma coluna gerada
DELTA_UNSUPORTED_DEEP_CLONE
O clone profundo não é compatível com esta versão Delta.
DELTA_UNSUPPORTED_DESCRIBE_DETAIL_VIEW
<view>
é um view. DESCRIBE DETAIL
só é compatível com tabelas.
COLUNA DELTA_UNSUPPORTED_DROP_CLUSTERING_COLUMN
Não é permitido descartar as colunas clustering (<columnList>
).
COLUNA DELTA_UNSUPPORTED_DROP_COLUMN
DROP COLUMN
não é compatível com sua tabela Delta. <advice>
DELTA_UNSUPPORTED_DROP_NESTED_COLUMN_FROM_NON_STRUCT_TYPE
Só pode eliminar colunas aninhadas do StructType. Encontrado <struct>
COLUNA DELTA_UNSUPPORTED_DROP_PARTITION
Não é permitido descartar colunas de partição (<columnList>
).
EXPRESSÃO DELTA NÃO SUPORTADA
Tipo de expressão não suportado (<expType>
) para <causedBy>
. Os tipos suportados são [<supportedTypes>
].
COLUNA DELTA_UNSUPPORTED_EXPRESSION_GENERATED_GENERATED
<expression>
não pode ser usado em uma coluna gerada
DELTA_UNSUPPORTED_FEATURES_FOR_READ
Não suportado Delta read recurso: table "<tableNameOrPath>
" requer recurso(s) da tabela do leitor que não são suportados por esta versão do Databricks: <unsupported>
. Consulte <link>
para obter mais informações sobre a compatibilidade do recurso Delta Lake.
DELTA_UNSUPPORTED_FEATURES_FOR_WRITE
Não suportado Delta write recurso: table "<tableNameOrPath>
" requer recurso(s) de tabela de gravação que não são suportados por esta versão do Databricks: <unsupported>
. Consulte <link>
para obter mais informações sobre a compatibilidade do recurso Delta Lake.
DELTA_UNSUPPORTED_FEATURES_IN_CONFIG
O(s) recurso(s) da tabela configurado(s) nas seguintes configurações do Spark ou propriedades da tabela Delta não são reconhecidos por esta versão do Databricks: <configs>
.
DELTA_UNSUPPORTED_FEATURE_STATUS
O senhor esperava que o status do recurso da tabela <feature>
fosse "suportado", mas obteve "<status>
".
DELTA_UNSUPPORTED_FIELD_UPDATE_NON_STRUCT
A atualização de campos aninhados só é compatível com StructType, mas você está tentando atualizar um campo de <columnName>
, que é do tipo: <dataType>
.
DELTA_UNSUPPORTED_FSCK_WITH_DELETION_VECTORS
O comando 'FSCK REPAIR TABLE
' não é compatível com versões de tabela com arquivos de vetor de exclusão ausentes.
Entre em contato com o suporte.
DELTA_UNSUPPORTED_GENERATE_WITH_DELETION_VECTORS
O comando 'GENERATE
symlink_format_manifest' não é compatível com versões de tabelas com vetores de exclusão.
Para produzir uma versão da tabela sem vetores de exclusão, execute 'REORG TABLE
table APPLY (PURGE
)'. Em seguida, reexecute o comando "GENERATE
".
Certifique-se de que nenhuma transação concorrente esteja adicionando vetores de exclusão novamente entre REORG
e GENERATE
.
Se o senhor precisar gerar manifestos regularmente ou não puder evitar transações concorrente, considere a possibilidade de desativar os vetores de exclusão nessa tabela usando 'ALTER TABLE
table SET TBLPROPERTIES
(delta.enableDeletionVectors = falso) '.
DELTA_UNSUPPORTED_INVARIANT_NON_STRUCT
Não há suporte para invariantes em campos aninhados que não sejam StructTypes.
DELTA_UNSUPPORTED_IN_SUBQUERY
A subconsulta In não é suportada na condição <operation>
.
DELTA_UNSUPPORTED_LIST_KEYS_WITH_PREFIX
ListKeyWithPrefix não disponível
DELTA_UNSUPPORTED_MANIFEST_GENERATION_WITH_COLUMN_MAPPING
A geração de manifesto não é compatível com tabelas que utilizam mapeamento de coluna, pois os leitores externos não podem ler essas tabelas Delta. Consulte a documentação do Delta para obter mais detalhes.
DELTA_UNSUPPORTED_MERGE_SCHEMA_EVOLUTION_WITH_CDC
MERGE INTO
As operações com evolução do esquema não suportam atualmente a gravação da saída CDC.
DELTA_UNSUPPORTED_MULTI_COL_IN_PREDICATE
Os predicados In de várias colunas não são suportados na condição <operation>
.
DELTA_UNSUPPORTED_NESTED_COLUMN_IN_BLOOM_FILTER
Atualmente, não há suporte para a criação de um índice de arquivador bloom em uma coluna aninhada: <columnName>
DELTA_UNSUPPORTED_NESTED_FIELD_IN_OPERATION
O campo aninhado não é suportado no <operation>
(field = <fieldName>
).
DELTA_UNSUPPORTED_NON_EMPTY_CLONE
A tabela de destino do clone não está vazia. Por favor, TRUNCATE
ou DELETE FROM
na tabela antes de executar CLONE
.
MODO DE SAÍDA DELTA NÃO SUPORTADO
A fonte de dados <dataSource>
não é compatível com o modo de saída <mode>
COLUNA DE PARTIÇÃO DELTA NÃO SUPORTADA NO FILTRO BLOOM
A criação de um índice de filtro bloom em uma coluna de particionamento não é suportada: <columnName>
DELTA_UNSUPPORTED_RENAME_COLUMN
A renomeação de coluna não é compatível com sua tabela Delta. <advice>
DELTA_UNSUPPORTED_SCHEMA_DURING_READ
O Delta não suporta a especificação do esquema no momento da leitura.
DELTA_UNSUPPORTED_SORT_ON_BUCKETED_TABLES
SORTED BY
não é compatível com as tabelas em blocos Delta
DELTA_UNSUPPORTED_SOURCE
<operation>
O destino suporta apenas fontes Delta.
<plan>
PARTIÇÕES DELTA_UNSUPPORTED_STATIC_STATICS
Atualmente, a especificação de partições estáticas na especificação da partição não é suportada durante as inserções
DELTA_UNSUPPORTED_STRATEGY_NAME
Nome da estratégia não suportada: <strategy>
SUBCONSULTA DELTA_UNSUPPORTED_SUBQUERY
As subconsultas não são suportadas na <operation>
(condição = <cond>
).
DELTA_UNSUPPORTED_SUBQUERY_IN_PARTITION_PREDICATES
A subconsulta não é suportada em predicados de partição.
DELTA_UNSUPORTED_TIME_TRAVEL_MÚLTIPLOS FORMATOS
Não é possível especificar a viagem do tempo em vários formatos.
DELTA_UNSUPPORTED_TIME_TRAVEL_VIEWS
Não é possível visualizar viagens do tempo, subconsultas, transmissão ou alterar consultas de feed de dados.
DELTA_UNSUPPORTED_TRUNCATE_SAMPLE_TABLES
Não há suporte para truncar tabelas de amostra
ALTERAÇÃO NO ESQUEMA DE TIPO DELTA NÃO SUPORTADA
Não é possível operar nessa tabela porque uma alteração de tipo não suportada foi aplicada. O campo <fieldName>
foi alterado de <fromType>
para <toType>
.
DELTA_UNSUPPORTED_TYPE_CHANGE_ON_COLUMNS_WITH_BLOOM_FILTER_INDEX
Falha ao alterar o tipo de dados da (s) coluna (s) <columnNames>
porque essas colunas têm Índice (es) de filtro Bloom.
Se você quiser alterar o tipo de dados da (s) coluna (s) com o Bloom Filter Index (s),
remova primeiro o (s) Índice (es) do filtro Bloom:
DROP BLOOMFILTER INDEX ON TABLE
Nome da tabela (FOR COLUMNS(<columnNames>
)
Se, em vez disso, você quiser remover todos os índices do filtro Bloom na tabela, use:
DROP BLOOMFILTER INDEX ON TABLE
Nome da tabela
PARTIÇÃO DELTA_UNSUPPORTED_VACUUM_SPECIFIC_SPECIFIC
Forneça o caminho base (<baseDeltaPath>
) ao acessar vacuum Delta tables. vacuum partições específicas não é suportado no momento.
DELTA_UNSUPPORTED_WRITES_STAGED_TABLE
A implementação da tabela não suporta gravações: <tableName>
DELTA_UNSUPPORTED_WITHOUT_COORDINATOR
O senhor está tentando realizar gravações em uma tabela que foi registrada com o coordenador de commit <coordinatorName>
. No entanto, nenhuma implementação desse coordenador está disponível no ambiente atual e gravações sem coordenadores não são permitidas.
DELTA_UNSUPPORTED_WRITE_SAMPLE_TABLES
A gravação em tabelas de amostra não é suportada
DELTA_UPDATE_SCHEMA_EXPRESSÃO INCOMPATÍVEL
Não é possível transmitir <fromCatalog>
para <toCatalog>
. Todas as colunas aninhadas devem corresponder.
DELTA_VACUUM_COPY_INTO_STATE_FAILED
VACUUM
nenhum arquivo de dados foi bem-sucedido, mas a coleta de lixo do estado COPY INTO
falhou.
DELTA_VERSIONS_NOT_CONTÍGUO
As versões (<versionList>
) não são contíguas.
Para obter mais detalhes, consulte DELTA_VERSIONS_NOT_CONTIGUOUS
DELTA_VIOLATE_CONSTRAINT_WITH_VALUES
CHECK
restrição <constraintName> <expression>
violada pela linha com valores:
<values>
DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED
A validação das propriedades da tabela <table>
foi violada:
Para obter mais detalhes, consulte DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED
DELTA_WRITE_INTO_VIEW_NO_SUPPORTED
<viewIdentifier>
é um view. O senhor não pode gravar dados em um view.
A COLUNA DELTA_ZORDERING_NÃO_EXISTE
Z-ordering A coluna <columnName>
não existe no esquema de dados.
DELTA_ZORDERING_ON_COLUMN_WITHOUT_STATS
Z-ordering em <cols>
será
ineficaz, pois atualmente não coletamos estatísticas para essas colunas. Por favor, consulte
<link>
Para obter mais informações sobre data skipping e Z-ordering. Você pode desativar
esta verificação definindo
'%%sql set <zorderColStatKey>
= falso'
DELTA_ZORDERING_ON_PARTITION_COLUMN
<colName>
é uma coluna de partição. Z-ordering só pode ser executado em colunas de dados
Delta Sharing
DELTA_SHARING_ACTIVATION_ONCE_NO_EXIST
SQLSTATE: nenhum atribuído
A ativação nunca foi encontrada. O link de ativação que você usou é inválido ou expirou. Gere novamente o link de ativação e tente novamente.
DELTA_SHARING_CROSS_REGION_SHARE_NÃO SUPORTADO
SQLSTATE: nenhum atribuído
Não há suporte para o compartilhamento entre regiões do <regionHint>
e regiões fora dele.
DELTA_SHARING_GET_RECIPIENT_PROPERTIES_INVALID_DEPENDENT
SQLSTATE: nenhum atribuído
O site view definido com a função current_recipient
serve apenas para compartilhamento e só pode ser consultado no lado do destinatário dos dados. O securable fornecido com id <securableId>
não é uma visualização Delta Sharing.
DELTA_SHARING_MUTABLE_SECURABLE_KIND_NO_SUPPORTED
SQLSTATE: nenhum atribuído
O tipo de segurança <securableKind>
fornecido não é compatível com a mutabilidade em Delta Sharing.
DELTA_SHARING_ROTATE_TOKEN_NÃO_AUTORIZADO_FOR_MARKETPLACE
SQLSTATE: nenhum atribuído
O tipo de segurança fornecido <securableKind>
não suporta a ação de rotação de tokens iniciada pelo serviço de marketplace.
DS_AUTH_TYPE_NÃO DISPONÍVEL
SQLSTATE: nenhum atribuído
<dsError>
: O tipo de autenticação não está disponível na entidade provedora <providerEntity>
.
DS_CDF_NÃO_HABILITADO
SQLSTATE: nenhum atribuído
<dsError>
: Não é possível acessar o feed de dados de alteração para <tableName>
. O CDF não está ativado na tabela delta original. Entre em contato com seu provedor de dados.
DS_CDF_NÃO COMPARTILHADO
SQLSTATE: nenhum atribuído
<dsError>
: Não é possível acessar o feed de dados de alteração para <tableName>
. O CDF não é compartilhado na mesa. Entre em contato com seu provedor de dados.
PARÂMETRO DS_CDF_RPC_INVÁLIDO
SQLSTATE: nenhum atribuído
<dsError>
: <message>
DS_CLIENT_AUTH_ERROR_PARA_DB_DS_SERVER
SQLSTATE: nenhum atribuído
<dsError>
: <message>
DS_CLIENT_ERROR_PARA_DB_DS_SERVER
SQLSTATE: nenhum atribuído
<dsError>
: <message>
FALHA DE TROCA DO DS_CLIENT_OAUTH_TOKEN_EXCHANGE
SQLSTATE: nenhum atribuído
<dsError>
: <message>
DS_CLIENT_OAUTH_TOKEN_EXCHANGE_NÃO AUTORIZADO
SQLSTATE: nenhum atribuído
<dsError>
: <message>
DS_CLOUD_VENDOR_INDISPONÍVEL
SQLSTATE: nenhum atribuído
<dsError>
: O fornecedor de nuvem está temporariamente indisponível para <rpcName>
, tente novamente.<traceId>
DS_DATA_MATERIALIZATION_COMMAND_FAILED
SQLSTATE: nenhum atribuído
<dsError>
: A execução da tarefa de materialização de dados <runId>
da organização <orgId>
falhou no comando <command>
DS_DATA_MATERIALIZATION_COMMAND_NOT_SUPPORTED
SQLSTATE: nenhum atribuído
<dsError>
: Materialização de dados tarefa execução <runId>
from org <orgId>
does not support comando <command>
DS_DATA_MATERIALIZATION_NO_VALID_NAMESPACE
SQLSTATE: nenhum atribuído
<dsError>
: Não foi possível encontrar um namespace válido para criar materialização para <tableName>
. Entre em contato com seu provedor de dados para corrigir isso.
DS_DATA_MATERIALIZATION_RUN_NÃO_EXISTE
SQLSTATE: nenhum atribuído
<dsError>
: A execução da tarefa de materialização de dados <runId>
da organização <orgId>
não existe
DS_DELTA_ILEGAL_STATE
SQLSTATE: nenhum atribuído
<dsError>
: <message>
DS_DELTA_MISSING_CHECKPOINT_FILES
SQLSTATE: nenhum atribuído
<dsError>
: Não foi possível encontrar todos os arquivos de peças do ponto de verificação na versão: <version>
. <suggestion>
PONTEIRO DS_DELTA_NULL
SQLSTATE: nenhum atribuído
<dsError>
: <message>
EXCEÇÃO DS_DELTA_RUNTIME
SQLSTATE: nenhum atribuído
<dsError>
: <message>
DS_EXPIRE_TOKEN_NÃO AUTORIZADO PARA O MARKETPLACE
SQLSTATE: nenhum atribuído
<dsError>
: O tipo de segurança fornecido <securableKind>
não é compatível com a ação de expiração de tokens iniciada pelo serviço de marketplace.
FALHA NA SOLICITAÇÃO DO DS_TO_OPEN_SERVER
SQLSTATE: nenhum atribuído
<dsError>
: <message>
DS_FEATURE_ONLY_FOR_DATABRICKS_TO_DATABRICKS
SQLSTATE: nenhum atribuído
<dsError>
: <feature>
só está ativado para Databricks para Databricks Delta compartilhamento.
DS_FILE_LISTING_EXCEPTION
SQLSTATE: nenhum atribuído
<dsError>
: <storage>
: <message>
DS_FILE_SIGNING_EXCEPTION
SQLSTATE: nenhum atribuído
<dsError>
: <message>
DS_FLAKY_NETWORK_CONNECTION
SQLSTATE: nenhum atribuído
<dsError>
: A conexão de rede está instável para <rpcName>
, tente novamente.<traceId>
DS_FOREIGN_TABLE_METADATA_REFRESH_FAILED
SQLSTATE: nenhum atribuído
<dsError>
: <message>
DS_HADOOP_CONFIG_NOT_SET
SQLSTATE: nenhum atribuído
<dsError>
: <key>
não é definido pelo chamador.
DS_ILEGAL_STATE
SQLSTATE: nenhum atribuído
<dsError>
: <message>
ERRO INTERNO DO DS_DO SERVIDOR DB_DS
SQLSTATE: nenhum atribuído
<dsError>
: <message>
DS_INVALID_AZURE_PATH
SQLSTATE: nenhum atribuído
<dsError>
: Caminho inválido do Azure: <path>
.
DS_INVALID_DELTA_ACTION_OPERATION
SQLSTATE: nenhum atribuído
<dsError>
: <message>
CAMPO DS_INVÁLIDO
SQLSTATE: nenhum atribuído
<dsError>
: <message>
OPERAÇÃO DS_INVALID_ITERATOR_
SQLSTATE: nenhum atribuído
<dsError>
: <message>
ESPECIFICAÇÃO DE PARTIÇÃO DS_INVÁLIDA
SQLSTATE: nenhum atribuído
<dsError>
: <message>
DS_INVALID_RESPONSE_FROM_DS_SERVER
SQLSTATE: nenhum atribuído
<dsError>
: <message>
DS_MATERIALIZATION_QUERY_FAILED
SQLSTATE: nenhum atribuído
<dsError>
: Falha na consulta para <schema>
.<table>
do Share <share>
.
DS_MATERIALIZATION_QUERY_TIMEOUT
SQLSTATE: nenhum atribuído
<dsError>
: O tempo limite da consulta foi atingido para <schema>
.<table>
do Share <share>
após <timeoutInSec>
segundos.
DS_MISSING_IDEMPOTÊNCIA_CHAVE
SQLSTATE: nenhum atribuído
<dsError>
: Idempotência key é necessária quando o senhor consulta <schema>
.<table>
do compartilhamento <share>
de forma assíncrona.
DS_MORE_THAN_ONE_RPC PARAMETER_SET
SQLSTATE: nenhum atribuído
<dsError>
: Forneça apenas um dos: <parameters>
.
DS_NO_METASTORE_ASSIGNED
SQLSTATE: nenhum atribuído
<dsError>
: Nenhum metastore atribuído para o site workspace atual (workspaceId: <workspaceId>
).
DS_O2D_OIDC_WORKLOAD_IDENTITY_TOKEN_GENERATION_FAILED
SQLSTATE: nenhum atribuído
<dsError>
: Falha na geração de tokens de identidade de carga de trabalho para o provedor O2D OIDC: <message>
.
DS_PAGINATION_AND_QUERY_ARGS_MISMATCH
SQLSTATE: nenhum atribuído
<dsError>
: incompatibilidade de argumentos de paginação ou consulta.
DS_PARTITION_COLUMNS_RENOMEADO
SQLSTATE: nenhum atribuído
<dsError>
: Coluna de partição [<renamedColumns>
] renomeada na tabela compartilhada. Entre em contato com seu provedor de dados para corrigir isso.
DS_QUERY_BEFORE_START_VERSION
SQLSTATE: nenhum atribuído
<dsError>
: você só pode consultar os dados da tabela desde a versão <startVersion>
.
DS_QUERY_TIMEOUT_ON_SERVER
SQLSTATE: nenhum atribuído
<dsError>
: ocorreu um tempo limite ao processar <queryType>
em <tableName>
após atualizações <numActions>
em <numIter>
iterações.<progressUpdate> <suggestion> <traceId>
DS_RATE_LIMIT_ON_DS_SERVER
SQLSTATE: nenhum atribuído
<dsError>
: <message>
PARÂMETRO DS_RECIPIENT_RPC_INVALID
SQLSTATE: nenhum atribuído
<dsError>
: <message>
DS_RESOURCE_JÁ EXISTE_ON_DS_SERVER
SQLSTATE: nenhum atribuído
<dsError>
: <message>
DS_RESOURCE_EXAUSTED
SQLSTATE: nenhum atribuído
<dsError>
: O <resource>
excedeu o limite: [<limitSize>
]<suggestion>
.<traceId>
DS_RESOURCE_NOT_FOUND_ON_DS_SERVER
SQLSTATE: nenhum atribuído
<dsError>
: <message>
DS_SYSTEM_WORKSPACE_GROUP_PERMISSION_NÃO SUPORTADO
SQLSTATE: nenhum atribuído
Não é possível conceder privilégios em <securableType>
ao grupo <principal>
gerado pelo sistema.
DS_TIME_TRAVEL_NÃO_PERMITIDO
SQLSTATE: nenhum atribuído
<dsError>
A consulta da viagem do tempo não é permitida a menos que a história seja compartilhada em <tableName>
. Entre em contato com seu provedor de dados.
DS_NÃO AUTORIZADO
SQLSTATE: nenhum atribuído
<dsError>
: Não autorizado.
DS_UNAUTHORIZED_D2O_OIDC_RECIPIENT
SQLSTATE: nenhum atribuído
<dsError>
: Destinatário não autorizado do D2O OIDC: <message>
.
DS_UNKNOWN_EXCEPTION
SQLSTATE: nenhum atribuído
<dsError>
: <traceId>
ID DA CONSULTA DS_DESCONHECIDA
SQLSTATE: nenhum atribuído
<dsError>
: ID de consulta <queryID>
desconhecido para <schema>
.<table>
do Share <share>
.
STATUS DA CONSULTA DS_UNKNOWN_DE_CONSULTA
SQLSTATE: nenhum atribuído
<dsError>
: Status de consulta desconhecido para a ID de consulta <queryID>
para <schema>
.<table>
do Share <share>
.
DS_UNKNOWN_RPC
SQLSTATE: nenhum atribuído
<dsError>
: Rpc <rpcName>
desconhecido.
VERSÃO DS_UNSUPPORTED_DELTA_READER_VERSION
SQLSTATE: nenhum atribuído
<dsError>
: Delta A versão <tableReaderVersion>
do leitor de protocolo é superior a <supportedReaderVersion>
e não é compatível com o servidor de compartilhamento delta.
DS_UNSUPPORTED_DELTA_TABLE_FEATURES
SQLSTATE: nenhum atribuído
<dsError>
: Recurso de tabela <tableFeatures>
são encontrados na tabela\<versionStr\> \<historySharingStatusStr\> \<optionStr\>
DS_UNSUPPORTED_OPERATION
SQLSTATE: nenhum atribuído
<dsError>
: <message>
DS_UNSUPPORTED_STORAGE_SCHEME
SQLSTATE: nenhum atribuído
<dsError>
: Esquema de armazenamento não suportado: <scheme>
.
DS_UNSUPPORTED_TABLE_TYPE
SQLSTATE: nenhum atribuído
<dsError>
: Não foi possível recuperar <schema>
.<table>
do compartilhamento <share>
porque a tabela com o tipo [<tableType>
] não é compatível com o protocolo Delta Sharing no momento.
DS_USER_CONTEXT_ERROR
SQLSTATE: nenhum atribuído
<dsError>
: <message>
DS_VIEW_SHARING_FUNCTIONS_NO_ALLOWED
SQLSTATE: nenhum atribuído
<dsError>
: A(s) seguinte(s) função(ões): <functions>
não são permitidas na consulta view compartilhamento.
DOMÍNIO DS_WORKSPACE_NÃO_DEFINIDO
SQLSTATE: nenhum atribuído
<dsError>
: o domínio do espaço de trabalho <workspaceId>
não está definido.
DS_WORKSPACE_NÃO_ENCONTRADO
SQLSTATE: nenhum atribuído
<dsError>
: o espaço de trabalho <workspaceId>
não foi encontrado.
Carregador automático
CF_ADD_NEW_NOT_SUPPORTED
Modo de evolução do esquema <addNewColumnsMode>
não é suportado quando o esquema é especificado. Para usar esse modo, você pode fornecer o esquema por meio de cloudFiles.schemaHints
.
CF_AMBIGUOUS_AUTH_OPTIONS_ERROR
Opções de autenticação de configuração de notificação encontradas para o diretório (default)
modo de listagem:
<options>
Se você quiser usar o modo de notificação de arquivo, defina explicitamente:
.option (“Arquivos na nuvem”.<useNotificationsKey>
”, “verdadeiro”)
Como alternativa, se você quiser pular a validação de suas opções e ignorá-las
opções de autenticação, você pode definir:
.option (“cloudfiles.validateOptionsKey >”, “false”)
CF_AMBIGUOUS_INCREMENTAL_LISTING_MODE_ERROR
Modo de listagem incremental (CloudFiles).<useIncrementalListingKey>
)
e notificação de arquivos (CloudFiles).<useNotificationsKey>
)
foram habilitados ao mesmo tempo.
Certifique-se de selecionar apenas um.
CF_AZURE_AUTHENTICATION_MISSING_OPTIONS
Forneça uma credencial de serviço do Databricks ou um clientId e um clientSecret para autenticação com o Azure.
CF_AZURE_AUTHENTICATION_MÚLTIPLAS OPÇÕES
Quando uma credencial de serviço do Databricks é fornecida, nenhuma outra opção de credencial (por exemplo, o ClientID, ClientSecret ou ConnectionString) devem ser fornecidos.
CF_AZURE_STORAGE_SUFFIXES_REQUIRED
Exigir adlsBlobSuffix e adlsDfsSuffix para o Azure
CF_BUCKET_MISMATCH
O <storeType>
no evento de arquivo <fileEvent>
é diferente do esperado pela fonte: <source>
.
CF_CANNOT_EVOLVE_SCHEMA_LOG_EMPTY
Não é possível evoluir o esquema quando o esquema log está vazio. Esquema log localização: <logPath>
CF_CANNOT_PARSE_QUEUE_MESSAGE
Não é possível analisar a seguinte mensagem da fila: <message>
CF_CANNOT_RESOLVE_NOME DO CONTÊINER
Não é possível resolver o nome do contêiner a partir do caminho: <path>
, uri resolvido: <uri>
CF_CANNOT_RUN_DIRECTORY_LISTING
Não é possível executar a listagem de diretórios quando há um thread de backfill assíncrono em execução
CF_CLEAN_SOURCE_ALLOW_OVERWRITES_BOTH_ON
Não é possível ativar cloudfiles.cleanSource e cloudfiles.allowOverwrites ao mesmo tempo.
CF_CLEAN_SOURCE_UNAUTHORIZED_WRITE_PERMISSION
O Auto Loader não pode excluir os arquivos processados porque não tem permissões de gravação no diretório de origem.
<reason>
Para corrigir, você pode:
- Conceder permissões de gravação ao diretório de origem OU
- Defina CleanSource como 'OFF'
O senhor também pode desbloquear sua transmissão definindo o SQLConf spark.databricks.cloudFiles.cleanSource.disabledDueToAuthorizationErrors para 'verdadeiro'.
CF_DUPLICATE_COLUMN_IN_DATA
Houve um erro ao tentar inferir o esquema de partição da sua tabela. Você tem a mesma coluna duplicada em seus caminhos de dados e partições. Para ignorar o valor da partição, forneça suas colunas de partição explicitamente usando: .option (“cloudFiles.<partitionColumnsKey>
”, “{lista separada por vírgulas}”)
CF_EMPTY_DIR_FOR_SCHEMA_INFERÊNCIA
Não é possível inferir o esquema quando o caminho de entrada <path>
está vazio. Tente iniciar a transmissão quando houver arquivos no caminho de entrada ou especifique o esquema.
CF_EVENT_GRID_AUTH_ERROR
Falha ao criar uma inscrição na grade de eventos. Certifique-se de que seu serviço
O principal tem <permissionType>
Event Grid inscrição. Veja mais detalhes em:
<docLink>
CF_EVENT_GRID_CRIAÇÃO_FALHA
Falha ao criar a inscrição da grade de eventos. Certifique-se de que Microsoft.EventGrid seja
registrado como provedor de recursos em sua inscrição. Veja mais detalhes em:
<docLink>
CF_EVENT_GRID_NOT_FOUND_ERROR
Falha ao criar uma inscrição na grade de eventos. Certifique-se de que seu armazenamento
account (<storageAccount>
) está sob seu grupo de recurso (<resourceGroup>
) e que
O armazenamento account é um "StorageV2 (general purpose v2)" account. Veja mais detalhes em:
<docLink>
CF_EVENT_NOTIFICATION_NÃO SUPORTADO
O modo de notificação de eventos do Auto Loader não é compatível com o site <cloudStore>
.
CF_FAILED_TO_CHECK_STREAM_NEW
Falha ao verificar se a transmissão é nova
CF_FAILED_TO_CREATED_PUBSUB_SUBSCRIPTION
Falha ao criar a inscrição: <subscriptionName>
. Uma inscrição com o mesmo nome já existe e está associada a outro tópico: <otherTopicName>
. O tópico desejado é <proposedTopicName>
. O senhor pode excluir a inscrição existente ou criar uma inscrição com um novo sufixo de recurso.
CF_FAILED_TO_CREATED_PUBSUB_TOPIC
Falha ao criar o tópico: <topicName>
. Já existe um tópico com o mesmo nome.<reason>
Remova o tópico existente ou tente novamente com outro sufixo de recurso
CF_FAILED_TO_DELETE_GCP_NOTIFICATION
Falha ao excluir a notificação com id <notificationId>
no bucket <bucketName>
para o tópico <topicName>
. Tente novamente ou remova manualmente a notificação por meio do console do GCP.
CF_FAILED_TO_DESSERIALIZAR_PERSISTED_SCHEMA
Falha ao desserializar o esquema persistente das cadeias de caracteres: '<jsonSchema>
'
ESQUEMA CF_FAILED_TO_EVOLVE_SCHEMA
Não é possível evoluir o esquema sem um esquema log.
CF_FALHOU EM ENCONTRAR O PROVEDOR
Falha ao encontrar o provedor para <fileFormatInput>
CF_FAILED_TO_INFER_SCHEMA
Falha ao inferir o esquema para o formato <fileFormatInput>
a partir de arquivos existentes no caminho de entrada <path>
.
Para obter mais detalhes, consulte CF_FAILED_TO_INFER_SCHEMA
CF_FALHOU_DE_GRAVAR_TO_SCHEMA_LOG
Falha ao gravar no esquema log no local <path>
.
CF_FORMATO_ARQUIVO_OBRIGATÓRIO
Não foi possível encontrar a opção necessária: cloudfiles.Format.
CF_FOUND_MULTIPLE_AUTOLOADER_PUBSUB_SUBSCRIPTIONS
Foram encontradas várias inscrições (<num>
) com o prefixo Auto Loader para o tópico <topicName>
:
<subscriptionList>
Deve haver apenas uma inscrição por tópico. Certifique-se manualmente de que seu tópico não tenha várias inscrições.
AUTENTICAÇÃO CF_GCP_
Forneça todos os itens a seguir: <clientEmail>
, <client>
,
<privateKey>
e <privateKeyId>
ou forneça <serviceCredential>
para usar sua credencial de serviço Databricks.
Como alternativa, não forneça nenhum deles para usar a cadeia de provedores de credenciais default GCP para autenticação com GCP recurso.
CF_GCP_LABELS_COUNT_EXCEEDED
O senhor recebeu um número excessivo de rótulos (<num>
) para GCP recurso. O número máximo de rótulos por recurso é <maxNum>
.
CF_GCP_RESOURCE_TAGS_COUNT_EXCEEDED
Recebeu muitas tags de recurso (<num>
) para GCP recurso. A contagem máxima de tags de recurso por recurso é <maxNum>
, pois as tags de recurso são armazenadas como GCP rótulo no recurso, e as tags específicas de Databricks consomem parte dessa cota de rótulo.
CF_INCOMPLETE_LOG_FILE_IN_SCHEMA_LOG
Arquivo log incompleto no esquema log no caminho <path>
CF_INCOMPLETE_METADATA_FILE_IN_CHECKPOINT
Arquivo de metadados incompleto no ponto de verificação do Auto Loader
CF_USO INCORRETO DO LOTE
O CloudFiles é uma fonte de transmissão. Use spark.readStream em vez de spark.read. Para desativar essa verificação, defina <cloudFilesFormatValidationEnabled>
como false.
CF_INCORRECT_SQL_PARAMS
O método cloud_files aceita dois parâmetros de cadeia de caracteres obrigatórios: o caminho de onde o arquivo será carregado e o formato do arquivo. As opções do leitor de arquivos devem ser fornecidas em um mapa de valores keystrings. ex. cloud_files("path", "JSON", map("option1", "value1")). Recebido: <params>
CF_USO INCORRETO DO STREAM
Para usar o 'cloudFiles' como fonte de transmissão, forneça o formato do arquivo com a opção 'cloudFiles.format', e use .load() para criar o DataFrame. Para desativar essa verificação, defina <cloudFilesFormatValidationEnabled>
como false.
CF_INTERNAL_ERROR
Erro interno.
Para obter mais detalhes, consulte CF_INTERNAL_ERROR
CF_INVALID_ARN
ARN inválido: <arn>
CERTIFICADO CF_INVALID_AZURE_
O key privado fornecido com a opção cloudFiles.certificate não pode ser analisado. Forneça um key público válido no formato PEM.
CF_INVALID_AZURE_CERT_PRIVATE_KEY
O key privado fornecido com a opção cloudFiles.certificatePrivateKey não pode ser analisado. Forneça um key privado válido no formato PEM.
CF_INVALID_CHECKPOINT
Este ponto de verificação não é uma fonte válida do CloudFiles
CF_INVALID_CLEAN_SOURCE_MODE
Modo inválido para a opção <value>
de fonte limpa.
CF_INVALID_GCP_RESOURCE_TAG_KEY
Tag de recurso inválida key para GCP recurso: <key>
. A chave deve começar com uma letra minúscula, ter de 1 a 63 caracteres e conter apenas letras minúsculas, números, sublinhado (_) e hífens (-).
CF_INVALID_GCP_RESOURCE_TAG_VALUE
Valor de tag de recurso inválido para o recurso GCP: <value>
. Os valores devem ter de 0 a 63 caracteres e devem conter apenas letras minúsculas, números, sublinhado (_) e hífens (-).
CF_INVALID_MANAGED_FILE_EVENTS_OPTION_KEYS
Auto Loader não é compatível com as seguintes opções quando usado com eventos de arquivo gerenciar:
<optionList>
Recomendamos que o senhor remova essas opções e, em seguida, reinicie a transmissão.
CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE
Resposta inválida do serviço gerenciar eventos de arquivos. Entre em contato com o suporte da Databricks para obter assistência.
Para obter mais detalhes, consulte CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE
CF_INVALID_SCHEMA_EVOLUTION_MODE
Arquivos na nuvem.<schemaEvolutionModeKey>
deve ser um dos {
“<addNewColumns>
”
“<failOnNewColumns>
”
“<rescue>
”
“<noEvolution>
”}
CF_INVALID_SCHEMA_HINTS_OPTION
As dicas de esquema só podem especificar uma coluna específica uma vez.
Nesse caso, redefinindo a coluna: <columnName>
várias vezes em SchemaHints:
<schemaHints>
CF_INVALID_SCHEMA_HINT_COLUMN
As dicas de esquema não podem ser usadas para substituir os tipos aninhados de mapas e matrizes.
Coluna em conflito: <columnName>
CF_LATEST_OFFSET_READ_LIMIT_EXIGIDO
latestOffset deve ser chamado com um readLimit nessa fonte.
CF_LOG_FILE_MALFORMADO
O arquivo de registro estava malformado: não foi possível ler a versão correta do log de <fileName>
.
CF_MANAGED_FILE_EVENTS_BACKFILL_IN_PROGRESS
O senhor solicitou que o Auto Loader ignorasse os arquivos existentes em seu local externo, definindo includeExistingFiles como false. No entanto, o serviço de gerenciar eventos de arquivos ainda está descobrindo arquivos existentes em seu local externo. Tente novamente depois que o gerenciar eventos de arquivos tiver concluído a descoberta de todos os arquivos em seu local externo.
CF_MANAGED_FILE_EVENTS_ENDPOINT_NOT_FOUND
O senhor está usando Auto Loader com eventos de arquivo gerenciar, mas parece que o local externo do caminho de entrada '<path>
' não tem eventos de arquivo ativados ou o caminho de entrada é inválido. Solicite ao administrador da Databricks que ative os eventos de arquivo no local externo do caminho de entrada.
CF_MANAGED_FILE_EVENTS_ENDPOINT_PERMISSION_DENIED
O senhor está usando o site Auto Loader com eventos de gerenciar arquivos, mas não tem acesso ao local ou volume externo para o caminho de entrada '<path>
' ou o caminho de entrada é inválido. Solicite ao administrador da Databricks que conceda permissões de leitura para o local ou volume externo ou forneça um caminho de entrada válido em um local ou volume externo existente.
CF_MANAGED_FILE_EVENTS_ONLY_ON_SERVERLESS
Auto Loader com eventos de arquivo gerenciar só está disponível em Databricks serverless. Para continuar, mova essa carga de trabalho para o Databricks serverless ou desative a opção cloudFiles.useManagedFileEvents opção.
CF_MAX_DEVE SER POSITIVO
max deve ser positivo
CF_METADATA_FILE_USADO SIMULTANEAMENTE
Várias consultas de transmissão estão usando simultaneamente <metadataFile>
CF_MISSING_METADATA_FILE_ERROR
O arquivo de metadados no diretório do ponto de verificação da fonte de transmissão está ausente. Esses metadados
O arquivo default contém opções importantes para a transmissão, de modo que a transmissão não pode ser reiniciada
agora mesmo. Entre em contato com o suporte da Databricks para obter assistência.
CF_MISSING_PARTITION_COLUMN_ERROR
A coluna de partição <columnName>
não existe no esquema fornecido:
<schema>
CF_MISSING_SCHEMA_IN_PATHLESS_MODE
Especifique um esquema usando .schema () se um caminho não for fornecido para a origem do CloudFiles ao usar o modo de notificação de arquivo. Como alternativa, para que o Auto Loader deduza o esquema, forneça um caminho de base em .load().
CF_MULTIPLE_PUBSUB_NOTIFICATIONS_FOR_TOPIC
Foram encontradas notificações existentes para o tópico <topicName>
no bucket <bucketName>
:
notificação, id
<notificationList>
Para evitar poluir o assinante com eventos não intencionais, exclua as notificações acima e tente novamente.
CF_NEW_PARTITION_ERROR
Novas colunas de partição foram inferidas de seus arquivos: [<filesList>
]. Forneça todas as colunas de partição em seu esquema ou forneça uma lista de colunas de partição para as quais o senhor gostaria de extrair valores usando: .option("cloudFiles.partitionColumns", "{comma-separated-list|empty-strings}")
CF_PARTITON_INFERENCE_ERROR
Ocorreu um erro ao tentar inferir o esquema de partição dos lotes de arquivos atuais. Forneça suas colunas de partição explicitamente usando: .option (“cloudFiles.<partitionColumnOption>
”, “{lista separada por vírgulas}”)
CF_PATH_DOES_NOT_EXIST_PARA_READ_FILES
Não é possível ler arquivos quando o caminho de entrada <path>
não existe. Verifique se o caminho de entrada existe e tente novamente.
CF_PERIODIC_BACKFILL_NOT_SUPPORTED
O preenchimento periódico não é suportado se o preenchimento assíncrono estiver desativado. Você pode ativar a listagem assíncrona de backfils/diretórios definindo spark.databricks.cloudFiles.asyncDirListing
como true
CF_PREFIX_MISMATCH
Encontrado evento incompatível: key <key>
não tem o prefixo: <prefix>
CF_PROTOCOL_MISMATCH
<message>
Se o senhor não precisar fazer nenhuma outra alteração em seu código, defina o SQL
configuração: '<sourceProtocolVersionKey> = <value>
'
para retomar sua transmissão. Por favor, consulte:
<docLink>
para obter mais detalhes.
CF_REGION_NOT_FOUND_ERROR
Não foi possível acessar default AWS Region. Especifique uma região usando a opção cloudfiles.region.
CF_RESOURCE_SUFFIX_EMPTY
Falha ao criar o serviço de notificação: o sufixo do recurso não pode estar vazio.
CF_RESOURCE_SUFFIX_INVALID_CHAR_AWS
Falha ao criar o serviço de notificação: o sufixo do recurso só pode ter caracteres alfanuméricos, hífens (-) e sublinhado (_).
CF_RESOURCE_SUFFIX_INVALID_CHAR_AZURE
Falha ao criar o serviço de notificação: o sufixo do recurso só pode ter letra minúscula, número e traço (-).
CF_RESOURCE_SUFFIX_INVALID_CHAR_GCP
Falha ao criar o serviço de notificação: o sufixo do recurso só pode ter caracteres alfanuméricos, hífens (-), sublinhado (_), pontos (.), tildes (~), sinais de adição (+) e sinais de porcentagem (<percentSign>
).
CF_RESOURCE_SUFFIX_LIMIT
Falha ao criar o serviço de notificação: o sufixo do recurso não pode ter mais de <limit>
caracteres.
CF_RESOURCE_SUFFIX_LIMIT_GCP
Falha ao criar o serviço de notificação: o sufixo do recurso deve ter entre <lowerLimit>
e <upperLimit>
caracteres.
CF_RESTRICTED_GCP_RESOURCE_TAG_KEY
Encontrada a tag de recurso restrito GCP key (<key>
). As seguintes chaves de tag de recurso GCP são restritas para Auto Loader: [<restrictedKeys>
]
CF_RETENTION_GREATER_THA_MAX_FILE_AGE
cloudfiles.cleanSource.Duração da retenção não pode ser maior que cloudfiles.maxFileAge.
CF_SAME_PUB_SUB_TOPIC_NEW_KEY_PREFIX
Falha ao criar notificação para o tópico: <topic>
com o prefixo: <prefix>
. Já existe um tópico com o mesmo nome com outro prefixo: <oldPrefix>
. Tente usar um sufixo de recurso diferente para a configuração ou exclua a configuração existente.
CF_SCHEMA_LOG_DEEP_CLONE_FAILED
Falha ao clonar e migrar qualquer entrada do esquema log do esquema de origem log.
CF_SFTP_ARQUIVO_SENHA OU ARQUIVO_CHAVE AUSENTE
A senha ou o arquivo key deve ser especificado para SFTP.
Especifique a senha no uri de origem ou por meio de <passwordOption>
, ou especifique o conteúdo do arquivo key por meio de <keyFileOption>
.
CF_SFTP_NOT_ENABLED
O acesso a arquivos SFTP não está habilitado. Entre em contato com o suporte da Databricks para obter assistência.
CF_SFTP_REQUIRE_UC_CLUSTER
É necessário um clustering habilitado para UC para acessar os arquivos SFTP. Entre em contato com o suporte da Databricks para obter assistência.
CF_SFTP_NOME DE USUÁRIO_NOT_FOUND
O nome de usuário deve ser especificado para SFTP.
Forneça o nome de usuário no uri de origem ou via <option>
.
CF_SOURCE_DIRECTORY_PATH_OBRIGATÓRIO
Forneça o caminho do diretório de origem com a opção path
CF_SOURCE_NÃO SUPORTADO
A fonte de arquivos na nuvem é compatível apenas com os caminhos S3, Azure Blob Storage (wasb/wasbs) e Azure data lake Gen1 (adl) e Gen2 (abfs/abfss) no momento. caminho: '<path>
', uri resolvido: '<uri>
'
CF_STATE_INCORRECT_SQL_PARAMS
A função cloud_files_state aceita um parâmetro de cadeia de caracteres que representa o diretório do ponto de verificação de uma transmissão do cloudFiles ou um tableName de várias partes que identifica uma tabela de transmissão e um segundo parâmetro inteiro opcional que representa a versão do ponto de verificação para a qual carregar o estado. O segundo parâmetro também pode ser “mais recente” para ler o ponto de verificação mais recente. Recebido: <params>
CF_STATE_INVALID_CHECKPOINT_PATH
O caminho do ponto de verificação de entrada <path>
é inválido. Ou o caminho não existe ou não foram encontradas fontes de cloud_files.
CF_STATE_VERSÃO INVÁLIDA
A versão especificada <version>
não existe ou foi removida durante a análise.
CF_THREAD_ESTÁ MORTO
<threadName>
o tópico está morto.
CF_INCAPLE_TO_DERIVE_STREAM_CHECKPOINT_LOCATION
Não foi possível derivar o local do ponto de verificação de transmissão do local do ponto de verificação de origem: <checkPointLocation>
CF_INCAPAZ DE DETECTAR O FORMATO DO ARQUIVO
Não foi possível detectar o formato do arquivo de origem dos arquivos de amostra <fileSize>
, encontrados em <formats>
. Especifique o formato.
CF_INCAPLE_TO_EXTRACT_BUCKET_INFO
Não foi possível extrair informações sobre o balde. Caminho: '<path>
', uri resolvido: '<uri>
'.
CF_INCAPLE_TO_EXTRACT_KEY_INFO
Não foi possível extrair key informações. Caminho: '<path>
', uri resolvido: '<uri>
'.
CF_INCAPLE_TO_EXTRACT_STORAGE_ACCOUNT_INFO
Não foi possível extrair o armazenamento account informação; path: '<path>
', resolved uri: '<uri>
'
CF_UNABLE_TO_LIST_EFICIENTEMENTE
Recebi um evento de renomeação de diretório para o caminho <path>
, mas não conseguimos listar esse diretório de forma eficiente. Para que a transmissão continue, defina a opção "cloudFiles.ignoreDirRenames para verdadeiro e considere habilitar preenchimentos regulares com cloudfiles.backfillInterval para que esses dados sejam processados.
CF_UNEXPECTED_READ_LIMIT
Limite de leitura inesperado: <readLimit>
CF_UNKNOWN_OPTION_KEYS_ERROR
Encontrada chave de opção desconhecida:
<optionList>
Certifique-se de que todas as chaves de opção fornecidas estejam corretas. Se você quiser pular o
validação de suas opções e ignorar essas opções desconhecidas, você pode definir:
.option (“Arquivos na nuvem”.<validateOptions>
”, “falso”)
CF_UNKNOWN_LIMIT DE LEITURA
Limite de leitura desconhecido: <readLimit>
CF_UNSUPPORTED_CLOUD_FILES_SQL_FUNCTION
A função SQL 'cloud_files' para criar uma fonte de transmissão Auto Loader é suportada somente em um DLT pipeline. Veja mais detalhes em:
<docLink>
CF_UNSUPPORTED_FORMAT_FOR_SCHEMA_INFERENCE
A inferência de esquema não é compatível com o formato: <format>
. Especifique o esquema.
CF_UNSUPPORTED_LOG_VERSION
UnsupportedLogVersion: a versão máxima suportada do log é v\<maxVersion\>
, mas foi encontrada v\<version\>
. O arquivo log foi produzido por uma versão mais recente do DBR e não pode ser lido por esta versão. Por favor, atualize.
CF_UNSUPPORTED_SCHEMA_EVOLUTION_MODE
O modo de evolução do esquema <mode>
não é compatível com o formato: <format>
. Defina o modo de evolução do esquema como "none".
CF_USE_DELTA_FORMAT
A leitura de uma tabela Delta não é suportada com essa sintaxe. Se o senhor quiser consumir dados de Delta, consulte os documentos: ler uma tabela Delta (<deltaDocLink>
) ou ler uma tabela Delta como fonte de transmissão (<streamDeltaDocLink>
). A fonte de transmissão do site Delta já está otimizada para o consumo incremental de dados.
Geoespacial
EWKB_PARSE_ERROR
Erro ao analisar EWKB: <parseError>
na posição <pos>
GEOJSON_PARSE_ERROR
Erro ao analisar GeoJSON: <parseError>
na posição <pos>
Para obter mais detalhes, consulte GEOJSON_PARSE_ERROR
ID DE CÉLULA H3_INVÁLIDA
<h3Cell>
não é um ID de célula H3 válido
Para obter mais detalhes, consulte H3_INVALID_CELL_ID
VALOR_DISTÂNCIA_GRID_INVÁLIDO_H3_INVÁLIDO
A distância <k>
da grade H3 deve ser não negativa
Para obter mais detalhes, consulte H3_INVALID_GRID_DISTANCE_VALUE
VALOR_DE_RESOLUÇÃO_INVÁLIDA_H3_INVÁLIDA
A resolução H3 <r>
deve estar entre <minR>
e <maxR>
, inclusive
Para obter mais detalhes, consulte H3_INVALID_RESOLUTION_VALUE
H3_NÃO_HABILITADO
<h3Expression>
está desativado ou não é suportado. Considere a possibilidade de ativar o Photon ou mudar para uma camada que ofereça suporte a expressões H3
Para obter mais detalhes, consulte H3_NOT_ENABLED
ERRO H3_PENTAGON_ENCOUNTERED_ENCOUNTERED_ERROR
Um pentágono foi encontrado ao calcular o anel hexadecimal de <h3Cell>
com a distância da grade <k>
H3_UNDEFINED_GRID_DISTANCE
A distância da grade H3 entre <h3Cell1>
e <h3Cell2>
é indefinida
ST_DIFFERENT_SRID_VALUES
Os argumentos para “<sqlFunction>
” devem ter o mesmo valor SRID. Valores SRID encontrados: <srid1>
, <srid2>
ST_ARGUMENTO_INVÁLIDO
“<sqlFunction>
”: <reason>
ST_INVALID_ARGUMENT_TYPE
O argumento para “<sqlFunction>
” deve ser do tipo <validTypes>
ST_INVALID_CRS_TRANSFORMATION_ERROR
<sqlFunction>
: Transformações de CRS inválidas ou não suportadas do SRID <srcSrid>
para o SRID <trgSrid>
ST_INVALID_ENDIANESS_VALUE
O endianness '<e>
' deve ser 'NDR' (little-endian) ou 'XDR' (big-endian)
ST_INVALID_GEOHASH_VALUE
<sqlFunction>
: Valor de geohash inválido: '<geohash>
'. Os valores de Geohash devem ser válidos em minúsculas base32 strings, conforme descritoemhttps://en.wikipedia.org/wiki/Geohash#Textual_representation
VALOR_ÍNDICE_ST_INVÁLIDO
<sqlFunction>
: Índice <index>
inválido para o valor geoespacial fornecido.
ST_INVALID_PRECISION_VALUE
A precisão <p>
deve estar entre <minP>
e <maxP>
, inclusive
ST_INVALID_SRID_VALUE
SRID inválido ou não suportado <srid>
ST_NOT_ENABLED
<stExpression>
está desativado ou não é suportado. Considere a possibilidade de ativar o Photon ou mudar para uma camada que ofereça suporte a expressões ST
ST_UNSUPPORTED_RETURN_TYPE
Os tipos de dados GEOGRAPHY
e GEOMETRY
não podem ser retornados em consultas. Use uma das seguintes expressões SQL para convertê-las em formatos de intercâmbio padrão: <projectionExprs>
.
ERRO WKB_PARSE_ERROR
Erro ao analisar WKB: <parseError>
na posição <pos>
Para obter mais detalhes, consulte WKB_PARSE_ERROR
WKT_PARSE_ERROR
Erro ao analisar WKT: <parseError>
na posição <pos>
Para obter mais detalhes, consulte WKT_PARSE_ERROR
Unity Catalog
ERRO CONFLICTING_COLUMN_NAMES_NAMES_ERROR
A coluna <columnName>
entra em conflito com outra coluna com o mesmo nome, mas com/sem espaços em branco à direita (por exemplo, uma coluna existente chamada ``<columnName>). Renomeie a coluna com um nome diferente.
CREDENCIAIS DE CONEXÃO_NÃO SUPORTADAS PARA CONEXÃO DE TABELA ON-LINE
SQLSTATE: nenhum atribuído
Solicitação inválida para obter credenciais de nível de conexão para conexão do tipo <connectionType>
. Essas credenciais só estão disponíveis para gerenciar conexões PostgreSQL.
TIPO DE CONEXÃO_NÃO_HABILITADO
SQLSTATE: nenhum atribuído
O tipo de conexão '<connectionType>
' não está habilitado. Ative a conexão para usá-la.
DELTA_SHARING_READ_ONLY_RECIPIENT_EXISTS
SQLSTATE: nenhum atribuído
Já existe um objeto de destinatário '<existingRecipientName>
' com o mesmo identificador de compartilhamento '<existingMetastoreId>
'.
DELTA_SHARING_READ_ONLY_SECURABLE_KIND
SQLSTATE: nenhum atribuído
Os dados de um Delta Sharing Securable Kind <securableKindName>
são somente de leitura e não podem ser criados, modificados ou excluídos.
ACESSO EXTERNO DESATIVADO NO METASTORE
SQLSTATE: nenhum atribuído
A venda de credenciais é rejeitada para um ambiente de computação não Databricks devido ao fato de o acesso a dados externos estar desativado para o metastore <metastoreName>
. Entre em contato com o administrador da metastore para ativar a configuração de “Acesso externo a dados” na metastore.
ACESSO EXTERNO NÃO PERMITIDO PARA TABELA
SQLSTATE: nenhum atribuído
A tabela com id <tableId>
não pode ser acessada de fora do Databricks compute Environment porque seu tipo é <securableKind>
. Somente os tipos de tabela 'TABLE_EXTERNAL
', 'TABLE_DELTA_EXTERNAL
' e 'TABLE_DELTA
' podem ser acessados externamente.
ESQUEMA DE USO EXTERNO ATRIBUÍDO AO TIPO SEGURÁVEL INCORRETO
SQLSTATE: nenhum atribuído
O privilégio EXTERNAL
USE SCHEMA
não é aplicável a essa entidade <assignedSecurableType>
e só pode ser atribuído a um esquema ou catálogo. Remova o privilégio do objeto <assignedSecurableType>
e, em vez disso, atribua-o a um esquema ou catálogo.
EXTERNAL_WRITE_NOT_ALLOWED_FOR_TABLE
SQLSTATE: nenhum atribuído
A tabela com id <tableId>
não pode ser gravada de fora do Databricks compute Environment porque seu tipo é <securableKind>
. Somente os tipos de tabela 'TABLE_EXTERNAL
' e 'TABLE_DELTA_EXTERNAL
' podem ser escritos externamente.
FOREIGN_CATALOG_STORAGE_ROOT_MUST_SUPPORT_WRITES
SQLSTATE: nenhum atribuído
O local de armazenamento de um catálogo estrangeiro do tipo <catalogType>
será usado para descarregar dados e não pode ser somente para leitura.
HMS
SQLSTATE: nenhum atribuído
O número de <resourceType>
s para o caminho de entrada <url>
excede o limite permitido (<overlapLimit>
) para sobreposição de HMS <resourceType>
s.
NOME_DO_RECURSO INVÁLIDO_COMPARTILHAMENTO DE DELTA
SQLSTATE: nenhum atribuído
Delta Sharing as solicitações não são compatíveis com o uso de nomes de recurso
NOME DO RECURSO INVÁLIDO TIPO DE ENTIDADE
SQLSTATE: nenhum atribuído
O nome do recurso fornecido faz referência ao tipo de entidade <provided>
, mas espera-se que o <expected>
NOME_DO_RECURSO INVÁLIDO_METASTORE_ID
SQLSTATE: nenhum atribuído
O nome do recurso fornecido faz referência a um metastore que não está no escopo da solicitação atual
LOCALIZAÇÃO_SOBREPOSIÇÃO
SQLSTATE: nenhum atribuído
O URL do caminho de entrada '<path>
' se sobrepõe a <overlappingLocation>
na chamada '<caller>
'. <conflictingSummary>
.
REDSHIFT_FOREIGN_CATALOG_STORAGE_ROOT_MUST_BE_S3
SQLSTATE: nenhum atribuído
A raiz de armazenamento do catálogo externo do Redshift deve ser o AWS S3.
SECURABLE_KIND_NÃO SUPORTA A LAKEHOUSE_FEDERATION
SQLSTATE: nenhum atribuído
Protegível com o tipo <securableKind>
não suporta a Lakehouse Federation.
SECURABLE_KIND_NÃO_HABILITADO
SQLSTATE: nenhum atribuído
O tipo seguro '<securableKind>
' não está habilitado. Se esse for um tipo de segurança associado a um recurso de visualização, ative-o nas configurações do site workspace.
SECURABLE_TYPE_DOES_NOT_SUPPORT_LAKEHOUSE_FEDERATION
SQLSTATE: nenhum atribuído
Securável com o tipo <securableType>
não suporta Lakehouse Federation.
SOURCE_TABLE_COLUMN_COUNT_EXCEEDS_LIMIT
SQLSTATE: nenhum atribuído
A tabela de origem tem mais de <columnCount>
colunas. Reduza o número de colunas para <columnLimitation>
ou menos.
tokens
SQLSTATE: nenhum atribuído
A vida útil dos tokens AAD trocados é <lifetime>
, o que é configurado como muito curto. Verifique a configuração do Azure AD para garantir que os tokens de acesso temporário tenham pelo menos uma hora de duração.https://learn.microsoft.com/azure/active-directory/develop/active-directory-configurable-tokens-lifetimes
UC_ABAC_EVALUATION_ERROR
SQLSTATE: nenhum atribuído
Erro ao avaliar as políticas ABAC em <resource>
.
UC_AUTHZ_ACTION_NOT_SUPPORTED
SQLSTATE: nenhum atribuído
A autorização do site <actionName>
não é compatível; verifique se o RPC invocado está implementado para esse tipo de recurso
HMS
SQLSTATE: nenhum atribuído
Não é possível criar uma conexão para um Hive metastore interno porque o usuário: <userId>
não é o administrador do site workspace: <workspaceId>
HMS
SQLSTATE: nenhum atribuído
Tentativa de modificar um campo restrito na conexão HMS integrada '<connectionName>
'. Somente 'warehouse_directory' pode ser atualizado.
UC_CANNOT_RENOME_PARTITION_FILTERING_COLUMN
SQLSTATE: nenhum atribuído
Falha ao renomear a coluna <originalLogicalColumn>
da tabela porque ela é usada para filtragem de partições em <sharedTableName>
. Para continuar, você pode remover a tabela do compartilhamento, renomear a coluna e compartilhá-la novamente com as colunas de filtragem de partição desejadas. No entanto, isso pode interromper a consulta de transmissão para o destinatário.
UC_CHILD_CREATION_FORBIDDEN_FOR_NON_UC_CLUSTER
SQLSTATE: nenhum atribuído
Não é possível criar <securableType>
'<securable>
' em <parentSecurableType>
'<parentSecurable>
' porque a solicitação não é de um clustering de UC.
FALHA DE ACESSO AO UC_CLOUD_STORAGE_STORAGE
SQLSTATE: nenhum atribuído
Falha ao acessar o armazenamento em nuvem: <errMsg>
exceptionTraceId=<exceptionTraceId>
UC_CONFLICTING_CONNECTION_OPTIONS
SQLSTATE: nenhum atribuído
Não é possível criar uma conexão com as opções de autenticação de nome de usuário/senha e oauth. Por favor, escolha um.
UC_CONNECTION_EXISTE_PARA_CREDENCIAL
SQLSTATE: nenhum atribuído
A credencial '<credentialName>
' tem uma ou mais conexões dependentes. Você pode usar a opção force para continuar atualizando ou excluindo a credencial, mas as conexões que usam essa credencial podem não funcionar mais.
TOKEN DE ACESSO EXPIRADO DA CONEXÃO UC
SQLSTATE: nenhum atribuído
Os tokens de acesso associados à conexão expiraram. Atualize a conexão para reiniciar o fluxo OAuth e recuperar os tokens.
TOKEN DE ATUALIZAÇÃO EXPIRADO DA CONEXÃO UC
SQLSTATE: nenhum atribuído
Os tokens refresh associados à conexão expiraram. Atualize a conexão para reiniciar o fluxo OAuth e recuperar novos tokens.
UC_CONNECTION_IN_FAILED_STATE
SQLSTATE: nenhum atribuído
A conexão está no estado FAILED
. Atualize a conexão com credenciais válidas para reativá-la.
TOKEN DE ATUALIZAÇÃO AUSENTE DA CONEXÃO UC
SQLSTATE: nenhum atribuído
Não há tokens refresh associados à conexão. Atualize a integração do cliente OAuth em seu provedor de identidade para retornar refresh tokens, e atualize ou recrie a conexão para reiniciar o fluxo OAuth e recuperar o tokens necessário.
UC_CONNECTION_OAUTH_EXCHANGE_FAILED
SQLSTATE: nenhum atribuído
A troca de tokens OAuth falhou com o código de status HTTP <httpStatus>
. A resposta ou mensagem de exceção do servidor retornada é: <response>
UC_COORDINATED_COMMITS_NOT_ENABLED
SQLSTATE: nenhum atribuído
O suporte para confirmação coordenada não está habilitado. Entre em contato com o suporte da Databricks.
UC_CREATE_FORBIDDEN_UNDER_INATIVO_SECURABLE
SQLSTATE: nenhum atribuído
Não é possível criar <securableType>
'<securableName>
' porque está abaixo de um <parentSecurableType>
'<parentSecurableName>
' que não está ativo. Exclua o principal protegível e recrie o pai.
FALHA NA ANÁLISE DO CONECTOR DE ACESSO UC_CREDENTIAL_ACCESS_CONNECTOR
SQLSTATE: nenhum atribuído
Falha ao analisar a ID do conector de acesso fornecida: <accessConnectorId>
. Verifique a formatação e tente novamente.
FALHA NA OBTENÇÃO DO TOKEN DE VALIDAÇÃO DA UC_CREDENTIAL_CREDENTIAL
SQLSTATE: nenhum atribuído
Falha ao obter um token AAD para executar a validação de permissão de nuvem em um conector de acesso. Tente executar a ação novamente.
UC_CREDENTIAL_INVALID_CLOUD_PERMISSIONS
SQLSTATE: nenhum atribuído
O registro de uma credencial requer a função de colaborador no conector de acesso correspondente com ID <accessConnectorId>
. Entre em contato com o administrador do site account.
UC_CREDENTIAL_INVALID_CREDENTIAL_TYPE_FOR_PURPOSE
SQLSTATE: nenhum atribuído
O tipo de credencial '<credentialType>
' não é suportado para a finalidade '<credentialPurpose>
'
UC_CREDENTIAL_PERMISSÃO_NEGADA
SQLSTATE: nenhum atribuído
Somente o administrador do site account pode criar ou atualizar uma credencial com o tipo <storageCredentialType>
.
UC_CREDENTIAL_TRUST_POLICY_ESTÁ ABERTA
SQLSTATE: nenhum atribuído
A política de confiança do site IAM role para permitir que a conta Databricks assuma a função deve exigir um ID externo. Entre em contato com o administrador do site account para adicionar a condição de identificação externa. Esse comportamento serve para se proteger contra o problema do Confused Deputy https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html).
UC_CREDENTIAL_UNPRIVILEGED_SERVICE_PRINCIPAL_NOT_SUPPORTED
SQLSTATE: nenhum atribuído
A entidade de serviço não pode usar o privilégio CREATE_STORAGE_CREDENTIAL
para registrar identidades gerenciadas. Para registrar uma identidade gerenciável, atribua à entidade de serviço a função de administrador do account.
UC_CREDENTIAL_WORKSPACE_API_PROHIBIDED
SQLSTATE: nenhum atribuído
Não há suporte para a criação ou atualização de uma credencial como um administrador que não sejaaccount no nível account API. Em vez disso, use o workspace-level API.
O FORMATO UC_DELTA_UNIVERSAL_NÃO CONSEGUE ANALISAR A VERSÃO_ICEBERG
SQLSTATE: nenhum atribuído
Não foi possível analisar a versão da tabela Iceberg a partir do local dos metadados <metadataLocation>
.
UC_DELTA_UNIVERSAL_FORMATO_GRAVAÇÃO SIMULTÂNEA
SQLSTATE: nenhum atribuído
Foi detectada uma atualização concorrente para a mesma versão de metadados do iceberg.
UC_DELTA_UNIVERSAL_FORMATO_METADATA_LOCALIZAÇÃO INVÁLIDA
SQLSTATE: nenhum atribuído
A localização dos metadados confirmados <metadataLocation>
é inválida. Não é um subdiretório do diretório raiz da tabela <tableRoot>
.
RESTRIÇÃO DE CAMPO AUSENTE DO FORMATO UC_DELTA_UNIVERSAL
SQLSTATE: nenhum atribuído
As informações fornecidas sobre a conversão do formato delta iceberg estão faltando campos obrigatórios.
UC_DELTA_UNIVERSAL_FORMAT_NON_CREATE_CONSTRAINT
SQLSTATE: nenhum atribuído
A configuração da informação do formato do delta iceberg na criação não é suportada.
RESTRIÇÃO DE FORMATO UC_DELTA_UNIVERSAL MUITO GRANDE
SQLSTATE: nenhum atribuído
As informações fornecidas sobre a conversão do formato delta iceberg são muito grandes.
UC_DELTA_UNIVERSAL_FORMAT_UPDATE_INVALID
SQLSTATE: nenhum atribuído
Os metadados uniformes só podem ser atualizados em tabelas Delta com uniformes ativados.
UC_DEPENDENCY_DEPTH_LIMIT_EXCEEDED
SQLSTATE: nenhum atribuído
<resourceType>
A profundidade '<ref>
' excede o limite (ou tem uma referência circular).
A DEPENDÊNCIA UC_NÃO_EXISTE
SQLSTATE: nenhum atribuído
<resourceType>
'<ref>
' é inválido porque um dos recursos subjacentes não existe. <cause>
UC_DEPENDENCY_PERMISSION_NEGADA
SQLSTATE: nenhum atribuído
<resourceType>
'<ref>
' não tem privilégio suficiente para executar porque o proprietário de um dos recursos subjacentes falhou em uma verificação de autorização. <cause>
UC_DUPLICATE_CONNECTION
SQLSTATE: nenhum atribuído
Já existe uma conexão chamada '<connectionName>
' com o mesmo URL. Peça permissão ao proprietário para usar essa conexão em vez de criar uma duplicata.
UC_DUPLICATE_FABRICAD_CATALOG_CREATION
SQLSTATE: nenhum atribuído
Tentei criar um catálogo do Fabric com o url '<storageLocation>
' que corresponda a um catálogo existente, o que não é permitido.
UC_DUPLICATE_TAG_ASSIGNMENT_CREATION
SQLSTATE: nenhum atribuído
A atribuição de tag com a tag key <tagKey>
já existe
A UC_ENTITY_NÃO TEM UM CLUSTER ON-LINE CORRESPONDENTE
SQLSTATE: nenhum atribuído
A entidade <securableType> <entityId>
não tem um clustering on-line correspondente.
UC_EXCEEDS_MAX_FILE_LIMIT
SQLSTATE: nenhum atribuído
Existem mais de arquivos <maxFileResults>
. Especifique [max_results] para limitar o número de arquivos retornados.
UC_EXTERNAL_LOCATION_OP_NOT_ALLOWED
SQLSTATE: nenhum atribuído
Não é possível <opName> <extLoc> <reason>
. <suggestion>
.
recurso
SQLSTATE: nenhum atribuído
<featureName>
está atualmente desativado na UC.
UC_FOREIGN_CATALOG_FOR_CONNECTION_TYPE_NO_SUPPORTED
SQLSTATE: nenhum atribuído
A criação de um catálogo estrangeiro para o tipo de conexão '<connectionType>
' não é suportada. Esse tipo de conexão só pode ser usado para criar um pipeline de ingestão gerencial. Consulte a documentação da Databricks para obter mais informações.
UC_FOREIGN_CREDENTIAL_CHECK_ONLY_FOR_READ_OPERATIONS
SQLSTATE: nenhum atribuído
Somente as credenciais READ podem ser recuperadas para tabelas estrangeiras.
UC_FOREIGN_KEY_CHILD_COLUMN_LENGTH_INCOMPATIBILE
SQLSTATE: nenhum atribuído
Foreign key <constraintName>
colunas filhas e colunas pai são de tamanhos diferentes.
UC_FOREIGN_KEY_COLUMN_MISCOMPATIBILIDADE
SQLSTATE: nenhum atribuído
As colunas pai estrangeiras key não correspondem às colunas filho primárias key referenciadas. As colunas pai estrangeiras key são (<parentColumns>
) e as colunas filho primárias key são (<primaryKeyChildColumns>
).
UC_FOREIGN_KEY_COLUMN_TYPE_DISCOMPATIBILIDADE
SQLSTATE: nenhum atribuído
O tipo de coluna filha estrangeira key não corresponde ao tipo de coluna pai. Foreign key coluna filha <childColumnName>
tem o tipo <childColumnType>
e a coluna pai <parentColumnName>
tem o tipo <parentColumnType>
.
UC_GCP_CHAVE PRIVADA INVÁLIDA
SQLSTATE: nenhum atribuído
Acesso negado. Causa: o serviço account private key é inválido.
UC_GCP_INVALID_KEY_PRIVATE_KEY_JSON FORMATO_DE_JSON
SQLSTATE: nenhum atribuído
Conta do Google Server OAuth A chave privada deve ser um objeto JSON válido com os campos obrigatórios; certifique-se de fornecer o arquivo JSON completo gerado na seção 'key' da página de detalhes do serviço account.
UC_GCP_INVALID_PRIVATE_KEY_JSON_FORMAT_MISSING_FIELDS
SQLSTATE: nenhum atribuído
Conta do Google Server OAuth A chave privada deve ser um objeto JSON válido com os campos obrigatórios; certifique-se de fornecer o arquivo JSON completo gerado na seção 'key' da página de detalhes do serviço account. Os campos ausentes são <missingFields>
UC_IAM_ROLE_NON_SELF_ASSUMING
SQLSTATE: nenhum atribuído
O site IAM role para essa credencial de armazenamento foi considerado não autônomo. Verifique a confiança de sua função e as políticas do IAM para garantir que o IAM role possa se assumir de acordo com a documentação da credencial de armazenamento do Unity Catalog.
UC_ICEBERG_COMMIT_CONFLICT
SQLSTATE: nenhum atribuído
Cannot commit <tableName>
: metadata location <baseMetadataLocation>
has changed from <catalogMetadataLocation>
.
UC_ICEBERG_COMMIT_TABELA_INVÁLIDA
SQLSTATE: nenhum atribuído
Não é possível gerenciar Iceberg commit em uma tabela não gerenciável Iceberg: <tableName>
.
UC_ICEBERG_COMMIT_MISSING_FIELD_CONSTRAINT
SQLSTATE: nenhum atribuído
Os campos obrigatórios do formulário fornecido para gerenciar Iceberg commit informações estão faltando.
INCOMPATIBILIDADE DE UC_ID_ID
SQLSTATE: nenhum atribuído
O <type> <name>
não tem ID <wrongId>
. Por favor, tente novamente as operações.
UC_INVALID_ACCESS_DBFS_ENTITY
SQLSTATE: nenhum atribuído
Acesso inválido de <securableType> <securableName>
no catálogo federado <catalogName>
. <reason>
UC_INVALID_CLOUDFLARE_ACCOUNT_ID
SQLSTATE: nenhum atribuído
Cloudflare account ID inválido.
UC_INVALID_CREDENTIAL_CLOUD
SQLSTATE: nenhum atribuído
Provedor de nuvem com credencial inválida '<cloud>
'. Provedor de nuvem permitido '<allowedCloud>
'.
UC_INVALID_CREDENTIAL_PURPOSE_VALUE
SQLSTATE: nenhum atribuído
Valor inválido '<value>
' para a 'finalidade' da credencial. Valores permitidos '<allowedValues>
'.
TRANSIÇÃO UC_INVALID_CREDENTIAL_CREDENTIAL
SQLSTATE: nenhum atribuído
Não é possível atualizar uma conexão de <startingCredentialType>
para <endingCredentialType>
. A única transição válida é de uma conexão baseada em nome de usuário/senha para uma conexão baseada em tokens OAuth.
UC_INVALID_CRON_STRING_FABRIC
SQLSTATE: nenhum atribuído
Cadeias de caracteres do cron inválidas. Encontrado: '<cronString>
' com exceção de análise: '<message>
'
UC_INVALID_DIRECT_ACCESS_TABELA_GERENCIADA
SQLSTATE: nenhum atribuído
Tabela gerenciadora de acesso direto inválida <tableName>
. Certifique-se de que a tabela de origem & pipeline definition não esteja definida.
UC_INVÁLID_VAZIO_LOCAL_DE_ARMAZENAMENTO
SQLSTATE: nenhum atribuído
Local de armazenamento vazio inesperado para <securableType>
'<securableName>
' no catálogo '<catalogName>
'. Para corrigir esse erro, execute DESCRIBE SCHEMA <catalogName>
.<securableName>
e refresh esta página.
UC_INVALID_OPTIONS_UPDATE
SQLSTATE: nenhum atribuído
Opções inválidas fornecidas para atualização. Opções inválidas: <invalidOptions>
. Opções permitidas: <allowedOptions>
.
VALOR_OPÇÃO_INVÁLIDO UC_INVÁLIDO
SQLSTATE: nenhum atribuído
Valor inválido '<value>
' para '<option>
'. Valores permitidos '<allowedValues>
'.
UC_INVALID_OPTION_VALUE_EMPTY
SQLSTATE: nenhum atribuído
'<option>
' não pode estar vazio. Insira um valor não vazio.
UC_INVALID_R2_ID DA CHAVE DE ACESSO
SQLSTATE: nenhum atribuído
Acesso R2 inválido key ID.
UC_INVALID_R2_CHAVE DE ACESSO SECRETA
SQLSTATE: nenhum atribuído
Acesso secreto R2 inválido key.
UC_INVALID_RULE_CONDITION
SQLSTATE: nenhum atribuído
Condição inválida na regra '<ruleName>
'. Erro de compilação com a mensagem '<message>
'.
UC_INVALID_UPDATE_ON_SYSTEM_WORKSPACE_ADMIN_GROUP_OWNED_SECURABLE
SQLSTATE: nenhum atribuído
Não é possível atualizar <securableType>
'<securableName>
', pois ele pertence a um grupo interno. Entre em contato com o suporte da Databricks para obter mais detalhes.
UC_INVALID_WASBS_EXTERNAL_LOCATION_STORAGE_CREDENTIAL
SQLSTATE: nenhum atribuído
Desde que a Credencial de armazenamento <storageCredentialName>
não esteja associada à raiz DBFS, a criação do Wasbs External Location é proibida.
UC_LOCATION_INVALID_SCHEME
SQLSTATE: nenhum atribuído
O local de armazenamento tem um esquema de URI inválido: <scheme>
.
UC_MALFORMED_OAUTH_SERVER_RESPONSE
SQLSTATE: nenhum atribuído
A resposta do servidor de tokens não continha o campo <missingField>
. A resposta retornada do servidor é: <response>
UC_METASTORE_ASSIGNMENT_STATUS_INVALID
SQLSTATE: nenhum atribuído
'<metastoreAssignmentStatus>
' não pode ser atribuído. Somente MANUALLY_ASSIGNABLE
e AUTO_ASSIGNMENT_ENABLED
são suportados.
CERTIFICAÇÃO UC_METASTORE_NÃO_HABILITADA
SQLSTATE: nenhum atribuído
A certificação Metastore não está ativada.
UC_METASTORE_DB_SHARD_MAPPING_NO_FOUND
SQLSTATE: nenhum atribuído
Falha ao recuperar um metastore para o mapeamento de fragmentos de banco de dados para o Metastore ID <metastoreId>
devido a um erro interno. Entre em contato com o suporte da Databricks.
UC_METASTORE_TEM CATÁLOGOS ON-LINE GERENCIADOS ATIVOS
SQLSTATE: nenhum atribuído
A metastore <metastoreId>
tem <numberManagedOnlineCatalogs>
gerenciar catálogo(s) on-line. Exclua-os explicitamente e, em seguida, tente excluir a metastore novamente.
UC_METASTORE_STORAGE_ROOT_CREDENTIAL_UPDATE_INVALID
SQLSTATE: nenhum atribuído
A credencial raiz do metastore não pode ser definida ao atualizar o local raiz do metastore. A credencial será obtida no local externo principal do metastore.
UC_METASTORE_STORAGE_ROOT_DELETION_INVALID
SQLSTATE: nenhum atribuído
Falha na exclusão da localização raiz do armazenamento do metastore. <reason>
UC_METASTORE_STORAGE_ROOT_READ_ONLY_INVALID
SQLSTATE: nenhum atribuído
A raiz <securableType>
de um metastore não pode ser somente para leitura.
UC_METASTORE_STORAGE_ROOT_UPDATE_INVALID
SQLSTATE: nenhum atribuído
A raiz de armazenamento do Metastore não pode ser atualizada depois de configurada.
UC_MODEL_INVALID_STATE
SQLSTATE: nenhum atribuído
Não é possível gerar credenciais temporárias '<opName>
' para a versão do modelo <modelVersion>
com status <modelVersionStatus>
. As credenciais '<opName>
' só podem ser geradas para versões de modelo com status <validStatus>
UC_NO_ORG_ID_IN_CONTEXT
SQLSTATE: nenhum atribuído
Tentativa de acessar a ID da organização (ou workspace ID), mas o contexto não tem nenhuma.
UC_ONLINE_CATALOG_NÃO_MUTÁVEL
SQLSTATE: nenhum atribuído
A solicitação <rpcName>
atualiza <fieldName>
. Use o armazenamento on-line compute tab para modificar qualquer coisa que não seja comentário, proprietário e isolationMode de um catálogo on-line.
UC_ONLINE_CATALOG_QUOTA_EXCEDIDA
SQLSTATE: nenhum atribuído
Não é possível criar mais de <quota>
lojas online na metastore e já existe <currentCount>
. Talvez você não tenha acesso a nenhuma loja online existente. Entre em contato com o administrador da metastore para obter acesso ou obter mais instruções.
UC_ONLINE_INDEX_CATALOG_INVALID_CRUD
SQLSTATE: nenhum atribuído
Os catálogos de índices on-line devem ser <action>
por meio da API /vector-search.
UC_ONLINE_INDEX_CATALOG_NOT_MUTABLE
SQLSTATE: nenhum atribuído
A solicitação <rpcName>
atualiza <fieldName>
. Use a API /vector-search para modificar qualquer coisa que não seja comentário, proprietário e isolationMode de um catálogo de índice on-line.
UC_ONLINE_INDEX_CATALOG_QUOTA_EXCEDED
SQLSTATE: nenhum atribuído
Não é possível criar mais de catálogos de índices on-line <quota>
na metastore e já existe <currentCount>
. Talvez você não tenha acesso a nenhum catálogo de índices on-line existente. Entre em contato com o administrador da metastore para obter acesso ou obter mais instruções.
UC_ONLINE_INDEX_INVALID_CRUD
SQLSTATE: nenhum atribuído
Os índices on-line devem ser <action>
por meio da API /vector-search.
UC_ONLINE_STORE_INVALID_CRUD
SQLSTATE: nenhum atribuído
As lojas on-line devem ser <action>
por meio do armazenamento on-line compute tab.
UC_ONLINE_TABLE_COLUN_NOME_DA_COLUNA_DEMASIADO LONGO
SQLSTATE: nenhum atribuído
O nome da coluna da tabela de origem <columnName>
é muito longo. O tamanho máximo é de <maxLength>
caracteres.
UC_ONLINE_TABLE_PRIMARY_KEY_COLUMN_NOT_IN_SOURCE_TABLE_PRIMARY_KEY_CONSTRAINT
SQLSTATE: nenhum atribuído
A coluna <columnName>
não pode ser usada como uma coluna key primária da tabela on-line porque não faz parte da restrição PRIMARY KEY
existente na tabela de origem. Para obter detalhes, consulte <docLink>
UC_ONLINE_TABLE_TIMESERIES_KEY_NOT_IN_SOURCE_TABLE_PRIMARY_KEY_CONSTRAINT
SQLSTATE: nenhum atribuído
A coluna <columnName>
não pode ser usada como uma série temporal key da tabela on-line porque não é uma coluna de série temporal da restrição PRIMARY KEY
existente na tabela de origem. Para obter detalhes, consulte <docLink>
UC_ONLINE_VIEWS_POR_SOURCE_TABLE_QUOTA_EXCEEDED
SQLSTATE: nenhum atribuído
Não é possível criar mais de <quota>
tabelas on-line por tabela de origem.
UC_ONLINE_VIEW_ACCESS_NEGADO
SQLSTATE: nenhum atribuído
O acesso ao recurso <resourceName>
requer o uso de um SQL warehouse sem servidor. Verifique se o depósito que está sendo usado para executar uma consulta ou view um catálogo de banco de dados na interface do usuário é serverless. Para obter detalhes, consulte <docLink>
UC_ONLINE_VIEW_COTA_CONTÍNUA EXCEDIDA
SQLSTATE: nenhum atribuído
Não é possível criar mais do que <quota>
visualização on-line contínua no armazenamento on-line, e já existe <currentCount>
. O senhor pode não ter acesso a nenhuma visualização on-line existente. Entre em contato com o administrador do armazenamento on-line para obter acesso ou para obter mais instruções.
UC_ONLINE_VIEW_NÃO_SUPORTE_DMK
SQLSTATE: nenhum atribuído
<tableKind>
não pode ser criado no local de armazenamento com a chave gerenciada pelo Databricks. Escolha um esquema/catálogo diferente em um local de armazenamento sem criptografia de chave gerenciada pelo Databricks.
UC_ONLINE_VIEW_INVALID_CATALOG
SQLSTATE: nenhum atribuído
Catálogo <catalogName>
inválido com o tipo <catalogKind>
para criar <tableKind>
dentro. <tableKind>
só pode ser criado em catálogos do tipo: <validCatalogKinds>
.
UC_ONLINE_VIEW_INVALID_SCHEMA
SQLSTATE: nenhum atribuído
Esquema <schemaName>
inválido com o tipo <schemaKind>
para criar <tableKind>
dentro. <tableKind>
só pode ser criado em esquemas do tipo: <validSchemaKinds>
.
UC_ONLINE_VIEW_INVALID_TTL_TIME_COLUMN_TYPE
SQLSTATE: nenhum atribuído
A coluna <columnName>
do tipo <columnType>
não pode ser usada como uma coluna de tempo TTL. Os tipos permitidos são <supportedTypes>
.
UC_OUT_OF_AUTHORIZED_PATHS_SCOPE
SQLSTATE: nenhum atribuído
Erro de caminho autorizado. A localização <securableType>
<location>
não está definida nos caminhos autorizados para o catálogo: <catalogName>
. Peça ao proprietário do catálogo que adicione o caminho à lista de caminhos autorizados definidos no catálogo.
CAMINHOS UC_OVERLAPPED_AUTHORIZED_AUTHORIZED
SQLSTATE: nenhum atribuído
A opção 'authorized_paths' contém caminhos sobrepostos: <overlappingPaths>
. Certifique-se de que cada caminho seja exclusivo e não se cruze com outros na lista.
UC_PAGINATION_AND_QUERY_ARGS_MISMATCH
SQLSTATE: nenhum atribuído
O argumento de consulta '<arg>
' é definido como '<received>
', que é diferente do valor usado na primeira chamada de paginação ('<expected>
')
UC_PATH MUITO LONGO
SQLSTATE: nenhum atribuído
O caminho de entrada é muito longo. Comprimento permitido: <maxLength>
. Comprimento da entrada: <inputLength>
. Entrada: <path>
...
UC_PER_METASTORE_DATABASE_CONCURRENCY_LIMIT_EXCEEDED
SQLSTATE: nenhum atribuído
Muitas solicitações para o banco de dados da metastore <metastoreId>
. Tente novamente mais tarde.
UC_PRIMARY_KEY_ON_NULLABLE_COLUMN
SQLSTATE: nenhum atribuído
Não é possível criar o primário key <constraintName>
porque sua(s) coluna(s) filha(s) <childColumnNames>
é(são) nula(s). Altere a nulidade da coluna e tente novamente.
TEMPO LIMITE DE UC_REQUEST_TIMEOUT
SQLSTATE: nenhum atribuído
Essa operação demorou muito.
UC_ROOT_STORAGE_S3_BUCKET_NAME_CONTAINS_DOT
SQLSTATE: nenhum atribuído
O nome do bucket S3 do armazenamento raiz que contém pontos não é suportado pelo Unity Catalog: <uri>
UC_SCHEMA_LOCALIZAÇÃO DE ARMAZENAMENTO VAZIA
SQLSTATE: nenhum atribuído
Local de armazenamento vazio inesperado para o esquema '<schemaName>
' no catálogo '<catalogName>
'. Certifique-se de que o esquema use um esquema de caminho de <validPathSchemesListStr>
.
serviço
SQLSTATE: nenhum atribuído
Estamos enfrentando um problema temporário ao processar sua solicitação. Tente novamente em alguns instantes. Se o problema persistir, entre em contato com o suporte.
UC_STORAGE_CREDENTIAL_ACCESS_CONNECTOR_PARSING_FAILED
SQLSTATE: nenhum atribuído
Falha ao analisar a ID do conector de acesso fornecida: <accessConnectorId>
. Verifique a formatação e tente novamente.
UC_STORAGE_CREDENTIAL_DBFS_ROOT_CREATION_PERMISSION_DENIED
SQLSTATE: nenhum atribuído
Não é possível criar uma credencial de armazenamento para DBFS root porque o usuário: <userId>
não é o administrador do site workspace: <workspaceId>
UC_STORAGE_CREDENTIAL_DBFS_ROOT_INVALID_LOCATION
SQLSTATE: nenhum atribuído
O local <location>
não está dentro do DBFS root <dbfsRootLocation>
UC_STORAGE_CREDENTIAL_DBFS_ROOT_PRIVATE_DBFS_ENABLED
SQLSTATE: nenhum atribuído
DBFS root A credencial de armazenamento ainda não é compatível com o espaço de trabalho com Firewall habilitado DBFS
UC_STORAGE_CREDENTIAL_DBFS_ROOT_PRIVATE_NOT_SUPPORTED
SQLSTATE: nenhum atribuído
DBFS root A credencial de armazenamento para o site workspace atual ainda não é suportada
UC_STORAGE_CREDENTIAL_DBFS_ROOT_WORKSPACE_DISABLED
SQLSTATE: nenhum atribuído
DBFS root não está habilitado para workspace <workspaceId>
FALHA NA OBTENÇÃO DO TOKEN DE VALIDAÇÃO DA UC_STORAGE_CREDENTIAL_CREDENTIAL_TOKEN
SQLSTATE: nenhum atribuído
Falha ao obter um token AAD para executar a validação de permissão de nuvem em um conector de acesso. Tente executar a ação novamente.
UC_STORAGE_CREDENTIAL_INVALID_CLOUD_PERMISSIONS
SQLSTATE: nenhum atribuído
O registro de uma credencial de armazenamento requer a função de colaborador no conector de acesso correspondente com ID <accessConnectorId>
. Entre em contato com o administrador do site account.
UC_STORAGE_CREDENTIAL_PERMISSION_NEGADA
SQLSTATE: nenhum atribuído
Somente o administrador do account pode criar ou atualizar uma credencial de armazenamento com o tipo <storageCredentialType>
.
UC_STORAGE_CREDENTIAL_SERVICE_PRINCIPAL_TOKEN DE VALIDAÇÃO AUSENTE
SQLSTATE: nenhum atribuído
Faltam tokens de validação para a entidade de serviço. Forneça tokens de ID Entra com escopo ARM válidos no cabeçalho da solicitação 'X-Databricks-Azure-SP-Management-tokens' e tente novamente. Para obter detalhes, consultehttps://docs.databricks.com/api/workspace/storagecredentials
UC_STORAGE_CREDENTIAL_TRUST_POLICY_ESTÁ ABERTA
SQLSTATE: nenhum atribuído
A política de confiança do site IAM role para permitir que a conta Databricks assuma a função deve exigir um ID externo. Entre em contato com o administrador do site account para adicionar a condição de identificação externa. Esse comportamento serve para se proteger contra o problema do Confused Deputy https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html).
UC_STORAGE_CREDENTIAL_UNPRIVILEGED_SERVICE_PRINCIPAL_NOT_SUPPORTED
SQLSTATE: nenhum atribuído
A entidade de serviço não pode usar o privilégio CREATE_STORAGE_CREDENTIAL
para registrar identidades gerenciadas. Para registrar uma identidade gerenciável, atribua à entidade de serviço a função de administrador do account.
UC_STORAGE_CREDENTIAL_WASBS_NOT_DBFS_ROOT
SQLSTATE: nenhum atribuído
O local <location>
não está dentro do site DBFS root, por isso não é possível criar uma credencial de armazenamento <storageCredentialName>
UC_STORAGE_CREDENTIAL_WORKSPACE_API_PROHIBIDED
SQLSTATE: nenhum atribuído
A criação ou atualização de uma credencial de armazenamento como administrador não pertencente aoaccount não é compatível com o account-level API. Em vez disso, use o workspace-level API.
UC_SYSTEM_WORKSPACE_GROUP_PERMISSION_NÃO SUPORTADO
SQLSTATE: nenhum atribuído
Não é possível conceder privilégios em <securableType>
ao grupo <principal>
gerado pelo sistema.
UC_TAG_ASSIGNMENT_WITH_KEY_NÃO_EXISTE
SQLSTATE: nenhum atribuído
A atribuição de tag com a tag key <tagKey>
não existe
UC_UNSUPORTED_HTTP_CONNECTION_BASE_PATH
SQLSTATE: nenhum atribuído
Caminho base inválido fornecido, o caminho base deve ser algo como /api/recurso/v1. Caminho não suportado: <path>
UC_UNSUPORTED_HTTP_CONNECTION_HOST
SQLSTATE: nenhum atribuído
Nome de host fornecido inválido; o nome do host deve ser algo comohttps://www.databricks.com sem sufixo de caminho. Host não suportado: <host>
UC_UNSUPPORTED_LATIN_CHARACTER_IN_PATH
SQLSTATE: nenhum atribuído
Somente caracteres Latin/Latin-1 ASCII
básicos são suportados em caminhos externos de localização/volume/tabela. Caminho não suportado: <path>
UC_UPDATE_FORBIDDEN_FOR_PROVISIONING_SECURABLE
SQLSTATE: nenhum atribuído
Não é possível atualizar o site <securableType>
'<securableName>
' porque ele está sendo provisionado.
UC_WRITE_CONFLICT
SQLSTATE: nenhum atribuído
O <type> <name>
foi modificado por outra solicitação. Por favor, tente novamente as operações.
UNITY_CATALOG_EXTERNAL_COORDINATED_COMMITS_REQUEST_DENIED
SQLSTATE: nenhum atribuído
A solicitação para executar commit/getCommits for table '<tableId>
' de fora do ambiente Databricks Unity Catalog enabled compute foi negada por motivos de segurança. Entre em contato com o suporte da Databricks para obter informações sobre integrações com o Unity Catalog.
UNITY_CATALOG_EXTERNAL_CREATE_STAGING_TABLE_REQUEST_DENIED
SQLSTATE: nenhum atribuído
A solicitação para criar a tabela de preparação '<tableFullName>
' de fora do ambiente Databricks Unity Catalog enabled compute foi negada por motivos de segurança. Entre em contato com o suporte da Databricks para obter informações sobre integrações com o Unity Catalog.
UNITY_CATALOG_EXTERNAL_CREATE_TABLE_REQUEST_FOR_NON_EXTERNAL_TABLE_DENIED
SQLSTATE: nenhum atribuído
A solicitação para criar uma tabela não externa '<tableFullName>
' de fora do ambiente Databricks Unity Catalog enabled compute foi negada por segurança. Entre em contato com o suporte da Databricks para obter informações sobre integrações com o Unity Catalog.
UNITY_CATALOG_EXTERNAL_GENERATE_PATH_CREDENTIALS_DENIED
SQLSTATE: nenhum atribuído
A solicitação para gerar credencial de acesso para o caminho '<path>
' de fora do ambiente Databricks Unity Catalog enabled compute é negada por segurança. Entre em contato com o suporte da Databricks para obter informações sobre integrações com o Unity Catalog.
UNITY_CATALOG_EXTERNAL_GENERATE_TABLE_CREDENTIALS_DENIED
SQLSTATE: nenhum atribuído
A solicitação para gerar credencial de acesso para a tabela '<tableId>
' de fora do ambiente Databricks Unity Catalog enabled compute é negada por segurança. Entre em contato com o suporte da Databricks para obter informações sobre integrações com o Unity Catalog.
UNITY_CATALOG_EXTERNAL_GET_FOREIGN_CREDENTIALS_DENIED
SQLSTATE: nenhum atribuído
A solicitação para obter credenciais estrangeiras para itens de segurança de fora do ambiente Databricks Unity Catalog habilitado compute foi negada por motivos de segurança.
UNITY_CATALOG_EXTERNAL_UPDATA_METADATA_SNAPSHOT_DENIED
SQLSTATE: nenhum atribuído
A solicitação para atualizar o metadado Snapshot de fora do ambiente Databricks Unity Catalog habilitado compute é negada por segurança.
WRITE_CREDENTIALS_NOT_SUPPORTED_FOR_LEGACY_MANAGED_ONLINE_TABLE
SQLSTATE: nenhum atribuído
Solicitação inválida para obter credenciais de gravação para gerenciar a tabela on-line em um catálogo on-line.
Arquivos API
FILES_API_API_NÃO_ESTÁ HABILITADA
SQLSTATE: nenhum atribuído
<api_name> A API não está ativada.
FILES_API_API_NÃO_ESTA_HABILITADA_PAR_CLOUD_PATHS
SQLSTATE: nenhum atribuído
O método solicitado da API Files não é compatível com os caminhos da nuvem
ARQUIVOS_API_AWS_ACCESS_DENIED
SQLSTATE: nenhum atribuído
O acesso ao bucket de armazenamento é negado pelo AWS.
ARQUIVOS_API_AWS_ALL_ACCESS_DISABLED
SQLSTATE: nenhum atribuído
Todo o acesso ao bucket de armazenamento foi desativado no AWS.
ARQUIVOS_API_AWS_BUCKET_NÃO_EXISTEM
SQLSTATE: nenhum atribuído
O bucket de armazenamento não existe no AWS.
ARQUIVOS_API_AWS_FORBIDDEN
SQLSTATE: nenhum atribuído
O acesso ao bucket de armazenamento é proibido pelo AWS.
ARQUIVOS_API_AWS_INVALID_AUTHORIZATION_HEADER
SQLSTATE: nenhum atribuído
O workspace está mal configurado: ele deve estar na mesma região que o bucket de armazenamento raiz AWS workspace .
ARQUIVOS_API_AWS_INVALID_BUCKET_NAME
SQLSTATE: nenhum atribuído
O nome do bucket de armazenamento é inválido.
ARQUIVOS_API_AWS_KMS_KEY_DISABLED
SQLSTATE: nenhum atribuído
A chave KMS configurada para acessar o bucket de armazenamento está desativada em AWS.
ARQUIVOS_API_AWS_NÃO AUTORIZADO
SQLSTATE: nenhum atribuído
O acesso ao recurso do AWS não está autorizado.
ARQUIVOS_API_AZURE_ACCOUNT_IS_DISABLED
SQLSTATE: nenhum atribuído
O armazenamento account está desativado em Azure.
O CONTÊINER_ARQUIVOS_API_AZURE_NÃO_EXISTE
SQLSTATE: nenhum atribuído
O contêiner do Azure não existe.
ARQUIVOS_API_AZURE_PROIBIDOS
SQLSTATE: nenhum atribuído
O acesso ao contêiner de armazenamento é proibido pelo Azure.
FILES_API_AZURE_HAS_A_LEASE
SQLSTATE: nenhum atribuído
O Azure respondeu que atualmente há um contrato de aluguel do recurso. Tente novamente mais tarde.
FILES_API_AZURE_INSUFFICIENT_ACCOUNT_PERMISSION
SQLSTATE: nenhum atribuído
O site account que está sendo acessado não tem permissões suficientes para executar essas operações.
ARQUIVOS_API_AZURE_INVALID_STORAGE_ACCOUNT_NAME
SQLSTATE: nenhum atribuído
Não é possível acessar o armazenamento account em Azure: nome inválido do armazenamento account.
FILES_API_AZURE_KEY_BASED_AUTENTICATION_NÃO_PERMITIDA
SQLSTATE: nenhum atribuído
O vault key não é encontrado em Azure. Verifique as configurações da chave do gerenciador de clientes.
FILES_API_AZURE_KEY_VAULT_KEY_NOT_FOUND
SQLSTATE: nenhum atribuído
O cofre Azure key key não é encontrado em Azure. Verifique as configurações da chave do gerenciador de clientes.
ARQUIVOS_API_AZURE_KEY_VAULT_VAULT_NOT_FOUND
SQLSTATE: nenhum atribuído
O vault key não é encontrado em Azure. Verifique as configurações da chave do gerenciador de clientes.
ARQUIVOS_API_AZURE_MI_ACCESS_CONNECTOR_NOT_FOUND
SQLSTATE: nenhum atribuído
Azure Gerenciar Credencial de Identidade com Conector de Acesso não encontrado. Isso pode ser porque os controles de acesso IP rejeitaram sua solicitação.
FILES_API_AZURE_OPERATION_TIMEOUT
SQLSTATE: nenhum atribuído
As operações não puderam ser concluídas dentro do prazo permitido.
FILES_API_AZURE_PATH_INVÁLIDO
SQLSTATE: nenhum atribuído
O caminho solicitado não é válido para o Azure.
FILES_API_AZURE_PATH_É_IMUTÁVEL
SQLSTATE: nenhum atribuído
O caminho solicitado é imutável.
FILES_API_AZURE_UNSUPPORTED_HEADER
SQLSTATE: nenhum atribuído
Um dos cabeçalhos especificados em operações não é suportado.
ARQUIVOS_API_CATALOG_NOT_FOUND
SQLSTATE: nenhum atribuído
<unity_catalog_error_message>
FILES_API_CLOUD_RESOURCE_EXAUSTED
SQLSTATE: nenhum atribuído
<message>
FILES_API_COLON_IS_NÃO_SUPORTED_EM_PATH
SQLSTATE: nenhum atribuído
o caractere ':' não é suportado em caminhos
FILES_API_CONTROL_PLANE_NETWORK_ZONE_NO_ALLOWED
SQLSTATE: nenhum atribuído
Databricks Zona de rede do plano de controle não permitida.
FILES_API_DIRETÓRIOS_NÃO PODEM TER_CORPOS
SQLSTATE: nenhum atribuído
Um corpo foi fornecido, mas os diretórios não podem ter um corpo de arquivo
O DIRETÓRIO_API_FILES_NÃO_ESTÁ VAZIO
SQLSTATE: nenhum atribuído
O diretório não está vazio. Essa operação não é suportada em diretórios não vazios.
O DIRETÓRIO DA API DE ARQUIVOS NÃO FOI ENCONTRADO
SQLSTATE: nenhum atribuído
O diretório que está sendo acessado não foi encontrado.
ARQUIVOS_API_DUPLICATED_HEADER
SQLSTATE: nenhum atribuído
A solicitação continha várias cópias de um cabeçalho que só é permitido uma vez.
ARQUIVOS_API_DUPLICATE_QUERY_QUERY_PARAMETER
SQLSTATE: nenhum atribuído
O parâmetro de consulta '<parameter_name>' deve estar presente exatamente uma vez, mas foi fornecido várias vezes.
FILES_API_EMPTY_BUCKET_NAME
SQLSTATE: nenhum atribuído
O nome do bucket DBFS está vazio.
ARQUIVOS_API_ENTITY_TOO_LARGE
SQLSTATE: nenhum atribuído
Seu objeto excede o tamanho máximo permitido.
FILES_API_EXPIRAÇÃO_TIME_DEVE ESTAR PRESENTE
SQLSTATE: nenhum atribuído
o tempo de expiração deve estar presente
ARQUIVOS_API_TOKEN EXPIRADO
SQLSTATE: nenhum atribuído
Os tokens fornecidos expiraram.
FILES_API_EXPIRE_TIME_DEVE ESTAR NO FUTURO
SQLSTATE: nenhum atribuído
ExpireTime deve estar no futuro
FILES_API_EXPIRE_TIME_TOO_FAR_IN_FUTURE
SQLSTATE: nenhum atribuído
O TTL solicitado é mais longo do que o suportado (1 hora)
FILES_API_EXTERNAL_LOCATION_PATH_OVERLAP_OTHER_UC_STORAGE_ENTITY
SQLSTATE: nenhum atribuído
<unity_catalog_error_message>
FILES_API_FILE_JA_EXISTS
SQLSTATE: nenhum atribuído
O arquivo que está sendo criado já existe.
ARQUIVOS_API_FILE_NOT_FOUND
SQLSTATE: nenhum atribuído
O arquivo que está sendo acessado não foi encontrado.
ARQUIVOS_API_ARQUIVO OU DIRETÓRIO_TERMINA EM PONTO
SQLSTATE: nenhum atribuído
Arquivos ou diretórios que terminam com o caractere '.' não são suportados.
FILES_API_FILE_SIZE_EXCEDED
SQLSTATE: nenhum atribuído
O tamanho do arquivo não deve exceder<max_download_size_in_bytes> bytes, mas<size_in_bytes> bytes foram encontrados.
ARQUIVOS_API_GCP_ACCOUNT_IS_DISABLED
SQLSTATE: nenhum atribuído
O acesso ao bucket de armazenamento foi desativado no GCP.
ARQUIVOS_API_GCP_BUCKET_NÃO_EXISTEM
SQLSTATE: nenhum atribuído
O bucket de armazenamento não existe no GCP.
ARQUIVOS_API_GCP_FORBIDDEN
SQLSTATE: nenhum atribuído
O acesso ao bucket é proibido pelo GCP.
ARQUIVOS_API_GCP_KEY_DESABILITADOS OU DESTRUÍDOS
SQLSTATE: nenhum atribuído
A criptografia gerenciada pelo cliente key configurada para esse local é desativada ou destruída.
FILES_API_GCP_REQUEST_IS_PROIBITED_BY_POLICY
SQLSTATE: nenhum atribuído
As solicitações do GCP para o bucket são proibidas pela política, verifique o VPC Service Controls.
ARQUIVOS_API_HOST_TEMPORARIAMENTE _NÃO DISPONÍVEIS
SQLSTATE: nenhum atribuído
O host do provedor de nuvem está temporariamente indisponível; tente novamente mais tarde.
ARQUIVOS_API_TOKEN DE CONTINUAÇÃO INVÁLIDO
SQLSTATE: nenhum atribuído
Os tokens de página fornecidos não são válidos.
ARQUIVOS_API_TOKEN DE PÁGINA INVÁLIDO
SQLSTATE: nenhum atribuído
tokens de página inválidos
FILES_API_INVALID_PATH
SQLSTATE: nenhum atribuído
Caminho inválido:<validation_error>
FILES_API_INVALID_RANGE
SQLSTATE: nenhum atribuído
O cabeçalho do intervalo é inválido.
ARQUIVOS_API_INVALID_RESOURCE_FULL_NAME
SQLSTATE: nenhum atribuído
<unity_catalog_error_message>
ARQUIVOS_API_INVALID_SESSION_TOKEN
SQLSTATE: nenhum atribuído
Tokens de sessão inválidos
FILES_API_INVALID_SESSION_TOKEN_TYPE
SQLSTATE: nenhum atribuído
Tipo de tokens de sessão inválido. Esperava '<expected>
', mas recebi '<actual>
'.
ARQUIVOS_API_INVALID_TIMESTAMP
SQLSTATE: nenhum atribuído
O carimbo de data/hora é inválido.
ARQUIVOS_API_INVALID_UPLOAD_TIPO_DE_UPLOAD
SQLSTATE: nenhum atribuído
Tipo de upload inválido. Esperava '<expected>
', mas recebi '<actual>
'.
ARQUIVOS_API_INVALID_URL_PARÂMETRO
SQLSTATE: nenhum atribuído
O URL passado como parâmetro é inválido
FILES_API_INVALID_VALUE_FOR_OVERWRITE_QUERY_PARAMETER
SQLSTATE: nenhum atribuído
O parâmetro de consulta 'overwrite' deve ser um dos seguintes: true, false but was:<got_values>
FILES_API_INVALID_VALUE_PARA_PARÂMETRO_CONSULTA
SQLSTATE: nenhum atribuído
O parâmetro de consulta '<parameter_name>' deve ser um dos: <expected>
, mas era: <actual>
FILES_API_MALFORMED_REQUEST_BODY
SQLSTATE: nenhum atribuído
Corpo de solicitação malformado
ARQUIVOS_API_MANAGED_CATALOG_FEATURE_DISABLED
SQLSTATE: nenhum atribuído
<unity_catalog_error_message>
ARQUIVOS_API_METASTORE_NOT_FOUND
SQLSTATE: nenhum atribuído
<unity_catalog_error_message>
O MÉTODO FILES_API_NÃO_HABILITADO_FOR_JOBS_BACKGROUND_COMPUTE_ARTIFACT_STORAGE
SQLSTATE: nenhum atribuído
O método solicitado de Files API não é compatível com o armazenamento de artefatos de computação em segundo plano de trabalhos.
FILES_API_TAMANHO DO CONTEÚDO AUSENTE
SQLSTATE: nenhum atribuído
O cabeçalho de tamanho do conteúdo é obrigatório na solicitação.
ARQUIVOS_API_PARÂMETRO_DE_CONSULTA AUSENTE
SQLSTATE: nenhum atribuído
O parâmetro de consulta '<parameter_name>' é obrigatório, mas está ausente na solicitação.
ARQUIVOS_API_PARÂMETRO_AUSENTE_EXIGIDO NA SOLICITAÇÃO
SQLSTATE: nenhum atribuído
Não há um parâmetro obrigatório na solicitação.
A VERSÃO DO MODEL_FILES_API_NÃO_ESTÁ PRONTA
SQLSTATE: nenhum atribuído
A versão do modelo ainda não está pronta
ARQUIVOS_API_MULTIPART_UPLOAD_ABORT_PRESIGNED_URL_NOT_SUPPORTED
SQLSTATE: nenhum atribuído
Os URLs predefinidos para abortar o upload de várias partes não são compatíveis com arquivos armazenados no <cloud_storage_provider>.
FILES_API_MULTIPART_UPLOAD_EMPTY_PART_LIST
SQLSTATE: nenhum atribuído
A lista de peças deve ter pelo menos um elemento, mas estava vazia.
ARQUIVOS_API_MULTIPART_UPLOAD_INVALID_PART_NUMBER
SQLSTATE: nenhum atribuído
Os números de peça devem estar dentro dos limites fornecidos na resposta recebida ao iniciar o upload.
ARQUIVOS_API_MULTIPART_UPLOAD_MISSING_ETAG
SQLSTATE: nenhum atribuído
As ETags devem ser fornecidas para arquivos armazenados em<cloud_storage_provider>. Pelo menos uma ETag não foi fornecida ou está vazia.
ARQUIVOS_API_MULTIPART_UPLOAD_MODIFIED_STORAGE_ENTITY_STATE
SQLSTATE: nenhum atribuído
O estado interno da entidade de armazenamento foi modificado desde que o upload foi iniciado, por exemplo, porque o caminho do arquivo não aponta para o mesmo local de armazenamento em nuvem subjacente. Prossiga iniciando uma nova sessão de upload.
FILES_API_MULTIPART_UPLOAD_NON_TRAILING_PARTS_WITH_DIFFERENT_SIZE
SQLSTATE: nenhum atribuído
As partes carregadas como parte de uma sessão upload de várias partes devem ter o mesmo tamanho para arquivos armazenados no <cloud_storage_provider>, exceto a última parte, que pode ser menor.
FILES_API_MULTIPART_UPLOAD_PART_SIZE_OUT_OF_RANGE
SQLSTATE: nenhum atribuído
O tamanho das partes carregadas como parte de uma sessão upload de várias partes deve estar dentro dos limites fornecidos na resposta recebida ao iniciar a sessão upload.
ARQUIVOS_API_MULTIPART_UPLOAD_SESSION_NOT_FOUND
SQLSTATE: nenhum atribuído
A sessão de upload não foi encontrada. Pode ter sido abortado ou concluído.
FILES_API_MULTIPART_UPLOAD_UNORDERED_PART_LIST
SQLSTATE: nenhum atribuído
A lista de peças deve ser ordenada pelo número da peça, mas não foi solicitada.
FILES_API_NOT_ENABLED_FOR_PLACE
SQLSTATE: nenhum atribuído
Os arquivos API para <place>
não estão habilitados para este workspace/account
FILES_API_NÃO_SUPORTADA_PARA_ARMAZENAMENTO_INTERNA_WORKSPACE_STAGE
SQLSTATE: nenhum atribuído
O método solicitado de Files API não é compatível com o Internal workspace Storage
A OPERAÇÃO DA API DE ARQUIVOS DEVE ESTAR PRESENTE
SQLSTATE: nenhum atribuído
as operações devem estar presentes
O TAMANHO DA PÁGINA DA API DE ARQUIVOS DEVE SER MAIOR OU IGUAL A ZERO
SQLSTATE: nenhum atribuído
page_size deve ser maior ou igual a 0
FILES_API_PATH_END_WITH_A_SLASH
SQLSTATE: nenhum atribuído
Os caminhos que terminam no caractere '/' representam diretórios. Essa API não oferece suporte a operações em diretórios.
FILES_API_PATH_É_A_DIRETÓRIO
SQLSTATE: nenhum atribuído
O caminho fornecido aponta para um diretório existente. Essa API não oferece suporte a operações em diretórios.
FILES_API_PATH_É_A_FILE
SQLSTATE: nenhum atribuído
O caminho fornecido aponta para um arquivo existente. Essa API não oferece suporte a operações em arquivos.
FILES_API_PATH_NÃO_A_VALID_UTF8_ENCODED_URL
SQLSTATE: nenhum atribuído
o caminho fornecido não era um URL codificado em UTF-8 válido
FILES_API_PATH_NÃO_HABILITADO_PARA_DATAPLANE_PROXY
SQLSTATE: nenhum atribuído
O caminho fornecido não está habilitado para o proxy do plano de dados
O CAMINHO DA API DE ARQUIVOS DEVE ESTAR PRESENTE
SQLSTATE: nenhum atribuído
o caminho deve estar presente
FILES_API_PATH_NÃO SUPORTADO
SQLSTATE: nenhum atribuído
<rejection_message>
FILES_API_PATH_TOO_LONG
SQLSTATE: nenhum atribuído
O caminho do arquivo fornecido é muito longo.
FALHA NA PRECONDIÇÃO_ARQUIVOS_API_PRECONDITION_
SQLSTATE: nenhum atribuído
A solicitação falhou devido a uma condição prévia.
FILES_API_PRESIGNED_URLS_FOR_MODELS_NO_SUPPORTED
SQLSTATE: nenhum atribuído
A API de arquivos para URLs predefinidos para modelos não é suportada no momento
ARQUIVOS_API_R2_CREDENTIALS_DISABLED
SQLSTATE: nenhum atribuído
O R2 não é suportado no momento.
FILES_API_RANGE_NÃO_SATISFATÍVEL
SQLSTATE: nenhum atribuído
A faixa solicitada não é satisfatória.
FILES_API_RECURSIVE_LIST_NÃO_É SUPORTADA
SQLSTATE: nenhum atribuído
A listagem recursiva de arquivos não é suportada.
FILES_API_REQUEST_GOT_ROUTED_INCORRETAMENTE
SQLSTATE: nenhum atribuído
A solicitação foi encaminhada incorretamente
FILES_API_REQUEST_DEVE INCLUIR INFORMAÇÕES DA CONTA
SQLSTATE: nenhum atribuído
A solicitação deve incluir account informações
FILES_API_REQUEST_DEVE INCLUIR INFORMAÇÕES DO USUÁRIO
SQLSTATE: nenhum atribuído
A solicitação deve incluir informações do usuário
FILES_API_REQUEST_DEVE INCLUIR INFORMAÇÕES DO ESPAÇO DE TRABALHO
SQLSTATE: nenhum atribuído
A solicitação deve incluir workspace informações
FILES_API_RESOURCE_IS_READONLY
SQLSTATE: nenhum atribuído
O recurso é somente leitura.
ARQUIVOS_API_RESOURCE_NOT_FOUND
SQLSTATE: nenhum atribuído
<unity_catalog_error_message>
ARQUIVOS_API_SCHEMA_NOT_FOUND
SQLSTATE: nenhum atribuído
<unity_catalog_error_message>
ARQUIVOS_API_SECURE_URL_NÃO PODEM SER ACESSADOS
SQLSTATE: nenhum atribuído
O URL não pode ser acessado.
FALHA NA VERIFICAÇÃO_API_ASSINATURA_DO FILES_API_SIGNATURE_
SQLSTATE: nenhum atribuído
A verificação da assinatura falhou.
FILES_API_STORAGE_CONTEXT_IS_NÃO_SET
SQLSTATE: nenhum atribuído
A configuração de armazenamento para este workspace não está acessível.
ARQUIVOS_API_STORAGE_CREDENTIAL_NOT_FOUND
SQLSTATE: nenhum atribuído
<unity_catalog_error_message>
FILES_API_TABLE_TYPE_NÃO_SUPORTADO
SQLSTATE: nenhum atribuído
A API Files não é compatível com <table_type>
FILES_API_UC_IAM_ROLE_NON_SELF_ASSUMING
SQLSTATE: nenhum atribuído
<unity_catalog_error_message>
ARQUIVOS_API_UC_MODEL_INVALID_STATE
SQLSTATE: nenhum atribuído
<unity_catalog_error_message>
ARQUIVOS_API_UC_PERMISSION_NEGADA
SQLSTATE: nenhum atribuído
<unity_catalog_error_message>
ARQUIVOS_API_UC_RESOURCE_EXAUSTED
SQLSTATE: nenhum atribuído
<message>
ARQUIVOS_API_UC_UNSUPPORTED_LATIN_CHARACTER_IN_PATH
SQLSTATE: nenhum atribuído
<unity_catalog_error_message>
ARQUIVOS_API_UC_NOME_DO_VOLUME_ALTERADO
SQLSTATE: nenhum atribuído
<unity_catalog_error_message>
ARQUIVOS_API_ERROR_INESPERADO_WHILE_PARSING_URI
SQLSTATE: nenhum atribuído
Erro inesperado ao analisar o URI
ARQUIVOS_API_PARÂMETROS DE CONSULTA INESPERADOS
SQLSTATE: nenhum atribuído
Parâmetros de consulta inesperados:<unexpected_query_parameters>
FILES_API_MÉTODO DESCONHECIDO
SQLSTATE: nenhum atribuído
Método desconhecido <method>
ARQUIVOS_API_UNKNOWN_SERVER_ERROR
SQLSTATE: nenhum atribuído
Erro de servidor desconhecido.
ARQUIVOS_API_UNKNOWN_URL_HOST
SQLSTATE: nenhum atribuído
O host do URL é desconhecido.
FILES_API_CAMINHO_NÃO SUPORTADO
SQLSTATE: nenhum atribuído
O caminho fornecido não é compatível com a API Files. Certifique-se de que o caminho fornecido não contenha instâncias de sequências '.. /' ou' ./ '. Certifique-se de que o caminho fornecido não use várias barras consecutivas (por exemplo. '///').
ARQUIVOS_API_URL_GENERATION_DISABLED
SQLSTATE: nenhum atribuído
A geração de URL pré-assinada não está habilitada para <cloud>
.
FILES_API_VOLUME_TYPE_NÃO_SUPORTADO
SQLSTATE: nenhum atribuído
A API Files não é compatível com <volume_type>.
A API_FILES_WORKSPACE_ESTÁ CANCELADA
SQLSTATE: nenhum atribuído
O site workspace foi cancelado.
O FILES_API_WORKSPACE_NÃO_FOI ENCONTRADO
SQLSTATE: nenhum atribuído
A configuração de armazenamento para este workspace não está acessível.
DLT
ALTER_SCHEDULE_SCHEDULE_NÃO_EXISTE
Não é possível alterar <type>
em uma tabela sem um programa ou acionador existente. Adicione um programar ou acionador à tabela antes de tentar alterá-la.
API_QUOTA_EXCEDED
O senhor excedeu a cota do site API para a fonte de dados <sourceName>
.
Para obter mais detalhes, consulte API_QUOTA_EXCEEDED
APPLY_CHANGES_PARTIAL_UPDATES_NOT_ENABLED
SQLSTATE: nenhum atribuído
O recurso COLUMNS
TO UPDATE
está em pré-visualização e não está habilitado para o seu workspace. Entre em contato com o representante da Databricks para saber mais sobre esse recurso e acessar a visualização privada.
FALHA DE MIGRAÇÃO DE ARQUITETURA
SQLSTATE: nenhum atribuído
Para obter mais detalhes, consulte ARCHITECTURE_MIGRATION_FAILURE
NÃO É POSSÍVEL ADICIONAR_COLUMN_TO_INCLUDE_COLUMNS
SQLSTATE: nenhum atribuído
Novas colunas (<columnNames>
) são adicionadas ao campo include_columns na definição do pipeline para a tabela <qualifiedTableName>
. O senhor deve acessar refresh a tabela para evitar possíveis perdas de dados ou remover essas colunas de include_columns.
NÃO É POSSÍVEL EXCLUIR_NON_EXISTENT_COLUMN
SQLSTATE: nenhum atribuído
A definição do pipeline exclui colunas (<columnNames>
) que não existem na tabela <qualifiedTableName>
da fonte <sourceType>
. Remova essas colunas do campo exclude_columns.
NÃO É POSSÍVEL FILTRAR_OUT_REQUIRED_COLUMN
SQLSTATE: nenhum atribuído
A definição do pipeline não inclui as colunas necessárias (<columnNames>
) na tabela <qualifiedTableName>
da fonte <sourceType>
para ingestão. Adicione-os a include_columns ou remova-os de exclude_columns.
NÃO É POSSÍVEL INCLUIR_NON_EXISTENT_COLUMN
SQLSTATE: nenhum atribuído
A definição do pipeline inclui colunas (<columnNames>
) que não existem na tabela <qualifiedTableName>
da fonte <sourceType>
. Remova essas colunas do campo include_columns.
NÃO É POSSÍVEL INGERIR_TABLE_WITHOUT_PRIMARY_KEY
SQLSTATE: nenhum atribuído
A tabela <qualifiedTableName>
na fonte <sourceType>
não tem um primário key.
Especifique um key primário na configuração do conector para ingerir a tabela, se ela existir.
NÃO É POSSÍVEL REMOVER_COLUMN_FROM_EXCLUDE_COLUMNS
SQLSTATE: nenhum atribuído
As colunas (<columnNames>
) são removidas do campo exclude_columns na definição do pipeline para a tabela <qualifiedTableName>
. O senhor deve acessar refresh a tabela para evitar possíveis perdas de dados ou adicionar essas colunas novamente a exclude_columns.
NÃO É POSSÍVEL CONFIGURAR_CATALOG_FOR_HMS_PIPELINE
SQLSTATE: nenhum atribuído
Não é possível adicionar o catálogo a um pipeline existente com local de armazenamento definido; se o senhor quiser usar o UC, crie um novo pipeline e defina o catálogo.
Local de armazenamento existente: '<storageLocation>
'
Catálogo solicitado: '<catalog>
'
NÃO É POSSÍVEL ESPECIFICAR_BOTH_INCLUDE_EXCLUDE_COLUMNS
SQLSTATE: nenhum atribuído
A definição do pipeline especifica include_columns e exclude_columns para <identifier>
. Por favor, remova um deles.
NÃO É POSSÍVEL ATUALIZAR_CLUSTERING_COLUMNS
SQLSTATE: nenhum atribuído
Não é possível atualizar as colunas de clustering da tabela <tableName>
porque ela está usando colunas de partição. Uma tabela pode usar colunas de partição ou colunas de clustering, mas não ambas.
Para alternar entre o clustering líquido e o particionamento, acione um refresh completo dessa tabela.
NÃO É POSSÍVEL ATUALIZAR_PARTITION_COLUMNS
SQLSTATE: nenhum atribuído
Não é possível atualizar as colunas de partição da tabela de transmissão <tableName>
.
Atual: <existingPartitionColumns>
,
Solicitado: <requestedPartitionColumns>
Para aplicar essa alteração de partição, acione um refresh completo dessa tabela e de quaisquer outras tabelas de transmissão que tenham colunas de partição atualizadas.
Como alternativa, reverta essa alteração para continuar usando as colunas de partição existentes.
NÃO É POSSÍVEL ATUALIZAR_TABLE_SCHEMA
SQLSTATE: nenhum atribuído
Falha ao acessar merge o esquema atual e o novo esquema da tabela <tableName>
.
Para prosseguir com essa alteração de esquema, o senhor pode acionar um refresh completo dessa tabela.
Dependendo do seu caso de uso e das mudanças no esquema, você poderá evitar a alteração do esquema — você pode atualizar suas consultas para que o esquema de saída seja compatível com o esquema existente (por exemplo, convertendo explicitamente as colunas no tipo de dados correto).
NÃO É POSSÍVEL GRAVAR_PARA_COLUNAS_INATIVAS
SQLSTATE: nenhum atribuído
As tabelas a seguir no destino têm colunas inativas que entram em conflito com as tabelas de origem atuais:
<details>
Essas colunas permanecem inativas nas tabelas de destino porque foram excluídas anteriormente das tabelas de origem.
Para prosseguir com a atualização, execute um FULL REFRESH
nas tabelas ou elimine essas colunas inativas das tabelas de destino por meio do comando ALTER TABLE DROP COLUMN
e tente novamente a atualização.
NÃO É POSSÍVEL GRAVAR_TO_INATIVA_TABELAS_DE_INATIVAS
SQLSTATE: nenhum atribuído
As tabelas a seguir no destino estão inativas e estão em conflito com as tabelas de origem atuais: <tables>
.
Essas tabelas permanecem inativas porque foram excluídas anteriormente da origem ou não selecionadas do conector.
Para prosseguir com a atualização, execute um FULL REFRESH
nas tabelas ou elimine essas tabelas inativas do destino no Catalog Explorer ou por meio do comando DROP TABLE
e tente novamente a atualização.
NÃO É POSSÍVEL GRAVAR_TO_TABLES_PENDING_RESET
SQLSTATE: nenhum atribuído
As tabelas a seguir no destino não são redefinidas corretamente no site completo anterior refresh: <tables>
.
Por favor, acione um refresh completo para que eles se recuperem.
CATALOG_SPEC_NÃO SUPORTADO
SQLSTATE: nenhum atribuído
Atualmente, as especificações do catálogo não são suportadas pelos conectores de banco de dados. Remova a especificação do catálogo.
CDC_APPLIER_REQUIRES_ALL_DESTINATION_TABLES_FULL_REFRESH
SQLSTATE: nenhum atribuído
Não há suporte para refresh completo de uma tabela de destino e atualização normal de outra tabela de destino da mesma origem.
Se possível, o senhor deve acessar o site refresh para continuar com as duas mesas.
refresh tabelas completas: <fullRefreshTables>
Tabelas de destino para a fonte <sourceTable>
: <destinationTables>
CDC_APPLIER_SCHEMA_ALTERADO DURANTE A TRANSMISSÃO
SQLSTATE: nenhum atribuído
A versão <dataSchemaVersion>
do esquema é diferente da versão <readSchemaVersion>
do esquema de leitura.
O DLT tentará novamente a atualização.
ALTERAÇÕES DO ESQUEMA CDC_INCOMPATÍVEL
SQLSTATE: nenhum atribuído
Encontramos uma alteração de esquema incompatível (<cause>
) da versão <previousSchemaVersion>
para <currentSchemaVersion>
.
Portanto, não podemos continuar aplicando as alterações para <tableName>
. Solicite um refresh completo da tabela.
Esquema anterior: <previousSchema>
Esquema atual: <currentSchema>
LACUNAS DE DADOS POTENCIAIS DO CDC
SQLSTATE: nenhum atribuído
As tabelas a seguir [<needFullRefreshTableList>
] não têm uma atualização bem-sucedida por <retention>
dias.
Por favor, faça um refresh completo sobre essas tabelas ou o pipeline inteiro.
CDC_SAME_TABLE_FROM_MULTIPLE_SOURCES
SQLSTATE: nenhum atribuído
Encontrou o mesmo nome de tabela <table>
em várias fontes: <sources>
.
Por favor, divida-os em diferentes pipelines para evitar conflitos.
CDC_TABLE_NOT_FOUND_IN_ALL_TABLES
SQLSTATE: nenhum atribuído
A tabela <table>
não foi encontrada no Snapshot de todas as tabelas do banco de dados de origem.
Detalhes das especificações da tabela:
<tableSpec>
ALTERA O HMS_PIPELINE_PARA_UC_NOT_ALLOWED
SQLSTATE: nenhum atribuído
Não é permitido alterar um pipeline HMS para um pipeline UC.
ALTERA_UC_PIPELINE_PARA_HMS_NOT_ALLOWED
SQLSTATE: nenhum atribuído
Não é permitido alterar um pipeline UC para um pipeline HMS.
ALTERANDO_CATALOG_NOT_ALLOWED
SQLSTATE: nenhum atribuído
Não é possível modificar o catálogo de um pipeline existente. Catálogo existente: '<existingCatalog>
'. Catálogo solicitado: '<requestedCatalog>
'.
ALTERANDO_TARGET_SCHEMA_NOT_ALLOWED
SQLSTATE: nenhum atribuído
Não é permitido alterar o esquema de destino. Motivo: <reason>
.
agrupamento
Falha ao criar um clustering porque o senhor esgotou os créditos disponíveis. Adicione um método de pagamento para atualizar seu account.
agrupamento
O senhor não está autorizado a criar clustering. Entre em contato com seu administrador.
agrupamento
Falha ao criar ou iniciar um clustering porque o período de avaliação do seu workspace expirou. Entre em contato com seu administrador.
agrupamento
Falha ao iniciar o pipeline clustering <clusterId>
: <clusterStateMessage>
Esse erro provavelmente se deve a uma configuração incorreta no pipeline.
Verifique a configuração de clustering do pipeline e a política de cluster associada.
agrupamento
Falha ao iniciar o pipeline clustering <clusterId>
: <clusterStateMessage>
Esse erro pode ser transitório - reinicie o pipeline e informe se o mesmo problema persistir.
agrupamento
O senhor não está autorizado a acessar a política de cluster configurada para esse pipeline. Entre em contato com seu administrador.
agrupamento
Para obter mais detalhes, consulte clustering
agrupamento
SQLSTATE: nenhum atribuído
Comunicação perdida com o motorista. O clustering <clusterId>
não pôde ser acessado por <timeoutSeconds>
segundos.
COLUNA A ATUALIZAR NÃO ENCONTRADA
SQLSTATE: nenhum atribuído
A coluna <column>
especificada em COLUMNS
TO UPDATE
não foi encontrada no Dataframe de origem.
concorrente
SQLSTATE: nenhum atribuído
Começar a atualização '<upgradedUpdateId>
' para um upgrade, mas não conseguiu interromper a atualização anterior '<oldUpdateId>
'.
Esse erro provavelmente é transitório. O pipeline será repetido automaticamente e o problema deverá se resolver sozinho.
Informe esse erro à Databricks se o senhor continuar a ver o mesmo problema.
conjunto de dados
SQLSTATE: nenhum atribuído
O conjunto de dados <datasetName>
já existe. Certifique-se de que a função de consulta tenha sido marcada como view ou tabela apenas uma vez.
conjunto de dados
SQLSTATE: nenhum atribuído
Falha ao ler dataset '<datasetName>
'. Este dataset não está definido no pipeline.
Se essa tabela for gerenciada por outro pipeline, então não use dlt.read
/ dlt.readStream
para ler a tabela ou prefixe o nome com a palavra-chave LIVE.
DROP_SCHEDULE_SCHEDULE_NÃO_EXISTE
Não é possível descartar o site SCHEDULE
em uma tabela sem um programa ou acionador existente.
DUPLICATED_INGESTION_CONFIG_TABLE_SPECS
SQLSTATE: nenhum atribuído
A configuração do pipeline de ingestão contém tabelas duplicadas. Certifique-se de que cada tabela seja única.
EMPTY_INGESTION_CONFIG_OBJECTS
SQLSTATE: nenhum atribuído
Os objetos de configuração de ingestão estão vazios.
EVENT_LOG_PICKER_FEATURE_NOT_SUPPORTED
SQLSTATE: nenhum atribuído
A publicação do evento log em Unity Catalog não é compatível com este pipeline. Se isso for inesperado, entre em contato com o suporte da Databricks.
FALHA NA CRIAÇÃO DO LOG DE EVENTOS
SQLSTATE: nenhum atribuído
Falha ao criar o evento pipeline (id=<pipelineId>
) log com o identificador <eventLogIdentifier>
. Veja a exceção abaixo para obter mais detalhes.
FALHA NA ATUALIZAÇÃO DO LOG DE EVENTOS
SQLSTATE: nenhum atribuído
Falha ao atualizar o evento pipeline (id=<pipelineId>
) log identificador para <newEventLogIdentifier>
com visibilidade <newVisibility>
. Veja a exceção abaixo para obter mais detalhes.
FLOW_SCHEMA_CHANGED
SQLSTATE: nenhum atribuído
O fluxo <flowName>
foi encerrado porque encontrou uma alteração no esquema durante a execução.
A alteração do esquema é compatível com o esquema de destino existente e a próxima execução do fluxo pode ser retomada com o novo esquema.
lotes
SQLSTATE: nenhum atribuído
O DLT ForEachBatch Sink não é suportado atualmente.
A visualização privada para o sink DLT ForeachBatch requer o canal PREVIEW
.
sumidouros DLT: <sinkNames>
GATEWAY_PIPELINE_INIT_SCRIPTS_NOT_ALLOWED
SQLSTATE: nenhum atribuído
O Gateway pipeline não permite o script de inicialização de cluster. Por favor, remova-o de <from>
.
GATEWAY_PIPELINE_SPARK_CONF_NOT_ALLOWED
SQLSTATE: nenhum atribuído
O pipeline do Gateway não permite a configuração de faísca [<configs>
]. Por favor, remova-os de <from>
.
COLUNA ILEGAL PARA TIPO DE DADOS DE ATUALIZAÇÃO
SQLSTATE: nenhum atribuído
O tipo de dados da coluna especificada em COLUMNS
TO UPDATE
deve ser um array de strings, mas o senhor encontrou <illegalDataType>
.
ILEGAL SCHEMA_FIELD_IN_PIPELINE_SPEC
SQLSTATE: nenhum atribuído
O campo 'schema' especificado nas configurações do pipeline é ilegal. Motivo: <reason>
.
ESQUEMA DE INGESTION_CONFIG_DUPLICATED_SCHEMA
SQLSTATE: nenhum atribuído
A configuração do pipeline de ingestão contém esquemas duplicados. Certifique-se de que cada esquema seja exclusivo.
FALHA NA AUTENTICAÇÃO DO GATEWAY_DO GATEWAY
SQLSTATE: nenhum atribuído
Falha na autenticação
Para obter mais detalhes, consulte INGESTION_GATEWAY_AUTHENTICATION_FAILURE
INGESTION_GATEWAY_CDC_NOT_ENABLED
SQLSTATE: nenhum atribuído
O CDC não está ativado em <entityType>
'<entityName>
'. Mensagem de erro: '<errorMessage>
'.
INGESTION_GATEWAY_MISSING_CONNECTION_REFERENCE
SQLSTATE: nenhum atribuído
Falta uma conexão na configuração do gateway de ingestão.
Adicione uma referência à conexão do Unity Catalog que contém suas credenciais.
Detalhes da definição do pipeline do gateway de ingestão:
<definition>
INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_CATALOG
SQLSTATE: nenhum atribuído
A configuração do gateway de ingestão não contém o catálogo interno de locais de armazenamento.
Adicione o catálogo de locais de armazenamento interno.
Detalhes da definição do pipeline do gateway de ingestão:
<definition>
NOME DE ARMAZENAMENTO INTERNO AUSENTE DO GATEWAY DE INGESTÃO
SQLSTATE: nenhum atribuído
A configuração do gateway de ingestão não tem o nome do local de armazenamento interno.
Adicione o nome do local de armazenamento interno.
Detalhes da definição do pipeline do gateway de ingestão:
<definition>
ESQUEMA DE ARMAZENAMENTO INTERNO AUSENTE DO GATEWAY DE INGESTÃO
SQLSTATE: nenhum atribuído
A configuração do gateway de ingestão não contém o esquema de localização de armazenamento interno.
Adicione o esquema de localização de armazenamento interno.
Detalhes da definição do pipeline do gateway de ingestão:
<definition>
INGESTION_GATEWAY_UNREACHABLE_HOST_OU_PORT_FAILURE
SQLSTATE: nenhum atribuído
Falha na conexão devido ao nome de host <host>
e/ou porta <port>
incorretos.
Para obter mais detalhes, consulte INGESTION_GATEWAY_UNREACHABLE_HOST_OR_PORT_FAILURE
INSTANCE_POOL_CAPACITY_EXCEEDED
Falha ao criar ou começar um clustering porque essa operação excederia a capacidade da instância pool: <errorMessage>
COMANDO INVÁLIDO_APPLY_CHANGES_
SQLSTATE: nenhum atribuído
APPLY CHANGES
comando é inválido. <reason>
.
TIPO_DE_ARGUMENTO INVÁLIDO
SQLSTATE: nenhum atribuído
Valor do tipo inválido passado para o parâmetro '<paramName>
'. Esperado <expectedType>
. <additionalMsg>
.
CONFIGURAÇÃO INVÁLIDA_EVENT_LOG_PICKER_
SQLSTATE: nenhum atribuído
Evento inválido log picker configuration encontrado na especificação pipeline: <message>
NOME_DO_INVÁLIDO_IN_USE_COMMAND
SQLSTATE: nenhum atribuído
Nome inválido '<name>
' no comando <command>
. Motivo: <reason>
SELEÇÃO_ATUALIZAR_INVÁLIDA
SQLSTATE: nenhum atribuído
Os parâmetros de seleção do site refresh especificados para essa atualização são inválidos, pois
Para obter mais detalhes, consulte INVALID_REFRESH_SELECTION
NOME_DE_ESQUEMA INVÁLIDO
SQLSTATE: nenhum atribuído
Esquema inválido '<schemaName>
' especificado na configuração do pipeline. Motivo: <reason>
.
FORMATO DE INTERVALO_TRIGGER_INVÁLIDO
SQLSTATE: nenhum atribuído
A configuração do intervalo de gatilho especificada no <configurationType>
é inválida
LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_CLASSIC
SQLSTATE: nenhum atribuído
Não é possível fazer referência ao conjunto de dados usando o esquema virtual LIVE
fora da definição da consulta dataset (ou seja, @dlt.table anotação).
LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_DPM
SQLSTATE: nenhum atribuído
A referência ao conjunto de dados usando o esquema virtual LIVE
<identifier>
fora da definição da consulta dataset (ou seja, @dlt.table anotação) não é suportada.
REFERÊNCIA AO VIVO _OUTSIDE_QUERY_DEFINITION_SPARK_SQL
SQLSTATE: nenhum atribuído
Referenciando o conjunto de dados usando o esquema virtual LIVE
em spark.sql(...) API não deve ser chamado fora da definição da consulta dataset (ou seja, @dlt.table anotação). Ele só pode ser chamado na definição da consulta dataset.
MATERIALIZED_VIEW_METADATA_READ_FAILURE
SQLSTATE: nenhum atribuído
Falha ao acessar refresh table <tableName>
devido a uma falha na leitura de metadados. Entre em contato com o suporte da Databricks.
MAX_RETRY_REACHED_BEFOR_ENZYME_RECOMPUTE
SQLSTATE: nenhum atribuído
Contagem máxima de novas tentativas alcançada. Contagem de novas tentativas:<flowRetryCount>
. MaxFlowFailureRetryCountThreshold:<maxFlowRetryAttempts>
. <message>
operações
SQLSTATE: nenhum atribuído
as operações envolvidas na atualização das informações do metastore para <tableName>
levaram mais tempo do que <timeout>
.
Esse problema pode ser transitório ou indicar erros no cliente metastore configurado. Tente reiniciar o pipeline e relate esse problema se ele persistir.
PRIVILÉGIO_CREATE_SCHEMA_PRIVILEGE AUSENTE
SQLSTATE: nenhum atribuído
O usuário '<userName>
' não tem permissão para criar esquema no catálogo <catalogName>
PRIVILÉGIO_CREATE_TABLE_AUSENTE
SQLSTATE: nenhum atribuído
O usuário '<userName>
' não tem permissão para criar tabela no esquema <schemaName>
AUSENTE_EXECUTAR_AS_USUÁRIO
SQLSTATE: nenhum atribuído
Não foi especificada a execução como usuário para a atualização.
MOVER TABELA_ENTRE_PIPELINES_DESTINATION_PIPELINE_NOT_FOUND
O pipeline de destino <pipelineId>
não pode ser encontrado. Verifique se o senhor está no mesmo workspace que o pipeline, se é o proprietário do pipeline e se o pipeline foi executado pelo menos uma vez.
MOVER TABELA_ENTRE_PIPELINES_DESTINATION_PIPELINE_NOT_IN_NEW_ARCHITECTURE
O pipeline de destino <pipelineId>
não está usando o Direct Publishing Mode. Para mover a tabela entre pipelines, é necessário que os pipelines de origem e de destino estejam no Direct Publishing Mode.
MOVE_TABLE_BETEN_PIPELINES_DESTINATION_PIPELINE_PERMISSION_DENIED
O senhor não tem permissão para realizar essa operação, pois não é o proprietário do destino pipeline <pipelineId>
. Somente os proprietários podem mover a mesa entre os pipelines.
MOVE_TABLE_BETEN_PIPELINES_DESTINATION_PIPELINE_TYPE_NOT_WORKSPACE
O pipeline de destino <pipelineId>
não é um pipeline padrão. Só oferecemos suporte à movimentação de tabelas entre pipelines padrão.
MOVE_TABLE_BETWEEN_PIPELINES_FEATURE_DISABLED
Ainda não há suporte para a movimentação de <tableType>
entre pipelines.
MOVER TABELA_ENTRE_PIPELINES_SOURCE_PIPELINE_NOT_FOUND
O pipeline de origem <pipelineId>
, que gerencia a tabela <tableName>
, não pode ser encontrado. Verifique se o senhor está no mesmo workspace que o pipeline, se é o proprietário do pipeline e se o pipeline foi executado pelo menos uma vez.
MOVER TABELA_ENTRE_PIPELINES_SOURCE_PIPELINE_NOT_IN_NEW_ARCHITECTURE
O pipeline de origem <pipelineId>
, que gerencia a tabela <tableName>
, não está usando o Direct Publishing Mode. Para mover a tabela entre pipelines, é necessário que os pipelines de origem e de destino estejam no Direct Publishing Mode.
MOVE_TABLE_BETEN_PIPELINES_SOURCE_PIPELINE_PERMISSION_DENIED
O senhor não tem permissão para realizar essa operação, pois não é o proprietário da fonte pipeline <pipelineId>
, que gerencia a tabela <tableName>
. Somente os proprietários podem mover a mesa entre os pipelines.
MOVE_TABLE_BETEN_PIPELINES_SOURCE_PIPELINE_TYPE_NOT_WORKSPACE
O pipeline de origem <pipelineId>
, que gerencia a tabela <tableName>
, não é um pipeline padrão. Só oferecemos suporte à movimentação de tabelas entre pipelines padrão.
MOVER TABELA_ENTRE_PIPELINES_TABLE_CHANGED
A tabela <tableName>
foi modificada durante as operações. Tente novamente
MOVE_TABLE_BETWEEN_PIPELINES_UPDATE_ESTÁ EM EXECUÇÃO
O pipeline <pipelineId>
para a tabela <tableName>
está em execução. Pare o site pipeline antes de executar as operações.
OPÇÕES MUTUAMENTE EXCLUSIVAS
SQLSTATE: nenhum atribuído
Opções mutuamente exclusivas <options>
. Remova uma dessas opções.
TABELA QUE NÃO É UC_E JÁ É GERENCIADA POR OUTRO PIPELINE
SQLSTATE: nenhum atribuído
A tabela '<tableName>
' já está gerenciada por pipeline <otherPipelineId>
.
Se o senhor quiser que a tabela '<tableName>
' seja gerenciada por este pipeline -
- Remover a tabela do pipeline '
<otherPipelineId>
'. - O senhor receberá uma atualização completa do site refresh para este pipeline.
Se o senhor quiser continuar a gerenciar a tabela a partir de vários pipelines, desative essa verificação definindo a configuração pipelines.tableManagedByMultiplePipelinesCheck.enabled
como false
nas configurações do site pipeline.
Isso não é recomendado, pois as operações concorrentes na tabela podem entrar em conflito umas com as outras e levar a resultados inesperados.
Caderno de anotações
Não foi possível carregar o Notebook '<notebookPath>
'.
NÃO_TABLES_IN_PIPELINE
SQLSTATE: nenhum atribuído
Espera-se que o pipeline tenha pelo menos uma tabela definida, mas nenhuma tabela foi encontrada em seu site pipeline.
Verifique se o senhor incluiu os arquivos de origem esperados e se o código-fonte inclui definições de tabela (por exemplo, CREATE <mv>
no código SQL, @dlt.table no código Python ).
Observe que somente as tabelas são contadas para essa verificação. O senhor também pode encontrar esse erro se incluir apenas a visualização ou os fluxos no site pipeline.
AMBIENTES SEM TRABALHADORES
Falha ao criar ou iniciar um clustering porque sua organização não tem nenhum ambiente worker. Entre em contato com o suporte da Databricks.
tubulação
SQLSTATE: nenhum atribuído
O pipeline falhou ao analisar as tabelas de origem (<tables>
) devido a erros não recuperáveis após a execução parcial.
Não será criada uma nova atualização do pipeline. Verifique o evento log e corrija os problemas de acordo.
tubulação
SQLSTATE: nenhum atribuído
A tabela ainda não está pronta para refresh
Para obter mais detalhes, consulte o pipeline
tubulação
Não é possível começar a atualização '<updateId>
' porque o limite de pipeline ativo do tipo '<pipelineType>
' foi atingido.
PIP_INSTALL_ERROR
SQLSTATE: nenhum atribuído
Ocorreu um erro ao invocar %pip install.
PIP_INSTALL_NOT_AT_TOP_DO_NOTEBOOK
SQLSTATE: nenhum atribuído
Foram encontradas células contendo %pip install que não estão no topo do Notebook para '<notebookPath>
'
Mova todas as células de instalação %pip para o início do Notebook.
PY4J_API_BLOQUEADO
SQLSTATE: nenhum atribuído
O senhor está usando uma API Python que não é compatível com o ambiente atual.
Consulte a documentação da Databricks para obter alternativas.
<additionalInfo>
REFERENCE_DLT_DATASET_OUTSIDE_QUERY_DEFINITION
SQLSTATE: nenhum atribuído
A referência ao DLT dataset <identifier>
fora da definição da consulta dataset (ou seja, @dlt.table anotação) não é suportada. Em vez disso, leia-o na definição da consulta dataset.
atualizar
Não é possível adicionar <type>
a uma tabela que já tenha <existingType>
. O senhor pode deixar o programa existente ou usar ALTER TABLE
... ALTER <type>
... para alterá-lo.
PALAVRA-CHAVE RESERVADA NO CATÁLOGO DE USO
SQLSTATE: nenhum atribuído
USE CATALOG
'<reservedKeyword>
' é ilegal porque '<reservedKeyword>
' é uma palavra-chave reservada em DLT.
PALAVRA-CHAVE RESERVADA NO ESQUEMA DE USO
SQLSTATE: nenhum atribuído
USE SCHEMA
'<reservedKeyword>
' é ilegal porque '<reservedKeyword>
' é uma palavra-chave reservada em DLT.
execução
SQLSTATE: nenhum atribuído
A execução especificada como usuário '<runAsUserId>
' para a atualização não existe no site workspace.
ERRO DE CONEXÃO SAAS
Falha ao fazer uma conexão com a fonte <sourceName>
. Código de erro: <saasConnectionErrorCode>
.
Para obter mais detalhes, consulte SAAS_CONNECTION_ERROR
SAAS_CONNECTOR_SCHEMA_CHANGE_ERROR
SQLSTATE: nenhum atribuído
Uma mudança de esquema ocorreu na tabela <tableName>
da fonte <sourceName>
.
Para obter mais detalhes, consulte SAAS_CONNECTOR_SCHEMA_CHANGE_ERROR
ERRO DA API DE ORIGEM DO CONECTOR SAAS
Ocorreu um erro na chamada à API <sourceName>
. Fonte Tipo de API: <saasSourceApiType>
. Código de erro: <saasSourceApiErrorCode>
.
Tente atualizar a tabela de destino. Se o problema persistir, registre um ticket.
ERRO SAAS_CONNECTOR_UNSUPPORTED_ERROR
Ocorreu um erro não suportado na fonte de dados <sourceName>
.
Para obter mais detalhes, consulte SAAS_CONNECTOR_UNSUPPORTED_ERROR
ESQUEMA SAAS INCOMPATÍVEL COM ALTERAÇÕES DURANTE A INICIALIZAÇÃO
SQLSTATE: nenhum atribuído
Detectamos alterações de esquema incompatíveis ao inicializar o pipeline:
<details>
Execute um refresh completo nas tabelas afetadas.
ESQUEMA SAAS DIVERGIDO DURANTE A ANÁLISE
SQLSTATE: nenhum atribuído
O esquema analisado da tabela de origem (<table>
) divergiu do esquema esperado.
Tente novamente a atualização do pipeline e veja se o problema foi resolvido.
Se o problema persistir, execute um refresh completo nas tabelas mencionadas acima
Esquema esperado:
<expectedSchema>
Esquema real:
<actualSchema>
SAAS_UC_CONNECTION_INACESSÍVEL
SQLSTATE: nenhum atribuído
A conexão <connectionName>
fornecida está inacessível. Verifique a conexão e tente novamente.
Para obter mais detalhes, consulte SAAS_UC_CONNECTION_INACCESSIBLE
SCHEMA_SPEC_EMPTY_CATALOG
SQLSTATE: nenhum atribuído
O SchemaSpec tem uma cadeia de caracteres vazia no campo de catálogo.
Remova as cadeias de caracteres vazias ou adicione o nome do catálogo. (Se esse esquema não pertencer a um catálogo na origem, não defina o campo.)
Detalhes da especificação do esquema:
<schemaSpec>
SCHEMA_SPEC_EMPTY_SCHEMA
SQLSTATE: nenhum atribuído
O SchemaSpec tem uma cadeia de caracteres vazia no campo de esquema.
Remova as cadeias de caracteres vazias ou adicione o nome do esquema. (Se essa tabela não pertencer a um esquema na origem, não defina o campo.)
Detalhes da especificação do esquema:
<schemaSpec>
SCHEMA_SPEC_REQUIRE_ONE_OF_CATALOG_SCHEMA
SQLSTATE: nenhum atribuído
Pelo menos um catálogo de origem e um esquema de origem devem estar presentes. Mas ambos estão vazios.
Detalhes da especificação do esquema:
<schemaSpec>
SERVICENOW_CONNECTOR_INSTANCE_HIBERNATION_ERROR
Ocorreu um erro no ServiceNow. Tipo de API de origem: <saasSourceApiType>
.
Falha na conexão com a instância ServiceNow. A instância parece estar hibernando ou inativa.
Faça login no portal de administração do ServiceNow e aguarde algum tempo até que a instância seja totalmente ativada.
Para tentar novamente, o senhor pode reexecutar todo o site pipeline ou refresh essa tabela de destino específica. Se o erro persistir, registre um ticket.
SERVICENOW_CONNECTOR_INVALID_TABLE_ERROR
Ocorreu um erro no ServiceNow. Tipo de API de origem: <saasSourceApiType>
.
Falha ao consultar o esquema da tabela '<tableName>
'. A tabela não existe no ServiceNow account para este usuário.
Verifique se há erros de digitação no nome da tabela e certifique-se de que o usuário tenha as permissões necessárias para acessar a tabela.
Para tentar novamente, o senhor pode reexecutar todo o site pipeline ou refresh essa tabela de destino específica. Se o erro persistir, registre um ticket.
SERVICENOW_CONNECTOR_MALFORMED_ENDPOINT_URL_ERROR
Ocorreu um erro no ServiceNow. Tipo de API de origem: <saasSourceApiType>
.
URL inválido do ServiceNow API endpoint detectado. A estrutura do URL não corresponde ao formato esperado do ServiceNow.
Verifique a configuração da instância ServiceNow nas credenciais de conexão UC.
Para obter mais detalhes, consulte SERVICENOW_CONNECTOR_MALFORMED_ENDPOINT_URL_ERROR
SERVICENOW_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR
Ocorreu um erro no ServiceNow. Tipo de API de origem: <saasSourceApiType>
.
Para obter mais detalhes, consulte SERVICENOW_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR
SET_TBLPROPERTIES_NOT_ALLOWED_FOR_DLT_DATASET
ALTER <commandTableType>
... SET TBLPROPERTIES
não é suportado. Para modificar as propriedades da tabela, altere a definição original e execute uma atualização.
SFDC_CONNECTOR_BULK_QUERY_JOB_INCOMPLETE
A ingestão do objeto <objName>
está incompleta porque o trabalho de consulta do Salesforce API demorou muito, falhou ou foi cancelado manualmente.
Para obter mais detalhes, consulte SFDC_CONNECTOR_BULK_QUERY_JOB_INCOMPLETE
SFDC_CONNECTOR_CREATE_BULK_QUERY_JOB_FAILED
A ingestão do objeto <objName>
está incompleta porque houve falha na criação do Job de consulta em massa do Salesforce API. Código de erro: <saasSourceApiErrorCode>
.
<actionText>
.
DISSIPADORES NÃO SUPORTADOS NO SEG
SQLSTATE: nenhum atribuído
Os dissipadores DLT não são compatíveis com o espaço de trabalho fora da Internet. Os seguintes sumidouros foram encontrados: <sinkNames>
começar
SQLSTATE: nenhum atribuído
Tempo limite enquanto aguarda o início do Python REPL. Demorou mais de <timeoutSeconds>
segundos.
transmissão
SQLSTATE: nenhum atribuído
Não foi possível encontrar a tabela de destino <target>
para o comando <command>
. A tabela de destino <target>
não está definida no pipeline.
TABLE_SPEC_BOTH_CATALOG_SCHEMA_REQUIRED
SQLSTATE: nenhum atribuído
O TableSpec não tem um dos catálogos de origem e/ou esquema de origem.
Detalhes das especificações da tabela:
<tableSpec>
TABLE_SPEC_EMPTY_CATALOG
SQLSTATE: nenhum atribuído
TableSpec tem uma cadeia de caracteres vazia no campo de catálogo.
Remova as cadeias de caracteres vazias ou adicione o nome do catálogo. (Se essa tabela não pertencer a um catálogo na origem, não defina o campo.)
Detalhes das especificações da tabela:
<tableSpec>
TABLE_SPEC_EMPTY_SCHEMA
SQLSTATE: nenhum atribuído
TableSpec tem uma cadeia de caracteres vazia no campo schema.
Remova as cadeias de caracteres vazias ou adicione o nome do esquema. (Se essa tabela não pertencer a um esquema na origem, não defina o campo.)
Detalhes das especificações da tabela:
<tableSpec>
TABLE_SPEC_EMPTY_TABLE
SQLSTATE: nenhum atribuído
O nome da tabela está vazio. Forneça um nome para a tabela.
Detalhes das especificações da tabela:
<tableSpec>
TABLE_TOKEN_NOT_EXIST_FOR_SCHEMA_EVOLUTION_LEGACY_TABLE
SQLSTATE: nenhum atribuído
A evolução do esquema não pode ser ativada devido à falta de metadados. Por favor, acione um refresh completo.
Motivo: os tokens da tabela Snapshot devem ser definidos quando a evolução do esquema estiver ativada.
TRIGGER_INTERVAL_VALUE_INVALID
O intervalo de acionamento deve ter uma duração positiva; o valor máximo aceitável é de 2.147.483.647 segundos. Recebido: <actual>
segundos.
TRIGGER_SOURCE_TYPE_NOT_SUPPORTED
A fonte <source>
com o tipo <type>
atualmente não é suportada pelo trigger.
UC_CLEARING_TARGET_SCHEMA_NOT_ALLOWED
SQLSTATE: nenhum atribuído
Não é permitido limpar o campo do esquema de destino no pipeline UC. Motivo: <reason>
.
UC_TARGET_SCHEMA_OBRIGATÓRIO
SQLSTATE: nenhum atribuído
O campo do esquema de destino é obrigatório para o pipeline da UC. Motivo: <reason>
.
ERRO INESPERADO DO PIPELINE_SCHEMA_PERMISSION_ERROR
SQLSTATE: nenhum atribuído
Erro inesperado ao verificar as permissões de esquema para o pipeline <pipelineId>
. Entre em contato com o suporte da Databricks.
PATH_SINK_PATH NÃO RESOLVIDO
SQLSTATE: nenhum atribuído
O caminho de armazenamento para o coletor <identifier>
não pode ser resolvido. Entre em contato com o suporte da Databricks.
CAMINHO_DA_TABELA NÃO RESOLVIDO
SQLSTATE: nenhum atribuído
O caminho de armazenamento para a tabela <identifier>
não pode ser resolvido. Entre em contato com o suporte da Databricks.
CHANNEL_FOR_DPM NÃO SUPORTADO
SQLSTATE: nenhum atribuído
Canal sem suporte para Direct Publishing Mode. Esperava um canal 'CURRENT
' ou 'PREVIEW
', mas obteve 'PREVIOUS
'
COMMAND_IN_NON_DPM_PIPELINE NÃO SUPORTADO
SQLSTATE: nenhum atribuído
<command>
compatível apenas com o pipeline DLT habilitado no modo de publicação direta
COMMAND_IN_QUERY_DEFINITION NÃO SUPORTADO
SQLSTATE: nenhum atribuído
'<command>
' não é suportado na definição da consulta. Por favor, mova o comando para fora da definição da consulta. Se for um pipeline DLT em Python, mova o '<command>
' para fora de @dlt.table(/@dlt.view() decorador. Se for um pipeline DLT em Scala, mova o '<command>
' para fora do método 'query'.
FEATURE_FOR_WORKSPACE NÃO SUPORTADO
<featureName>
não é suportado em seu site workspace. Entre em contato com o suporte Databricks para habilitar esse recurso para o seu workspace.
IDIOMA_DE_SUPORTE
Falha ao carregar <language>
Notebook '<notebookPath>
'. Apenas <supportedLanguages>
Notebook são suportados atualmente.
TYPE_MANAGED_INGESTION_SOURCE_TYPE NÃO SUPORTADO
SQLSTATE: nenhum atribuído
Invalid gerenciar ingestion pipeline definition, unsupported source type: <sourceType>
.
TYPE_SAAS_INGESTION_TYPE NÃO SUPORTADO
SQLSTATE: nenhum atribuído
O tipo de ingestão fornecido <ingestionType>
não é suportado.
Entre em contato com o suporte da Databricks se o problema persistir.
COMANDO_SPARK_SQL_DE_COMMAND NÃO SUPORTADO
SQLSTATE: nenhum atribuído
'<command>
' não é suportado em spark.sql (“...”) API em DLT Python. Comando suportado: <supportedCommands>
.
USE_CATALOG_EM_HMS
SQLSTATE: nenhum atribuído
USE CATALOG
compatível apenas com o pipeline DLT habilitado para UC
visualização
SQLSTATE: nenhum atribuído
Não é possível refresh tabela <tableName>
porque ela não tem uma consulta salva em Unity Catalog. Entre em contato com o suporte da Databricks.
WORKDAY_REPORT_URL_EMPTY
SQLSTATE: nenhum atribuído
O URL do relatório de dias de trabalho está vazio. Pelo menos um relatório deve ser fornecido.
espaço de trabalho
Cannot começar update '<updateId>
' because there are already '<maxActiveUpdates>
' active pipeline running in this workspace.
Diversos
ABAC_ROW_COLUMN_POLICIES_NOT_SUPPORTED_ON_ASSIGNED_CLUSTERS
SQLSTATE: nenhum atribuído
A consulta na tabela <tableFullName>
com filtro de linha ou máscara de coluna atribuída por meio de regras de política não é compatível com o clustering atribuído.
AZURE_ENTRA_CREDENTIALS_AUSENTES
SQLSTATE: nenhum atribuído
Faltam as credenciais do Azure Entra (também conhecido como Azure Active Directory).
Certifique-se de que o usuário esteja conectado com o seu sistema Entra account
ou configurou um Azure DevOps personal access tokens (PAT) em User Settings > Git Integration (Configurações do usuário > Integração ).
Se o senhor não estiver usando um PAT e estiver usando o Azure DevOps com a API Repos,
o senhor deve usar um token de acesso Azure Entra.
Consultehttps://docs.microsoft.com/azure/databricks/dev-tools/api/latest/aad/app-aad-tokens para saber as etapas para adquirir tokens de acesso Azure Entra.
AZURE_ENTRA_CREDENTIALS_PARSE_FALHA
SQLSTATE: nenhum atribuído
Ocorreu um erro com suas credenciais do Azure Entra (Azure Active Directory). Por favor, tente sair do
Entre em https://portal.azure.com) e fazendo login novamente.
Como alternativa, o senhor também pode acessar User Settings > Git Integration para definir
Azure DevOps tokens de acesso pessoal.
AZURE_ENTRA_LOGIN_ERROR
SQLSTATE: nenhum atribuído
Ocorreu um erro com suas credenciais do Azure Active Directory. Por favor, tente sair do
Azure Active Directory https://portal.azure.com) e fazendo login novamente.
LIMPE O ROOM_DELTA_SHARING_ENTITY_NO_AUTHORIZED
SQLSTATE: nenhum atribuído
A geração de credenciais para sala limpa delta compartilhamento securable não pode ser solicitada.
LIMPA_ROOM_HIDDEN_SECURABLE_PERMISSÃO_NEGADASQLSTATE: nenhum atribuído
O <securableName>
seguro com o tipo <securableType>
e o tipo <securableKind>
é gerenciar o sistema de sala limpa, o usuário não tem acesso.
A RESTRIÇÃO JÁ EXISTE
SQLSTATE: nenhum atribuído
A restrição com o nome <constraintName>
já existe, escolha um nome diferente.
A RESTRIÇÃO NÃO EXISTE
SQLSTATE: nenhum atribuído
A restrição <constraintName>
não existe.
NÃO FOI POSSÍVEL LER O REPOSITÓRIO REMOTO
SQLSTATE: nenhum atribuído
Não foi possível ler o repositório remoto (<repoUrl>
).
Consulte o provedor remoto do Git para garantir isso:
- Seu URL do repositório Git remoto é válido.
- Seu token de acesso pessoal ou senha de aplicativo tem o acesso de repositório correto.
NÃO FOI POSSÍVEL RESOLVER O REPOSITÓRIO DO HOST
SQLSTATE: nenhum atribuído
Não foi possível resolver o host para <repoUrl>
.
INÍCIO DE TEMPO NÃO SUPORTADO POR CSMS
SQLSTATE: nenhum atribuído
O parâmetro beginning_of_time
não pode ser verdadeiro.
CSMS_CONTINUATION_TOKEN_EXPIRADO
SQLSTATE: nenhum atribuído
Não foi possível encontrar os objetos solicitados para os tokens de continuação.
TOKEN DE CONTINUAÇÃO CSMS_INVÁLIDO
SQLSTATE: nenhum atribuído
Tokens de continuação inválidos. Causa: <msg>
CSMS_INVALID_MAX_OBJECTS
SQLSTATE: nenhum atribuído
Valor <value>
inválido para o parâmetro max_objects, valor esperado em [<minValue>
, <maxValue>
]
FORMATO URI_INVÁLIDO CSMS_INVÁLIDO
SQLSTATE: nenhum atribuído
Formato URI inválido. Esperava um volume (por exemplo. “/Volumes/Catalog/schema/volume”) ou caminho de armazenamento em nuvem (por exemplo. “s3://some-uri”)
Kafka
SQLSTATE: nenhum atribuído
Deve fornecer um tópico do Kafka
ERRO DE LOCALIZAÇÃO DO CSMS
SQLSTATE: nenhum atribuído
Falha ao listar objetos. Há problemas no local que precisam ser resolvidos. Detalhes: <msg>
CSMS_LOCATION_NOT_KNOWN
SQLSTATE: nenhum atribuído
Nenhum local encontrado para uri <path>
FALHA NA RESOLUÇÃO_DE_METASTORE_DO CSMS_METASTORE_
SQLSTATE: nenhum atribuído
Não é possível determinar um metastore para a solicitação.
serviço
SQLSTATE: nenhum atribuído
O serviço está desativado
CSMS_UNITY_CATALOG_ENTITY_NOT_FOUND
SQLSTATE: nenhum atribuído
Entidade do Unity Catalog não encontrada. Certifique-se de que o catálogo, o esquema, o volume e/ou a localização externa existam.
CSMS_UNITY_CATALOG_EXTERNAL_LOCATION_NÃO_EXISTE
SQLSTATE: nenhum atribuído
O local externo do Unity Catalog não existe.
CSMS_UNITY_CATALOG_EXTERNAL_STORAGE_OVERLAP
SQLSTATE: nenhum atribuído
O URI se sobrepõe a outros volumes
CSMS_UNITY_CATALOG_METASTORE_NÃO_EXISTE
SQLSTATE: nenhum atribuído
Não é possível determinar um metastore para a solicitação. O Metastore não existe
CSMS_UNITY_CATALOG_PERMISSÃO_NEGADA
SQLSTATE: nenhum atribuído
Permissão negada
A TABELA DO CATÁLOGO CSMS_UNITY_NÃO_EXISTE
SQLSTATE: nenhum atribuído
A tabela do Unity Catalog não existe.
O CSMS_UNITY_CATALOG_VOLUME_NÃO_EXISTE
SQLSTATE: nenhum atribuído
O volume do Unity Catalog não existe.
CSMS_URI_AUSENTE
SQLSTATE: nenhum atribuído
Deve fornecer uri
CSMS_URI_DEMASIADO LONGO
SQLSTATE: nenhum atribuído
O uri fornecido é muito longo. O comprimento máximo permitido é <maxLength>
.
DMK_CATALOGS_DISALLOWED_ON_CLASSIC_COMPUTE
SQLSTATE: nenhum atribuído
Databricks O armazenamento padrão não pode ser acessado usando a computação clássica. Use o compute sem servidor para acessar os dados no armazenamento padrão
GITHUB_APP_COULD_NOT_REFRESH_CREDENTIALS
SQLSTATE: nenhum atribuído
operações failed because linked GitHub app credentials could not be refreshed.
Tente novamente ou vá para User Settings > Git Integration e tente vincular novamente seu provedor Git account.
Se o problema persistir, envie um ticket de suporte.
GITHUB_APP_CREDENTIALS_NO_ACCESS
SQLSTATE: nenhum atribuído
O link para o seu GitHub account não tem acesso. Para corrigir esse erro:
- Um administrador do repositório deve acessar https://github.com/apps/databricks/installations/new e instalar o aplicativo Databricks GitHub no repositório.
Como alternativa, um proprietário do GitHub account pode instalar o aplicativo no account para dar acesso aos repositórios do account.
- Se o aplicativo já estiver instalado, peça a um administrador que garanta que, se estiver usando o acesso com escopo com a opção “Somente selecionar repositórios”, ele incluiu o acesso a esse repositório ao selecioná-lo.
Consultehttps://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app para obter mais informações.
Se o problema persistir, envie um ticket de suporte.
GITHUB_APP_EXPIRED_CREDENTIALS
SQLSTATE: nenhum atribuído
As credenciais do aplicativo GitHub vinculado expiraram após 6 meses de inatividade.
Acesse User Settings (Configurações do usuário) > Git Integration (Integração do Git) e tente vincular novamente suas credenciais.
Se o problema persistir, envie um ticket de suporte.
GITHUB_APP_INSTALL_ON_DIFFERENT_USER_ACCOUNT
SQLSTATE: nenhum atribuído
O link para o seu GitHub account não tem acesso. Para corrigir esse erro:
- O usuário do GitHub
<gitCredentialUsername>
deve irparahttps://github.com/apps/databricks/installations/new e instale o aplicativo no site account<gitCredentialUsername>
para permitir o acesso. - Se o usuário
<gitCredentialUsername>
já instalou o aplicativo e está usando o acesso com escopo com a opção “Somente selecionar repositórios”, ele deve garantir que incluiu o acesso a esse repositório selecionando-o.
Consultehttps://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app para obter mais informações.
Se o problema persistir, envie um ticket de suporte.
GITHUB_APP_INSTALL_ON_ORGANIZATION
SQLSTATE: nenhum atribuído
O link para o seu GitHub account não tem acesso. Para corrigir esse erro:
- Um proprietário da organização do GitHub
<organizationName>
deve irparahttps://github.com/apps/databricks/installations/new e instale o aplicativo na organização<organizationName>
para permitir o acesso. - Se o aplicativo já estiver instalado na organização do GitHub
<organizationName>
, peça a um proprietário dessa organização que garanta que, se estiver usando o acesso com escopo com a opção "Only select repositories", ele incluiu o acesso a esse repositório selecionando-o.
Consultehttps://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app para obter mais informações.
Se o problema persistir, envie um ticket de suporte.
GITHUB_APP_INSTALL_ON_YOUR_ACCOUNT
SQLSTATE: nenhum atribuído
O link para o seu GitHub account não tem acesso. Para corrigir esse erro:
- Acessehttps://github.com/apps/databricks/installations/new e instale o aplicativo em seu account
<gitCredentialUsername>
para permitir o acesso. - Se o aplicativo já estiver instalado e você estiver usando o acesso com escopo com a opção “Somente selecionar repositórios”, certifique-se de ter incluído o acesso a esse repositório selecionando-o.
Consultehttps://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app para obter mais informações.
Se o problema persistir, envie um ticket de suporte.
GIT_CREDENTIAL_GENERIC_INVALID
SQLSTATE: nenhum atribuído
Credenciais inválidas do provedor Git para o URL do repositório <repoUrl>
.
Seu provedor de credenciais Git atual é <gitCredentialProvider>
e o nome de usuário é <gitCredentialUsername>
.
Acesse User Settings > Git Integration para view sua credencial.
Consulte o provedor remoto do Git para garantir isso:
- O senhor digitou o Git usuário email ou o nome de usuário correto com suas Git credenciais de provedor.
- Seus tokens ou senha do aplicativo têm o acesso correto ao repositório.
- Seus tokens não expiraram.
- Se você tiver o SSO habilitado com seu provedor Git, certifique-se de autorizar seu token.
GIT_CREDENTIAL_INVALID_PAT
SQLSTATE: nenhum atribuído
Credenciais de tokens de acesso pessoal do provedor Git inválidas para o URL do repositório <repoUrl>
.
Seu provedor de credenciais Git atual é <gitCredentialProvider>
e o nome de usuário é <gitCredentialUsername>
.
Acesse User Settings > Git Integration para view sua credencial.
Consulte o provedor remoto do Git para garantir isso:
- O senhor digitou o Git usuário email ou o nome de usuário correto com suas Git credenciais de provedor.
- Seus tokens ou senha do aplicativo têm o acesso correto ao repositório.
- Seus tokens não expiraram.
- Se você tiver o SSO habilitado com seu provedor Git, certifique-se de autorizar seu token.
GIT_CREDENTIAL_AUSENTE
SQLSTATE: nenhum atribuído
Nenhuma credencial Git configurada, mas a credencial é necessária para este repositório (<repoUrl>
).
Vá para User Settings (Configurações do usuário) > Git Integration (Integração do Git) para configurar suas credenciais do Git.
GIT_CREDENTIAL_NO_WRITE_PERMISSION
SQLSTATE: nenhum atribuído
O acesso de gravação ao repositório <gitCredentialProvider>
(<repoUrl>
) não foi concedido.
Verifique se você (<gitCredentialUsername>
) tem acesso de gravação a esse repositório remoto.
GIT_CREDENTIAL_PROVIDER_MISMATCHED
SQLSTATE: nenhum atribuído
Provedor de credenciais Git incorreto para o repositório.
O provedor da sua credencial Git atual (<gitCredentialProvider>
) não corresponde ao provedor Git do repositório <repoUrl>
.
Tente usar um repositório diferente ou acesse User Settings (Configurações do usuário) > Git Integration (Integração do Git) para atualizar suas credenciais do Git.
GIT_PROXY_CLUSTER_NÃO ESTÁ PRONTO
SQLSTATE: nenhum atribuído
Git O clustering de proxy não está pronto.
GIT_SECRET_IN_CODE
SQLSTATE: nenhum atribuído
Segredos encontrados no commit. Detalhe: <secretDetail>
. Para corrigir esse erro:
Remova o segredo e tente fazer o commit novamente.
Se o problema persistir, envie um ticket de suporte.
NAMESPACE_HIERÁRQUICO_NOT_ENABLED
SQLSTATE: nenhum atribuído
O armazenamento Azure account não tem o namespace hierárquico ativado.
COMPRIMENTO DO CAMPO INVÁLIDO
SQLSTATE: nenhum atribuído
<rpcName> <fieldName>
muito tempo. O tamanho máximo é de <maxLength>
caracteres.
VALOR__DO_PARÂMETRO INVÁLIDO
SQLSTATE: nenhum atribuído
<msg>
Para obter mais detalhes, consulte INVALID_PARAMETER_VALUE
Trabalho
SQLSTATE: nenhum atribuído
Estrutura da tarefa: Não foi possível encontrar a saída da execução da tarefa para a tarefa com runId <runId>
e orgId <orgId>
.
Trabalho
SQLSTATE: nenhum atribuído
tarefa Framework: tarefa execução Não foi possível encontrar o estado da tarefa com runId <runId>
e orgId <orgId>
.
Trabalho
SQLSTATE: nenhum atribuído
O RPC ClientConfig para a tarefa com ID <taskId>
não existe.
Trabalho
SQLSTATE: nenhum atribuído
A tarefa com ID <taskId>
não existe.
Trabalho
SQLSTATE: nenhum atribuído
tarefa Registry: JobTask não suportado ou desconhecido com a classe <taskClassName>
.
PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_EXTERNAL_SHALLOW_CLONE
SQLSTATE: nenhum atribuído
O acesso baseado em caminho à tabela externa de clones superficiais <tableFullName>
não é suportado. Em vez disso, use nomes de tabelas para acessar o clone superficial.
PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_FABRIC
SQLSTATE: nenhum atribuído
A tabela Fabric localizada no url '<url>
' não foi encontrada. Use o comando REFRESH FOREIGN CATALOG
para preencher as tabelas de tecido.
PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_TABLES_WITH_ROW_COLUMN_ACCESS_POLICIES
SQLSTATE: nenhum atribuído
O acesso baseado em caminho à tabela <tableFullName>
com filtro de linha ou máscara de coluna não é suportado.
PERMISSÃO_NEGADA
SQLSTATE: nenhum atribuído
O usuário não tem <msg>
em <resourceType>
'<resourceName>
'.
REDASH_DELETE_ASSET_HANDLER_INVALID_INPUT
SQLSTATE: nenhum atribuído
Não é possível analisar a solicitação de exclusão de objeto: <invalidInputMsg>
REDASH_DELETE_OBJECT_NO_IN_TRASH
SQLSTATE: nenhum atribuído
Não é possível excluir o objeto <resourceName>
que não está na lixeira
REDASH_PERMISSÃO_NEGADA
SQLSTATE: nenhum atribuído
Não foi possível encontrar ou ter permissão para acessar o recurso <resourceId>
CONSULTA_DASH_NÃO_ENCONTRADA
SQLSTATE: nenhum atribuído
Não foi possível localizar o recurso a partir do ID da consulta <queryId>
REDASH_QUERY_SNIPPET_CREATION_FAILED
SQLSTATE: nenhum atribuído
Não é possível criar um novo trecho de consulta
REDASH_QUERY_SNIPPET_QUOTA_EXCEEDED
SQLSTATE: nenhum atribuído
A cota para o número de trechos de consulta foi atingida. A cota atual é <quota>
.
REDASH_QUERY_SNIPPET_TRIGGER_JÁ ESTÁ EM USO
SQLSTATE: nenhum atribuído
O acionador especificado <trigger>
já está sendo usado por outro snippet de consulta neste workspace.
recurso
SQLSTATE: nenhum atribuído
O recurso solicitado <resourceName>
não existe
REDASH_RESTORE_ASSET_HANDLER_INVALID_INPUT
SQLSTATE: nenhum atribuído
Não é possível analisar a solicitação de exclusão de objeto: <invalidInputMsg>
REDASH_RESTORE_OBJECT_NO_IN_TRASH
SQLSTATE: nenhum atribuído
Não é possível restaurar o objeto <resourceName>
que não está na lixeira
REDASH_TRASH_OBJECT_JA_READY_IN_TRASH
SQLSTATE: nenhum atribuído
Não é possível descartar objetos já destruídos <resourceName>
REDASH_INCAPAZ DE GERAR O NOME DO RECURSO
SQLSTATE: nenhum atribuído
Não foi possível gerar o nome do recurso a partir do id <id>
REDASH_VISUALIZATION_CREATION_FAILED
SQLSTATE: nenhum atribuído
Não é possível criar uma nova visualização
REDASH_VISUALIZAÇÃO_NÃO_ENCONTRADA
SQLSTATE: nenhum atribuído
Não foi possível encontrar a visualização <visualizationId>
REDASH_VISUALIZATION_QUOTA_EXCEDED
SQLSTATE: nenhum atribuído
A cota para o número de visualizações na consulta<query_id> foi atingida. A cota atual é <quota>
.
URL_NOT_FOUND DO REPOSITÓRIO_DE_REPOSITÓRIO
SQLSTATE: nenhum atribuído
Repositório remoto (<repoUrl>
) não encontrado.
Seu provedor de credenciais Git atual é <gitCredentialProvider>
e o nome de usuário é <gitCredentialUsername>
.
Consulte o provedor remoto do Git para garantir isso:
- Seu URL do repositório Git remoto é válido.
- Seu token de acesso pessoal ou senha de aplicativo tem o acesso de repositório correto.
recurso
SQLSTATE: nenhum atribuído
<resourceType>
'<resourceIdentifier>
' já existe
recurso
SQLSTATE: nenhum atribuído
<resourceType>
'<resourceIdentifier>
' não existe.
ROW_COLUMN_ACCESS_POLICIES_NOT_SUPPORTED_ON_ASSIGNED_CLUSTERS
SQLSTATE: nenhum atribuído
A consulta na tabela <tableFullName>
com filtro de linha ou máscara de coluna não é compatível com o clustering atribuído.
ROW_COLUMN_SECURITY_NO_SUPORTED_WITH_TABLE_IN_DELTA_SHARING
SQLSTATE: nenhum atribuído
A tabela <tableFullName>
está sendo compartilhada com o Delta Sharing e não pode usar a segurança de linha/coluna.
serviço
SQLSTATE: nenhum atribuído
O serviço <serviceName>
está temporariamente em manutenção. Tente novamente mais tarde.
TABELA_COM_ROW_COLUMN_SECURITY_NOT_SUPPORTED_IN_ONLINE_MODE
SQLSTATE: nenhum atribuído
A tabela <tableFullName>
não pode ter segurança de linha/coluna e visualização materializada on-line.
MUITAS LINHAS PARA ATUALIZAR
SQLSTATE: nenhum atribuído
Muitas linhas para atualizar, abortando a atualização.