Classe de erro CAST_INVALID_INPUT
O valor <expression>
do tipo <sourceType>
não pode ser convertido em <targetType>
porque está malformado.
Corrija o valor de acordo com a sintaxe ou altere seu tipo de destino.
Use try_cast
para tolerar entradas malformadas e, em vez disso, retornar NULL.
Se necessário, defina <ansiConfig>
como “false” para ignorar esse erro.
Parâmetros
- expressão : A expressão que precisa ser convertida para
targettype
- SourceType : O tipo de dados de
expression
. - targetType : O tipo de destino das operações de elenco.
- ANSIConfig : A configuração para alterar o modo ANSI.
Explicação
O expression
não pode ser transmitido para o targetType
devido a um dos seguintes motivos:
expression
é muito grande para o domínio do tipo. Por exemplo, o número1000
não pode ser convertido emTINYINT
porque esse domínio varia apenas de-128
a+127
.expression
contém caracteres que não fazem parte do tipo. Por exemplo,a
não pode ser convertido em nenhum tipo numérico.expression
está formatado de uma forma que as operações de elenco não conseguem analisar. Por exemplo,1.0
e1e1
não podem ser convertidos em nenhum tipo numérico integral.
O elenco pode não ter sido explicitamente especificado, mas pode ter sido injetado implicitamente pelo Databricks.
As informações de contexto fornecidas com esse erro isolam o objeto e a expressão em que o erro ocorreu.
Para obter uma definição do domínio e dos formatos literais aceitos, consulte a definição do tipo de dados tyopeName
.
Mitigação
A mitigação desse erro depende da causa:
-
Espera-se que o
value
esteja em conformidade com o domínio e o formato dotypeName
especificado?Verifique o valor de produção de entrada e corrija a fonte de dados.
-
O alvo do elenco é muito estreito?
Amplie o tipo movendo, por exemplo, de
DATE
paraTIMESTAMP
,INT
paraBIGINT
ouDOUBLE
. -
O formato de
value
está incorreto?Considere usar:
Essas funções permitem uma grande variedade de formatos que você pode especificar.
Ao converter literais numéricos com pontos decimais (por exemplo.
1.0
ou notação científica (por exemplo.1e0
) considere a conversão dupla primeiro paraDECIMAL
ouDOUBLE
e depois para o numérico exato. -
Dados com valores incorretos são esperados e devem ser tolerados produzindo NULLs?
Altere a expressão use ou injete try_cast (valor AS typeName). Essa função retorna
NULL
quando é passada sem umvalue
que satisfaça o tipo.Se você não conseguir alterar a expressão, como último recurso, poderá desativar temporariamente o modo ANSI usando
ansiConfig
.
Exemplos
-- A view with a cast and string literals outside the domain of the target type
> CREATE OR REPLACE TEMPORARY VIEW v(c1) AS SELECT CAST(a AS SMALLINT) FROM VALUES('100'), ('50000') AS t(a);
> SELECT c1 FROM v;
[CAST_INVALID_INPUT] The value '50000' of the type "STRING" cannot be cast to "SMALLINT" because it is malformed.
Correct the value as per the syntax, or change its target type. Use `try_cast` to tolerate malformed input and return NULL instead.
If necessary set "spark.sql.ansi.enabled" to "false" to bypass this error.
== SQL of VIEW v(line 1, position 8) ==
SELECT CAST(a AS SMALLINT) FROM VALUES('100'), ('50000') A...
^^^^^^^^^^^^^^^^^^^
-- Widen the target type to match the domain of the input
> CREATE OR REPLACE TEMPORARY VIEW v(c1) AS SELECT cast(a AS INTEGER) FROM VALUES('100'), ('50000') AS t(a);
> SELECT c1 FROM v;
100
50000
-- The input data format does not match the target type
> SELECT cast(a AS INTEGER) FROM VALUES('1.0'), ('1e0') AS t(a);
[CAST_INVALID_INPUT] The value '1.0' of the type "STRING" cannot be cast to "INT" because it is malformed.
Correct the value as per the syntax, or change its target type. Use `try_cast` to tolerate malformed input and return NULL instead.
If necessary set "spark.sql.ansi.enabled" to "false" to bypass this error.
== SQL(line 1, position 8) ==
SELECT cast(a AS INTEGER) FROM VALUES('1.0'), ('1e0') AS ...
^^^^^^^^^^^^^^^^^^
-- Adjust the target type to the match the format if the format is indicative of the domain.
> SELECT cast(a AS DOUBLE) FROM VALUES('1.0'), ('1e0') AS t(a);
1.0
1.0
-- ALternatively double cast to preserver the target type
> SELECT cast(cast(a AS DOUBLE) AS INTEGER) FROM VALUES('1.0'), ('1e0') AS t(a);
1
1
-- The format of the numeric input contains display artifacts
> SELECT cast(a AS DECIMAL(10, 3)) FROM VALUES('12,345.30-'), ('12+') AS t(a);
[CAST_INVALID_INPUT] The value '12,345.30-' of the type "STRING" cannot be cast to "DECIMAL(10,3)" because it is malformed.
Correct the value as per the syntax, or change its target type. Use `try_cast` to tolerate malformed input and return NULL instead.
If necessary set "spark.sql.ansi.enabled" to "false" to bypass this error.
== SQL(line 1, position 8) ==
SELECT cast(a AS DECIMAL(10, 3)) FROM VALUES('$<123,45.30>'), ('...
^^^^^^^^^^^^^^^^^^^^^^^^^
-- Use to_number() to parse formatted values
> SELECT to_number(a, '9,999,999.999S') FROM VALUES('123,45.30-'), ('12+') AS t(a);
-12345.300
1.000
-- The format of a date input does not match the default format
> SELECT cast(geburtsdatum AS DATE) FROM VALUES('6.6.2000'), ('31.10.1970') AS t(geburtsdatum);
[CAST_INVALID_INPUT] The value '6.6.2000' of the type "STRING" cannot be cast to "DATE" because it is malformed.
Correct the value as per the syntax, or change its target type. Use `try_cast` to tolerate malformed input and return NULL instead.
If necessary set "spark.sql.ansi.enabled" to "false" to bypass this error.
== SQL(line 1, position 8) ==
SELECT cast(geburtsdatum AS DATE) FROM VALUES('6.6.2000'), ('31.1...
^^^^^^^^^^^^^^^^^^^^^^^^^^
-- Use to_date to parse the correct input format for a date
> SELECT to_date(geburtsdatum, 'dd.MM.yyyy') FROM VALUES('6.6.2000'), ('31.10.1970') AS t(geburtsdatum);
2000-06-06
1970-10-31
-- The type resolution of Databricks did not derive a sufficiently wide type, failing an implicit cast
> SELECT 12 * monthly AS yearly FROM VALUES ('1200'), ('1520.56') AS t(monthly);
[CAST_INVALID_INPUT] The value '1520.56' of the type "STRING" cannot be cast to "BIGINT" because it is malformed.
Correct the value as per the syntax, or change its target type. Use `try_cast` to tolerate malformed input and return NULL instead.
If necessary set "spark.sql.ansi.enabled" to "false" to bypass this error.
== SQL(line 1, position 8) ==
SELECT 12 * monthly AS yearly FROM VALUES ('1200'),...
^^^^^^^^^^^^
-- Explicitly declare the expected type
> SELECT 12 * cast(monthly AS DECIMAL(8, 2)) AS yearly FROM VALUES ('1200'), ('1520.56') AS t(monthly);
1.00
1.72
-- The input data is occasionally expected to incorrect
> SELECT cast(salary AS DECIMAL(9, 2)) FROM VALUES('30000'), ('prefer not to say') AS t(salary);
[CAST_INVALID_INPUT] The value 'prefer not to say' of the type "STRING" cannot be cast to "DECIMAL(9,2)" because it is malformed.
Correct the value as per the syntax, or change its target type. Use `try_cast` to tolerate malformed input and return NULL instead.
If necessary set "spark.sql.ansi.enabled" to "false" to bypass this error.
== SQL(line 1, position 8) ==
SELECT cast(salary AS DECIMAL(9, 2)) FROM VALUES('30000'), ('prefer ...
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
-- Use try_cast to tolerate incorrect input
> SELECT try_cast(salary AS DECIMAL(9, 2)) FROM VALUES('30000'), ('prefer not to say') AS t(salary);
1.00
NULL
-- In Databricks SQL temporarily disable ANSI mode to tolerate incorrect input.
> SET ANSI_MODE = false;
> SELECT cast(salary AS DECIMAL(9, 2)) FROM VALUES('30000'), ('prefer not to say') AS t(salary);
1.00
NULL
> SET ANSI_MODE = true;
-- In Databricks Runtime temporarily disable ANSI mode to tolerate incorrect input.
> SET spark.sql.ansi.enabled = false;
> SELECT cast(salary AS DECIMAL(9, 2)) FROM VALUES('30000'), ('prefer not to say') AS t(salary);
1.00
NULL
> SET spark.sql.ansi.enabled = true;