make_dt_interval
Defina a duração do DayTimeIntervalType em dias, horas, minutos e segundos.
Para a função Databricks SQL correspondente, consulte a funçãomake_dt_interval.
Sintaxe
Python
from pyspark.databricks.sql import functions as dbf
dbf.make_dt_interval(days=<days>, hours=<hours>, mins=<mins>, secs=<secs>)
Parâmetros
Parâmetro | Tipo | Descrição |
|---|---|---|
|
| O número de dias, positivo ou negativo. |
|
| O número de horas, positivo ou negativo. |
|
| O número de minutos, positivo ou negativo. |
|
| O número de segundos com a parte fracionária em precisão de microssegundos. |
Devoluções
pyspark.sql.ColumnUma nova coluna que contém a duração do tipo DayTimeIntervalType.
Exemplos
Python
from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([[1, 12, 30, 01.001001]], ['day', 'hour', 'min', 'sec'])
df.select('*', dbf.make_dt_interval(df.day, df.hour, df.min, df.sec)).show(truncate=False)
df = spark.createDataFrame([[1, 12, 30, 01.001001]], ['day', 'hour', 'min', 'sec'])
df.select('*', dbf.make_dt_interval(df.day, 'hour', df.min)).show(truncate=False)
df = spark.createDataFrame([[1, 12, 30, 01.001001]], ['day', 'hour', 'min', 'sec'])
df.select('*', dbf.make_dt_interval(df.day, df.hour)).show(truncate=False)
df = spark.createDataFrame([[1, 12, 30, 01.001001]], ['day', 'hour', 'min', 'sec'])
df.select('*', dbf.make_dt_interval('day')).show(truncate=False)
spark.range(1).select(dbf.make_dt_interval()).show(truncate=False)