Pular para o conteúdo principal

make_timestamp_ltz

Crie o registro de data e hora atual com o fuso horário local a partir dos campos de anos, meses, dias, horas, minutos, segundos e fuso horário. Se a configuração spark.sql.ansi.enabled for falsa, a função retorna NULL em entradas inválidas. Caso contrário, será gerado um erro.

Sintaxe

Python
from pyspark.databricks.sql import functions as dbf

dbf.make_timestamp_ltz(years=<years>, months=<months>, days=<days>, hours=<hours>, mins=<mins>, secs=<secs>, timezone=<timezone>)

Parâmetros

Parâmetro

Tipo

Descrição

years

pyspark.sql.Column ou str

O ano a representar, de 1 a 9999

months

pyspark.sql.Column ou str

O mês do ano a ser representado, de 1 (janeiro) a 12 (dezembro).

days

pyspark.sql.Column ou str

O dia do mês a ser representado, de 1 a 31.

hours

pyspark.sql.Column ou str

A hora do dia a ser representada, de 0 a 23.

mins

pyspark.sql.Column ou str

O minuto da hora a ser representado, de 0 a 59.

secs

pyspark.sql.Column ou str

O segundo de minuto e sua microfração representam, de 0 a 60. O valor pode ser um número inteiro, como 13, ou uma fração, como 13,123. Se o argumento "sec" for igual a 60, o campo de segundos será definido como 0 e 1 minuto será adicionado ao carimbo de data/hora final.

timezone

pyspark.sql.Column ou str, optional

O identificador de fuso horário. Por exemplo, CET, UTC, etc.

Devoluções

pyspark.sql.ColumnUma nova coluna que contém um registro de data e hora atual.

Exemplos

Python
spark.conf.set("spark.sql.session.timeZone", "America/Los_Angeles")
Python
from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([[2014, 12, 28, 6, 30, 45.887, 'CET']],
['year', 'month', 'day', 'hour', 'min', 'sec', 'tz'])
df.select(
dbf.make_timestamp_ltz(df.year, df.month, 'day', df.hour, df.min, df.sec, 'tz')
).show(truncate=False)
df = spark.createDataFrame([[2014, 12, 28, 6, 30, 45.887, 'CET']],
['year', 'month', 'day', 'hour', 'min', 'sec', 'tz'])
df.select(
dbf.make_timestamp_ltz(df.year, df.month, 'day', df.hour, df.min, df.sec)
).show(truncate=False)
spark.conf.unset("spark.sql.session.timeZone")