Pular para o conteúdo principal

Consultar o PostgreSQL com o Databricks

Este exemplo consulta o PostgreSQL usando seu driver JDBC. Para obter mais detalhes sobre leitura, gravação, configuração de paralelismo e pushdown de consulta, consulte Consulta a bancos de dados usando JDBC.

info

Experimental

A documentação antiga da federação de consultas foi retirada e pode não ser atualizada. As configurações mencionadas neste conteúdo não são oficialmente endossadas ou testadas pela Databricks. Se a Lakehouse Federation for compatível com seu banco de dados de origem, o site Databricks recomenda que o senhor a utilize.

Usando JDBC

Python
driver = "org.postgresql.Driver"

database_host = "<database-host-url>"
database_port = "5432" # update if you use a non-default port
database_name = "<database-name>"
table = "<table-name>"
user = "<username>"
password = "<password>"

url = f"jdbc:postgresql://{database_host}:{database_port}/{database_name}"

remote_table = (spark.read
.format("jdbc")
.option("driver", driver)
.option("url", url)
.option("dbtable", table)
.option("user", user)
.option("password", password)
.load()
)

Usando o conector PostgreSQL no Databricks Runtime

Em Databricks Runtime 11.3 LTS e acima, o senhor pode usar o conector nomeado para consultar o PosgresQL. Veja os exemplos a seguir:

Python
remote_table = (spark.read
.format("postgresql")
.option("dbtable", "schema_name.table_name") # if schema_name not provided, default to "public".
.option("host", "database_hostname")
.option("port", "5432") # Optional - will use default port 5432 if not specified.
.option("database", "database_name")
.option("user", "username")
.option("password", "password")
.load()
)