Catálogo
API de catálogo voltada para o usuário, acessível através de SparkSession.catalog. Este é um wrapper simples em torno de sua implementação em Scala org.apache.spark.sql.catalog.Catalog.
Sintaxe
# Access through SparkSession
spark.catalog
Métodos
Método | Descrição |
|---|---|
Retorna o catálogo default atual nesta sessão. | |
Define o catálogo default atual nesta sessão. | |
Retorna uma lista dos catálogos desta sessão. | |
Retorna o banco de dados default atual nesta sessão. | |
Define o banco de dados default atual nesta sessão. | |
Retorna uma lista dos bancos de dados disponíveis em todas as sessões. | |
Obtém o banco de dados com o nome especificado. Lança uma exceção AnalysisException quando o banco de dados não é encontrado. | |
Verifica se o banco de dados com o nome especificado existe. | |
Retorna uma lista de tabelas e visualizações no banco de dados especificado. Inclui todas as visualizações temporárias. | |
Obtém a tabela ou view com o nome especificado. Lança uma exceção AnalysisException quando nenhuma tabela é encontrada. | |
Verifica se a tabela ou view com o nome especificado existe. | |
Retorna uma lista de colunas para a tabela ou view especificada no banco de dados indicado. | |
Retorna uma lista de funções registradas no banco de dados especificado. Inclui todas as funções temporárias. | |
Verifica se a função com o nome especificado existe. Inclui funções temporárias. | |
Obtém a função com o nome especificado. Lança uma exceção AnalysisException quando a função não é encontrada. | |
| Cria uma tabela com base no dataset em uma fonte de dados e retorna o DataFrame associado. |
Remove a view temporária local com o nome fornecido. Também remove a view do cache, caso ela estivesse armazenada em cache. | |
Remove a view temporária global com o nome fornecido. Também remove a view do cache, caso ela estivesse armazenada em cache. | |
Retorna verdadeiro se a tabela estiver atualmente armazenada em cache na memória. | |
Armazena em cache a tabela especificada na memória ou no nível de armazenamento fornecido. Por padrão, use MEMORY_AND_DISK. | |
Remove a tabela especificada do cache em memória. | |
Remove todas as tabelas armazenadas em cache da memória. | |
Invalida e atualiza todos os dados em cache e metadados da tabela especificada. | |
Recupera todas as partições da tabela especificada e atualiza o catálogo. Funciona apenas com tabelas particionadas. | |
Invalida e atualiza todos os dados em cache e metadados para qualquer DataFrame que contenha o caminho da fonte de dados fornecido. |
Exemplos
spark.catalog.currentDatabase()
'default'
spark.catalog.listDatabases()
[Database(name='default', catalog='spark_catalog', description='default database', ...)]
_ = spark.sql("CREATE TABLE tbl1 (name STRING, age INT) USING parquet")
spark.catalog.tableExists("tbl1")
True
spark.catalog.cacheTable("tbl1")
spark.catalog.isCached("tbl1")
True
spark.catalog.uncacheTable("tbl1")
spark.catalog.isCached("tbl1")
False