Visão geral das integrações da Databricks
Os artigos listados aqui fornecem informações sobre como se conectar à grande variedade de fontes de dados, ferramentas BI e ferramentas de desenvolvedor que o senhor pode usar com o Databricks. Muitos deles estão disponíveis por meio de nosso sistema de parceiros.
fonte de dados
O Databricks pode ler e gravar dados em uma variedade de formatos de dados, como CSV, Delta Lake, JSON, Parquet, XML e outros formatos, bem como em provedores de armazenamento de dados, como Amazon S3, Google BigQuery e Cloud Storage, Snowflake e outros provedores.
Para obter uma lista abrangente, com instruções de conexão, consulte Conectar à fonte de dados e Opções de formato de dados.
Ferramentas de BI
O Databricks possui integrações validadas com suas ferramentas de BI favoritas, incluindo Power BI, Tableau e outras, permitindo que você trabalhe com dados por meio de clusters Databricks e SQL warehouses, em muitos casos com experiências de low-code e no-code.
Para obter uma lista abrangente, com instruções de conexão, consulte BI e visualização.
Outras ferramentas de ETL
Além do acesso a todos os tipos de fontes de dados, o site Databricks oferece integrações com ferramentas ETL/ELT como dbt, Prophecy e Azure Data Factory, bem como ferramentas de orquestração de dados pipeline como Airflow e SQL ferramentas de banco de dados como DataGrip, DBeaver e SQL Workbench/J.
Para obter instruções de conexão, consulte:
- ETL Ferramentas : Preparação de dados e transformações
- Airflow : Orquestrar Databricks Job com Apache Airflow
- SQL ferramentas de banco de dados : SQL conectores, biblioteca, drivers, APIs e ferramentas.
IDEs e outras ferramentas de desenvolvimento
Databricks é compatível com ferramentas de desenvolvimento, como DataGrip, IntelliJ, PyCharm, Visual Studio Code e outras, que permitem que o senhor acesse programaticamente Databricks compute.
Para obter uma lista abrangente de ferramentas que dão suporte aos desenvolvedores, consulte Develop on Databricks.
Git
Databricks Git As pastas oferecem integração em nível de repositório com seus provedores Git favoritos, para que o senhor possa desenvolver código em um notebook Databricks e sincronizá-lo com um repositório Git remoto. Consulte Integração do Git para pastas Git do Databricks.