Visão geral das integrações da Databricks
Os artigos listados nesta seção oferecem informações sobre como estabelecer conexões com a vasta gama de fontes de dados, ferramentas de BI e de desenvolvimento compatíveis com o Databricks. Muitos deles estão disponíveis em nosso sistema de parceiros e no nosso hub Partner Connect.
Partner Connect
O Partner Connect é uma interface de usuário que permite que soluções validadas se integrem de forma mais rápida e fácil com seus clusters Databricks e SQL warehouses.
Para obter mais informações, consulte O que é Databricks Partner Connect?
fonte de dados
O Databricks pode ler e gravar dados em uma variedade de formatos de dados, como CSV, Delta Lake, JSON, Parquet, XML e outros formatos, bem como em provedores de armazenamento de dados, como Amazon S3, Google BigQuery e Cloud Storage, Snowflake e outros provedores.
Consulte ingestão de dados, Conectar à fonte de dados e Opções de formato de dados.
Ferramentas de BI
O Databricks possui integrações validadas com suas ferramentas de BI favoritas, incluindo Power BI, Tableau e outras, permitindo que você trabalhe com dados por meio de clusters Databricks e SQL warehouses, em muitos casos com experiências de low-code e no-code.
Para obter uma lista abrangente, com instruções de conexão, consulte BI e visualização.
Outras ferramentas de ETL
Além do acesso a todos os tipos de fontes de dados, o site Databricks oferece integrações com ferramentas ETL/ELT como dbt, Prophecy e Azure Data Factory, bem como ferramentas de orquestração de dados pipeline como Airflow e SQL ferramentas de banco de dados como DataGrip, DBeaver e SQL Workbench/J.
Para obter instruções de conexão, consulte:
- ETL Ferramentas : Preparação de dados e transformações
- Airflow : Orquestrar Databricks Job com Apache Airflow
- SQL ferramentas de banco de dados : SQL conectores, biblioteca, drivers, APIs e ferramentas.
IDEs e outras ferramentas de desenvolvimento
Databricks é compatível com ferramentas de desenvolvedor, como DataGrip, IntelliJ, PyCharm, Visual Studio Code e outras, que permitem que o senhor acesse programaticamente Databricks computeincluindo o armazémSQL.
Para obter uma lista abrangente de ferramentas que dão suporte aos desenvolvedores, consulte Develop on Databricks.
Git
Databricks Git As pastas oferecem integração em nível de repositório com seus provedores Git favoritos, para que o senhor possa desenvolver código em um notebook Databricks e sincronizá-lo com um repositório Git remoto. Consulte Integração do Git para pastas Git do Databricks.