Limitações do Databricks Connect for Python
Este artigo abrange o Databricks Connect para Databricks Runtime 13.3 LTS e acima.
Este artigo lista as limitações com Databricks Connect para Python. Databricks Connect permite que o senhor conecte os populares IDEs, servidores de notebook e aplicativos personalizados ao clustering Databricks. Consulte O que é o Databricks Connect? Para obter a versão Scala deste artigo, consulte Limitações com Databricks Connect para Scala.
Dependendo da versão de Python, Databricks Runtime e Databricks Connect que o senhor estiver usando, pode haver requisitos de versão para alguns recursos. Consulte os requisitos de uso do Databricks Connect.
disponibilidade de recurso
Não disponível no Databricks Connect para o Databricks Runtime 13.3 LTS e abaixo:
- transmissão
foreachBatch - Criação de DataFrames maiores que 128 MB
- Consultas longas de mais de 3600 segundos
Não disponível em Databricks Connect para Databricks Runtime 15.3 e versões anteriores:
ApplyinPandas()eCogroup()com compute com modo de acesso padrão
Não disponível em Databricks Connect para Databricks Runtime 16.3 e versões anteriores:
- Em serverless compute, os UDFs não podem incluir biblioteca personalizada.
Não disponível:
dataframe.display()API- Databricks utilidades:
credentials,library,notebook workflow,widgets - Contexto do Spark
- RDDs
- biblioteca que usa RDDs, Spark Context, ou que acessa o conteúdo subjacente Spark JVM, como o Mosaic geoespacial, GraphFrames, ou GreatExpectations
CREATE TABLE <table-name> AS SELECT(em vez disso, usespark.sql("SELECT ...").write.saveAsTable("table"))- Alterar o nível do log4j log por meio do
SparkContext - O treinamento de ML distribuído não é compatível.
- Sincronização do ambiente de desenvolvimento local com o clustering remoto