メインコンテンツまでスキップ

Databricks Connect for Python への移行

この記事では、Databricks Connect for Databricks Runtime 12.2 LTS 以下から Databricks Connect for Databricks Runtime 13.3 LTS 以降 for Python に移行する方法について説明します。 Databricks Connect を使用すると、一般的な IDEs、ノートブック サーバー、およびカスタム アプリケーションを Databricks クラスターに接続できます。 「Databricks Connect とは」を参照してください。この記事の Scala バージョンについては、「 Databricks Connect for Scala への移行」を参照してください。

注記

Databricks Connect の使用を開始する前に、 Databricks Connect クライアントを設定する必要があります

次のガイドラインに従って、既存の Python コード プロジェクトまたはコーディング環境を Databricks Connect for Databricks Runtime 12.2 LTS 以下から Databricks Connect for Databricks Runtime 13.3 LTS 以降に移行します。

  1. インストール要件 に記載されている正しいバージョンのPythonDatabricks を、 クラスターに合わせてインストールします (まだローカルにインストールされていない場合)。

  2. 必要に応じて、クラスターに一致する正しいバージョンの PythonWindows を使用するように、Python仮想環境をアップグレードします。手順については、仮想環境プロバイダーのドキュメントを参照してください。

  3. 仮想環境をアクティブ化した状態で、仮想環境から PySpark をアンインストールします。

    Bash
    pip3 uninstall pyspark
  4. 仮想環境をアクティブ化したまま、Databricks Connect for Databricks Runtime 12.2 LTS 以下をアンインストールします。

    Bash
    pip3 uninstall databricks-connect
  5. 仮想環境をアクティブ化したまま、Databricks Connect for Databricks Runtime 13.3 LTS 以降をインストールします。

    Bash
    pip3 install --upgrade "databricks-connect==14.0.*"  # Or X.Y.* to match your cluster version.
注記

Databricks では、最新のパッケージがインストールされていることを確認するために、databricks-connect=X.Yではなく databricks-connect==X.Y.* を指定するために "ドット アスタリスク" 表記を追加することをお勧めします。これは必須ではありませんが、そのクラスターでサポートされている最新の機能を確実に使用できるようにするのに役立ちます。

  1. Python コードを更新して、spark 変数 (PySpark の SparkSession と同様に、DatabricksSession クラスのインスタンス化を表す) を初期化します。については、コンピュートの設定Databricks Connect を参照してください。

  2. RDD APIsを DataFrame APIsを使用するように移行し、SparkContextを代替手段を使用するように移行します。

Hadoop 構成の設定

クライアントでは、SQL および DataFrame 操作に適用される spark.conf.set API を使用して Hadoop 構成を設定できます。 sparkContextに設定するHadoop設定は、クラスター設定で設定するか、ノートブックを使用して設定する必要があります。これは、 sparkContext に設定された構成がユーザー セッションに関連付けられず、クラスター全体に適用されるためです。