Visual Studio Code 用の Databricks 拡張機能のコマンド パレット コマンド

この記事では、Visual Studio Code の Databricks 拡張機能のコマンド パレット コマンド の一覧を示します。 「Visual Studio Code の Databricks 拡張機能とは」を参照してください。

コマンド・リファレンス

Visual Studio Code の Databricks 拡張機能は、Visual Studio Code コマンド パレットに次のコマンドを追加します。 Visual Studio Code ドキュメントの 「コマンド パレット 」も参照してください。

コマンド

説明

Databricks: Change Python environment

Python 仮想環境を変更する

Databricks: Configure autocomplete for Databricks globals

Visual Studio Code コード エディターで、 PySpark、 Databricks ユーティリティ、および関連するグローバル (sparkdbutils など) の IntelliSense を有効にします。 この機能の詳細については、「PySpark ユーティリティのコード補完とDatabricks」を参照してください。

Databricks: Configure cluster

フォーカスをコマンド パレットに移動して、現在のプロジェクトに使用する Databricks クラスターを作成、選択、または変更します。

コードとジョブを実行するためのクラスターの選択」を参照してください。

Databricks: Debug current file with Databricks Connect

Databricks Connect を使用して現在のファイルをデバッグします。

Databricks: Deploy bundle

バンドルを Databricks ワークスペースにデプロイします。

Databricks: Destroy bundle

バンドルを破壊します。

Databricks: Detach cluster

現在のプロジェクトから Databricks クラスターへの参照を削除します。

Databricks: Focus on Bundle Resource Explorer View

[Databricks] パネルのフォーカスを [バンドル リソース エクスプローラー] ビューに移動します。

バンドル・リソース・エクスプローラーを参照してください。

Databricks: Focus on Bundle Variables View

Databricksパネルのフォーカスをバンドル変数ビューに移動します。

「バンドル変数ビュー」を参照してください。

Databricks: Focus on Configuration View

Databricks パネルのフォーカスを [構成] ビューに移動します。

Databricks: Force deploy bundle

警告を無視し、バンドルを Databricks ワークスペースに強制的にデプロイします。

Databricks: Force destroy bundle

警告を無視して、バンドルを強制的に破棄します。

Databricks: Initialize new project

Visual Studio Code で新しい Databricks プロジェクトの作成ワークフローを初期化します。

Databricks: Logout

[Databricks] パネルをリセットして、[構成] ビューに [Configure Databricks] ボタンと [Show Quickstart] ボタンを表示します。現在のプロジェクトの .databricks/project.json ファイル内のすべてのコンテンツもリセットされます。

Databricks: Open Databricks configuration file

現在のプロジェクトの Databricks 構成プロファイル ファイルをデフォルトの場所から開きます。

「Visual Studio Code の Databricks 拡張機能を使用して Databricks プロジェクトを構成する」を参照してください。

Databricks: Open full logs

Visual Studio Code の Databricks 拡張機能が開発用コンピューターに書き込むアプリケーション ログ ファイルを含むフォルダーを開きます。

Databricks: Override bundle variables

バンドル変数をオーバーライドします。

Databricks: Refresh python environment status

Databricks パネルの Python 環境ビューを更新します。

Databricks: Refresh remote state

ターゲットのバンドル設定を更新します。

Databricks: Reinstall Databricks Connect

Databricks Connect を再インストールします。 Visual Studio Code の Databricks 拡張機能については、「Databricks Connect を使用したコードのデバッグ」を参照してください。

Databricks: Reset bundle variables to default values

バンドル変数の値をリセットします。

Databricks: Run current file with Databricks Connect

Databricks Connect を使用して現在のファイルを実行します。 Visual Studio Code の Databricks 拡張機能については、「Databricks Connect を使用したコードのデバッグ」を参照してください。

Databricks: Select a Databricks Asset Bundle target

Databricks アセット バンドル ターゲットを選択します。 「ターゲット・デプロイメント・ワークスペースの変更」を参照してください。

Databricks: Show bundle logs

バンドル・ログを表示します。 「Databricks ログ出力の表示」を参照してください。

Databricks: Show Quickstart

エディターにクイックスタート ファイルを表示します。

Databricks: Sign in to Databricks workspace

ワークスペースにサインインします。

Databricks: Start Cluster

クラスターが既に停止している場合は、クラスターを開始します。

Databricks: Start synchronization

現在のプロジェクトのコードの Databricks ワークスペースへの同期を開始します。

このコマンドは、インクリメンタル同期を実行します。

Databricks: Start synchronization (full sync)

現在のプロジェクトのコードの Databricks ワークスペースへの同期を開始します。

このコマンドは、インクリメンタル同期が可能な場合でも、完全同期を実行します。

Databricks: Stop Cluster

クラスターが既に実行されている場合は停止します。

Databricks: Stop synchronization

現在のプロジェクトのコードを Databricks ワークスペースに同期しないようにします。

Databricks: Verify Databricks notebook init scripts

ノートブック initスクリプト Databricks ことを確認します。

PySpark and Databricks ユーティリティのコード補完

この記事では、Visual Studio Code PySparkDatabricksの 拡張機能の と ユーティリティのコード補完を有効にする方法について説明します。Databricks「Visual Studio Code の Databricks 拡張機能とは」を参照してください。

この情報は、Visual Studio Code の Databricks 拡張機能を既にインストールして設定していることを前提としています。 「Visual Studio Code の Databricks 拡張機能のインストール」を参照してください。

Visual Studio Code コード エディターで PySparkDatabricks ユーティリティ 、および関連するグローバル ( や など) で IntelliSense ( コード補完 とも呼ばれます)spark dbutilsを有効にするには、プロジェクトを開いた状態で次の操作を行います。

  1. コマンド パレット ([表示] > [コマンド パレット]) で、「 >Databricks: Configure autocomplete for Databricks globals 」と入力して Enter キーを押します。

  2. 画面の指示に従って、Visual Studio Code の Databricks 拡張機能でプロジェクトに PySpark をインストールできるようにし、プロジェクトの __builtins__.pyi ファイルを追加または変更して Databricks ユーティリティを有効にします。

これで、 sparkdbutils などのグローバルを、関連する import ステートメントを事前に宣言せずにコードで使用できるようになりました。