LakeflowジョブでJARを使用する
Java アーカイブまたはJARファイル形式は、一般的な ZIP ファイル形式に基づいており、多数の Java または Scala ファイルを 1 つに集約するために使用されます。JARタスクを使用すると、 LakeFlowジョブにJavaまたはScalaコードを高速かつ確実にインストールできます。 このページでは、JAR にパッケージ化された Scala アプリケーションを実行するジョブを作成する方法について説明します。
要件
- コンピュート クラスターのDatabricks Runtimeと互換性のあるScala JAR 。 JARに渡されたジョブの問題のリストを出力する互換性のあるScala JARを作成するには、 JAR構築」を参照してください。
ステップ 1. JARをアップロードする
作成した JAR をワークスペース内のボリュームにアップロードします。Unity Catalogボリュームにファイルをアップロードする」を参照してください。
標準アクセスでコンピュートを使用している場合は、管理者にJARライブラリのMaven座標とパスをホワイトリストに追加してもらう必要があります。 標準アクセス モード (以前の共有アクセス モード) でのコンピュートに関する許可リスト ライブラリと init スクリプトを参照してください。
ステップ 2. JARを実行するジョブを作成する
-
ワークスペースで、サイドバーの
ジョブ & パイプライン をクリックします。
-
作成 をクリックし、 ジョブ をクリックします。
タスク タブは、空のタスクペインとともに表示されます。
LakeFlowジョブUI が オン の場合は、 JAR タイルをクリックして最初のタスクを構成します。 JAR タイルが使用できない場合は、「 別のタスク・タイプの追加 」をクリックして「 JAR」 を検索します。
-
オプションで、ジョブの名前 (デフォルトは
New Job <date-time>) をジョブ名に置き換えます。 -
タスク 名 に、タスクの名前を入力します (例:
JAR_example)。 -
必要に応じて、「 タイプ 」ドロップダウン・メニューから「 JAR 」を選択します。
-
メインクラス には、Jar のパッケージとクラスを入力します。「Databricks 互換 JAR を作成する」の例に従った場合は、
com.example.SparkJarと入力します。 -
コンピュート の場合は、互換性のあるクラスターを選択します。
-
依存ライブラリ の場合は、
追加 。
-
[依存ライブラリの追加] ダイアログで、 [ボリューム] を 選択した状態で、前のステップでJARアップロードした場所を Volumes File Path に入力するか、フィルターまたは参照してJARを見つけます。 選択してください。
-
[ 追加 ] をクリックします。
-
この例では、 パラメーター に
["Hello", "World!"]と入力します。 -
「 タスクを作成 」をクリックします。
ステップ 3: ジョブを実行し、ジョブ実行の詳細を表示します
をクリックしてワークフローを実行します。 実行の詳細 を表示するには、 トリガーされた実行 ポップアップで 実行の表示 をクリックするか、ジョブの実行ビューで実行の 開始時刻 列のリンクをクリックします。
実行が完了すると、タスクに渡された引数を含む出力が 出力 パネルに表示されます。
次のステップ
- JARタスクの詳細については、 「ジョブのJARタスク」を参照してください。
- 互換性のある JAR の作成の詳細については、 「Databricks 互換性のある JAR を作成する」を参照してください。
- ジョブの作成と実行の詳細については、Lakeflowジョブを参照してください。