メインコンテンツまでスキップ

LakeflowジョブでJARを使用する

Java アーカイブまたはJARファイル形式は、一般的な ZIP ファイル形式に基づいており、多数の Java または Scala ファイルを 1 つに集約するために使用されます。JARタスクを使用すると、 LakeFlowジョブにJavaまたはScalaコードを高速かつ確実にインストールできます。 このページでは、JAR にパッケージ化された Scala アプリケーションを実行するジョブを作成する方法について説明します。

要件

  • コンピュート クラスターのDatabricks Runtimeと互換性のあるScala JAR 。 JARに渡されたジョブの問題のリストを出力する互換性のあるScala JARを作成するには、 JAR構築」を参照してください。

ステップ 1. JARをアップロードする

作成した JAR をワークスペース内のボリュームにアップロードします。Unity Catalogボリュームにファイルをアップロードする」を参照してください。

標準アクセスでコンピュートを使用している場合は、管理者にJARライブラリのMaven座標とパスをホワイトリストに追加してもらう必要があります。 標準アクセス モード (以前の共有アクセス モード) でのコンピュートに関する許可リスト ライブラリと init スクリプトを参照してください。

ステップ 2. JARを実行するジョブを作成する

  1. ワークスペースで、サイドバーの ワークフローアイコン。 ジョブ & パイプライン をクリックします。

  2. 作成 をクリックし、 ジョブ をクリックします。

    タスク タブは、空のタスクペインとともに表示されます。

注記

LakeFlowジョブUIオン の場合は、 JAR タイルをクリックして最初のタスクを構成します。 JAR タイルが使用できない場合は、「 別のタスク・タイプの追加 」をクリックして「 JAR」 を検索します。

  1. オプションで、ジョブの名前 (デフォルトは New Job <date-time> ) をジョブ名に置き換えます。

  2. タスク に、タスクの名前を入力します (例: JAR_example)。

  3. 必要に応じて、「 タイプ 」ドロップダウン・メニューから「 JAR 」を選択します。

  4. メインクラス には、Jar のパッケージとクラスを入力します。「Databricks 互換 JAR を作成する」の例に従った場合は、 com.example.SparkJarと入力します。

  5. コンピュート の場合は、互換性のあるクラスターを選択します。

  6. 依存ライブラリ の場合は、プラスアイコン。 追加

  7. [依存ライブラリの追加] ダイアログで、 [ボリューム] を 選択した状態で、前のステップでJARアップロードした場所を Volumes File Path に入力するか、フィルターまたは参照してJARを見つけます。 選択してください。

  8. [ 追加 ] をクリックします。

  9. この例では、 パラメーター["Hello", "World!"]と入力します。

  10. タスクを作成 」をクリックします。

ステップ 3: ジョブを実行し、ジョブ実行の詳細を表示します

「今すぐ実行」ボタンをクリックしてワークフローを実行します。 実行の詳細 を表示するには、 トリガーされた実行 ポップアップで 実行の表示 をクリックするか、ジョブの実行ビューで実行の 開始時刻 列のリンクをクリックします。

実行が完了すると、タスクに渡された引数を含む出力が 出力 パネルに表示されます。

次のステップ