基盤モデル ファインチューニング

プレビュー

この機能はus-east-1us-west-2パブリックプレビュー段階です。

基盤モデル ファインチューニング (現在は Mosaic AI Model トレーニングの一部) を使用すると、独自のデータを使用して基盤モデルをカスタマイズし、特定のアプリケーションに合わせてパフォーマンスを最適化できます。 フル パラメーター ファインチューニング または CONTINUING トレーニング of a 基盤モデルを実施することで、モデルを一からトレーニングするよりも大幅に少ないデータ、時間、およびコンピュート リソースを使用して、独自のモデルをトレーニングする ことができます。

Databricksを使用すると、トレーニングに使用する独自のデータ、基盤モデルをトレーニングする、MLflowに保存されたチェックポイント、Unity Catalogに登録されすぐにデプロイできるモデルなど、すべてが1つのプラットフォームにまとめられます。

基盤モデル ファインチューニング を使用して実行を作成する方法については、「 チュートリアル: 基盤モデル ファインチューニング 実行の作成とデプロイAPI 」を参照し、Databricks UI とMosaic AI Model Serving を使用して結果を確認してモデルをデプロイします。

基盤モデル ファインチューニングとは?

基盤モデル ファインチューニング では、 Databricks API または UI を使用して、基盤モデルをチューニングしたり、さらにトレーニングしたりすることができます。

基盤モデル ファインチューニングを使用すると、次のことができます。

  • MLflowに保存されたチェックポイントを使用して、カスタムデータでモデルをトレーニングします。トレーニングされたモデルを完全にコントロールすることができます。

  • モデルを Unity Catalog に自動的に登録し、モデルサービングによる簡単なデプロイを可能にします。

  • 以前に訓練したモデルの加重をロードして、完成した独自のモデルをさらに訓練します。

Databricks 、次の場合は基盤モデル ファインチューニングを試すことをお勧めします。

  • 数回の試行で学習を試みて、より良い結果を得たいと考えています。

  • 既存のモデルでプロンプトエンジニアリングを試し、より良い結果を求めています。

  • データのプライバシーのためにカスタムモデルを完全に所有したい。

  • あなたはレイテンシーやコストに敏感で、タスク固有のデータには小さくて安価なモデルを使いたいと思っています。

サポートされているタスク

基盤モデル ファインチューニングは、以下のユースケースをサポートします。

  • チャット完了:推奨タスク。ユーザーとAIアシスタントとのチャットログを使用してモデルをトレーニングします。このフォーマットは実際のチャットログ用途と、質問への回答や会話テキストの標準フォーマットとしての用途の両方に使用できます。テキストは自動的に特定のモデルに適したフォーマットにフォーマットされます。テンプレートの詳細については、HuggingFaceドキュメントの「チャットテンプレートの例」を参照してください。

  • 教師ありの微調整:構造化されたプロンプトとレスポンスデータに基づきモデルをトレーニングします。この機能を使用して、モデルを新しいタスクに適応させたり、応答スタイルを変更したり、指示に従う機能を追加することができます。このタスクはデータに自動的にフォーマットを適用しないので、カスタムデータフォーマットが必要な場合にのみお勧めします。

  • 継続的な事前トレーニング:追加のテキストデータでモデルをトレーニングするしてください。これを使用して、モデルに新しい知識を追加したり、モデルを特定のドメインに集中させたりします。

要件

  • Databricksワークスペースが以下のAWSリージョンのいずれかにある: us-east-1us-west-2

  • 基盤モデル ファインチューニング APIs pip install databricks_genaiを使用してインストールします。

  • ワークスペースはS3アクセスポリシーを使用してはいけません。

  • データがDelta テーブルにある場合は、Databricks Runtime 12.2 LTS ML以降。

必要な入力データ形式については、 基盤モデル ファインチューニングのためのデータの準備 を参照してください。

サポートされるモデル

次の表に、サポートされているモデルを示します。 サポートされている最新のモデルとそれに関連するコンテキストの長さについては、 get_models() 関数を使用します。


from databricks.model_training import foundation_model

foundation_model.get_models()

重要

Meta Llama 3.2 は、 LLAMA 3.2 コミュニティ ライセンス、Copyright © Meta Platforms, Inc. の下でライセンスされています。 全著作権所有。 お客様は、本ライセンスおよび Llama 3.2 Acceptable Use ポリシーの条項に対するコンプライアンスを確保する責任があります。

Meta Llama 3.1 は、LLAMA 3.1 コミュニティ ライセンス、著作権 © Meta Platforms, Inc. に基づいてライセンスされています。 全著作権所有。 顧客は、該当するモデル ライセンスによるコンプライアンスを確保する責任があります。

Llama 3はLLAMA 3 Community License, Copyright© Meta Platforms, Inc.の下でライセンスされています。すべての権利は留保されています。お客様は、該当するモデルライセンスにコンプライアンスしていることを確認する責任があります。

Llama 2とCode LlamaモデルのライセンスはLLAMA 2 Community License, Copyright© Meta Platforms, Inc. すべての権利は留保されています。お客様は、該当するモデルライセンスにコンプライアンスしていることを確認する責任があります。

DBRXは、Databricksオープンモデルライセンスの下で提供され、その対象となります。著作権 © Databricks, Inc. All rights reserved. お客様は、Databricksの適正使用ポリシーを含む、該当するモデルライセンスを確実にコンプライアンスする責任があります。

モデル

最大コンテキスト長

databricks/dbrx-base

32768

databricks/dbrx-instruct

32768

meta-llama/Llama-3.2-1B

131072

meta-llama/Llama-3.2-1B-Instruct

131072

meta-llama/Llama-3.2-3B

131072

meta-llama/Llama-3.2-3B-Instruct

131072

meta-llama/Meta-Llama-3.1-405B

131072

meta-llama/Meta-Llama-3.1-405B-Instruct

131072

meta-llama/Meta-Llama-3.1-70B

131072

meta-llama/Meta-Llama-3.1-70B-Instruct

131072

meta-llama/Meta-Llama-3.1-8B

131072

meta-llama/Meta-Llama-3.1-8B-Instruct

131072

meta-llama/Meta-Llama-3-70B

8192

2024 年 12 月 13 日以降、このモデルはサポートされなくなります。 推奨される交換については 、リタイアしたモデル を参照してください。

meta-llama/Meta-Llama-3-70B-Instruct

8192

2024 年 12 月 13 日以降、このモデルはサポートされなくなります。 推奨される交換については 、リタイアしたモデル を参照してください。

meta-llama/Meta-Llama-3-8B

8192

2024 年 12 月 13 日以降、このモデルはサポートされなくなります。 推奨される交換については 、リタイアしたモデル を参照してください。

meta-llama/Meta-Llama-3-8B-Instruct

8192

2024 年 12 月 13 日以降、このモデルはサポートされなくなります。 推奨される交換については 、リタイアしたモデル を参照してください。

meta-llama/Llama-2-7b-hf

4096

2024 年 12 月 13 日以降、このモデルはサポートされなくなります。 推奨される交換については 、リタイアしたモデル を参照してください。

meta-llama/Llama-2-13b-hf

4096

2024 年 12 月 13 日以降、このモデルはサポートされなくなります。 推奨される交換については 、リタイアしたモデル を参照してください。

meta-llama/Llama-2-70b-hf

4096

2024 年 12 月 13 日以降、このモデルはサポートされなくなります。 推奨される交換については 、リタイアしたモデル を参照してください。

meta-llama/Llama-2-7b-chat-hf

4096

2024 年 12 月 13 日以降、このモデルはサポートされなくなります。 推奨される交換については 、リタイアしたモデル を参照してください。

meta-llama/Llama-2-13b-chat-hf

4096

2024 年 12 月 13 日以降、このモデルはサポートされなくなります。 推奨される交換については 、リタイアしたモデル を参照してください。

meta-llama/Llama-2-70b-chat-hf

4096

2024 年 12 月 13 日以降、このモデルはサポートされなくなります。 推奨される交換については 、リタイアしたモデル を参照してください。

codellama/CodeLlama-7b-hf

16384

2024 年 12 月 13 日以降、このモデルはサポートされなくなります。 推奨される交換については 、リタイアしたモデル を参照してください。

codellama/CodeLlama-13b-hf

16384

2024 年 12 月 13 日以降、このモデルはサポートされなくなります。 推奨される交換については 、リタイアしたモデル を参照してください。

codellama/CodeLlama-34b-hf

16384

2024 年 12 月 13 日以降、このモデルはサポートされなくなります。 推奨される交換については 、リタイアしたモデル を参照してください。

codellama/CodeLlama-7b-Instruct-hf

16384

2024 年 12 月 13 日以降、このモデルはサポートされなくなります。 推奨される交換については 、リタイアしたモデル を参照してください。

codellama/CodeLlama-13b-Instruct-hf

16384

2024 年 12 月 13 日以降、このモデルはサポートされなくなります。 推奨される交換については 、リタイアしたモデル を参照してください。

codellama/CodeLlama-34b-Instruct-hf

16384

2024 年 12 月 13 日以降、このモデルはサポートされなくなります。 推奨される交換については 、リタイアしたモデル を参照してください。

codellama/CodeLlama-7b-Python-hf

16384

2024 年 12 月 13 日以降、このモデルはサポートされなくなります。 推奨される交換については 、リタイアしたモデル を参照してください。

codellama/CodeLlama-13b-Python-hf

16384

2024 年 12 月 13 日以降、このモデルはサポートされなくなります。 推奨される交換については 、リタイアしたモデル を参照してください。

codellama/CodeLlama-34b-Python-hf

16384

2024 年 12 月 13 日以降、このモデルはサポートされなくなります。 推奨される交換については 、リタイアしたモデル を参照してください。

mistralai/Mistral-7B-v0.1

32768

mistralai/Mistral-7B-Instruct-v0.2

32768

mistralai/Mixtral-8x7B-v0.1

32768

Use 基盤モデル ファインチューニング

基盤モデル ファインチューニングは、databricks_genai SDKを使用してアクセスできます。 次の例では、Unity Catalog ボリュームのデータを使用するトレーニング実行を作成して起動します。 構成の詳細については、「基盤モデル ファインチューニング APIを使用したトレーニング 実行の作成」を参照してください。

from databricks.model_training import foundation_model as fm

model = 'meta-llama/Meta-Llama-3.1-8B-Instruct'
# UC Volume with JSONL formatted data
train_data_path = 'dbfs:/Volumes/main/mydirectory/ift/train.jsonl'
register_to = 'main.mydirectory'
run = fm.create(
  model=model,
  train_data_path=train_data_path,
  register_to=register_to,
)

データの準備、微調整トレーニング実行設定、およびデプロイメントを説明する指示を微調整の例については、指示を微調整:エンティティを識別できる名前デモノートブックを参照してください。

制限事項

  • 大規模なデータセット(10B以上のトークン)は、コンピューティングの可用性のためサポートされていません。

  • 継続的な事前トレーニングでは、ワークロードは60〜256MBのファイルに制限されます。1GBを超えるファイルは処理に時間がかかる場合があります。

  • Databricks は、基盤モデル ファインチューニングを使用して、最新の最新モデルをカスタマイズできるように努めています。 新しいモデルが利用可能になると、API または UI からの古いモデルへのアクセスが削除されたり、古いモデルが非推奨になったり、サポートされているモデルが更新されたりする可能性があります。 「生成AI models maintenance ポリシー」を参照してください。