大規模言語モデル(LLM)
パブリックプレビュー
単一ノードタスク用のAI Runtimeはパブリック プレビュー段階にあります。 マルチ GPU ワークロード用の分散トレーニングAPIベータ版のままです。
このページでは、 AI Runtimeを使用したファインチューニング大規模言語モデル (LLM) のノートブックの例を提供します。 これらの例は、低ランク適応 (LoRA) や完全監視ファインチューニングなどの効率的な方法を含む、ファインチューニングへのさまざまなアプローチを示しています。
チュートリアル | 説明 |
|---|---|
Transformer強化学習 (TRL)、メモリー効率の高いトレーニングのためのライガー カーネル、および効率的な微調整のための LoRA を使用して、Qwen2-0.5B モデルを効率的に微調整します。 | |
Unsloth ライブラリを使用して Llama-3.2-3B を微調整します。 | |
LoRA を使用して H100 GPU でOpenAIの | |
サーバレス GPU Python APIを使用して、DeepSpeed ZeRO Stage 3 最適化を備えた TRL ライブラリを使用して教師ありファイン チューニング (SFT) を実行します。 | |
サーバレス GPU Python APIを使用して、Axolotl ライブラリを使用して Olmo3 7B モデルを LoRA 微調整します。 | |
LoRA と Liger カーネルを使用して Qwen2-0.5B モデルを微調整し、論点削減によるメモリ効率の高い分散トレーニングを実現します。 | |
Unsloth ライブラリを使用して複数の GPU にわたる分散トレーニングを使用して Llama-3.2-3B を微調整し、最適化された効率的なトレーニングを実現します。 | |
Mosaic LLM Foundryを使用して、分散型トレーニング戦略とモデル評価により、Llama 3.1 8Bモデルを微調整します。 | |
DDP および FSDP 分散トレーニング戦略を備えた H100 GPU での教師ありファインチューニングを使用して、 OpenAIの GPT-OSS 120B モデルを微調整します。 | |
PyTorch Fully Sharded Data Parallel (FSDP) を使用して、複数の GPU にわたってモデルをシャード化するTransformerモデルをトレーニングします。 |
ビデオデモ
このビデオでは、Unslothを使用したFine-tune Llama-3.2-3Bのサンプルノートブックを詳細に解説します(12分)。