Phiは、Microsoftが開発したオープンAIモデルのファミリーです。Phiモデルは、同サイズおよび次サイズのモデルを上回る性能を持ち、言語、推論、コーディング、数学のベンチマークで最も優れたコスト効率を誇る小型言語モデル(SLM)です。Phi-3ファミリーには、ミニ、スモール、ミディアム、ビジョンのバージョンがあり、異なるパラメータ量に基づいてトレーニングされ、さまざまなアプリケーションシナリオに対応しています。MicrosoftのPhiファミリーに関する詳細な情報については、Phiファミリーへようこそページをご覧ください。
-
はじめに
- 環境設定(✅)
- Phiファミリーへようこそ(✅)
- 主要技術の理解(✅)
- PhiモデルのAI安全性(✅)
- Phi-3のハードウェアサポート(✅)
- Phi-3モデルとプラットフォームでの利用可能性(✅)
- Guidance-aiとPhiの使用(✅)
-
クイックスタート
- GitHubモデルカタログでのPhi-3の使用(✅)
- Hugging faceでのPhi-3の使用(✅)
- OpenAI SDKでのPhi-3の使用(✅)
- HttpリクエストでのPhi-3の使用(✅)
- Azure AI StudioでのPhi-3の使用(✅)
- Azure MaaSまたはMaaPでのPhi-3モデル推論の使用(✅)
- Azure AI StudioでのサーバーレスAPIとしてのPhi-3モデルのデプロイ(✅)
- OllamaでのPhi-3の使用(✅)
- LM StudioでのPhi-3の使用(✅)
- AI Toolkit VSCodeでのPhi-3の使用(✅)
- LiteLLMでのPhi-3の使用(✅)
-
- Inference Phi-3 in iOS(✅)
- Inference Phi-3 in Jetson(✅)
- Inference Phi-3 in AI PC(✅)
- Inference Phi-3 with Apple MLX Framework(✅)
- Inference Phi-3 in Local Server(✅)
- Inference Phi-3 in Remote Server using AI Toolkit(✅)
- Inference Phi-3 with Rust(✅)
- Inference Phi-3-Vision in Local(✅)
- Inference Phi-3 with Kaito AKS, Azure Containers(official support)(✅)
- Inference Your Fine-tuning ONNX Runtime Model(✅)
-
Phi-3のファインチューニング
- サンプルデータセットのダウンロードと作成(✅)
- ファインチューニングシナリオ(✅)
- ファインチューニング vs RAG(✅)
- Phi-3を業界の専門家に育てる(✅)
- VS Code用AIツールキットを使ったPhi-3のファインチューニング(✅)
- Azure Machine Learning Serviceを使ったPhi-3のファインチューニング(✅)
- Loraを使ったPhi-3のファインチューニング(✅)
- QLoraを使ったPhi-3のファインチューニング(✅)
- Azure AI Studioを使ったPhi-3のファインチューニング(✅)
- Azure ML CLI/SDKを使ったPhi-3のファインチューニング(✅)
- Microsoft Oliveを使ったファインチューニング(✅)
- Weights and Biasを使ったPhi-3-visionのファインチューニング(✅)
- Apple MLX Frameworkを使ったPhi-3のファインチューニング(✅)
- Phi-3-visionのファインチューニング(公式サポート)(✅)
- Kaito AKS、Azure Containersを使ったPhi-3のファインチューニング(公式サポート)(✅)
- Phi-3と3.5 Visionのファインチューニング(✅)
-
Phi-3の評価
-
Phi-3-miniのE2Eサンプル
-
- 業界データの準備(✅)
- Microsoft Oliveを使ってプロジェクトを設計する(✅)
- Phi-3、ONNXRuntime Mobile、ONNXRuntime Generate APIを使ったAndroidでのローカルチャットボット(✅)
- Hugging Face Space WebGPUとPhi-3-miniデモ - Phi-3-miniはユーザーにプライベート(かつ強力な)チャットボット体験を提供します。試してみてください(✅)
- Phi3、ONNX Runtime Web、WebGPUを使ったブラウザでのローカルチャットボット(✅)
- OpenVino Chat(✅)
- マルチモデル - インタラクティブなPhi-3-miniとOpenAI Whisper(✅)
- MLFlow - ラッパーを作成し、MLFlowでPhi-3を使用する(✅)
- モデル最適化 - Oliveを使ってONNX Runtime Web用のPhi-3-miniモデルを最適化する方法(✅)
- Phi-3 mini-4k-instruct-onnxを使ったWinUI3アプリ(✅)
- AIを活用したWinUI3のノートアプリサンプル(✅)
- Prompt flowでカスタムPhi-3モデルを微調整し統合する(✅)
- Azure AI StudioでPrompt flowを使ってカスタムPhi-3モデルを微調整し統合する(✅)
- Microsoftの責任あるAI原則に基づいてAzure AI Studioで微調整されたPhi-3 / Phi-3.5モデルを評価する(✅)
- Phi-3.5-mini-instructの言語予測サンプル(中国語/英語)(✅)
-
Phi-3-visionのエンドツーエンドサンプル
-
Phi-3.5-MoEのエンドツーエンドサンプル
-
Phi-3のラボとワークショップのサンプル
-
Phi-3.5 の学習
- Phi-3.5 ファミリーの新機能(✅)
- Phi-3.5 ファミリーの量子化(✅)
- Phi-3.5 アプリケーションサンプル
Microsoft Phi-3 の使い方や、さまざまなハードウェアデバイスでの E2E ソリューションの構築方法を学べます。Phi-3 を体験するには、モデルを試し、自分のシナリオに合わせて Phi-3 をカスタマイズすることから始めましょう。詳細は Azure AI Studio, Azure AI Model Catalog をご覧ください。Azure AI Studio の使い方 についても学べます。
Playground 各モデルには専用のプレイグラウンドがあり、Azure AI Playground でモデルをテストできます。
Microsoft Phi-3 の使い方や、さまざまなハードウェアデバイスでの E2E ソリューションの構築方法を学べます。Phi-3 を体験するには、モデルを試し、自分のシナリオに合わせて Phi-3 をカスタマイズすることから始めましょう。詳細は GitHub Model Catalog をご覧ください。GitHub Model Catalog の使い方 についても学べます。
Playground 各モデルには専用のプレイグラウンドがあり、モデルをテストできます。
モデルは Hugging Face でも見つけることができます。
Playground Hugging Chat playground
Note: これらの翻訳はオープンソースの co-op-translator を使って自動生成されたものであり、エラーや不正確さが含まれる可能性があります。重要な情報については、元の文書を参照するか、専門の人間翻訳に相談することをお勧めします。翻訳を追加または更新したい場合は、co-op-translator リポジトリを参照してください。簡単なコマンドで貢献できます。
言語 | コード | 翻訳された README へのリンク | 最終更新日 |
---|---|---|---|
中国語 (簡体字) | zh | 中国語翻訳 | 2024-10-04 |
中国語 (繁体字) | tw | 中国語翻訳 | 2024-10-04 |
フランス語 | fr | フランス語翻訳 | 2024-10-04 |
日本語 | ja | 日本語翻訳 | 2024-10-04 |
Korean | ko | 韓国語翻訳 | 2024-10-04 |
Spanish | es | スペイン語翻訳 | 2024-10-04 |
このプロジェクトには、プロジェクト、製品、またはサービスの商標やロゴが含まれている場合があります。Microsoftの商標やロゴの使用は、Microsoftの商標およびブランドガイドラインに従う必要があります。 このプロジェクトの修正版にMicrosoftの商標やロゴを使用する場合、混乱を引き起こしたり、Microsoftの後援を暗示したりしないようにしてください。第三者の商標やロゴの使用については、各第三者のポリシーに従う必要があります。
免責事項: この文書は機械ベースのAI翻訳サービスを使用して翻訳されています。正確さを期していますが、自動翻訳には誤りや不正確さが含まれる可能性があることをご承知おきください。原文が記載されている言語の文書が信頼できる情報源と見なされるべきです。重要な情報については、専門の人間による翻訳を推奨します。この翻訳の使用に起因する誤解や誤認について、当社は一切の責任を負いません。