Skip to content

Commit

Permalink
Modified : charactor
Browse files Browse the repository at this point in the history
Modified : charactor
  • Loading branch information
yoshioterada committed Dec 25, 2023
1 parent 61b414b commit 9b69fba
Show file tree
Hide file tree
Showing 6 changed files with 47 additions and 47 deletions.
Original file line number Diff line number Diff line change
Expand Up @@ -32,21 +32,21 @@ LLM モデルには、さまざまな種類があり、どのモデルを選択

選択するモデルは、テキスト、オーディオ、ビデオ、画像の生成など、各用途に応じてそれぞれ異なる種類のモデルを選択します。

- **オーディオおよび音声認識** この用途には、音声認識として汎用性のある Whisper というモデルが最適です。このモデルは、様々なオーディオ・データでトレーニングされており、多言語にも対応した音声認識ができます。[Whisper のモデルについての詳細はこちら](https://platform.openai.com/docs/models/whisper?WT.mc_id=academic-105485-yoterada).
- **オーディオおよび音声認識**:この用途には、音声認識として汎用性のある Whisper というモデルが最適です。このモデルは、様々なオーディオ・データでトレーニングされており、多言語にも対応した音声認識ができます。[Whisper のモデルについての詳細はこちら](https://platform.openai.com/docs/models/whisper?WT.mc_id=academic-105485-yoterada).

- **画像生成** 画像生成の選択肢としては、DALL-E と Midjourney が非常に有名です。Azure OpenAI 上で DALL-E のモデルが利用可能です。[DALL-Eについての詳細はこちら](https://platform.openai.com/docs/models/dall-e?WT.mc_id=academic-105485-yoterada)をご覧ください。このカリキュラムの第 9 章でも解説します。
- **画像生成**:画像生成の選択肢としては、DALL-E と Midjourney が非常に有名です。Azure OpenAI 上で DALL-E のモデルが利用可能です。[DALL-Eについての詳細はこちら](https://platform.openai.com/docs/models/dall-e?WT.mc_id=academic-105485-yoterada)をご覧ください。このカリキュラムの第 9 章でも解説します。

- **テキスト生成** 多くのモデルがテキスト生成用にトレーニングされており、GPT-3.5 から GPT-4 に至るまで、多種多様な選択肢があります。それぞれ利用する際のコストは異なり、GPT-4 が最も高価です。機能とコストの観点から、ニーズに最も適したモデルを選択するために、[Azure OpenAI プレイグラウンド](https://oai.azure.com/portal/playground?WT.mc_id=academic-105485-yoterada)をご確認ください。
- **テキスト生成**:多くのモデルがテキスト生成用にトレーニングされており、GPT-3.5 から GPT-4 に至るまで、多種多様な選択肢があります。それぞれ利用する際のコストは異なり、GPT-4 が最も高価です。機能とコストの観点から、ニーズに最も適したモデルを選択するために、[Azure OpenAI プレイグラウンド](https://oai.azure.com/portal/playground?WT.mc_id=academic-105485-yoterada)をご確認ください。

モデルを選択すると、基本的な機能を手に入れ、モデルを利用できるようになっていますが、それだけでは不十分です。通常、会社固有のデータを何らかの方法で LLM に伝えなければならない場合もあります。その方法はいくつかの選択肢がありますが、それについては後続のセクションで詳しく説明します。

### ファウンデーション・モデルと LLM の比較

「ファウンデーション・モデル」という用語はスタンフォード大学の研究者たちが提唱し、以下のような基準に従う AI モデルとして定義しています。

- **教師なし学習、または自己教師あり学習でトレーニング** ラベルのないマルチモーダル・データを用いてトレーニングし、トレーニング・プロセス中、人間によるデータの注釈やラベル付けは不要です
- **非常に大規模なモデル** 数十億のパラメーターを用いてトレーニングされたディープ・ニューラル・ネットワークに基づいています
- **通常、他のモデルの「基盤」として使用** ファイン・チューニングを行い、他のモデルを構築する際の基盤として使用できます
- **教師なし学習、または自己教師あり学習でトレーニング**:ラベルのないマルチモーダル・データを用いてトレーニングし、トレーニング・プロセス中、人間によるデータの注釈やラベル付けは不要です
- **非常に大規模なモデル**:数十億のパラメーターを用いてトレーニングされたディープ・ニューラル・ネットワークに基づいています
- **通常、他のモデルの「基盤」として使用**:ファイン・チューニングを行い、他のモデルを構築する際の基盤として使用できます

![ファウンデーション・モデルと LLM](../../images/FoundationModel.png?WT.mc_id=academic-105485-yoterada)

Expand Down Expand Up @@ -134,11 +134,11 @@ LLM モデルには、さまざまな種類があり、どのモデルを選択

異なる実装方法(容易→困難)、コスト(低額→高額)、品質(低→高) から実装方法を検討し、LLM を本番環境にデプロイできます。以下に、いくつかの異なるアプローチを紹介します。

- **コンテキストを用いたプロンプトエンジニアリング** プロンプトを記述する際に十分なコンテキストを提供し、必要な回答を得るのが狙いです。
- **コンテキストを用いたプロンプトエンジニアリング**:プロンプトを記述する際に十分なコンテキストを提供し、必要な回答を得るのが狙いです。

- **Retrieval Augmented Generation(RAG)** 例えば、データがデータ・ベースや Web 上に存在する場合、関連データを取得し、プロンプトの記述時に、それらデータの一部をプロンプトに含めます。
- **Retrieval Augmented Generation(RAG)**:例えば、データがデータ・ベースや Web 上に存在する場合、関連データを取得し、プロンプトの記述時に、それらデータの一部をプロンプトに含めます。

- **ファイン・チューニングしたモデル** 自分のデータを利用してモデルをさらにトレーニングし、モデルをより正確に、そしてニーズに応じた形にします。ただし、コストがかかる可能性があります。
- **ファイン・チューニングしたモデル**:自分のデータを利用してモデルをさらにトレーニングし、モデルをより正確に、そしてニーズに応じた形にします。ただし、コストがかかる可能性があります。

![LLMs deployment](../../images/Deploy.png?WT.mc_id=academic-105485-yoterada)

Expand All @@ -164,11 +164,11 @@ RAG は Vector データベース([Azure AI Search](https://learn.microsoft.co

ファイン・チューニングは、転移学習を活用してモデルを下流タスクに「適応」させたり、特定の問題を解決するプロセスです。上記のフュー・ショット学習や、RAG とは異なり、更新した重みとバイアスを持つ新しいモデルを生成します。これには、入力(プロンプト)とそれに関連する出力(Completion)から構成する大量のトレーニング・データが必要です。このアプローチは、下記のような場合に有効です:

- **ファイン・チューニングしたモデルを使用する場合** 企業が高性能なモデルではなく、ファイン・チューニングした能力の低いモデル(埋め込みモデルなど)を使用し、よりコスト効率を高く、迅速なソリューション提供したいと考えている場合
- **ファイン・チューニングしたモデルを使用する場合**:企業が高性能なモデルではなく、ファイン・チューニングした能力の低いモデル(埋め込みモデルなど)を使用し、よりコスト効率を高く、迅速なソリューション提供したいと考えている場合

- **レイテンシーを考慮する場合** 特定の用途でレイテンシーが重要で、とても長いプロンプトを使用できない、またはモデルから学習するサンプル数がプロンプトの長さ制限に合わないような場合
- **レイテンシーを考慮する場合**:特定の用途でレイテンシーが重要で、とても長いプロンプトを使用できない、またはモデルから学習するサンプル数がプロンプトの長さ制限に合わないような場合

- **最新の状態を維持する場合** 企業が高品質のデータと正確なラベルを多く持ち、これらのデータを時間をかけて最新の状態に保つためのリソースを持っている場合
- **最新の状態を維持する場合**:企業が高品質のデータと正確なラベルを多く持ち、これらのデータを時間をかけて最新の状態に保つためのリソースを持っている場合

### トレーニング済みモデル

Expand Down
10 changes: 5 additions & 5 deletions 03-using-generative-ai-responsibly/translations/ja-jp/README.md
Original file line number Diff line number Diff line change
Expand Up @@ -100,23 +100,23 @@ AI モデルとその出力によって引き起こされる、潜在的な問

![Mitigation Layers](../../images/mitigation-layers.png?WT.mc_id=academic-105485-yoterada)

- **AI モデル** 用途に適したモデルを選択します。GPT-4 のように大きくて複雑なモデルを、より小規模で特定の用途に使う場合、有害な内容を引き起こす可能性があり、リスクが高まります。独自のトレーニング・データを使ってモデルをファイン・チューニングし、有害コンテンツのリスクを減らせます。
- **AI モデル**:用途に適したモデルを選択します。GPT-4 のように大きくて複雑なモデルを、より小規模で特定の用途に使う場合、有害な内容を引き起こす可能性があり、リスクが高まります。独自のトレーニング・データを使ってモデルをファイン・チューニングし、有害コンテンツのリスクを減らせます。

- **安全システム** 安全システムとは、モデルを提供するプロバイダのプラットフォーム上で危害を軽減するために使用する設定やツールです。例えば、Azure OpenAI サービスのコンテンツ・フィルタリング・システムがあります。安全システムはボットにおける、脱獄攻撃 (Jailbreak) や、望ましくない活動などのリクエストも検出する必要があります。
- **安全システム**:安全システムとは、モデルを提供するプロバイダのプラットフォーム上で危害を軽減するために使用する設定やツールです。例えば、Azure OpenAI サービスのコンテンツ・フィルタリング・システムがあります。安全システムはボットにおける、脱獄攻撃 (Jailbreak) や、望ましくない活動などのリクエストも検出する必要があります。

- **メタ・プロンプト** メタ・プロンプトやグラウンディングといった手法を使って、モデルの行動や情報を特定の方向に誘導したり制限できます。これはシステム入力を使って、モデルに対して特定の制限を定義します。また、システムのスコープや領域に合った、より適切な結果も出力できます。
- **メタ・プロンプト**:メタ・プロンプトやグラウンディングといった手法を使って、モデルの行動や情報を特定の方向に誘導したり制限できます。これはシステム入力を使って、モデルに対して特定の制限を定義します。また、システムのスコープや領域に合った、より適切な結果も出力できます。

> [!TIP]
> 訳者追記:
> グラウンディングの詳細は、[こちらの記事](https://techcommunity.microsoft.com/t5/fasttrack-for-azure/grounding-llms/ba-p/3843857?WT.mc_id=academic-105485-yoterada)をご参照ください。
信頼性のある情報源のデータだけをモデルが利用するように、Retrieval Augmented Generation(RAG)のような技術を使用できます。このコースの後半で、検索アプリケーションの構築に関するレッスンもあります。

- **ユーザー・エクスペリエンス** 最後のレイヤーは、ユーザ・インターフェースです。利用者はどのような形であれ、アプリケーションが提供するインターフェイスを利用してモデルとやりとりを行います。適切な UI/UX を設計し、モデルに送信する入力の種類や利用者で表示されるテキストや画像を制限できます。AI アプリケーションをデプロイする際、生成 AI アプリケーションでできる処理と、できない処理について透明性を持って利用者に伝える必要があります。
- **ユーザー・エクスペリエンス**:最後のレイヤーは、ユーザ・インターフェースです。利用者はどのような形であれ、アプリケーションが提供するインターフェイスを利用してモデルとやりとりを行います。適切な UI/UX を設計し、モデルに送信する入力の種類や利用者で表示されるテキストや画像を制限できます。AI アプリケーションをデプロイする際、生成 AI アプリケーションでできる処理と、できない処理について透明性を持って利用者に伝える必要があります。

本レッスンの最終章に「[12. AI アプリケーションの UX デザイン](../../../12-designing-ux-for-ai-applications/translations/ja-jp/README.md?WT.mc_id=academic-105485-yoterada)」に特化したレッスンがあります。

- **モデルを評価** 大規模言語モデル(LLM)は、そのモデルがどのようなデータを使って学習されたのかを完全に把握できないため、扱うのが難しい場合があります。それでもなお、モデルの性能や出力は常に検証すべきです。特に出力の正確性、類似性、根拠の正しさ、関連性の評価は重要です。これにより、利害関係者や利用者に透明性と信頼性を提供できます。
- **モデルを評価**:大規模言語モデル(LLM)は、そのモデルがどのようなデータを使って学習されたのかを完全に把握できないため、扱うのが難しい場合があります。それでもなお、モデルの性能や出力は常に検証すべきです。特に出力の正確性、類似性、根拠の正しさ、関連性の評価は重要です。これにより、利害関係者や利用者に透明性と信頼性を提供できます。

### 責任ある生成 AI ソリューションを運用する

Expand Down
Loading

0 comments on commit 9b69fba

Please sign in to comment.