Skip to content

Commit 4c9f6b9

Browse files
Update README.md (Untranslated "Vector データベース"→ "ベクトルデータベース")
https://github.com/microsoft/generative-ai-for-beginners/blob/main/02-exploring-and-comparing-different-llms/translations/ja-jp/README.md #PingMSFTDocs
1 parent 81d66f7 commit 4c9f6b9

File tree

1 file changed

+1
-1
lines changed
  • 02-exploring-and-comparing-different-llms/translations/ja-jp

1 file changed

+1
-1
lines changed

02-exploring-and-comparing-different-llms/translations/ja-jp/README.md

+1-1
Original file line numberDiff line numberDiff line change
@@ -155,7 +155,7 @@ LLM モデルには、さまざまな種類があり、どのモデルを選択
155155
LLM は、モデルのトレーニング中に使用したデータだけを使って回答を作るという制約があります。つまり、トレーニング・プロセス後に発生した事実については何も分からず、非公開情報 (企業データなど) も利用できません。
156156

157157
しかし、上記の制約は RAG と呼ぶ手法で対応できます。RAG は、プロンプトの長さ制限を考慮しつつ、外部データ(ドキュメントの一部)をプロンプト内に含めて問い合わせを行う手法です。
158-
RAG は Vector データベース[Azure AI Search](https://learn.microsoft.com/azure/search/vector-search-overview?WT.mc_id=academic-105485-yoterada) など)でサポートされており、さまざまな定義済みのデータ・ソースから有用なドキュメントの一部を取得し、プロンプトのコンテキスト(文脈)に含めて、より正確な回答が得られるようになります。
158+
RAG は ベクトルデータベース[Azure AI Search](https://learn.microsoft.com/azure/search/vector-search-overview?WT.mc_id=academic-105485-yoterada) など)でサポートされており、さまざまな定義済みのデータ・ソースから有用なドキュメントの一部を取得し、プロンプトのコンテキスト(文脈)に含めて、より正確な回答が得られるようになります。
159159

160160
この技術は、LLM のファイン・チューニングが困難(十分なデータ、時間、リソースがない)な企業にとって非常に有用です。
161161
そして特定の負荷試験におけるパフォーマンスを向上させたい場合や、回答の捏造リスク、つまり現実の歪曲や、有害なコンテンツのリスクを減らしたい場合に非常に有効です。

0 commit comments

Comments
 (0)