File tree 1 file changed +1
-1
lines changed
02-exploring-and-comparing-different-llms/translations/ja-jp
1 file changed +1
-1
lines changed Original file line number Diff line number Diff line change @@ -155,7 +155,7 @@ LLM モデルには、さまざまな種類があり、どのモデルを選択
155
155
LLM は、モデルのトレーニング中に使用したデータだけを使って回答を作るという制約があります。つまり、トレーニング・プロセス後に発生した事実については何も分からず、非公開情報 (企業データなど) も利用できません。
156
156
157
157
しかし、上記の制約は RAG と呼ぶ手法で対応できます。RAG は、プロンプトの長さ制限を考慮しつつ、外部データ(ドキュメントの一部)をプロンプト内に含めて問い合わせを行う手法です。
158
- RAG は Vector データベース ([ Azure AI Search] ( https://learn.microsoft.com/azure/search/vector-search-overview?WT.mc_id=academic-105485-yoterada ) など)でサポートされており、さまざまな定義済みのデータ・ソースから有用なドキュメントの一部を取得し、プロンプトのコンテキスト(文脈)に含めて、より正確な回答が得られるようになります。
158
+ RAG は ベクトルデータベース ([ Azure AI Search] ( https://learn.microsoft.com/azure/search/vector-search-overview?WT.mc_id=academic-105485-yoterada ) など)でサポートされており、さまざまな定義済みのデータ・ソースから有用なドキュメントの一部を取得し、プロンプトのコンテキスト(文脈)に含めて、より正確な回答が得られるようになります。
159
159
160
160
この技術は、LLM のファイン・チューニングが困難(十分なデータ、時間、リソースがない)な企業にとって非常に有用です。
161
161
そして特定の負荷試験におけるパフォーマンスを向上させたい場合や、回答の捏造リスク、つまり現実の歪曲や、有害なコンテンツのリスクを減らしたい場合に非常に有効です。
You can’t perform that action at this time.
0 commit comments