QEUR23_PHI2SFT33: RAG(LangChain-Phi3)を使ってみる(烏賀陽強化モデル)
~ すごい!ただし、入力データは不足しているが・・・。 ~ ・・・ 前回のつづきです ・・・ QEU:FOUNDER : “そもそもの問題は、「前回の出力にはOPINIONしかないからこうなった」ことです。もし、前回の出力にFACTが含まれており、それがRAGから供給されていれば、もっと違った回答になっていたでしょう。これは、我々の 「Question to Question」 の目標である、「キレのある質問」にも同じことが言えます。” D先生: “さらにいうと、回答だけでなく、質問にもFACTが付加されていなければならない。” QEU:FOUNDER : “いわゆる 「当事者意識」 というやつです。当事者意識があれば、質問には必ずFACTが入ってきます。このように、前回の出力をRAG内に入れただけでは、情報が全然足らないことがわかりました。次はFACT情報を注入しましょう。具体的には、コレ(↓)のコンテンツを入れてみましょう。” QEU:FOUNDER(設定年齢65歳) : “この人は、かなりマイナーですが、なかなかのジャーナリストです。いろいろ本も出しています。ちなみに、Wikiにプロファイルが出ていますので、詳しくはそちらを見てください。” D先生(設定年齢65歳) : “あれはミュージシャンだと思っていました・・・(笑)。” QEU:FOUNDER : “彼の関連記事の一部をテキスト・ファイルに変換し、ベクトル・ストアに保存しました。そうすれば、ベクトル・ストアから関連した情報を引き出すことができます。これをLLMに入力するわけです。” QEU:FOUNDER : “今回も、推論リソースが少なくて済むPhi-3-miniを使います。” QEU:FOUNDER : “じゃあ、プログラムは同じなので紹介はスキップ!出力の例にいきます!ベクトルストアの情報の量が少なく、前回と比較して 「〇:大変身したモノ」 と 「×:あいかわらずのモノ」 が混在しております。” (質問) What role can regional organizations, such as the European Union and the Organization for ...