QEUR23_PHI2SFT20: Unslothを使って、llama3をfinetuneする

~ ただし、それを動かすにはいろいろ要求があります ~ ・・・ 前回のつづきです ・・・ QEU:FOUNDER(設定年齢65歳) : “今回で、Finetuneそのもののフレームワークができたと思います。このまま、P2モデルでぶっちぎるか、それとも他の上位モデルに移行するかの瀬戸際にきました。” D先生(設定年齢65歳) : “FOUNDERは、今後もP2(Phi-2)でぶっちぎりですか?” QEU:FOUNDER(設定年齢65歳) : “さすがに、もう(P2ごり押しは)無理だよ。次は、これ(↓)を試しに使ってみようと思うんだ・・・。” D先生(設定年齢65歳) : “学習速度が2倍?こんなすごいことを、どうやってやるんだろうか・・・?” QEU:FOUNDER(設定年齢65歳) : “Unslothの機能は、 「断片化の解消」 らしいよ・・・。” D先生(設定年齢65歳) : “ああ、懐かしい・・・。なるほど、そういうことなのか・・・。” QEU:FOUNDER(設定年齢65歳) : “ただし、学習には開発チームが指定したモデルを使う必要があるし、さらには ハードウェア上の制約 もあるらしいよ。いまのところ、手に入るのはllama3(L3)であり、Phi-3(P3)のリリースはまだです。” D先生: “L3でも十分なパワーがありますからね。問題は、L3-8b程度で、どの程度の外語処理能力を持つのかという点だけです。” QEU:FOUNDER : “じゃあ、やってみようか・・・。プログラムをドン!Unslothにおいて、一番の問題は 「インストールが無事にできるか」 です。” # --- ! pip install -U xformers --index-url https://download.pytorch.org/whl/cu121 ! pip install "unsloth[kaggle-new] @ git+https://github.com/unslothai/unsloth.git" # Temporary fix for https://github.com/huggingface/datasets/issues/6753 ! pip install data...