Follow

RinnaのGPT-2は普通に使うとなんかトンチンカンだけど、微調整するのが前提だからそんなもんだったらしく、こうやって命令チューニングで微調整すれば賢さが見えてきた!いいね!さすが日本語事前トレーニングモデル!GPT-NEOX-Japanese-2.7BやGenji-6Bだとどうだろう? →RT

Sign in to participate in the conversation
Mastodon

海行の個人インスタンスです。
よろしくどうぞ。

ホームページ
http://soysoftware.sakura.ne.jp/