RinnaのGPT-2は普通に使うとなんかトンチンカンだけど、微調整するのが前提だからそんなもんだったらしく、こうやって命令チューニングで微調整すれば賢さが見えてきた!いいね!さすが日本語事前トレーニングモデル!GPT-NEOX-Japanese-2.7BやGenji-6Bだとどうだろう? →RT
海行の個人インスタンスです。 よろしくどうぞ。 ホームページ http://soysoftware.sakura.ne.jp/