Show more

RT @miyatti: 以前から大塚英志さんの物語の作り方は参考にしたりするのですが、その中にタロット的なものを使って物語を作るやり方があります。ふとこいつをchatgptに読み込ませたらプロットだせるのかなーと思って入れてみたら予想通りの挙動してくれて震えました。。 t.co/65wld4Mf63

---
プロンプト… t.co/AqOuR5L6lO

RT @needle: ポートピアやってみた。ChatGPTに話しかけるような意識で自由に話すと「え?」とかヤスに言われまくってイライラする。いろいろ試してるうちに徐々に何が通って何が通らないのかわかってくるけど、そうすると今度は「写真」とか「〇〇へ」とか伝わる最低限でぶっきらぼうに指示するようになりがち

スクエニのNLPアドベンチャーゲームは元々こういうヤツだったよ。テキスト生成が要らんくて、埋め込みモデルだけで済むから軽量でローカルPCでもサクサク動かせるというわけ。とは言えこれが面白いのかどうか実際に触ってみないと分からんかったわけだけど、ニカイドウレンジさんのファーストインプレ… t.co/zfJLZLIbkv

RT @R_Nikaido: AIポートピア触ってみた。不評な理由が良く分かる。

- AIが迂闊な発言してしまうのを恐れて言葉の生成機能を削除した状態でリリース
- 結果、シナリオに含まれたセリフしか喋れない状態に
- ポートピアは最小限のセリフしかなく、特に足されていないっぽため、喋れないことがかなり多い t.co/8tzNZC7qxb

いくらAIがすごくても責任を取る事は人間にしかできないみたいな話があるけど、たしかにもっともらしいけど、本当かしら?と思わなくもない。AIに責任をなすりつけだす風潮も大いに出てきそうな気がしてならない。孫泰蔵さんは、将来AIの暴走で大災害が起きても自然災害と一緒だから諦めるしかない的な… t.co/B8vb1uFi5N

ヒャッハー!何かやべえ論文出てきた!Transformerを改良したリカレントメモリTransformerは扱えるトークン数が204万8千トークンまで爆増するらしい!GPT-4の最大3万2千トークンですげーとか言ってたのがアホらしい!200万もあればもはや書籍を何冊も入力する事が可能!しかしホンマかいな →RT t.co/MnaXBSbHyU

RT @_akhaliq: Scaling Transformer to 1M tokens and beyond with RMT

Recurrent Memory Transformer retains information across up to 2 million tokens.

During inference, the model effectively utilized memory for up to 4,096 segments with a total length of 2,048,000 tokens—significantly exceeding… t.co/MbIegSfyb0 t.co/Axggo0nSoH

RT @niakonichan8480: Finally good hands * - *

最新版のCONTROLNET 1.1により、より一貫性のある手や指を生成することができるようになりました。

t.co/hrihOxmf1m t.co/dypEdtTKKg t.co/dS9WPovibY

RT @Yokohara_h: CGキャラ動画から画像生成AIのi2iでスタイル変更。左は去年9月に試したとき。右は最近試したやつ。あまり使いこなせてない自分でもこのくらい進歩してる。controlnetによる制御性は素晴らしい t.co/tuP7yEQNSD

実際にChatGPTとかのLLM使ってサービスをデプロイする時に考えなきゃいけないテストとかの諸々についての網羅的な記事 →RT

RT @johnjnay: Building LLM Applications For Production

-Key challenges of productionizing:
Prompt eval / versioning / optimization
Backward compatibility
Tuning
Cost

-How to compose multiple tasks w/ control flows

RT @karaage0703: 思ったより苦労してDiscordにPythonから投稿できるようになったのですが、できた後でもっと楽な方法がありそうなことに気づきました

RT @wired_jp: 実は記憶と感情を結びつけ、優先的に記憶に残りやすくする脳のメカニズムはこれまでわかっていなかった。t.co/maWKbTRIH6

RT @frenchbread1222: 前にツイートした「Pyxel OpenAIで幼馴染の女の子とおしゃべりするゲームっぽいもの」を改良して、洞窟探索アドベンチャーゲームにしてみました。一応ゲームクリア判定まで入れています。
GPT-4のAPIが使えたらもっといろいろできそう。

記事(ソースコードと説明付き)
t.co/T6HzmVxyPZ t.co/MFbtCgr55g

RT @Yokohara_h: AIでアニメ化の最初のテスト。左のBlenderから書き出したCGをStable Diffusionでアニメ風に変換。単純なモデルでもリッチになるので将来はこういう方向に向かうはず t.co/R2XmJTT9WC

RT @akasaki1211: 記事を投稿しました! AIキャラ同士の会話に僭越ながら人間1名ほど参加させていただく [Python] on t.co/Miu6UplkvH

RT @akasaki1211: AIキャラ同士の会話に人間がカットインしてみる実験

・1対1じゃないのでuser/assistantはほぼ使わずsystem全突っ込み
・誰に話しかけているか(誰が応えるべきか)を返答生成の直前で判定
・ボイス再生、ユーザー入力、過去会話要約など別スレッドで

t.co/qcH45R5dkl

RT @karaage0703: ツイートがバズった、ChatGPT使ってプログラミングした件をブログに書きました

画像AIの論文とかでよくFIDで評価がされてるけど、この記事読んでFIDが何なのか初めて知ったわ。要するに特徴ベクトルにして距離が遠いか近いかって事ね。たしかに、猫の画像を生成させて、猫のようにも見えなくもない、ビミョーな画像を生成してた頃なら有効だっただろうけど、もうちゃんとした猫が出… t.co/i6NaEKzM3E

Show more
Mastodon

海行の個人インスタンスです。
よろしくどうぞ。

ホームページ
http://soysoftware.sakura.ne.jp/