RT @miyatti: 以前から大塚英志さんの物語の作り方は参考にしたりするのですが、その中にタロット的なものを使って物語を作るやり方があります。ふとこいつをchatgptに読み込ませたらプロットだせるのかなーと思って入れてみたら予想通りの挙動してくれて震えました。。 https://t.co/65wld4Mf63
---
プロンプト… https://t.co/AqOuR5L6lO
スクエニのNLPアドベンチャーゲームは元々こういうヤツだったよ。テキスト生成が要らんくて、埋め込みモデルだけで済むから軽量でローカルPCでもサクサク動かせるというわけ。とは言えこれが面白いのかどうか実際に触ってみないと分からんかったわけだけど、ニカイドウレンジさんのファーストインプレ… https://t.co/zfJLZLIbkv
RT @R_Nikaido: AIポートピア触ってみた。不評な理由が良く分かる。
- AIが迂闊な発言してしまうのを恐れて言葉の生成機能を削除した状態でリリース
- 結果、シナリオに含まれたセリフしか喋れない状態に
- ポートピアは最小限のセリフしかなく、特に足されていないっぽため、喋れないことがかなり多い https://t.co/8tzNZC7qxb
いくらAIがすごくても責任を取る事は人間にしかできないみたいな話があるけど、たしかにもっともらしいけど、本当かしら?と思わなくもない。AIに責任をなすりつけだす風潮も大いに出てきそうな気がしてならない。孫泰蔵さんは、将来AIの暴走で大災害が起きても自然災害と一緒だから諦めるしかない的な… https://t.co/B8vb1uFi5N
ヒャッハー!何かやべえ論文出てきた!Transformerを改良したリカレントメモリTransformerは扱えるトークン数が204万8千トークンまで爆増するらしい!GPT-4の最大3万2千トークンですげーとか言ってたのがアホらしい!200万もあればもはや書籍を何冊も入力する事が可能!しかしホンマかいな →RT https://t.co/MnaXBSbHyU
RT @_akhaliq: Scaling Transformer to 1M tokens and beyond with RMT
Recurrent Memory Transformer retains information across up to 2 million tokens.
During inference, the model effectively utilized memory for up to 4,096 segments with a total length of 2,048,000 tokens—significantly exceeding… https://t.co/MbIegSfyb0 https://t.co/Axggo0nSoH
RT @niakonichan8480: Finally good hands * - *
最新版のCONTROLNET 1.1により、より一貫性のある手や指を生成することができるようになりました。
https://t.co/hrihOxmf1m https://t.co/dypEdtTKKg https://t.co/dS9WPovibY
RT @Yokohara_h: CGキャラ動画から画像生成AIのi2iでスタイル変更。左は去年9月に試したとき。右は最近試したやつ。あまり使いこなせてない自分でもこのくらい進歩してる。controlnetによる制御性は素晴らしい https://t.co/tuP7yEQNSD
RT @kaizirod: A little AI animation test, not yet finished
https://t.co/DPOnsAQMYK
RT @wired_jp: 実は記憶と感情を結びつけ、優先的に記憶に残りやすくする脳のメカニズムはこれまでわかっていなかった。https://t.co/maWKbTRIH6
RT @frenchbread1222: 前にツイートした「Pyxel OpenAIで幼馴染の女の子とおしゃべりするゲームっぽいもの」を改良して、洞窟探索アドベンチャーゲームにしてみました。一応ゲームクリア判定まで入れています。
GPT-4のAPIが使えたらもっといろいろできそう。
記事(ソースコードと説明付き)
https://t.co/T6HzmVxyPZ https://t.co/MFbtCgr55g
RT @Yokohara_h: AIでアニメ化の最初のテスト。左のBlenderから書き出したCGをStable Diffusionでアニメ風に変換。単純なモデルでもリッチになるので将来はこういう方向に向かうはず https://t.co/R2XmJTT9WC
RT @akasaki1211: 記事を投稿しました! AIキャラ同士の会話に僭越ながら人間1名ほど参加させていただく [Python] on #Qiita https://t.co/Miu6UplkvH
RT @akasaki1211: AIキャラ同士の会話に人間がカットインしてみる実験
・1対1じゃないのでuser/assistantはほぼ使わずsystem全突っ込み
・誰に話しかけているか(誰が応えるべきか)を返答生成の直前で判定
・ボイス再生、ユーザー入力、過去会話要約など別スレッドで
画像AIの論文とかでよくFIDで評価がされてるけど、この記事読んでFIDが何なのか初めて知ったわ。要するに特徴ベクトルにして距離が遠いか近いかって事ね。たしかに、猫の画像を生成させて、猫のようにも見えなくもない、ビミョーな画像を生成してた頃なら有効だっただろうけど、もうちゃんとした猫が出… https://t.co/i6NaEKzM3E