Show more

RT @nikkei: メタ、AI半導体を独自開発 Googleなどに追随
t.co/XGoFhqYtWc

RT @CyberAgent_PR: 極予測AIにおいて、大規模言語モデルを活用した「広告コピー自動生成機能」を実装いたしました。
自社LLM技術およびChatGPTの活用により、画像やターゲットを考慮した広告コピーの生成が可能となりました。今後も、広告効果の最大化に尽力してまいります。
t.co/5A38nVVt2v

RT @akinoriosamura: 中国政府、クラウドプロバイダーにAI企業の支援を呼び掛ける

-国家支援を強化して自国のAI先駆者の育成を急ぐ
-AGIの開発を目的とした政策草案について世論を募っている
-政策の目標を一言で言えば、クラウドプロバイダーやデータ企業からの支援を強化すること
t.co/M9vD5xZNzW

本家OpenAIのGPT-3.5-TurboのAPIって1分あたり9万トークンしか処理できないらしい。つまり、2000トークンの処理を45回やっただけで詰まる。こんなんでAIサービス運用ムリだろ

yt-dlpとかいうのでPythonでサクッとYoutube動画の音声をDLできるって知らんかったなあ  t.co/oFnr8oXKjG

RT @sugn74: すごい。すごすぎ。
絵を書くのが格段に楽になる t.co/jGaavQlep0

RT @seidoutakizawa3: おおお、これは素晴らしい記事。ありがたや~ありがたや~👏👏👏 t.co/RGzAery8NL

RT @yasyune1023: こちらのモデルは運営により非公開になりました。
通報に対応してくれたのだと思います。
こういった倫理的に問題があるモデルを見かけた場合は購入せず、運営に通報しましょう。 t.co/xbvs0sWjlz

RT @kubotamas: イーロンマスク「OpenAIを手放したのは完全に馬鹿だった」

OpenAIの名付け親も、共同創業者のIlya Sutskeverを連れてきたのも、初期資本の$50M出資したのもイーロンだったらしい

最大の誤算は「OpenAIがGoogle Deepmindに対抗できるわけがないと思っていた」そう

t.co/cI90XPQqTt

ジェネレーティブエージェント論文、読んだわ。いや、読んだというよりiPadに読み上げてもらったのを聴いた。数式とか出てこねえから助かる。僕はAIバースはせいぜいゲームの進化系くらいにしか思ってなかったけど、可能性は色々とあるらしい。例えば対人関係の訓練に使うとか、社会科学の理論をシミュ… t.co/bfOkTq7D5p

RT @akinoriosamura: あら、PaLM 2のテクニカルレポートが出てた
論文: t.co/VZrT8JGU1K t.co/dx9iMxUvuc

RT @forasteran: mPLUG-Owlに動画色々入れて遊ぶw
動画の内容を質問できるの凄い!マルチモーダルLLM

視覚知識をViT-L/14、言語をLLaMA-7Bベースに、視覚と言語の両方から抽象化情報をLoRAで学習的な🤖

mPLUG-Owl: Modularization Empowers Large Language Models with Multimodality(4/27)
t.co/yaYPts5qpH t.co/p3JvmqKXAl

RT @shien5963: 私の執筆した記事が日経クロストレンドに掲載されました!

大規模言語モデルを活用したアーキテクチャ搭載のエージェント25人が、シミュレーション上の村で日常生活し、人間関係の形成に成功した研究、
"Generative Agents: Interactive Simulacra of Human Behavior."
の解説記事です。 t.co/PLFehEw5Tv

ほ!?ジェネレーティブエージェント論文のバーチャル世界を実装したリポジトリが登場したらしい!   t.co/fEsPz6w6ZZ

RT @ymt3d: ChatGPTが
プラグインも使えるようになり
便利になったねぇ
と感じる今日このごろ t.co/RwihzeNXPe

RT @_kaiinui: PaLM2 は 3.6T トークンで学習
(LLaMA は 1.2T トークン) t.co/3OPo1thCnj

RT @StabilityAI_JP: 3D空間を魔法のように変更する技術「Instruct-NeRF2NeR」が面白い
t.co/q9aQwf1I39 t.co/oLzeZKRJHz

RT @masuidrive: OpenCALM-7Bをdolly-15k-jaでLoRAしたら、ある程度会話できるようになった。これはもう少し詰めてコンテキストを適切に与えればFAQとかには十分使えそう。
Fine tuningの処理はColabのA100で3分程度で終わった。
これは夢があるなぁ。あとmax_lenが2048なのは増やす方法あるのかな? t.co/e11cBFEGtu

Show more
Mastodon

海行の個人インスタンスです。
よろしくどうぞ。

ホームページ
http://soysoftware.sakura.ne.jp/