RT @nikkei: メタ、AI半導体を独自開発 Googleなどに追随
https://t.co/XGoFhqYtWc
RT @CyberAgent_PR: 極予測AIにおいて、大規模言語モデルを活用した「広告コピー自動生成機能」を実装いたしました。
自社LLM技術およびChatGPTの活用により、画像やターゲットを考慮した広告コピーの生成が可能となりました。今後も、広告効果の最大化に尽力してまいります。
https://t.co/5A38nVVt2v
RT @akinoriosamura: 中国政府、クラウドプロバイダーにAI企業の支援を呼び掛ける
-国家支援を強化して自国のAI先駆者の育成を急ぐ
-AGIの開発を目的とした政策草案について世論を募っている
-政策の目標を一言で言えば、クラウドプロバイダーやデータ企業からの支援を強化すること
https://t.co/M9vD5xZNzW
yt-dlpとかいうのでPythonでサクッとYoutube動画の音声をDLできるって知らんかったなあ https://t.co/oFnr8oXKjG
RT @sugn74: すごい。すごすぎ。
絵を書くのが格段に楽になる https://t.co/jGaavQlep0
RT @seidoutakizawa3: おおお、これは素晴らしい記事。ありがたや~ありがたや~👏👏👏 https://t.co/RGzAery8NL
RT @yasyune1023: こちらのモデルは運営により非公開になりました。
通報に対応してくれたのだと思います。
こういった倫理的に問題があるモデルを見かけた場合は購入せず、運営に通報しましょう。 https://t.co/xbvs0sWjlz
RT @kubotamas: イーロンマスク「OpenAIを手放したのは完全に馬鹿だった」
OpenAIの名付け親も、共同創業者のIlya Sutskeverを連れてきたのも、初期資本の$50M出資したのもイーロンだったらしい
最大の誤算は「OpenAIがGoogle Deepmindに対抗できるわけがないと思っていた」そう
ジェネレーティブエージェント論文、読んだわ。いや、読んだというよりiPadに読み上げてもらったのを聴いた。数式とか出てこねえから助かる。僕はAIバースはせいぜいゲームの進化系くらいにしか思ってなかったけど、可能性は色々とあるらしい。例えば対人関係の訓練に使うとか、社会科学の理論をシミュ… https://t.co/bfOkTq7D5p
RT @akinoriosamura: あら、PaLM 2のテクニカルレポートが出てた
論文: https://t.co/VZrT8JGU1K https://t.co/dx9iMxUvuc
RT @forasteran: mPLUG-Owlに動画色々入れて遊ぶw
動画の内容を質問できるの凄い!マルチモーダルLLM
視覚知識をViT-L/14、言語をLLaMA-7Bベースに、視覚と言語の両方から抽象化情報をLoRAで学習的な🤖
mPLUG-Owl: Modularization Empowers Large Language Models with Multimodality(4/27)
https://t.co/yaYPts5qpH https://t.co/p3JvmqKXAl
RT @shien5963: 私の執筆した記事が日経クロストレンドに掲載されました!
大規模言語モデルを活用したアーキテクチャ搭載のエージェント25人が、シミュレーション上の村で日常生活し、人間関係の形成に成功した研究、
"Generative Agents: Interactive Simulacra of Human Behavior."
の解説記事です。 https://t.co/PLFehEw5Tv
ほ!?ジェネレーティブエージェント論文のバーチャル世界を実装したリポジトリが登場したらしい! https://t.co/fEsPz6w6ZZ
RT @ymt3d: ChatGPTが
プラグインも使えるようになり
便利になったねぇ
と感じる今日このごろ https://t.co/RwihzeNXPe
RT @_kaiinui: PaLM2 は 3.6T トークンで学習
(LLaMA は 1.2T トークン) https://t.co/3OPo1thCnj
RT @StabilityAI_JP: 3D空間を魔法のように変更する技術「Instruct-NeRF2NeR」が面白い
https://t.co/q9aQwf1I39 https://t.co/oLzeZKRJHz
RT @masuidrive: OpenCALM-7Bをdolly-15k-jaでLoRAしたら、ある程度会話できるようになった。これはもう少し詰めてコンテキストを適切に与えればFAQとかには十分使えそう。
Fine tuningの処理はColabのA100で3分程度で終わった。
これは夢があるなぁ。あとmax_lenが2048なのは増やす方法あるのかな? https://t.co/e11cBFEGtu