RT @tairo: 【かっこE】
左:サンダー・ピチャイ(50歳 Google CEO)
右:サム・アルトマン(37歳 OpenAI CEO)
生成AIで熾烈な競争を繰り広げる両雄、
5/5にホワイトハウス会議に呼ばれる。
※ ChatGPTリリース以降では初の会合
他にもMicrosoft CEO… https://t.co/B3dgz6iVj3 https://t.co/vLd2banx71
RT @Yokohara_h: AI動画テスト。最近追加されたControlNet1.1 Tile試した。左下の簡素なVRoid動画をここまで高ディティールな絵に変換できるのは凄い。以前のでは出来なかった https://t.co/Hqc2T3MhzE
RT @ymt3d: Vectorizer AI Beta - AIパワーでJPGやPNGのビットマップ画像をSVGベクターファイルに変換出来るサービス!ベータ版が無料使用可能!
https://t.co/pGn00YCAJ8
RT @jaguring1: 今日、商用利用可能な複数の言語モデル「RedPajama-INCITE」が発表された。パラメータ数は約28億個と約69億個のモデル群。LLaMAのレシピを可能な限り再現するモデルとインストラクトチューニング版とチャット版を公開。8000億トークンまで学習(1兆トークンまで学習する予定)
https://t.co/VMJ87nCfBS
RT @npaka123: StarCoder - コードのためのLLM|npaka @npaka123 #note https://t.co/kqHgCRxV3N
RT @ichi_eng: GPT-4-32Kを手に入れたので長文要約のテスト。2時間の動画くらいは全然いけるな…
今まではトークン数に制限があったから文章を細切れにして要約、それらを結合してまた要約するプロセスだから品質低かったけど、32Kだと一発でいけるから強い。1回約250円かかるけど、人がやるよりはるかに安いし早い https://t.co/SmrsOHxsjn
RT @tk2to: 🧵1/n
#CEBRA は確かに大きな発展だけど、現段階で『AIが生き物の心を読んだ』との解説は誇大であり過誤に近い。
これは『光の刺激(アナログ)を生物の眼が信号化した電位(デジタル)』を『AIで解析したら正確な光刺激に復号化できた』という話。
心によりだいぶ手前。
RT @ImAI_Eruel: MPT-7Bというオープンソース大規模言語モデルが先ほど公開されたのですが,オープンソースの本命という気がします
https://t.co/8BU5N4mCOG
・商用利用可能
・6万5000トークン使用可能(GPT-4の2倍!)
・7Bと比較的小さいモデルながら,かなり高性能
・日本語を扱え,性能もかなり高い(超重要)… https://t.co/FTUBkiKjhi https://t.co/3KVk8SDiQd
RT @jaguring1: 1兆トークンのテキストとコードで学習された67億パラメータ言語モデル「MPT(MosaicML Pretrained Transformer)」が発表された。440 A100で9.5日で学習。費用は20万ドル(約2700万円)。LLaMA-7Bと同等性能だが商用利用可でオープンソース!さらに、微調整した3つのモデルも公開
https://t.co/CNaZ7EcGLg
RT @izutorishima: 邪神ちゃんロイド、ChatGPT API とキャラを組み合わせた公式施策としては初なんじゃないか…? すごいアニメだ……
https://t.co/kze9OEvWM3 https://t.co/2N8VzVy2f5
ありゃまあ!理研は生物学的にもっともらしい神経回路のコスト関数を発見したけど、それは自由エネルギー原理の関数とまったく同じだったらしい!つまり、生物の神経細胞は実質的に統計的な推論を行ってると分かった。「神経細胞は自由エネルギー原理に従ってる事を示唆してる」だって。もう証明したよ… https://t.co/nvrC8vailq
RT @nimmr2: a16zがまとめた「AI Chatbotが人間の良き友達になるにはどうすれば良いか」という記事が非常に示唆に富んでいる
まとめると
✅ ChatbotがSNSにおいて目指すところをマズローの欲求階層説を模擬して作成
✅ 生成系AI誕生前は、私たちがSNSで得られるものはLikeやRTなどが最大の階層だった
(続く) https://t.co/81f3szxPye
RT @needle: 「Mojoは、ここ数十年で最大のプログラミング言語の進歩になるかもしれない」のまとめ|りさ | AIをあなたに|note https://t.co/q2XPqC0TL4