RT @toyxyz3: https://t.co/2JWKulEUdR https://t.co/4YHGXn9vl1
RT @shiropen2: 冷蔵庫の中身から料理レシピを考えてくれるAI ChatGPTを利用 米国チームが開発 https://t.co/GIXlerksL1 冷蔵庫の中を撮影した画像から食材を検出しChatGPTが料理を決め,その材料や分量,作り方を文章で出力。レシピ動画生成の未来も。カロリーや糖質制限,ヴィーガン食,おもてなし料理等も可能。 https://t.co/JwwmaUoqWL
RT @toyxyz3: https://t.co/5KOizx17Jf
RT @t_yano: Python 組織が発表しているからPythonの話になってるけど、すべてのオープンソースコード提供者に関連するっぽいな。
これで修正されなかったら、EUはソフトウェア開発から降りたということになるが。 https://t.co/gWssk1XYZs
RT @DrJimFan: AutoGPT just exceeded PyTorch itself in GitHub stars (74k vs 65k). I see AutoGPT as a fun experiment, as the authors point out too. But nothing more. Prototypes are not meant to be production-ready. Don't let media fool you - most of the "cool demos" are heavily cherry-picked: 🧵 https://t.co/I44H7BkCqr
RT @hwchase17: 🤖Generative Agents🤖
Last week, Park et all released “Generative Agents”, a paper simulating interactions between tens of agents
We gave it a close read, and implemented one of the novel components it introduced: a long-term, reflection-based memory system
RT @taka_aki: Dollyの日本語データセットでDollyモデルをトレーニングするところまで行きました。
Databricksで日本語DollyデータセットによるDollyのトレーニングを試す - Qiita https://t.co/uLOu9FV2Ry
RT @forasteran: 今度はラバw
(英語ではmuleなので日本でしか通じん🤭)
#LLaVA (Large Language-and-Vision Assistant)
🐴https://t.co/oJH9QIQoIu
お試し→驚きの説明力w
LLaVAは事前学習済のCLIP ViT-L/14とLLaMAをくっつけて、CC3Mで調整しチャット化も学んでマルチモーダル化した奴
https://t.co/USmllfK4P3 https://t.co/GAfk9hiieB
RT @npaka123: RedPajama の概要|npaka @npaka123 #note https://t.co/29efsDUTDK
RT @ochyai: 2日でかけました https://t.co/PcoJOPwnoG
入力プロンプトを最大26倍圧縮できるGistingって技術だって。どういうこっちゃ?というと例えば「以下の内容をフランス語に翻訳してください」ってプロンプトがあるとして「アレやって」だけで通じるように微調整、蒸留するイメージ。これでプロンプト圧縮できて推論速度上がって計算量も節約できる… https://t.co/GpVCr2ubuR
RT @omarsar0: Meta AI just released DINOv2!
This is a massive release!
Here's a breakdown of what you need to know:
- DINOv2 is a new method for training high-performance computer vision models based on self-supervised learning.
- DINOv2 enables learning rich and robust visual features… https://t.co/xXm5mWzsJi https://t.co/8EILdVW39C
RT @MetaAI: Announced by Mark Zuckerberg this morning — today we're releasing DINOv2, the first method for training computer vision models that uses self-supervised learning to achieve results matching or exceeding industry standards.
More on this new work ➡️ https://t.co/h5exzLJsFt https://t.co/2pdxdTyxC4
なんかまたゲームエンドしたらしいよ。この研究では、画像AIで生成した画像を使って画像分類タスクのモデルを学習させたら精度が上がる事が分かったらしい。本物の画像じゃなくてAI画像で済むならじゃあもうそれでいいじゃん。この話は終わりね。って事で画像分類はゲームエンドって話になってるらしい… https://t.co/qRkQlq7ldG
RT @M76119644: 画像分類タスクに画像生成AI系の画像を使っても分類タスクの精度が上がるという論文。(間違えていたら教えてください🙇♂️)
実質無限に生成できるから、分類タスク系は終焉を迎えるのかな?こうなると画像系のタスクも急速に色々進みそう。生成系も精度は上がって行くだろうし🤔 https://t.co/7rsLOL63aE