この前ブログに書いた通り、予測トレーニングをやってみた。とりあえず100回やるのを目指す
予測トレーニングの記録その1 映画「手錠のままの脱獄」 https://t.co/o3ATABiFBf
RT @mnishi41: 開発の背景などはこちらから。
https://t.co/ElkHGYWSYp
RT @mnishi41: GoogleがGoogle I/O向けにGen AIで作ったカードゲーム。実際にはウェブアプリだけどリアルカードももらった。プレイは https://t.co/NTDxMZUNVG から。 https://t.co/b6Q1Exp58d
RT @kuronagirai: ちょっと待って?
朝だから見逃してたけどこれってもしかしてLlama-indexがChatGPT系以外のLLaMA系にも対応するようになったってコト?
もっと大ニュースとして騒がれていい内容では…? https://t.co/kcoaiX0Rxy
MetaがめちゃくちゃマルチモーダルなAIのImageBindをオープンソースでリリース。マルチモーダルってテキストと画像でしょ?いや、ImageBindは一味違う。テキスト、画像以外に音声、奥行き、温度、IMU(慣性計測ユニット)という欲張りマルチモーダル!そんで具体的には何ができるの?とデモページ見た… https://t.co/gLb7azuVkl
RT @ylecun: IMAGEBIND: One Embedding Space To Bind Them All.
Learns a joint embedding across six different modalities - images, text, audio, depth, thermal, and IMU data.
An open source project by Meta-FAIR.
Paper: https://t.co/cwff2LQKER
Demo: https://t.co/4OdJTDEJRe
Code:… https://t.co/TmTUwQv6sx https://t.co/s4S0DdOrkB
RT @koguGameDev: Metaからマルチモーダルがオープンで出た。ただしCC-BY-NC。
テキスト、画像、動画、Depth、温度、動き?(IMU)まとめて扱えるそうな。
コードはここ。
https://t.co/OicrMIdQGx
サンプルコードでは異なるモーダル間の比較してみてる。 https://t.co/2F7DHDEj7M
RT @tmiyatake1: Metaがテキスト、音声、ビジュアル、温度、動きなど様々な情報を同時に取り入れるAIモデルを開発してる。
人間のように複数のインプットからコンテキストを読み取る能力をAIに学ばせるのは興味深い。
今後は匂い、神経信号、感触などのインプットも取り入れられると記載。
RT @DrJimFan: Wow, @MetaAI is on open-source steroids since Llama.
ImageBind: Meta's latest multimodal embedding, covering not only the usual suspects (text, image, audio), but also depth, thermal (infrared), and IMU signals!
OpenAI Embedding is the foundation for AI-powered search and… https://t.co/RKDo1sPp0o https://t.co/aKhZn78EZI
GPT-4はAPI料金がクッソ高いのがネックだから、LLMカスケードという手法で精度を維持しつつコストを爆下げしたらしい。LLMカスケードってのは最初に安いGPT3.5とかに訊いて、信頼スコアを判定してスコアが高ければOK。低ければしゃーないからGPT-4に訊くという感じ。いや、どうやって信頼スコアを判定… https://t.co/1tVFjtmD3T
RT @_akhaliq: FrugalGPT: How to Use Large Language Models While Reducing Cost and Improving Performance
abs: https://t.co/xQcqrjWvjb
paper page: https://t.co/0iH0Y3driY https://t.co/Yxcf1usAEt
RT @GOROman: 岸田首相、AI戦略会議の設置を表明 活用の促進と規制を議論へ:朝日新聞デジタル https://t.co/PmQ0UZF0Xg #ChatGPT
へ~、GPT-2の中の大量のニューロンそれぞれがどういう概念を表してるのかをGPT-4に説明させるというOpenAIの研究。まず「GPT-2に文章を見せた時に、あるニューロンは"アベンジャーズ"とか"映画"とか"戦い"とかのトークンに対して活性化してました。このニューロンが何なのか説明してください」とGPT-4… https://t.co/hxOqJHLsfq
RT @_akhaliq: Language models can explain neurons in language models
use GPT-4 to automatically write explanations for the behavior of neurons in large language models and to score those explanations. Release a dataset of these (imperfect) explanations and scores for every neuron in GPT-2… https://t.co/bQ4lE0V5jp https://t.co/5dEvRlDsr5
RT @Yokohara_h: 適当なテクスチャなしCGからControlNetで生成の検証。グレー画像のみでほとんど何もしてないのに何故ControlNetはこれだけ上手く処理するのか驚く https://t.co/WvVeK1qSYw