Show more

この前ブログに書いた通り、予測トレーニングをやってみた。とりあえず100回やるのを目指す
予測トレーニングの記録その1 映画「手錠のままの脱獄」  t.co/o3ATABiFBf

ChatGPTのAPIで長時間文字起こしした長文を読みやすく整形してくれるアプリ、さすがにもうあるやろ?と検索したけど見つからない。こんなもんまで自分で作らんとアカンのか。人類は何をやっとるんだ。明らかに必要だろ

え?AIがカードゲームをデザインしたの?と思ったけど、AIは画像とフレーバーテキストを生成しただけで、カード性能の数値はランダムらしい。数字が強い方が勝つだけのSDガンダムカードダス並みにシンプルなルール。Google社員はギャザかハースストーンあたり学んだら?まああくまでデモか →RT

RT @mnishi41: GoogleがGoogle I/O向けにGen AIで作ったカードゲーム。実際にはウェブアプリだけどリアルカードももらった。プレイは t.co/NTDxMZUNVG から。 t.co/b6Q1Exp58d

RT @kuronagirai: ちょっと待って?
朝だから見逃してたけどこれってもしかしてLlama-indexがChatGPT系以外のLLaMA系にも対応するようになったってコト?
もっと大ニュースとして騒がれていい内容では…? t.co/kcoaiX0Rxy

ディスコでツイートのログ取ってるけど、よく見たら長文ツイが140字で途切れてる。こんなんじゃアーカイブになんないよ

RT @ochyai: GPTはドラえもんではなくのび太であり,ドラえもんの方が人間である.

MetaがめちゃくちゃマルチモーダルなAIのImageBindをオープンソースでリリース。マルチモーダルってテキストと画像でしょ?いや、ImageBindは一味違う。テキスト、画像以外に音声、奥行き、温度、IMU(慣性計測ユニット)という欲張りマルチモーダル!そんで具体的には何ができるの?とデモページ見た… t.co/gLb7azuVkl

RT @ylecun: IMAGEBIND: One Embedding Space To Bind Them All.

Learns a joint embedding across six different modalities - images, text, audio, depth, thermal, and IMU data.

An open source project by Meta-FAIR.

Paper: t.co/cwff2LQKER
Demo: t.co/4OdJTDEJRe
Code:… t.co/TmTUwQv6sx t.co/s4S0DdOrkB

RT @koguGameDev: Metaからマルチモーダルがオープンで出た。ただしCC-BY-NC。
テキスト、画像、動画、Depth、温度、動き?(IMU)まとめて扱えるそうな。

コードはここ。
t.co/OicrMIdQGx

サンプルコードでは異なるモーダル間の比較してみてる。 t.co/2F7DHDEj7M

RT @tmiyatake1: Metaがテキスト、音声、ビジュアル、温度、動きなど様々な情報を同時に取り入れるAIモデルを開発してる。

人間のように複数のインプットからコンテキストを読み取る能力をAIに学ばせるのは興味深い。

今後は匂い、神経信号、感触などのインプットも取り入れられると記載。

t.co/uAEvbI3p2X t.co/2hkTn5lfzi

RT @DrJimFan: Wow, @MetaAI is on open-source steroids since Llama.

ImageBind: Meta's latest multimodal embedding, covering not only the usual suspects (text, image, audio), but also depth, thermal (infrared), and IMU signals!

OpenAI Embedding is the foundation for AI-powered search and… t.co/RKDo1sPp0o t.co/aKhZn78EZI

RT @syoyo: LLM Studio を味見しました. GUI でポチポチでファインチューン行けそうでした😳

GPT-4はAPI料金がクッソ高いのがネックだから、LLMカスケードという手法で精度を維持しつつコストを爆下げしたらしい。LLMカスケードってのは最初に安いGPT3.5とかに訊いて、信頼スコアを判定してスコアが高ければOK。低ければしゃーないからGPT-4に訊くという感じ。いや、どうやって信頼スコアを判定… t.co/1tVFjtmD3T

RT @_akhaliq: FrugalGPT: How to Use Large Language Models While Reducing Cost and Improving Performance

abs: t.co/xQcqrjWvjb
paper page: t.co/0iH0Y3driY t.co/Yxcf1usAEt

RT @GOROman: 岸田首相、AI戦略会議の設置を表明 活用の促進と規制を議論へ:朝日新聞デジタル t.co/PmQ0UZF0Xg

へ~、GPT-2の中の大量のニューロンそれぞれがどういう概念を表してるのかをGPT-4に説明させるというOpenAIの研究。まず「GPT-2に文章を見せた時に、あるニューロンは"アベンジャーズ"とか"映画"とか"戦い"とかのトークンに対して活性化してました。このニューロンが何なのか説明してください」とGPT-4… t.co/hxOqJHLsfq

RT @_akhaliq: Language models can explain neurons in language models

use GPT-4 to automatically write explanations for the behavior of neurons in large language models and to score those explanations. Release a dataset of these (imperfect) explanations and scores for every neuron in GPT-2… t.co/bQ4lE0V5jp t.co/5dEvRlDsr5

RT @Yokohara_h: 適当なテクスチャなしCGからControlNetで生成の検証。グレー画像のみでほとんど何もしてないのに何故ControlNetはこれだけ上手く処理するのか驚く t.co/WvVeK1qSYw

Show more
Mastodon

海行の個人インスタンスです。
よろしくどうぞ。

ホームページ
http://soysoftware.sakura.ne.jp/