Show more

RT @masanork: Mojo…は高速なPythonなのではなく、MLIRという並列計算に長けたコンパイラ基盤を言語機能として表出させ、Python風の高級言語で簡単に扱えるようにすることでCやC より速いコードが書ける言語…マンデルブロットが35000倍速くなるのはMojoのSIMDサポートを使っている t.co/mq5efZU4HT

RT @tomo_makes: Google Colaboratory、GPUがガチャじゃなく自分で指定 (A100, V100, T4から選択) できるようになってた! t.co/sQ51ZGsmRe

MojoがPythonの35000倍速いって話は、別にC で書いても同じくらい速くなるという話。やはりPythonがクッソ遅いだけの話だったか。しかもCUDAで書けばPythonの75万倍早いらしい。てかMojoってGPU演算してくれるわけじゃねえんだね →RT

RT @ymg_aq: 記事を書きました。
Pythonで書かれたコードを頑張って高速化する内容です

Pythonコードを35000倍に高速化したい | ymg_aq
t.co/0isca9a3eE

尾形さんの自由エネルギー原理ベースのタオル畳みロボットは、タオルしか見た事無いから本を渡して見せてもロボにはタオルに見えてる。尾形さん曰く「ロボの神経系がこの世界に対して引き込まれた結果として作った知覚」だから。何でもタオルに見えちゃうのがそのロボの頭の中のメタバースという事

現実とメタバースの間にDiffがある場合、普通の人はメタバース側の情報が古いんやろなと素直にDiffをマージするけど、「いや、自分のメタバースが正しくて現実の方がおかしくなっとる」といって、逆に現実の方を書き換えて(作る、創造する、外在化する)メタバースに一致させようとする。これがクリエ… t.co/CM83q2UP2c

我々は頭の中のデジタルツインなメタバースを生きていて、そのメタバースと現実との差分(Diff)だけが”驚き”としてメタバースリポジトリにコミットされてくる。決して現実そのものを見ているわけではない。そして些細なDiffも見逃さずにマージする能力が観察力。これが無いと低解像度のメタバースで暮… t.co/4fGDLQwRzh

我々は実質的には目の前の現実そのものを見てるんじゃなくて、頭の中のモデル世界の中に生きてるわけだから、つまり夢の中で生きてるようなもんだとすると、夢と現実を区別できなさそう

こういう話も面白くて、まず人間の意識があるないってのは、せいぜい記憶が継続してるか途切れるかの違いでしかないんじゃね?という説もある。じゃあ何で寝ている間は記憶が途切れるのか?というと、夢を記憶しちゃうと現実と区別できなくて生活に支障をきたすから記憶しないようにしてるだけって事か… t.co/c8XG8bl7ty

RT @fladdict: reading… 「夢日記をつけると気が狂う」の噂は本当か?実験してみた人の記録が興味深い「2ヶ月くらいで異変が起き始める」 - Togetter t.co/mBK81YS43o

RT @shi3z: ABCIでMPT-7Bのファインチューニングを試す|shi3z @shi3z t.co/CFy5sVOo4V

RT @kyubuns: ちなみに、5,500人(たぶんUU)に遊んでもらえたらしい。
OpenAIへのAPIアクセスは50,000回ぐらい。
最終的に$60で5,500人なので、1人あたり1.5円ぐらい? t.co/9yaqttifxI

RT @kyubuns: ChatGPTとリバーシで遊べるサイトを作りました!
ルール判定も、勝敗判定も、ChatGPT任せです。
勝てたらご報告ください。
t.co/kflY4NuNaI t.co/UsbNwwaHYr

RT @npaka123: Google Colab で RedPajama-INCITE を試す|npaka @npaka123 t.co/TgDeWKeXXv

RT @Yokohara_h: 静止画AIレンダリングの検証。原神公式3Dモデルのシェーダーを外したテクスチャだけのものを最新のControlNet1.1 Tileで変換。画像生成の制御性の向上には驚く。静止画用途であれば企業は独自モデルを用意すれば使えるレベルにある気もする t.co/nju8vAgWBw

RT @kun1em0n: OpenAssistantのオープンソースデータセット OASST1の日本語翻訳版 oasst1-89k-jaを作ったので公開します!トルコ語とかウクライナ語のようなマイナー言語は翻訳精度が悪かったりするのでまずは元が英語とかスペイン語だったものに絞って使うことを推奨します。

t.co/m9LlVUCd8d

いやごめん、ロイターの記事見たら実際呼ばれたのはピチャイ、ナデラ、サム氏、ダリオ氏(Anthropic)らしい。ちゃんとAnthropicも呼ばれてた

DataCompっていう128億のテキスト、画像ペアデータセットが公開。CLIPみたいなマルチモーダルAIの学習につかうもの。こういういいデータがあればそれで学習させればCLIPの性能ももっと良くなるらしい →RT

RT @EMostaque: State of the art CLIP model for image to text released by the DataComp team supported by a Stability AI grant - better data =

Show more
Mastodon

海行の個人インスタンスです。
よろしくどうぞ。

ホームページ
http://soysoftware.sakura.ne.jp/