RT @gigazine: ビル・ゲイツが「18カ月以内にチャットAIが子どもたちに読み書きを教育するようになる」と提唱
https://t.co/JcikundBXO
RT @bioshok3: 既存の3D生成AI(4つ)とMeta AIの出したsegment anything model(SAM)を組み合わせて画像上の色々なオブジェクトを3次元化できるAnything-3Dが発表。
下図は最初にSAMをかませて画像から犬を抽出し、後はここ半年Dreamfusionあたりから使われている3D合成の発展版の3DFuseを使用した例。 https://t.co/zP98qbf24h https://t.co/bQ1BRJ1CiF
へえ。LLMの微調整では教師あり学習よりも強化学習の方が使われがち。何故なのか?まず強化学習は”いいね”と”よくないね”の両方のフィードバックができる事が強い。… https://t.co/Ks7rgU7igx
RT @npaka123: 大規模言語モデルのための強化学習|npaka @npaka123 #note https://t.co/z4ASauTnhQ
RT @nekoyamamanager: MetaがMetaから完全撤退。マジで社名どないすんねん。恋人の名前のタトゥー入れたあとで別れたみたいになったな。
Meta reportedly cancels all its Metaverse plans https://t.co/cQSxezsBxP
RT @tommyoshima: Unreal Engine内で @LumaLabsAI のキャプチャーデータを取り扱う基本的な操縦やカメラ設定関係に関してはだいたい理解した…つもり(笑)Blenderよりは学習効率が高いのはUEが基本的にアセット使用を前提にしたポスト処理をメインにしたものだからだな。
こういうのいじり始めるとGPUパワー不足が顕著 https://t.co/1pblrUueeQ
アブストだけ読んだ。LLMがWeb上の個人のプライバシー情報とかを暗記しちゃって、それをそのまま出力しちゃう事態になるのは困る。モデルを作ってみてからテストしてそういう傾向が見つかったら、せっかく作ったモデルを捨てないといけなくてもったいない。この研究では、トレーニング中の中間チェック… https://t.co/aWZxaIfDfp
RT @_akhaliq: Emergent and Predictable Memorization in Large Language Models
RT @johnjnay: LLM Alignment Limitations
-There exist prompts that trigger LLM into outputting practically any bad behavior, with prob increasing w/ prompt length
-RLHF can make things worse
-Mimicking personas that demonstrate bad behavior is efficient way to evoke it
へえ。チラッと読んだ感じだけど、まずMineDojoとかではマイクラをプレイできるAIを強化学習で作ってるけど、そのために大量の動画をAIに見せて学習させてる。どうやらYoutubeのチュートリアル動画に付いてる解説キャプションが学習に効いてるらしい。でもチュートリアル動画とか無いマイクラ以外の世… https://t.co/FJCCyOcHv8
AIポートピア、今日リリースされたばっかなのに不評付きすぎだろ。NLPアドベンチャーはやっぱテキスト入力の自由過ぎるモダリティがアフォーダンスの期待値を上げすぎちゃうのかな。VRでキャラに近づいたり触れたりできちゃうと、期待した反応が返ってこなくて逆にガッカリする現象みたいに。ChatGPTが… https://t.co/csI71h4F9B