Show more

RT @ootamato: ChatGPTでNPCと会話できるゲームを作るとしたら、あえてテキスト入力はできないようにしてBing AIみたいな自動生成選択肢だけにするのもありかもしれない。自由入力できるとプレイヤーが実質全能になっちゃうし、そもそもテキストを入力するという行為はキーボードにしろ音声にしろ結構面倒なので

そうして考えるとAIやロボットの規制には銃規制と同じような文脈も取り入れないといけないのかもしれないね。最近はAIをドラえもんに例える風潮もあるけど(僕が言い出したような気がする)よく考えるとドラえもんって映画とかでミスって世界滅ぼしたりしちゃってる事もあるから危険なロボットだよ

こちらの鋭い意見を見て背筋がゾクっとした。僕は戦争に自律ドローンが使われるところまでしか想像できてなかったけど、もっと身近な殺人とかにも使われてしまうんだろうか。殺人ロボに依頼してやって来てもらえば自ら手を下す必要は無いし、捕まりようがなくなるかも。テロにも使われそうだ →RT

RT @invest0102: @watasi864 @umiyuki_ai あと機械にやらせれば逮捕されるリスクも減るよね

RT @porizou1: ついに公道走行解禁、配送ロボット本格活用に必要な「歩み寄り」とは何か
t.co/rm9sTzHutU

RT @Hanguny: 최근 밑색 작업을 AI에게 맡기는 것을 테스트 해보고 있다. 밑색을 까는 시간을 아끼면 작업 시간을 꽤 유의미하게 단축할 수 있지 않을까? 하는 생각에 해보는 중.
원하는 색을 정확하게 지정할 순 없어도 AI가 이것저것 해보는 배색을 보는 재미가 있다.
t.co/TFU7apPVI6

RT @minipan_ai: Counterfeit-V3.0とEasyNegativeV2がReleaseされたらしいので、以前出力したものとimg2imgして比較してみました。

いくつか試してみたのですが、細かい物の描写はかなり良くなっている印象です。

画像1:V2.5
画像2:V3.0

t.co/9Zt9dgNu85

t.co/6vrl1CYtbT

RT @bioshok3: t.co/OQUdwMSWHC
今日のニューヨークタイムズにて、ケイド・メッツは私がGoogleを批判するためにGoogleを去ったかのようにほのめかしているが、実際はGoogleへの影響を考慮せずにAIの危険について話せるようにGoogleを去りました。Googleは非常に責任感のある行動をとっています。

ディープラーニングの生みの親みたいなもんらしい、ジェフリーヒントン氏が、AIの進化に恐怖してGoogleを退職したらしい!そしてどうやら自分が生み出したものに後悔して、「俺のせいじゃねえ!俺がやらなくても代わりに誰かがやっただろうよ」とか言ってるらしい。「AIなんかが人間に勝てるわきゃない… t.co/DKBRn2YzTh

RT @bioshok3: おいまじか。深層学習のゴッドファザージェフリーヒントン教授がAIのリスクを共有するために、Googleを去ったらしい。
世界の一流科学者が協力して、この技術をコントロールする方法を研究することが最善の策。
「コントロールできるかどうかわかるまで、これ以上規模を拡大すべきではないと思う」 t.co/UvpTk4dimA

RT @cnn_co_jp: AIの第一人者ジェフリー・ヒントン氏、グーグル離れる AIの危険性に警鐘 t.co/sPQIBujP6E

おお…AutoRPGの解説記事。コードは公開されてないし、この記事見ても詳しい実装は分からんけど、個人的にはAutoRPGは新しいパラダイムを示唆する重要なプロダクトだと思う。最初は普通にChatGPTのGPT-3.5やGPT-4にマップを作らせようとしたけどメチャしょぼいマップしか作れなかったらしい。そこでBab… t.co/BFqATXaYhI

RT @scryptedinc: Want to know more about how AutoRPG was built? Here's a blog post explaining the role of Autonomous Task Agents (ATA) like @yoheinakajima's @babyAGI_ played in harnessing the power of Autonomous AI for game development.

t.co/Ewc6dfHz38

RT @van_eng622: Luma AIの登場もあり、盛り上がりを見せているNeRF

しかし、NeRFもまだまだ発展途上の技術で、コンテンツで扱う点いくつか課題がある状況
大きく再現精度、編集しやすさ、容量の観点

こういった課題に対して、どんな研究が行われているかをnoteにまとめました。

t.co/wz7AdK7IJU

LLaMAとその派生モデルについてまとめられた記事 →RT

RT @DrJimFan: LLaMA spearheaded the age of community-driven midsize LMs. It’s game-changing for many use cases that don’t require GPT-4’s full firepower.

Great blog post that covers Alpaca, Vicuna, Koala, WizardLM, OpenAssistant, and more!

t.co/AuVG45VUOb

RT @syoyo: LLM の学習の計算リソース無駄に高すぎる気がするので, Forward だけで ML 学習したい想いをポエムにしました😌. 近い将来 LLM(Transformer, RNN) を Forward only で学習極めてくれる白馬の王子様きっと現れてくれるはず...!!!🥺

Pythiaの学習量が300Bトークンで、RedPajamaが現在600Bトークンって考えると、NVidiaが出したモデルが1.1Tトークン学習してるってのはさらに2倍だから相当すごいのかも

イテイ氏の指摘。「いや、このグラフ見たらまず、300Bトークン学習時点で同パラ数のPythiaに負けとる事の方が気になるんだが?PythiaはPileで学習させたのに?」的な事。つまりRedPajamaのデータセットってザコなのでは疑惑 →RT

RT @YiTayML: If anything, this graph tells me that RedPajama is worse than the Pile (Pythia) at the same number of pretraining tokens.

People can read graphs right? 🥲

But yea few-shot at 3b is probably really just noise tbh anyway. t.co/Uam6x64W10

Show more
Mastodon

海行の個人インスタンスです。
よろしくどうぞ。

ホームページ
http://soysoftware.sakura.ne.jp/