RT @bycloudai: I am only SLIGHTLYYYY late to the news
38 days late is not too bad right?
This video has been in production for way too long and I will go rest now (regarding to my last tweet lol) https://t.co/foM7GapR7T
RT @kis: お、YouTubeを要約できるようになってる(英語のみ) https://t.co/g3FYr6znfD
RT @rupettan: Lama Cleanerの記事を書いてみました
簡単にイラストの邪魔な部分を消せるのが便利です
AIイラストだけじゃなく写真の編集にも使えると思います
ぜひ読んでみて下さい☺️
https://t.co/YWW9Msvn2V
RT @sama: something like an IAEA for advanced AI is worth considering, and the shape of the tech may make it feasible:
(and to make this harder to willfully misinterpret: it's important that any such regulation not constrain AI below a high capability threshold)
RT @jaguring1: OpenAIの公式記事。Sam Altman氏とGreg Brockman氏、そしてディープラーニング分野の第一人者Ilya Sutskever氏が「今こそAGI(汎用AI)を劇的に超える超知能の管理体制を考え始めるべき」「今の状況を考えると、今後10年以内にAIがほとんどの領域で専門家レベルを超える」と主張
https://t.co/YjopHdimZy
RT @forasteran: 今日のゲームエンド↓
#MMS(Massively Multilingual Speech)
https://t.co/Cuc7kk7rdb
1,107言語数を単一モデルで多言語自動音声認識と音声合成できる🫢
(言語識別なら4,017言語!)
OpenAIの #Whisper は99言語のASRだった
(識別,翻訳音声認識はできてもTTSはできない)
https://t.co/iLjRAnclWo
RT @madonomori: 「IFTTT」無料プランのTwitter連携が終了へ、アプレット数にも制限 ほか ~22件を掲載(5月18日のダイジェストニュース) https://t.co/5I4Df34MxZ https://t.co/9JvHcG6Jre
RT @akinoriosamura: AKさんが日本に来てる https://t.co/SJsKG9wWSr
RT @kiyoshi_shin: NVIDIAがCPUに進出。AIに乗ってスパコン市場をまずは抑えに来たのか。 https://t.co/wu6KRFRzfm
ControlNetのreference_onlyを試して記事書こうとしたけど、試してみたら結構すごくて引いた。LoRA無しでLoRAできちゃうみたいな言い分も分からんでもない。これは記事にするのやめとこうと思った。だってどうしてもエグいi2iみたくなっちゃう事も物議を醸しそうだし。ついでにshuffleも試したけどこれ… https://t.co/2bop09UliT
RT @miyayou: こちら後編も公開されました。フルバージョンは書籍で!よろしくお願いいたします。
「高度なAIが出てきても、人間に取って代わることはない」80点のものを100点にできるのは人間だけ…研究者が語った「AIとの正しい付き合い方」
『7つの明るい未来技術』 #2 #文春オンライン https://t.co/g9aSWcK1zV
RT @miyayou: こちら公開されました。よろしくお願いいたします。
読んで頂ければわかりますが、追い抜かれた、というのは2000年頃の話を述べています。
「海外ゲーム=荒削り」で有名だったが…
『7つの明るい未来技術』 #1 #文春オンライン https://t.co/3RYPUMLdxn
おかずさんのUE5でChatGPTのAPI叩いてVoicePeakで音声再生させるヤツ試してみた。いいゾ~コレ。リードミーで感情スコアで声の感情変えたりしたいって書いてるけど、すでに感情パラ入力できるようにしてくれてるからすぐできちゃいそう。とりまキャラと会話できるようにしてみるか。最初VoicePeakの再… https://t.co/3TI7pGHgeq
RT @RosaRugosaBeach: 適切に選択したたった1000件の学習データでLLaMa 65BをFTすると、RLHFとか使わずともAlpaca 65B〜GPT4までと比較して競合できるくらいの性能に到達するという研究
RT @Emanon_14: 頭のサイズ(≒等身)だけを調整するLoRAを作りました。
https://t.co/g8V4v9kOKM
Small Headフォルダ https://t.co/B4l6s3xhbq