RT @itnavi2022: @umiyuki_ai この議論で一番恐ろしいのは、人類滅亡を絶対阻止するんだと言って、AIを開発する組織や研究者を襲う過激派やテロリストが出てくること。こっちの方が現実的なリスクとして恐ろしい。だからむやみに人類滅亡を煽るのは気をつけないといけないと思う。
海行の個人インスタンスです。 よろしくどうぞ。 ホームページ http://soysoftware.sakura.ne.jp/