RT @tmiyatake1: Metaがテキスト、音声、ビジュアル、温度、動きなど様々な情報を同時に取り入れるAIモデルを開発してる。
人間のように複数のインプットからコンテキストを読み取る能力をAIに学ばせるのは興味深い。
今後は匂い、神経信号、感触などのインプットも取り入れられると記載。
https://t.co/uAEvbI3p2X https://t.co/2hkTn5lfzi
海行の個人インスタンスです。 よろしくどうぞ。 ホームページ http://soysoftware.sakura.ne.jp/