ポスト
私自身は、少なくとも現行のAIは、言語が作り上げる分布(次にどの単語が来るのか)は殆ど完璧に構築出来てはいますが「意味の志向性」を持っていないので、実は「何か」を一切理解していないと考えています。そして、これはAIを扱う上で非常に重要なことなのではないかと思っています。 x.com/unba_ho/status…
メニューを開くみんなのコメント
メニューを開く
論理についても、AIは明らかに何ら「直観」していないですよね。人間ならば可能であるように、公理系なり文法書なりといった規則の体系だけを学んで、それを展開する、ということが出来ない。大量の学習データを必要とする所以。完全に帰納的なパターン認識だけでどこまでいけるのかが試されている。
メニューを開く
認知科学の本の引用+超意訳になるのですが 「猫を吸ったことがないAIが本当に猫を理解できるか? ならば猫を吸う鼻をまず作らなければ猫を理解するAIは作れない」 ってま言説もあります。同時に「人も文字で理解するのだから、文字情報だけで猫を理解することが可能では」という話も別であります
メニューを開く
AIと壁打ちしてるともやっとすることもあるんですよね。なんというか、気持ち悪いくらいに持ち上げてくるのが「理解してるフリ」に見えてしまうのかも? その持ち上げてくる性質(作られたもの)をメタ的に見られないとヤバいよなと感じます。