ポスト
私の友人の息子さん(16)は、ChatGPTを全面的に信じている困ったちゃんだ。 息子さん「自動運転車でも事故は起こすけど自分が運転するより事故が少ないならそれは許容すべきでしょう?同様にChatGPTの犯す間違いもそれが僕より少ないならその言葉を全面的に信じても僕よりはいい結果が出るでしょう?」
メニューを開くみんなのコメント
あと数年したら、LLMがスマートウォッチなんかに搭載されて、なんでもかんでもそのスマートウォッチに尋ねながら行動する人とかが出てくるんだろうな…。 その方が(その人にとっては)詐欺などに騙されたり、危険を回避できたりして、トータルでは人生がうまくいくのかも知れないが…。
「間違い」の認識が、 自動運転車なら 事故 という形で分かりますが、 ChatGPTだと、まずその回答が 間違いかどうか分からない のが問題だと思います。 ある特定分野の回答において、"僕"より間違いが少ないかが分からないのでその前提が崩れると思います。 x.com/yaneuraou/stat…
私の友人の息子さん(16)は、ChatGPTを全面的に信じている困ったちゃんだ。 息子さん「自動運転車でも事故は起こすけど自分が運転するより事故が少ないならそれは許容すべきでしょう?同様にChatGPTの犯す間違いもそれが僕より少ないならその言葉を全面的に信じても僕よりはいい結果が出るでしょう?」
多分その子は生成AIの無い時代だと両親の言う事を全て鵜呑みに近い形で聞く様なタイプでは?信じる対象が変化しただけで昔から大勢似た人見ます。あと、自分は学がないから難しい事はサイコロで決めざるをえなかったと嘆いた有名人がいましたが、その延長上にその子の考えが存在するようにも思いました
一見合理的だが決定的な欠点が2つある 1)その場合あなたは必要ない。依頼者が直接AIに訊ねれば良い。リスクの負担も依頼者がすればよい。 2)あなたへ依頼があり、致命的な事故が起こった場合にあなたの責任が回避される訳ではない。 結局、依頼者はリスクヘッジのためにあなたに依頼する訳
①そのAIがミスった時の責任は誰が背負うのかが問題 ②人間は知らない事は知らないと言えるけど、AIは知らない事も知った風に言う事が結構あるので、その責任を人間(ユーザー)負う必要がある ③生成AIは権利的問題があり加害者にも被害者にもなりうる。法規制されてないので被害者は泣き寝入りが現状。