ポスト
これはそもそもChatGPTがリリースされた時からそうだし、もっというとGPT-3の頃から有名な話で、だから「自分が当否がわからないものにLLM使ってはいけない」は変わらないのでLLMは(正誤が明確な課題については)専門家と被専門家の能力差を拡大するとずっと言っている(絵や音楽は正誤がなく別)。
メニューを開くサナtorium🍈虚心坦懐@math095562
GPT-4oちょっと使ってみたけど、難しい定理でも証明がよく知られているようなものはかなりきちんとしたことを答えてくれるけど、検索しても出てこないようなある条件を満たす関数の例を挙げてくれみたいなこと言うと、それっぽいけど堂々と間違った答え言ってくるし指摘しても全然正解に辿りつかない。
みんなのコメント
メニューを開く
昔々 ドイツに詳しい研究者が書いた本に (篠田雄次郎先生の「日本人とドイツ人」だったかなあ) こんなことが書いていた ドイツ人に道を尋ねてはならない 知識が乏しくても とことん「論理的」に結論を導き 堂々とした態度で答えるからだ まったく見当はずれのことが多い 同じようなことですかね
メニューを開く
絵も正誤はありますよ。例えば写真のような絵で水平方向とフレームがズレるや人の手先や女性のスカートが風に当たると何故か体に妙にフィットした絵とか、そういうのも知らないと理解できないし専門家は構図の為に使い素人とどんどん離れてますよ。 gigazine.net/news/20230615-…