ポスト

これはそもそもChatGPTがリリースされた時からそうだし、もっというとGPT-3の頃から有名な話で、だから「自分が当否がわからないものにLLM使ってはいけない」は変わらないのでLLMは(正誤が明確な課題については)専門家と被専門家の能力差を拡大するとずっと言っている(絵や音楽は正誤がなく別)。

メニューを開く
サナtorium🍈虚心坦懐@math095562

GPT-4oちょっと使ってみたけど、難しい定理でも証明がよく知られているようなものはかなりきちんとしたことを答えてくれるけど、検索しても出てこないようなある条件を満たす関数の例を挙げてくれみたいなこと言うと、それっぽいけど堂々と間違った答え言ってくるし指摘しても全然正解に辿りつかない。

田口善弘@発言は私の個人としての見解であり中央大学やその機関の意見を代表するものではありません@Yh_Taguchi

みんなのコメント

メニューを開く

昔々 ドイツに詳しい研究者が書いた本に (篠田雄次郎先生の「日本人とドイツ人」だったかなあ) こんなことが書いていた ドイツ人に道を尋ねてはならない 知識が乏しくても とことん「論理的」に結論を導き 堂々とした態度で答えるからだ まったく見当はずれのことが多い 同じようなことですかね

如月隼人~中華情報イチオシ2オシ@KisaragiRuyue

メニューを開く

ずっとAIは確実な答えが分からないものにはハンダンフノウとしか答えられないのが最大の弱点だと言われていて、やっとのことで適当に答えるという機能が開発されたのに、今度は逆のこと言われるとは不毛な話だ。

まりも@potimarimo

メニューを開く

絵も正誤はありますよ。例えば写真のような絵で水平方向とフレームがズレるや人の手先や女性のスカートが風に当たると何故か体に妙にフィットした絵とか、そういうのも知らないと理解できないし専門家は構図の為に使い素人とどんどん離れてますよ。 gigazine.net/news/20230615-…

リアル農夫houmei@【JCU】マイクラ城郭再現【BE勢】@nouhuhoumei

メニューを開く

間違った情報が定着する恐れありますね。

田中工務店㌠@tanakenjapan

メニューを開く

そもそも”真実を知る”というようなことを目的として作られてないとわかって使う人だけがメリットを享受できます。

とーふや@toofuya

メニューを開く

やはり「うそはうそであると見抜ける人でないと (LLMを使うのは) 難しい」ということなんだと思います

メニューを開く

チャットgptはすべて知っているわけではありませんが、制限があります。

LifewithC@Lifewith_c

メニューを開く

円周率が3.05より大きいことを証明することはできませんが、文章からプログラムを作る能力は向上していますね。

tetsuhiro@KLgr8

メニューを開く

ノンフィクションの本📕の原稿書きについてはどう思われますか?

71592Syuji_Nakamura@a1Icetiptree

人気ポスト

もっと見る
Yahoo!リアルタイム検索アプリ