ポスト
Q「生成AIが嘘を付く問題への対処は?」 A「最初から嘘が混じってる前提で、業務設計をする。嘘ゼロを目指すのではなく嘘と共存する」
メニューを開くみんなのコメント
メニューを開く
ハルシネーションは間違った知識を使うパターンと間違った演繹をするパターンで分けたほうが良さそうな気がします 前者はRAGなりなんなりでチェックすればある程度回避できますが、後者は使用しているモデルの推論能力によって、「どのレベルの演繹はまかせていいか」を線引する必要がある気がします
メニューを開く
同意見です。 例えばRAGでも回答精度100%を目指すのではなく、根拠となるドキュメントを人が参照して裏取りすることを前提としたエンジニアリングこそが重要だと思います。
ヤマゾー@AIエンジニア@yamazombie1
SIerが生成AIのシステム開発で本当に求められるスキルは、結局のところ業務フローとアーキテクチャの設計力になると思う。 AIの不確実な出力を前提とした業務設計、文書の前処理やデータモデリング、AIの精度を監視・改善し続ける運用設計。どれも従来の泥臭いエンジニアリングが必要不可欠。