ポスト

“児童の性的虐待画像は「CSAM(シーサム)」と呼ばれる。各国で取り締まりが進むなか、生成AIの登場によって、実在する児童の顔に合成したり、架空の児童を生成したりしたCSAMが新たな脅威となっている” 児童の性虐待画像「生成、拡散させない」主要なAI開発10社が合意 asahi.com/articles/ASS4T…

メニューを開く

Naoko Murai 村井七緒子@murainaoko

Yahoo!リアルタイム検索アプリ