人気ポスト
Stable Diffusion(Midjourneyも、といわれる)の使用したトレーニングデータセットLAION-5BからCSAM(児童性的虐待画像)が見つかり昨年12月公開停止となり現在NSFW除去中です。それ以前の製品は公開停止前のものです。多くの人がオプトアウト(学習からの除外)を求めていることをご一考ください。
メニューを開くみんなのコメント
メニューを開く![](https://rts-pctr.c.yimg.jp/BgIFgYJGVIVv8u0nVJvw8B2FauAYMF4jOP5zFJAV4i5e72TLbER0xQeK1l8ZZ0OLKeG9u452Kg_AbYs9qMyxPD7KkwUfAUjWlFKBf4NjlV0oIs_T-9E2uRNPrfg7AubhPRnIGFkZ7D5Z0UQAeHRfY9ZzanRwCbwlLmfO3_3qGvjbwrQemTWawByLi01dS4Ee8O7zLVoQYJPA3P77sWcfwr6TyopGFAlp_wMJ7lrM3WU=)
LAION-5BはSpawningAIが開発したHaveibeentrainedでデータを検索して画像を見ることができ、無修正ポルノやCSAM、遺体の画像が見えて批判されやすいですが、そのデータの元はコモン・クロールです。ChatGPT(3は確実)もMidjourneyもどこも同じコモン・クロールを使っています。news.yahoo.co.jp/expert/article…