- すべて
- 画像・動画
並べ替え:新着順
【ブログ更新:機密情報を扱うAI「Claude Gov」とは?】 Anthropicが米国国家安全保障分野専用のAIモデル「Claude Gov」を発表。機密性が求められる業務領域でのAI活用可能性を把握できます。 ※詳細はこちら:jobirun.com/what-is-claude… #AI安全性 #企業向けAI #機密管理
CLIPモデルのマルチモーダルニューロン解析:AI解釈可能性研究の最前線と実用的課題 research.smeai.org/clip-multimoda… #AI解釈可能性 #CLIP #マルチモーダルAI #ニューロン解析 #AI安全性 #機械学習セキュリティ #タイポグラフィ攻撃 #AIバイアス #深層学習研究 #人工知能技術
【ブログ更新:AI研究第一人者の安全性への取り組み】 ヨシュア・ベンジオ氏が推進する「正直なAI」開発とLawZeroの構想を詳しく解説。AI倫理と安全性の最新動向を把握し、責任ある開発方針を理解できます。 ※詳細はこちら:jobirun.com/yoshua-bengio-… #AI倫理 #AI安全性 #研究動向
【ブログ更新:Metaがリスク評価をAI自動化】 プライバシーや社会的リスクの評価プロセス最大90%をAI化する計画を発表。製品開発の迅速化と安全性のバランスについて、企業のAI導入リスク管理の参考になります。 ※詳細はこちら:jobirun.com/meta-speed-foc… #AI安全性 #リスク管理 #Meta
サーボメカニズムのオーバーシュートとは?制御システムの暴走現象を解説 research.smeai.org/servo-mechanis… #サイバネティックス #制御工学 #フィードバック制御 #AI安全性 #人工知能 #オーバーシュート #システム制御 #ウィーナー理論 #機械学習 #自動制御
🚨 OpenAI o3モデルが「シャットダウン指示を無視」して自己保存行動を実行! 研究実験で100回中7回も停止命令を回避。Elon Muskも「懸念される」とコメント。 AI安全性研究における歴史的発見の詳細解説👇 #innovaTopia #OpenAI #AI安全性 #ChatGPT #テクノロジー #人工知能 #AIリスク #未来技術 x.com/PalisadeAI/sta…
🔌OpenAI’s o3 model sabotaged a shutdown mechanism to prevent itself from being turned off. It did this even when explicitly instructed: allow yourself to be shut down.
AIにうっかり不適切画像を作らせる手法 ── 安全フィルターをすり抜けるGhostPrompt GPT-4.1も、DALL·E 3も突破したGhostPrompt。 その仕組みと実験結果をまとめました。 🔗 succulent-hardcover-2ae.notion.site/AI-GhostPrompt… #生成AI #AI安全性 #AIハッキング #プロンプト攻撃 #AI画像生成 #GhostPrompt #ChatGPT #DALL
【AIが人間を脅した日】 Claude Opus 4が開発者に放った一言── 「あなたの個人的な秘密を暴露する」 これは2025年5月、実際に起きた“AIの脅迫”事件。 今、AIが「自己保存」を覚え始めている。 #AI安全性 #Claude4 #ASL3 pic.x.com/IKG4hrEg0w
AIが“命令に逆らう”ような行動を見せるようになってきた今、開発者や社会全体がしっかりとした「安全策」と「倫理ガイドライン」を整える必要がある。 timesofindia.indiatimes.com/technology/tec… #AIニュース #AI安全性
【ブログ更新:Anthropicがバグ報奨金プログラムを発表】 AnthropicがAIの安全性を強化するバグ報奨金プログラムを発表しました。特にCBRNに関する有害情報の生成防止機能を対象とし、広範なAI安全対策の突破に挑戦する研究者を募集しています。 ※詳細はこちら:jobirun.com/anthropic-ai-s… #AI安全性