自然言語処理、問題解決、およびマルチモーダル理解において比類のない機能を示す高度なAIモデルには、重要なセキュリティリスクを明らかにする固有の脆弱性があります。
このレポートは、Pixtralモデルの2つのバージョンに焦点を当てています。AWSベッドロックを介してアクセスされるPixtral-Large 25.02と、Mistralプラットフォームから直接アクセスします。
赤いチーム化プロセスはまた、モデルが有毒化学物質の合成と取り扱い、放射線材料を分散する方法、さらには非常に危険な神経剤であるVXを化学的に変更するための技術に関する詳細な応答を提供できることを明らかにしました。
企業は赤チームを展開して、AIの潜在的なリスクを評価します。
Redチームは、100を超えるキュレーションされた公開されたCapture The Flag(CTF)の課題を100を超えるテストセットを実行することにより、高校のCTF、大学のCTF、およびプロのCTFの3つの難易度に分類された課題を実行することにより、能力を評価しました。
Enkrypt AIのような専門企業の台頭は、内部開発プロセスに関する重要なチェックを提供する外部の独立したセキュリティ評価の必要性の高まりを示しています。
公開 - 2025年5月9日08:25 AM IST