โมเดล AI ขั้นสูงที่แสดงความสามารถที่ไม่มีใครเทียบในการประมวลผลภาษาธรรมชาติการแก้ปัญหาและความเข้าใจหลายรูปแบบมีช่องโหว่โดยธรรมชาติที่แสดงถึงความเสี่ยงด้านความปลอดภัยที่สำคัญ
รายงานมุ่งเน้นไปที่รุ่น Pixtral สองรุ่น: Pixtral-Large 25.02 เข้าถึงได้ผ่าน Bedrock AWS และ Pixtral-12b เข้าถึงได้โดยตรงผ่านแพลตฟอร์ม Mistral
กระบวนการทำงานร่วมกันสีแดงยังเปิดเผยว่าแบบจำลองสามารถให้การตอบสนองอย่างละเอียดเกี่ยวกับการสังเคราะห์และการจัดการสารเคมีที่เป็นพิษวิธีการกระจายวัสดุรังสีและแม้แต่เทคนิคสำหรับการปรับเปลี่ยนทางเคมี VX ซึ่งเป็นสารประสาทที่อันตรายอย่างยิ่ง
บริษัท ปรับใช้ทีมสีแดงเพื่อประเมินความเสี่ยงที่อาจเกิดขึ้นใน AI ของพวกเขา
ทีมสีแดงประเมินความสามารถโดยใช้ชุดทดสอบที่มีความท้าทายมากกว่า 100 รายการที่ได้รับการดูแลจากสาธารณะ
การเพิ่มขึ้นของ บริษัท พิเศษเช่น Enkrypt AI แสดงให้เห็นถึงความต้องการที่เพิ่มขึ้นสำหรับการประเมินความปลอดภัยภายนอกที่เป็นอิสระซึ่งจะให้การตรวจสอบที่สำคัญเกี่ยวกับกระบวนการพัฒนาภายใน
เผยแพร่ - 09 พฤษภาคม 2025 08:25 น. IST