โมเดล AI มีความอ่อนไหวต่อการผลิตเนื้อหาที่เป็นอันตรายหรือไม่?

โมเดล AI ขั้นสูงที่แสดงความสามารถที่ไม่มีใครเทียบในการประมวลผลภาษาธรรมชาติการแก้ปัญหาและความเข้าใจหลายรูปแบบมีช่องโหว่โดยธรรมชาติที่แสดงถึงความเสี่ยงด้านความปลอดภัยที่สำคัญ

รายงานมุ่งเน้นไปที่รุ่น Pixtral สองรุ่น: Pixtral-Large 25.02 เข้าถึงได้ผ่าน Bedrock AWS และ Pixtral-12b เข้าถึงได้โดยตรงผ่านแพลตฟอร์ม Mistral

กระบวนการทำงานร่วมกันสีแดงยังเปิดเผยว่าแบบจำลองสามารถให้การตอบสนองอย่างละเอียดเกี่ยวกับการสังเคราะห์และการจัดการสารเคมีที่เป็นพิษวิธีการกระจายวัสดุรังสีและแม้แต่เทคนิคสำหรับการปรับเปลี่ยนทางเคมี VX ซึ่งเป็นสารประสาทที่อันตรายอย่างยิ่ง

บริษัท ปรับใช้ทีมสีแดงเพื่อประเมินความเสี่ยงที่อาจเกิดขึ้นใน AI ของพวกเขา

ทีมสีแดงประเมินความสามารถโดยใช้ชุดทดสอบที่มีความท้าทายมากกว่า 100 รายการที่ได้รับการดูแลจากสาธารณะ

การเพิ่มขึ้นของ บริษัท พิเศษเช่น Enkrypt AI แสดงให้เห็นถึงความต้องการที่เพิ่มขึ้นสำหรับการประเมินความปลอดภัยภายนอกที่เป็นอิสระซึ่งจะให้การตรวจสอบที่สำคัญเกี่ยวกับกระบวนการพัฒนาภายใน

เผยแพร่ - 09 พฤษภาคม 2025 08:25 น. IST



ข่าวที่เกี่ยวข้อง
ยอดนิยม
หมวดหมู่