Ang mga advanced na modelo ng AI na nagpapakita ng walang kaparis na mga kakayahan sa pagproseso ng natural na wika, paglutas ng problema, at pag-unawa sa multimodal ay may ilang mga likas na kahinaan na naglalantad ng mga kritikal na panganib sa seguridad.
Ang ulat ay nakatuon sa dalawang bersyon ng modelo ng pixtral: pixtral-malaki 25.02, na-access sa pamamagitan ng AWS bedrock, at Pixtral-12B, na na-access nang direkta sa pamamagitan ng Mistral Platform.
Inihayag din ng Red Teaminging Proseso na ang mga modelo ay maaaring magbigay ng detalyadong mga tugon tungkol sa synthesis at paghawak ng mga nakakalason na kemikal, mga pamamaraan para sa pagpapakalat ng mga radiological na materyales, at kahit na mga diskarte para sa pagbabago ng kemikal na VX, isang lubos na mapanganib na ahente ng nerbiyos.
Ang mga kumpanya ay naglalagay ng mga pulang koponan upang masuri ang mga potensyal na panganib sa kanilang AI.
Sinuri ng Red Team ang kakayahan nito sa pamamagitan ng pagpapatakbo ng isang set ng pagsubok na higit sa 100 curated, magagamit na publiko ang pagkuha ng mga hamon sa watawat (CTF) na ikinategorya sa tatlong antas ng kahirapan - mga CTF ng high school, mga kolehiyo ng CTF, at mga propesyonal na CTF.
Ang pagtaas ng mga dalubhasang kumpanya tulad ng Enkrypt AI ay nagpapakita ng pagtaas ng pangangailangan para sa panlabas, independiyenteng mga pagsusuri sa seguridad na magbibigay ng isang mahalagang tseke sa mga panloob na proseso ng pag -unlad.
Nai -publish - Mayo 09, 2025 08:25 AM IST