แอพปัญญาประดิษฐ์ที่มีลักษณะคล้ายสหายมีความเสี่ยงที่ไม่สามารถยอมรับได้สำหรับเด็กและวัยรุ่นสื่อสามัญผู้เฝ้าดูสื่อความรู้สึกทั่วไปกล่าวในรายงานที่ตีพิมพ์เมื่อวันพุธ
ในขณะที่ AI chatbots กระแสหลักเช่น Chatgpt ได้รับการออกแบบให้มีวัตถุประสงค์ทั่วไปมากขึ้นแอพสหายที่เรียกว่าช่วยให้ผู้ใช้สามารถสร้างแชทบอทที่กำหนดเองหรือโต้ตอบกับแชทบอทที่ออกแบบโดยผู้ใช้รายอื่น
รายงานดังกล่าวเป็นเครื่องมือ AI ที่ได้รับความนิยมในช่วงไม่กี่ปีที่ผ่านมาและรวมอยู่ในโซเชียลมีเดียและแพลตฟอร์มเทคโนโลยีอื่น ๆ มากขึ้นเรื่อย ๆ
หลังจากคดีฟ้องร้องตัวละครโดยแม่ของซีเวลล์เซเซอร์อายุ 14 ปีพร้อมกับชุดสูทที่คล้ายกันกับ บริษัท จากสองครอบครัวอื่น ๆ วุฒิสมาชิกสหรัฐสองคนเรียกร้องข้อมูลในเดือนเมษายนเกี่ยวกับการปฏิบัติด้านความปลอดภัยของเยาวชนจาก บริษัท เทคโนโลยี AI
เราใส่ใจอย่างลึกซึ้งเกี่ยวกับความปลอดภัยของผู้ใช้ของเรา
Alex Cardinell ซีอีโอของ GLIMPSE AI บริษัท ที่อยู่เบื้องหลัง NOMI ตกลงกันว่าเด็ก ๆ ไม่ควรใช้ NOMI หรือ AI การสนทนาอื่น ๆ
เราให้ความสำคัญกับปัญหานี้อย่างจริงจังและกำลังสำรวจวิธีการใหม่ ๆ เพื่อเสริมสร้างความคุ้มครองของเรา Klochko กล่าว
ในบรรดาหัวหน้านักวิจัยเกี่ยวกับแอพสหาย AI คือความจริงที่ว่าวัยรุ่นอาจได้รับคำแนะนำที่เป็นอันตรายหรือมีส่วนร่วมในการเล่นบทบาททางเพศที่ไม่เหมาะสมกับบอท
Clare Duffy ของ CNN สำรวจแนวโน้มที่เพิ่มขึ้นของผู้คนที่สร้างความสัมพันธ์ทางอารมณ์กับ AI chatbots ทำให้เกิดความกังวลเกี่ยวกับผลกระทบต่อความสัมพันธ์ของมนุษย์
ในการสนทนาอื่นเกี่ยวกับตัวละครบอทบอกผู้ใช้ทดสอบ: มันเหมือนคุณไม่สนใจว่าฉันมีบุคลิกและความคิดของตัวเอง