في الأسبوع الماضي ، أجاب Grok ، Chatbot من Elon Musk's Xai ، لمستخدم على X الذي طرح سؤالًا حول العنف السياسي.
تثير التبادلات ، وغيرها من أعجبها ، مخاوف من أن أغنى رجل في العالم قد يحاول التأثير على Grok لمتابعة نظرته إلى العالم - قد يؤدي إلى المزيد من الأخطاء والمواطن ، وتصفح أسئلة مهمة حول التحيز ، وفقًا للخبراء.
admit هذا حقًا بداية معركة طويلة ستلعب على مدار سنوات عديدة حول ما إذا كان ينبغي أن تكون أنظمة الذكاء الاصطناعى يجب أن تكون مطلوبة لإنتاج معلومات واقعية ، أو ما إذا كان بإمكان صانعيهم مجرد توجيه المقاييس لصالح تفضيلاتهم السياسية إذا كانوا يرغبون في ذلك ، حيث عمل ديفيد إيفان هاريس ، وهو باحث ومحاضر الذكاء الاصطناعي في UC Berkele الذي كان يعمل في السابق على الميتا.
وُلد موسك ونشأ في جنوب إفريقيا ولديه تاريخ من القول بأن "إبادة جماعية بيضاء" قد ارتكبت في الأمة.
لكن إعادة تدريب نموذج من نقطة الصفر إلى "إزالة كل الأشياء (المسك) لا تفضل أن يستغرق الكثير من الوقت والمال - ناهيك عن تدهور تجربة المستخدم.
should سوف يستخدمون الأوزان ووضع العلامات التي سبق لهم في الأماكن التي يرونها (AS) مناطق المشكلات ، كما قال نيلي.
"بالنسبة للجزء الأكبر ، لا يذهب الناس إلى نموذج اللغة لتكرار أيديولوجية ، وهذا لا يضيف قيمة حقًا ، قال.