gettyimages 2203694725 20250627130659123

Elon Musk ليس سعيدًا بـ AI chatbot. يخشى الخبراء من أنه يحاول جعل Grok 4 في صورته –

لم يكن المسك سعيدًا.

â € œmajor فشل ، لأن هذا خطأ موضوعي. كتب Grok ببغاء وسائل الإعلام القديمة “، كتب Musk ، على الرغم من أن Grok استشهد بيانات من مصادر حكومية مثل وزارة الأمن الداخلي. في غضون ثلاثة أيام ، وعد Musk بتقديم تحديث كبير لـ Grok من شأنه “” مجموعة المعرفة الإنسانية بأكملها ، “دعوة المستخدمين X إلى إرسال” حقائق دقيقة “للمساعدة في تدريب النموذج.

“الكثير من القمامة في أي نموذج الأساس مدرب على البيانات غير المصححة ، كتب.

يوم الجمعة ، أعلن Musk عن أن النموذج الجديد ، الذي يسمى Grok 4 ، سيتم إصداره بعد 4 يوليو.

إن التبادلات ، وغيرها من أعجبها ، تثير مخاوف من أن أغنى رجل قد يحاول التأثير على Grok لمتابعة نظرته إلى العالم – يحتمل أن يؤدي إلى المزيد من الأخطاء والمواطن ، وتسلق أسئلة مهمة حول التحيز ، وفقًا للخبراء.

والقرارات التي تتخذها شخصيات قوية مثل Musk حول تطور التكنولوجيا قد تكون حاسمة. بشكل خاص بالنظر إلى أن Grok يتم دمجه في واحدة من أكثر الشبكات الاجتماعية شعبية في العالم – وواحدة حيث تمت إزالة الدرابزينات القديمة حول انتشار المعلومات الخاطئة. في حين أن Grok قد لا يكون شائعًا مثل chatgpt من Openai ، فإن إدراجها في منصة الوسائط الاجتماعية في Musk قد وضعها أمام جمهور رقمي ضخم.

قال ديفيد إيفان هاريس ، وهو باحث من AI ومحتال منظمة العفو الدولية في UC Berkeley الذي عملت في السابق ، “إن هذه هي بداية معركة طويلة ستلعب على مدار سنوات عديدة حول ما إذا كان ينبغي أن تكون أنظمة الذكاء الاصطناعى قد تكون مطلوبة لإنتاج معلومات واقعية ، أو ما إذا كان بإمكان صانعيهم مجرد توجيه المقاييس لصالح تفضيلاتها السياسية في السابق.

وقال مصدر مطلع على الموقف لشبكة CNN إن مستشارو Musk أخبروه Grok – لا يمكن أن يكون مجرد مصبوب في وجهة نظره الخاصة ، وأنه يفهم ذلك.

لم يستجب Xai لطلب التعليق.

لعدة أشهر ، تساءل المستخدمون عما إذا كان Musk قد كان يميل Grok ليعكس نظرته للعالم.

في شهر مايو ، طرح chatbot بشكل عشوائي ادعاءات الإبادة الجماعية البيضاء في جنوب إفريقيا في ردود على الاستعلامات غير ذات الصلة تمامًا. في بعض الردود ، قال Grok إنه تم القبول كإبادة جماعية بيضاء حقيقية في جنوب إفريقيا.

وُلد Musk وترعرع في جنوب إفريقيا وله تاريخ من القول بأن الإبادة الجماعية البيضاء قد ارتكبت في البلاد.

بعد بضعة أيام ، قال Xai إن “التعديل غير المترسمة” في ساعات الصباح الباكر للغاية دفع بتوقيت المحيط الهادئ إلى chatbot من الذكاء الاصطناعي إلى “استجابة محددة حول موضوع سياسي” ينتهك سياسات XAI.

بينما يوجه Musk فريقه إلى إعادة تدريب Grok ، يعتقد الآخرون في مساحة نموذج اللغة الكبيرة مثل Cohere Nick Frosst أن Musk يحاول إنشاء نموذج يدفع وجهات نظره الخاصة.

يحاول إنشاء نموذج يعكس الأشياء التي يؤمن بها. وقال فروسست إن هذا سيجعله بالتأكيد نموذجًا أسوأ للمستخدمين ، ما لم يصدقوا كل ما يؤمن به ويهتم فقط بهدوء هذه الأشياء.

من الشائع بالنسبة لشركات الذكاء الاصطناعى مثل Openai و Meta و Google تحديث نماذجها باستمرار لتحسين الأداء ، وفقًا لـ Frosst.

لكن إعادة تدريب نموذج من نقطة الصفر إلى “كل الأشياء (المسك) لا تحب أن تستغرق الكثير من الوقت والمال – ناهيك عن تدهور تجربة المستخدم -” Frosst.

قال فروسست: “وهذا من شأنه أن يجعل الأمر أسوأ تقريبًا”. “لأنه سيزيل الكثير من البيانات ويضيف في BIAS.

هناك طريقة أخرى لتغيير سلوك النموذج دون إعادة التدريب تمامًا وهي إدراج مطالبات وضبط ما يسمى الأوزان ضمن رمز النموذج. يمكن أن تكون هذه العملية أسرع من إعادة تدريب النموذج تمامًا لأنها تحتفظ بقاعدة المعرفة الحالية.

قد يستلزم المطالبة توجيه نموذج للرد على بعض الاستعلامات بطريقة محددة ، في حين أن الأوزان تؤثر على عملية اتخاذ القرارات لنموذج الذكاء الاصطناعي.

وقال دان نيلي ، الرئيس التنفيذي لشركة Vermillio التي تساعد على حماية المشاهير من DeepFakes التي تم إنشاؤها من الذكاء الاصطناعى ، لشبكة CNN إن XAI يمكنه ضبط أوزان Grok وعلامات البيانات في مناطق ومواضيع محددة.

قال نيلي: “سوف يستخدمون الأوزان ووضع العلامات التي سبق لها في الأماكن التي يرونها (AS) مناطق المشكلات”. – سوف يذهبون ببساطة إلى مستوى أكبر من التفاصيل حول تلك المجالات المحددة.

لم يوضح Musk التغييرات القادمة في Grok 4 ، لكنه قال إنه سيستخدم نموذج ترميز مخصص.

قال Musk إن AI chatbot الخاص به سيكون “الحقيقة المعقولة عن الحقيقة” ، لكن جميع نماذج الذكاء الاصطناعى لها بعض التحيز لأنها تتأثر بالبشر الذين يتخذون خيارات حول ما يدخل في بيانات التدريب.

– لا يوجد لدى كل البيانات التي ينبغي أن تحتوي عليها. عندما تم إعطاؤه جميع البيانات ، يجب أن يكون في النهاية قادرًا على تقديم تمثيل لما يحدث ، كما قال نيلي. – ومع ذلك ، فإن الكثير من المحتوى الموجود على الإنترنت لديه بالفعل عازمة معينة ، سواء كنت توافق عليها أم لا.

من الممكن أن يختار الناس في المستقبل مساعدهم AI استنادًا إلى نظرتهم للعالم. لكن فروسست قال إنه يعتقد أن مساعدي الذكاء الاصطناعى المعروفين لديهم منظور معين سيكونون أقل شعبية ومفيدة.

وقال: “بالنسبة للجزء الأكبر ، لا يذهب الناس إلى نموذج لغة لتكرار أيديولوجية مرة أخرى لهم ، وهذا لا يضيف قيمة حقًا”. “أنت تذهب إلى نموذج لغة لتفعله مع القيام بشيء من أجلك ، قم بمهمة لك.

في نهاية المطاف ، قال نيلي إنه يعتقد أن المصادر الموثوقة ستنتهي في النهاية إلى القمة حيث يبحث الناس عن أماكن يمكنهم الوثوق بها.

لكن “الرحلة للوصول إلى هناك مؤلمة للغاية ومربكة للغاية” ، كما قال نيلي وبين بعض التهديدات للديمقراطية.

Author

  • Ali Hussain

    Ali Hussain is an award-winning news reporter with over a decade of experience covering breaking news, politics, and human-interest stories. Known for insightful reporting and engaging storytelling, Ali has worked for both national networks and local news stations, earning recognition for integrity and in-depth investigative journalism. Passionate about informing the public, Ali thrives on delivering clear, impactful news coverage that resonates with diverse audiences.

More From Author

Leave a Reply

Your email address will not be published. Required fields are marked *