غطت الرسائل المكتوبة بالطباشير الرصيف خارج مكاتب OpenAI في سان فرانسيسكو صباح يوم الاثنين: “أين خطوطكم الحمراء؟”، “يجب أن تتحدثوا بصوت عالٍ”. “ما هي الضمانات؟”
الرسائل، بحسب وسائل التواصل الاجتماعي والتقارير الإخبارية، كتبها نشطاء. لكن بعض هذه المشاعر يتقاسمها الكثيرون داخل المبنى، بعد أن أبرمت شركة OpenAI صفقة مع البنتاغون يوم الجمعة لاستخدام نماذج الذكاء الاصطناعي الخاصة بها في الأنظمة السرية.
وكانت شركة Anthropic قد رفضت بالفعل تحديثًا لعقدها مع البنتاغون لأنها شعرت أن اللغة لا تلتزم بالخطوط الحمراء للشركة حول استخدام الذكاء الاصطناعي في المراقبة الجماعية والأسلحة المستقلة. ونتيجة لذلك، أدرج البنتاغون الشركة في القائمة السوداء، ووصفها بأنها تمثل خطرًا على سلسلة التوريد.
العقود غارقة في التعقيد القانوني والفني. لكن في المنتديات العامة والمحادثات الخاصة، يتحدث موظفو OpenAI عن كيفية تعامل قيادة OpenAI مع مفاوضات البنتاغون. قال أحد الموظفين الحاليين لشبكة CNN بشرط عدم الكشف عن هويته للتحدث بحرية، إن العديد من الموظفين “يحترمون حقًا” شركة Anthropic لوقوفها في وجه البنتاغون ويشعرون بالإحباط من تعامل OpenAI مع عقدهم الخاص.
مع اقتراب الموعد النهائي الذي حدده البنتاغون يوم الجمعة لكي توافق شركة Anthropic على عقدها، فاجأ سام ألتمان، الرئيس التنفيذي لشركة OpenAI، الكثيرين عندما قال إنه اتفق مع منافسه، الرئيس التنفيذي لشركة Anthropic، داريو أمودي، ويتقاسم نفس الخطوط الحمراء.
لكن اتضح أن ألتمان كان يتفاوض بشأن صفقته الخاصة. اندلعت الانتقادات بعد ساعات، عندما أعلنت شركة OpenAI عن عقدها مع البنتاغون، ويبدو أنها تنقض لتحل محل شركة Anthropic. بعد أن نشرت شركة OpenAI بعض شروط العقد يوم السبت، تساءل العديد من المراقبين الخارجيين على الفور عن كيفية الالتزام بالخطوط الحمراء بشأن الأسلحة المستقلة والمراقبة الجماعية، حيث قال البعض إن اللغة ستظل تسمح بتجاهل الضمانات.
ردًا على ذلك، أرسل ألتمان أسئلة علنية بشأن X مساء السبت وأعلن يوم الاثنين أن OpenAI قامت بتعديل عقد البنتاغون الخاص بها لإنشاء حواجز حماية أكثر وضوحًا من شأنها أن تمنع استخدام خدمات OpenAI في برامج المراقبة. (لم يتم ذكر الأسلحة المستقلة في اللغة المضافة التي نشرها على الإنترنت).
يدرك العديد من الموظفين الحاجة إلى دعم الحكومة حيث تتنافس الولايات المتحدة مع الصين في مجال الذكاء الاصطناعي، وفقًا للموظف الحالي. لكنهم شعروا أيضًا أنه تم التعجيل بإبرام عقد بهذه الأهمية والضخامة.
قال الموظف: “يتعلق الأمر جزئيًا بكيفية إدراك الأمر، وكيف تم توصيله، وما أصبح عليه السرد”.
أعرب بعض الموظفين علناً عن إحباطهم. نشر عالم الأبحاث إيدان ماكلولين على موقع X صباح الاثنين قبل تحديث عقد ألتمان: “أنا شخصياً لا أعتقد أن هذه الصفقة كانت تستحق العناء”. ووصف لاحقًا المناقشة الداخلية حول الموضوع بأنها “ساحقة”، لكنه قال إنه شعر “بفخر لا يصدق للعمل في مكان حيث يمكن للناس التعبير عن آرائهم”.
نشرت ياسمين وانغ، التي تعمل في قضايا سلامة الذكاء الاصطناعي في OpenAI، أنها تريد “مستشارًا قانونيًا مستقلاً” لتحليل لغة العقد الجديدة التي أعلن عنها ألتمان يوم الاثنين. وفي وقت لاحق أعادت نشر التحليلات القانونية التي دعمت ادعاء شركة OpenAI بأنها عززت خطوطها الحمراء، وأخرى انتقدتها ووصفتها بأنها “لغة مراوغة”.
واعترف ألتمان بتعطل الاتصالات.
وكتب ألتمان على موقع X يوم الاثنين: “القضايا معقدة للغاية وتتطلب تواصلًا واضحًا”. وأضاف: “كنا نحاول بصدق تهدئة الأمور وتجنب نتيجة أسوأ بكثير، لكنني أعتقد أن الأمر بدا انتهازيًا وقذرًا”.
خلال اجتماع شامل في OpenAI يوم الثلاثاء، أكد ألتمان مجددًا أن التعجل في الصفقة كان “خطأ”، وفقًا لمصدر مطلع على الاجتماع. لكن شركة OpenAI لا تستطيع التأثير على حالات الاستخدام الفردي لتقنيتها، كما قال ألتمان، مثل التمييز بين العمليات العسكرية المحددة التي قد تعتبر جيدة أو سيئة.
وأشار متحدث باسم OpenAI إلى CNN إلى تصريحات ألتمان العامة.
كما شعر بعض الموظفين يوم الثلاثاء بالإحباط لأن بعض المراقبين يصورون الأنثروبيك على أنها بطولية على الرغم من السنوات السابقة من العمل مع البنتاغون ومقاول الدفاع الرئيسي بالانتير دون القليل من التدقيق.
أخبر ألتمان الموظفين يوم الثلاثاء أنه يعتقد أن الحكومات يجب أن تعمل مع مختبرات مثل OpenAI التي تفرض معايير السلامة، بدلاً من الشركات التي تتمتع بوسائل حماية أقل. وقال إنه يحث الحكومة على إسقاط تصنيف مخاطر سلسلة التوريد الخاص بشركة Anthropic.
وقال في الاجتماع: “أعتقد أننا نأمل أن يكون لدينا أفضل النماذج التي ستشجع الحكومة على أن تكون على استعداد للعمل معنا، حتى لو كانت إجراءات الأمان الخاصة بنا تزعجهم، أو تضع بعض القيود أو أي شيء آخر”.
