رفعت شركة أنثروبيك دعوى قضائية ضد وزارة الدفاع والوكالات الفيدرالية الأخرى يوم الاثنين بسبب قرار إدارة ترامب بتصنيف شركة الذكاء الاصطناعي على أنها “خطر سلسلة التوريد”.
هذه الدعوى القضائية هي أحدث تطور في المواجهة المستمرة بين البنتاغون وواحدة من أبرز شركات الذكاء الاصطناعي في العالم حيث يحاول البيت الأبيض تعزيز اعتماد الذكاء الاصطناعي في الحكومة.
عادة ما يتم تحديد مخاطر سلسلة التوريد للشركات المرتبطة بخصوم أجانب، ويؤثر ذلك على كيفية قيام شركة Anthropic بأعمال تجارية مع الشركات التي تعمل مع وزارة الدفاع.
وتزعم شركة أنثروبيك أن تصنيفها على أنها تشكل خطراً على سلسلة التوريد – وتوجيهات إدارة ترامب بأن تتوقف الوكالات الفيدرالية عن استخدام تكنولوجيا الشركة – غير سليم من الناحية القانونية. ووصفت الشركة هذه التحركات بأنها “غير مسبوقة وغير قانونية” في الملف القانوني.
وقال متحدث باسم الأنثروبيك في بيان: “إن طلب المراجعة القضائية لا يغير التزامنا الطويل الأمد بتسخير الذكاء الاصطناعي لحماية أمننا القومي، ولكن هذه خطوة ضرورية لحماية أعمالنا وعملائنا وشركائنا”. وأضاف: “سنواصل اتباع كل السبل نحو الحل، بما في ذلك الحوار مع الحكومة”.
ورفض البنتاغون التعليق على الدعوى، مستشهدا بسياسة الوزارة. وقالت المتحدثة باسم البيت الأبيض ليز هيوستن إن الرئيس “لن يسمح أبدًا لشركة يسارية متطرفة” بإملاء كيفية عمل الجيش.
وقال هيوستن في بيان: “يضمن الرئيس ووزير الحرب أن المقاتلين الشجعان الأمريكيين لديهم الأدوات المناسبة التي يحتاجون إليها لتحقيق النجاح وسيضمنون عدم احتجازهم أبدًا كرهائن للأهواء الأيديولوجية لأي من قادة شركات التكنولوجيا الكبرى”. “في ظل إدارة ترامب، سوف يلتزم جيشنا بدستور الولايات المتحدة – ولن تلتزم أي شركة بشروط الخدمة الخاصة بشركة الذكاء الاصطناعي”.
أصدر البنتاغون تصنيف مخاطر سلسلة التوريد بعد انهيار المفاوضات لتحديث عقده مع Anthropic بسبب خطين أحمرين تريد Anthropic من وزارة الدفاع الموافقة عليهما: أن أداة الذكاء الاصطناعي الخاصة بها لن تستخدم للمراقبة الجماعية للمواطنين الأمريكيين، وأنها لن تستخدم للأسلحة المستقلة.
ومع ذلك، يريد البنتاغون استخدام الذكاء الاصطناعي الخاص بشركة Anthropic “لجميع الأغراض المشروعة”، قائلاً إنه لا يمكنه السماح لشركة خاصة بإملاء كيفية استخدام أدواتها في حالات الطوارئ المتعلقة بالأمن القومي. ادعى البنتاغون سابقًا أنه غير مهتم باستخدام الذكاء الاصطناعي للمراقبة الجماعية للمواطنين الأمريكيين والأسلحة المستقلة.
وأمرت إدارة ترامب في 27 فبراير/شباط الوكالات الفيدرالية والمقاولين العسكريين بوقف التعامل مع شركة أنثروبيك بعد أن رفضت الشركة السماح للبنتاغون باستخدام تكنولوجيتها دون قيود. وفي اليوم نفسه، قال وزير الدفاع بيت هيجسيث إن شركة أنثروبيك سيتم تصنيفها على أنها مخاطرة في سلسلة التوريد، وأضاف أنه “لا يجوز لأي مقاول أو مورد أو شريك يتعامل مع الجيش الأمريكي إجراء أي نشاط تجاري مع أنثروبك”.
تزعم شركة Anthropic في ملفها أن الحكومة تنتقم من الشركة لاستخدامها الخطاب المحمي بموجب التعديل الأول. وتجادل أيضًا بأن ترامب ليس لديه السلطة لتوجيه الوكالات الفيدرالية للتوقف عن استخدام تقنية Anthropic، وأن الشركة لم تُمنح الإجراءات القانونية الواجبة الكافية.
وتسعى الشركة للحصول على انتصاف قضائي، زاعمة أن “العقود الحالية والمستقبلية مع أطراف خاصة محل شك أيضًا” وأن “مئات الملايين من الدولارات” معرضة للخطر بسبب تصرفات إدارة ترامب.
وجاء في التسجيل: “علاوة على تلك الأضرار الاقتصادية المباشرة، تتعرض سمعة الأنثروبيك وحريات التعديل الأول الأساسية للهجوم”. وفي غياب الإنصاف القضائي، فإن هذه الأضرار سوف تتفاقم في الأسابيع والأشهر المقبلة
قال الرئيس التنفيذي لشركة Anthropic، داريو أمودي، إن الرسالة الرسمية التي تلقتها والتي تحدد أنها تمثل خطرًا على سلسلة التوريد تشير إلى أنه سيتم منع عملائها فقط من استخدام كلود في العمل المرتبط مباشرة بعقود البنتاغون الخاصة بهم.
وقالت شركة أنثروبيك في وقت سابق إنها تخطط للطعن في هذا التصنيف أمام المحكمة، مضيفة أنه “يشكل سابقة خطيرة لأي شركة أمريكية تتفاوض مع الحكومة”.
قدم العشرات من العلماء والباحثين في OpenAI وGoogle DeepMind – وهما أكبر منافسين للشركة – مذكرة صديق بصفتهم الشخصية يوم الاثنين لدعم الأنثروبيك. وجادلت المجموعة بأن تحديد مخاطر سلسلة التوريد يمكن أن يضر بالقدرة التنافسية للولايات المتحدة في الصناعة ويعيق المناقشات العامة حول مخاطر وفوائد الذكاء الاصطناعي. وقالوا أيضًا إن الخطوط الحمراء التي حددتها الأنثروبيك تثير مخاوف مشروعة.
وكتبوا في الموجز: “إلى أن يوجد إطار قانوني لاحتواء مخاطر نشر أنظمة الذكاء الاصطناعي الرائدة، فإن الالتزامات الأخلاقية لمطوري الذكاء الاصطناعي – واستعدادهم للدفاع عن هذه الالتزامات علنًا – لا تشكل عقبات أمام الحكم الرشيد أو الابتكار”. “إنهم مساهمون فيه.” وينبغي للمحكمة أن تقول ذلك
التقى أمودي مع هيجسيث في 24 فبراير، لكنهما فشلا في التوصل إلى اتفاق. وفي منشور بالمدونة يشرح قرار الشركة برفض عرض البنتاغون، قال أمودي إن الذكاء الاصطناعي لا يمكن استخدامه حاليًا بشكل موثوق وآمن في حالات مثل المراقبة الجماعية والأسلحة المستقلة. وقال أيضًا إن الشركة تجري “محادثات مثمرة” مع البنتاغون حول كيفية العمل معًا مع الالتزام بخطوطها الحمراء وحول ضمان انتقال سلس إذا لم يتم التوصل إلى اتفاق.
قال ترامب في منشور على موقع Truth Social بتاريخ 27 فبراير/شباط إن شركة Anthropic ارتكبت “خطأ كارثيًا” واتهم الشركة بمحاولة إملاء كيفية عمل الجيش.
أبرمت OpenAI صفقة مع البنتاغون بعد ساعات فقط من أمر إدارة ترامب.
لم ترتفع شهرة الأنثروبيك إلا وسط الصراع. تجاوز تطبيق Claude AI تطبيق ChatGPT الخاص بـ OpenAI في متجر تطبيقات iPhone للمرة الأولى بعد يوم من إعلان البنتاغون أنه سينهي عقده مع Anthropic. وقالت الشركة أيضًا في 5 مارس إن أكثر من مليون شخص يسجلون في كلود كل يوم.
ساهم هاداس جولد وهيلي بريتسكي من سي إن إن في إعداد هذا التقرير.
