
قدم داريو أمودي (Dario Amodei)، الرئيس التنفيذي لشركة Anthropic، اعتذارًا علنيًا بعد تسريب مذكرة داخلية تضمنت انتقادات حادة لشركة OpenAI وبعض الجهات الداعمة لها، وذلك في وقت تواجه فيه شركته أزمة متصاعدة مع وزارة الدفاع الأمريكية.
المذكرة المسربة جاءت في خضم نزاع حاد بين Anthropic والبنتاغون حول شروط استخدام نماذج الذكاء الاصطناعي الخاصة بالشركة، وعلى رأسها نموذج Claude، وهو ما أدى في النهاية إلى تصنيف الشركة رسميًا كـ “مخاطر على سلسلة التوريد” في منظومة الدفاع الأمريكية.
الاعتذار العلني يعكس محاولة من الشركة لاحتواء الأزمة التي أثارت جدلًا واسعًا في وادي السيليكون حول العلاقة بين شركات الذكاء الاصطناعي والحكومات.
مذكرة داخلية أشعلت الجدل
بحسب التقارير، تضمنت المذكرة التي كتبها أمودي انتقادات لاذعة لشركة OpenAI وبعض الأطراف في صناعة الذكاء الاصطناعي، ووصفت بعض العاملين في الشركة المنافسة بأنهم “ساذجون” في طريقة تعاملهم مع قضايا التعاون مع الحكومة.
تسريب هذه الرسالة إلى الإعلام تسبب في تصعيد الأزمة، خاصة في ظل التوتر القائم أصلًا بين Anthropic ووزارة الدفاع الأمريكية بشأن شروط استخدام تقنيات الذكاء الاصطناعي في التطبيقات العسكرية.
بعد انتشار المذكرة، قال أمودي إن نبرة الرسالة كانت خاطئة وقدم اعتذارًا علنيًا عن طريقة صياغتها، مؤكدًا أنه لم يكن يقصد تصعيد الخلاف داخل القطاع.
خلفية الصراع مع البنتاغون
الأزمة بين Anthropic والحكومة الأمريكية بدأت عندما رفضت الشركة إزالة بعض القيود التي وضعتها على استخدام تقنياتها في التطبيقات العسكرية.
هذه القيود تشمل منع استخدام نماذجها في:
- الأسلحة المستقلة بالكامل
- المراقبة الجماعية الواسعة
لكن وزارة الدفاع الأمريكية كانت تطالب بالسماح باستخدام التكنولوجيا في “جميع الأغراض القانونية”، وهو ما اعتبرته الشركة توسعًا غير مقبول.
بعد فشل المفاوضات، قرر البنتاغون تصنيف الشركة رسميًا كمخاطر على سلسلة التوريد، وهو إجراء يمكن أن يمنع المتعاقدين العسكريين من استخدام تقنيات Anthropic في مشاريع الدفاع.
تداعيات الأزمة على صناعة الذكاء الاصطناعي
هذه المواجهة تسلط الضوء على توتر متزايد في صناعة الذكاء الاصطناعي بين الاعتبارات الأخلاقية للشركات التقنية ومتطلبات الأمن القومي للحكومات.
فمع تحول الذكاء الاصطناعي إلى عنصر أساسي في العمليات العسكرية وتحليل البيانات الاستخباراتية، أصبحت شركات التكنولوجيا الكبرى لاعبًا رئيسيًا في البنية الدفاعية الحديثة.
لكن في المقابل، تحاول بعض الشركات — مثل Anthropic — وضع قيود واضحة على كيفية استخدام تقنياتها.
خلاصة جولة
اعتذار رئيس Anthropic لا ينهي الأزمة، لكنه يعكس محاولة لخفض التوتر في واحدة من أكبر المواجهات بين شركة ذكاء اصطناعي والحكومة الأمريكية.
ومع استمرار سباق الذكاء الاصطناعي عالميًا، يبدو أن السؤال لم يعد فقط من يطور أقوى النماذج، بل أيضًا من يحدد حدود استخدامها.



