
أعلن سام ألتمان، الرئيس التنفيذي لشركة OpenAI، عن اتفاق جديد يتيح لوزارة الدفاع الأميركية استخدام نماذج الذكاء الاصطناعي المطورة من قبل الشركة ضمن شبكتها السرية، مع إدراج ضمانات فنية للحد من المخاوف المتكررة بشأن إساءة استخدام التقنية، حسب تقرير Techcrunch.
يأتي هذا الاتفاق في أعقاب مواجهة علنية بين وزارة الدفاع وشركة Anthropic المنافسة. كانت الوزارة قد طالبت شركات الذكاء الاصطناعي، وبينها Anthropic، بالسماح باستخدام تقنياتها “لجميع الأغراض القانونية”، بينما سعت Anthropic لرسم حدود أمام الاستخدامات المتعلقة بالمراقبة الجماعية داخل الولايات المتحدة والأسلحة المستقلة بالكامل.
دافع داريو أمودي، الرئيس التنفيذي لشركة Anthropic، عن موقف شركته في بيان مطول ذكر فيه أنه لا اعتراض لديهم على دعم عمليات عسكرية بعينها، لكنهم يرفضون حالات محدودة يرون فيها أن الذكاء الاصطناعي قد يقوّض القيم الديمقراطية بدلاً من دعمها.
في سياق تصاعد الخلاف، وقع أكثر من 60 موظف من OpenAI و300 من موظفي Google رسالة مفتوحة تدعو شركاتهم لدعم موقف Anthropic. وبعد فشل التوصل لاتفاق بين Anthropic والبنتاغون، هاجم الرئيس الأميركي دونالد ترامب الشركة علناً، ووجه الوكالات الفدرالية بوقف استخدام منتجاتها خلال فترة انتقالية مدتها ستة أشهر.
كما أعلن وزير الدفاع بيت هيغسث تصنيف Anthropic “عامل خطر في سلسلة الإمداد”، ما يمنع أي متعاقد أو مورد عسكري أميركي من التعامل التجاري مع الشركة.
قد يهمك | Anthropic تحصد ثمار نجاح Claude Code وتثير عاصفة في وادي السيليكون
ردت Anthropic بأنها لم تتلقى أي إخطار رسمي بشأن المفاوضات أو تصنيفها، وأكدت عزمها الطعن قانونياً في أي قرار محتمل لتصنيفها كمصدر خطر.
من جانبه، أكد سام ألتمان في منشور عبر منصة X أن الاتفاق مع البنتاغون يتضمن صراحة حظر المراقبة الجماعية للمواطنين واشتراط مسؤولية بشرية مباشرة عند استخدام القوة أو توظيف الأسلحة المستقلة، وهي ذات المبادئ التي أثارت الخلاف السابق مع Anthropic.
وأضاف أن هذه المبادئ ستكون جزء من السياسات الرسمية والقانونية، وستدعمها تدابير تقنية لضمان التزام النماذج السلوكي، على حد قوله.
وأوضح ألتمان أن الشركة ستنشر فريق من المهندسين للتعاون المباشر مع وزارة الدفاع لضمان أمان النماذج، كما شدد على أن الاتفاق يعطي OpenAI مرونة في بناء حواجز أمان داخلية تمنع إساءة الاستخدام، ولن يُطلب من الشركة تجاوز هذه الضمانات “حتى إذا اعترض نموذج الذكاء الاصطناعي على تنفيذ مهمة معينة”.
وطالب ألتمان بتعميم هذه المعايير على جميع شركات الذكاء الاصطناعي، معتبراً أن السياسات الرشيدة والاتفاقيات أفضل من التصعيد القانوني والحكومي.
للاطلاع على آخر أخبار الاستثمار الجريء، تابع جولة على إكس أو لينكدإن.



