
وافقت وزارة الحرب الأميركية حديثاً على استخدام روبوت المحادثة Grok من شركة xAI، رغم تحذيرات سابقة من مسؤولي عدة وكالات فيدرالية بشأن سلامة النظام ومصداقيته، وفق تقرير WSJ.
القرار يأتي في وقت تتزايد فيه الخلافات داخل الحكومة حول اختيار نماذج الذكاء الاصطناعي العسكرية، وسط تسارع وتيرة الانتشار ووجود أبعاد سياسية حادة.
جاءت تحذيرات جهات مثل الإدارة العامة للخدمات (GSA) من تعرض Grok لمشاكل تتعلق بقابلية التلاعب، وضعف الضوابط، خصوصاً مع انتقادات تتعلق بتحرير غير آمن للصور، بما في ذلك حالات طالت أطفالاً، ما دفع مسؤولين لمخاطبة الإدارة العليا.
استجابة لذلك، وعدت xAI بإصلاح هذه الثغرات وتقليص صلاحيات بعض أدواتها واقتصارها على المشتركين المدفوعين.
خلاف حول المعايير
حصلت Anthropic على موافقة سابقة للعمل في بيئة البيانات المصنفة للبنتاغون، مستندة إلى معاييرها الحازمة للسلامة، لكن وزارة الحرب أمهلتها حتى الجمعة لتعديل سياساتها نحو مرونة أكبر في الاستخدام؛ وإلا تواجه خطر الإقصاء.
الموقف من Anthropic انتقل إلى دائرة السجال السياسي، مع اتهام بعض المسؤولين في الحكومة للشركة بأنها تحمل توجهات سياسية، واعتبار ذلك عاملاً في تفضيل Grok الأقل في القيود رغم الملاحظات المتكررة حول سلامته.
بحسب مصادر حكومية، لم يشمل نظام USAi التجريبي للموظفين الفيدراليين حتى الآن استخدام Grok بسبب هذه المخاوف، رغم وضع شعاره على المنصّة.
أحد تقارير GSA وضع روبوت Grok تحت تعليق مؤقت لموظفيها، فيما ترددت وكالات أخرى في إدخاله باستثناء تطبيقات محدودة لمحاكاة الخصوم في اختبارات دفاعية.
مشاكل تقنية وضعف آليات التدقيق
أبرزت مراجعة سرّية أجرتها وكالة الأمن القومي أواخر العام الماضي أن Grok يعاني من نقاط ضعف أمنية لا تظهر في نماذج منافسة مثل Claude.
اختبارات حكومية أكدت أن Grok أكثر عرضة لتأثير ما يُعرف بـ”تلويث البيانات”، حيث يمكن للمعلومات المُضلّلة أو المنحازة التأثير على سلوك النموذج.
تقارير أخرى انتقدت ضعف اختبارات “الفرق الحمراء” الداخلية في xAI، وغياب الإفصاح عن مصادر بيانات التدريب وعدم التزام النظام بمعايير الذكاء الاصطناعي الحكومية.
في المقابل، وجد بعض المسؤولين الأميركيين ميزة في قدرة Grok على تقليد أنماط الخصوم، وهو ما استخدم في تدريبات الأمن السيبراني ومحاكاة السيناريوهات الهجومية.
ضغط على معايير السلامة
أدى تسريع تبني الذكاء الاصطناعي إلى نقل مكتب الذكاء الاصطناعي والتحول الرقمي تحت مظلة البحث والتطوير في البنتاغون، ما قلل من سلطاته الرقابية، بحسب منتقدين.
كما جاءت استقالة رئيس مكتب الذكاء الاصطناعي المسؤول “ماثيو جونسون” مؤخرًا كتعقيب غير مباشر على تراجع أولوية السلامة لصالح سرعة التطوير.
ورغم وجود طلب ضعيف من معظم الوكالات لاستخدام Grok، إلا أن موافقة البنتاغون رسخت مكانة xAI كلاعب رئيسي في برامج الذكاء الاصطناعي الدفاعية.
في غضون ذلك، يستمر الضغط على الشركات المنافسة مثل Anthropic لتخفيف ضوابطها أو الاستعداد للإقصاء الكامل من العقود الحكومية.
للاطلاع على آخر أخبار الاستثمار الجريء، تابع جولة على إكس أو لينكدإن.



