
تواجه شركة Anthropic موجة تصعيد حكومي غير مسبوقة بعد أن أدرجتها الإدارة الأميركية على قائمة الحظر الفوري بتهمة عدم التعاون الكامل مع طلبات وزارة الدفاع في قضايا المراقبة الجماعية وتطوير أنظمة تسليح ذاتية القرار.
القرار جاء في أعقاب رفض Anthropic السماح باستخدام تقنياتها في مجالات اعتبرتها الشركة “خطاً أحمر”، وعلى رأسها مراقبة المواطنين الأميركيين أو السماح للطائرات المسيّرة باتخاذ قرار القتل دون تدخل بشري.
القضية تهدد بفقدان عقود دفاعية تصل إلى 200 مليون دولار، وتضع مستقبل العلاقة مع المقاولين العسكريين الأميركيين أمام نقطة انهيار، وسط تأكيد رسمي من البيت الأبيض بوقف التعامل مع الشركة على مستوى جميع الأجهزة الفيدرالية.
مقاومة التنظيم
يرى ماكس تغمارك، أستاذ الفيزياء في معهد MIT وأحد أبرز الأصوات الداعمة لضوابط الذكاء الاصطناعي، أن Anthropic تحصد الآن ثمار خيارات اتخذتها مبكراً مثل مقاومة التنظيم الشامل، وهي سياسة لا تخصها وحدها بل امتدت إلى معظم شركات القطاع، في حديث مع Techcrunch.
لسنوات، اعتمدت الشركات الكبرى معايير ذاتية تعِد بالمسؤولية دون أي إلزام قانوني، حتى مع تسابقها في إطلاق نماذج متقدمة يزداد أثرها اتساعاً على المجتمع.
ألزمت Anthropic نفسها نظرياً بعدم طرح أنظمة ذكاء اصطناعي فائقة إلا بعد التيقن من أنها غير مؤذية، لكنها تخلت عن هذا التعهد ضِمنياً استجابة لتغيرات السوق والضغوط التنافسية.
شركات أخرى تبنت مساراً مشابهاً، فشعارات مثل “لا تكن شريراً” اختفت تدريجياً في Google، بينما تخلت OpenAI وxAI عن برامجها الداخلية المرتبطة بالسلامة جزئياً أو بالكامل.
ذو صلة | OpenAI تبرم اتفاقية مع البنتاغون بعد فشل صفقة Anthropic
فراغ تشريعي
يشير تغمارك إلى مفارقة التنظيم في الولايات المتحدة: إذا اكتشف مفتش الصحة أن مطعماً يحوي فئراناً يُغلق فوراً لحين الالتزام بالضوابط، بينما لا توجد معايير رقابية ملزمة تمنع شركات الذكاء الاصطناعي من إطلاق أدوات شديدة التأثير بلا ضامن واضح للسلامة.
غياب القوانين فتح الباب لما يسميه تغمارك “عفو شركاتي”، حيث تكتفي الشركات بتعهدات تطوعية تفتقر لأي قوة تنفيذية.
النتيجة، حسب رأيه، أن الحماية القانونية للمجتمع تكاد تكون معدومة، ولا توجد عوائق رسمية أمام بناء أو استخدام تقنية قادرة نظرياً على انتهاك الحريات أو تهديد أمن الدولة.
حجة السباق مع الصين
عادة ما تبرر الشركات رفض التنظيم بحجة سباقها مع الصين. يرى تغمارك أن تلك الحجة ضعيفة، إذ أن الصين تتجه فعلاً لتقييد تطبيقات الذكاء الاصطناعي ذات التبعات الاجتماعية السلبية وتضع ضوابط صارمة لمنع فقدان السيطرة على أدوات لها أثر مباشر على النظام الاجتماعي.
ويضيف أن قدرة أي شركة صينية أو أميركية على بناء أنظمة قادرة على تهديد استقرار الدولة مستبعدة في كلا السياقين.
الذكاء الاصطناعي الخارق يهدد الأمن
يضغط بعض واضعي السياسات في واشنطن لتصنيف مشاريع الذكاء الاصطناعي ذات القدرات الخارقة ضمن مخاطر الأمن القومي وليس فقط أدوات لتعزيز التفوق الأميركي، مع تصاعد القلق من طروحات قادة القطاع حول إمكانية خلق “بلد من العباقرة في مركز بيانات” قد لا يخضع للرقابة الحكومية الكاملة.
يشير تغمارك إلى أن التوقعات بشأن تطور الذكاء الاصطناعي تجاوزها الواقع؛ الأنظمة الحالية وصلت إلى مستويات أكاديمية عليا في تخصصات الرياضيات والبحث العلمي خلال فترة وجيزة.
ويستشهد بقياسات نشرها فريق باحثين حديثاً تظهر أن نماذج مثل GPT-4 حققت تقدماً بنسب كبيرة خلال سنوات، ما يفتح الباب لاحتمالات ذهاب الذكاء الاصطناعي بعيداً عن السيطرة أسرع مما نتوقع.
التساؤلات مطروحة الآن حول تماسك موقف شركات القطاع: هل تتضامن بقية الشركات مع Anthropic أم تتسابق على عقود وزارة الدفاع؟ النتائج ستكشف الحدود الحقيقية للفصل بين شعارات الأمان والمصالح التجارية.
حل واقعي
يعتقد تغمارك أن البديل الوحيد القابل للحياة هو إخضاع الشركات لضوابط مشابهة لما هو معمول به في الصناعات ذات الحساسية العالية، كتجارب السلامة للمنتجات الطبية، بحيث تضطر كل شركة لإثبات السلامة والتحكم قبل طرح أدواتها على نطاق واسع.
ويرى أن استمرار غياب التنظيم سيبقي الصناعة عرضة لمخاطر ارتدادية تهدد الجميع، بمن فيهم روادها.



