
في عالم البنوك والاستثمار، لا تأتي المخاطر عادة بشكل مفاجئ من داخل التكنولوجيا نفسها.
القطاع اعتاد التعامل مع تقلبات الأسواق، الأزمات المالية، وحتى الهجمات الإلكترونية التقليدية.
لكن ما بدأ يظهر مؤخرًا يختلف في طبيعته، لأنه لا يرتبط بحدث خارجي، وإنما بأداة تم تطويرها أساسًا لتكون أكثر ذكاءً وكفاءة.
هذا ما يفسر نبرة القلق التي ظهرت في تصريحات David Solomon، الرئيس التنفيذي لـ Goldman Sachs، عندما تحدث عن نموذج Mythos الذي تعمل عليه Anthropic.
الحديث لم يكن عن منافسة تقنية أو سباق في الأداء، وإنما عن نوع جديد من المخاطر بدأ يفرض نفسه داخل المؤسسات المالية.
القصة لا تبدأ من إطلاق منتج جديد في السوق، لأن النموذج لم يتم طرحه للعامة أصلًا.
ما حدث أن هذا النظام، خلال اختبارات محدودة، أظهر قدرة على التعامل مع الثغرات الأمنية بطريقة تتجاوز ما اعتادت عليه النماذج السابقة.
لم يكن الأمر مجرد تحليل أو اقتراح حلول، وإنما تنفيذ سلسلة خطوات مترابطة تحاكي هجومًا إلكترونيًا كاملًا، وهو ما نقل النقاش من مستوى “ما يمكن أن يقوله الذكاء الاصطناعي” إلى “ما يمكن أن يفعله”.
في هذه اللحظة تحديدًا، تغيرت طريقة النظر إلى الذكاء الاصطناعي داخل المؤسسات المالية.
البنوك لا تتعامل مع أنظمة منفصلة، وإنما مع شبكة معقدة من البيانات والبنية التحتية التي تمثل جزءًا من الاقتصاد نفسه.
أي قدرة على اكتشاف الثغرات داخل هذه الأنظمة لا تُعد مجرد ميزة تقنية، وإنما نقطة يمكن أن تتحول إلى خطر حقيقي إذا لم يتم التعامل معها بحذر.
هذا ما دفع Goldman Sachs إلى التحرك بسرعة، ليس بهدف إيقاف استخدام هذه التقنيات، وإنما لفهمها بشكل أعمق.
بدأت المؤسسة العمل مع Anthropic وشركات متخصصة في الأمن السيبراني لمحاولة استيعاب طبيعة هذه القدرات الجديدة، وكيف يمكن الاستفادة منها دون فتح باب لمخاطر غير محسوبة.
فالعلاقة هنا لم تكن رفضًا أو قبولًا، وإنما محاولة موازنة بين الاستخدام والحماية.
اللافت أن هذا القلق لم يمنع المؤسسات من الاستمرار في الاستثمار في الذكاء الاصطناعي.
على العكس، هناك إدراك واضح أن هذه التقنيات أصبحت جزءًا من البنية الأساسية للعمل، وأن تجاهلها لم يعد خيارًا.
لكن في الوقت نفسه، لم يعد التعامل معها بنفس البساطة التي كانت موجودة في المراحل الأولى من انتشارها.
اختيار Anthropic عدم إطلاق نموذج Mythos بشكل مفتوح يعكس فهمًا مشابهًا لطبيعة المرحلة.
إتاحة النموذج لعدد محدود من المؤسسات ضمن بيئة خاضعة للرقابة يشير إلى أن بعض القدرات لم تعد مناسبة للاستخدام العام دون ضوابط واضحة.
وهذا يفتح بابًا لنقاش أوسع حول كيفية إدارة الذكاء الاصطناعي، وليس فقط تطويره.
مع تصاعد هذه المخاوف، لم يعد النقاش محصورًا داخل الشركات فقط، وإنما امتد إلى جهات تنظيمية، حيث بدأت اجتماعات لمناقشة التأثير المحتمل لهذه النماذج على الاستقرار المالي.
هنا يظهر أن القضية لم تعد تقنية بحتة، بل أصبحت مرتبطة بمنظومة أوسع تشمل الاقتصاد والأمن في نفس الوقت.
ما تغير في هذه القصة ليس مجرد ظهور نموذج جديد، وإنما طبيعة المخاطر نفسها.
في السابق، كان القلق يدور حول الأخطاء أو المعلومات غير الدقيقة، وهي مشاكل يمكن احتواؤها نسبيًا.
أما اليوم، فالنقاش يدور حول أنظمة تمتلك القدرة على التفاعل مع بيئات حقيقية، واكتشاف نقاط ضعف داخلها، وهو تحول ينقل الذكاء الاصطناعي من كونه أداة مساعدة إلى كونه عنصرًا فاعلًا داخل النظام.
في النهاية، ما نراه هنا لا يتعلق بشركة واحدة أو نموذج معين، وإنما بمرحلة جديدة في تطور الذكاء الاصطناعي.
مرحلة يصبح فيها التحدي الأساسي ليس في بناء أنظمة أكثر ذكاءً، وإنما في فهم حدود هذا الذكاء، وكيف يمكن التحكم في تأثيره داخل أنظمة معقدة وحساسة.



