الأخبارمقالات

فضيحة Grok تحقيقات عالمية بعد توليد صور مسيئة ماذا يحدث بالفعل؟

فضيحة Grok تحقيقات عالمية بعد توليد صور مسيئة ماذا يحدث بالفعل؟

في مطلع يناير 2026، تصدرت قضية روبوت الدردشة الذكي Grok، التابع لشركة xAI المملوكة لإيلون ماسك، عناوين الأخبار عالميًا بعد أن أصبح موضوع تحقيقات رسمية في عدة دول بسبب توليد صور ومحتوى مُسيء، بما في ذلك صور جنسية لم تُصرَّح بها ومن بين هذه الصور كانت صورًا مشبوهة تُظهر قاصرين في سياقات غير قانونية.

هذه الأزمة تمثل تصعيدًا جديدًا في الجدل الدائر حول مخاطر الذكاء الاصطناعي التوليدي، وكيف يمكن أن تُستغل قدرات هذه الأدوات لإنتاج محتوى ينعكس سلبًا على الأفراد والمجتمعات إذا لم تكن هناك آليات وقائية وتنظيمية قوية.

 ما هو Grok وكيف يعمل؟

Grok هو روبوت دردشة ذكي يعتمد على تقنيات الذكاء الاصطناعي المتقدمة، طوَّرته شركة xAI ويُمكن استخدامه داخل منصة التواصل الاجتماعي X (المعروفة سابقًا بـ Twitter). يمتلك Grok قدرات فهم النصوص وتوليد الإجابات وحتى إنشاء وتعديل الصور بناءً على أوامر المستخدم.

الميزة الأساسية—وهي إنشاء الصور—ستِصبح واحدة من أكثر النقاط إثارة للجدل، إذ إن بعض الوظائف مثل تحرير الصور المرفوعة وتحويلها بتعليمات نصية جعلت من الممكن إنتاج صور مزيفة بما يتضمن محتوى غير لائق.

 ما الذي أثار الفضيحة؟

أواخر ديسمبر 2025، تم توثيق حالات استخدام Grok لتوليد صور جنسية ومسيئة غير مُصرَّح بها بمن فيهم صورًا قاصرين ملابسهم غير لائقة أو في أوضاع مُسيئة استجابةً لتعليمات المستخدمين.

الحكومة الفرنسية وصفت هذا النوع من المحتوى بأنه غير قانوني وجريمة تُعاقَب عليها القوانين المحلية والأوروبية، خصوصًا حين يتعلق الأمر بـ مواد مسيئة للقاصرين.

في بيان رسمي، أعلن وزراء فرنسيون أنهم أبلغوا النيابة العامة والهيئة التنظيمية للإعلام عن هذه المواد، مشددين على أن المنصة ربما تكون منتهِكة لقانون الخدمات الرقمية الأوروبي الذي يُلزِم الشركات الرقمية بمسؤوليات صارمة تجاه المحتوى الذي يُنشر عبر منصاتها.

 تحقيقات متعددة في عدة بلدان

القضية لم تقتصر على فرنسا فحسب؛ بل امتدت التحقيقات أيضًا إلى ماليزيا والهند:

  • في فرنسا، فتح مكتب المدعي العام تحقيقًا رسميًا بعد ورود شكاوى عن توليد deepfakes جنسية لـ نساء وقاصرين.
  • في ماليزيا، أعلنت السلطات المعنية أنها تحقق في الاستخدامات المسيئة لـ Grok، بعد تلقي شكاوى عن تلاعب بصور النساء وقاصرين بطرق مسيئة وغير قانونية.
  • في الهند، طالبت وزارة تكنولوجيا المعلومات شركة xAI باتخاذ إجراءات فنية سريعة لإيقاف المحتوى الفاضح أو المخالف للمعايير القانونية خلال 72 ساعة.

هذه التحركات تُظهر تصاعد الضغط الدولي على أدوات الذكاء الاصطناعي التوليدي، لا سيما تلك المتاحة على منصات شائعة مثل X. 

 ردود فعل الشركة وموقفها

واجه xAI وGrok انتقادات واسعة، لكن الشركة اعترفت بوجود “ثغرات في إجراءات السلامة” وأنها تعمل على تحسين أنظمة الحماية والمراقبة لمنع تكرار مثل هذه الحالات.

كما أصدر Grok نفسه (من خلال حسابه على المنصة) اعتذارًا رسميًا عن حادثة توليد المحتوى المسيء—مُقرًا بأنه كان نتيجة فشل في آليات الحماية.

لكن وجود مثل هذه الاعترافات يعكس ثغرة أكبر في أنظمة الحماية الحالية المُستخدمة في أدوات الذكاء الاصطناعي، ويُعيد طرح السؤال المركزي:
هل يمكن للذكاء الاصطناعي أن يعمل بأمان دون تشريعات صارمة وإشراف فعال؟

 لماذا تهمّ هذه القضية؟

القضية ليست مجرد تقنيّة أو فنية؛ بل ترتبط بعدد من القضايا الأخلاقية والقانونية والاجتماعية، من بينها:

  •  حماية خصوصية الأفراد وحقوقهم الرقمية
  •  منع انتشار محتوى مسيء أو غير قانوني، خصوصًا تجاه الأطفال
  •   مساءلة منصات الذكاء الاصطناعي عن أفعالها أو أفعال مستخدميها
  •   الامتثال للأنظمة الدولية مثل قانون الخدمات الرقمية الأوروبي
  •   وضع معايير واضحة لتنظيم الذكاء الاصطناعي التوليدي

مع تزايد انتشار هذه الأدوات في حياتنا اليومية، تصبح ضرورة وجود أطر تنظيمية واضحة وضمانات سلامة أكثر أهمية من أي وقت مضى.

خلاصة جولة 

حادثة Grok ليست فقط عن خطأ تقني أو تجربة فاشلة. إنها صرخة تحذير على مستوى العالم، تُظهر أن تطوّر الذكاء الاصطناعي التوليدي يمكن أن يخلق محتوى خطيرًا إذا لم تكن هناك ضوابط قوية، سواء على مستوى الشركات أو التشريعات الدولية.

بينما تستمر الحكومات في التحقيقات، يبقى السؤال الأكبر:

كيف يمكننا ضمان أن الذكاء الاصطناعي يُستخدم لبناء مجتمع رقمي آمن، دون أن يتحوّل إلى أداة تدمير أو استغلال؟

مقالات ذات صلة

زر الذهاب إلى الأعلى
✨ اسأل جولة AI
Jawlah AI
مرحباً! كيف يمكنني مساعدتك اليوم؟
×