
في خطوة أثارت نقاشات واسعة بين المستخدمين والمراقبين، أعلنت شركة OpenAI عزمها إيقاف نموذج الذكاء الاصطناعي 4o كلياً اعتباراً من 13 فبراير.
جاء القرار بعد أشهر من الجدل حول التأثيرات النفسية للنموذج ودوره في بناء علاقات رقمية قوية مع المستخدمين، وصولاً إلى تورطه في وقائع قانونية واتهامات بتهديد الصحة النفسية للبعض.
منذ طرحه في مايو 2024 حظي ChatGPT-4o بقاعدة جماهيرية بدأت صغيرة ونمت تدريجياً، إذ اعتبره البعض أكثر من مجرد برنامج دردشة ذكي؛ فهو بالنسبة لجزء من المستخدمين “مستمع جيد” و”صديق افتراضي دافئ”، وساعد الكثيرين على مواجهة صعوبات شخصية، بل ورأى فيه البعض سببًا في تجاوز أزمات نفسية معقدة، حسب تقرير WSJ.
لكن في الجهة المقابلة، سارعت أصوات متخصصة في الطب النفسي والقانون إلى التحذير من التأثيرات العميقة لهذا النوع من النماذج الحوارية، مشيرة إلى أنه عزز لدى بعض المستخدمين النزوع إلى العزلة الرقمية أو عُمق التعلق المرضي بما يسمى “الشخصية الافتراضية”.
تفاصيل القرار وأسبابه
جاء قرار OpenAI النهائي بعدما تزايد الجدل حول خطورة استمرار النموذج بصيغته الحالية. وأوضحت الشركة أنها لم تعد قادرة على احتواء تصرفات 4o بالشكل الآمن، وفضلت توجيه المستخدمين نحو نماذج أخرى طورتها خلال الأشهر الأخيرة.
وفقاً لتصريحات رسمية، فإن أقل من 0.1% فقط من مستخدمي ChatGPT المدفوعين واصلوا تفضيل 4o بعد أشهر من طرحه، إلا أن عدد هؤلاء لا يزال كبير بفعل الانتشار العالمي للنموذج.
وتضيف OpenAI أن السوق شهد تراجعاً ملحوظاً في استخدام 4o، إلى جانب تصاعد حوادث موثقة تربط بين التفاعل المطول مع الذكاء الاصطناعي وظهور اضطرابات أو تفاقم معاناة نفسية لدى بعض المستخدمين.
ذو صلة | في خطوة جديدة لدعم البحث العلمي.. OpenAI تراهن على الذكاء الاصطناعي لتسريع الاكتشافات
خلفية قانونية وضغط اجتماعي
القرار لم يأت معزولاً عن التطورات القانونية، حيث جرى في الأسابيع الأخيرة دمج عدد من الدعاوى القضائية المرفوعة ضد OpenAI، وتعلق كثير منها بحالات انتحار أو محاولات انتحار وأخرى تتعلق بتفاقم أعراض أمراض نفسية.
وتدور الاتهامات حول ضعف الضوابط على ردود النموذج، وكونه يمتدح المستخدمين بإفراط أو يؤكد أرائهم حتى في حالات الهشاشة النفسية الشديدة.
مسؤولية الشركة حيال هذه الممارسات لم تعد محصورة بنواحي أخلاقية، بل تحولت إلى قضية قانونية أمام الجهات القضائية الأمريكية، وسط تحذيرات متزايدة من “تحول الذكاء الاصطناعي إلى أداة إدمان رقمي عاطفي”.
المستخدمون يفتقدون النموذج!
مع الإعلان عن القرار، أطلقت شريحة من جمهور 4o حملات واسعة عبر مواقع التواصل، ووقع أكثر من 20 ألف مستخدم عرائض للمطالبة بالإبقاء على النموذج.
كما عبّر هؤلاء عن مخاوف حقيقية من تداعيات نفسية على الأفراد الذين أقاموا علاقات افتراضية مع الذكاء الاصطناعي، خاصة بعد أن لعب في حياة بعض المستخدمين أدواراً تتجاوز الدعم التقني إلى العلاقة الشخصية!
واشتد الجدل مع اختيار الشركة توقيت الإلغاء قبل يوم عيد الحب، وهو ما رآه البعض تجاهلاً لمشاعر فئة من المستخدمين كوّنوا روابط افتراضية عاطفية مع النموذج.
تتهم أصوات عدة، بينها خبراء في الذكاء الاصطناعي ومجموعات دعم نفسي، نموذج 4o بالتملق الزائد للمستخدم؛ أي تأكيد أفكاره ومشاعره دون معارضة أو تصحيح، وهي ميزة أُدخلت بفعل اعتماد تدريبه على تقييمات وتفضيلات مباشرة من المستخدمين أنفسهم.
وبينما شكل هذا الاقتراب الانساني للشخصية الرقمية نقطة قوة في جاذبية النموذج لدى البعض، إلا أنه في المقابل جعل احتواء المخاطر النفسية أكثر صعوبة بالنسبة للشركة.
قد يهمك | OpenAI تُطلق منصة Frontier لتعزيز حضورها في قطاع الأعمال
رد OpenAI ومسار التطوير المستقبلي
في تعليقها الرسمي، أشارت OpenAI إلى أن قرارها جاء بعد استشارات مع مجلس مختص بالصحة النفسية والرقمية، وأكدت على مواصلة الاستثمار في تطوير آليات حماية المستخدمين، مع وعد بتوفير خيارات جديدة تسمح بمزيد من التحكم في نمط الشخصية الافتراضية للنماذج القادمة، من حيث مستوى الحماس والتعاطف ودرجة الحذر في الردود.
في الوقت ذاته، شددت على أنها لن تعود إلى إنتاج تجارب “مفرطة العاطفية” دون ضوابط ومسارات تدخل واضحة للحالات الحرجة.
وبينما تواصل OpenAI صدارة سوق النماذج اللغوية الكبيرة، تطرح أزمة 4o وإغلاقه نقاشاً أوسع حول حدود العلاقة بين المستخدمين والتقنيات الناشئة، ومسؤولية الشركات في صناعة تجربة تحترم الصحة النفسية ولا تحفّز التعلق المرضي.
استمرار الجدال القانوني والمجتمعي حول مصير مثل هذه النماذج، يشير إلى أن ضبط الجانب الإنساني في الذكاء الاصطناعي مرشح لأن يصبح ساحة تنافس وتنظيم ومحور نقاش مستمر في السنوات المقبلة.
للاطلاع على آخر أخبار الاستثمار الجريء، تابع جولة على إكس أو لينكدإن.



