
تواجه شركة Perplexity AI أزمة قانونية بعد اتهامها في دعوى قضائية بمشاركة بيانات المستخدمين مع شركتي Meta وGoogle، في انتهاك محتمل لقوانين الخصوصية في ولاية كاليفورنيا.
القضية، التي تم رفعها في محكمة فيدرالية، تشير إلى أن الشركة قد تكون سمحت بنقل بيانات حساسة من محادثات المستخدمين إلى أطراف خارجية دون موافقة واضحة، وهو ما يضع نموذج أعمال “محركات البحث بالذكاء الاصطناعي” تحت اختبار حقيقي.
ماذا تقول الاتهامات؟
وفقًا للدعوى، تعتمد المنصة على أدوات تتبع يتم تحميلها بمجرد دخول المستخدم، ما يتيح – بحسب الادعاء – الوصول إلى محادثات المستخدمين ومشاركتها مع شركات أخرى.
الأخطر في هذه الادعاءات أن البيانات التي يُزعم تسريبها لا تقتصر على معلومات عامة، بل تشمل تفاصيل شخصية ومالية حساسة، مثل الاستثمارات والالتزامات الضريبية، وهي بيانات يُفترض أن تكون ضمن أكثر الطبقات خصوصية داخل أي نظام ذكاء اصطناعي.
كما تشير بعض التقارير إلى أن هذه العملية قد تحدث حتى في وضع “Incognito”، ما يزيد من حساسية القضية ويطرح تساؤلات حول فعالية أدوات الخصوصية داخل هذه المنصات.
لماذا هذه القضية مختلفة؟
الجدل حول الخصوصية ليس جديدًا في عالم التكنولوجيا، لكن ما يجعل هذه القضية مختلفة هو طبيعة المنتج نفسه.
محركات البحث التقليدية تتعامل مع استفسارات عامة، بينما تعتمد منصات مثل Perplexity على محادثات تفاعلية طويلة، يشارك فيها المستخدم تفاصيل دقيقة بهدف الحصول على إجابات أكثر تخصيصًا.
هذا يعني أن حجم ونوعية البيانات التي يتم التعامل معها أعلى بكثير، ما يجعل أي خلل في إدارة هذه البيانات أكثر خطورة وتأثيرًا.
التوقيت يزيد من حساسية الأزمة
تأتي هذه القضية في وقت تشهد فيه Perplexity نموًا سريعًا، حيث تعالج المنصة عشرات الملايين من الاستفسارات يوميًا، مع توسع واضح في نموذج الاشتراكات وتحولها إلى أحد أبرز المنافسين لمحركات البحث التقليدية.
كما تأتي في ظل تحول استراتيجي للشركة نحو بناء نموذج قائم على الثقة، بعد تراجعها عن نموذج الإعلانات لصالح الاشتراكات، في محاولة لتقديم نفسها كبديل “محايد” للبحث.
وهنا تظهر المفارقة:
القضية تضرب في جوهر الرسالة التي تحاول الشركة تقديمها للسوق.
ماذا تعني هذه الأزمة لسوق AI Search؟
ما يحدث مع Perplexity لا يخص شركة واحدة فقط، بل يعكس تحديًا أوسع في سوق “البحث بالذكاء الاصطناعي”.
مع انتقال المستخدمين من البحث التقليدي إلى المحادثة، تتحول هذه المنصات إلى “طبقة وسيطة” تتحكم في كيفية الوصول إلى المعلومات، وفي نفس الوقت تجمع بيانات أكثر عمقًا عن المستخدمين.
هذا يضع الشركات أمام معادلة معقدة:
كلما زادت دقة الخدمة، زادت الحاجة إلى بيانات أكثر حساسية، وكلما زادت هذه البيانات، ارتفعت المخاطر التنظيمية.
هل نحن أمام موجة تنظيم جديدة؟
القضية الحالية قد تكون مؤشرًا على بداية موجة جديدة من التدقيق التنظيمي على شركات الذكاء الاصطناعي، خاصة في الولايات المتحدة وأوروبا، حيث أصبحت قوانين الخصوصية أكثر صرامة.
في حال ثبوت هذه الادعاءات، قد تواجه الشركات:
- غرامات مالية كبيرة
- قيود على استخدام البيانات
- تغييرات إجبارية في نماذج العمل
وهو ما قد يؤثر بشكل مباشر على سرعة نمو هذا القطاع.
ملخص جولة
تعكس قضية Perplexity AI تحولًا واضحًا في طبيعة المخاطر المرتبطة بصناعة الذكاء الاصطناعي، حيث لم تعد التحديات تقتصر على تطوير النماذج أو تحسين جودة الإجابات، بل امتدت إلى إدارة البيانات الحساسة التي أصبحت جزءًا أساسيًا من تجربة المستخدم داخل هذه المنصات.
الادعاءات المرتبطة بمشاركة البيانات مع شركات كبرى مثل Meta وGoogle تسلط الضوء على تعقيد العلاقة بين تحسين الخدمة وجمع البيانات، خاصة في منصات تعتمد على محادثات عميقة تحتوي على معلومات شخصية ومالية.
وفي ظل النمو السريع لسوق البحث بالذكاء الاصطناعي، تبرز هذه القضية كإشارة إلى أن المرحلة القادمة ستشهد تركيزًا أكبر على الجوانب التنظيمية وبناء الثقة، حيث لم تعد الميزة التنافسية قائمة فقط على التكنولوجيا، بل على قدرة الشركات على حماية بيانات المستخدمين وإدارة استخدامها بشكل مسؤول.



