
أعلنت KPMG Australia أن أحد شركائها في العمل قد تم تغريمه مبلغ 10,000 دولار أسترالي (نحو 7,000 دولار أمريكي) بعد أن استخدم أدوات الذكاء الاصطناعي لمساعدته في النجاح في اختبار داخلي حول استخدام الذكاء الاصطناعي نفسه.
الواقعة جاءت ضمن سلسلة من حالات سوء استخدام الذكاء الاصطناعي من قِبل موظفين داخل المؤسسة، حيث أكدت الشركة أنها اكتشفت 28 حالة استخدام غير مصرح به لأدوات AI في اختبارات تدريبية خلال السنة المالية الحالية.
التفاصيل: كيف حدثت الواقعة؟
بحسب التقارير، كان الشريك مطالبًا بإكمال تدريب داخلي حول استخدام الذكاء الاصطناعي بشكل مسؤولي. يطلب من المشاركين تحميل مراجع كجزء من التدريب ثم الإجابة عن أسئلة تعتمد على فهم تلك المواد… لكن الشريك رفع الوثائق إلى أداة AI للحصول على إجابات صحيحة خلال الاختبار، ما يعد خرقًا واضحًا لسياسات الشركة.
وقد اكتُشف السلوك من خلال أنظمة المراقبة التي أطلقتها الشركة في 2024 لكشف الاستخدام غير المصرح به لأدوات الذكاء الاصطناعي، ما دفع الشركة لإعادة تشكيل قواعدها وسياساتها المتعلقة بـ AI في مكان العمل.
ردود الأفعال وأهمية المشكلة
البقاء شفافة أمام الهيئات التنظيمية كان جزءًا من رد KPMG، لكنها أقرّت بأن سياسات الإبلاغ الذاتي الحالية غير كافية، خاصة في ظل تزايد حالات سوء استخدام الذكاء الاصطناعي،
ما دفع جهات مثل Australian Securities and Investments Commission (ASIC) إلى التدخل بالتحقيق بعد تقارير إعلامية.
في جلسة استماع بمجلس الشيوخ الأسترالي، وصفت السيناتور Barbara Pocock نظام الإبلاغ الحالي بأنه “غير فعّال” وأن هناك حاجة لـ رقابة أكثر صرامة وشفافية أكبر في التعامل مع تجاوزات استخدام الذكاء الاصطناعي في الشركات الكبرى.
أوسع من مجرد اختبار: مشكلة ثقافة AI في العمل
هذا الحادث لا يقف وحده — بل يأتي ضمن سياق عالمي يشهد صعوبة الشركات في تحديد حدود استخدام الذكاء الاصطناعي داخل بيئة العمل. تقرير سابق من KPMG وجد أن نسبة كبيرة من الموظفين يستخدمون أدوات AI في العمل دون الإفصاح عنها لإداراتهم، ما يشير إلى فجوة ثقة وتنظيم في المؤسسات.
في الدراسة نفسها، ظهر أن العديد من الأفراد يعتمدون على الذكاء الاصطناعي في مهام يومية دون تقييم دقيق لمدى صحة مخرجات تلك الأدوات، مما يزيد المخاطر المرتبطة بـ AI في بيئات الإنتاج حيث تكون النتائج المحتملة أكثر حساسية وارتباطًا بالمخرجات المهنية.
ما الذي تعلّمه الشركات من هذه الواقعة؟
أولاً — سياسات الذكاء الاصطناعي يجب أن تكون واضحة وصارمة. الغش في اختبار AI يعكس نقص وضوح في ما هو مسموح وما هو مخالف داخل بيئات العمل.
ثانيًا — مراقبة الاستخدام وحدها غير كافية. شركات مثل KPMG بدأت بالفعل بنشر نظم كشف عن سوء استخدام AI، لكن هذا لا يغني عن الحاجة لتعليم الموظفين وتدريبهم على الاستخدام الأخلاقي والمسؤول.
ثالثًا — الالتزام التنظيمي أمر حاسم. ضعف آليات الإبلاغ الذاتي أمام الهيئات التنظيمية خلق فجوة في الشفافية، في حين يجب تنفيذ إطار رقابي أقوى على الشركات التي تستفيد من نماذج الذكاء الاصطناعي بشكل واسع.
تداعيات مستقبلية على عالم العمل والتعليم المهني
هناك توجه عام في سوق العمل نحو تقديم تدريب ومسارات تعليمية حول الذكاء الاصطناعي، لكن من الضروري التأكد من أن هذه البرامج تواكب الواقع التقني وتضمن أن الموظفين لا يستغلون الأدوات التي يتعلمون عنها للفوز في الاختبارات فقط، بل يفهمونها بعمق ويطبقونها بطريقة أخلاقية ومسؤولة.
الحادثة في KPMG تطرح سؤالًا مهمًا: هل يجب فصل نظام التقييم عن إمكانية اللجوء إلى أدوات AI أثناء الاختبارات؟ وكيف يمكن أن توازن الشركات بين تشجيع الاستخدام الإبداعي للذكاء الاصطناعي والحفاظ على النزاهة الأكاديمية والمهنية؟
خلاصة جولة
حادثة KPMG Australia تُظهر أن واحدة من التحديات الكبرى في اعتماد الذكاء الاصطناعي في بيئات العمل ليست تقنية فقط، بل ثقافية وتنظيمية. الغش باستخدام AI في اختبار داخلي يكشف فجوة في السياسات والأطر التنظيمية، ويشير إلى أن الشركات تحتاج إلى تحديث قواعدها، تقوية التدريب، وتعزيز الشفافية لضمان أن الذكاء الاصطناعي يُستخدم كأداة للابتكار لا كوسيلة للتحايل.



