لا يملك حس الفكاهة.. الذكاء الاصطناعي لا يفهم النكات
توصلت دراسة جديدة إلى أن نماذج الذكاء الاصطناعي (LLMs) "تتظاهر" فقط بفهم التورية.
قيمت الدراسة كيفية معالجة الذكاء الاصطناعي للبارونوماسيا (التلاعب بالألفاظ بناء على معان مزدوجة أو تشابهات صوتية)، أو ببساطة، التورية، وقد استُند في هذا التحليل إلى دراسات سابقة عديدة تُشير إلى أن طلاب الماجستير في القانون يُعالجون هذا النوع من الفكاهة بطريقة تشبه البشر.
وقد وضعت دراسة جديدة، تم تقديمها في مؤتمر 2025 حول الأساليب التجريبية في معالجة اللغة الطبيعية، هذا الجانب من الذكاء الاصطناعي على المحك.
حدود الذكاء الاصطناعي
اتضح أنه على الرغم من ذكائهم الظاهري، إلا أن العارضات يفتقرن إلى الإبداع الحقيقي والفهم العميق لفهم الفكاهة بشكل صحيح.
يوضح البروفيسور خوسيه كاماتشو-كولادوس، من كلية علوم الحاسوب والمعلوماتية بجامعة كارديف، والمؤلف المشارك في الدراسة: "ربما تكون دراستنا الأولى التي تُظهر بوضوح مدى هشاشة فهم الفكاهة في نماذج اللغة الكبيرة، وهذا أمر مثير للدهشة، بالنظر إلى قدراتهم المتنامية وأعمالهم السابقة في هذا الموضوع"، ويضيف: " أشارت الملاحظات إلى عكس ذلك، ووجدنا في النهاية أن فهمهم للتورية اللغوية ليس إلا وهمًا، على سبيل المثال، عندما يرون جملة تشبه التورية في بنيتها، مثل "أحرف X القديمة لا تموت، إنها مجرد أحرف X"، يُصرون على أنها مضحكة، وينطبق هذا بشكل خاص عندما تكون التورية الزائفة بلا معنى أو تفتقر إلى سياق فكاهي أو معنى مزدوج".
مجموعات البيانات المحسنة
زعمت دراسات سابقة أن نماذج الذكاء الاصطناعي تفهم الفكاهة بطريقة مماثلة للبشر، لكن المؤلفين يزعمون أن مجموعات البيانات المستخدمة لم تكن ذات صلة كافية لاستخلاص مثل هذه الاستنتاجات بعيدة المدى.
عندما تواجه النماذج تورية غير مألوفة، قد ينخفض نجاحها في التمييز بين النكات والجمل العادية إلى 20%، وهو ما يفوق بكثير نسبة 50% المتوقعة للتخمين العشوائي.
وجد العلماء أن النماذج كانت مفرطة الثقة في افتراض أن النص الذي كانت تعالجه مضحك حقًا، وينطبق هذا بشكل خاص على التورية التي لم يروها من قبل.
وينصح المؤلفون بالحذر عند استخدام نموذج LLM للمهام التي تتجاوز ما تعلمته النماذج من النصوص الموجودة تلك التي تتطلب التفكير الإبداعي، مثل فهم الفكاهة، أو التعاطف، أو الفروق الثقافية الدقيقة.
