اسواق جو – كشفت دراسة أكاديمية حديثة مفاجأة جديدة، إذ بينت أنه في الوقت الذي تتقن فيه النماذج اللغوية الكبيرة، مثل روبوتي الدردشة “شات جي بي تي” و”جيميني”، تقليد بنية النكات، فهي لا تعرف عادةً سبب طرافتها، خاصةً عندما يتعلق الأمر بالتورية، أي التلاعبات اللفظية.
ركزت الدراسة على طريقة تعامل روبوتات الدردشة هذه مع التلاعب بالألفاظ، ووجدت أنها تتظاهر فقط.
ووجدت الدراسة أنه بينما يستطيع الذكاء الاصطناعي بسهولة إطلاق نكتة سبق أن صادفها، فإنه يفشل تمامًا عند محاولة فهم المعاني المزدوجة الدقيقة التي تجعل التلاعب اللفظي مضحكًا بالفعل، بحسب تقرير لموقع “ديجيتال تريندس” المتخصص في أخبار التكنولوجيا، اطلعت عليه “العربية Business”.
إن ما يميز التلاعبات اللفظية هو أنها تعتمد على التعدد الدلالي -أي أن الكلمة لها أكثر من معنى- أو على الكلمات المتشابهة في النطق لإحداث تضارب مرح في الدماغ. والبشر يفعلون ذلك تلقائيًا، أما الذكاء الاصطناعي، فهو ببساطة يقوم بمطابقة الأنماط لا أكثر.
أثبت الباحثون ذلك من خلال خداع روبوتات الدردشة، حيث قاموا ببناء مجموعتي اختبار جديدتين تُسميان “PunnyPattern” و”PunBreak”. واستخدموا تلاعبات لفظية حقيقية وأدخلوا عليها تعديلات طفيفة، حيث استبدلوا كلمات رئيسية بحيث اختفى المعنى المزدوج، بينما بقيت الجملة بالبنية نفسها تقريبًا.
وكانت النتيجة هي أن البشر التقطوا على الفور أن النكتة أُفسدت، لكن الذكاء الاصطناعي غالبًا ما أصر على أن الجملة لا تزال مضحكة لمجرد أنها بدت وكأنها تشبه نكتة رآها أثناء التدريب.
ويبدو الأمر كأن شخصًا يضحك على نكتة لم يسمعها لمجرد التأقلم ولكي لا يبدو أنه خارج الجو العام. وهذا يُثبت أنه على الرغم من ثقتها، فإن هذه النماذج لا “تستوعب” الفكاهة؛ بل تُعيد إنتاج شكلها فقط.
يُعدّ هذا البحث بمثابة تحذير قوي: غالبًا ما تكون الفكاهة التي يُولّدها الذكاء الاصطناعي جوفاء. لأن النموذج لا يفهم القصد من التلاعب بالألفاظ، فقد يُقدم لك “تورية” لا معنى لها، أو يغفل عن السخرية والمفارقة تمامًا.
ويُجادل الباحثون بأن تغذية الذكاء الاصطناعي بالمزيد من البيانات لن يُصلح هذا؛ إذ يحتاج فهم التلاعب اللفظي بشكل صحيح إلى فهم كيفية نطق الكلمات (علم الصوتيات) وفهم السياق الثقافي الذي يجعل التغيير مُضحكًا. وفي الوقت الحالي، لا تمتلك النماذج اللغوية الكبيرة هذه الآذان أو تلك التجربة الحياتية.
