تقنية الذكاء الاصطناعي الجديدة تكتشف السخرية في المحادثات اليومية

الباحثون في هولندا قاموا بتطوير كاشف ذكاء اصطناعي قائم على تحليل السخرية يتجاوز تدريب البيانات الألگوريتمات على التعرف على أن التعليقات المتحمسة لا يجب أن تُفهَم حرفيًا ولكن يمكن تفسيرها على أنها عكس ذلك. مات كولير من معمل تكنولوجيا الكلام في جامعة غرونينغن، يؤكد على أهمية فهم السخرية في الكلام لتحقيق تواصل فعَّال بين البشر والآلات.

فريق كولير قام بتدريب الشبكة العصبية على المحتوى النصي والصوتي والعاطفي من مقاطع فيديو للمسلسلات الكوميدية الأمريكية، بما في ذلك “الأصدقاء” و”The Big Bang Theory”. جمعت قاعدة البيانات الخاصة بهم، والتي تُعرف بالخردل، من التعليقات الساخرة من البرامج التلفزيونية.

من خلال تضمين عناصر مثل النص والصوت وإيحاءات العواطف من أداء الفنانين، نجح الذكاء الاصطناعي في اكتشاف السخرية في العبارات غير المرقمة من مسلسلات الكوميديا بدقة تقدر بما يقرب من 75٪. يخطط الباحثون لتحسين دقة النموذج بمزيد من البيانات الاصطناعية، على الرغم من أن هذه الدراسة لم تحدث بعد.

شيخار ناياك، عضو مشروع آخر، يتصوِّر استخدام هذه التكنولوجيا ليس فقط لجعل المحادثات مع مساعدي الذكاء الاصطناعي أكثر مرونة، ولكن أيضًا لتحديد الأصوات السلبية والإساءات والتعليقات المعادية في اللغة. يقترح جاو أن الإصدارات المستقبلية يمكن أن تتضمن إيحاءات بصرية مثل حركات الحاجبين والابتسامات في بيانات تدريب الذكاء الاصطناعي.

بينما التحديثات في تكنولوجيا فهم اللغة الطبيعية تيسر التفاعلات الأكثر سلاسة مع الأجهزة، يثير كولير مخاوف بشأن إمكانية للآلات تطوير السخرية بأنفسها وإظهار تعليقات لاذعة في الرد. أُمنعت مؤخرًا مايكروسوفت الوكالات الأمريكية لإنفاذ القانون من استخدام الذكاء الاصطناعي التوليدي للتعرف على الوجوه في الوقت الحقيقي من خلال خدمة Azure OpenAI، وامتدت القيود إلى إنفاذ القانون على مستوى العالم.

وفقً، قد يكون من الصعب على الألگوريتمات الذكية التعرف على السخرية بدقة بسبب طبيعتها الدقيقة والمعتمدة على السياق.
– هناك دراسات تشير إلى أن البشر يعتمدون على إيحاءات متنوعة، مثل نبرة الصوت وتعبيرات الوجه والسياق، لفهم السخرية.
– رصد السخرية قد يكون مهمًا بشكل خاص في تطبيقات مثل تحليل المشاعر ومساعدات خدمة العملاء ومراقبة وسائل التواصل الاجتماعي.

The source of the article is from the blog scimag.news

Privacy policy
Contact