الخبراء يحذرون من موثوقية كشف الكذب بواسطة الذكاء الاصطناعي

محترفون في علم النفس في ألمانيا يعبّرون عن قلقهم بشأن الذكاء الاصطناعي في اكتشاف الكذب. في نشرة هامة ضمن “اتجاهات العلوم الإدراكية”، أبرز باحثون من الجامعات الألمانية تعريفات استخدام الذكاء الاصطناعي في اكتشاف الكذب. على وجه الخصوص، أشارت كريستينا سوتشوتسكي من جامعة ماربورغ وماتياس غامر من جامعة فيرتسبورغ إلى استخدام الذكاء الاصطناعي عند حدود الاتحاد الأوروبي وفي التحقيقات الجنائية كأمثلة على تطبيق التكنولوجيا لتقييم الصدق.

طبيعة “الصندوق الأسود” للذكاء الاصطناعي تثير تحديات التفسير. لاحظ العلماء الألمانيون أن أنظمة الذكاء الاصطناعي غالبًا ما تعمل كـ “صناديق سوداء”، مما يعني وجود عمليات تفكير غامضة تبقى غير معروفة وتصحيح الحكم الخارجي لقراراتها غير ممكن. يمكن أن تؤدي هذه العتمة إلى نتائج غير موثوقة.

البحث عن “أنف بنوكيو الموثوق” في الحياة الحقيقية أمر عقيم. شدد الثنائي على أنه لا توجد مؤشرات فيزيولوجية موثوقة بما يكفي لتمييز الكذب عن الحقيقة في سلوك الإنسان، على غرار النمو المأساوي لأنف بنوكيو عند الكذب، والذي لا يوجد في الواقع. لذلك، تظل السعي وراء علامة فسيولوجية للخداع كائنًا أسطوريًا بدلًا عن علميًا.

أسئلة وأجوبة مهمة:

س: ما هي المشاكل المحتملة في استخدام الذكاء الاصطناعي لاكتشاف الكذب؟
ج: تتضمن المشاكل المحتملة عدم الشفافية في عمليات اتخاذ القرار بالذكاء الاصطناعي، وإمكانية الاعتماد على مواقف غير موثوقة أو غير موجودة للمؤشرات الفيزيولوجية للخداع، والقلق بشأن دقة وأخلاقيات تطبيق مثل هذه التكنولوجيا في مجالات حساسة مثل إنفاذ القانون أو مراقبة الحدود.

س: هل يمكن للذكاء الاصطناعي اكتشاف الكذب بشكل موثوق أفضل من البشر؟
ج: تشير الأدلة الحالية إلى أن الذكاء الاصطناعي قد لا يكون أكثر موثوقية بشكل كبير من البشر في اكتشاف الكذب، جزئيًا بسبب تعقيدات علم النفس وسلوك الإنسان. الذكاء الاصطناعي ليس لديه حتى الآن القدرة على فهم وتفسير المشاعر البشرية والتدقيقات بنفس الطريقة التي يمكن للبشر أن يفعلوا.

تحديات رئيسية أو جدلية:

أحد التحديات الرئيسية في اكتشاف الكذب بواسطة الذكاء الاصطناعي هو قضية “الصندوق الأسود”، حيث لا يمكن فهم أسباب استنتاجات الذكاء الاصطناعي بسهولة أو تقييمها من قبل البشر. وهذا يثير مخاوف بشأن العدل والمساءلة الناتجة عن استخدام مثل هذه النظم، خاصة في المواقف ذات الرهانات المرتفعة.

يكمن جدل آخر في الصعوبة الكامنة في تحديد مجموعة عالمية من الإشارات الفيزيولوجية أو التصرفية التي يمكن أن تدل بموثوقية على الخداع عبر أفراد وسياقات مختلفة. سلوك الإنسان معقد للغاية ويمكن أن يتأثر بعوامل لا تحصى يمكن ألا يحسبها نظام الذكاء الاصطناعي.

مزايا وعيوب:

مزايا:

– قد تكون الذكاء الاصطناعي قادرًا على معالجة كميات كبيرة من البيانات بشكل أسرع مما يستطيع البشر، مما قد يكشف عن أنماط تشير إلى الخداع.
– يمكن لاستخدام الذكاء الاصطناعي تقليل التحيزات البشرية التي قد تحدث خلال اكتشاف الكذب، شريطة ألا يتم تدريب الذكاء الاصطناعي على بيانات محتوية على تحيز.
– يمكن أن تكون الأنظمة الذكاء الاصطناعي متاحة على مدار الساعة ولا تعاني من التعب مثلما قد يحدث للعملاء البشر.

عيوب:

– قد لا يستطيع الذكاء الاصطناعي فهم تفاصيل علم النفس البشري والسلوك الاجتماعي، مما يؤدي إلى احتمالية الانحرافات.
– يمكن أن يؤدي عدم القدرة على شرح عملية اجتياز الذكاء الاصطناعي إلى تقويض الثقة في استنتاجاته ورفع قضايا أخلاقية.
– قد يتم إدخال تحيزات إلغائية أثناء تدريب أنظمة الذكاء الاصطناعي، مما قد يؤدي في نهاية المطاف إلى نتائج غير عادلة أو تمييز.

The source of the article is from the blog krama.net

Privacy policy
Contact