Google تتسابق لتحديث نظراتها حول الذكاء الاصطناعي وسط مخاوف من انتشار المعلومات الخاطئة

تعرضت جوجل لتهديد متزايد من نشر المعلومات الخاطئة من جانب الذكاء الاصطناعي، مما دفعها إلى تحديث منصة المحتوى الذكي التي تم إنشاؤها باستخدام الذكاء الاصطناعي، AI Overviews، يوم الجمعة الماضي على وجه السرعة. أبلغ المستخدمون عن تلقي إجابات غريبة وربما خطيرة حتى على استفساراتهم، مما دفع شركة التكنولوجيا العملاقة إلى اتخاذ إجراءات سريعة. ووفقًا للشركة، تم اتخاذ الخطوات في أقرب وقت ممكن بمجرد ظهور مشاكل تنتهك إرشادات سياسة المحتوى.

إجراءات سريعة من جوجل بسبب الردود الخاطئة من الذكاء الاصطناعي

جذبت منصة AI Overviews التابعة لـ جوجل انتباهًا بعد بدء المستخدمين في ملاحظة ردود غريبة على أسئلتهم. على سبيل المثال، عندما سُئل عن عدد الرؤساء المسلمين في الولايات المتحدة، اقترحت AI Overviews بشكل غير صحيح أن يمكن اعتبار باراك أوباما أول رئيس مسلم. أزالت جوجل بسرعة هذه المعلومات الغير صحيحة، مؤكدة أنها تنتهك لوائحها المتعلقة بالمحتوى.

شارك مستخدم آخر توصية غير عادية من AI Overviews. في رد على سؤال حول كيفية منع الجبن من التلصق بالبيتزا، اقترحت AI استخدام “الغراء غير السام”، فكرة تعود على ما يبدو إلى مشاركة سابقة على منصة Reddit. بالمثل، استخدمت AI Overviews بشكل خاطئ مطلبًا ساخرًا من “ذي أونيون”، الذي نسب إلى اعتراف وهمي من المخابرات المركزية الأمريكية بإستخدام أقلام تظليل سوداء لطمس النصوص في الوثائق.

أخذت جوجل هذه الحالات على محمل الجد، مستخدمةً إياها لتحسين دقة النظام. تم تنفيذ بعض التحسينات بالفعل. تم طرح منصة AI Overviews في منتصف مايو بهدف تقديم إجابات كتابية على البحوث، باعتبارها تحولًا عن النتائج التقليدية المعتمدة على الروابط. بينما تظل الروابط الفائقة متاحة، إلا أنها تكون الآن تحت المحتوى الذي تم كتابته بواسطة AI والذي يمكن أن يلبي تمامًا استفسارات المستخدم.

تحديات وجدليات في محتوى الذكاء الاصطناعي

أحد التحديات الرئيسية في منصات المحتوى المولّدة بواسطة الذكاء الاصطناعي، مثل AI Overviews التابعة لجوجل، هو إدارة ومنع نشر المعلومات الخاطئة. حيث يتم تدريب خوارزميات تعلم الآلة على مجموعات بيانات ضخمة من الإنترنت، والتي يمكن أن تؤدي بشكل غير مقصود إلى استمرار الانحيازات أو الدقات التي تم العثور عليها ضمن تلك المصادر. ضمان موثوقية هذه الأنظمة هو أحد الاهتمامات الأساسية للمطورين والمستخدمين والأطراف المعنية.

هناك إمكانية إضافية لاستغلال الذكاء الاصطناعي من قبل الأطراف السيئة. تمثل المعلومات الخاطئة وعدم الدقة تهديدًا خطيرًا في العصر الرقمي، خاصة عندما يمكن للذكاء الاصطناعي إنتاج محتوى مقنعًا ولكن خاطئ بمقاييس كبيرة. يجب على جوجل، بين أمور أخرى، تحديث بشكل مستمر الخوارزميات وإجراءات الرقابة للحماية من هذه التهديدات.

الأسئلة الرئيسية والأجوبة

س: ما هي الخطوات التي اتخذتها جوجل ردًا على المعلومات الخاطئة من AI Overviews؟
ج: حدثت جوجل خوارزميات AI Overviews لإزالة الإجابات غير الصحيحة، وتواصل تحسين النظام لتحسين الدقة والالتزام بإرشادات سياسة المحتوى.

س: كيف ينشأ التضليل في محتوى AI المولّد؟
ج: يمكن أن ينشأ التضليل من أنظمة AI التي تتدرب على مجموعات بيانات غير دقيقة أو محدودة، أو من خلال تفسير AI للبيانات الشرعية بطرق غير مقصودة.

مزايا وعيوب النظرة العامة المولّدة بواسطة الذكاء الاصطناعي

المزايا:
– يمكن لـ AI Overviews توفير ملخصات أسرع وأكثر دقة للمعلومات المعقدة.
– يمكن للنظام تعزيز كفاءة البحث، وتوفير المعلومات التي يحتاجها المستخدمون دون الحاجة إلى النقر على العديد من الروابط.
– بالاستفادة من تعلم الآلة، يمكن لجوجل أن تطور النظام بشكل مستمر لتحسينه مع مرور الوقت، من خلال التكيف مع البيانات الجديدة وتغذية المستخدم.

العيوب:
– النظام عرضة للأخطاء، وقد ينشر المعلومات الخاطئة إذا لم يكن تحت المراقبة والتصحيح بعناية.
– يمكن أن يقلل من حركة المرور إلى مواقع الويب الخارجية، مما قد يؤثر على مشاهدة الناشرين وإيرادات الإعلانات.
– هناك خطر الاعتماد المفرط على AI، مما يؤدي إلى قبول المستخدمين للمعلومات التي تم إنشاؤها بواسطة الذكاء الاصطناعي دون التفكير النقدي أو التحقق.

ضمان صحة المحتوى عبر الإنترنت هو مهمة مستمرة لمحركات البحث مثل جوجل، التي يجب عليها موازنة فائدة أدوات الذكاء الاصطناعي مقابل مخاطر نشر المعلومات الخاطئة. للحصول على مزيد من المعلومات حول الجهود والميزات الأوسع من جوجل، يمكنك زيارة موقعهم الرئيسي على العنوان التالي: Google.

The source of the article is from the blog portaldoriograndense.com

Privacy policy
Contact