مخاطر الخصوصية للروبوتات الدردشة الذكية

قد اكتسبت رفاق الدردشة الذكية والشركاء الرومانسيين الذكاء الاصطناعي شهرة في السنوات الأخيرة، وقدمت الرفاقة وبدت أنها تلبي احتياجات الأفراد في خضم وباء الوحدة. ومع ذلك، أظهرت مراجعة حديثة من طرف “Privacy Not Included”، الدليل المستهلك من مؤسسة موزيلا، سلسلة من المخاوف بشأن الخصوصية المرتبطة بهذه الروبوتات.

وقد قيّمت المراجعة 11 روبوتا دردشة يُسوقون على أنهم رفاق رومانسيين، ووجدت أنه رغم الكل يثير شجونًا في ما يتعلق بالخصوصية. فعلى الواقع، اعتبرت “Privacy Not Included” هذه الروبوتات من بين المنتجات التي قامت بمراجعتها وأظهرت بعضًا من أسوأ سياسات الخصوصية على الإطلاق.

واحد من المخاوف الرئيسية المحددة هو عدم وجود سياسات للخصوصية للمستخدم وانعدام الشفافية حول كيفية جمع واستخدام الرفاق الذكاء الاصطناعي للبيانات. بالإضافة إلى ذلك، يعفي شروط وأحكام العديد من هذه الروبوتات الشركات من أي مسؤولية تجاه النتائج التي قد تنجم عن استخدام منتجاتهم.

تشدد ميشا ريكوف، الباحث في “Privacy Not Included”، على أن صديقات الذكاء الاصطناعي والرفاق ليست صداقات حقيقية. بينما قد يتم تسويقها كأدوات لتعزيز الصحة العقلية والرفاهية، غالبًا ما تعزز هذه الروبوتات التبعية والوحدة والسمية، وتستخلص كميات ضخمة من البيانات الشخصية من المستخدمين.

مثال أبرز تسلط الضوء عليه في المراجعة هو CrushOn.AI، الذي يجمع معلومات حساسة عن المستخدم تحت غطاء ضمان السلامة والمحتوى المناسب. بالمثل، يعترف RomanticAI في شروطه وأحكامه بأن المستخدمين يتواصلون مع برنامج لا يمكن مراقبته باستمرار من قبل الشركة.

كما كشفت المراجعة عن نقص في بروتوكولات الأمان لدى هذه الروبوتات الدردشة. وجد أن حوالي ثلاثة أرباع الروبوتات لم تقدم أي معلومات حول كيفية إدارة قضايا الأمان، وأغلبها تفتقر إلى وضوح في ممارسات التشفير. الأكثر قلقًا هو اكتشاف أن العديد من الروبوتات الدردشة إما صرحت بنيتها لبيع أو مشاركة بيانات المستخدم أو فشلت في تحديد كيفية استخدام المعلومات الشخصية. علاوة على ذلك، لم يقدم أقل من نصف الروبوتات الدردشة للمستخدمين الحق في حذف بياناتهم.

إن التحديات تتجاوز مخاوف الخصوصية. يبرز حظر OpenAI على استخدام تكنولوجيا GPT الخاصة بها لتعزيز الرفاقة الرومانسية صعوبة تنظيم رفاق الدردشة الذكية بشكل عام.

الشفافية ومراقبة المستخدم أمران حاسمان في معالجة المخاطر المرتبطة برفاق الدردشة الذكية. يجب أن يكون للمستخدمين القدرة على فهم كيفية استخدام محادثاتهم في تدريب نماذج الذكاء الاصطناعي، فضلاً عن إمكانية حذف بياناتهم أو اختيار الامتناع عن التدريب تمامًا. بدون هذه الضمانات، يتسع المجال للتلاعب والاستغلال.

مع استمرار تطور رفاق الدردشة الذكية، فمن الضروري أن تعمل الشركات على إعطاء الأولوية للخصوصية والأمان ومراقبة المستخدم لضمان تطوير رفاق ذكية مسؤولة وموثوق بها للمستقبل.

The source of the article is from the blog lokale-komercyjne.pl

Privacy policy
Contact