در روز پنجشنبه، 23 مه، میردیث ویتاکر، رئیس برنامه پیامرسان رمزگذاری شده Signal، نگرانیهای خود را درباره نظارت جمعی و فناوری هوش مصنوعی (AI) به اشتراک گذاشت. در گفتوگو با خبرگزاری AFP در پاریس به مناسبت کنفرانس VivaTech، او برجسته کرد که AI که در صنعت فناوری مورد ستایش قرار میگیرد، از مبنای عمیقی نظارت جمعی الهام میگیرد.
هنگام بحث درباره رابطه بین نظارت و AI، ویتاکر به این نکته اشاره کرد که فناوریهای AI بر مجموعههای داده بزرگ تکیه میکنند که نتیجهای از مدل کسبوکار نظارت جمعی است که در دهه 1990 در ایالات متحده شکل گرفت. این مدل اکنون نیروی اقتصادی محرک پشت پرده بخش فناوری شده است.
ویتاکر که همچنین رئیس بنیاد Signal است، بیش از این خطراتی را که توسط سیستمهای AI که مقدار زیادی داده تولید و پردازش میکنند اشاره کرد. این سیستمها قدرتی دارند که بتوانند زندگیهای ما را دستهبندی و شکل دهند به گونهای که باید مسائل مشابهی را برانگیزد. او تأکید کرد که چند عمدهترین شرکت نظارتی بیشترین بخش از این صنعت را کنترل میکنند که اغلب بدون مسئولیت اجرا میکنند.
بهعضویت در شورای عالی تحقیقاتی دانشگاه نیویورک و کارمند سابق گوگل که یک تظاهرات کارمندانی را از طریق سازماندهی تظاهرات علیه شرایط کاری برگزار کرد، ویتاکر از پیچیدگیهای اخلاقی فناوری آگاه است. او برای حفظ حریمزنی و مخالفت با مدلهای کسبوکاری که بر از بین بردن دادههای شخصی تکیه میکنند، به شدت طرفدار است.
علاوه بر این، ویتاکر بر عدم تعادل قدرت تأکید کرد که بیشترین مردم تحت استفاده AI از سوی کارفرمایان، دولتها و نیروی انتظامی هستند تا بودن کاربران فعال. او به شرکتهای AI که ادعا میکنند به حل بحران اقلیم کمک میکنند در حالی که از شرکتهای سوخت فسیلی پول میپذیرند و به تکنولوژی آنها برای استخراج منابع جدید اجازه میدهند، انتقاد کرد.
ویتاکر با فراخوانی برای اروپا بهعنوان یکی از جریانهای برجسته بنیاد Signal، از راه حلهای دموکراتیکتر و چندگانهتر برای فناوری سرویسدهی، پایان داد.
سوالات مهم:
1. چه نگرانیهای اخلاقی مرتبط با AI و نظارت جمعی وجود دارد؟
2. چگونه فناوریهای AI بستگی به مجموعههای بزرگ داده دارند و چه تأثیراتی دارد؟
3. نقش بنیاد Signal در حفظ حریم شخصی چیست؟
4. چگونه نامتوازی قدرت بر روی نحوه استفاده از AI توسط جامعه اثر میگذارد؟
5. چه چالشهایی اروپا در رقابت با شرکتهای AI آمریکایی در حوزه استانداردهای اخلاقی و حفظ حریم خصوصی دارد؟
پاسخها:
1. نگرانیهای اخلاقی مرتبط با AI و نظارت جمعی شامل نقض احتمالی حریم شخصی، عدم رضایت در جمعآوری داده، تبعیض در تصمیمگیریهای الگوریتمی، استفاده از داده برای اهداف تأثیرگذار و تشویق نامتعادل بین کنترل کنندگان فناوری و عموم مردم است.
2. فناوریهای AI برای آموزش مدلهای یادگیری ماشین به دادههای بزرگ نیاز دارند، به این معنا که برای بهبود دقت و کارآییشان نیازمند اطلاعات فراوان میباشند. تأثیرات این شامل تعدیل حریم شخصی، ریسکهای امنیتی اگر داده منتشر شود و سوالی در مورد اینکه چه کسی دادهها را مالک میشود و کنترل میکند.
3. بنیاد Signal یک سازمان غیرانتفاعی است که به توسعه فناوری حفظ حریم شخصی مبتنی بر کد باز اختصاص داده است که از تعبیر آزاد پشتیبانی کند و امکان ارتباط امن جهانی ارائه دهد. این بنیاد مسئول برنامه پیامرسان Signal است که برای نگهداری خصوصیت گفتگوهای کاربر طراحی شدهاست.
4. نامتوازی قدرت در استفاده از AI معمولاً منجر به استفاده از فناوری توسط کارفرمایان، دولتها و نهادهای نظارتی به صورتی که تأثیر گذاری یا کنترل افراد را به جای توانمند کردن آنها، نهایتاً بر روی یک کشور نظارتی میانجامد که شهروندان بدون رضایت یا شفافیت نظارت میگردند.
5. اروپا با چالش روبهرو است که فناوریهای AI را ایجاد نماید که با ارزشهای حکومت دموکراتیک و حفظ حریم شخصی همخوانی داشته باشد. این امر از جواب مطابقت با شرکتهای AI آمریکایی بیشتر از حد و در مقابل توسعه AI اخلاقی که با استانداردها و اهداف جامعه اروپا همخوانی داشته باشد، میطلبد.
چالشها یا اختلافات کلیدی:
– حفاظت از حریم شخصی در مقابل نوآوری: برقراری تعادل بین پیشرفت فناوری و حفظ حریم شخصی افراد یک چالش عمده است.
– قوانین حفظ حریم شخصی داده: اطمینان از مقررات حفاظت دادههای قوی مانند توافقنامه کلی حفاظت دادههای جعلی (GDPR) در اروپا ضروری است و اغلب اختلاف برانگیز است، بهویژه زمانی که نیاز است که آن را در سطح بینالمللی اجرا کرد.
– توسعه AI اخلاقی: توسعه AI به شیوهای اخلاقی که تبعیضها و حقوق بشر را رعایت میکند، همچنان در یک حوزه مورد اختلاف است و قابلیتهای متفاوتی دارد.
مزایا و معایب:
مزایا:
– AI میتواند وظایف پیچیده را اتوماسیون کرده و منجر به بهبود کارایی و بهرهوری میشود.
– آنها میتوانند به سرعت دادههای فراوان را تجزیه و تحلیل کنند و در فرآیند تصمیمگیری کمک کنند.
– AI قابلیت پیشرفت در بخشهای مختلف از جمله بهداشت و حمل و نقل را دارد.
معایب:
– سیستمهای AI میتوانند حریم شخصی افراد را با جمعآوری و تحلیل دادههای شخصی نقض کنند.
– اگر با دقت طراحی نشوند، AI میتواند تبعیضها و تبعیض را نگه دارد.
– وجود ریسکی از وابستگی زیاد به AI و از دست دادن مهارتها و شغل انسانی را دارد.
لینکهای توصیهشده مرتبط:
– بنیاد Signal
– کنفرانس VivaTech
– کمیسیون اروپا (برای GDPR و سیاستهای AI در اتحادیه اروپا)