در چهارشنبه، 23 مه، مردیت ویتاکر، رئیس اپلیکیشن پیام رمزگذاری شده سیگنال، نگرانیهایش را درباره نظارت جمعی و فناوری هوش مصنوعی به اشتراک گذاشت. در گفتگو با AFP در پاریس در کنار کنفرانس VivaTech، او بیان کرد که هوش مصنوعی که در صنعت فناوری تحسین شده است، بنیانگذاری شده بر روی روشهای نظارت جمعی است.
در حین بحث درباره ارتباط بین نظارت و هوش مصنوعی، ویتاکر به این نکته اشاره کرد که فناوریهای هوش مصنوعی بر روی مجموعه دادههای بزرگ حاکمیت دارد، که نتیجهای از مدل کسب و کار نظارت جمعی است که از دهه ۹۰ در ایالات متحده شکل گرفت. این مدل از آن زمان به بخش اقتصادی پرکننده عمده پشت فناوری تبدیل شده است.
ویتاکر، که همچنین رئیس بنیاد سیگنال است، بر خطراتی که توسط سیستمهای هوش مصنوعی که مقادیر بزرگی از داده را تولید و پردازش میکنند، تاکید کرد. این سیستمها توانایی دستهبندی کردن و تغییر دادن زندگیهای ما را دارند که این موضوع باید موجب نگرانی یکسان شود. او آن را تاکید کرد که چندین شرکت نظارتی به طور اساسی صنعت را کنترل میکنند که اغلب بدون حسابرسی عمل میکند.
بهعنوان یک دانشیار پژوهش سابق در دانشگاه نیویورک و یک کارمند گوگل که یک اعتراض کارمندانه را درباره شرایط کاری سازماندهی کرد، ویتاکر تجربه لازم را در ابعاد اخلاقی فناوری دارد. او طرفداری قوی از حریم خصوصی است و مدلهای کسب و کاری که بر استخراج داده شخصی تکیه میکنند را مخالفت میکند.
علاوه بر این، ویتاکر بر عدم توازن قدرتی که بیشتر مردم تحت استفاده از هوش مصنوعی توسط کارفرمایان، دولتها و نهادهای انتظامی قرار دارند بهجای بودن کاربران فعال، تاکید کرد. او از شرکتهای هوش مصنوعی که ادعا میکنند به حل بحران آبوهوایی کمک کرده و در عین حال از شرکتهای سوخت فسیلی حمایت مالی میپذیرند و فناوری خود را برای استخراج منابع جدید استفاده مینمایند، انتقاد کرد.
ویتاکر با تماسی به اروپا برای اینکه بر رقابت با شرکتهای هوش مصنوعی آمریکایی، بلکه برای تصور دوباره فناوری که به خدمت جوامع دموکراتیک و چندگانهتر است، روشن عقیده کرد. بهعنوان شخصیت برجسته بنیاد سیگنال، او به حریم خصوصی و ملاحظات اخلاقی در صنعت فناوری ادامه میدهد.
سوالات مهم:
1. چه موارد اخلاقی مربوط به هوش مصنوعی و نظارت جمعی وجود دارد؟
2. هوش مصنوعی چگونه به مجموعههای بزرگ داده وابسته است و چه تأثیراتی دارد؟
3. نقش بنیاد سیگنال در حمایت از حریم خصوصی چیست؟
4. چگونه عدم توازن قدرت بر روی نحوه استفاده از هوش مصنوعی توسط جامعه تأثیر میگذارد؟
5. چالشهایی که اروپا با شرکتهای هوش مصنوعی آمریکایی در زمینه استانداردهای اخلاقی و حریم خصوصی دارد چیست؟
پاسخها:
1. موارد اخلاقی مرتبط با هوش مصنوعی و نظارت جمعی شامل نقضهای احتمالی حریم خصوصی، عدم رضایت در جمعآوری داده، تبعیضات احتمالی در تصمیمگیری الگوریتمی، استفاده از دادهها به منظور اهداف تبلیغاتی و تقویت اختلافات قدرت بین کسانی که فناوری را کنترل میکنند و عموم مردم است.
2. فناوریهای هوش مصنوعی بر روی مجموعه دادههای بزرگ برای آموزش مدلهای یادگیری ماشین متکی هستند، بهمعنای اینکه نیاز دارند که مقدار زیادی اطلاعات را برای بهبود دقت و کارآیی خود مصرف کنند. پیامدها شامل نفوذ حریم خصوصی، خطرات امنیتی اگر دادهها متاثر شوند و سوال این که چه کسی دادهها را مالکیت و کنترل میکند.
3. بنیاد سیگنال یک سازمان غیرانتفاعی است که به توسعه فناوری حریم خصوصی متنباز متعهد است که از آزادی بیان حمایت میکند و امکان ارتباط ایمن جهانی را امکانپذیر میسازد. بنیاد مسئول اپلیکیشن سیگنال است؛ یک اپلیکیشن پیام رمزنگاری شده طراحی شده برای حفظ خصوصیت گفتگوهای کاربران است.
4. عدم توازن قدرت در استفاده از هوش مصنوعی بهطور معمول باعث میشود فناوری توسط کارفرمایان، دولتها و نهادهای انتظامی در یک شیوه استفاده شود که افراد را تحت تأثیر قرار دهد یا کنترل کند بهجای تقویت آنها. این میتواند منجر به یک جامعه نظارتی شود جایی که شهروندان بدون رضایت یا شفافیت نظارت میشوند.
5. اروپا با چالش مواجه است بهساختن تکنولوژیهای هوش مصنوعی که با ارزشهای حاکمیتی دموکراتیک و حفاظت از حریم خصوصی همخوانی داشته باشد. این امر شامل نه تنها رقابت با شرکتهای هوش مصنوعی آمریکایی است، بلکه باعث توسعه هوش مصنوعی اخلاقی که با استانداردهای و اهداف جامعهای اروپایی مطابقت داشته باشد میشود.
چالشها یا اختلافات مهم:
– حریم خصوصی در مقابل نوآوری: برقراری تعادل میان پیشرفت فناورانه و حفاظت از حریم خصوصی فراز یک چالش اصلی است.
– قوانین حفاظت داده: اطمینان حاصل کردن از رویاستر گذاری قوانین محافظت داده، مانند آییننامه عمومی حفاظت داده (GDPR) در اروپا، امری اساسی و گاهاً انقلابی است، و بخصوص زمانی که بر حقوق بینالمللی اجرا میشود.
– توسعه هوش مصنوعی اخلاقی: توسعه هوش مصنوعی به شیوهای اخلاقی که از بیطرفیها جلوگیری کند و حقوق بشر را احترام بگذارد هنوز یکی از حوزههای اختلافی است که علاقهمندان مختلف منافع متفاوتی دارند.
مزایا و معایب:
مزایا:
– هوش مصنوعی میتواند وظایف پیچیده را به طور اتوماسیونی انجام دهد که منجر به افزایش کارایی و بهرهوری میشود.
– میتواند مقدار زیادی از دادهها را به سرعت تجزیه و تحلیل نماید که در فرایندهای تصمیمگیری سودمند است.
– هوش مصنوعی قدرت بهبود مختصر در حوزههای مختلف از جمله بهداشت و حملونقل دارد.
معایب:
– سیستمهای هوش مصنوعی ممکن است با جمعآوری و تحلیل دادههای شخصی، در حقوق خصوصی افراد تجاوز نمایند.
– اگر با دقت طراحی نشوند، هوش مصنوعی میتواند تبعیض و تبعیض را پایدار کند.
– خطر اعتماد بیش از حد به هوش مصنوعی ویژگیهاء انسانی و شغلها را از دست دادن وجود دارد.
لینکهای پیشنهادی مرتبط:
– بنیاد سیگنال
– کنفرانس VivaTech
– کمیسیون اروپا (برای GDPR و سیاستهای هوش مصنوعی در اتحادیه اروپا)