بنیاد سیگنال: مردیت ویتاکر حمایت از حریم خصوصی در میان نگرانی‌های مربوط به هوش مصنوعی

در چهارشنبه، 23 مه، مردیت ویتاکر، رئیس اپلیکیشن پیام رمزگذاری شده سیگنال، نگرانی‌هایش را درباره نظارت جمعی و فناوری هوش مصنوعی به اشتراک گذاشت. در گفتگو با AFP در پاریس در کنار کنفرانس VivaTech، او بیان کرد که هوش مصنوعی که در صنعت فناوری تحسین شده است، بنیانگذاری شده بر روی روش‌های نظارت جمعی است.

در حین بحث درباره ارتباط بین نظارت و هوش مصنوعی، ویتاکر به این نکته اشاره کرد که فناوری‌های هوش مصنوعی بر روی مجموعه داده‌های بزرگ حاکمیت دارد، که نتیجه‌ای از مدل کسب و کار نظارت جمعی است که از دهه ۹۰ در ایالات متحده شکل گرفت. این مدل از آن زمان به بخش اقتصادی پرکننده عمده پشت فناوری تبدیل شده است.

ویتاکر، که همچنین رئیس بنیاد سیگنال است، بر خطراتی که توسط سیستم‌های هوش مصنوعی که مقادیر بزرگی از داده را تولید و پردازش می‌کنند، تاکید کرد. این سیستم‌ها توانایی دسته‌بندی کردن و تغییر دادن زندگی‌های ما را دارند که این موضوع باید موجب نگرانی یکسان شود. او آن را تاکید کرد که چندین شرکت نظارتی به طور اساسی صنعت را کنترل می‌کنند که اغلب بدون حسابرسی عمل می‌کند.

به‌عنوان یک دانشیار پژوهش سابق در دانشگاه نیویورک و یک کارمند گوگل که یک اعتراض کارمندانه را درباره شرایط کاری سازماندهی کرد، ویتاکر تجربه لازم را در ابعاد اخلاقی فناوری دارد. او طرفداری قوی از حریم خصوصی است و مدل‌های کسب و کاری که بر استخراج داده شخصی تکیه می‌کنند را مخالفت می‌کند.

علاوه بر این، ویتاکر بر عدم توازن قدرتی که بیشتر مردم تحت استفاده از هوش مصنوعی توسط کارفرمایان، دولت‌ها و نهادهای انتظامی قرار دارند به‌جای بودن کاربران فعال، تاکید کرد. او از شرکت‌های هوش مصنوعی که ادعا می‌کنند به حل بحران آب‌وهوایی کمک کرده و در عین حال از شرکت‌های سوخت فسیلی حمایت مالی می‌پذیرند و فناوری خود را برای استخراج منابع جدید استفاده می‌نمایند، انتقاد کرد.

ویتاکر با تماسی به اروپا برای اینکه بر رقابت با شرکت‌های هوش مصنوعی آمریکایی، بلکه برای تصور دوباره فناوری که به خدمت جوامع دموکراتیک و چندگانه‌تر است، روشن عقیده کرد. به‌عنوان شخصیت برجسته بنیاد سیگنال، او به حریم خصوصی و ملاحظات اخلاقی در صنعت فناوری ادامه می‌دهد.

سوالات مهم:

1. چه موارد اخلاقی مربوط به هوش مصنوعی و نظارت جمعی وجود دارد؟
2. هوش مصنوعی چگونه به مجموعه‌های بزرگ داده وابسته است و چه تأثیراتی دارد؟
3. نقش بنیاد سیگنال در حمایت از حریم خصوصی چیست؟
4. چگونه عدم توازن قدرت بر روی نحوه استفاده از هوش مصنوعی توسط جامعه تأثیر می‌گذارد؟
5. چالش‌هایی که اروپا با شرکت‌های هوش مصنوعی آمریکایی در زمینه استانداردهای اخلاقی و حریم خصوصی دارد چیست؟

پاسخ‌ها:

1. موارد اخلاقی مرتبط با هوش مصنوعی و نظارت جمعی شامل نقض‌های احتمالی حریم خصوصی، عدم رضایت در جمع‌آوری داده، تبعیضات احتمالی در تصمیم‌گیری الگوریتمی، استفاده از داده‌ها به منظور اهداف تبلیغاتی و تقویت اختلافات قدرت بین کسانی که فناوری را کنترل می‌کنند و عموم مردم است.

2. فناوری‌های هوش مصنوعی بر روی مجموعه داده‌های بزرگ برای آموزش مدل‌های یادگیری ماشین متکی هستند، به‌معنای اینکه نیاز دارند که مقدار زیادی اطلاعات را برای بهبود دقت و کارآیی خود مصرف کنند. پیامدها شامل نفوذ حریم خصوصی، خطرات امنیتی اگر داده‌ها متاثر شوند و سوال این که چه کسی داده‌ها را مالکیت و کنترل می‌کند.

3. بنیاد سیگنال یک سازمان غیرانتفاعی است که به توسعه فناوری حریم خصوصی متن‌باز متعهد است که از آزادی بیان حمایت می‌کند و امکان ارتباط ایمن جهانی را امکان‌پذیر می‌سازد. بنیاد مسئول اپلیکیشن سیگنال است؛ یک اپلیکیشن پیام رمزنگاری شده طراحی شده برای حفظ خصوصیت گفتگو‌های کاربران است.

4. عدم توازن قدرت در استفاده از هوش مصنوعی به‌طور معمول باعث می‌شود فناوری توسط کارفرمایان، دولت‌ها و نهادهای انتظامی در یک شیوه استفاده شود که افراد را تحت تأثیر قرار دهد یا کنترل کند به‌جای تقویت آن‌ها. این می‌تواند منجر به یک جامعه نظارتی شود جایی که شهروندان بدون رضایت یا شفافیت نظارت می‌شوند.

5. اروپا با چالش مواجه است به‌ساختن تکنولوژی‌های هوش مصنوعی که با ارزش‌های حاکمیتی دموکراتیک و حفاظت از حریم خصوصی همخوانی داشته باشد. این امر شامل نه تنها رقابت با شرکت‌های هوش مصنوعی آمریکایی است، بلکه باعث توسعه هوش مصنوعی اخلاقی که با استانداردهای و اهداف جامعه‌ای اروپایی مطابقت داشته باشد می‌شود.

چالش‌ها یا اختلافات مهم:

حریم خصوصی در مقابل نوآوری: برقراری تعادل میان پیشرفت فناورانه و حفاظت از حریم خصوصی فراز یک چالش اصلی است.
قوانین حفاظت داده: اطمینان حاصل کردن از رویاستر گذاری قوانین محافظت داده، مانند آیین‌نامه عمومی حفاظت داده (GDPR) در اروپا، امری اساسی و گاهاً انقلابی است، و بخصوص زمانی که بر حقوق بین‌المللی اجرا می‌شود.
توسعه هوش مصنوعی اخلاقی: توسعه هوش مصنوعی به شیوه‌ای اخلاقی که از بیطرفی‌ها جلوگیری کند و حقوق بشر را احترام بگذارد هنوز یکی از حوزه‌های اختلافی است که علاقه‌مندان مختلف منافع متفاوتی دارند.

مزایا و معایب:

مزایا:
– هوش مصنوعی می‌تواند وظایف پیچیده را به طور اتوماسیونی انجام دهد که منجر به افزایش کارایی و بهره‌وری می‌شود.
– می‌تواند مقدار زیادی از داده‌ها را به سرعت تجزیه و تحلیل نماید که در فرایندهای تصمیم‌گیری سودمند است.
– هوش مصنوعی قدرت بهبود مختصر در حوزه‌های مختلف از جمله بهداشت و حمل‌ونقل دارد.

معایب:
– سیستم‌های هوش مصنوعی ممکن است با جمع‌آوری و تحلیل داده‌های شخصی، در حقوق خصوصی افراد تجاوز نمایند.
– اگر با دقت طراحی نشوند، هوش مصنوعی می‌تواند تبعیض و تبعیض را پایدار کند.
– خطر اعتماد بیش از حد به هوش مصنوعی ویژگی‌هاء انسانی و شغل‌ها را از دست دادن وجود دارد.

لینک‌های پیشنهادی مرتبط:
بنیاد سیگنال
کنفرانس VivaTech
کمیسیون اروپا (برای GDPR و سیاست‌های هوش مصنوعی در اتحادیه اروپا)

Privacy policy
Contact