نگرش مایکروسافت نسبت به هوش مصنوعی در پلیسی به شکل قاطعی شکل گرفته است، زیرا این شرکت مرزهای فناوری تشخیص چهره Azure OpenAI را مشخص کرده است. این عملاً ضوابط سختی را برای جلوگیری از استفاده از قابلیتهای تشخیص چهرهاش توسط نیروهای پلیس آمریکا، به ویژه در زمان پاترولها، تجزیه و تحلیل فیلمهای دوربین بدن و داشبوردها، تعیین کرده است.
این شرکت روشن بیان کرده است که تکنولوژی آزور OpenAI اش را مقداری کسب و کاری به نیروهای پلیس ارائه نمیدهد، و به واقع یک قطعنامه جهانی روی اجرای آن در پاترولهای پلیس گذاشته است. این تصمیم در میان بحث گستردهتری درباره تلاقی فناوری، حریم خصوصی و آزادیهای مدنی به وجود آمده است.
حتی پیش از این توسعه، مایکروسافت استفاده از مدلهای OpenAI در فرایند شناسایی مظنونان را اجازه نمیدهد، که نگرش محتاطانهایشان به ارائهی هوش مصنوعی در زمینههایی پر از مسائل اخلاقی و خصوصیت را نشان میدهد. ارتش پلیس شورایی به دنبال استفاده از هوش مصنوعی برای نیمکشی از مقدار وسیعی از ویدئوهای توسط افسران شده است، به نوعی برای افزایش کارآیی و دقت کار خود.
این حرکت توسط مایکروسافت نشان میدهد تلاشهای هوشیارانه برای ارزیابی ریسکهای احتمالی نظارت در مقابل مزایای پیشرفتهای هوش مصنوعی است، که برای شرکتهای فناوری در زمینه اجرای اخلاقی هوش مصنوعی تبصرهای را تعیین میکند.
سوالات و جوابهای کلیدی:
– چه علتهای اصلی پشت تصمیم مایکروسافت برای محدود کردن استفاده از تکنولوژی تشخیص چهره اش توسط نهادهای نظامیان قانونی وجود دارد؟ دلایل اصلی به نگرانیها درباره خصوصیت، آزادیهای مدنی و نقشههای اخلاقی استفاده از هوش مصنوعی برای نظارت مرتبط است. مایکروسافت بر استفاده مسئولانهی هوش مصنوعی تأکید دارد و ریسکهای مرتبط با سواستفاده از چنین فناوریهایی را معترف است.
– چگونه این تصمیم میتواند بر نهادهای نظامی تأثیر داشته باشد؟ نهادهای پلیسی که تمایل به گنجاندن هوش مصنوعی در فعالیتهای خود دارند ممکن است با مشکلاتی در پیدا کردن ابزارهای هوش مصنوعی قابل اعتماد و اخلاقی مواجه شوند. آنها ممکن است به دنبال فناوریهای جایگزین باشند یا بیشتر به روشهای معمول پلیسی اعتماد کنند.
– چه مزایا و معایبی از استفاده از تشخیص چهره با هوش مصنوعی برای نظارت پلیسی وجود دارد؟
مزایا:
– کارآیی افزایش یافته: هوش مصنوعی قادر است بر پردازش مقدار وسیعی از دادهها سریعتر از انسانها باشد که میتواند تحقیقات و نظارت را تسریع کند.
– دقت افزایش یافته: هوش مصنوعی پتانسیل کاهش خطاهای انسانی در تأیید هویت و شناسایی مظنونان را دارد هنگامی که به درستی مدیریت و در مرزهای اخلاقی استفاده شود.
معایب:
– نگرانیهای حریم شخصی: سواستفاده از تشخیص چهره با هوش مصنوعی میتواند منجر به نظارت غیرقانونی و نقض حقوق حریم شخصی افراد شود.
– تعصب و تبعیض: در مواردی مستند به خطاهایی هستند که هوش مصنوعی به ویژه در اشتباه شناسایی افراد گروههای خاص نژادی یا جنسیتی میکند که میتواند به تبعیض منجر شود.
– مسئولیتپذیری: وقوع خطر افزودن مسئولیت انسانی را وقتی بر روی سیستمهای اتوماسیونی برای وظایف پلیسی تکیه داده شود.
چالشهای کلیدی و اختلافات:
– توازن تکنولوژی و اخلاق: چگونگی توسعه و استقرار تکنولوژی تشخیص چهره به صورت مسئولانه بدون نقض خصوصیتهای مدنی چالش مهمی باقی میماند.
– تنظیم و نظارت: ایجاد چارچوبی برای تنظیم استفاده از هوش مصنوعی توسط نظامیان برای اطمینان از عدالت و مسئولیتپذیری مسئلهای پیچیده است، با دیدگاههای مختلفی بر بهترین رویه.
– اعتماد عمومی: وقایعی از سوءاستفاده یا خطاها در تشخیص چهره میتواند باور عمومی را به پلیس و تامینکنندگان فناوری تخریب کند.
حقایق مربوط دیگر:
– بحث جهانی درباره اخلاقیات هوش مصنوعی شامل نه تنها نگرانیهای حریم شخصی بلکه ایجاد استانداردهای جهانی برای استفاده مسئولانه از هوش مصنوعی در بخشهای مختلف از جمله نظامیان است.
– فناوریهای جایگزین مانند تشخیص اجسام یا تجزیه و تحلیل ناشنامههای جمعی برای کمک به پلیس در حفظ برخی از مسائل اخلاقی تشخیص چهره بررسی میشوند.
– بسیاری از شهرها و مرزها در حال بحث یا اجرای ممنوعیتها و تعلیق بر استفاده از تکنولوژی تشخیص چهره توسط نهادهای نظامی به دلیل ریسکهای مرتبط هستند.
برای کسب اطلاعات بیشتر در مورد هوش هوشمند و تشخیص چهره مسئله، افراد میتوانند به وبسایتهای شرکتهای فناوری اصلی و گروههای حمایت از حقوق حریم خصوصی مراجعه کنند. اینجا دامنههای اصلی مرتبط هستند:
– Microsoft
– اتحادیه آزادیهای مدنی آمریکا (ACLU)
– آمازون (که همچنین در بحثهایی درباره تکنولوژی تشخیص چهره شرکت داراست)
– IBM (که در ارائهی نگرشی به توسعهی اخلاقی هوش مصنوعی مشغول است)