مایکروسافت محدودیت‌های تشخیص چهره هوش مصنوعی در نیروهای انتظامی را تعیین می‌کند

نگرش مایکروسافت نسبت به هوش مصنوعی در پلیسی به شکل قاطعی شکل گرفته است، زیرا این شرکت مرزهای فناوری تشخیص چهره Azure OpenAI را مشخص کرده است. این عملاً ضوابط سختی را برای جلوگیری از استفاده از قابلیت‌های تشخیص چهره‌اش توسط نیروهای پلیس آمریکا، به ویژه در زمان پاترول‌ها، تجزیه و تحلیل فیلم‌های دوربین بدن و داشبوردها، تعیین کرده است.

این شرکت روشن بیان کرده است که تکنولوژی آزور OpenAI اش را مقداری کسب و کاری به نیروهای پلیس ارائه نمی‌دهد، و به واقع یک قطعنامه جهانی روی اجرای آن در پاترول‌های پلیس گذاشته است. این تصمیم در میان بحث گسترده‌تری درباره تلاقی فناوری، حریم خصوصی و آزادی‌های مدنی به وجود آمده است.

حتی پیش از این توسعه، مایکروسافت استفاده از مدل‌های OpenAI در فرایند شناسایی مظنونان را اجازه نمی‌دهد، که نگرش محتاطانه‌ایشان به ارائه‌ی هوش مصنوعی در زمینه‌هایی پر از مسائل اخلاقی و خصوصیت را نشان می‌دهد. ارتش پلیس شورایی به دنبال استفاده از هوش مصنوعی برای نیم‌کشی از مقدار وسیعی از ویدئوهای توسط افسران شده است، به نوعی برای افزایش کارآیی و دقت کار خود.

این حرکت توسط مایکروسافت نشان می‌دهد تلاش‌های هوشیارانه برای ارزیابی ریسک‌های احتمالی نظارت در مقابل مزایای پیشرفت‌های هوش مصنوعی است، که برای شرکت‌های فناوری در زمینه اجرای اخلاقی هوش مصنوعی تبصره‌ای را تعیین می‌کند.

سوالات و جواب‌های کلیدی:

چه علت‌های اصلی پشت تصمیم مایکروسافت برای محدود کردن استفاده از تکنولوژی تشخیص چهره اش توسط نهادهای نظامیان قانونی وجود دارد؟ دلایل اصلی به نگرانی‌ها درباره خصوصیت، آزادی‌های مدنی و نقشه‌های اخلاقی استفاده از هوش مصنوعی برای نظارت مرتبط است. مایکروسافت بر استفاده مسئولانه‌ی هوش مصنوعی تأکید دارد و ریسک‌های مرتبط با سواستفاده از چنین فناوری‌هایی را معترف است.

چگونه این تصمیم می‌تواند بر نهادهای نظامی تأثیر داشته باشد؟ نهادهای پلیسی که تمایل به گنجاندن هوش مصنوعی در فعالیت‌های خود دارند ممکن است با مشکلاتی در پیدا کردن ابزارهای هوش مصنوعی قابل اعتماد و اخلاقی مواجه شوند. آن‌ها ممکن است به دنبال فناوری‌های جایگزین باشند یا بیشتر به روش‌های معمول پلیسی اعتماد کنند.

چه مزایا و معایبی از استفاده از تشخیص چهره با هوش مصنوعی برای نظارت پلیسی وجود دارد؟

مزایا:
– کارآیی افزایش یافته: هوش مصنوعی قادر است بر پردازش مقدار وسیعی از داده‌ها سریعتر از انسان‌ها باشد که می‌تواند تحقیقات و نظارت را تسریع کند.
– دقت افزایش یافته: هوش مصنوعی پتانسیل کاهش خطاهای انسانی در تأیید هویت و شناسایی مظنونان را دارد هنگامی که به درستی مدیریت و در مرزهای اخلاقی استفاده شود.

معایب:
– نگرانی‌های حریم شخصی: سواستفاده از تشخیص چهره با هوش مصنوعی می‌تواند منجر به نظارت غیرقانونی و نقض حقوق حریم شخصی افراد شود.
– تعصب و تبعیض: در مواردی مستند به خطاهایی هستند که هوش مصنوعی به ویژه در اشتباه شناسایی افراد گروه‌های خاص نژادی یا جنسیتی می‌کند که می‌تواند به تبعیض منجر شود.
– مسئولیت‌پذیری: وقوع خطر افزودن مسئولیت انسانی را وقتی بر روی سیستم‌های اتوماسیونی برای وظایف پلیسی تکیه داده شود.

چالش‌های کلیدی و اختلافات:
– توازن تکنولوژی و اخلاق: چگونگی توسعه و استقرار تکنولوژی تشخیص چهره به صورت مسئولانه بدون نقض خصوصیت‌های مدنی چالش مهمی باقی می‌ماند.
– تنظیم و نظارت: ایجاد چارچوبی برای تنظیم استفاده از هوش مصنوعی توسط نظامیان برای اطمینان از عدالت و مسئولیت‌پذیری مسئله‌ای پیچیده است، با دیدگاه‌های مختلفی بر بهترین رویه.
– اعتماد عمومی: وقایعی از سوءاستفاده یا خطاها در تشخیص چهره می‌تواند باور عمومی را به پلیس و تامین‌کنندگان فناوری تخریب کند.

حقایق مربوط دیگر:
– بحث جهانی درباره اخلاقیات هوش مصنوعی شامل نه تنها نگرانی‌های حریم شخصی بلکه ایجاد استانداردهای جهانی برای استفاده مسئولانه از هوش مصنوعی در بخش‌های مختلف از جمله نظامیان است.
– فناوری‌های جایگزین مانند تشخیص اجسام یا تجزیه و تحلیل ناشنامه‌های جمعی برای کمک به پلیس در حفظ برخی از مسائل اخلاقی تشخیص چهره بررسی می‌شوند.
– بسیاری از شهرها و مرزها در حال بحث یا اجرای ممنوعیت‌ها و تعلیق بر استفاده از تکنولوژی تشخیص چهره توسط نهادهای نظامی به دلیل ریسک‌های مرتبط هستند.

برای کسب اطلاعات بیشتر در مورد هوش هوشمند و تشخیص چهره مسئله، افراد می‌توانند به وب‌سایت‌های شرکت‌های فناوری اصلی و گروه‌های حمایت از حقوق حریم خصوصی مراجعه کنند. اینجا دامنه‌های اصلی مرتبط هستند:
Microsoft
اتحادیه آزادی‌های مدنی آمریکا (ACLU)
آمازون (که همچنین در بحث‌هایی درباره تکنولوژی تشخیص چهره شرکت داراست)
IBM (که در ارائه‌ی نگرشی به توسعه‌ی اخلاقی هوش مصنوعی مشغول است)

Privacy policy
Contact