تحقيق التوازن في سياسات الذكاء الاصطناعي في الولايات المتحدة: الحذر والضمانات

لقد كشف البيت الأبيض مؤخرًا عن تشريعات جديدة لتنظيم استخدام أنظمة الذكاء الاصطناعي (AI) من قبل وكالات الحكومة الفيدرالية. تهدف هذه القواعد إلى الحماية ضد المخاطر المحتملة المتعلقة بالتمييز والمراقبة المرتبطة بتكنولوجيا الذكاء الاصطناعي. بينما تقدم هذه القواعد حمايات شاملة، إلا أنها تتيح للوكالات تقديم تصرفات تقريرية كبيرة للتخلي عن الضمانات الرئيسية. يقوم هذا المقال باستكشاف الحاجة إلى تحقيق توازن حذر بين منح وكالات الحكومة الفيدرالية الاستقلالية وضمان فعالية سياسات الذكاء الاصطناعي.

مذكرة مكتب إدارة الميزانية تحدد “ممارسات تخفيف المخاطر الدنيا” التي يجب على الوكالات الالتزام بها قبل تنفيذ أنظمة الذكاء الاصطناعي. تتضمن هذه الممارسات تقييمات التأثير التي تنظر في المخاطر المحتملة للمجتمعات التي لا تتلقى الخدمات الكافية، وتقييم ملاءمة الذكاء الاصطناعي للمهام النوعية، ومراقبة الأداء العملي في العالم الحقيقي بشكل مستمر. فشل الامتثال لهذه الممارسات أو اكتشاف انتهاكات السلامة أو الحقوق سيؤدي إلى حظر استخدام الذكاء الاصطناعي. تولي المذكرة الأولوية لضمان الحماية ضد الضرر الخوارزمي.

ومع ذلك، ينضح الوسع الواسع الذي يتم منحه للوكالات لتجنب هذه التشريعات من خلال الإعفاءات والتنازلات بضعف قوة القواعد. قد تؤدي معايير غامضة مثل الزيادة المحتملة في المخاطر على السلامة أو الحقوق إجمالاً إلى إساءة استخدام التقرير الوظيفي. بالإضافة إلى ذلك، تفجير في الفجوات التي تسمح بالتنازل إذا لم يعتبر الذكاء الاصطناعي “أساسًا رئيسيًا” لاتخاذ القرارات يذكر بالاعفاءات المماثلة التي قد ضعفت تشريعات تحييد الذكاء الاصطناعي في الماضي. لقد نتجت هذه الثغرات التنظيمية بالفعل عن نتائج تمييزية، مثل خوارزميات التعرف على الوجوه التي أثرت بشكل مفرط على طالبي اللجوء السود ومن ناحية وعاء الاستقرار الاتحادي في اتخاذ قرارات إطلاق السجن.

علاوة على ذلك، فإن سلطة اتخاذ القرار بالتنازل عن الممارسات الدنيا تكمن فقط في الضباط المعينين من قبل الوكالات لرؤساء ضباط الذكاء الاصطناعي (CAIOs). بينما يتحمل هؤلاء الضباط مسؤولية الإشراف على استخدام الذكاء الاصطناعي، تشكل النقائص في آليات شرطية الوكالات، مثل ضعف عدد مراقبي الخصوصية وحقوق الإنسان، تهديدًا للإشراف الفعال. تكون تقييمات CAIOs النهائية وغير قابلة للاستئناف، مما يثير مخاوف بشأن المساءلة والشفافية.

لتعزيز فعالية مذكرة OMB، يجب على الوكالات الفيدرالية تقييد الإعفاءات والتنازلات للظروف الاستثنائية، وعلى أفضلية الثقة العامة على سرعة وسرية. ينبغي على الوكالات تقديم شروحات واضحة لأي قرارات تتعلق بالتنازلات أو الإعفاءات. يجب على مكتب إدارة الميزانية فحص القرارات وإعادة التقييم في حالة سوء استخدام الإعفاءات والتنازلات. في النهاية، تقع المسؤولية النهائية عن تنفيذ حمايات الذكاء الاصطناعي الشاملة على عاتق الكونغرس. يمتلك المشرعون القوة لتكوين ضمانات في القانون وإنشاء آليات إشراف مستقلة. نظرًا للمخاطر الكبيرة لتكنولوجيا الذكاء الاصطناعي، فإن ترك الفجوات الكبيرة في مكانها يشكل مخاطرة كبيرة.

الأسئلة الشائعة

The source of the article is from the blog lisboatv.pt

Privacy policy
Contact