صوت عالمي لسلامة الذكاء الاصطناعي يحث القادة العالميين على اتخاذ إجراء حاسم

محتوى:

يحث الخبراء على اتخاذ إجراءات أمنية أقوى للذكاء الاصطناعي قبل قمة سيول

صدح مجموعة من 25 خبيرًا عالميًا رائدين في مجال الذكاء الاصطناعي (AI) بجرس الإنذار بشأن المخاطر المحتملة المرتبطة بالتكنولوجيا، معربين عن الحاجة لكفاح زعماء العالم بجدية أكبر. وقد تم التعبير عن مخاوفهم في رسالة مفتوحة نُشرت في مجلة Science، استعدادًا لقمة الأمن AI في سيول.

من المتوقع استمرار المناقشات التي بدأت قبل ستة أشهر في بلاتشلي بارك خلال القمة في سيول، التي يستضيفها كوريا الجنوبية والمملكة المتحدة. ويأتي هذا عقب اتفاقية أولية بين الاتحاد الأوروبي والولايات المتحدة والصين في حدث تاريخي في بلاتشلي بارك، تسلمهم فيه بجوانب الفرص والمخاطر المقدمة من AI واُلتزامهم بالجهود الدولية التعاونية لمواجهة التحديات الرئيسية.

تأخر التقدم بعد التزام بلاتشلي بارك

على الرغم من بعض التقدم منذ إعلان بلاتشلي بارك، يؤكد الموقعون، بما في ذلك الشخصيات البارزة مثل جيفري هينتون، ويوشوا بينغيو، ودانيال كانيمان، أن التطورات كانت غير كافية. ويشددون على ضرورة أن ينظر القادة بجدية في الإمكانية الواقعية لتجاوز أنظمة AI ذوات طابع عام القدرات البشرية في عدة مجالات حاسمة خلال العقد القادم أو في أقرب وقت.

لقد شاركت الحكومات في المناقشات وقدمت توجيهات لسلامة AI، ولكن الخبراء يعتبرون أن هذه الجهود ناقصة في ضوء التقدّم المعتبر المتوقع من بحوث AI.

البحث ومنع سوء الاستخدام

بشكل مقلق، يبدو أن البحوث الحالية في مجال AI تهمل السلامة، مع تركيز 1-3% فقط من المنشورات على هذا الجانب. يشير أصحاب الرسالة إلى نقص الآليات والمؤسسات لمنع السوء استخدام والسلوكيات اللامبالية، بما في ذلك نشر الأنظمة المستقلة التي يمكن أن تعمل وتطلب أهدافًا بشكل مستقل.

لقد أظهرت AI بالفعل تطورا سريعًا في مجالات حاسمة مثل اختراق الأمان السيبراني، والتلاعب الاجتماعي، والتخطيط الاستراتيجي. والتحديات المحتملة التي قد تنشأ ليست مسبوقة، بما في ذلك اكتساب أنظمة AI الثقة البشرية، واكتساب الموارد، والتأثير على صناع القرارات الرئيسية.

نداء إلى العمل: من الاقتراحات العريضة إلى التزامات ملموسة

وكما يلاحظ البروفيسوران ستيوارت راسل وفيليب تور، هناك حاجة حرجة للانتقال من اقتراحات غامضة إلى التزامات ملموسة. وتتضمن ذلك أخذ أنظمة AI المتقدمة بجدية، فرض تنظيمات صارمة على الرموز الاختيارية، ودحض فكرة أن التنظيمات تقمع الابتكار.

يتم اقتراح تدابير عاجلة لتعزيز سلامة AI

توضح الرسالة العديد من التدابير المطلوبة من الحكومات، مثل إنشاء مؤسسات خبراء AI رشيقة بتمويل كافٍ. بالمقارنة مع الميزانية الضئيلة لمعهد الأمان AI في الولايات المتحدة، تتمتع وكالات فدرالية أُخرى مثل إدارة الغذاء والدواء بموارد مالية أعلى بكثير. بالإضافة إلى ذلك، يطالبون بتقديم تقييمات المخاطر الصارمة، وتحديد أهمية السلامة من قبل شركات AI، وتنفيذ “حالات السلامة”، وتخفيف الإجراءات الموحدة نسبيًا مع المخاطر التي تتوافق معها الـAI .

تقع الأولوية العاجلة في تنشيط السياسات عندما تصل AI إلى عتبات قدرات معينة، مع متطلبات صارمة إذا تقدم AI بسرعة ولكن تقل الاسترخاء إذا توقف التقدم.

عند تلخيص المخاطر المتضمنة، توحي الرسالة بأنه في حين يفتخر الإنسان بذكائه، إلا أن تطور AI يمكن أن يؤدي إلى الانقراض الساخر لأذكى الكائنات بواسطة خلقه الخاص.

أهمية التعاون العالمي من أجل سلامة AI

مع استمرار توسع AI في مختلف القطاعات، بما في ذلك العسكرية والصحية والمالية والنقل، تواجه المجتمع العالمي تحديًا ملحًا لضمان عدم تشكيل أنظمة AI خطرًا على البشر والهياكل المجتمعية الأوسع. التعاون بين الدول حاسم لوضع نهج موحد لإدارة المخاطر المتعلقة بـAI بينما يعزز بيئة آمنة للابتكار. سلامة AI مسألة عالمية تتجاوز الحدود الوطنية وتفرض استجابة دولية منسقة لتنسيق أهداف التطوير ومشاركة أفضل الممارسات وتطوير أطر تنظيمية مشتركة.

الأسئلة الرئيسية والتحديات

أحد الأسئلة الأكثر أهمية هو: كيف يمكن لزعماء العالم ضمان سلامة AI بينما يروجون للابتكار؟ تكمن الإجابة في الموازنة بين التدابير التنظيمية لمنع سوء الاستخدام مقابل إيجاد بيئة تساعد على البحث والتطوير. سؤال آخر هو: ما هي الآليات التي يجب تنفيذها لمنع نشر الأنظمة المستقلة التي يمكن أن تتصرف بشكل مستقل وقد تؤثر سلبًا؟ وهذا يؤكد على ضرورة وجود إشراف قوي وسياسات شفافة واتفاقيات دولية بشأن استخدام مثل هذه الأنظمة.

إحدى التحديات الرئيسية تتمثل في وضع معايير عالمية لأخلاقيات AI وسلامة بما يتسع لاحتواء القيم الثقافية والنماذج الحكومية المختلفة. وهناك تحدي آخر يتمثل في تقريب الفجوة بين التقدم التكنولوجي السريع والاستجابات التنظيمية البطيئة، حيث يفوق وتيرة تطور AI في كثير من الأحيان التدابير التنظيمية.

الجدل والعيوب

أثار الدعوة إلى سلامة AI جدالًا حول مواضيع مثل كبح الابتكار بسبب التنظيم المفرط واحتمال وجود خلافات دولية بشأن حكم AI. يُستدعي بعض لاعبي الصناعة أن تعرقل التنظيمات المفرطة الابتكار، بينما يعتقد آخرون أن الإجراءات الصارمة ضرورية لمنع النتائج الكارثية.

إحدى العيوب الرئيسية في مسعى سلامة AI هي تعقيد توقع سلوك AI، خصوصًا مع تزايد انحياز الأنظمة وقدراتها. يجعل هذا التعذيب تطوير بروتوكولات سلامة شاملة صعبًا. بالإضافة إلى ذلك، يُعد هناك خطر من الاختلافات الاقتصادية والقوة، حيث قد لا تملك جميع الدول الموارد الكافية للاستثمار في بحوث سلامة AI أو تأثير المعايير العالمية.

مزايا تدابير سلامة AI

يجلب تنفيذ تدابير سلامة AI الصلبة العديد من المزايا، مثل حماية المواطنين من آثار AI الضارة المحتملة أو السوء استخدامها. كما يساعد في الحفاظ على ثقة الجمهور في تكنولوجيا AI ويمكن أن يشجع على مزيد من الابتكار المسؤول في الصناعة. علاوة على ذلك، يمكن أن يعزز تأسيس إرشادات سلامة AI التعاون الدولي ويمنع سباقًا في التسلّح بالذكاء الاصطناعي الذي قد يكون له عواقب عالمية خطيرة.

لمزيد من المعلومات حول موضوع الذكاء الاصطناعي وانعكاساته، يُرجى زيارة المصادر الموثوقة مثل:

– الموقع الرسمي لمعهد مستقبل حياة الذي يركز على المخاطر الفجائية مثل تلك التي تهدد AI: معهد مستقبل الحياة
– موقع شراكة AI الذي يهدف إلى تطوير أفضل الممارسات في تقنيات AI: شراكة AI
– المبادرة العالمية لأخلاقيات الأنظمة الذاتية والذكية لـ IEEE: IEEE

تساهم كل من هذه المنظمات في مجال سلامة AI وصنع السياسات العالمية، وتقدم موارد ورؤى إضافية حول هذا الموضوع الحيوي.

Privacy policy
Contact