في النقاش المتواصل حول المخاطر المحتملة للذكاء الاصطناعي (AI)، يتحول التركيز غالبًا بين المعجزات التكنولوجية التي يمكن أن يخلقها الذكاء الاصطناعي والبشر الذين يتحكمون فيه. ولكن ربما السؤال الأكثر إلحاحًا هو ما إذا كنا بحاجة إلى تشريعات مناسبة لضمان التطوير واستخدام الذكاء الاصطناعي بشكل مسؤول.
تعتقد شركة ليوناردو الإيطالية الرائدة في مجال الدفاع أن القلق من عدم التحكم من البشر أمر أكبر من القلق من التكنولوجيا نفسها. يشدد الرئيس التنفيذي روبرتو تشنغولاني على أن البشر كانوا يشنون الحروب منذ آلاف السنين، وإنما هو نقص التحكم هو ما يجب أن يقلقنا. في رأيه، الذكاء الاصطناعي ليس سوى أداة خلقتها البشر وتسيطر عليها في النهاية البشر.
مع ذلك، أثارت التشريعات الحديثة التي أدخلتها وزارة تكنولوجيا المعلومات والاتصالات (MeitY) جدلا داخل المجتمع التقني. تتطلب هذه التشريعات من الشركات التكنولوجية التي تعمل على منتجات الذكاء الاصطناعي الحصول على موافقة الحكومة قبل إطلاقها للاستخدام العام. يعارض النقاد وجود هذه العملية بدعوى أنها قد تعوق الابتكار وتعطل تفاعل الشركات مع العملاء.
طبقًا للقواعد الجديدة، سيكون على شركات التكنولوجيا تضمين علامات موسعة مثل “تحت الاختبار” أو “غير موثوقة” لمنتجات الذكاء الاصطناعي التي تخضع لاختبار لاحق. سيحتاج المستخدمون أيضًا إلى تقديم موافقة صريحة للوصول إلى هذه المنتجات. على الرغم من أن هذه التشريعات قد تساعد في منع الأحداث العالمية مثل فيديوهات Deepfake، إلا أنها قد تكبح أيضًا نمو شركات الذكاء الاصطناعي.
لا زال السؤال حول من يجب علينا أن نخشى منه أكثر، التكنولوجيا أم البشر الذين يتحكمون فيها، دون إجابة. ومع ذلك، بوصفنا مستخدمين، لدينا القدرة على رفض الابتكارات غير المدعومة التي تقدمها العمالقة التكنولوجيين. من المهم أن نمارس الحذر ونطالب بدعم ومساءلة مناسبين.
حتى مع وجود التشريعات، يستمر السوق السوداء في العمل دون قيود أو دليل قابل للتنفيذ. في النهاية، يتحمل الجمهور العام مسؤولية تيسير تطوير الذكاء الاصطناعي بطريقة آمنة ومفيدة للمجتمع.
مع التقدم التكنولوجي، من الضروري أن نجد التوازن بين قبول الابتكار وضمان تقليل المخاطر المرتبطة بالذكاء الاصطناعي. من خلال العمل المشترك والدعوة إلى التطوير والاستخدام المسؤول للذكاء الاصطناعي، يمكننا استغلال الإمكانات المتاحة بهذه التكنولوجيا مع الحفاظ على مستقبلنا.
قسم الأسئلة:
1. لماذا يُعتبر النقص في التحكم من البشر مشكلة أكبر في النقاش حول الذكاء الاصطناعي؟
– تعتقد شركة ليوناردو الإيطالية الرائدة في مجال الدفاع أن البشر كانوا يشنون الحروب منذ آلاف السنين، ويجب أن تكون نقص التحكم هو موضوع قلق لدينا. يُجادلون بأن الذكاء الاصطناعي ليس سوى أداة خلقها البشر وتسيطر عليها في النهاية البشر.
2. ما هي التشريعات التي أدخلتها وزارة تكنولوجيا المعلومات والاتصالات (MeitY)؟
– قدمت وزارة تكنولوجيا المعلومات والاتصالات (MeitY) تشريعات تتطلب من الشركات التكنولوجية التي تعمل على منتجات الذكاء الاصطناعي الحصول على موافقة الحكومة قبل إطلاقها للاستخدام العام. سيكون على شركات التكنولوجيا أيضًا تضمين علامات موسعة مثل “تحت الاختبار” أو “غير موثوقة” لمنتجات الذكاء الاصطناعي التي تخضع لاختبار، وسيحتاج المستخدمون إلى تقديم موافقة صريحة للوصول إلى هذه المنتجات.
3. ما هي الحجج ضد التشريعات الجديدة؟
– يُجادل النقاد بأن التشريعات الجديدة قد تعوق الابتكار وتعطل تفاعل الشركات مع العملاء. يعتقدون أن عملية الحصول على موافقة الحكومة والحاجة لوضع علامات موسعة وتقديم موافقة صريحة قد تكبح نمو شركات الذكاء الاصطناعي.
4. كيف يمكن للمستخدمين اللعب دورًا في ضمان التطوير المسؤول للذكاء الاصطناعي؟
– لدي المستخدمون القدرة على رفض الابتكارات غير المدعومة التي تقدمها العمالقة التكنولوجيين. من المهم أن يمارسوا الحذر ويطالبوا بدعم ومساءلة مناسبين.
5. هل هناك سوق سوداء تعمل دون قيود في مجال الذكاء الاصطناعي؟
– نعم، بالرغم من وجود التشريعات، تستمر السوق السوداء في العمل دون قيود أو دليل قابل للتنفيذ.
6. ما هي مسؤولية الجمهور العام في تيسير تطوير الذكاء الاصطناعي؟
– يتحمل الجمهور العام مسؤولية تيسير تطوير الذكاء الاصطناعي بطريقة تكون فيها آمنة ومفيدة للمجتمع. يمكن ذلك من خلال الدعوة إلى التطوير والاستخدام المسؤول للذكاء الاصطناعي.
المصطلحات الرئيسية/الجرجون:
1. الذكاء الاصطناعي (AI): تقنية تحاكي الذكاء البشري في الآلات التي تُبرمج للتفكير والتعلم مثل البشر.
2. Deepfake: تقنية تستخدم الذكاء الاصطناعي لإنشاء أو تعديل مقاطع فيديو أو صور أو صوت لتصوير أحداث لم تحدث في الواقع.
روابط ذات صلة المقترحة:
– ليوناردو (موقع ليوناردو الرسمي)
– وزارة تكنولوجيا المعلومات والاتصالات (MeitY) (الموقع الرسمي لMeitY)