مسیر پیش روی تشریعات و اخلاق هوش مصنوعی در ویتنام

استفاده از هوش مصنوعی (AI) در ویتنام در حال جلوگیری است. با این حال، مسیر با موانع زیادی همراه است، از جمله ذخایر محدود سرمایه، چارچوب‌های قانونی، امنیت سایبری و کمبود منابع انسانی متخصص.

وو نگوک سون، مدیر خدمات فنی شرکت فناوری امنیت سایبری ملی، بر اهمیت تولیف قوانینی تأکید داشت. او معتقد است که چارچوب‌های قانونی قوی مانند راهپیمایی برای هواپیماها عمل می‌کنند، آن‌ها را هدایت می‌کنند تا در جهت صحیح شتاب یابند. این چارچوب‌های قانونی برای مانع توسعه فرآیند AI نیستند، بلکه مطمئن می‌شوند که فعالیت‌های AI به صورت هماهنگ با مزایا و سودمندی‌های انسانی و اجتماعی روانه شود. هدف از این عمل، محدود کردن آزادی AI نیست، بلکه هدایت توسعه آن به سمت نتایج مفیدتر برای کاربران و جوامع است.

علاوه بر این، هوانگ نام تیان، معاون شورای دانشگاه FPT، از سوء استفاده بیش از حد از سیستم‌های AI هشدار داد. او به نقض اطلاعات محرمانه اشاره کرد که مهندسین نرم افزار از چت‌بات‌ها مانند ChatGPT برای تولید کد استفاده می‌کنند که ممکن است منجر به نقض اطلاعات محرمانه شود. به همین ترتیب، انتقال گزارش‌های مالی حساس شرکت به ChatGPT ریسک امنیتی داده‌های معتبری ایجاد می‌کند. او همچنین بیان کرد که برخی دانشجویان برای ماموریت‌های آموزشی خود از AI استفاده می‌کنند، از جمله گزارش‌های علمی، که نگرانی‌های اخلاقی را افزایش می‌دهد.

با این چالش‌ها، ویتنام هنوز قوانین خاصی مربوط به AI برقرار نکرده است. این نشان دهنده واقعیت بیشتر است که قانون معمولاً پس از پیشرفت‌های فناوری عقب می‌افتد. با این حال، با توجه به پیامدهای ممکن برنامه‌های کاربرد AI، تیان به توجه مدیریتی فوری به استفاده از AI فراخوانده است، با تبیین موانع تنظیمی گسترده که با درک متناسب هماهنگ شده با سطح مفهومی بازار.

The source of the article is from the blog cheap-sound.com

Privacy policy
Contact