استفاده از هوش مصنوعی (AI) در ویتنام در حال جلوگیری است. با این حال، مسیر با موانع زیادی همراه است، از جمله ذخایر محدود سرمایه، چارچوبهای قانونی، امنیت سایبری و کمبود منابع انسانی متخصص.
وو نگوک سون، مدیر خدمات فنی شرکت فناوری امنیت سایبری ملی، بر اهمیت تولیف قوانینی تأکید داشت. او معتقد است که چارچوبهای قانونی قوی مانند راهپیمایی برای هواپیماها عمل میکنند، آنها را هدایت میکنند تا در جهت صحیح شتاب یابند. این چارچوبهای قانونی برای مانع توسعه فرآیند AI نیستند، بلکه مطمئن میشوند که فعالیتهای AI به صورت هماهنگ با مزایا و سودمندیهای انسانی و اجتماعی روانه شود. هدف از این عمل، محدود کردن آزادی AI نیست، بلکه هدایت توسعه آن به سمت نتایج مفیدتر برای کاربران و جوامع است.
علاوه بر این، هوانگ نام تیان، معاون شورای دانشگاه FPT، از سوء استفاده بیش از حد از سیستمهای AI هشدار داد. او به نقض اطلاعات محرمانه اشاره کرد که مهندسین نرم افزار از چتباتها مانند ChatGPT برای تولید کد استفاده میکنند که ممکن است منجر به نقض اطلاعات محرمانه شود. به همین ترتیب، انتقال گزارشهای مالی حساس شرکت به ChatGPT ریسک امنیتی دادههای معتبری ایجاد میکند. او همچنین بیان کرد که برخی دانشجویان برای ماموریتهای آموزشی خود از AI استفاده میکنند، از جمله گزارشهای علمی، که نگرانیهای اخلاقی را افزایش میدهد.
با این چالشها، ویتنام هنوز قوانین خاصی مربوط به AI برقرار نکرده است. این نشان دهنده واقعیت بیشتر است که قانون معمولاً پس از پیشرفتهای فناوری عقب میافتد. با این حال، با توجه به پیامدهای ممکن برنامههای کاربرد AI، تیان به توجه مدیریتی فوری به استفاده از AI فراخوانده است، با تبیین موانع تنظیمی گسترده که با درک متناسب هماهنگ شده با سطح مفهومی بازار.
The source of the article is from the blog cheap-sound.com