پیشرفت فناوری هوش مصنوعی (AI) منجر به بهبودها و پیشرفتهای بسیاری در صنایع مختلف شده است. با این حال، در میان این پیشرفت، رویکرد تاریک هوش مصنوعی ظاهر شده است، زیرا کارشناسان ایمنی کودک و پژوهشگران هشدارهایی را درباره خطرات بالقوه آن در افزایش استغلال آنلاین دادهاند.
بر اساس گزارشهای مرکز ملی آمریکا برای کودکان گمشده و استغلال شده (NCMEC)، در سال گذشته، بیش از 4700 گزارش درباره محتواهای تولید شده توسط AI و نشان دادن استثمار جنسی کودکان وجود داشت. این اعداد نگرانکننده نشان میدهد که این مشکل به مرور زمان و با ادامه یافتن فناوری هوش مصنوعی در حال رشد است.
اگرچه NCMEC هنوز تعداد کل اعلامیههای محتوای سوءاستفاده کودکان دریافتی از همه منابع خود در سال 2023 را اعلام نکرده است، اما سازمان اعلام کرده است که فقط در سال 2022 بیش از 88.3 میلیون فایل دریافت کرده است. این گزارشها از خود شرکتهای تولید AI، پلتفرمهای آنلاین و افرادی که به محتواهای نگرانکنندهای چون این موارد برخورد میکنند، به دست میآیند.
شناخت نیاز فوری به برخورد با این مسئله، نقش حیاتی مرکز ملی آمریکایی برای کودکان گمشده و استغلال شده را به عنوان مرجع ملی برای گزارش محتوای سوءاستفاده از کودکان به ارگانهای نظارت بر قانون و امنیت تأمین میکند. جان شیهان، معاون رئیس جمهور این سازمان، تأکید کرده است که به هیچ عنوان استغلال کودکان توسط هوش مصنوعی انکار نمیشود.
امیران موجود برای هوش مصنوعی، اتکا و مسئولیتها را به خود دارد. همانطور که جامعه به فناوری AI دست میدهد، حائز اهمیت است که در برابر نگرانیهای در حال ظهور برای حفظ رفاه افراد آسیبپذیر، به ویژه کودکان، هوشیار باشیم.
سؤالات متداول:
س: تاریکی هوش مصنوعی چیست؟
ج: تاریکی هوش مصنوعی به خطرات بالقوه و پیامدهای منفی فناوری هوش مصنوعی اشاره دارد، به ویژه در تشدید استغلال آنلاین.
س: در سال گذشته چند گزارش درباره محتوای سوءاستفاده جنسی کودکان تولید شده توسط هوش مصنوعی وجود داشت؟
ج: به گفته NCMEC، در سال گذشته بیش از 4700 گزارش درباره محتوای سوءاستفاده از کودکان تولید شده توسط هوش مصنوعی وجود داشت.
س: در سال 2022 چند فایل مربوط به محتوای سوءاستفاده از کودکان NCMEC دریافت کرد؟
ج: NCMEC تنها در سال 2022 تقریباً 88.3 میلیون فایل مربوط به محتوای سوءاستفاده از کودکان دریافت کرد.
س: نقش NCMEC در برخورد با این مسئله چیست؟
ج: NCMEC نقش حیاتی مرجع ملی برای گزارش محتوای سوءاستفاده از کودکان به ارگانهای نظارت بر قانون و امنیت دارد.
س: کدام شرکتهای رسانه اجتماعی و پیامرسان در یک جلسه سنا درباره امنیت کودکان آنلاین مورد سؤال قرار گرفتند؟
ج: مدیران عامل شرکتهای متا پلتفرمز، ایکس، تیک تاک، اسنپ و دیسکورد در جلسهای در سنا درباره امنیت کودکان آنلاین مورد سؤال قرار گرفتند.
س: گزارش Stanford Internet Observatory چه چیزی را برجسته کرد؟
ج: گزارش Stanford Internet Observatory به خطر بالقوه دستبرد زدن به هوش مصنوعی تولیدی برای ایجاد تصاویر جدیدی که به شدت شباهتی با کودکان واقعی دارند، اشاره کرد.
س: OpenAI و سایر شرکتهای تولید مصنوعی چه تدابیری برای مقابله با این مشکل اتخاذ کردهاند؟
ج: OpenAI سیستمی را برای ارسال گزارشها به NCMEC اجرا کرده است و مذاکراتی بین NCMEC و سایر شرکتهای تولید هوش مصنوعی در حال انجام است تا تدابیر مشابهی را تأسیس کنند.
تعاریف:
– AI (هوش مصنوعی): فناوری که امکان انجام وظایفی که به طور معمول نیاز به هوش بشری دارند را برای ماشینها فراهم میکند.
– محتوای سوءاستفاده از کودکان: محتوای قابل نمایش است که استغلال جنسی یا سوءاستفاده از کودکان را نشان میدهد.
– هوش مصنوعی تولیدی: هوش مصنوعی که قادر به تولید دادهها یا محتواهای جدیدی مانند تصاویر یا متن است.
– NCMEC (مرکز ملی برای کودکان گمشده و استغلال شده): یک سازمان ملی که درباره جلوگیری از دزدیدگی کودکان، استغلال جنسی کودکان و پیدا کردن کودکان گمشده تمرکز دارد.
– شرکتهای رسانه اجتماعی و پیامرسان: شرکتهایی که پلتفرمها و خدمات آنلاین را برای کاربران فراهم میکنند تا با دیگران ارتباط برقرار کرده، ارتباط داشته باشند و محتوا را با دیگران به اشتراک بگذارند.
پیوندهای پیشنهادی مرتبط:
– مرکز ملی برای کودکان گمشده و استغلال شده
– اوپنایای
– دانشگاه استنفورد
The source of the article is from the blog anexartiti.gr