خطرات در هوش مصنوعی تولید هنر توسط مهندس مایکروسافت برجسته شده

بررسی خطرات پتانسیلی هوش مصنوعی در ایجاد تصاویر

پیشرفت هوش مصنوعی (AI) به سرعت جلو می‌رود، با AI که به طور فزاینده‌ای ابزاری معمول در زمینه‌های حرفه‌ای است که به نظر می‌رسد منابع کاری را ساده‌تر می‌کند. OpenAI، که به خاطر توسعه مدل‌هایی مانند ChatGPT و DALL-E شناخته شده است، نام برجسته‌ای در صنعت AI شده‌است. ChatGPT جمعیت عمومی را شگفت‌زده ساخت با ایجاد متن به طور خودکار پس از تجزیه داده‌های زیاد. از سوی دیگر، DALL-E قدرت ایجاد تصاویر از شرح‌های متنی را با استفاده از یک پایگاه داده مشابه دارد.

با این حال، در زیر سطح این شگفتی‌های فناوری، خطراتی پتانسیلی جاسازی شده‌اند. یک مدیر مایکروسافت اخیراً یک ضعف امنیتی نگران‌کننده در DALL-E اعلام کرد. به گفته GeekWire، مهندس مایکروسافت، شین جونز، در مورد مخاطرات مرتبط با نسخه 3 DALL-E صحبت کرد. او یک مشکل شناسایی کرد که ممکن است تصاویر صریح یا خشونت‌آمیز به دلیل یک آسیب امنیتی تولید شوند. در دسامبر 2023، جونز به لینکدین رجوع کرد تا ابراز نگرانی‌های خود را از طریق یک پست عمومی انجام دهد.

جونز تصمیم گرفت این مشکل را به ارشاد‌های بالاتر منتقل کند اگرچه به‌نظر می‌رسید که مایکروسافت تلاش‌هایی برای ساکت کردن او داشته، شامل دستور به حذف پست لینکدین خود. او با اصرار با سناتور ایالات متحده پتی موری تماس گرفت و در یک نامه اعلام کرد که DALL-E 3 خطر ایمنی عمومی ایجاد می‌کند و باید تا زمانی OpenAI به خطرات این مدل پرداخته شود، از استفاده عمومی خودداری شود.

معنای گسترده‌ی یک تولید کننده تصاویر AI که دچار آسیب می‌شود

این آسیب‌پذیری تنها مربوط به تصاویر نیست؛ آن به deepfakes هم کشیده می‌شود – ویدئوهای ساخته شده برای جعل رویدادها یا سخنرانی‌هایی که هرگز وقوع نیافته‌اند. این فناوری می‌تواند برای تولید فیلم‌های جنسی دیپفیک تباه شود با دادن چند ابراز چهره فردی به یک هوش مصنوعی و همپوشانی آنها بر روی فیلمی صریح. این تکنیک تاکنون برای ایجاد محتوای جعلی صریح از مشاهیر مانند خواننده آمریکایی تیلور اسویفت سوءاستفاده شده است، که نکته مهمی را بیان می‌کند، به وجود آمدن یک مسئله پافهانی و گسترشی، با وجود تلاش‌های طرفداران و پلتفرم‌های رسانه اجتماعی مانند X برای جلوگیری از گسترش این مواد.

پیشرفت فناوری با خود نیاز به انتباه و ملاحظات اخلاقی را به همراه می‌آورد، همانند نگرانی‌هایی که در مورد تولید کننده تصاویر پیشرفته هوش مصنوعی همچون DALL-E بیان شده‌است.

پرسش‌ها و پاسخ‌های اصلی:

1. چه خطرات خاصی با تصاویر تولید شده توسط AI وجود دارد؟
تصاویر تولید شده توسط AI چندین خطر مانند توانایی ایجاد deepfakes واقع‌گرا، تجاوز به حریم خصوصی با تقلید اشخاص، گسترش اطلاعات غلط یا تولید محتوای صریح و خشونت‌آمیز هستند.

2. چرا مهم است که یک مهندس مایکروسافت این نگرانی‌ها را بیان کرد؟
این مساله جدی بودن موضوع را تاکید می‌کند زمانی که حرفه‌ایان صنعت از شرکت‌های معتبر مانند مایکروسافت نگرانی‌های مرتبط با فناوری‌هایی که به آن‌ها وابسته هستند را بیان می‌کنند، به خصوص زمانی که این نگرانی‌ها مربوط به مخاطراتی برای ایمنی عمومی هستند.

3. چه اقداماتی می‌توان برای کاهش خطرات مرتبط با AI مانند DALL-E انجام داد؟
برای کاهش خطرات، توسعه‌دهندگان می‌توانند نظام مدیریت محتوا را سخت‌تر کنند، اقدامات امنیتی را تقویت کنند تا از استفاده غیرمجاز جلوگیری کنند، سیاست‌های استفاده واضح را معرفی کنند و با قوانین‌گذاران همکاری کنند تا چارچوب‌های تنظیمی ایجاد کنند.

چالش‌ها و جدل‌ها:

– تعادل بین نوآوری و پیامدهای اخلاقی یک چالش اساسی است. پیشرفت‌های هوش مصنوعی مزایایی پتانسیل دارند، اما نگرانی‌های اخلاقی نیز پیش می‌آید همانند خروجی‌های تحيّر‌آور، سوءاستفاده و تاثیر بر کار در حوزه‌های خلاق.
– جدل پیش می‌آید زمانی که به سانسور در مقابل آزادی بیان فکر می‌شود، به ویژه زمانی که هوش مصنوعی محتوایی تولید کند که حد فاصله با محتوای خطرناک یا غیرقانونی را تردید برآورده کند.
– چالش برقراری این است که مدل‌های هوش مصنوعی احترامی به حق تکثیر و مالکیت فکری داشته باشند، سوالاتی در مورد مالکیت محتوای تولید شده توسط هوش مصنوعی ایجاد می‌کند.

مزایا و معایب:

مزایا:
– تصاویر تولید شده توسط AI می‌توانند برای بیان خلاقانه و افزایش بهره‌وری در وظایفی مانند طراحی و نقاشی مورد استفاده قرار گیرند.
– این فناوری‌ها می‌تواند برای اهداف آموزشی مورد استفاده قرار گیرند و به تصور مفاهیم پیچیده یا بازسازی‌های تاریخی کمک نمایند.
– آنها می‌توانند از طریق محتوای شخصی شده و محیط‌های بازی واقع‌گرا تجربه‌های سرگرم‌کننده را بهبود ببخشند.

معایب:
– تصاویر تولیدی توسط AI ممکن است برای ایجاد محتوای جعلی یا نقض حقوق افراد از طریق تشابه‌های غیرمجاز مورد سوءاستفاده قرار گیرند.
– آنها ممکن است منجر به جابجایی شغلی در صنایعی که بر استعدادهای خلاقیت وابسته‌اند، شوند.
– نگرانی‌هایی در مورد حفظ تبعیضات و استفاده غیراخلاقی، از جمله ایجاد محتوای صریح غیراختیاری وجود دارد.

پیوندهای مرتبط:
– برای به روزرسانی‌هایی درباره پیشرفت‌های هوش مصنوعی و پروژه‌های OpenAI، می‌توانید به وب‌سایت OpenAI مراجعه کنید.
– برای درک گسترده‌تر مباحث اطراف اخلاقیات و خطرات هوش مصنوعی، بلاگ Microsoft به طور معمول شامل دیدگاه‌هایی از متخصصان صنعت و مهندسان است.
– اطلاعات درباره تلاش‌های قانونی مربوط به هوش مصنوعی را می‌توانید در وب‌سایت رسمی سنای آمریکا، Senate پیدا کنید.

The source of the article is from the blog zaman.co.at

Privacy policy
Contact