اسکارلت جوهانسون، بازیگر معروف، به خاطر مواجهه با OpenAI به دلیل استفاده غیرمجاز از یک صدای بسیار شبیه به صدای خود در سیستم هوش مصنوعی گفتگویی ChatGPT آنها، در خبرها حاضر شده است. با وجود ابای اعطای صدا به پروژه، این شرکت با یک صدای خیلی مشابه صدای او ادامه داد که باعث شگفتی و ناراحتی این ستاره شد.
با پیشرفت این موضوع، نمایندگان حقوقی جوهانسون با OpenAI تماس گرفته و از آنها خواستند که صدای تقلیدی را کنار بگذارند. OpenAI تازه نامه گفت در روز دوشنبه تصمیم گرفت صدای Sky را حذف کند و روشن کند که هدف آنها هیچوقت تکثیر صدای جوهانسون به صورت عمدی نبوده است. بهجای آن، آنها این شباهت را به یک بازیگر حرفهای دیگر نسبت دادند که صدای طبیعی او برای سیستم استفاده شده بود.
جوهانسون توضیح داد که مدیر اجرایی OpenAI، سم آلتمن، پیشتر در سپتامبر 2023 به او مراجعه کرده بود تا از صدایش برای ChatGPT 4.0 استفاده کنند. او به دلایل شخصی درخواست را رد کرد و بعد از آن شگفتی و خشم خود را بیان کرد زیرا شباهت صدای Sky به صدای او را کشف کرد. این شباهت بسیار دقیق بود که دوستان و رسانهها را هم فریب داد.
دو روز قبل از رونمایی از ChatGPT 4.0، آلتمن دوباره به مدیر جوهانسون تماس گرفت تا دوباره بازنگری میکردند، اما مراسم رونمایی از پیش برفت و مذاکرات بیشتری انجام نشد.
جوهانسون با تصمیم به محافظت از نام و تصویر خود از سوء استفاده، قصد دارد تا اقدامات حقوقی را انجام دهد. او بر اهمیت شفافیت در یک دورانی که مبارزه با دیپفیکها و محافظت از لیکنس فردی بسیار حیاتی است تاکید کرده است.
سوالات و پاسخهای مهم:
– مشکل با استفاده OpenAI از صدای Sky و اسکارلت جوهانسون چی بود؟
تیم حقوقی اسکارلت جوهانسون OpenAI را برای استفاده از یک صدا در سامانه هوش مصنوعی گفتگویی ChatGPT که خیلی نزدیک به صدای او بود بدون اجازه اختصاصی به او واکنش نشان داد. این اقدام حقوق شخصی و حریم خصوصی او را نقض کرد زیرا او پیشتر از دلایل اخلاقی از ارائه صدای خود برای پروژه معذور شده بود.
– OpenAI به تکثیر صدای جوهانسون به صورت عمدی اقرار کرد؟
نه، OpenAI اعلام کرد که شباهت بین صدای Sky و صدای جوهانسون بی هدف بوده و به یک بازیگر زن صدای دیگری که صدای طبیعی مشابهی داشت، نسبت دادند.
– واکنش اسکارلت جوهانسون به استفاده از همانندی صدای او چه بود؟
جوهانسون هم خوشحال هم ناامید بود، به ویژه زیرا مردم را به اعتقاد داد که صدای خود را به پروژه اعانه داده است. او قصد دارد از اقدامات حقوقی برای دفاع از نام و تصویر خود در برابر استفاده بدون اجازه اقدام کند.
چالشها و اختلافات کلیدی:
– استفاده اخلاقی از همانندی صدا: این مورد باعث تاکید بر مسائل اخلاقی مرتبط با هوش مصنوعی و استفاده از همانندی شخصیتهای مشهور بدون رضایت صریح میشود. عدم وجود مرزهای واضح و قوانین برای کلونینگ صدا یک چالش اصلی در حفظ حقوق فردی است.
– حقوق مالکیت فکری: با پیشرفت فناوری، سوالاتی درباره حفاظت برای صدای یک فرد به عنوان مالکیت فکری بوجود میآید. تعریف و قانونگذاری برای حقوق صداها زمانی پیچیده میشود که هوش مصنوعی قادر به کلون کردن صداها به صورتی ناممکن تبدیل میشود.
مزایا و معایب:
– مزایا:
استفاده از صداهای مشابه بازیگران معروف میتواند سیستمهای هوش مصنوعی را برای کاربران قابل ارتباط و جذابتر کند. سنتز صداهای هوش مصنوعی میتواند خدمات ارزشمندی ارائه دهد، شامل ایجاد کتابهای صوتی شخصیسازیشده، فناوریهای کمکی برای افراد معلول و ارائه همراهی به کسانی که تنهایی را تجربه میکنند.
– معایب:
سوءاستفاده از تکنولوژی کلونینگ صدا میتواند منجر به سرقت هویت، تقلب و منتشر شدن اطلاعات نادرست از طریق صدای دیپفیک شود. این امر برای افرادی که صدایشان بدون اجازه کپی شود، خطرات حقوقی، اخلاقی و شهرتی را دارا میشود.
اگر میخواهید با توسعههای هوش مصنوعی بهروز بمانید یا بیشتر در مورد OpenAI بدانید، میتوانید به وبسایت اصلی آنها در OpenAI مراجعه کنید. علاوه بر این، برای اطلاعات گستردهتر مرتبط با استفاده از هوش مصنوعی در رسانهها، وبسایت بنیاد Electronic Frontier Foundation در EFF بینشها راجع به حریم شخصی و حقوق دیجیتال ارائه میدهد.
توجه داشته باشید که پیوندهای به وبسایتهای خارجی بر اساس رضایت پذیری و اعتبار آنها تا تاریخ قطع داده شده ارائه شدهاند. حتماً برای اطلاعات و منابع بهروز، به طور مستقیم از این وبسایتها بازدید کنید.