اسکارلت جوهانسون، بازیگر معروف آمریکایی، شگفتی و اختیار در پی داشتپس از کشف اینکه یکی از صداهای برنامه هوش مصنوعی ChatGPT شباهت قابلتوجهی به صدای او داشت. سازندگان این پلتفرم، OpenAI، تصمیم گرفتند استفاده از صدا مذکور که به نام “Sky” اشاره شده بود را متوقف نمایند، بر اساس بازخوردهایی که شباهت آن به جوهانسون را برجسته کرد.
این مسئله به وجود آمد زیرا کاربران شباهت صدای جوهانسون با گزینه صدای Sky در برنامه هوش مصنوعی را متوجه شدند، به خصوص پس از یک بروزرسانی اخیر با هدف تبدیل ChatGPT به یک گپزن مکالمهایتر. جوهانسون که صدای خود را به رابط کاربری هوش مصنوعی در فیلم “او” در سال 2013 قرض داده بود، از شباهت چشمگیر صدای سیستم هوش مصنوعی جدید به صدای خود بسیار تحت تاثیر قرار گرفت – تا جایی که حتی دوستان نزدیک و رسانهها هم نمیتوانستند بین این دو تمایز قائل شوند.
در پاسخ به مسئله پدیدار شده، OpenAI به صورت عمومی به این موضوع پرداخت، مبین گواهنامه اینکه آنها هیچ تقلیدی از صدای ممتاز جوهانسون نداشتهاند و دلیل که این صدا از یک بازیگر دیگر است را تحلیل کردند. آنها گفتند که فرایند انتخاب صداها بسیار دقیق بوده و در آن، حرفهایهای نقابت و مشاوران صنعتی در طول پنج ماه جلوگیری کردهاند.
با این حال، جوهانسون اعلام کرد که مدیرعامل OpenAI پیشتر با او تماس گرفته بود و پیشنهاد داد که از صدای او برای سیستم آنها استفاده کنند، ادعا کرده بود که این کار، احساس ناراحتی کاربرانی که با هوش مصنوعی تعامل دارند، را آسانتر میکند. پس از انتظارات شخصی، او پیشنهاد را رد کرد. شباهت صدای Sky به صدای خود، که ماهها بعد کشف شد، منجر به اقدام قانونی جوهانسون شد، پس از آن OpenAI به ناراحتی صدا از استفاده انداخت.
شرکت اصرار داشت که صداهای هوش مصنوعی بهطور هدفمند صدای ممتاز یک شخصیت معروف را تقلید نکند، و ادعا کرد که تعهدی به حفاظت از حریم خصوصی شخصی دارد، بنابراین هیچوقت هویت واقعی هنرمندان صدا را فاش نمیکند. در عین حال، OpenAI مدل هوش مصنوعی جدید خود را، GPT-4o، معرفی نموده و این مدل تواناییهایی زبان مکالمهای متقدم را نشان میدهد.
پیامدهای حقوقی و اخلاقی تقلید صدای هوش مصنوعی
یک چالش اصلی اطراف استفاده از صداهای شبیه به شخصیتهای مشهور در برنامههای هوش مصنوعی درباره نگرانیهای حقوقی و اخلاقی میچربد. در حالی که فناوری امکان تکثیر صداها را با دقت بالا فراهم میکند، سوال زمینه چشمانداز انسانی و نقض حقوق معنوی کجاست؟ مورد اسکارلت جوهانسون نیاز به دستورالعملهای واضحتر و مقرراتی بیانگر درباره حقوق مالکیت معنوی در دوران هوش مصنوعی را مشخص میکند.
دیدگاه عمومی و اعتماد به فناوری هوش مصنوعی
یک نقطه از طرفداری این شباهت ممکن است در تاثیر آن بروی اعتماد عمومی به فناوری هوش مصنوعی باشد. استفاده از صدایی که به طور نزدیک به یک شخصیت مشهور شبیه است بدون رضایت میتواند منجر به از دست دادن اعتماد کاربران شود و موجب بروز نگرانیها راجع به حفظ حریم خصوصی و احتمال سواستفادهها، چون تقلیدهای عمیق و چالشکندههای تقلبی باشد.
مزایا و معایب استفاده از صداهای شبیه به شخصیتهای مشهور در هوش مصنوعی
استفاده از صداهای شبیه به آنهایی که به شخصیتهای مشهور میشود در نظریه بر این است که سیستمهای هوش مصنوعی را برای مصرفکنندگان جذابتر و قابل ارتباطتر کند و احتمالاً مشارکت کاربران را افزایش دهد. با این حال، معایب احتمالی شامل ریسکهای حقوقی، سوالات اخلاقی و اینکه استفاده از چنین صداها بدون رضایت ممکن است موجب آلودگی شرایط توسعهدهندگان هوش مصنوعی و محدود شدن رشد صنعت به دلیل عدم اعتماد شوند.
در مورد OpenAI، برای کسب اطلاعات بیشتر درباره رهنمودها و پیشرفتهایی چون مدلهای هوش مصنوعی آنها، میتوانید به وبگاه رسمی آنها مراجعه نمایید: OpenAI.