Скарлет Йохансън и Контроверзията с Изкуствения Интелект и Гласът

Скарлет Йохансон, известната американска актриса, изпита изненада и дразнение след като откри, че глас от ИИ приложението ChatGPT много наподобява нейния. Създателите на платформата, OpenAI, решиха да спрат използването на споменатия глас, който беше наречен „Скай,“ след като получиха обратна връзка, подчертаваща приликата му с Йохансон.

Проблемът възникна, защото потребителите забелязаха приликата между гласа на Йохансон и опцията „Скай“ в приложението на ИИ, особено след последното обновление, насочено към направляване на чатбота ChatGPT по-разговорен. Йохансон, която заема гласа си на интерфейса на ИИ във филма от 2013 година „Нея,“ беше поразена от изключителната прилика на новия глас на ИИ системата с нейния – толкова, че дори близките й приятели и медиите едва могат да ги различат.

В отговор на развиващия се проблем, OpenAI публично се изкатари по въпроса, посочвайки, че не са имали за цел имитация на отличителния глас на Йохансон и аргументирайки, че споменатият глас идва от различна актриса. Те подчертаха, че процесът на избор на гласове на ИИ е бил подобаващо детайлен, включвайки професионални актьори и консултанти от индустрията в продължение на петмесечен период.

Въпреки това, Йохансон разкри, чеCEO на OpenAI се е обърнал към нея преди това с предложение за използване на гласа й за тяхната система, като предложил, че това би улеснило неудобството сред потребителите, комуникиращи с ИИ. След лични обмисли, тя отклони предложението. Откриването на приликата на гласа „Скай“ с нейния, открита месеци по-късно, принуди Йохансон да предприеме правни действия, след което OpenAI оттегли неохотно гласа от употреба.

Компанията настоя, че гласовете на ИИ не би трябвало намеренно да имитират отличителния глас на знаменитост и заяви ангажираност за защита на личната поверителност, като по този начин не разкрива наистина гласовите артисти. В същото време, OpenAI въведе най-новия си модел на ИИ, GPT-4o, отбелязвайки напредък в способностите на разговорен език.

Правни и етични последици на имитацията на глас от ИИ

Един от ключовите предизвикателства, свързани с използването на гласове, приличащи на тези на знаменитости в приложенията на ИИ, се върти около правни и етични въпроси. Въпреки че технологията позволява репликацията на гласове с висока точност, възниква въпросът: къде е границата между вдъхновение и нарушение? Случаят на Скарлет Йохансон подчертава нуждата от по-ясни насоки и правила за интелектуалната собственост в епохата на ИИ.

Общественото възприятие и доверието в технологията на ИИ

Друг въпрос, пораждащ спорове, е влиянието, което тази прилика може да има върху доверието на обществото в технологията на ИИ. Използването на глас, който силно напомня на този на известна фигура без съгласието й, може да доведе до загуба на доверие сред потребителите и да предизвика загриженост относно поверителността и възможността за злоупотреба, като например измами с deepfake или заблуждаващи препоръки.

Предимства и недостатъци на използването на гласове, подобни на тези на знаменитости в ИИ

Използването на гласове, приличащи на тези на звезди, теоретически може да направи системите на ИИ по-привлекателни и близки до потребителите, вероятно увеличавайки ангажимента на потребителите. Въпреки това, потенциалните недостатъци включват правните рискове, етичните въпроси и възможността използването на такива гласове без съгласие да зацапа репутацията на разработчиците на ИИ и да ограничи растежа на индустрията поради недоверие.

Относно OpenAI, за повече информация за тяхните насоки и напредъка като техните модели на ИИ, можете да посетите техния официален уебсайт: OpenAI.

Privacy policy
Contact