Компания за изкуствен интелект среща съдебно дело за предполагаемо клониране на глас без съгласие

Дъблерите за гласово озвучаване налице непозволено използване в изкуствени интелигентни системи

Двата артиста за озвучаване защита започнаха правен бой срещу старта на изкуствен интелект Lovo, както съобщи четвъртък от федерален съд в Манхатън. Гласовете на Пол Скай Лерман и Линеа Сейдж резонират в сърцето на този скандал, те твърдят, че компанията незаконно е дублирала техните вокални отпечатъци за търговски инструменти за синтез на глас в изкуствен интелект.

Правното действие, търсещо колективни обезщетения над 5 милиона долара, твърди нарушаването на правата на актьорите. В центъра на съда Лерман и Сейдж предлагат маскираща практика от страна на Lovo, която включва придобиване на техните вокални примери под лъжливи предпоставки, след което комодифицирането на тези реплицирани гласове.

Предполагаемите измами и търговски експлоатации на Lovo

Артистите описват сценарий, при който професионалните възможности на платформата Fiverr бързо се превърнали в експлоатация. Лерман беше обещано, че неговият глас ще бъде част от просто изследователско начинание; Сейдж й беше осигурено, че нейният предаване ще оживи тестови сценарии. Всъщност обаче реалността се разви различно, като Лерман откри реплицирания си глас, разговарящ за военни теми и рискове от изкуствен интелект, а междувременно Сейдж чу своя собствен тембър използван в рекламни кампании на Lovo.

След като се сблъскаха със своята някога анонимна клиентка, Лерман и Сейдж научиха, че не само техните гласове са били маркирани и пазарувани като продукти с имена „Кайл Сноу“ и „Сали Коулман“, но Lovo също разполага с колекция, включваща гласове, които имитират известни личности. Актьорите, представляващи себе си и потенциално други на подобно положение, настояват съда да им компенсира за неправоместното използване на техните уникални вокални идентичности.

До момента Lovo е останала мълчалива след тези обвинения. Дали компанията ще промени своя начин на действие в отговор на този високопрофилен съдебен искостория все още ще бъде наблюдавано на развиващата се пейзаж от етиката и законността на изкуствен интелект.

Отражения на клонирането на глас без съгласие

Технологията на клонирането на глас включва създаването на цифрови реплики на гласа на човек, които после могат да се използват за генериране на говор, който звучи като оригиналния глас. Критичният въпрос в случая с незаконното клониране на гласа е нарушаването на правото на индивида да контролира използването на собствения си глас. Това може да доведе до сложности относно правата на собственост, съгласието и потенциалното злоупотребяване. Технологията, въпреки че е новаторска, предизвиква етични и правни предизвикателства, които поставят под въпрос защитата на гласа на индивида като форма на интелектуална собственост или лична идентичност.

Ключови въпроси и предизвикателства

Изпъкват два ключови въпроса от случая:

1. Какво представлява информиран съгласие при процеса на клониране на гласа за търговски цели?
2. Как законът трябва да защити актьорите за глас от неоторизираното клониране и експлоатация?

Едно от основните предизвикателства в подобни спорове включва установяването на обема, до който клонираните гласове представляват идентичността на индивида и следователно, заслужават защита в рамките на законите, управляващи приликата и поверителността. Освен това може да има затруднения при определянето на вредите, тъй като определянето на непозволеното използване на човешкия глас за търговски цели може да бъде сложно.

Спорове

Спорът относно клонирането на гласа без съгласие се върти около етичните и правните граници на технологията на изкуствения интелект за репликиране на човешки атрибути. Клонирането на гласа на човек без яснота може да доведе до различни злоупотреби, като например звуци от дийпфейк, които могат да бъдат използвани в измами или кампании за дезинформация. Освен това потенциалът за подкопаване на работни възможности за актьори за глас е загрижителен, тъй като гласовете, генерирани от изкуствения интелект, биха могли да заместят човешките таланти в някои случаи.

Предимства и недостатъци

Предимствата на технологията за клониране на гласа в изкуствения интелект включват:

Ефективност при разходите: Клонираните гласове могат да генерират говор без продължителни плащания на актьори за глас.
Достъпност: AI-генерираният глас не е подложен на човешки ограничения и може да се използва по всяко време.
Персонализация: Гласовете на изкуствения интелект могат да бъдат адаптирани към различни контексти или преобразувани за различни речеви шаблони.

Въпреки това се появяват недостатъци в това поле, като:

Етични проблеми: Клонирането на гласа може да наруши личните права и да бъде използвано обмамно.
Правни сложности: Настоящите закони може да не са достатъчно оборудвани да се справят с нюансите на клонирането на гласа в изкуствения интелект.
Потенциално злоупотребяване: Клонираните гласове могат да бъдат използвани по вреден начин, зацапвайки репутацията на собственика на оригиналния глас.

За повече обща информация относно развиващите се технологии зад клонирането на гласа, етиката на изкуствения интелект и законните съображения, организациите със съответната информация включват:

ACLU за информация относно гражданските свободи
Американско общество на международното право за правния контекст на международно ниво
Фондация „Електронни пограници“ за цифровата поверителност и права
IEEE за технологически и инженерни перспективи

Във всяка от тези случаи, тези URL адреси водят към основния домейн, където може да се търси информация за съответните теми, като препращането към конкретни подстраници излиза извън обхвата на този формат.

Privacy policy
Contact