Стартап штучного інтелекту заборонив користувача за створення глибокої фейки Джо Байдена з метою порушення виборів

Стартап штучного інтелекту під назвою ElevenLabs вжив необхідних заходів, щоб заборонити користувачеві створити голосову глибоку фейку Джо Байдена з метою перешкодити на виборах, повідомляє Bloomberg. Глибока фейка, яка імітувала президента, була використана в роботізованому дзвінку, який закликав виборців в Нью-Гемпширі не брати участь у праймері свого штату. Хоча спочатку було незрозуміло, які технології імітували голос Байдена, компанія зі забезпечення безпеки Pindrop провела ретельний аналіз і успішно визначила, що використовувалися інструменти ElevenLabs.

Замість прямих цитат з оригінальної статті, можна пояснити, що Pindrop видалив фоновий шум і покращив аудіо роботізованого дзвінка перед порівнянням зі зразками численних технологій синтезу голосу, пов’язаних з глибокими фейками. Генеральний директор Pindrop, Віджай Баласубраманіян, заявив, що аналіз підтвердив використання інструментів ElevenLabs з надійністю, що перевищує 99 відсотків. Bloomberg додав, що компанія вже знайшла та заборонила обліковий запис відповідальної особи, а наразі вивчає цю проблему після отримання результатів Pindrop.

Інцидент, пов’язаний з глибокою фейкою Джо Байдена, підкреслює потенційний вплив технологій, здатних імітувати голос і зовнішність людини, особливо стосовно маніпулювання голосуванням під час майбутніх президентських виборів у США. Кетлін Карлі, професорка Університету Карнегі-Меллон, висловила свою занепокоєність щодо цього питання в інтерв’ю The Hill, заявивши, що це є попередженням про те, що можна очікувати протягом наступних місяців, стосовно придушення волі виборців та атак на працівників виборів.

Цікавою є той факт, що всього кілька днів після запуску бета-версії своєї платформи ElevenLabs, люди почали зловживати технологією, створюючи аудіо-кліпи, в яких знаменитості вимовляли сумнівні речі. Хоча стартап спонукає використовувати свою технологію для мистецького та політичного мовлення, яке сприяє публічним дебатам, він попереджає користувачів про недопустимість зловживання, які порушують закон, такі як шахрайство, дискримінація або розпалювання ненависті. Однак, цей інцидент підкреслює необхідність реалізації ElevenLabs додаткових заходів безпеки для запобігання зловживанню недобросовісними акторами з маніпулювання виборами по всьому світу.

Зверніть увагу, що ця стаття може містити партнерські посилання. Якщо ви натиснете на таке посилання та придбаєте товар, ми можемо отримати комісію.

FAQ:
1. Що таке ElevenLabs?
ElevenLabs – це стартап штучного інтелекту, який розробив інструменти для технології синтезу голосу.

2. Чому ElevenLabs забанив користувача?
ElevenLabs забанив користувача, який створив глибоку фейку голосу Джо Байдена з метою порушення виборів.

3. Як використовувалася глибока фейка Джо Байдена?
Глибока фейка використовувалася в роботізованому дзвінку, який закликав виборців в Нью-Гемпширі не брати участь у праймері свого штату.

4. Як було встановлено, що використовувалися інструменти ElevenLabs?
Компанія зі забезпечення безпеки під назвою Pindrop провела ретельний аналіз та підтвердила використання інструментів ElevenLabs з надійністю, що перевищує 99 відсотків.

5. Які є обтяження стосовно технології глибоких фейків і виборів?
Інцидент, пов’язаний з глибокою фейкою голосу Джо Байдена, підкреслює потенційний вплив технологій, здатних імітувати голос та зовнішність людини, на придушення волі виборців та атаки на працівників виборів.

6. Як швидко люди зловживали технологією ElevenLabs після її запуску?
Всього кілька днів після запуску бета-версії платформи ElevenLabs люди почали зловживати технологією, створюючи аудіо-кліпи, в яких знаменитості вимовляли сумнівні речі.

7. Якими типами використання інкуруджує ElevenLabs для своєї технології?
ElevenLabs підтримує використання своєї технології для мистецького та політичного мовлення, яке сприяє публічним дебатам.

8. Якими типами використання попереджає ElevenLabs?
ElevenLabs попереджає користувачів про недопустимість зловживання, які порушують закон, такі як шахрайство, дискримінація або розпалювання ненависті.

Визначення:
– Глибока фейка: Використання штучного інтелекту для створення або маніпулювання аудіо-, відео- або іншими матеріалами таким чином, що вводить у оману глядача або слухача, допускаючи, що фальшивий вміст є вірогідним.
– Роботізований дзвінок: Автоматичний телефонний дзвінок, який відтворює попередньо записане повідомлення для великої кількості людей.

Запропоновані пов’язані посилання:
– Сайт ElevenLabs
– Сайт Pindrop
– Університет Карнегі-Меллон

The source of the article is from the blog myshopsguide.com

Privacy policy
Contact