OpenAI представляє проривний інструмент штучного інтелекту, збільшуються обурення щодо недоречного використання

OpenAI, провідна компанія у сфері штучного інтелекту, нещодавно представила інноваційний інструмент під назвою Sora. Цей інструмент використовує текстові вхідні дані для генерації ультрареалістичних відео, що викликає обурення щодо потенційного недоречного використання такої технології для маніпуляції виборцями під час виборів. Sora може створювати 60-секундні відео з високо деталізованими сценами, складними рухами камери та персонажами, що виражають яскраві емоції.

Поділом зайнялися кілька прикладних відео, створених за допомогою цього інструменту, які безсумнівно виглядають надреальними через свою життєвоподібність. Наприклад, одне відео зображує пару, що йде по засніженій вулиці Токіо, яке було згенероване на основі детального текстового завдання, що описує міську атмосферу, сповнену сакуро та сніжинок, які танцюють на вітрі.

Експерти та користувачі соціальних медіа висловили своє занепокоєння щодо виходу Sora у виборчому році, оскільки він створює можливості для поширення дезінформації. Занепокоєння щодо недоречного використання технологій штучного інтелекту, включаючи deepfake-відео та чат-боти, вже досить поширені. Можливість обману, маніпуляції та збентеження громадськості потенційно становить значні ризики для демократичного процесу.

Етичний хакер Рейчел Тобак висловила свої стурбованості щодо цього інструменту, підкреслюючи можливість ворогів використовувати Sora для створення відео, які фабрикують хибні реальності. Наприклад, вона наголосила на можливості ворогів використовувати Sora для створення відео з довгими чергами за поганої погоди, що, в кінцевому рахунку, знімає бажання виборців йти на вибори.

OpenAI визнає ризики, пов’язані з широким використанням Sora, і стверджує, що реалізує заходи безпеки для контролю його ворожих застосувань. Однак залишаються питання стосовно можливих лазеек, якими можуть скористатися противники.

Тобак закликала OpenAI співпрацювати з платформами соціальних медіа для реалізації автоматичного визначення та позначення AI-згенерованих відео, а також для розробки вказівок щодо ідентифікації такого контенту. Однак OpenAI не надав негайної відповіді на ці пропозиції.

Незважаючи на потенційні вигоди вражаючих можливостей Sora, критики бояться, що його випуск може відкрити двері для небачених рівнів поширення дезінформації в Інтернеті. Широка наявність штучно створених відео відкриває можливість створення та поширення фальшивих наративів в значному масштабі, що сприяє дезінформаційному ландшафту.

При продовженні розвитку технологій відповідальність лежить як на розробників, так і на користувачів, щоб забезпечити етичне використання таких потужних інструментів для збереження цілісності публічної дискусії та демократичних процесів.

Часті запитання:

1. Що таке Sora?
Sora – інноваційний інструмент, розроблений OpenAI, який використовує текстові вхідні дані для генерації високореалістичних відео. Він може створювати 60-секундні відео з детальними сценами, складними рухами камери та емоційно виразними персонажами.

2. Як Sora створює стурбованість щодо маніпуляції виборцями?
Випуск Sora під час виборчого року викликав занепокоєння щодо можливого недоречного використання такої технології для маніпуляції виборцями. Він може бути використаний для створення відео, які фабрикують хибні реальності, наприклад, показуючи довгі черги за поганої погоди, щоб зневадити людей йти на вибори.

3. Які ризики пов’язані з широким використанням Sora?
Наявність штучно створених відео, таких як Sora, може призвести до створення та поширення фальшивих наративів великого масштабу, сприяючи поширенню дезінформації.

4. Чи визнала OpenAI ризики використання Sora?
Так, OpenAI визнає ризики, пов’язані з широким використанням Sora, і заявляє, що реалізує заходи безпеки для контролю його ворожих застосувань.

5. Які пропозиції були зроблені для вирішення ризиків, пов’язаних з Sora?
Рейчел Тобак, етичний хакер, запропонувала OpenAI співпрацювати з платформами соціальних медіа для впровадження автоматичного визначення та позначення штучно створених відео. Додатково було запропоновано розробку вказівок щодо ідентифікації такого контенту. Однак OpenAI не надав негайної відповіді на ці пропозиції.

Визначення:

1. Deepfake: Техніка, яка використовує штучний інтелект для створення або маніпуляції аудіовізуального контенту, що часто призводить до дуже реалістичних, але фабрикованих відео або зображень.
2. Дезінформація: Фальшива або маніпулююча інформація, яка свідомо поширюється з метою обману або маніпуляції людей.
3. Противники: У цьому контексті це означає осіб або груп, які можуть зловживати або використовувати технологію злочинними цілями.
4. Цілісність публічної дискусії: Чесність, точність та справедливість у комунікації та дискусіях, які сприяють здоровому функціонуванню громадських розмов та дебатів.

Рекомендоване пов’язане посилання:

OpenAI – Офіційний веб-сайт OpenAI, провідної компанії зі штучного інтелекту, що стоїть за розробкою Sora.

The source of the article is from the blog klikeri.rs

Privacy policy
Contact