Изследване на етичните граници на изкуствен интелект: случаят с НУКА

Продължителността на изкуствен интелект отворя врати към нови възможности, но не всеки иновативен подход бива приет с ентусиазъм поради възможните вредни последици. Един изразителен пример е създаването на „NUCA“, камера, концепция на двама немски артисти, Матиас Веф и Бенедикт Грош, която може цифрово да премахне дрехите на човек. Въпреки че тя представлява значително демонстриране на възможностите на изкуствения интелект, тя също така повдига сериозни въпроси за нарушаване на неприкосновеността на личния живот.

Контроверзното свойство на NUCA

NUCA работи като използва смартфон за заснемане на изображения, които изкуственият интелект послед манипулира за създаване на обнажени версии на обекта. Артистите разкриха, че намерението им беше да насочат внимание към рисковете, свързани с технологията изкуствен интелект, по-конкретно, нарушаването на личното право. Докладът на FoxNews показа, че изкуственият интелект оценява как може да изглежда тялото на човек без дрехи, като анализира различни атрибути като пол и форма на тялото. Тази технология може да завърши процеса си за приблизително 10 секунди, което я прави достъпна на плашещо ниво.

Поява на достъпните Deepfakes

Технологията на Deepfake е предмет на загриженост, особено с изникващата тенденция за създаване на фалшиви голи изображения на обществени личности. Въпреки това, с иновацията зад NUCA, бариерата за създаване на такова съдържание значително намалява във време и експертиза. Тази достъпност повишава риска от злоупотреба за цели като отмазки с порнография, заплахи и преследване.

Етични дилеми пред нас

Появата на NUCA има за цел да провокира диалог за моралната насоченост на напредъка в областта на изкуствения интелект. Въпреки че артистите зад NUCA не препоръчват неговото комерсиално използване, подложената технология може да бъде възпроизведена със злонамерени цели от други страни.

Обществените прокълнатия на изкуствения интелект

С нарастващите възможности на изкуствения интелект, започват да предизвикват обществените стойности и индивидуалните правни защити на неприкосновеността. Реалистичните deepfakes заплашват доверието в цифровото съдържание, усложнявайки правната и обществената политика. Обезпокоително е, че такава технология е докладвана като инструмент за създаване на изображения на deepfake на деца за незаконни дейности.

Искра надежда с отговорното използване на изкуствения интелект

Въпреки рисковете, камерите с изкуствен интелект имат своите предимства. Канадският телекомуникационен гигант Rogers използва камери с изкуствен интелект за борба с горски пожари, демонстрирайки положителната употреба на технологията. Подобно на това, френските сил…

Privacy policy
Contact