Изкуственото интелигентността (ИИ) разработчици предприемат действия за защита на демокрациите

В свят, където изкуствената интелигентност (ИИ) бързо напредва, разработчиците в момента активно работят, за да предотвратят злоупотребата й в политически контекст. Осъзнавайки потенциалните заплахи, които ИИ технологията представлява по време на големите избори, водещи компании като Anthropic, OpenAI, Google и Meta предприемат мерки, за да поставят ограничения на нейната приложимост.

OpenAI, известна със своя чатбот ChatGPT, наскоро обяви ангажимента си да предотврати злоупотребата на своите ИИ инструменти по време на избори. Сред предприетите от тях мерки, OpenAI забранява използването на своите технологии за създаване на чатботи, които имитират реални хора или институции. Подобно на това, Google се е обявила, че ще ограничи своя ИИ чатбот Bard да отговаря на определени изборни ситуации, за да избегне неточности. Междувременно Meta, родителска компания на Facebook и Instagram, се е обещала да въведе по-ясни етикети за ИИ-генерираното съдържание във своите платформи, за да помогне на избирателите да различават между реална и фалшива информация.

Anthropic, известен ИИ стартъп, също се присъедини към каузата, като забрани политическата кампания и лобирането чрез своя чатбот Claude. За да гарантира съответствие, Anthropic ще издава предупреждения или ще спира потребителите, които нарушават правилата му. Освен това, компанията използва инструменти, обучени да автоматично откриват и блокират дезинформацията, както и операции за влияние.

С осъзнаването на непредсказуемостта на разпространението на ИИ, Anthropic заяви: „Очакваме, че през 2024 г. ще видим изненадващи използвания на ИИ системи – използвания, които не са били предвидени от самите разработчици.“ Този подход отразява загрижеността, споделена от разработчиците в индустрията, които се стремят да получат контрол върху технологията си, докато милиарди хора участват в изборни процеси по целия свят.

Въпреки че тези продължаващи усилия са за похвала, ефективността на ограничаването на ИИ инструментите остава несигурна пред развиващата се технология. Скорошното представяне от страна на OpenAI на Sora, ИИ технология, способна да генерира реалистични видеоклипове веднага, създава нови предизвикателства. Такива инструменти имат потенциала да смесват факт и фикция, като произвеждат текст, звук и изображения, възникват важни въпроси относно способността на избирателите да различат автентично съдържание.

През тази година се очаква да се проведат поне 83 избора в световен мащаб, което означава най-голямата концентрация в следващите 24 години. Държави като Тайван, Пакистан и Индонезия вече проведоха избори, а Индия, най-голямата демокрация в света, се подготвя за предстоящите общи избори през пролетта. Нуждата от отговорно използване на ИИ инструменти по време на тези критични събития е по-належаща от всякога.

ЧЗВ – Злоупотреба на изкуствената интелигентност в политически контекст

1. Какво правят водещите компании, за да предотвратят злоупотребата на ИИ технология важните избори?
Водещи компании като OpenAI, Google, Meta и Anthropic предприемат мерки, за да ограничат приложението на ИИ технология в политически контекст.

2. Какви мерки е предприела OpenAI, за да предотврати злоупотреба на своите ИИ инструменти?
OpenAI забранява създаването на чатботи, които имитират реални хора или институции и предприема други мерки, за да предотврати злоупотребата на своите ИИ технологии по време на избори.

3. Как Google ограничава използването на своя ИИ чатбот Bard по време на избори?
Google се е обещала да ограничи възможността на Bard да отговаря на определени изборни ситуации, за да избегне неточности.

4. Какво е обещало Meta относно ИИ-генерираното съдържание във Facebook и Instagram?
Meta се е обещала да въведе по-ясни етикети за ИИ-генерираното съдържание във своите платформи, което ще помогне на избирателите да различават реална и фалшива информация.

5. Как Anthropic допринася за предотвратяването на злоупотребата на ИИ в политически контекст?
Anthropic забранява политическите кампании и лобирането чрез своя чатбот Claude. Компанията използва и инструменти, обучени да откриват и блокират дезинформацията и операции за влияние.

Дефиниции:
– ИИ: Изкуствена интелигентност – технология, която позволява на машините да имитират човешката интелигентност.
– Чатбот: Компютърна програма, предназначена да симулира разговор с хора, често чрез текстови или гласови взаимодействия.
– Дезинформация: Грешна или неточна информация, често разпространявана с намерението да заблуди или подведе.

Препоръчителни свързани връзки:
– OpenAI
– Google
– Meta
– Anthropic

(Източник: Информацията, представена в тази статия)

The source of the article is from the blog agogs.sk

Privacy policy
Contact