Глобалните технологични гиганти се ангажират с етични практики при разработването на изкуствен интелект

В резултатен ход, водещите технологични корпорации, включително гиганти на индустрията като Microsoft, Amazon и OpenAI, се съгласиха колективно да спазват комплект от доброволни ангажименти, насочени към гарантиране на безопасното развитие на сложни модели на изкуствен интелект (ИИ). Това споразумение беше постигнато на Срещата по безопасност на изкуствения интелект, проведена в Сеул.

Ключови моменти от Международния акт за безопасност на ИИ:

В рамките на споразумението, технологичните компании от различни страни по света като САЩ, Китай, Канада, Великобритания, Франция, Южна Корея и Обединените арабски емирства, се обвързаха да изпълнят рамки за безопасност на своите ИИ модели. Такива рамки ще определят измерването на предизвикателствата в техните системи и ще включват „червени линии“, които ще поставят ясни граници за неприемливи рискове, включително, но не само, защита срещу автоматизирани кибератаки и предотвратяване на заплахите от биологично оръжие.

За да се справят с крайните обстоятелства, които могат да възникнат от тези напреднали ИИ системи, фирмите обявиха плановете си за потенциално въвеждане на „бутон за изключване“. Тази неотложна мярка би преустановила развитието на ИИ модела, ако компаниите не могат да осигурят намаляването на посочените рискове.

Международно съединение и ангажимент към безопасното развитие на ИИ:

Министър-председателят на Великобритания в изявление, акцентиращо значението на акта, подчерта глобалното съединение и обещание за прозрачност и отговорност от страна на някои от водещите предприятия в областта на ИИ. Той посочи безпрецедентното съгласие по въпроса за ангажиментите за безопасност на ИИ.

Бъдещи стъпки и правни рамки:

Предприетите ангажименти са специфични за първокласни модели, известни като „гранични модели“, които включват генеративен ИИ като серията GPT на OpenAI, захранващи популярни инструменти за ИИ като чатбота ChatGPT. Въпреки че Европейският съюз се опитва да въведе Акта за ИИ за регулиране на неразкриваемото развитие на ИИ, британското правителство избра по-пермисивен регулаторен подход, което указва наличието на бъдещо законодателство за граничните модели без конкретно определен срок.

Този вторник актът представлява разширение на предишен комплект ангажименти, направени през ноември относно разработката на генеративен софтуер за ИИ. Също така, те се ангажираха да включат обратна връзка от „поверени деи“ включително от своите държавни правителства, в техните мерки за безопасност преди следващия Върховен Съвет по ИИ във Франция, планиран за началото на 2025 г.

Privacy policy
Contact