Съединените щати ще укрепят технологиите по изкуствен интелект срещу чуждестранни противници.

Подобряване на мерките за сигурност на изкуствен интелект (ИИ)
Администрацията на Байдън предприема превантивни мерки за защита на най-развитите модели за изкуствен интелект (ИИ) на Америка от потенциални противници, като Китай и Русия. Тези планове включват създаване на бариери, за да се предотврати злоупотребата с ИИ инструменти, които анализират големи количества текстове и изображения, което може да включи кибер атаки или дори развитие на мощно биологично оръжие.

Изкривени реалности възникват от възможностите на ИИ
Видеоклиповете, променени от ИИ, които смесват факти с фалшификации, все по-често проникват в социалните медии. Такива манипулации затъмняват границите между реалност и фикция, особено в поляризираната политическа среда на Съединените щати. Въпреки че тези манипулирани медии съществуват от няколко години, те се разпространяват с въвеждането на нови ИИ инструменти, като софтуерът Midjourney.

Доклади от март показват, че ИИ-подпомогнатите инструменти за създаване на изображения от компании като OpenAI и Microsoft могат да бъдат злоупотребени за фалшифициране на фотографии, които разпространяват лъжлива информация за избори или гласуване, въпреки че тези компании имат политики против създаването на измамно съдържание.

Справяне с кампаниите за дезинформация
Манипулациите на медиите са средство, чрез което кампаниите за дезинформация използват сходство на ИИ с автентични статии за разпространение на лъжи. Социалните медии гиганти като Facebook, Twitter и YouTube се опитват да възпрепятстват такива промени в изображенията, но ефективността на техните усилия варира.

Един случай на дезинформация, подкрепен от ИИ, беше фалшиво твърдение, одобрено от китайски новинарски агент, контролиран от държавата, което обвини САЩ в работа на биологичен оръжиен лаборатор в Казахстан, както посочва Министерството на вътрешната сигурност (DHS) в оценка на заплахите за 2024 г.

Националният съветник по национална сигурност Джейк Съливан призна на събитие за ИИ във Вашингтон, че защитата на демокрацията от тези големи кампании за дезинформация е предизвикателна, тъй като те се възползват от възможностите на ИИ със злонамерената цел на държавни и недържавни актьори.

Рискове от биологично и кибер оръжие
Американските разузнавателни общности и изследователи все повече се притесняват от рисковете, предизвикани от чужда злачест работа с достъп до напреднали възможности на ИИ. Според изследвания на Грифин Сайентифик и Ранд Корпорейшън, големите модели на език (LLM) могат потенциално да предоставят информация, подпомагаща създаването на биологично оръжие.

В един пример LLM се оказа способен да предаде познания на пост-докторантски ниво относно вирусни патогени с потенциал за пандемия. Допълнителни изследвания от Ранд показаха, че LLM могат да помогнат при планирането и изпълнението на биологична атака, включително предложения за методи за разпространение чрез аерозол на токсин ботулотоксин.

По отношение на кибернетичната сфера, оценката на заплахите от 2024 г. на DHS предупреждава за използването на ИИ за разработване на инструменти, които потенциално ще улеснят по-големи, по-бързи и по-трудно уловими кибер атаки на критична инфраструктура, включително на нефтопроводи и железопътни линии. Беше разкрито, че Китай и други конкуренти развиват ИИ технологии, способни да подкопаят киберсигурността на САЩ, включително с ИИ подпомогнати атаки със злонамерен софтуер. Microsoft документира, че хакерски групи, свързани с китайското и севернокорейското правителство, руската военна разузнавателна служба и Иранската революционна гвардия, усъвършенстват усилията си за хакерски атаки чрез използване на големи модели на език.

Съобразно предоставения контекст от статията, някои допълнителни съществени факти, които могат да бъдат взети предвид, включват:

Международна конкуренция в развитието на ИИ: Състезанието за превъзходство в областта на ИИ не се ограничава само до Съединените щати и техните противници. Страните по целия свят инвестират значително в изкуствения интелект. Това създава сложна международна среда, където сътрудничеството и конкуренцията се случват едновременно, което влияе на глобалната сигурност и икономическата динамика.

Регулаторни и етични проблеми: По мерка като напредва технологията на ИИ, множество ентитети, включително правителства и международни организации, се занимават с етичните последици и необходимостта от регулация, за да се гарантира, че ИИ се разработва и използва отговорно. Дебатите относно наблюдението, поверителността и етичното използване на ИИ във военни приложения са пример за тези проблеми.

ИИ и икономическа сигурност: Освен военни и кибернетични приложения, технологията на ИИ също значително влияе на икономическата сигурност. Автоматизацията и оптимизацията, която ИИ предлага, може да подпомогне производителността и икономическия растеж, но може също да доведе до загуба на работни места и увеличено неравенство.

Реториката за ‘надпревара с ИИ’: Дискусиите около ‘надпреварата с ИИ’, особено между САЩ и Китай, са причинали както загриженост, така и контроверзии. Реториката за надпревара може потенциално да подхранва сигурностната дилема, където всяка страна преследва по-големи възможности в отговор на усещането за заплаха от просъстване на другата страна, което потенциално може да доведе до нарастване на напрежението.

По-долу са ключови въпроси, свързани с темата, заедно с техните отговори:

Защо е важно за САЩ да защитават своята ИИ технология срещу чуждестранни противници?
Това е от съществено значение за националната сигурност, запазването на конкурентна преднина в глобалната икономика и защитата на цялостността на информацията и демократичните процеси. Напредният ИИ може да бъде злоупотребен за извършване на кибер-атаки, влияние върху общественото мнение и дори увеличаване на възможностите на оръжейните системи.

Какви са основните предизвикателства при предотвратяването на злоупотребата с ИИ от чуждестранни агенти?
Технологичните мерки за защита на ИИ са сложни и могат да изискват много ресурси. Освен това глобалната и свързана природа на технологичната индустрия прави трудно контролирането на разпространението на информация и технология. Проблемите на отнесеността, бързото развитие на технологиите и различията в международните норми и регулации също представляват предизвикателства.

Какви са контроверзиите около развитието и защитата на ИИ?
Притесненията от евентуална надпревара с ИИ, етичните въпроси относно автономните системи за оръжие, балансът между иновациите и сигурността, както и възможността за нарастващи конфликти в киберсигурността са големи контроверзи в областта на развитието и защитата на ИИ.

Предимства и недостатъци на укрепването на технологията на ИИ включват:

Предимства:
– Подобрена национална сигурност срещу кибер заплахи.
– Защита на критичната инфраструктура и икономическата стабилност.
– Предотвратяване на разпространението на дезинформация и поддържане на цялостността на демократичните процеси.
– Поддържане на стратегическо предимство в глобалното технологично лидерство.

Недостатъци:
– Ескалация на въоръжените състезания в киберсигурността с противници.
– Потенциална пречка за отворената размяна на научни познания.
– Риск от прекомерна регулация, която може да задуши иновации в домашната технологичната индустрия.
– Етични дилеми при прилагането на защитни технологии на ИИ, като рискове от широкомащабно наблюдение или автономно въоръжение.

За свързана информация, разгледайте следните уебсайтове:

AI.gov: За ресурси на правителството на САЩ и информация за Американската инициатива за ИИ.
DHS.gov: За Министерството на вътрешната сигурност, което може да съдържа оценки на заплахи и стратегии за ИИ и киберсигурност.
RAND.org: Изследователска институция, която провежда изследвания за влиянието на ИИ в различни сектори, включително сигурност.
UN.org: За международни перспективи и инициативи по отношение на ИИ, включително регулаторни и етични дебати.

Privacy policy
Contact