Лидери и експерти в технологическата индустрия се обединяват, за да насочват внедряването на изкуствен интелект в инфраструктурата на САЩ.

Известни лица от влиятелни технологични фирми и академични средища се присъединяват към вново учреденията „Борда за безопасност и сигурност на изкуствения интелект“. n The Wall Street Journal разкри новината, като подчерта разнообразието на борда с изпълнителни директори от технологични компании, академични учени, защитници на гражданските права и изпълнителни директори от секторите на критичната инфраструктура.

На неизведни срещи на мисловни лидери, в борда участват гиганти на индустрията като Сатя Надела от Microsoft, Дженсън Хуанг от Nvidia и Сам Алтман от OpenAI, наред с лидери от Advanced Micro Devices Inc., Amazon Web Services Inc., Anthropic PBC, Cisco Systems Inc., Google LLC и IBM Corp.

С поставената пред тях значителна задача да дават съвети относно разгръщането на изкуствения интелект в съществените услуги, борда, насочен от секретаря на националната сигурност Алехандро Майоркас, се фокусира върху даването на съвети на Департамента на националната сигурност. Техните виждания ще бъдат решаващи за организациите, които управляват енергийни системи, производствени операции и различни транспортни услуги. Същността на техния консултативен рол включва проучването на възможностите за приложение и наследените рискове, свързани с технологиите на изкуствения интелект.

Сред растящите загрижености от двоената употреба на изкуствения интелект, като в изискани кампании за фишинг, формирането на борда е реакция на указ на президента Джо Байдън. Изведен от изпълнителен указ, насочен към проучване на потенциалните опасности на изкуствения интелект, той налага създаването на насоки за идентификация на изкуствения интелект и установяването на протоколи за безопасност на изкуствения интелект.

Личните технологични предприятия сега трябва да разкрият данни за безопасността на развития изкуствен интелект, включително резултати от симулациите за изпитване на здраве. Лидерите в областта на изкуствения интелект вече удвояват усилията си за защитни мерки, както показа последното усилие на OpenAI да разработи механизъм за мониторинг на изкуствения интелект. Тази инициатива използва вторичен изкуствен интелект за регулиране и оценка на изходите от по-сложни невронни мрежи.

Бордът предвижда стартирането на тримесечните си срещи през май, като се отправи на мисията си да се гарантира, че напредъкът на изкуствения интелект остава на услуга на сигурната и устойчива инфраструктура.

Основни Въпроси и Отговори:

1. Каква е целта на Борда за Безопасност и Сигурност на Изкуствения Интелект?
Бордът има за цел да дава съвети относно разгръщането на изкуствения интелект в съществените услуги, като помага за управлението на рисковете, свързани с технологиите на изкуствения интелект, докато проучва възможностите им за приложение.

2. Кой ръководи борда?
Алехандро Майоркас, секретарят на националната сигурност, ръководи борда.

3. Защо бе създаден бордът?
Създаването на борда е отговор на указ от президента Джо Байдън, изведен от изпълнителен указ, който проучва потенциалните опасности на изкуствения интелект и необходимостта от протоколи за безопасност и насоки.

4. Какви са някои отговорности на борда?
Бордът е отговорен за даването на съвети на Департамента на националната сигурност по отношение на разгръщането на изкуствения интелект в секторите на критичната инфраструктура и за установяването на насоки за идентификация и безопасност на изкуствения интелект.

5. Кой са някои от известните членове на борда?
Бордът включва известни лица като Сатя Надела от Microsoft, Дженсън Хуанг от Nvidia и Сам Алтман от OpenAI, заедно с лидери от различни технологични предприятия.

Основни Изизквания и Контроверзии:

Защита на данните: Системите на изкуствения интелект често изискват големи количества данни, повдигайки загриженост относно поверителността на потребителите и защитата на стойностните данни.
Етика на изкуствения интелект: Решенията, взети от изкуствения интелект, биха могли да са предразсъдъчени, ако алгоритмите на изкуствения интелект не се проектират и мониторират внимателно.
Автономия срещу Контрол: Балансът между автономията на изкуствената интелигенция за ефективност и човешкия контрол за етика и безопасност предизвиква съществени предизвикателства.
Загуба на Работни Места: Разгръщането на изкуствен интелект в инфраструктурата може да доведе до страхове от изгубени работни места и промени в пазара на труда.
Рискове за Сигурността: Съществува риск от това системите на изкуствения интелект да бъдат отвлечени или да създадат прекъсвания или вреда в критичната инфраструктура.

Предимства и Недостатъци:

Предимства:
– Изкуственият интелект може значително да подобри ефективността и надеждността на инфраструктурните системи.
– Изкуственият интелект може да анализира големи количества данни за по-добро вземане на решения.
– Разгръщането на изкуствения интелект може да доведе до намалени оперативни разходи и по-голяма продуктивност.

Недостатъци:
– Разгръщането на изкуствения интелект може да изисква съществено инвестиции и преструктуриране на сегашните системи.
– Технологията може да не е напълно безопасна, което води до потенциални рискове за безопасността.
– Прекомерната зависимост от изкуствения интелект може да намали човешката експертиза и увеличи уязвимостта на изкуствената интелигенция за провали или кибератаки.

The source of the article is from the blog trebujena.net

Privacy policy
Contact