Изкуствените интелектуални работници изискват по-голяма безопасност и надзор в открито писмо

Открито писмо, подписано от професионалисти от индустрията на изкуствен интелект, изразява тревога от недостатъчния надзор в областта на безопасността в сектора на изкуствения интелект. Единадесетима лица, свързани с OpenAI, както настоящи, така и бивши членове, заедно с двама служители на Google DeepMind, един от които с минал опит с Anthropic, изразиха сериозните си загрижености.

Тези професионалисти подчертаха, че компаниите в областта на изкуствения интелект разполагат с значителни, непубликувани знания както за предимствата, така и за лимитите на системите си, включително ефективността на мерките за безопасност и свързаните с тях нива на рискове за потенциални вреди. Те подчертаха, че почти няма задължение за тези фирми да разкрият тази критична информация на правителствени органи или гражданско общество.

Въпреки, че OpenAI защитава своите вътрешни процеси за докладване, като посочва, че не пускат нова технология без подходящи мерки за безопасност, групата счита, че това не е достатъчно. В писмото се твърди, че парадоксът се крие в това, че компаниите в областта на изкуствения интелект публично обещават ангажимента с безопасно развитие на технологии, докато изследователи и служители предупреждават за недостатъчен надзор.

Загрижените служители предлагат тези разкрития да наложат подобрени мерки защита за лица, разкриващи информация. Подписаните призовават за спазване на основни принципи, съсредоточени около прозрачността и отговорността, включително забрана за споразуменията за недопозволяване на дискредитация, които предотвратяват служителите да обсъждат рисковете на изкуствения интелект. Освен това те предлагат механизъм за анонимно съобщаване на загриженостите на служителите директно на управителите.

Според писмото, настоящите и бивши служители са сред малцината, които могат да направят компаниите в областта на изкуствения интелект отговорни пред публиката в отсъствието на ефективен обществен надзор. Страстното молба зазвучи още по-силно след последните оставки от OpenAI, които включваха съосновател Иля Суцкевер и специалист по сигурност Ян Лайке. Самият Лайке изрази загриженост за преминаването на OpenAI от култура на безопасност към такава, насочена към привлекателни продукти.

Това писмо изниква като ключов момент в дискусията за изкуствения интелект, означавайки призив за по-робустни, прозрачни и отговорни проверки на безопасност в индустрията на изкуствения интелект.

Основни въпроси и отговори:

1. Каква е основната загриженост на професионалистите в индустрията на изкуствения интелект, изразена в откритото писмо?
– Основната загриженост е за явното липсване на подходящ надзор за безопасност в сектора на изкуствения интелект. Професионалистите твърдят, че компаниите в областта на изкуствения интелект разполагат със значителни познания за предимствата и лимитите на техните системи, както и за ефективността на мерките за безопасност, които те не са задължени да разкрият напълно на външни страни като правителствени органи или гражданско общество.

2. Защо се изискват защити за лицата, разкриващи информация, работещи в областта на изкуствения интелект?
– Изискват се защити за лицата, разкриващи информация, тъй като служителите, които са запознати с вътрешните процеси на компаниите в областта на изкуствения интелект, може да бъдат ограничени от говоренето за рисковете за безопасност поради споразуменията за недопозволяване на дискредитация или страх от отмъщение. Подобрените защити биха могли да улеснят по-отвореното обсъждане за рисковете на изкуствения интелект и да допринесат за по-добра отговорност.

3. Какви са предложените принципи в откритото писмо?
– Писмото проповядва за прозрачност и отговорност в разработката на изкуствения интелект, включително забрана за споразуменията за недопозволяване на дискредитация, които предотвратяват откритото обсъждане на рисковете на изкуствения интелект, както и създаването на анонимен механизъм за съобщаване на загриженостите на служителите на управителните съвети.

Основни Предизвикателства или Контроверзии:

1. Прозрачност спрямо Конкурентна Предимство: Компаниите в областта на изкуствения интелект може да се противопоставят на прозрачността, за да защитят загрижение за патентните им права, които им осигуряват конкурентно предимство, което може да бъде в противоречие с правото на обществото да разбере потенциалните рискове, свързани с технологиите за изкуствения интелект.

2. Регулация и Надзор: Разработването на ефективни регулации, които гарантират безопасността на изкуствения интелект без да спират иновациите, е значително предизвикателство. Съществува и дебат за това, кои заинтересовани страни трябва да бъдат включени в създаването на такива регулации и как трябва да се управлява международното сътрудничество, обхващайки глобалния характер на развитието на изкуствения интелект.

3. Защита на Лицата, разкриващи информация: Прилагането на здрави защити за лицата, които стимулират служителите да докладват за неетични практики или рискове за безопасност без страх от преследване или загуба на работата им може да бъде контроверсно, тъй като вероятно включва законодателни промени и може да изложи на чувствителния материал в индустрията.

Предимства и Недостатъци:

Предимства
По-голяма Безопасност: По-големият надзор може да доведе до разработването на по-безопасни системи за изкуствен интелект, като разпознаване и предотвратяване на рисковете проактивно.
Доверие на Обществото: Прозрачността и отговорността могат да насърчат доверието на обществото в компаниите по изкуствен интелект и техните продукти.

Недостатъци
Ограничаване на Иновациите: Ако се приложи лошо, увеличеният надзор може да ограничи иновациите чрез създаване на тежки регулации, които ограничават експериментите и развитието.
Оперативни Рискове: Разкриването на мерките за безопасност и уязвимостите на системите вероятно ще изложи системите за изкуствен интелект на експлоатация от лошонамерени участници.

За допълнителна информация относно етиката и управлението на изкуствения интелект, следните връзки към свързани организации могат да бъдат от полза (проверете дали URL-ите са актуални преди да посетите):
Internet Engineering Task Force (IETF)
Institute of Electrical and Electronics Engineers (IEEE)
Association for Computing Machinery (ACM)
AI Global

Privacy policy
Contact