Загриженостите относно протоколите за безопасност в OpenAI се подчертават в последния доклад.

Скорошен доклад разкри, че OpenAI ускорява разработката на нови модели на изкуствен интелект, като пренебрегва процедурите за безопасност и мерките за сигурност. Безпокойствата бяха повдигнати от неразкрити служители, които подписаха открито писмо, изразяващо тревога за липсата на надзор по време на изграждането на системите за изкуствен интелект. В отговор на това OpenAI създаде нов комитет за безопасност и сигурност, в който участват членове на управителния съвет и избрани мениджъри, за да оценят и подобрят процедурите за безопасност.

Въпреки обвиненията в пренебрежение на процедурите за безопасност, три служители на OpenAI, говорейки анонимно за The Washington Post, споделиха, че екипът се чувствал принуден да ускори въвеждането на нова проверка, създадена „за предотвратяване на катастрофални вреди“, за да се отговори на планираното пускане на GPT-4 Omni през май, както бе определено от ръководството на OpenAI.

Процедурите за безопасността целят да гарантират, че моделите на изкуствения интелект не предоставят вредна информация или не помагат за извършване на опасни действия, като създаването на химически, биологични, радиологични и ядрени оръжия (ХБРЯ) или участието в кибер атаки.

Освен това, докладът подчертава подобен случай, който се е случил преди старта на GPT-4o, описан като най-предизвикателният модел на изкуствен интелект на OpenAI. Плановете за старта бяха направени без да се гарантира неговата безопасност, като служител на OpenAI цитиран в доклада заяви: „напълно сгрешихме в този процес“.

Това не е първият случай, в който служители на OpenAI указват ясно пренебрегване на процедурите за безопасност и сигурност в компанията. Миналия месец бивши и настоящи служители на OpenAI и Google DeepMind подписаха открито писмо, изразяващо тревога за липсата на надзор при разработването на нови системи за изкуствен интелект, които биха могли да представят значителни рискове.

В писмото се призовава за участие на правителството, регулаторни механизми и здрава защита за уликовите лица от работодателите. Двама от трите съоснователи на OpenAI, Джефри Хинтън и Йошуа Бенджио, подкрепиха откритото писмо.

През май OpenAI обяви създаването на нов комитет за безопасност и сигурност, чиято задача е да оцени и подобри дейностите на компанията по изкуствения интелект и да гарантира важни решения за безопасността и сигурността на проектите и дейностите на OpenAI. Компанията наскоро сподели нови насоки за изграждането на отговорни и етични модели на изкуствен интелект, известни като Model Spec.

Скорошен доклад разкри още детайли относно тревогите за процедурите за безопасност в OpenAI, като съсвети ключови въпроси и предизвикателства, свързани с проблема.

Ключови Въпроси:
1. Какви конкретни процедури за безопасност бяха пренебрегнати от OpenAI по време на разработката на модели за изкуствен интелект?
2. Каква беше притеснението за ускоряването на въвеждането на нови тестови протоколи върху мерките за безопасност?
3. Какви потенциални рискове са свързани със системите за изкуствен интелект, които липсват на адекватни процедури за безопасност и сигурност?
4. Как са предложили служителите и експертите от индустрията да се справят с тревогите за безопасността в OpenAI?
5. Какви са предимствата и недостатъците на подхода на OpenAI към приоритизиране на разработването на модели за изкуствен интелект пред процедурите за безопасност?

Ключови Предизвикателства и Контроверзии:
– Служителите на OpenAI се чувстваха принудени да предоставянето на нови модели на изкуствен интелект, предвид безпокойството за потенциални катастрофични вреди.
– Пренебрежението на процедурите за безопасност може да доведе до предоставяне на вредна информация от системите за изкуствен интелект или участие в опасни действия, като съдействане за създаване на оръжия или кибер атаки.
– Липсата на надзор при изграждането на системите за изкуствен интелект може да представи значителни рискове и етични дилеми, които изискват незабавна внимателност и намеса.
– Призивът за правителствена регулация, защита на уликовите лица и подобрени мерки за безопасност отразява растящата загриженост за непровереното развитие на технологиите за изкуствен интелект.

Предимства:
– Ускореното развитие на моделите на изкуствения интелект може да доведе до революционни напредъци в технологиите и иновациите.
– Ангажиментът на OpenAI за създаването на комитет за безопасност и сигурност показва активен подход за справяне с тревогите за безопасността и подобряване на процедурите.
– Най-новите насоки за отговорно и етично изграждане на модели на изкуствен интелект, известни като Model Spec, показват желание да се даде приоритет на безопасността и етичните аспекти.

Недостатъци:
– Пренебрегването на процедурите за безопасност при разработването на изкуствен интелект представлява сериозни рискове за обществото, което може да доведе до ненамерени последици и вредни резултати.
– Натиска за спазване на амбициозни срокове за пускане може да попречи на мерките за безопасност и да затрудни последователните оценки на риска.
– Липсата на адекватен надзор и отговорност при изграждането на системите за изкуствен интелект може да разваля доверието на обществото и да повдигне етични въпроси в областта на изкуствения интелект.

За повече информация относно важността на процедурите за безопасност при разработването на изкуствен интелект и текущите дискусии относно практиките на OpenAI, посетете официалния уебсайт на OpenAI на OpenAI.

The source of the article is from the blog aovotice.cz

Privacy policy
Contact