Вътрешни ценности в Силициевата долина предупреждават за темпа на развитие на изкуствения интелект.

Нараства напрежението сред осведомени личности с поглед върху вътрешното функциониране на OpenAI, намираща се в сърцето на Силициевата долина. Тези вътрешни лица все повече изразяват загриженост относно бързото развитие на изкуствения интелект (ИИ), особено по отношение на мерките за безопасност – или липсата им – в стремежа към Общ интелектуален интелект (AGI).

Ядрото на тези загрижености изтича от явното желание на екипа на Сам Алтман да постигне AGI по-скоро, отколкото се очакваше, без необходимите протоколи за безопасност. Източници разкриват, че този стремеж доведе до значително вътрешно разколебание в OpenAI, което се оглави с кратко отстраняване на Алтман и последващото му връщане на властта. Инцидентът доведе до постепенното напускане на други членове на екипа.

Последните разкрития от страна на The New York Times разкриват корпоративна култура в компанията, базирана в Сан Франциско, характеризирана с неотчетливост и тайни. Състезание за създаване на най-мощни ИИ системи, които някога са били реализирани, вече е в пълн ход. Деветима настоящи и бивши служители на OpenAI се събират заедно поради общите си тревоги, че компанията не прави достатъчно за предотвратяване на опасностите, свързани с техните системи.

OpenAI, известна с пускането на ChatGPT през 2022 г., започна като неправителствена изследователска лаборатория, но оттогава промени фокуса си към печалба и растеж, в усилията си да създаде AGI. Появили са се обвинения, че OpenAI е използвала насилнически методи, за да затули загриженостите на служителите си относно технологиите си, включително ограничителни споразумения за тези, които напускат.

Тревожността от развитието на AGI изисква действие сред експертите в индустрията. Отличително, Даниел Кокотайло, бивш изследовател по управление на OpenAI, стана водещ глас сред група, насочена към предотвратяването на потенциални катастрофи. Тази група публикува открито послание, призоваващо водещите компании, включително OpenAI, да приемат по-голяма прозрачност и да защитават лицата, които разкриват информация.

Други забележими членове на групата са бивши служители на OpenAI като изследователя Уилям Сондърс, и още трима – Кара Уайнек, Якоб Хилтън и Даниел Зиглер. Страх от отмъщение от страна на OpenAI принуди мнозина да подкрепят писмото анонимно, а подписите идват и от лица в Google DeepMind.

Представител на OpenAI, Линдзи Хелм, изрази гордост от историята на компанията за предоставяне на способни и безопасни системи за изкуствен интелект, като подчертае ангажимента им към редовни дискусии за управлението на рисковете, свързани с технологията. Междувременно, представител на Google отказа да коментира.

Тази кампания възниква по време на уязвим етап за OpenAI, който все още се възстановява от контроверзата, предизвикана от случая с Алтман, и се сблъсква с юридически битки поради явно нарушение на авторски права. Освен това, последните демонстрации, като хипер-реалистичен гласов асистент, са сенчени от публични спорове, включително един с актрисата Скарлет Йохансон.

След отпадането на водещите изследователи по изкуствен интелект, Иля Суцкевер и Ян Лейк от OpenAI са били тълкувани от мнозина като отстъпление в ангажимента на организацията към безопасността. Тези напуски вдъхновиха други бивши служители да се изкажат, повишавайки своето положение в защита на отговорното развитие на изкуствения интелект. Бивши служители, свързани с движението на „ефективен алтруизъм“, акцентират върху предотвратяването на есенциални заплахи от ИИ, привличайки критики от тези, които гледат на полето като налягащо.

Кокотайло, който присъедини към OpenAI през 2022 г. като изследовател, задачен с прогнозирането на напредъка на ИИ, ревизира първоначално оптимистичните си предвидвания след като видя последните напредъци, като в момента присъжда 50% вероятност на появата на AGI до 2027 г. и 70% шанс за развити AGI в състояние да унищожи или нанесе вреда на хуманността. Въпреки че има мерки за безопасност, включително сътрудничество с Microsoft, което е наречено „Комисия за преглед на безопасността“, Кокотайло забеляза, че настойчивостта на производството често затъмнява объркващата оценка на риска.

Ключови Предизвикателства и Контроверзии:

Скоростта на развитието на ИИ срещу внедряването на мерки за безопасност: Докато компаниите се стремят да бъдат върха в технологиите на изкуствения интелект, съществува риск те да страничат безопасността в спешното си желание за иновации.

– Страхът от възможните последици на AGI: AGI поражда есенциални тревоги, тъй като може да надмине човешкия интелект във всички области. Вътрешни лица се страхуват, че без подходящи безопасни мрежи, AGI може да доведе до резултати, които са вредни за човечеството.

Корпоративна тайност и откритост: Има напрежение между ценните търговски тайни, които подтикват напредъка на ИИ, и необходимостта от прозрачност, която гарантира, че широката общност е наясно и подготвена за потенциалните рискове.

Обхващане на служителите и споразуменията за неразкриване на информация (NDAs): Споменаването на ограничителни споразумения подсказва, че служителите може да бъдат ненавременно натискани в мълчание, което може да предизвика етически проблеми и да пречи на откритото обсъждане за посоката на технологията.

Предимства на Бързото Развитие на ИИ:
– Ускореното иновиране може да доведе до прорыви в медицината, логистиката, екологичните технологии и други.
– Възможност за икономически растеж, тъй като се появяват нови индустрии и услуги около напредналите ИИ системи.
– Ускоряването на AGI може да осигури първоначални предимства на компаниите и нации, които установяват стандарти в управлението и приложението на ИИ.

Недостатъци на Бързото Развитие на ИИ:
– Недостатъчни мерки за безопасност могат да доведат до непредвидени последици, включително склоненост към предвзетост, нарушаване на личната неприкосновеност и изгубване на работни места.
– По-бързото развитие може да пропусне дълбоките етични разглеждания, което може да доведе до злоупотреба или вредни обществени въздействия.
– Потенциалът на AGI да стане неконтролируем или да бъде използван злонамерено след като превиши нивата на човешката интелигентност.

Отговарящи Връзки:
– За повече сведения за последните разработки в областта на изкуствения интелект и управлението, можете да посетите основният сайт на AI research организацията OpenAI на OpenAI.
– За изследване на гледни точки за отговорния изкуствен интелект, посетете Института за бъдещето на живота, който се занимава с свързани теми, на Future of Life Institute.
– За обсъждания и насоки относно протоколите за безопасност и етиката на ИИ, се обърнете към основния сайт на Световната инициатива на IEEE за етиката на автономни и интелигентни системи на IEEE.

Моля, обърнете внимание, че горните връзки се отнасят към основните домейни на съответните организации съгласно указанията. Те не са директни връзки към конкретни статии или подстраници.

Privacy policy
Contact