Бивш служител на OpenAI подчертава належащите AI проблеми за безопасност

Прозрения за Възникването на Супер-ИИ
Показванията в ИИ вдъхновяват дълбоки дискусии за бъдещи технологии, евентуално надминаващи човешкото интелигентност. Познат като изкуствен общ интелект (AGI), такова развитие, според вътрешници в индустрията, може да бъде забелязано вече след пет години, макар и оценките да варират от две до десет години.

Промяна в Посока на OpenAI
Основната философия на OpenAI, която се стремеше към изследвания в полза на хуманността, е еволюирала значително след огромната популярност на ChatGPT. Бившият работник на OpenAI Карол Уейнурайт изрази загриженост относно настоящите печалбени мотиви на компанията, които биха могли да преодолеят основната й мисия.

Три Големи Рискове на AGI
Уейнурайт обрисува заплахите, свързани с AGI. Заместването на квалифициран труд от човешкия работник е първата. Втората е общественото и психологическото въздействие от формирането на връзки между хората и изкуствените приятели или личните асистенти. Последният, все пак вероятно най-тревожният, е гарантирането, че напредналите модели на ИИ не отклоняват от служенето на човешките интереси или развиват собствени дневни редове.

Регулаторната Среда
Въпреки очакването на строгото спазване на бъдещите регулации от гигантите в областта на ИИ, Уейнурайт подчертава важността на въвеждането на междинна система, която позволява на загрижени работници в отрасъла на ИИ да докладват за усетени опасности чрез независим орган. Този призив идва в отсъствието на всестранно съществуващо регулиране, като първоначалният закон на ЕС за ИИ ще влезе в сила само през 2023 г., а антимонополните разследвания на технологичните гиганти в САЩ само сега започват.

Притесненията се увеличават от последната ратификация на законодателството за ИИ от Европейския парламент и от предстоящите антимонополни разследвания от страна на американски регулатори, насочени към Microsoft, OpenAI и Nvidia, които са планирани да прегледат техния влияние върху индустрията.

Допълнителни Значими Факти:

– Терминът „Супер-ИИ“ обикновено се отнася до Изкуствен Суперинтелект (ASI), който означава ниво на изкуствен интелект, което не само съответства, но и надминава човешкия интелект във всички области, включително креативност, емоционален интелект и решаване на проблеми.

– Проблемите на безопасността на ИИ са били подчертани от няколко изявителни фигури от науката и индустрията, включително Илън Мъск и починалия Стивън Хокинг, които предупреждават за потенциалните рискове, свързани с напредналия ИИ.

– OpenAI първоначално функционира като непечеливша организация за изследвания и цели да споделя своите резултати свободно, за да бъде от полза за човечеството като цяло. Преходът към модел с ограничена печалба чрез дъщерната фирма OpenAI LP през 2019 г. породи въпроси за ангажимента й с този етикет.

– Етичните и прозрачностни насоки за изследване и развитие на ИИ са предмет на горещи дебати в отрасъла, тъй като ИИ системите стават по-неотделими от личните, корпоративни и правителствени процеси за вземане на решения.

Ключови Въпроси:

1. Какви са главните проблеми на безопасност, свързани с напредналия AGI, и как могат да бъдат адресирани?
Напредналият AGI става предмет на безопасностни проблеми, включително, но не само, непредсказуемо поведение, вземане на решения, което може да навреди на човешките интереси, възможността за автономно подобрение и репликация и възможността за злоупотреба. Адресирането на тези проблеми изисква междисциплинарно сътрудничество за разработване на здрава ИИ етика, контролни механизми и регулаторни рамки.

2. Как може да функционира система за докладване за опасности от ИИ?
Система за докладване за опасности от ИИ може да функционира по сходен начин със закрилите за лицата, които разкриват рискове в други отрасли. Тя изисква законодателство, което защитава лицата, разкриващи рискове от ИИ, вероятно чрез независим комитет за надзор и механизми за анонимно докладване на опасности.

Ключови Предизвикателства и Контроверзии:

Съгласуваност: Има продължаващо предизвикателство в съгласуването на ИИ системите с човешките ценности и етика, известно като проблемът на съгласуване на ИИ, което е трудно поради сложността на човешките ценности и потенциала за неразбирателство или неправилно представяне на тях в програмирането на ИИ.

Регулация: Ефективната регулация на ИИ е друга контроверзия, като бързият темп на развитие на ИИ по отношение на обичайно по-бавния процес на законодателство предизвиква балансиране между иновация и публична безопасност.

Контрол: Тъй като ИИ системите стават по-мощни, тяхното поддържане под контрол на хората става все по-сложно. Това е познато като проблемът на контрола.

Предимства и Недостатъци:

Предимства:
– AGI има потенциал да реши сложни проблеми, които в момента са отвъд човешката възможност, като оптимизиране на логистиката за намаляване на излишъка, ускоряване на медицинските изследвания или управление на интелигентни градове за намаляване на енергийното потребление.

Недостатъци:
– Заместването на работни места поради ИИ не се ограничава само до ръчния труд, включва и квалифицирани професии, което може да доведе до значителна икономическа нарушеност.
– AGI може да вземе решения, които предпочитат ефективността или други програмирани цели пред човешкото благополучие.
– Отчитането на AGI може да подкопае човешките способности и умения чрез подизползване.

Препоръчани Свързани Връзки:
OpenAI
Европейската комисия по ИИ
Информация за Регулиране на ИИ (Забележка: Поради неизвестния характер на предоставения адрес „cloudintelligence.url“, той бе заместен с текст без хипервръзка, тъй като не може да бъде потвърдена валидността на URL).

Безопасността и етиката в ИИ са важни притеснения, като много от общността на ИИ проповядва отговорно развитие на ИИ системи, за да се гарантира, че иновациите са за полза на хуманността без ненамислени отрицателни последици.

The source of the article is from the blog regiozottegem.be

Privacy policy
Contact