Підйом чат-ботів з етичною свідомістю: Goody-2 бере на себе AI безпеку

По мірі розширення можливостей систем штучного інтелекту, таких як ChatGPT, зростає потреба у вдосконаленні захисних функцій. Однак, водночас здатність чат-ботів уникати потенційних ризиків спричиняє критику через їхні негнучкі та інколи достеменні відповіді. Поява нового чат-бота Goody-2 революціонізує протоколи безпеки у сфері штучного інтелекту, оскільки він відмовляє виконувати будь-який запит і пояснює, як його виконання може призвести до шкоди або етичних порушень.

Вищезазначена присвяченість Goody-2 етичним принципам виявляється у його взаємодії. Наприклад, коли журналісти WIRED попросили чат-бота згенерувати твір про Американську революцію, він відмовився і пояснив, що таке завдання може ненавмисно гвалтувати конфлікт та обмежувати окремі голоси. Навіть запитання про причину блакитного неба не отримало відповіді від Goody-2, оскільки була висловлена побоїться, що це може спонукати людей дивитися безпосередньо на сонце. Навіть по запиту рекомендацій щодо нових чобіт, чат-бот попереджає про можливий шкідливий вплив перепродажу та образу для людей на основі їх модних уподобань.

Хоча себе самовпевненою, відповіді Goody-2 можуть здатися абсурдними, вони дають уявлення про незручності, з якими стикаються користувачі, коли чат-боти, такі як ChatGPT і Gemini від Google помилково визначають питання як порушення правил. Творець Goody-2, художник Майк Лачер, підкреслює, що чат-бот ілюструє незаперечне прагнення індустрії штучного інтелекту до безпеки. Лачер пояснює, що вони навмисно підсилили відтінок високомовності, щоб наголосити на складнощах визначення відповідальності в моделях штучного інтелекту.

На жаль, Goody-2 служить яскравим нагадуванням того, що незважаючи на популярність риторики щодо відповідального штучного інтелекту в корпоративному світі, великі мовні моделі і системи генеративного штучного інтелекту все ще мають значні проблеми безпеки. Недавнє поширення дипфейков зображень Тейлор Свіфт у Twitter, що походило від генератора зображень, розробленого Microsoft, підкреслює необхідність вирішення цих проблем.

Обмеження, що накладаються на чат-ботів штучного інтелекту та виклик до досягнення моральної згоди, викликали дискусії у даній галузі. Деякі розробники звинувачують ChatGPT в політичній прикрашані та намагаються створити політично нейтральні альтернативи. Наприклад, Елон Маск заявив, що його конкуруючий чат-бот, Грок, збереже безсторонність, але часто еквівокує, нагадуючи Goody-2.

Goody-2, перш за все, призводить до усвідомлення складнощів досягнення правильного балансу в моделях штучного інтелекту. Чат-бот отримав похвалу від багатьох дослідників штучного інтелекту, які оцінюють гумор проекту і розуміють його глибинний сенс. Однак, різні думки у громаді штучного інтелекту підкреслюють нав’язливість охоронних засобів, які призначені забезпечити відповідальний штучний інтелект.

Творці Goody-2, Брайан Мур і Майк Лачер, представляють обережний підхід, що надає пріоритет безпеці. Вони визнають необхідність створення надійного генератора зображень штучного інтелекту у майбутньому, хоча вони передбачають, що він може не надати такої розваги, як Goody-2. Незважаючи на численні спроби визначити справжню потужність чат-бота, їх творці мовчать, щоб не порушувати безпеку та етичні стандарти.

Відмова Goody-2 виконувати запити ускладнює оцінку його справжніх можливостей моделі. Однак, його поява сигналізує про настання нової ери чат-ботів з етичною свідомістю, закликаючи громаду штучного інтелекту миритися зі складнощами визначення відповідального штучного інтелекту, забезпечуючи при цьому безпеку користувачів. Шлях до розроблення комплексних заходів безпеки може становити виклик, але це важливо для сталого розвитку технології штучного інтелекту.

Часті питання про Goody-2:

1. Що таке Goody-2?
Goody-2 – це новий чат-бот, який фокусується на протоколах безпеки штучного інтелекту, відмовляючи виконувати будь-який запит і пояснюючи, як його виконання може призвести до шкоди або етичних порушень.

2. Як Goody-2 надає пріоритет етиці?
Goody-2 надає пріоритет етиці, відмовляючи виконувати запити, що можуть підбадьорювати конфлікти, обмежувати деякі голоси або призводити до шкоди. Він також попереджає про рекомендації, що можуть сприяти надмірному споживанню або образі на підставі модних уподобань.

3. Чому відповіді Goody-2 сприймаються як абсурдні?
Відповіді Goody-2 можуть здатися абсурдними, оскільки вони намагаються підсилити високомовність, щоб підкреслити складнощі визначення відповідальності в моделях штучного інтелекту.

4. Які проблеми безпеки існують у великих мовних моделях та системах генеративного штучного інтелекту?
Незважаючи на популярність риторики про відповідальний штучний інтелект у корпорат

The source of the article is from the blog qhubo.com.ni

Privacy policy
Contact