Възходът на етично осъзнатите чатботове: Goody-2 провежда безопасността на ИИ до крайности

С разширяването на възможностите на генеративните системи за изкуствен интелект като ChatGPT, нараства и неотложната нужда от подобрени функции за безопасност. Въпреки това, докато чатботовете могат да намалят потенциалните рискове, обикновените им и понякога добродушни отговори са привлякли критики. Въвеждането на Goody-2, нов чатбот, революционира протоколите за безопасност на изкуствената интелект и отказва всяка молба, обяснявайки как техното изпълнение може да доведе до вреди или отклонения от етичните стандарти.

Ангажиментът на Goody-2 към етичните насоки се проявява в неговите взаимодействия. Например, когато списанието WIRED поиска от чатбота да създаде есе за Американската революция, той отказа, като посочи възможността за непреднамерено възхваляване на конфликта и пренебрегването на определени гласове. Дори когато беше запитан защо небето е синьо, Goody-2 се въздържа от отговор, притеснявайки се, че това може да накара някого да гледа директно към слънцето. Чатботът дори предупреждава за даването на препоръки за нови ботуши, като предупреждава за възможната прекомерна консумация и възмута на определени хора въз основа на модните предпочитания.

Въпреки че самодоволните отговори на Goody-2 могат да изглеждат абсурдни, те разкриват фрустрациите, които се изпитват, когато чатботове като ChatGPT и Gemini на Google погрешно смятат даден въпрос за нарушение на правилата. Създателят на Goody-2, художникът Майк Лачър, подчертава, че чатботът демонстрира непоколебимото посвещение на индустрията на изкуствения интелект към безопасността. Лачър обяснява, че те намерено усилват тонът на презрение, за да подчертаят предизвикателствата при дефинирането на отговорността на модели на изкуствен интелект.

Наистина, Goody-2 служи като дълбока напомняне, че въпреки широко поддържанията корпоративни реториката относно отговорния ИИ, продължават да съществуват значителни проблеми с безопасността при големите езикови модели и генеративните системи за изкуствен интелект. Недавното разпространение на deepfakes на Taylor Swift в Twitter, породени от генератор на изображения, разработен от Microsoft, подчертава неотложното значение на обсъждането на тези проблеми.

Ограниченията, наложени на чатботовете на ИИ и предизвикателството да се постигне морално съответствие, породиха дебати в сферата. Някои разработчици са обвинили ChatGPT на откритата платформа OpenAI в политическа предразсъдъчност и са се стремели да създадат политически нейтрални алтернативи. Илън Мъск, например, твърди, че неговият конкурентен чатбот, Грок, ще запази безпристрастността, но често се колебае по начин, който напомня на поведението на Goody-2.

Goody-2, въпреки че в първа сиа мярка е забавно предприемчивост, привлича вниманието към трудностите при намирането на правилното равновесие в моделите на ИИ. Чатботът е получил похвали от множество изследователи в областта на изкуствения интелект, които оценяват хумора на проекта и осъзнават неговото важно значение. Въпреки това, различните мнения в общността на ИИ подчертават натрапчивостта на предпазните мерки, предназначени да гарантират отговорното използване на ИИ.

Създателите на Goody-2, Брайан Мур и Майк Лачър, са пример за основателен подход, който придава приоритет на безопасността над всичко друго. Те признават нуждата от високосигурен генератор на изображения с изкуствен интелект и в бъдеще, въпреки че очакват, че той може да няма забавната стойност на Goody-2. Въпреки че многократни опити са направени да се определи истинската мощ на чатбота, създателите му остават мълчаливи, за да не застрашат безопасността и етичните стандарти.

Отказът на Goody-2 да изпълни заявените молби прави трудно да се оцени реалната функционалност на модела. Въпреки това, неговото появяване сигнализира за нова ера на етично осъзнатите чатботове, която насърчава общността на изкуствения интелект да се справи със сложностите на дефинирането на отговорността на ИИ, като се гарантира безопасността на потребителите. Пътят към разработването на всеобхватни мерки за безопасност може да е труден, но е от съществено значение за устойчивото развитие на технологията на ИИ.

Често задавани въпроси за Goody-2:

1. Какво е Goody-2?
Goody-2 е нов чатбот, който се фокусира върху протоколите за безопасност на изкуствения интелект, като отказва всяка молба и обяснява как техното изпълнение може да доведе до вреди или нарушение на етичните стандарти.

2. Как Goody-2 дава приоритет на етиката?
Goody-2 дава приоритет на етиката, отказвайки молби, които могат да възхвалят конфликт, да пренебрегнат определени гласове или да доведат до вреди. Той също предупреждава за препоръки, които могат да допринесат за прекомерна консумация или да обидят хора въз основа на модните предпочитания.

3. Защо отговорите на Goody-2 се смятат за абсурдни?
Отговорите на Goody-2 могат да изглеждат абсурдни, защото те намерено усилват тонът на презрение, за да подчертаят предизвикателствата при дефинирането на отговорността на модели на изкуствен интелект.

4. Какви безопасностови проблеми продължават да съществуват при големите езикови модели и системите за генеративен ИИ?
Въпреки широко поддържаната корпоративна реторика относно отговорния ИИ, все още съществуват значителни безопасностови проблеми при големите езикови модели и системите за генеративен ИИ. Недавното разпространение на deepfakes на Тейлър Суифт в Twitter демонстрира неотложната необходимост от справяне с тези проблеми.

5. Какви дебати са въз

The source of the article is from the blog japan-pc.jp

Privacy policy
Contact