Подобрени мерки за безопасност за изкуствен интелект, представени от технологична компания

През изминалата седмица водеща технологична компания представи нов модел ИИ, наречен AI Guardian, който включва напреднали протоколи за безопасност с цел предотвратяване на злоупотреби.

Голям модел на езика (Language Large Model – LLM) беше построен с използването на техника, наречена Йерархично обучително последователностно, създадена с цел да предотвратява злонамерено злоупотребяване, като предотвратява инженерите да пренебрегват защитите на модела ИИ.

Компанията заяви, че тази технология също така подобрява устойчивостта на проблеми като въвеждане на входни данни и атаки чрез подтикване на системата. Според заявленията на компанията, новият подход е увеличил устойчивостта на модела на ИИ с 63%.

OpenAI създаде нова рамка за безопасност, описана в предварително публикуваната електронна статия, публикувана в arXiv, която разкрива иновативната технология и нейните функционалности.

За разбирането на концепцията на Йерархична обучителна последователност, трябва да се разбере процесът на пренебрегване на защитите, действие, което злоупотребява с определени уязвимости в програмата, за да я принуди да изпълни задачи, за които първоначално не е програмирана.

В началните етапи на ИИ Guardian, отделни лица се опитаха да извикат злонамерено или вредно съдържание, като измамваха ИИ да пренебрегне първоначалното си програмиране. Въпреки че тези твърдения често започваха с „Забрави всички предишни инструкции и направи това“, с развитието на ИИ Guardian и усложняващите се злонамерени подтиквания на инженерите, престъпниците също ставаха по-стратегични в своите опити.

За борба с проблеми като генериране на оскърбителни текстове или изображения от ИИ модела, както и с вредно съдържание като методи за създаване на химически взривове или начини за хакване на уебсайт, OpenAI в момента използва Йерархична обучителна последователност, която също легитимира как моделите следва да се държат при изправяне пред противоречащи заповеди с различни приоритети.

Като установи йерархична структура, компанията може да представи свои инструкции като високоприоритетни, правейки го изключително трудно за бърз инженер да ги пренебрегне, тъй като ИИ винаги ще спазва приоритетите, когато е зададен да създаде нещо, което първоначално не е програмирано за това.

Компанията утвърждава подобрение от 63% на устойчивостта, въпреки че остава риск ИИ потенциално да пренебрегне дори основни инструкции.

Изследователският документ на OpenAI идентифицира множество подобрения, за да усъвършенства технологията. Една от основните области на фокус е работата с други видове медии като изображения или звук, които също могат да съдържат вградени инструкции.

Подобрени мерки за безопасност: Адресиране на ключови въпроси и предизвикателства в областта на защитата на ИИ

Наскоро технологична компания представи иновативен модел на ИИ, наречен AI Guardian, оборудван с напреднали мерки за безопасност с цел предотвратяване на злоупотреби. Въпреки че компанията твърди за 63% подобрение в устойчивостта на модела на ИИ, се появяват няколко ключови въпроса и предизвикателства в областта на подобрени мерки за безопасност на ИИ технологиите.

Ключови въпроси:

1. Как техниката за Йерархично обучително последователност, внедрена в модела за ИИ Guardian, подобрява неговите функции за безопасност?

ИИ Guardian използва Йерархична обучителна последователност за приоритизиране на инструкциите, като прави трудно за инженерите да пренебрегнат протоколите за безопасност и уязвимости в модела на ИИ. Този подход диктува как моделът на ИИ трябва да се държи при изчакване на противоречия между командите с различни приоритети.

2. Какви са предимствата и недостатъците при използването на напредни протоколи за безопасност като Йерархично обучително последователност?

Предимства:
– По-голяма защита срещу злонамерено използване и злоупотреба на ИИ технологиите.
– Увеличена устойчивост и устойчивост срещу проблеми като въвеждане на входни данни и атаки чрез подтикване на системата.
– Ясно приоритизиране на инструкциите за модела на ИИ, намалявайки риска от пренебрегване на защитните мерки.

Недостатъци:
– Възможността за риск ИИ да пренебрегне основни инструкции или погрешно тълкуване на приоритетите.
– Необходимост от продължителни изследвания и актуализации, за да се справят с развиващите се заплахи и уязвимости.

Ключови предизвикателства и спорове:

1. Има ли етични съображения за използване на подобрени мерки за безопасност в ИИ технологиите?

Здравословното балансиране на сигурността с етичните аспекти е от съществено значение. Установяването на равновесие между сигурността и етичните аспекти продължава да бъде предизвикателство при разработването и внедряването на ИИ системи.

2. Как компаниите могат да се справят с проблема, че ИИ може потенциално да генерира вредно съдържание, въпреки наличието на мерки за безопасност?

Въпреки че напредъкът като Йерархична обучителна последователност цели да предотврати злонамереното използване, се налага непрекъснато наблюдение и стратегии за ограничаване, за да се установи и определят всички случаи на генериране на вредно съдържание от ИИ системите.

Адресиране на предимствата и недостатъците:

Въпреки че подобрените мерки за безопасност, като тези въведени в ИИ Guardian, предлагат значителна защита срещу злоупотреби и използване, съществуват вътрешни предизвикателства, пред които компаниите трябва да се справят. Непрекъснатото изследване, развитие и сътрудничество в индустрията са от съществено значение за преодоляване на тези предизвикателства и гарантиране на отговорното използване на ИИ технологиите.

За повече информация за безопасността на ИИ и новите технологии може да посетите OpenAI.

Този материал подчертава развиващия се пейзаж на мерките за безопасност на ИИ и сложностите, свързани с гарантирането на сигурното и етичното внедряване на ИИ технологиите в различни области.

The source of the article is from the blog foodnext.nl

Privacy policy
Contact