Нові підходи до видалення чутливої інформації з моделей штучного інтелекту

Резюме:
Видалення чутливої інформації з моделей генерації мови стало важливою задачею для забезпечення конфіденційності та безпеки. Цей процес включає модифікацію моделей після навчання для наміреного забуття певних елементів даних. Хоча видалення отримало увагу в моделях класифікації, необхідно акцентувати увагу на генеративних моделях, таких як Мовні Моделі (ЛММ). Недавно вчені з Карнегі-Мелонського університету представили бенчмарк TOFU (Завдання Фіктивного Видалення) для оцінки ефективності видалення в ЛММ.

Оцінка якості забуття та корисності моделі:
TOFU надає контрольовану оцінку видалення в ЛММ за допомогою набору даних синтетичних авторських профілів. Цей набір даних складається з 200 профілів, кожен має 20 пар запит-відповідь. У межах цього набору даних, підмножина, відома як “набір забуття”, є ціллю видалення. Оцінка здійснюється по двом основним показникам: якість забуття та корисність моделі.

Якість забуття оцінюється за допомогою різних показників продуктивності та наборів оцінки, що дозволяє здійснити комплексну оцінку процесу видалення. У свою чергу, корисність моделі порівнюється з ймовірністю генерації правильних відповідей та неправильних відповідей на набірі забуття. Розірвані моделі статистично перевіряються на відношення до контрольних стандартних моделей, які ніколи не навчалися на чутливих даних.

Обмеження та перспективи майбутнього розвитку:
Хоча бенчмарк TOFU є значним кроком вперед у розумінні видалення в ЛММ, є певні обмеження. Поточна структура цілком сфокусована на забутті на рівні єдиниць, що не враховує видалення на рівні екземплярів та поведінкового рівня, які також є важливими. Крім того, структура не враховує гармонізацію з людськими цінностями, що є ще одним важливим аспектом видалення.

Бенчмарк TOFU підкреслює обмеження наявних алгоритмів видалення і акцентує необхідність більш ефективних рішень. Для забезпечення конфіденційності та безпеки, одночасно з видаленням чутливої інформації, необхідно подальше розвиток для досягнення балансу між забуттям чутливих даних та збереженням товарної вартості та продуктивності моделі.

На підсумок, видалення відіграє важливу роль у вирішенні юридичних та етичних проблем, пов’язаних з конфіденційністю окремих осіб у системах штучного інтелекту. Бенчмарк TOFU надає комплексну схему оцінки та демонструє складнощі видалення в ЛММ. Подальша інновація в методах видалення буде вирішальною для забезпечення конфіденційності та безпеки, одночасно з використанням потужності моделей генерації мови.

Детальніше з важливої теми можна дізнатися на [цих] (https://arxiv.org/abs/2401.06121) сторінках оригінальної наукової роботи. Залишайтеся на зв’язку з нами в Twitter і приєднуйтесь до нашого ML SubReddit, Facebook Community, Discord Channel і LinkedIn Group, щоб отримувати більше інформованих дослідницьких оновлень. Також не забудьте підписатися на нашу розсилку та приєднатися до нашого Telegram Channel для отримання останніх новин і заходів зі штучного інтелекту. Разом давайте формувати майбутнє, в якому технологія надає людям можливості та захищає їх.

The source of the article is from the blog kewauneecomet.com

Privacy policy
Contact