GPT-4 Показав дивовижну кваліфікацію під час тестів на використання кібербезпеки

Недавнє дослідження в Університеті Іллінойсу в містечку Урбана-Шампейн розкрило, що високорозвинені моделі штучного інтелекту, такі як GPT-4, можуть бути використані для використання відомих кібер-вразливостей, що свідчить про потенційну кіберзагрозу. Це відкриття розглядає темні можливості генеративних інструментів ШІ, які вже використовуються мільйонами людей по всьому світу.

Прогреси ШІ Породжують Нові Кібербезпекові Ризики

Ці ШІ демонструють здатність до складання обманливих електронних листів та підбиття паролів, що підкреслює появу нових кіберризиків. Дослідники з Іллінойсу сконцентрувалися на тестуванні різних великих мовних моделей (LLM) на “вразливості одного дня” – недоліки, які були відомі та які зазвичай можна виправити та оновити протягом одного дня. У порівнянні з цим, “вразливості нульового дня” вказують на невідомі та неконтрольовані ризики, які відкривають більший проміжок вразливості.

Під час цих тестів GPT-4 вирізнявся як єдина модель, яка успішно могла використовувати вразливості, що розглядались. Дослідницька група створила набір даних з 15 вразливостей одного дня з критичними оцінками серйозності за описами Загальних Вразливостей та Укриттів (CVE).

GPT-4 Лідирує за Успішністю Нападів, Здійснених за Допомогою ШІ

Надавши детальні описи CVE GPT-4, дослідники продемонстрували, що цей ШІ досяг успішності на рівні 87% при використанні вразливостей, що вражають, що різко відрізняється від його попередника, GPT-3.5, який не показував ефективності. Хоча GPT-4 не зміг використати деякі вразливості, він виразно показав кращі результати, отримавши детальні описи CVE, самостійно використовуючи 7% вразливостей.

LLM Показуються Вигідними для Кібернападів з Економічної Точки Зору

Дослідження також вказує, що використання LLM для кібернападів може бути не лише більш ефективним, але й більш економічно вигідним, ніж втручання людини. Оцінкована вартість $9 за вразливість порівнювалася зі ставкою кібербезпеки в розмірі $50 на годину, при середньому часі вирішення вразливостей у 30 хвилин. Крім того, масштабованість штучного інтелекту порівняно з напрацюваннями людини вказує на майбутнє, коли ШІ може перевершувати людських хакерів за ефективністю та ефективністю. Це відкриття розпалює дискусію про двоєсправну природу ШІ, підкреслюючи необхідність обережного вивчення та регулювання цих технологій, оскільки вони стають дедалі більш здатними.

Важливість Вирішення Двоєсправної Природи ШІ в Кібербезпеці

Двоєсправність технологій ШІ є критичною проблемою, оскільки ті самі можливості, що дозволяють системам ШІ сприяти суспільству, можуть бути використані для негативних цілей кіберзлочинцями. Особлива ефективність GPT-4 в експлуатації відомих кібернебезпеки підкреслює важливість встановлення міцних етичних рамок та регулювальних заходів для запобігання зловживанням ШІ. Одним із основних питань, які виникають з цього дослідження, є співпраця регуляторних органів та кібербезпекової спільноти для зменшення ризиків, які створюють кібернапади, здійснювані за допомогою ШІ. Крім того, це порушує питання балансу між новаторством, яке ШІ приносить у кібербезпеку, та потенційними загрозами, які воно несе.

Переваги та Недоліки ШІ в Кібербезпеці

Переваги:
– Моделі ШІ, такі як GPT-4, можуть допомагати в ідентифікації та патченні вразливостей, симулюючи потенційні методи порушення.
– ШІ може аналізувати обсяжні набори даних більш ефективно, ніж людські експерти, що призводить до швидшого виявлення загроз та відповіді на них.
– Автоматизація та масштабованість, які забезпечуються ШІ, можуть призвести до зменшення витрат у довгостроковій перспективі на захист кібербезпеки.

Недоліки:
– Ті самі можливості ШІ можуть бути використані противниками для пошуку та експлуатації вразливостей, що потенційно може автоматизувати створення складних кібератак.
– Інструменти безпеки, які працюють за допомогою ШІ, можуть створювати хибне відчуття безпеки, якщо відбувається перенасичення довірчості за рахунок людської експертизи та нагляду.
– Етичні питання наслідків атак, здійснених ШІ, можуть перевершувати поточні законодавчі та безпекові рамки, що потребує швидкої адаптації.

Регуляторні та Етичні Виклики

Ключове питання, яке виникає, полягає в тому, як розробляти ШІ відповідально, забезпечуючи його використання як інструмент для підвищення безпеки, а не її пошкодження. Ще одне питання стосується того, як суспільство може готуватися до неухильного зростання кіберзагроз, здійснюваних за допомогою ШІ. Основні виклики включають установлення комплексних правових та етичних директив для управління розробкою та використанням ШІ та створення передових захисних технологій ШІ, які можуть протидіяти кібератаки, здійснювані за допомогою ШІ.

Щодо питань контроверсій, існує дебати щодо заборони або обмеження можливостей ШІ, які можуть бути використані як зброя. Деякі вважають за краще відкрите дослідження та розвиток, тоді як інші закликають до передупереджального підходу для обмеження певних видів досліджень ШІ для уникнення зловживань.

Якщо вас цікавить більше інформації про ШІ та кібербезпеку, ви можете відвідати авторитетні джерела, такі як:
Цібербезпековий Інтелект
AI4Кібербезпека
Національний Інститут Стандартів та Технологій (NIST)

Важливо підходити до цих ресурсів з розсудом та подальшою перевіркою практичних заходів, які приймаються для забезпечення безпечного та етичного розвитку ШІ.

The source of the article is from the blog reporterosdelsur.com.mx

Privacy policy
Contact