OpenAI видалила групи загроз державного рівня, які використовували Штучний Інтелект для злочинних цілей

OpenAI прийняла рішучі заходи щодо видалення облікових записів, пов’язаних з державно-спонсорованими групами хакерів з Росії, Китаю, Ірану та Північної Кореї, що використовували свого чат-бота із штучним інтелектом, ChatGPT, для злоякісних цілей. Це значущий крок у забезпеченні цілісності та безпеки платформи.

Облікові записи, пов’язані з цими групами загроз, а саме Forest Blizzard (Росія), Emerald Sleet (Північна Корея), Crimson Sandstorm (Іран), Charcoal Typhoon (Китай) та Salmon Typhoon (Китай), експлуатували ChatGPT для різних дій, пов’язаних із їхніми кіберопераціями. Хакери використовували можливості ChatGPT для проведення досліджень, оптимізації своїх операцій, покращення тактики ухилів та збору чутливої інформації.

Незважаючи на те, що OpenAI та Microsoft виявили збільшення сегментів складних та постійних загроз (APT), таких як фішинг та соціальний інжиніринг, більшість спостережуваних дій були дослідницького характеру. Групи загроз використовували ChatGPT для таких цілей, як дослідження військових технологій, генерація контенту для атак фишингу, пошук проблем у веб-технологіях та розробка тактик ухилення.

Варто зазначити, що державно-спонсоровані хакери не розробляли шкідливе програмне забезпечення або спеціалізовані інструменти для експлуатації, використовуючи великі мовні моделі. Вони головним чином шукали допомогу щодо завдань на нижньому рівні, таких як поради з ухилення, скриптінг та оптимізація технічних операцій.

OpenAI спільно з командою загроз безпеці Microsoft вжили негайних заходів щодо цих зловживаючих облікових записів після отримання критичної інформації. Видалення цих облікових записів свідчить про зобов’язання забезпечувати безпеку й цілісність платформи.

Шляхом розуміння, як ці складні загрози використовують системи ШІ, OpenAI отримує цінні уявлення про сучасні тенденції та практики, які можуть потенційно пошкодити платформу у майбутньому. Ці знання дозволяють організації постійно розвиватися та посилювати свої заходи захисту від зловживання.

OpenAI залишається бджолою в моніторингу й припиненні дій державно-спонсорованих хакерів, використовуючи спеціалізовану технологію моніторингу, партнерства з промисловістю та команди, які спеціалізуються на виявленні підозрілих використання. Постійна присвяченість безпеці й безпеці підкреслює зобов’язання забезпечувати надійну ШІ платформу.

Розділ з питань і відповідей

П: Чому OpenAI видалила певні облікові записи зі свого чат-бота із штучним інтелектом, ChatGPT?
В: OpenAI видалила облікові записи, пов’язані з державно-спонсорованими групами хакерів з Росії, Китаю, Ірану та Північної Кореї, які використовували ChatGPT для злоякісних цілей.

П: Що робили ці загрози з ChatGPT?
В: Ці загрози використовували ChatGPT для різних дій, пов’язаних із їхніми кіберопераціями, включаючи дослідження, оптимізацію операцій, поліпшення тактики ухилення та збір чутливої інформації.

П: Чи розробляли хакери шкідливе програмне забезпечення або спеціалізовані інструменти за допомогою великих мовних моделей?
В: Ні, державно-спонсоровані хакери не розробляли шкідливе програмне забезпечення або спеціалізовані інструменти для експлуатації за допомогою великих мовних моделей. Вони головним чином шукали допомогу щодо завдань на нижньому рівні, таких як поради з ухилення, скриптінг та оптимізація технічних операцій.

П: Які заходи вжив OpenAI проти цих зловживаючих облікових записів?
В: OpenAI спільно з командою загроз безпеці Microsoft негайно вжили заходів до видалення цих зловживаючих облікових записів після отримання критичної інформації.

П: Як OpenAI забезпечує безпеку й цілісність своєї платформи?
В: OpenAI залишається бджолою в моніторингу й припиненні дій державно-спонсорованих хакерів, використовуючи спеціалізовану технологію моніторингу, партнерства з промисловістю та команди, які спеціалізуються на виявленні підозрілих використання.

Визначення ключових термінів

– APTs: Постійні складні загрози відносяться до складних кібератак зазвичай, які виконуються державними групами хакерів.
– Рибалка: Це спеціальний вид фішингу, при якому зловмисники відправляють персоналізовані електронні листи конкретним особам або організаціям з метою підштовхнути їх розкрити конфіденційну інформацію або завантажити шкідливий вміст.
– Тактика ухилення: Техніки, що використовуються для ухилення від виявлення або уникання заходів безпеки.
– Соціальний інжиніринг: Маніпулювання фізичними особами з метою підштовхнути їх розкрити конфіденційну інформацію або виконати дії, що можуть підірвати безпеку.

Рекомендовані посилання

– OpenAI
– Microsoft

The source of the article is from the blog anexartiti.gr

Privacy policy
Contact