Штучний інтелект стрімко змінює не лише технологічну індустрію, а й сферу кібербезпеки. За даними нового звіту Microsoft Threat Intelligence, кіберзлочинці дедалі активніше застосовують інструменти штучного інтелекту для підготовки та проведення атак. Такі технології дозволяють їм прискорювати операції, масштабувати зловмисну діяльність і значно знижувати технічний поріг для проведення складних кібератак.
Фахівці компанії зазначають, що генеративні моделі ШІ сьогодні використовуються майже на всіх етапах атак — від початкової розвідки до дій після проникнення у систему.
Як саме зловмисники застосовують ШІ
За даними дослідників, генеративні моделі допомагають хакерам виконувати широкий спектр завдань. Найчастіше вони використовуються для створення фішингових листів, перекладу текстів, аналізу викрадених даних, а також для написання або виправлення шкідливого коду.
ШІ може допомогти злочинцям:
- створювати переконливі фішингові повідомлення;
- генерувати або вдосконалювати шкідливе програмне забезпечення;
- писати скрипти для атак;
- аналізувати викрадену інформацію;
- налаштовувати інфраструктуру для проведення кібероперацій.
У Microsoft підкреслюють, що штучний інтелект поки що не повністю автоматизує атаки, але працює як «множник ефективності». Тобто він прискорює виконання завдань і спрощує технічні процеси, тоді як остаточні рішення щодо цілей і тактики атак залишаються за людьми.
Приклади використання ШІ хакерськими групами
У звіті згадуються кілька кіберугруповань, які вже інтегрували штучний інтелект у свої операції. Серед них — північнокорейські групи Jasper Sleet (Storm-0287) та Coral Sleet (Storm-1877).
Ці групи використовують ШІ у схемах так званих «віддалених ІТ-працівників». Суть тактики полягає в тому, що зловмисники створюють фальшиві цифрові особистості та влаштовуються на роботу до західних компаній, отримуючи легітимний доступ до їхніх систем.
Генеративні моделі допомагають їм:
- створювати правдоподібні резюме;
- генерувати списки імен для різних країн;
- формувати реалістичні електронні адреси;
- писати професійні повідомлення для роботодавців.
Наприклад, хакери можуть попросити ШІ створити список із сотні грецьких імен або запропонувати варіанти адрес електронної пошти для конкретного імені. Отримані дані використовуються для створення переконливих фейкових профілів.
Крім того, штучний інтелект допомагає аналізувати вакансії на професійних платформах і визначати, які навички потрібні для конкретної посади. Потім ці вимоги використовуються для підготовки підроблених профілів кандидатів.
ШІ у створенні шкідливого програмного забезпечення
Ще один напрям використання штучного інтелекту — допомога у розробці шкідливих програм і створенні технічної інфраструктури для атак.
Зловмисники використовують інструменти ШІ для:
- написання фрагментів коду;
- виправлення помилок у шкідливих програмах;
- перенесення коду між різними мовами програмування;
- тестування та налаштування серверної інфраструктури.
У деяких випадках дослідники помітили експериментальні зразки шкідливого ПЗ, яке може динамічно змінювати свою поведінку або генерувати нові скрипти під час роботи.
Окремі групи також використовують ШІ для швидкого створення фальшивих сайтів компаній, налаштування серверів та тестування власних атак.
Як хакери обходять обмеження ШІ
Більшість сучасних систем штучного інтелекту мають вбудовані механізми безпеки, які повинні блокувати створення шкідливого коду. Однак кіберзлочинці намагаються обходити ці обмеження за допомогою так званих jailbreak-методів — спеціальних запитів, які змушують модель генерувати заборонений контент.
Таким чином, навіть системи з захисними механізмами можуть використовуватися у злочинних цілях.
Експерименти з автономним ШІ
Дослідники також помітили перші спроби використання агентного ШІ — систем, здатних виконувати завдання самостійно та адаптуватися до результатів. Втім, наразі такі технології використовуються обмежено. За словами експертів Microsoft, більшість кібероперацій із використанням ШІ все ще контролюються людьми, а штучний інтелект виконує допоміжну роль.
Глобальна тенденція
Microsoft — не єдина компанія, яка зафіксувала зростання використання ШІ кіберзлочинцями. Подібні висновки зробили також дослідники Google, які повідомили про активне застосування моделі Gemini на різних етапах атак.
Крім того, нещодавні дослідження Amazon та незалежних фахівців з кібербезпеки показали, що зловмисники використовували кілька генеративних сервісів ШІ у кампанії, яка призвела до зламу понад 600 мережевих екранів FortiGate.
Як захищатися від нових загроз
Фахівці Microsoft зазначають, що атаки з використанням штучного інтелекту часто виглядають так само, як і традиційні кібератаки. Тому організаціям варто приділяти увагу класичним методам захисту:
- виявленню аномального використання облікових даних;
- посиленню захисту від фішингу;
- контролю доступу до внутрішніх систем;
- захисту власних систем штучного інтелекту.
З огляду на швидкий розвиток технологій, експерти прогнозують, що роль штучного інтелекту у кіберзлочинності лише зростатиме. А це означає, що системи кібербезпеки також повинні активно адаптуватися до нових реалій цифрової епохи.