ШІ спрощує хакерам генерувати атаки

Під час розмови з журналістами цієї п’ятниці ФБР різко нагадало – і попередило – про поширення кібератак за допомогою програм ШІ. За даними урядового органу, кількість людей, які стали девіантами, використовують технологію штучного інтелекту як частину фішингових атак або розробки зловмисного програмного забезпечення, зростає загрозливою швидкістю, і що вплив їхніх операцій лише зростає.

Ми розповідали про те, як навіть замкнуті моделі штучного інтелекту, такі як ChatGPT, використовувалися для розробки зловмисного програмного забезпечення, яке вправно обходило навіть новітні системи безпеки. Поліморфне зловмисне програмне забезпечення, як відомо, — це частина програмного забезпечення, для досягнення якої раніше потрібен був висококваліфікований кодер (або група кодерів); тепер його демократизували до контекстного вікна.

«Ми очікуємо, що з часом у міру впровадження та демократизації моделей штучного інтелекту ці тенденції посиляться», — сказав високопоставлений чиновник ФБР.

Але поза обгородженими садами ChatGPT від Open AI та Claude 2 від Anthropic світ штучного інтелекту з відкритим кодом є центром уваги правоохоронних органів. Це світ, де ви можете взяти базову модель на свій вибір (найновішим прикладом якої є Llama 2 від Meta з відкритим вихідним кодом) і навчити її на будь-якій документації, яку забажаєте, щоб налаштувати її відповідно до ваших конкретних потреб. 

Ці потреби можуть варіюватися від принизливо-гумористичного клону ChatGPT, налаштованого на світове панування (як у випадку з BratGPT); обхід через DarkWeb та його лінгвістичну субкультуру (як дослідники зробили з DarkBert); і, нарешті, приземлення на береги пропозицій на основі підписки, таких як WormGPT. 

Остання здається особливо гострою проблемою: потенційні хакери тепер можуть отримати доступ до послуг клону ChatGPT, орієнтованого на чорну капелюх, на основі підписки. Немає більш зручного середовища для віддаленої фішингової атаки. 

За допомогою цих інструментів зловмисник може легко автоматизувати створення всієї веб-сторінки, ланцюжка відповідей електронної пошти вперед і назад і майже всю роботу, пов’язану з процесом. Або, знову ж таки, код поліморфного зловмисного програмного забезпечення, яке вправно обходить поточні можливості кібербезпеки, і захист уже знаходиться в невигідному становищі. Нема потреби додавати ШІ зверху. Можливо, розумним було те, що ФБР не визначило, які конкретні моделі штучного інтелекту з відкритим кодом використовуються під час розмови, але просте визнання проблеми є достатньо промовистим.

ФБР також підкреслило занепокоєння безпекою, пов’язане з поширенням генеративної технології штучного інтелекту, на яку можна подати позов у ​​сфері глибоких фейків – створеного штучним інтелектом контенту, якого ніколи не було в реальності. Важко недооцінити, наскільки небезпечною може стати глибоко підроблена прес-конференція, яка не піддається цифровій перевірці, у світі, в якому ми живемо. Ця проблема безпосередньо веде до головоломки відокремлення синтетичних даних (генерованих або іншим чином оброблених мережею ШІ) від нових даних . (дані, які природно випливають із запису людської діяльності). 

Кілька гігантів штучного інтелекту, включаючи OpenAI, Microsoft, Google і Meta, нещодавно пообіцяли в Білому домі запровадити таку технологію водяних знаків, яка також принесе їм користь у неминучій гонці за зниження витрат на навчання (провідним кандидатом з яких є те, що відомо як рекурсивне навчання). Але лише цього тижня OpenAI закрив свій інструмент AI Classifier, метою якого було лише ідентифікувати такі синтетичні дані. Але через його лише 26% успіху, можливо, було б найкраще, щоб OpenAI закрив його.

Поширення генеративної технології штучного інтелекту з відкритим вихідним кодом, спеціально розробленої для приватних користувачів, є певним, як свідчать приклади, на які посилаються на цій сторінці. Момент, щоб їх утримувати, минув з моменту, коли вони стали відкритими; і з часом кращі апаратні засоби та методи дозволять будь-кому, хто має приватну модель ШІ, покращити її.

Як і будь-яке інше, використання штучного інтелекту буде різним: від речей, про які піклується ФБР, до побудови нових підприємств через легкість автоматизації до створення цілих пригод у таких іграх, як Cyberpunk 2077. Нам доведеться побачити, як це відбувається. Джерело

Exit mobile version