Ви, напевно, бачили в Інтернеті відео з глибоким фейком, у яких факсиміле відомих людей потрапляють у дивні чи кумедні ситуації, наприклад, фальшивий Том Круз, який проводить «промислову чистку», або, у справжньому мета-зображенні, штучний Морган Фрімен, який агітує про «епоху». синтетичної реальності». А тепер уявіть, що вам дзвонить хтось, схожий на вашу дитину, і просить терміново допомогти. Та сама технологія, але ніхто не сміється.
Експерти з кібербезпеки кажуть, що технологія deepfake просунулася настільки, що її можна використовувати в режимі реального часу, дозволяючи шахраям відтворювати чийсь голос, зображення та рухи під час дзвінка чи віртуальної зустрічі. Технологія також широко доступна і відносно проста у використанні, кажуть вони. І щоразу стає краще.
«Завдяки інструментам штучного інтелекту, які створюють «синтетичні медіа» або іншим чином генерують контент, зростає відсоток того, що ми дивимося, неавтентично, і стає важче відрізнити», — попередила Федеральна торгова комісія.
Дослідники кажуть, що технологія глибоких фейків у реальному часі існує вже більшу частину десятиліття. Що нового, це набір інструментів, доступних для їх виготовлення.
«Ми знаємо, що ми не готові як суспільство» до цієї загрози, — сказав Ендрю Гарднер, віце-президент із досліджень, інновацій та штучного інтелекту Gen. шахрайство, і вам потрібна негайна допомога в його перевірці.
Дипфейки в реальному часі використовувалися, щоб налякати бабусь і дідусів, щоб вони надсилали гроші симульованим родичам, влаштовувалися на роботу в технологічних компаніях, намагаючись отримати внутрішню інформацію, впливати на виборців і викачувати гроші з самотніх чоловіків і жінок. Шахраї можуть скопіювати запис чийогось голосу, опублікований в Інтернеті, а потім використати аудіо, щоб видавати себе за кохану людину жертви; одного 23-річного чоловіка звинувачують у шахрайстві бабусь і дідусів у Ньюфаундленді на 200 000 доларів лише за три дні за допомогою цієї техніки.
Інструменти для відсіювання цього останнього покоління дипфейків також з’являються, але вони не завжди ефективні та можуть бути недоступними для вас. Тому експерти радять зробити кілька простих кроків, щоб захистити себе та своїх близьких від нового виду афер.
Термін deepfake — це скорочення для симуляції на основі технології глибокого навчання — штучного інтелекту, який поглинає океани даних, щоб спробувати відтворити щось людське, наприклад розмову (наприклад, ChatGPT) або створити ілюстрацію (наприклад, Dall-E). Гарднер сказав, що розробка цих інструментів все ще дорога та трудомістка, але використовувати їх порівняно швидко та легко.
Ісроель Мірскі, дослідник штучного інтелекту та експерт із дипфейку в Університеті Бен-Гуріона в Негеві, сказав, що технологія просунулася настільки, що стало можливим робити дипфейкове відео з однієї фотографії людини та «пристойного» клону голос лише з трьох-чотирьох секунд аудіо. Але Гарднер сказав, що широко доступні інструменти для створення глибоких фейків відстають від сучасного рівня; для них потрібно близько п’яти хвилин аудіо та від однієї до двох годин відео.
Незважаючи на це, завдяки таким сайтам, як Facebook, Instagram і YouTube, шахраї можуть знайти багато зображень і аудіо. Мірскі сказав, що легко уявити зловмисника, який дивиться у Facebook, щоб ідентифікувати дітей потенційної мішені, закликає сина записати достатньо аудіо, щоб клонувати його голос, а потім використовує глибокий фейк сина, щоб випрошувати у мішені гроші, щоб вийти із затору. певного виду.
За його словами, технологія стає настільки ефективною, що ви можете клонувати обличчя чи голос за допомогою звичайного ігрового комп’ютера. За його словами, програмне забезпечення «справді вказує та клацає», легко доступне в Інтернеті та налаштовується за допомогою базового програмування.
Щоб проілюструвати, наскільки ефективними можуть бути дипфейки в режимі реального часу, урядова група LexisNexis Risk Solutions поділилася відео, яке Девід Маймон, професор кримінології в Університеті штату Джорджія, вилучив із темної мережі, на якому зображено очевидну шахрайську операцію. Він показав онлайн-чат між літнім чоловіком і молодою жінкою, яка просила позику, щоб вона могла зустрітися з чоловіком у Канаді. Але в третьому вікні ви могли побачити, як чоловік насправді вимовляв слова, які виходили з вуст жінки жіночим голосом — вона була глибоким фейком, а він — шахраєм.
Ця техніка відома як реконструкція, заявили Мірскі та Венке Лі з Технологічного інституту Джорджії в статті, опублікованій у 2020 році. Її також можна використовувати для «здійснення актів наклепу, викликання дискредитації, поширення дезінформації та підробки доказів», пишуть вони. . Іншим підходом є заміна, коли обличчя або тіло цілі поміщається на когось іншого, як у порно-відео помсти.
Але як саме шахраї використовують інструменти, залишається трохи загадкою, сказав Гарднер. Це тому, що ми знаємо лише те, на чому їх спіймали.
Гейвуд Талков, виконавчий директор урядової групи LexisNexis Risk Solutions, сказав, що нова технологія може обійти деякі методи безпеки, які компанії використовують замість паролів. Наприклад, він вказав на каліфорнійський двоетапний процес онлайн-ідентифікації, який змушує користувачів завантажувати дві речі: фотографію водійських прав або посвідчення особи, а потім свіжо зроблене селфі. Шахраї можуть придбати фальшиве каліфорнійське посвідчення в Інтернеті за кілька доларів, а потім використовувати програмне забезпечення deepfake, щоб створити відповідне обличчя для селфі. «Це гарячий ніж крізь масло», — сказав він.
Так само Талков сказав, що фінансові компанії повинні припинити використовувати інструменти голосової ідентифікації для розблокування рахунків. «Я б нервував, якби [в] моєму банку мій голос був моїм паролем», — сказав він. «Просто використовуючи лише голос, це більше не працює». Те ж саме стосується розпізнавання обличчя, сказав він, додавши, що термін служби технології як спосіб контролю доступу закінчився.
Мережа підтримки кіберзлочинців, некомерційна організація, яка допомагає окремим особам і компаніям, які постраждали в Інтернеті, часто працює з об’єктами шахрайства в любовних стосунках і закликає людей проводити відеочати зі своїми залицяльниками, щоб спробувати відсіяти шахраїв. Еллі Армесон, програмний директор мережі, сказала, що лише два-три роки тому вони могли сказати клієнтам шукати збої, які легко помітити, як-от заморожені зображення. Але за останні тижні, за її словами, в мережу звернулися жертви шахраїв, які сказали, що спілкувалися у відеочаті протягом 10 або 20 хвилин зі своїм передбачуваним залицяльником, «і це була людина, яку вони надіслали мені на фото.»
Вона додала: «Жертви сказали: «Голова справді дивно виглядала на тілі, тому вона виглядала трохи збоченою». Але це незвично для людей, щоб ігнорувати червоні прапори, сказала вона. «Вони хочуть вірити, що відео справжнє, тому вони пропустять незначні розбіжності».
(Минулого року жертви любовних шахраїв у Сполучених Штатах повідомили про збитки на 1,3 мільярда доларів.)
Дипфейки в реальному часі також становлять нову небезпечну загрозу для бізнесу. Багато компаній навчають своїх співробітників розпізнавати фішингові атаки незнайомців, сказав Мірскі, але насправді ніхто не готується до дзвінків із глибоких фейків із клонованим голосом колеги чи боса.
«Люди будуть плутати знайомство з автентичністю», — сказав він. «І в результаті люди піддадуться цим атакам».
Як себе захистити
Talcove запропонував простий і складний спосіб захисту від глибоких фейків, які видають себе за члена сім’ї: майте секретне кодове слово, яке знає кожен член сім’ї, але яке злочинці не вгадають. Якщо дзвонить хтось, який називає себе вашою донькою, онуком або племінником, сказав Талков, запит на кодове слово може відрізнити справжніх близьких від несправжніх.
«Кожна родина зараз потребує кодового слова», — сказав він.
Виберіть щось просте, що легко запам’ятовується, що не потрібно записувати (і не буде опубліковано у Facebook чи Instagram), – сказав він, а потім запам’ятайте це в пам’яті вашої родини. «Ви повинні переконатися, що вони знають і практикують, практикують, практикують», — сказав Талков.
Гарднер також виступав за кодові слова. «Я думаю, що підготовка має велике значення для захисту від шахрайства з глибокими фейками», — сказав він.
Армесон сказала, що її мережа все ще говорить людям шукати певні підказки під час відеодзвінків, включно з тим, що їхній гаданий коханець занадто часто або занадто мало моргає, має брови, які не підходять до обличчя, або волосся в неправильному місці, і шкіру, яка не збігається їх вік. Якщо людина носить окуляри, перевірте, чи відображення, яке вони дають, реалістичне, кажуть у мережі: «дипфейки часто не повністю представляють природну фізику освітлення».
Вона також закликає людей провести такі прості тести: попросіть іншого учасника відеодзвінка повернути голову та покласти руку перед обличчям. За її словами, ці маневри можуть бути показовими, оскільки дипфейки часто не навчені виконувати їх реалістично.
Проте, зізналася вона, «ми просто граємо в захист». За її словами, шахраї «завжди будуть начебто попереду нас», усуваючи збої, які виявляють шахрайство. «Це обурює».
Зрештою, за її словами, найнадійнішим способом розкрити дипфейки може бути наполягання на особистій зустрічі. «Ми повинні бути справді аналогічними щодо цього. Ми не можемо покладатися лише на технології».
Існують програмні інструменти, які автоматично шукають збої та шаблони, згенеровані штучним інтелектом, щоб відокремити легітимне аудіо та відео від підроблених. Але Мірскі сказав, що «це потенційно програшна гра», тому що з удосконаленням технологій контрольні ознаки, які раніше виявляли підробки, зникнуть.
Мірскі та його команда з Університету Бен-Гуріона розробили інший підхід під назвою D-CAPTCHA, який працює за тим же принципом, який використовують деякі веб-сайти, щоб зупинити ботів від надсилання форм онлайн. Система D-CAPTCHA проводить тест, розроблений для того, щоб ввести в оману поточні дипфейки в реальному часі, наприклад, попросити абонентів наспівувати, сміятися, співати або просто відкашлятися.
Система, яку ще належить комерціалізувати, може прийняти форму кімнати очікування для автентифікації гостей, які відвідують конфіденційні віртуальні зустрічі, або програми, яка перевіряє підозрілих абонентів. Насправді, сказав Мірскі, «ми можемо розробити програми, які можуть спробувати вловити ці підозрілі дзвінки та перевірити їх, перш ніж вони будуть підключені».
Гарднер запропонував ще одну, сповнену надії ноту. За його словами, досвід, який люди мають зараз із штучним інтелектом і такими програмами, як ChatGPT, змусив людей швидше ставити під сумнів, що є справжнім, а що підробкою, і більш критично дивитися на те, що вони бачать.
«Я вважаю, що той факт, що люди ведуть розмови сам-на-сам зі ШІ, допомагає», — сказав він.
Comments