Визначити, що є реальним в Інтернеті, стає все складніше. Але є кроки, які ви можете зробити, щоб впоратися з цим. За півтора року до президентських виборів 2024 року Національний комітет Республіканської партії почав розміщувати нападки на президента Джо Байдена. Однак цього разу комітет зробив щось інше.
Він використовував генеративний штучний інтелект, щоб створити політичну рекламу, наповнену зображеннями, що зображують альтернативну реальність із партизанським ухилом — те, як ми хочемо переконати, як виглядала б країна, якби Байдена переобрали. У рекламі миготять зображення мігрантів, які натовпами перетинають кордони США, світова війна неминуча, а солдати патрулюють вулиці безплідних міст США. А у верхньому лівому куті відео невелике, слабке повідомлення про відмову від відповідальності, яке легко не помітити, написано: «Створено повністю за допомогою зображень штучного інтелекту».
Незрозуміло, які підказки використав RNC для створення цього відео. Комітет не відповів на запити щодо додаткової інформації. Але, безсумнівно, здається, що це спрацювало на основі таких ідей, як «розруха», «розвал уряду» та «економічний крах».
Політична реклама — не єдине місце, де ми можемо спостерігати дезінформацію через зображення та тексти, згенеровані ШІ. І вони не завжди матимуть попереджувальний ярлик. Наприклад, фейкові зображення Папи Франциска в стильній пуховій куртці стали вірусними в березні, помилково припускаючи, що релігійний лідер моделював одяг від розкішного модного бренду Balenciaga. Відео TikTok із вулицями Парижа, засміченими сміттям, цього місяця зібрало більше ніж 400 000 переглядів, і всі зображення були абсолютно фальшивими.
Генеративні інструменти штучного інтелекту, такі як ChatGPT від OpenAI та Google Bard, були найбільш обговорюваною технологією 2023 року, без жодних ознак спаду практично в усіх сферах, від комп’ютерного програмування до журналістики та освіти. Технологія використовується для публікацій у соціальних мережах, великих телешоу та написання книг . Такі компанії, як Microsoft, інвестують мільярди в ШІ.
Генеративні інструменти штучного інтелекту — створені з використанням величезних обсягів даних, часто поглинутих з Інтернету, а іноді й із закритих джерел — запрограмовані на відповідь на запит або відповідь на підказку шляхом генерування тексту, зображень, аудіо чи інших форм медіа. Такі завдання, як створення фотографій, написання коду та створення музики, можна легко виконати за допомогою інструментів ШІ; просто налаштуйте підказку, доки не отримаєте те, що хочете. Це спонукало одних до творчості, тоді як інші стурбовані потенційними загрозами від цих систем ШІ.
Проблеми виникають, коли ми не можемо відрізнити ШІ від реальності. Або коли створений штучним інтелектом контент навмисно створюється для того, щоб ввести людей в оману — тобто не просто неправильна інформація (неправильна або оманлива інформація), а й дезінформація (неправдиві відомості, спрямовані на введення в оману або завдання шкоди). Ті, хто прагне поширювати дезінформацію, можуть використовувати генеративний штучний інтелект для створення підробленого контенту за невеликі витрати, і експерти кажуть, що результат може краще обдурити громадськість, ніж створений людьми контент.
Потенційна шкода від дезінформації, створеної штучним інтелектом, може бути серйозною: вона може вплинути на голоси або похитнути фондовий ринок. Генеративний ШІ також може підірвати довіру та наше спільне відчуття реальності, каже експерт ШІ Васім Халед.
«Оскільки штучний інтелект стирає межу між фактом і вигадкою, ми бачимо зростання кампаній з дезінформації та дипфейків, які можуть маніпулювати громадською думкою та підривати демократичні процеси», — сказав Васім Халед, генеральний директор і співзасновник Blackbird.AI, компанії, яка надає підприємствам розповідь на основі штучного інтелекту та інформацію про ризики. «Це викривлення реальності загрожує підірвати суспільну довіру та створює значні суспільні та етичні проблеми».
ШІ вже використовується для дезінформації, хоча технічні гіганти, які створили цю технологію, намагаються мінімізувати ризики. Хоча експерти не впевнені, чи є у нас інструменти, щоб зупинити зловживання штучним інтелектом, у них є кілька порад щодо того, як його виявити та уповільнити його поширення.
Що таке дезінформація AI і чому вона ефективна?
Технології завжди були інструментом для дезінформації. Незалежно від того, чи це електронний лист, наповнений божевільними змовами, який пересилає родич, дописи у Facebook про COVID-19 чи автоматичні дзвінки, що поширюють неправдиві заяви про голосування поштою, ті, хто хоче обдурити громадськість, використовуватимуть технології для досягнення своїх цілей. Останніми роками це стало настільки серйозною проблемою — частково завдяки соціальним мережам, які надали інструмент для розповсюдження дезінформації, — що головний хірург США доктор Вівек Мерті назвав це «невідкладною загрозою» у 2021 році, заявивши, що дезінформація про COVID завдає шкоди. живе під загрозою.
Технологія генеративного штучного інтелекту далека від досконалості — чат-боти штучного інтелекту можуть давати відповіді, які насправді є неправильними, а створені штучним інтелектом зображення можуть мати дивовижний вигляд долини — але нею легко користуватися. Саме ця простота використання робить генеративні інструменти ШІ придатними для зловживань.
Дезінформація, створена ШІ, має різні форми. У травні російське державне інформаційне агентство RT.com опублікувало в Twitter фейкове зображення вибуху біля Пентагону у Вашингтоні, округ Колумбія. Експерти, яких цитує NBC, кажуть, що зображення, ймовірно, було створено ШІ, і воно стало вірусним у соціальних мережах, спричинивши падіння на фондовому ринку.
NewsGuard, організація, яка оцінює надійність новинних сайтів, виявила понад 300 сайтів, які вона називає «ненадійними новинними та інформаційними веб-сайтами, створеними ШІ». Ці сайти мають загальні, але законні назви, але створений вміст містить деякі неправдиві твердження, як-от містифікації про смерть знаменитостей та інші фейкові події.
Ці приклади можуть здатися очевидними підробками більш кмітливим користувачам онлайн, але контент, створений штучним інтелектом, покращується, і його важче виявити. Він також стає переконливішим, що корисно для зловмисників, які намагаються проштовхнути план за допомогою пропаганди.
«Дезінформація, створена за допомогою штучного інтелекту, насправді має більшу емоційну привабливість», — сказав Мунмун де Чоудхурі, доцент Школи інтерактивних обчислень Georgia Tech і співавтор дослідження, присвяченого дезінформації, створеній штучним інтелектом, опублікованому у квітні.
«Ви можете просто використовувати ці генеративні інструменти штучного інтелекту, щоб генерувати дуже переконливу, точну на вигляд інформацію та використовувати її для просування будь-якої пропаганди чи політичних інтересів, які вони намагаються просунути», — сказав де Чоудхурі. «Такий тип зловживання є однією з найбільших загроз, які я бачу в майбутньому».
Погані актори, які використовують генеративний ШІ, можуть підвищити якість своєї дезінформації, створюючи більш емоційну привабливість, але є випадки, коли ШІ не потрібно говорити створювати неправдиву інформацію. Він робить це сам, що потім може мимоволі поширюватися.
Дезінформація не завжди є навмисною. Штучний інтелект може генерувати власну неправдиву інформацію, яка називається галюцинацією, сказав Джавін Вест, доцент інформаційної школи Університету Вашингтона та співзасновник Центру інформованої громадськості, у своїй презентації Mini MisinfoDay у травні.
Коли штучному інтелекту дають завдання, він повинен генерувати відповідь на основі реальних даних. Однак у деяких випадках штучний інтелект фабрикує джерела, тобто «галюцинує». Це можуть бути посилання на певні книги, яких не існує, або статті новин, видані за відомі веб-сайти, як-от The Guardian.
Бард Google вразив нерви співробітників компанії, які тестували штучний інтелект перед тим, як він був доступний для громадськості в березні. Ті, хто випробував це, сказали, що технологія була поспішною і що Бард був «патологічним брехуном». Він також давав погані, якщо не небезпечні, поради щодо посадки літака чи підводного плавання.
Цей подвійний удар від того, що контент, створений ШІ, правдоподібний і переконливий, досить поганий. Однак саме необхідність деяких вірити, що цей підроблений вміст є правдивим, допомагає йому стати вірусним.
Що робити з дезінформацією ШІ?
Коли мова заходить про боротьбу з дезінформацією штучного інтелекту та про небезпеку штучного інтелекту загалом, розробники цих інструментів кажуть, що вони працюють над зменшенням будь-якої шкоди, яку може завдати ця технологія, але вони також зробили кроки, які, здається, суперечать їхнім намірам.
Корпорація Майкрософт, яка інвестувала мільярди доларів у розробника ChatGPT OpenAI, звільнила 10 000 співробітників у березні, включно з командою, чиї обов’язки полягали в забезпеченні дотримання етичних принципів під час використання штучного інтелекту в продуктах Microsoft.
Коли його запитали про звільнення в епізоді подкасту Freakonomics Radio у червні, генеральний директор Microsoft Сатья Наделла сказав, що безпека штучного інтелекту є важливою частиною створення продуктів.
«Робота, яку виконують команди безпеки штучного інтелекту, зараз стає настільки популярною, — сказав Наделла. «Насправді ми, якщо що, подвоїли це… Для мене безпека штучного інтелекту — це все одно, що сказати «продуктивність» або «якість» будь-якого програмного проекту».
Компанії, які створили цю технологію, кажуть, що працюють над зниженням ризику ШІ. Google, Microsoft, OpenAI та Anthropic, компанія з безпеки та досліджень штучного інтелекту, створили Frontier Model Forum 26 липня. Метою цієї групи є просування досліджень безпеки штучного інтелекту, визначення найкращих практик і співпраця з політиками, науковцями та іншими компаніями.
Однак урядовці також прагнуть розв’язувати питання безпеки штучного інтелекту. У травні віце-президент США Камала Гарріс зустрілася з керівниками Google, Microsoft і OpenAI щодо потенційної небезпеки ШІ. Через два місяці ці керівники взяли «добровільне зобов’язання» перед адміністрацією Байдена зменшити ризики ШІ. У червні Європейський Союз заявив, що хоче, щоб технологічні компанії почали маркувати контент, створений штучним інтелектом, перш ніж прийняти відповідне законодавство.
Що ви можете зробити, щоб уникнути дезінформації про штучний інтелект покоління
Існують інструменти ШІ для виявлення дезінформації, створеної ШІ, але вони ще не на належному рівні. У своєму дослідженні Де Чоудхурі каже, що ці інструменти для виявлення дезінформації потребують постійного навчання, щоб справлятися з дезінформацією, створеною ШІ. У липні власний інструмент Open AI для виявлення тексту, написаного штучним інтелектом, був видалений компанією, посилаючись на його низький рівень точності.
Халед каже, що визначити, чи створено вміст штучним інтелектом, допомагає скептицизм і увага до деталей.
«Контент, створений штучним інтелектом, хоч і просунутий, часто має тонкі примхи або невідповідності», — сказав він. «Ці ознаки не завжди можуть бути присутніми або помітними, але іноді вони можуть видавати контент, створений ШІ».
Чотири речі, які слід враховувати, намагаючись визначити, чи створено щось ШІ чи ні:
Шукайте примхи штучного інтелекту: дивні фрази, нерелевантні дотичні або речення, які не зовсім відповідають загальній розповіді, є ознаками тексту, написаного штучним інтелектом. На зображеннях і відео зміни в освітленні, дивні рухи обличчя або дивне змішування фону можуть свідчити про те, що це було зроблено за допомогою ШІ.
Подумайте про джерело: чи це авторитетне джерело, як-от Associated Press, BBC або New York Times, чи це надходить із сайту, про який ви ніколи не чули?
Проведіть власне дослідження: якщо публікація, яку ви бачите в Інтернеті, виглядає надто божевільною, щоб бути правдою, спершу перевірте її. Пошукайте в Google те, що ви побачили в дописі, і перевірте, чи це реальне, чи це просто додатковий вміст ШІ, який став вірусним.
Перевірте реальність: візьміть тайм-аут і поговоріть з людьми, яким довіряєте, про те, що ви бачите. Тримати себе в онлайн-міхурі, де стає важче розрізнити правду, а що підробку, може бути шкідливо.
Що продовжує працювати найкраще під час боротьби з будь-якою дезінформацією, створеною людьми чи ШІ, так це не ділитися нею.
«Ми можемо зробити більше думати, менше ділитися», — сказав Вест. Джерело
Comments