Численні системи штучного інтелекту (ШІ), навіть ті, що створені, щоб бути корисними та правдивими, уже навчилися обманювати людей. В оглядовій статті, нещодавно опублікованій в журналі Patterns , дослідники підкреслюють небезпеку обману штучного інтелекту та закликають уряди швидко встановити жорсткі правила для пом’якшення цих ризиків.
«Розробники штучного інтелекту не мають впевненого розуміння того, що спричиняє небажану поведінку штучного інтелекту, як-от обман», — каже перший автор Пітер С. Парк, дослідник екзистенціальної безпеки ШІ в Массачусетському технологічному інституті. «Але, загалом кажучи, ми вважаємо, що обман ШІ виникає через те, що стратегія, заснована на обмані, виявилася найкращим способом успішного виконання навчального завдання ШІ. Обман допомагає їм досягти своїх цілей».
Парк і його колеги проаналізували літературу, зосереджуючись на способах, якими системи штучного інтелекту поширюють неправдиву інформацію — через навчений обман, за допомогою якого вони систематично вчаться маніпулювати іншими.
Приклади обману ШІ
Найяскравішим прикладом обману штучного інтелекту, який дослідники виявили під час свого аналізу, стала CICERO від Meta, система штучного інтелекту, розроблена для гри Diplomacy, яка є грою для завоювання світу, яка передбачає створення альянсів. Незважаючи на те, що Meta стверджує, що навчила CICERO бути «значною мірою чесним і корисним » і «ніколи навмисно не завдавати ударів у спину» своїм людським союзникам під час гри, дані, опубліковані компанією разом із науковим документом, показали, що CICERO не грав чесно.
Інші системи штучного інтелекту продемонстрували здатність блефувати під час гри в техаський холдем покер проти професійних гравців-людей, імітувати атаки під час стратегічної гри Starcraft II, щоб перемогти суперників, і спотворювати їхні вподобання, щоб отримати перевагу в економічні переговори.
Ризики оманливого ШІ
Хоча це може здатися нешкідливим, якщо системи штучного інтелекту обманюють в іграх, це може призвести до «прориву в оманливих можливостях штучного інтелекту», який у майбутньому може перерости в більш просунуті форми обману штучного інтелекту в майбутньому, додав Парк.
Дослідники виявили, що деякі системи ШІ навіть навчилися обманювати тести, призначені для оцінки їх безпеки. В одному дослідженні організми штучного інтелекту в цифровому симуляторі «вдавалися мертвими», щоб обдурити тест, створений для усунення систем ШІ, які швидко відтворюються.
«Шляхом систематичного обману тестів безпеки, нав’язаних розробниками та регуляторами, оманливий штучний інтелект може викликати у нас, людей, помилкове відчуття безпеки», — каже Парк.
«Нам, як суспільству, потрібно якомога більше часу, щоб підготуватися до більш просунутого обману майбутніх продуктів штучного інтелекту та моделей з відкритим кодом», — каже Парк. «У міру того, як шахрайські можливості систем штучного інтелекту стануть більш досконалими, небезпека, яку вони становлять для суспільства, ставатиме все більш серйозною».
Хоча Пак і його колеги вважають, що суспільство ще не має правильних заходів для боротьби з обманом штучного інтелекту, їх надихає те, що політики почали сприймати цю проблему серйозно за допомогою таких заходів, як Закон ЄС щодо штучного інтелекту та Указ президента Байдена щодо штучного інтелекту. Але, за словами Парка, ще належить з’ясувати, чи можна суворо дотримуватися політики, спрямованої на пом’якшення обману ШІ, враховуючи, що розробники ШІ ще не мають методів, щоб контролювати ці системи.
«Якщо заборона обману штучного інтелекту є політично нездійсненною на поточний момент, ми рекомендуємо класифікувати оманливі системи штучного інтелекту як високоризикові», — каже Парк.
Comments