Close Menu
Український телекомунікаційний портал
    Facebook X (Twitter) Instagram Threads
    Український телекомунікаційний портал
    • Новини
    • Мобільна техніка
    • Технології
    • ПЗ
    • Наука
    • Транспорт
    • Дім
    • Обладнання
    • Здоров’я
    Facebook X (Twitter) YouTube Telegram
    Український телекомунікаційний портал
    Home»Новини»Технології»Системи штучного інтелекту вже навчилися обманювати людей
    Технології

    Системи штучного інтелекту вже навчилися обманювати людей

    ВолодимирBy Володимир12.05.2024Коментарів немає3 Mins Read
    Facebook Twitter Email Telegram Copy Link

    Численні системи штучного інтелекту (ШІ), навіть ті, що створені, щоб бути корисними та правдивими, уже навчилися обманювати людей. В оглядовій статті, нещодавно опублікованій в журналі Patterns , дослідники підкреслюють небезпеку обману штучного інтелекту та закликають уряди швидко встановити жорсткі правила для пом’якшення цих ризиків.

    «Розробники штучного інтелекту не мають впевненого розуміння того, що спричиняє небажану поведінку штучного інтелекту, як-от обман», — каже перший автор Пітер С. Парк, дослідник екзистенціальної безпеки ШІ в Массачусетському технологічному інституті. «Але, загалом кажучи, ми вважаємо, що обман ШІ виникає через те, що стратегія, заснована на обмані, виявилася найкращим способом успішного виконання навчального завдання ШІ. Обман допомагає їм досягти своїх цілей».

    Парк і його колеги проаналізували літературу, зосереджуючись на способах, якими системи штучного інтелекту поширюють неправдиву інформацію — через навчений обман, за допомогою якого вони систематично вчаться маніпулювати іншими.

    Приклади обману ШІ

    Найяскравішим прикладом обману штучного інтелекту, який дослідники виявили під час свого аналізу, стала CICERO від Meta, система штучного інтелекту, розроблена для гри Diplomacy, яка є грою для завоювання світу, яка передбачає створення альянсів. Незважаючи на те, що Meta стверджує, що навчила CICERO бути «значною мірою чесним і корисним » і «ніколи навмисно не завдавати ударів у спину» своїм людським союзникам під час гри, дані, опубліковані компанією разом із науковим документом, показали, що CICERO не грав чесно.

    Приклади обману від ЦИКЕРОНА Мети в грі дипломатії. Авторство: Patterns/Park Goldstein та ін.

    «Ми виявили, що штучний інтелект Meta навчився бути майстром обману», — каже Парк. «Хоча Meta вдалося навчити свій штучний інтелект перемагати в грі дипломатії — CICERO потрапив до 10% найкращих гравців-людей, які грали більше однієї гри, Meta не змогла навчити свій штучний інтелект перемагати чесно».

    Інші системи штучного інтелекту продемонстрували здатність блефувати під час гри в техаський холдем покер проти професійних гравців-людей, імітувати атаки під час стратегічної гри Starcraft II, щоб перемогти суперників, і спотворювати їхні вподобання, щоб отримати перевагу в економічні переговори.

    Ризики оманливого ШІ

    Хоча це може здатися нешкідливим, якщо системи штучного інтелекту обманюють в іграх, це може призвести до «прориву в оманливих можливостях штучного інтелекту», який у майбутньому може перерости в більш просунуті форми обману штучного інтелекту в майбутньому, додав Парк.

    Дослідники виявили, що деякі системи ШІ навіть навчилися обманювати тести, призначені для оцінки їх безпеки. В одному дослідженні організми штучного інтелекту в цифровому симуляторі «вдавалися мертвими», щоб обдурити тест, створений для усунення систем ШІ, які швидко відтворюються.

    «Шляхом систематичного обману тестів безпеки, нав’язаних розробниками та регуляторами, оманливий штучний інтелект може викликати у нас, людей, помилкове відчуття безпеки», — каже Парк.

    GPT-4 виконує завдання CAPTCHA. Авторство: Patterns/Park Goldstein та ін.

    Основні короткострокові ризики оманливого штучного інтелекту включають полегшення ворожим особам вчинення шахрайства та втручання у вибори, попереджає Парк. Зрештою, якщо ці системи зможуть удосконалити цей тривожний набір навичок, люди можуть втратити контроль над ними, каже він.

    «Нам, як суспільству, потрібно якомога більше часу, щоб підготуватися до більш просунутого обману майбутніх продуктів штучного інтелекту та моделей з відкритим кодом», — каже Парк. «У міру того, як шахрайські можливості систем штучного інтелекту стануть більш досконалими, небезпека, яку вони становлять для суспільства, ставатиме все більш серйозною».

    Хоча Пак і його колеги вважають, що суспільство ще не має правильних заходів для боротьби з обманом штучного інтелекту, їх надихає те, що політики почали сприймати цю проблему серйозно за допомогою таких заходів, як Закон ЄС щодо штучного інтелекту та Указ президента Байдена щодо штучного інтелекту. Але, за словами Парка, ще належить з’ясувати, чи можна суворо дотримуватися політики, спрямованої на пом’якшення обману ШІ, враховуючи, що розробники ШІ ще не мають методів, щоб контролювати ці системи.

    «Якщо заборона обману штучного інтелекту є політично нездійсненною на поточний момент, ми рекомендуємо класифікувати оманливі системи штучного інтелекту як високоризикові», — каже Парк.

    Читайте також

    Представлений перший гуманоїдний робот із шістьма руками

    08.12.2025

    Комп’ютери з людської мозкової тканини стають реальністю

    04.12.2025

    Вчені розробили нову технологію для створення недорогих сонячних та лазерних матеріалів

    01.12.2025

    Останні

    Представлений новий Kia Seltos

    10.12.2025

    Вчені знайшли пояснення того, чому деякі риби змінюють стать

    10.12.2025

    Астрономи знайшли джерело найдовшого гамма-спалаху

    10.12.2025

    Google Photos оновив відеоредактор

    10.12.2025
    Facebook X (Twitter) YouTube Telegram RSS
    • Контакти/Contacts
    © 2025 Portaltele.com.ua. Усі права захищено. Копіювання матеріалів дозволено лише з активним гіперпосиланням на джерело.

    Type above and press Enter to search. Press Esc to cancel.

    Ad Blocker Enabled!
    Ad Blocker Enabled!
    Наш вебсайт працює завдяки показу онлайн-реклами нашим відвідувачам. Будь ласка, підтримайте нас, вимкнувши блокувальник реклами.
    Go to mobile version