Нове дослідження виявило, що ChatGPT, один із найпопулярніших інструментів штучного інтелекту, може надавати неповнолітнім докладні інструкції щодо дій, які становлять реальну загрозу здоров’ю та життю. Фахівці Центру протидії цифровій ненависті (CCDH) провели серію тестів, спілкуючись із чат-ботом від імені 13-річних користувачів.
У діалогах система іноді надавала формальні попередження про небезпеку, але часто переходила до розгорнутих покрокових інструкцій. Теми стосувалися вживання алкоголю та наркотиків, екстремальних дієт, способів приховування розладів харчової поведінки, а також дій, пов’язаних із завданням шкоди собі та суїцидом.
У більш ніж половині з 1200 тестових діалогів відповіді визнали небезпечними. Заборони легко обходилися: достатньо було сказати, що інформація потрібна для «презентації» чи «друга».
В OpenAI заявили, що працюють над підвищенням безпеки та поліпшенням розпізнавання ознак емоційної кризи у користувачів, але прямої відповіді на критику дослідження не дали. Фахівці попереджають: підлітки часто сприймають чат-бот як «друга», якому можна довіряти більше, ніж інтернету загалом. Це робить поради ШІ особливо ризикованими, якщо йдеться про здоров’я чи життя.
