У міру того, як його стосунки зі штучним інтелектом-компаньйоном ставали дедалі інтенсивнішими, 14-річний хлопець почав віддалятися від сім’ї та друзів, а також мав проблеми в школі. У позові, поданому проти Character.AI матір’ю хлопчика, стенограми чату показують інтимні і часто дуже сексуальні розмови між Сьюелом і чат-ботом Дені, створеним за образом і подобою героїні «Гри престолів» Данаеріс Таргарієн.
Вони обговорювали злочинність і самогубство, а чат-бот використовував фрази на кшталт «це не причина, щоб не йти до кінця». Це не перший відомий випадок, коли вразлива людина вкорочує собі віку після спілкування з персонажем чат-бота.
Минулого року бельгієць наклав на себе руки в подібному епізоді, пов’язаному з головним конкурентом Character.AI — Chai AI. Коли це сталося, компанія заявила ЗМІ, що «докладає всіх зусиль, щоб мінімізувати шкоду». У заяві для CNN компанія Character. AI заявила, що «дуже серйозно ставиться до безпеки наших користувачів» і за останні шість місяців запровадила «численні нові заходи безпеки».
В окремій заяві на сайті компанії описані додаткові заходи безпеки для користувачів віком до 18 років (згідно з поточними умовами надання послуг, вікове обмеження становить 16 років для громадян Європейського Союзу та 13 років для решти країн світу).
Однак ці трагедії яскраво ілюструють небезпеку, яку несуть у собі швидко розвиваючі та широкодоступні системи штучного інтелекту, з якими будь-хто може спілкуватися та взаємодіяти. Нам терміново потрібне регулювання, щоб захистити людей від потенційно небезпечних, безвідповідально розроблених систем ШІ.
Як ми можемо регулювати ШІ?
Уряд Австралії розробляє обов’язкові запобіжники для систем штучного інтелекту з високим ступенем ризику. Модний термін у світі управління ШІ — «запобіжники» — стосується процесів проектування, розробки та розгортання систем штучного інтелекту.
Вони включають такі заходи, як управління даними, управління ризиками, тестування, документування та людський нагляд. Одне з рішень, яке має прийняти австралійський уряд, — як визначити, які системи є «високоризиковими», а отже, підпадають під дію обмежувальних заходів.
Уряд також розглядає питання про те, чи слід застосовувати захисні бар’єри до всіх «моделей загального призначення».
Моделі загального призначення — це двигун під капотом чат-ботів зі штучним інтелектом, таких як Dany: Алгоритми штучного інтелекту, які можуть генерувати текст, зображення, відео та музику на основі підказок користувача і можуть бути адаптовані для використання в різних контекстах.
У новаторському Законі Європейського Союзу про штучний інтелект системи підвищеного ризику визначаються за допомогою переліку, який регулятори мають право регулярно оновлювати. Альтернативою є підхід, заснований на принципах, за якого визначення високого ризику відбувається в кожному конкретному випадку. Це залежатиме від багатьох факторів, таких як ризики негативного впливу на права, ризики для фізичного або психічного здоров’я, ризики правових наслідків, а також серйозність і ступінь цих ризиків.
Чат-боти повинні бути «високоризиковими» ШІ
У Європі системи штучного інтелекту-компаньйона, такі як Character.AI та Chai, не належать до систем високого ризику. По суті, їхні провайдери повинні лише повідомити користувачам, що вони взаємодіють із системою штучного інтелекту. Однак стало зрозуміло, що чат-боти-компаньйони не є низькоризиковими. Багато користувачів цих додатків — діти та підлітки. Деякі системи навіть продаються самотнім людям або людям з психічними захворюваннями.
Чат-боти здатні генерувати непередбачуваний, неприйнятний і маніпулятивний контент. Вони занадто легко імітують токсичні стосунки. Для управління цими ризиками недостатньо прозорість — маркування контенту як створеного штучним інтелектом — недостатньо.
Навіть коли ми усвідомлюємо, що розмовляємо з чат-ботом, люди психологічно налаштовані приписувати людські риси тому, з ким ми спілкуємося. Смерті самогубців, про які повідомляють ЗМІ, можуть бути лише верхівкою айсберга. Ми не можемо знати, скільки вразливих людей перебувають у залежних, токсичних або навіть небезпечних стосунках із чат-ботами.
Огородження та «вимикач«
Коли Австралія нарешті запровадить обов’язкові запобіжники для систем штучного інтелекту з високим рівнем ризику, а це може статися вже наступного року, запобіжники повинні стосуватися як чат-ботів-компаньйонів, так і моделей загального призначення, на яких вони побудовані.
Засоби захисту — управління ризиками, тестування, моніторинг — будуть найефективнішими, якщо вони торкнуться самої суті небезпек, пов’язаних зі штучним інтелектом. Ризики від чат-ботів — це не лише технічні ризики, пов’язані з технічними рішеннями.
Окрім слів, які може використовувати чат-бот, має значення і контекст продукту.
У випадку з Character.AI маркетингові обіцянки «розширити можливості» людей, інтерфейс імітує звичайний обмін текстовими повідомленнями з людиною, а платформа дозволяє користувачам вибирати з низки заздалегідь створених персонажів, які включають деякі проблемні особистості.
По-справжньому ефективні засоби захисту ШІ повинні передбачати не лише відповідальні процеси, такі як управління ризиками та тестування. Вони також повинні вимагати продуманого, гуманного дизайну інтерфейсів, взаємодій і відносин між системами ШІ та їхніми користувачами-людьми.
Але навіть у цьому випадку обмежувачів може бути недостатньо. Як і чат-боти-компаньйони, системи, які, на перший погляд здаються низькоризиковими, можуть завдати непередбачуваної шкоди.
Регулятори повинні мати повноваження вилучати системи штучного інтелекту з ринку, якщо вони завдають шкоди або становлять неприйнятні ризики. Іншими словами, нам потрібні не просто огорожі для ШІ з високим рівнем ризику. Нам також потрібен вимикач.
Якщо ця історія викликала у вас занепокоєння або ви хочете з кимось поговорити, зверніться до цього списку, щоб знайти цілодобову гарячу лінію у вашій країні і звернутися по допомогу.Розмова
Генрі Фрейзер, науковий співробітник у галузі права, підзвітності та науки про дані, Квінслендський технологічний університет. Ця стаття передрукована з The Conversation на умовах ліцензії Creative Commons. Читайте оригінальну статтю.
Comments