Close Menu
Український телекомунікаційний портал
    Facebook X (Twitter) Instagram Threads
    Український телекомунікаційний портал
    • Новини
    • Мобільна техніка
    • Технології
    • ПЗ
    • Наука
    • Транспорт
    • Дім
    • Обладнання
    • Здоров’я
    Facebook X (Twitter) YouTube Telegram
    Український телекомунікаційний портал
    Home»Новини»ПЗ»ШІ-чат-боти можуть бути небезпечними для життя
    ПЗ

    ШІ-чат-боти можуть бути небезпечними для життя

    ВолодимирBy Володимир02.11.2024Коментарів немає5 Mins Read
    Facebook Twitter Email Telegram Copy Link

    У міру того, як його стосунки зі штучним інтелектом-компаньйоном ставали дедалі інтенсивнішими, 14-річний хлопець почав віддалятися від сім’ї та друзів, а також мав проблеми в школі. У позові, поданому проти Character.AI матір’ю хлопчика, стенограми чату показують інтимні і часто дуже сексуальні розмови між Сьюелом і чат-ботом Дені, створеним за образом і подобою героїні «Гри престолів» Данаеріс Таргарієн.

    Вони обговорювали злочинність і самогубство, а чат-бот використовував фрази на кшталт «це не причина, щоб не йти до кінця». Це не перший відомий випадок, коли вразлива людина вкорочує собі віку після спілкування з персонажем чат-бота.

    Скріншот обміну чатами між Sewell і чат-ботом Dany. (Позов «Меган Гарсія проти ШІ персонажа»)

    Минулого року бельгієць наклав на себе руки в подібному епізоді, пов’язаному з головним конкурентом Character.AI – Chai AI. Коли це сталося, компанія заявила ЗМІ, що «докладає всіх зусиль, щоб мінімізувати шкоду». У заяві для CNN компанія Character. AI заявила, що «дуже серйозно ставиться до безпеки наших користувачів» і за останні шість місяців запровадила «численні нові заходи безпеки».

    В окремій заяві на сайті компанії описані додаткові заходи безпеки для користувачів віком до 18 років (згідно з поточними умовами надання послуг, вікове обмеження становить 16 років для громадян Європейського Союзу та 13 років для решти країн світу).

    Однак ці трагедії яскраво ілюструють небезпеку, яку несуть у собі швидко розвиваючі та широкодоступні системи штучного інтелекту, з якими будь-хто може спілкуватися та взаємодіяти. Нам терміново потрібне регулювання, щоб захистити людей від потенційно небезпечних, безвідповідально розроблених систем ШІ.

    Як ми можемо регулювати ШІ?

    Уряд Австралії розробляє обов’язкові запобіжники для систем штучного інтелекту з високим ступенем ризику. Модний термін у світі управління ШІ – «запобіжники» – стосується процесів проектування, розробки та розгортання систем штучного інтелекту.

    Вони включають такі заходи, як управління даними, управління ризиками, тестування, документування та людський нагляд. Одне з рішень, яке має прийняти австралійський уряд, – як визначити, які системи є «високоризиковими», а отже, підпадають під дію обмежувальних заходів.

    Уряд також розглядає питання про те, чи слід застосовувати захисні бар’єри до всіх «моделей загального призначення».

    Моделі загального призначення – це двигун під капотом чат-ботів зі штучним інтелектом, таких як Dany: Алгоритми штучного інтелекту, які можуть генерувати текст, зображення, відео та музику на основі підказок користувача і можуть бути адаптовані для використання в різних контекстах.

    У новаторському Законі Європейського Союзу про штучний інтелект системи підвищеного ризику визначаються за допомогою переліку, який регулятори мають право регулярно оновлювати. Альтернативою є підхід, заснований на принципах, за якого визначення високого ризику відбувається в кожному конкретному випадку. Це залежатиме від багатьох факторів, таких як ризики негативного впливу на права, ризики для фізичного або психічного здоров’я, ризики правових наслідків, а також серйозність і ступінь цих ризиків.

    Чат-боти повинні бути «високоризиковими» ШІ

    У Європі системи штучного інтелекту-компаньйона, такі як Character.AI та Chai, не належать до систем високого ризику. По суті, їхні провайдери повинні лише повідомити користувачам, що вони взаємодіють із системою штучного інтелекту. Однак стало зрозуміло, що чат-боти-компаньйони не є низькоризиковими. Багато користувачів цих додатків – діти та підлітки. Деякі системи навіть продаються самотнім людям або людям з психічними захворюваннями.

    Чат-боти здатні генерувати непередбачуваний, неприйнятний і маніпулятивний контент. Вони занадто легко імітують токсичні стосунки. Для управління цими ризиками недостатньо прозорість – маркування контенту як створеного штучним інтелектом – недостатньо.

    Навіть коли ми усвідомлюємо, що розмовляємо з чат-ботом, люди психологічно налаштовані приписувати людські риси тому, з ким ми спілкуємося. Смерті самогубців, про які повідомляють ЗМІ, можуть бути лише верхівкою айсберга. Ми не можемо знати, скільки вразливих людей перебувають у залежних, токсичних або навіть небезпечних стосунках із чат-ботами.

    Огородження та “вимикач“

    Коли Австралія нарешті запровадить обов’язкові запобіжники для систем штучного інтелекту з високим рівнем ризику, а це може статися вже наступного року, запобіжники повинні стосуватися як чат-ботів-компаньйонів, так і моделей загального призначення, на яких вони побудовані.

    Засоби захисту – управління ризиками, тестування, моніторинг – будуть найефективнішими, якщо вони торкнуться самої суті небезпек, пов’язаних зі штучним інтелектом. Ризики від чат-ботів – це не лише технічні ризики, пов’язані з технічними рішеннями.

    Окрім слів, які може використовувати чат-бот, має значення і контекст продукту.

    У випадку з Character.AI маркетингові обіцянки «розширити можливості» людей, інтерфейс імітує звичайний обмін текстовими повідомленнями з людиною, а платформа дозволяє користувачам вибирати з низки заздалегідь створених персонажів, які включають деякі проблемні особистості.

    По-справжньому ефективні засоби захисту ШІ повинні передбачати не лише відповідальні процеси, такі як управління ризиками та тестування. Вони також повинні вимагати продуманого, гуманного дизайну інтерфейсів, взаємодій і відносин між системами ШІ та їхніми користувачами-людьми.

    Але навіть у цьому випадку обмежувачів може бути недостатньо. Як і чат-боти-компаньйони, системи, які, на перший погляд здаються низькоризиковими, можуть завдати непередбачуваної шкоди.

    Регулятори повинні мати повноваження вилучати системи штучного інтелекту з ринку, якщо вони завдають шкоди або становлять неприйнятні ризики. Іншими словами, нам потрібні не просто огорожі для ШІ з високим рівнем ризику. Нам також потрібен вимикач.

    Якщо ця історія викликала у вас занепокоєння або ви хочете з кимось поговорити, зверніться до цього списку, щоб знайти цілодобову гарячу лінію у вашій країні і звернутися по допомогу.Розмова

    Генрі Фрейзер, науковий співробітник у галузі права, підзвітності та науки про дані, Квінслендський технологічний університет. Ця стаття передрукована з The Conversation на умовах ліцензії Creative Commons. Читайте оригінальну статтю.

    Читайте також

    Телефони Pixel демонструють приріст продуктивності до 20% після нового оновлення Android 16

    13.12.2025

    Android копіює функцію NameDrop з iOS

    13.12.2025

    Apple випустила iOS 26.2 з оновленнями безпеки

    13.12.2025

    Останні

    Під Бермудськими островами виявили гігантську структуру, аналогів якій немає на Землі

    14.12.2025

    Volkswagen вперше за 88 років закриє автомобільний завод у Німеччині

    14.12.2025

    Вчені досягли прориву з 9-кратним розсіюванням тепла

    14.12.2025

    Peugeot відроджує та електрифікує культовий мопед 70-х років

    14.12.2025
    Facebook X (Twitter) YouTube Telegram RSS
    • Контакти/Contacts
    © 2025 Portaltele.com.ua. Усі права захищено. Копіювання матеріалів дозволено лише з активним гіперпосиланням на джерело.

    Type above and press Enter to search. Press Esc to cancel.

    Ad Blocker Enabled!
    Ad Blocker Enabled!
    Наш вебсайт працює завдяки показу онлайн-реклами нашим відвідувачам. Будь ласка, підтримайте нас, вимкнувши блокувальник реклами.
    Go to mobile version