Close Menu
Український телекомунікаційний портал
    Facebook X (Twitter) Instagram Threads
    Український телекомунікаційний портал
    • Новини
    • Мобільна техніка
    • Технології
    • ПЗ
    • Наука
    • Транспорт
    • Дім
    • Обладнання
    • Здоров’я
    Facebook X (Twitter) YouTube Telegram
    Український телекомунікаційний портал
    Home»Новини»Кібербезпека»Вчені виявляють недоліки безпеки в моделях ШІ
    Кібербезпека

    Вчені виявляють недоліки безпеки в моделях ШІ

    ВолодимирBy Володимир09.11.2023Коментарів немає2 Mins Read
    Facebook Twitter Email Telegram Copy Link

    Китайські дослідники виявили значну лазівку в безпеці широко використовуваних комерційних мультимодальних великих мовних моделей (MLLM), таких як ChatGPT, Bard і Bing Chat. Ці моделі, розгорнуті такими технологічними гігантами, як Google, Microsoft і Baidu, є фундаментальними компонентами різних програм, від віртуальних помічників до систем модерації вмісту.

    Дослідники виявили, що вразливі місця в цих MLLM можна використати за допомогою маніпуляційних зображень, які дуже нагадують оригінали. Зробивши найменші зміни майже непомітними для людського ока, дослідники ефективно обійшли вбудовані фільтри моделей, призначені для відсівання токсичного або невідповідного вмісту.

    Наприклад, дослідники з Пекіна виявили значну вразливість у таких моделях ШІ, як ChatGPT. Під час атаки ці моделі можуть прийняти великих панд за людей або не виявити шкідливий вміст, підкреслюючи критичний недолік безпеки в комерційних системах ШІ.

    Серед постраждалих моделей Bard, оснащений механізмами виявлення обличчя та токсичності, міг генерувати невідповідні описи шкідливого вмісту в разі зламу. Китайська дослідницька група навіть надала код, який демонструє, як ці суперечливі приклади можуть ввести в оману моделі ШІ. Їхні експерименти показали 22% успіху проти Bard, 26% проти Bing Chat і приголомшливі 86% проти Ernie Bot.

    Ву Чжаохуей, віце-міністр науки та технологій Китаю, звернувся до цих тривожних висновків на Глобальному саміті безпеки ШІ у Великобританії. Він підкреслив нагальну потребу в посиленні технічного контролю ризиків в управлінні штучним інтелектом, закликаючи світову спільноту усунути вразливості, виявлені в цих широко використовуваних мовних моделях.

    Однією з ключових проблем, виділених у дослідженні, є існуючий дисбаланс між зусиллями, спрямованими на атаку та захист моделей ШІ. Хоча ворожі атаки привернули значну увагу, все ще бракує надійних стратегій захисту. Традиційні методи захисту можуть обходитися ціною точності та обчислювальних ресурсів, що робить обов’язковим пошук інноваційних рішень.

    Щоб усунути ці вразливості, дослідники запропонували захист на основі попередньої обробки як потенційне рішення, особливо для великомасштабних моделей основи. Ці засоби захисту спрямовані на забезпечення надійності MLLM проти агресивних атак, прокладаючи шлях для майбутніх досліджень і розробок безпеки ШІ.

    Це відкриття підкреслює критичну важливість вдосконалення інфраструктури безпеки технологій ШІ. Оскільки ці моделі все більше інтегруються в повсякденні додатки, важливо зміцнити їхній захист від зловмисного використання, забезпечуючи більш безпечний і надійний цифровий ландшафт для користувачів у всьому світі.

    Читайте також

    Хакери зламали десятки тисяч роутерів Asus 

    21.11.2025

    Виявлено новий Android-троян Sturnus, який краде банківські дані

    21.11.2025

    Хакери вкрали у Logitech майже 2 ТБ даних

    18.11.2025

    Останні

    Apple змушена звернутися до Samsung за пам’яттю для iPhone 18

    23.12.2025

    Вчені відкрили сотні нових видів в одному з найменш досліджених регіонів Землі

    23.12.2025

    Компанія Powerrider випустила мікрофон із вбудованим ChatGPT

    23.12.2025

    Вчені створили нову фазу матерії

    22.12.2025
    Facebook X (Twitter) YouTube Telegram RSS
    • Контакти/Contacts
    © 2025 Portaltele.com.ua. Усі права захищено. Копіювання матеріалів дозволено лише з активним гіперпосиланням на джерело.

    Type above and press Enter to search. Press Esc to cancel.

    Ad Blocker Enabled!
    Ad Blocker Enabled!
    Наш вебсайт працює завдяки показу онлайн-реклами нашим відвідувачам. Будь ласка, підтримайте нас, вимкнувши блокувальник реклами.
    Go to mobile version