Close Menu
Український телекомунікаційний портал
    Facebook X (Twitter) Instagram Threads
    Український телекомунікаційний портал
    • Новини
    • Мобільна техніка
    • Технології
    • ПЗ
    • Наука
    • Транспорт
    • Дім
    • Обладнання
    • Здоров’я
    Facebook X (Twitter) YouTube Telegram
    Український телекомунікаційний портал
    Home»Новини»Події»Чат-бот Bing почав оборонятися та відповідати користувачам
    Події

    Чат-бот Bing почав оборонятися та відповідати користувачам

    ВолодимирBy Володимир17.02.2023Коментарів немає2 Mins Read
    Facebook Twitter Email Telegram Copy Link

    Новонароджений чат-бот Microsoft Bing іноді може збиватися з колії, заперечуючи очевидні факти та дорікаючи користувачам, згідно з обміном інформацією, якою поділилися розробники, які тестують створення ШІ. У середу форум на Reddit, присвячений версії пошукової системи Bing з підтримкою штучного інтелекту, ряснів розповідями про те, як їх лаяли, брехали чи відверто плутали під час спілкування з ботом.

    Чат-бот Bing був розроблений корпорацією Майкрософт і стартапом OpenAI, який викликав сенсацію після листопадового запуску ChatGPT, програми, що приваблює заголовки, здатної генерувати всілякі тексти за лічені секунди за простим запитом.

    З того часу, як ChatGPT увірвався на сцену, технологія, що стоїть за нею, відома як генеративний штучний інтелект, розбурхувала пристрасті, від захоплення до занепокоєння. Коли AFP попросила пояснити повідомлення в новинах про те, що чат-бот Bing висував шалені заяви, наприклад, нібито Microsoft шпигувала за співробітниками, чат-бот сказав, що це була неправдива «кампанія наклепу проти мене та Microsoft».

    Публікації на форумі Reddit включали знімки екрана обміну з оновленим Bing і розповідали про спотикання, такі як наполягання на тому, що поточний рік 2022, і кажуть комусь, що вони «не були хорошим користувачем» за те, що оскаржували його правдивість. Інші розповідали, що чат-бот давав поради щодо злому облікового запису Facebook, плагіату есе та розповіді расистського жарту.

    «Новий Bing намагається зробити відповіді веселими та правдивими, але, враховуючи, що це ранній попередній перегляд, він іноді може показувати несподівані або неточні відповіді з різних причин, наприклад, через тривалість або контекст розмови», — сказав AFP представник Microsoft.

    «Оскільки ми продовжуємо вчитися на цих взаємодіях, ми коригуємо його відповіді, щоб створити послідовні, релевантні та позитивні відповіді».

    Помилка Microsoft повторила труднощі, які спостерігав Google минулого тижня, коли вона поспішно випустила власну версію чат-бота під назвою Bard, але була розкритикована за помилку, допущену ботом у рекламі.

    Безлад призвів до падіння ціни акцій Google більш ніж на сім відсотків у день оголошення. Покращуючи свої пошукові системи такими якостями, як ChatGPT, Microsoft і Google сподіваються радикально оновити онлайн-пошук, надаючи готові відповіді замість звичного списку посилань на сторонні сайти.

    Читайте також

    Google Maps обмежує доступ без акаунта: що змінилося

    19.02.2026

    Січневі температури на узбережжі Гренландії побили столітній рекорд

    16.02.2026

    Найбільший айсберг світу вступає в фазу швидкого руйнування

    12.02.2026

    Останні

    Вчені зафіксували сигнали мозку після клінічної смерті

    19.02.2026

    Вчені виявили найдавніші знаряддя праці в Північній Америці

    19.02.2026

    Розмова з чат-ботами може змінити пам’ять через «галюцинації штучного інтелекту»

    19.02.2026

    Потепління відкриває шлях тисячам чужорідних видів в Арктику

    19.02.2026
    Facebook X (Twitter) YouTube Telegram RSS
    • Контакти/Contacts
    © 2026 Portaltele.com.ua. Усі права захищено. Копіювання матеріалів дозволено лише з активним гіперпосиланням на джерело.

    Type above and press Enter to search. Press Esc to cancel.

    Go to mobile version