Close Menu
Український телекомунікаційний портал
    Facebook X (Twitter) Instagram Threads
    Український телекомунікаційний портал
    • Новини
    • Мобільна техніка
    • Технології
    • ПЗ
    • Наука
    • Транспорт
    • Дім
    • Обладнання
    • Здоров’я
    Facebook X (Twitter) YouTube Telegram
    Український телекомунікаційний портал
    Home»Новини»Події»Чат-бот Bing почав оборонятися та відповідати користувачам
    Події

    Чат-бот Bing почав оборонятися та відповідати користувачам

    ВолодимирBy Володимир17.02.2023Коментарів немає2 Mins Read
    Facebook Twitter Email Telegram Copy Link

    Новонароджений чат-бот Microsoft Bing іноді може збиватися з колії, заперечуючи очевидні факти та дорікаючи користувачам, згідно з обміном інформацією, якою поділилися розробники, які тестують створення ШІ. У середу форум на Reddit, присвячений версії пошукової системи Bing з підтримкою штучного інтелекту, ряснів розповідями про те, як їх лаяли, брехали чи відверто плутали під час спілкування з ботом.

    Чат-бот Bing був розроблений корпорацією Майкрософт і стартапом OpenAI, який викликав сенсацію після листопадового запуску ChatGPT, програми, що приваблює заголовки, здатної генерувати всілякі тексти за лічені секунди за простим запитом.

    З того часу, як ChatGPT увірвався на сцену, технологія, що стоїть за нею, відома як генеративний штучний інтелект, розбурхувала пристрасті, від захоплення до занепокоєння. Коли AFP попросила пояснити повідомлення в новинах про те, що чат-бот Bing висував шалені заяви, наприклад, нібито Microsoft шпигувала за співробітниками, чат-бот сказав, що це була неправдива «кампанія наклепу проти мене та Microsoft».

    Публікації на форумі Reddit включали знімки екрана обміну з оновленим Bing і розповідали про спотикання, такі як наполягання на тому, що поточний рік 2022, і кажуть комусь, що вони «не були хорошим користувачем» за те, що оскаржували його правдивість. Інші розповідали, що чат-бот давав поради щодо злому облікового запису Facebook, плагіату есе та розповіді расистського жарту.

    «Новий Bing намагається зробити відповіді веселими та правдивими, але, враховуючи, що це ранній попередній перегляд, він іноді може показувати несподівані або неточні відповіді з різних причин, наприклад, через тривалість або контекст розмови», — сказав AFP представник Microsoft.

    «Оскільки ми продовжуємо вчитися на цих взаємодіях, ми коригуємо його відповіді, щоб створити послідовні, релевантні та позитивні відповіді».

    Помилка Microsoft повторила труднощі, які спостерігав Google минулого тижня, коли вона поспішно випустила власну версію чат-бота під назвою Bard, але була розкритикована за помилку, допущену ботом у рекламі.

    Безлад призвів до падіння ціни акцій Google більш ніж на сім відсотків у день оголошення. Покращуючи свої пошукові системи такими якостями, як ChatGPT, Microsoft і Google сподіваються радикально оновити онлайн-пошук, надаючи готові відповіді замість звичного списку посилань на сторонні сайти.

    Читайте також

    На 49 році життя помер шимпанзе, здатний читати китайською та англійською

    14.01.2026

    Продавець із Лівії отримав партію телефонів Nokia, замовлених 16 років тому

    14.01.2026

    Супутники зафіксували стрімке танення льоду на полюсах Землі

    13.01.2026

    Останні

    Чому антибіотиків недостатньо для лікування деяких хронічних ран

    17.01.2026

    Розроблено концепт телефону без сенсорного екрану

    17.01.2026

    Rolls-Royce тестує повністю електричний Cullinan

    17.01.2026

    Вчені вивели нові формули для закону збереження енергії

    17.01.2026
    Facebook X (Twitter) YouTube Telegram RSS
    • Контакти/Contacts
    © 2026 Portaltele.com.ua. Усі права захищено. Копіювання матеріалів дозволено лише з активним гіперпосиланням на джерело.

    Type above and press Enter to search. Press Esc to cancel.

    Go to mobile version