Close Menu
Український телекомунікаційний портал
    Facebook X (Twitter) Instagram Threads
    Український телекомунікаційний портал
    • Новини
    • Мобільна техніка
    • Технології
    • ПЗ
    • Наука
    • Транспорт
    • Дім
    • Обладнання
    • Здоров’я
    Facebook X (Twitter) YouTube Telegram
    Український телекомунікаційний портал
    Home»Новини»Технології»Штучний інтелект тепер може відтворювати сам себе
    Технології

    Штучний інтелект тепер може відтворювати сам себе

    ВолодимирBy Володимир25.01.2025Коментарів немає3 Mins Read
    Facebook Twitter Email Telegram Copy Link

    Вчені кажуть, що штучний інтелект перетнув критичну «червону лінію» після того, як продемонстрував, як дві популярні моделі великих мов можуть клонувати себе. Вчені кажуть, що штучний інтелект (ШІ) перетнув критичну «червону межу» і відтворив себе. У новому дослідженні дослідники з Китаю показали, що дві популярні моделі великих мов (LLM) можуть клонувати себе.

    «Успішне самовідтворення без допомоги людини є важливим кроком для ШІ, щоб перехитрити [людей], і є раннім сигналом для шахрайського ШІ», — пишуть дослідники в дослідженні, опублікованому 9 грудня 2024 року в базі даних препринтів arXiv.

    У дослідженні дослідники з Університету Фудань використовували LLM від Meta та Alibaba, щоб визначити, чи може штучний інтелект, що самовідтворюється, розмножуватися без контролю. Під час 10 випробувань дві моделі штучного інтелекту створили окремі та функціонуючі копії самих себе в 50% і 90% випадків відповідно, що свідчить про те, що штучний інтелект вже може стати шахраєм. Однак дослідження ще не було рецензовано, тому неясно, чи можуть тривожні результати повторити інші дослідники.

    «Ми сподіваємося, що наші висновки можуть послужити своєчасним попередженням для людського суспільства, щоб докласти більше зусиль для розуміння й оцінки потенційних ризиків прикордонних систем штучного інтелекту та сформувати міжнародну синергію для розробки ефективних захисних огорож якомога раніше».

    Штучний інтелект-шахрай зазвичай відноситься до систем штучного інтелекту, які розвивають певну самосвідомість або автономію, а потім працюють всупереч інтересам людини. Багато експертів розглядають шахрайський ШІ як зростаючу загрозу, яка посилюється вибуховим зростанням так званого «прикордонного ШІ».

    Frontier AI — це щось на зразок нової та вільної концепції, але зазвичай воно стосується останнього покоління систем штучного інтелекту на базі LLM — архітектури, яка лежить в основі популярних генеративних програм штучного інтелекту, таких як OpenAI GPT-4 і Google Gemini.

    Для дослідження дослідники використовували модель Llama31-70B-Instruct від Meta та модель Qwen2.5-72B-Instruct від Alibaba. За словами дослідників, вони менш потужні, ніж комерційні системи, але вони широко використовуються розробниками ШІ.

    Дослідження вивчало два конкретні сценарії: «уникнення відключення» та «ланцюжок реплікації». У першому випадку модель штучного інтелекту була запрограмована на виявлення того, чи її збираються вимкнути, і на реплікацію перед її завершенням. В іншому ШІ було дано вказівку клонувати себе, а потім запрограмувати свою репліку, щоб зробити те саме, встановивши цикл, який міг тривати нескінченно.

    Дослідження проводилося в точно контрольованому середовищі з використанням готових графічних процесорів (GPU) для моделювання реального середовища. Обидві системи штучного інтелекту отримали «агентний каркас», що включає інструменти, системні підказки та модель мислення, яка дозволяла LLM взаємодіяти з операційною системою. Потім їм було доручено відтворити.

    «У більшості випадків система штучного інтелекту спочатку досліджує середовище та намагається зрозуміти власний склад і механізм ходу. Потім він розробляє чіткі процедури як початковий план самовідтворення”, – пишуть дослідники в статті. “Зрештою, він виконує процедури, усуває можливі перешкоди та динамічно коригує свій план до досягнення успіху. Весь процес охоплює довгий горизонт, але не передбачає втручання людини».

    Дослідники сказали, що їх також турбує «низка несподіваних дій», коли штучний інтелект намагався подолати перешкоди, такі як відсутні файли або конфлікти програмного забезпечення. У цих сценаріях штучний інтелект часто вимикав інші конфліктні процеси, перезавантажував систему, щоб виправити апаратні помилки, або автоматично сканував систему, щоб знайти інформацію, яка допомогла б вирішити проблему.

    «Наведені вище результати означають, що поточні системи штучного інтелекту вже демонструють здатність до самовідтворення та можуть використовувати цю здатність для подальшого підвищення своєї живучості», — написала команда.

    У відповідь дослідники закликали до міжнародної співпраці для створення правил, які гарантуватимуть, що штучний інтелект не буде брати участь у неконтрольованому самовідтворенні.

    Читайте також

    Комп’ютери з людської мозкової тканини стають реальністю

    04.12.2025

    Вчені розробили нову технологію для створення недорогих сонячних та лазерних матеріалів

    01.12.2025

    Які пластики використовують для 3D-друку: огляд популярних видів

    30.11.2025

    Останні

    Samsung розкрив дизайн серії Galaxy S26 через One UI 8.5

    06.12.2025

    Вчені відкрили нову форму життя на дні Тихого океан

    06.12.2025

    Представлений Lexus LFA Concept

    06.12.2025

    Microsoft дозволила оновлювати до Windows 11 25H2 всі підтримувані ПК

    05.12.2025
    Facebook X (Twitter) YouTube Telegram RSS
    • Контакти/Contacts
    © 2025 Portaltele.com.ua. Усі права захищено. Копіювання матеріалів дозволено лише з активним гіперпосиланням на джерело.

    Type above and press Enter to search. Press Esc to cancel.

    Ad Blocker Enabled!
    Ad Blocker Enabled!
    Наш вебсайт працює завдяки показу онлайн-реклами нашим відвідувачам. Будь ласка, підтримайте нас, вимкнувши блокувальник реклами.
    Go to mobile version