Ми знаємо, що штучний інтелект (ШІ) не може мислити, так само як людина, але нове дослідження показало, як ця відмінність може впливати на ухвалення рішень ШІ, що, своєю чергою, може мати реальні наслідки, до яких люди можуть бути не готові. Дослідження, опубліковане в лютому 2025 року в журналі Transactions on Machine Learning Research, вивчало, наскільки добре великі мовні моделі (LLMs) можуть формувати аналогії.

Вчені виявили, що як у простих аналогіях з буквами, так і в цифрових матричних задачах — де потрібно було заповнити матрицю, визначивши відсутню цифру — люди показали гарні результати, тоді як ефективність ШІ різко знижувалася.

Чи потрібні вашій віддаленій або міжнародній команді соцпакети?

Під час тестування стійкості людей і ШІ-моделей на аналогічних завданнях у вигляді історій дослідження показало, що моделі вразливі до ефекту порядку відповідей — зміни результатів залежно від черговості питань в експерименті — і можуть бути схильні до перефразування. Загалом дослідження зробило висновок, що моделі ШІ не мають здатності до zero-shot навчання, тобто до здатності робити висновки про класи об’єктів, з якими вони не стикалися під час тренування.

Чому покарання ШІ не допомагає: він просто краще приховує брехню та шахрайство

Співавторка дослідження Марта Льюїс, доцентка кафедри нейросимвольного ШІ в Амстердамському університеті, навела приклад того, як штучний інтелект не здатний до аналогічного мислення в задачах з буквами.

«Літерні аналогії мають форму: ‘якщо abcd перетворюється на abce, то у що перетвориться ijkl?’. Більшість людей відповість ‘ijkm‘, і [ШІ] зазвичай дає таку ж відповідь», — розповіла Льюїс у коментарі для Live Science. «Але інша задача може виглядати так: ‘якщо abbcd перетворюється на abcd, то у що перетвориться ijkkl?’ Люди зазвичай відповідають ‘ijkl‘, оскільки шаблон — це видалення повторюваного елемента. Але GPT-4 часто помиляється у таких завданнях.»

Читайте також -  NASA досягає прогресу в розробці системи управління безпекою дронів

Чому важливо, що ШІ не мислить, як люди

Льюїс зазначила, що люди можуть абстрагуватися від конкретних зразків до більш загальних правил, а великі мовні моделі цього не вміють. «Вони добре ідентифікують і співвідносять шаблони, але не можуть узагальнювати їх.»

Більшість застосувань ШІ певною мірою залежить від обсягу даних: чим більше навчальних даних, тим більше шаблонів розпізнається. Але Льюїс підкреслила, що розпізнавання шаблонів та абстракція — це не одне й те саме. «Справа не тільки в тому, які дані є в наявності, а й у тому, як вони використовуються», — додала вона.

Юридичні ризики: Чому слабке аналогічне мислення ШІ може бути небезпечним

Щоб зрозуміти потенційні наслідки, варто зазначити, що штучний інтелект все частіше застосовується у сфері права для досліджень, аналізу судової практики та рекомендацій щодо вироків. Але через слабку здатність до аналогій він може не розпізнати, як прецеденти застосовуються до дещо змінених справ. Оскільки ця нестійкість може вплинути на реальні рішення, дослідження підкреслило необхідність ретельної оцінки ШІ не лише за точністю, а й за його когнітивними можливостями.

Comments

Comments are closed.