Дослідження показує, що ШІ не становить загрози для існування людини

Наукова фантастика рясніє прикладами, коли штучний інтелект виходить з-під контролю і обертається проти своїх творців-людей. HAL-9000. Матриця. Скайнет. Ґладос. Сайлони. Людство, схоже, має глибокий страх перед повстанням машини. З появою все більш складних великих мовних моделей (ВММ), таких як Chat GPT, питання про те, яку небезпеку може становити штучний інтелект, стало ще більш актуальним.

І зараз у нас є хороші новини. Згідно з новим дослідженням, проведеним під керівництвом комп’ютерних вчених Ірини Гуревич з Технічного університету Дармштадта в Німеччині та Харіша Тайяра Мадабуші з Університету Бата у Великій Британії, ці моделі не здатні вийти з-під контролю.

Насправді вони занадто обмежені своїм програмуванням, не здатні набувати нових навичок без інструкцій, а отже, залишаються під контролем людини. Це означає, що хоча ми й можемо використовувати моделі в недобрих цілях, самі по собі LLMs безпечні для розвитку і не викликають занепокоєння.

«Побоювання полягало в тому, що в міру того, як моделі стають все більшими і більшими, вони зможуть вирішувати нові проблеми, які ми не можемо передбачити, що створює загрозу того, що ці більші моделі можуть набути небезпечних здібностей, включаючи міркування і планування», — говорить Тайяр Мадабуші.

«Наше дослідження показує, що страх, що модель піде і зробить щось абсолютно несподіване, інноваційне і потенційно небезпечне, не є обґрунтованим».

За останні кілька років складність LLMs зросла до вражаючих масштабів. Тепер вони здатні вести відносно зв’язну розмову за допомогою тексту, причому так, щоб це виглядало природно і по-людськи. Вони не ідеальні — оскільки вони, власне, не є формою інтелекту, їм бракує критичних навичок, необхідних для того, щоб у багатьох випадках відрізнити хорошу інформацію від поганої. Але вони все ще можуть переконливо доносити погану інформацію.

Нещодавно деякі дослідники вивчали можливість того, що так звані емерджентні здібності розвиваються у LLM самостійно, а не навмисно кодуються при програмуванні. Одним із конкретних прикладів є магістр права, який зміг відповісти на запитання про соціальні ситуації, не будучи спеціально навченим цим ситуаціям.

Спостереження показало, що в міру того, як LLM масштабуються, вони стають більш потужними і можуть виконувати більше завдань. Було незрозуміло, чи це масштабування також передбачає ризик поведінки, до якої ми можемо бути не готові. Тож дослідники провели дослідження, щоб з’ясувати, чи такі випадки дійсно виникають, чи програма просто діє складними способами в межах свого коду.

Вони експериментували з чотирма різними моделями LLM, доручаючи їм завдання, які раніше були визначені як емерджентні. Вони не знайшли жодних доказів розвитку диференційованого мислення або того, що будь-яка з моделей здатна діяти поза межами своєї програми.

У всіх чотирьох моделях здатність слідувати інструкціям, запам’ятовування та лінгвістичні здібності пояснювали всі здібності, які демонстрували магістри права. Не було жодних відхилень. Нам немає чого боятися, коли LLMs працюють самі по собі.

З іншого боку, люди менш надійні. Наше власне бурхливе використання штучного інтелекту, що вимагає більше енергії і ставить під сумнів все — від авторських прав до довіри і того, як уникнути власного цифрового забруднення, — перетворюється на справжню проблему.

«Наші результати не означають, що штучний інтелект взагалі не становить загрози, — каже Гуревич.

«Швидше, ми показуємо, що передбачувана поява складних навичок мислення, пов’язаних з конкретними загрозами, не підкріплена доказами, і що ми можемо дуже добре контролювати процес навчання магістрів права. Тому майбутні дослідження повинні зосередитися на інших ризиках, пов’язаних з моделями, таких як їх потенційна можливість використання для створення фейкових новин».

Дослідження було опубліковане у збірнику матеріалів 62-ї щорічної зустрічі Асоціації комп’ютерної лінгвістики (Association for Computational Linguistics).

Exit mobile version