Наука

Загроза вимирання людства «перебільшена», каже експерт ШІ

0

З того часу, як шість місяців тому на сцені з’явився ChatGPT, який викликав хвилювання, експерт Гері Маркус висловив застереження щодо надшвидкого розвитку та впровадження штучного інтелекту. Але на противагу апокаліптичним пророкам долі штучного інтелекту, почесний професор Нью-Йоркського університету сказав AFP в нещодавньому інтерв’ю, що екзистенціальні загрози технології наразі можуть бути «перебільшеними».

«Особисто я не надто стурбований ризиком вимирання, принаймні наразі, тому що сценарії не такі вже й конкретні», — сказав Маркус у Сан-Франциско.

«Більш загальна проблема, яка мене хвилює… полягає в тому, що ми створюємо системи штучного інтелекту, які ми не дуже добре контролюємо, і я думаю, що це створює багато ризиків, (але) можливо, не буквально екзистенційних».

Задовго до появи ChatGPT Маркус розробив свою першу програму штучного інтелекту в середній школі — програмне забезпечення для перекладу з латинської на англійську — і після багатьох років вивчення дитячої психології він заснував Geometric Intelligence, компанію машинного навчання, яку пізніше придбала Uber.

«Чому ШІ?»

У березні, стурбований тим, що творець ChatGPT OpenAI випускає свою останню та більш потужну модель штучного інтелекту спільно з Microsoft, Маркус підписав відкритий лист із понад 1000 людей, включаючи Ілона Маска, із закликом призупинити глобальну паузу в розробці штучного інтелекту.

Але минулого тижня він не підписав більш лаконічну заяву бізнес-лідерів і спеціалістів, у тому числі боса OpenAI Сема Альтмана, яка викликала резонанс. Підписанти наполягали, що світові лідери повинні працювати над зменшенням «ризику зникнення» технології штучного інтелекту.

У однорядковій заяві говориться, що боротьба з ризиками, пов’язаними з штучним інтелектом, має бути «глобальним пріоритетом поряд з іншими ризиками суспільного масштабу, такими як пандемії та ядерна війна».

Читайте також -  Руки восьминога надихають на створення більш людиноподібних роботів

Серед підписантів були ті, хто будує системи з метою досягнення «загального» штучного інтелекту, технології, яка підтримувала б когнітивні здібності на рівні з людськими.

«Якщо ви справді вважаєте, що існує ризик існування, навіщо ви взагалі над цим працюєте? Це цілком справедливе запитання», — сказав Маркус.

Замість того, щоб зосереджуватися на більш надуманих сценаріях, коли ніхто не виживе, суспільство має звернути увагу на те, де ховаються реальні небезпеки, припустив Маркус.

«Люди можуть намагатися маніпулювати ринками, використовуючи штучний інтелект, щоб спричинити всі види хаосу, а потім ми можемо, наприклад, звинуватити росіян і сказати: «Подивіться, що вони зробили з нашою країною», хоча росіяни насправді не були залучені. «, — продовжив він.

«Ви (можете) мати цю ескалацію, яка закінчиться ядерною війною чи чимось подібним. Тому я думаю, що є сценарії, коли це було досить серйозно. Вимирання? Я не знаю».

Загроза демократії

У короткостроковій перспективі експерт-психолог хвилюється за демократію. Програмне забезпечення Generative AI створює дедалі переконливіші підроблені фотографії, а незабаром і відео, за невелику ціну. У результаті «вибори виграють люди, які краще поширюють дезінформацію, і ці люди можуть змінити правила і справді ускладнити розвиток демократії».

Більше того, «демократія базується на наявності обґрунтованої інформації та прийнятті правильних рішень. Якщо ніхто не знає, у що вірити, то як взагалі продовжити демократію?»

Проте автор книги «Перезавантаження штучного інтелекту» не вважає, що нам слід відмовлятися від надії, оскільки все ще бачить «багато переваг». Безсумнівно, існує ймовірність, що штучний інтелект, який ще не винайшли, може «допомогти в науці, медицині та догляді за літніми», — сказав Маркус.

«Але в короткостроковій перспективі я відчуваю, що ми просто не готові. На цьому шляху буде певна шкода, і нам дійсно потрібно покращити нашу гру, ми повинні визначити серйозне регулювання», — сказав він.

Читайте також -  Людський спосіб життя підкреслює природні межі Землі

На слуханнях у Сенаті США в травні, поруч з Альтманом з OpenAI, Маркус виступав за створення національного або міжнародного агентства, відповідального за управління ШІ. Цю ідею також підтримує Альтман, який щойно повернувся з європейського туру, де він закликав політичних лідерів знайти «правильний баланс» між безпекою та інноваціями. Але остерігайтеся залишати владу корпораціям, попередив Маркус.

«Останні кілька місяців стали справжнім нагадуванням про те, що великі компанії, які тут керують, не обов’язково зацікавлені в нас інших», – попередив він. Джерело

Comments

Comments are closed.

error: Вміст захищено!!!