Космос

Штучний інтелект може пояснити, чому ми не зустрічаємо інопланетян

0

Штучний інтелект відчуває свою присутність тисячами різних способів. Це допомагає вченим зрозуміти величезні масиви даних; допомагає виявити фінансове шахрайство; він керує нашими автомобілями; він дає нам музичні пропозиції; його чат-боти зводять нас з розуму. І це тільки починається. Чи здатні ми зрозуміти, як швидко розвиватиметься ШІ? І якщо відповідь ні, чи є це Великим фільтром?

Парадокс Фермі — це розбіжність між очевидною високою ймовірністю існування розвинених цивілізацій і повною відсутністю доказів їхнього існування. Було запропоновано багато рішень, чому існує невідповідність. Однією з ідей є «Великий фільтр».

Великий фільтр — це гіпотетична подія чи ситуація, яка заважає розумному життю стати міжпланетним і міжзоряним і навіть призводить до його загибелі. Подумайте про зміну клімату, ядерну війну, удари астероїдів, вибухи наднових, епідемію чуми чи будь-яке інше з галереї катаклізмів ізгоїв.

Або як щодо швидкого розвитку ШІ?

Нова стаття в Acta Astronautica досліджує ідею про те, що штучний інтелект стає штучним суперінтелектом (ASI), а ASI — це великий фільтр. Стаття називається «Чи є штучний інтелект великим фільтром, який робить передові технічні цивілізації рідкісними у Всесвіті?» Автор — Майкл Гарретт з факультету фізики та астрономії Манчестерського університету.

«Без практичного регулювання є всі підстави вважати, що штучний інтелект може становити серйозну загрозу для майбутнього розвитку не лише нашої технічної цивілізації, але й усіх технічних цивілізацій». Майкл Гарретт, Манчестерський університет

Дехто вважає, що Великий фільтр заважає таким технологічним видам, як наш, стати мультипланетними. Це погано, тому що вид піддається більшому ризику вимирання або стагнації, маючи лише одну домівку. За словами Гарретта, вид бореться з часом без резервної планети.

«Вважається, що такий фільтр з’являється до того, як ці цивілізації зможуть розвинути стабільне багатопланетне існування, що свідчить про те, що типова довголіття (L) технічної цивілізації становить менше 200 років», — пише Гаррет.

Якщо це правда, це може пояснити, чому ми не виявляємо техносигнатур чи інших доказів ETI (позаземного розуму). Що це говорить нам про нашу власну технологічну траєкторію? Якщо ми зіткнемося з 200-річним обмеженням, і якщо це через ASI, що це залишить нас?

Ґарретт підкреслює «…найважливішу потребу швидко встановити нормативні рамки для розвитку ШІ на Землі та розвитку багатопланетного суспільства для пом’якшення таких екзистенційних загроз».

Багато вчених та інших мислителів кажуть, що ми стоїмо на порозі величезної трансформації. ШІ тільки починає змінювати те, як ми робимо речі; значна частина трансформації знаходиться за лаштунками. Здається, штучний інтелект готовий ліквідувати робочі місця для мільйонів, а в поєднанні з робототехнікою трансформація здається майже необмеженою. Це досить очевидне занепокоєння.

Але є глибші, більш систематичні проблеми. Хто пише алгоритми? Чи буде ШІ якось дискримінувати? Майже напевно. Чи конкуруючі алгоритми підірвуть могутні демократичні суспільства? Чи залишаться відкриті суспільства відкритими? Чи почне ASI приймати рішення за нас, і хто відповідатиме за це?

Це розширене дерево розгалужених запитань без чіткого кінця.

Стівен Хокінг (RIP) попередив, що ШІ може покінчити з людством, якщо воно почне розвиватися незалежно.

«Я боюся, що штучний інтелект може повністю замінити людей. Якщо люди розробляють комп’ютерні віруси, хтось розробить штучний інтелект, який удосконалюється та відтворює сам себе. Це буде нова форма життя, яка перевершить людей», — сказав він журналу Wired у 2017 році. людей, це стає ASI.

Хокінг може бути одним із найбільш впізнаваних голосів, які видають попередження про ШІ, але він далеко не єдиний. ЗМІ рясніють дискусіями та попередженнями, а також статтями про роботу, яку для нас робить ШІ. Найбільш тривожні попередження говорять про те, що ASI може стати шахраєм. Деякі люди відкидають це як наукову фантастику, але не Гаррет.

«Занепокоєння з приводу того, що штучний суперінтелект (ASI) врешті-решт стане шахраєм, вважається серйозною проблемою – боротьба з цією можливістю протягом наступних кількох років є зростаючим дослідженням для лідерів у цій галузі», – пише Гаррет.

Якби штучний інтелект не давав переваг, проблема була б набагато простішою. Але це надає всілякі переваги, від покращеної медичної візуалізації та діагностики до безпечніших транспортних систем. Хитрість урядів полягає в тому, щоб дозволити вигодам процвітати, обмежуючи шкоду.

«Це особливо стосується таких сфер, як національна безпека та оборона, де відповідальний і етичний розвиток має бути першочерговим», — пише Гаррет.

Проблема в тому, що ми та наші уряди не готові. Нічого подібного до штучного інтелекту ніколи не було, і як би ми не намагалися концептуалізувати його та зрозуміти його траєкторію, ми залишаємось недоречними.

І якщо ми опинимося в такому становищі, то це буде і з будь-яким іншим біологічним видом, який розвиває ШІ. Поява штучного інтелекту, а потім і ASI може стати універсальним, що зробить його кандидатом на Великий фільтр.

Це ризик, який представляє ASI у конкретних термінах: йому більше не може бути потрібне біологічне життя, яке його створило.

«Після досягнення технологічної унікальності системи ASI швидко перевищать біологічний інтелект і розвиватимуться зі швидкістю, яка повністю випереджатиме традиційні механізми нагляду, що призведе до непередбачуваних і ненавмисних наслідків, які навряд чи будуть узгоджені з біологічними інтересами чи етикою», — пояснює Гаррет.

Як ASI може звільнитися від надокучливого біологічного життя, яке його охоплює? Він може створити смертельний вірус, він може перешкоджати виробництву та розподілу сільськогосподарських продуктів харчування, він може змусити атомну електростанцію розтопити, і це може почати війни.

Ми насправді не знаємо, тому що це все незвідана територія. Сотні років тому картографи малювали монстрів на недосліджених регіонах світу, і це те, що ми робимо зараз.

Якщо все це звучить сумно і неминуче, Гаррет каже, що це не так.

Його аналіз поки що базується на ASI та людях, які займають той самий простір. Але якщо ми зможемо досягти багатопланетного статусу, перспектива зміниться.

«Наприклад, багатопланетний біологічний вид міг би скористатися незалежним досвідом на різних планетах, урізноманітнивши свої стратегії виживання та, можливо, уникнувши одноточкового провалу, з яким стикається планетарна цивілізація», — пише Гаррет.

Якщо ми зможемо розподілити ризик між кількома планетами навколо кількох зірок, ми зможемо захистити себе від найгірших можливих результатів ASI.

«Ця розподілена модель існування підвищує стійкість біологічної цивілізації до катастроф, спричинених штучним інтелектом, створюючи надмірність», — пише він.

Якщо одна з планет або форпостів, які окупують майбутні люди, не зможе вижити в технологічній сингулярності ASI, інші можуть вижити. І вони б цьому навчилися.

Мультипланетарний статус може допомогти навіть більше, ніж просто пережити ASI. Це може допомогти нам освоїти його. Гарретт уявляє ситуації, коли ми можемо більш ретельно експериментувати зі штучним інтелектом, зберігаючи його під контролем. Уявіть собі штучний інтелект на ізольованому астероїді чи карликовій планеті, який виконує наші накази, не маючи доступу до ресурсів, необхідних для виходу з в’язниці.

«Це дозволяє створювати ізольовані середовища, де можна вивчати вплив передового ШІ без безпосереднього ризику глобального знищення», — пише Гаррет.

Але ось головоломка. Розробка штучного інтелекту йде прискореними темпами, тоді як наші спроби стати мультипланетними – ні.

«Різниця між швидким розвитком штучного інтелекту та повільним прогресом космічних технологій є разючою», — пише Гаррет.

Різниця в тому, що штучний інтелект є обчислювальним та інформаційним, але космічні подорожі містять численні фізичні перешкоди, які ми ще не знаємо, як подолати. Наша власна біологічна природа стримує космічні подорожі, але жодна така перешкода не стримує ШІ.

«Хоча штучний інтелект теоретично може покращити власні можливості майже без фізичних обмежень, — пише Гарретт, — космічні подорожі повинні боротися з енергетичними обмеженнями, матеріалознавчими межами та суворими реаліями космічного середовища».

Наразі ШІ працює в рамках встановлених нами обмежень. Але це не завжди так. Ми не знаємо, коли штучний інтелект може стати ASI і навіть чи зможе це зробити. Але ми не можемо ігнорувати цю можливість. Це призводить до двох взаємопов’язаних висновків.

Якщо Гаррет має рацію, людство має більш старанно працювати над космічними подорожами. Це може здатися надуманим, але обізнані люди знають, що це правда: Земля не буде придатною для життя вічно. Людство загине тут від нашої власної руки або від руки природи, якщо ми не розширимося в космос. Оцінка Гаррета на 200 років просто ставить знак оклику. Оновлений наголос на досягненні Місяця та Марса дає певну надію.

Другий висновок стосується законодавчого регулювання та управління штучним інтелектом, складного завдання у світі, де психопати можуть отримати контроль над цілими націями та налаштовані на ведення війни.

«Хоча зацікавлені сторони галузі, політики, окремі експерти та їхні уряди вже попереджають про необхідність регулювання, створення нормативної бази, яка може бути глобально прийнятною, буде складним завданням», — пише Гаррет.

Виклик ледве описує це. Міжусобні чвари людства роблять усе це ще більш некерованим. Крім того, як би швидко ми не розробляли інструкції, ASI може змінитися ще швидше.

«Без практичного регулювання є всі підстави вважати, що штучний інтелект може становити серйозну загрозу для майбутнього розвитку не лише нашої технічної цивілізації, але й усіх технічних цивілізацій», — пише Гаррет.

Якщо ми це зробимо, це може звестися до того, що може здатися нудним і буденним: сперечатися про законодавство.

«Збереження розумного та свідомого життя у Всесвіті може залежати від своєчасного та ефективного впровадження таких міжнародних регуляторних заходів і технологічних зусиль», — пише Гаррет.

Comments

Comments are closed.