Точка зору: ChatGPT не може думати

Світ був шокований швидкими темпами розвитку ChatGPT та іншого штучного інтелекту, створеного за допомогою так званих великих мовних моделей (LLM). Ці системи можуть створювати текст, який, здається, відображає думку, розуміння і навіть творчість.

Але чи справді ці системи можуть мислити й розуміти? На це питання не можна відповісти завдяки технологічному прогресу, але ретельний філософський аналіз і аргументація говорять нам, що відповідь – ні. І без опрацювання цих філософських питань ми ніколи не зможемо повністю зрозуміти небезпеки та переваги революції ШІ.

У 1950 році батько сучасної комп’ютерної техніки Алан Тюрінг опублікував статтю, в якій описував спосіб визначення того, чи думає комп’ютер. Тепер це називається «тест Тюрінга». Тьюрінг уявив собі людину, яка веде розмову з двома співрозмовниками, прихованими від очей: один — людина, інший — комп’ютер. Гра полягає в тому, щоб визначити, що є що.

Якщо комп’ютер може обдурити 70% суддів під час п’ятихвилинної розмови, щоб вони подумали, що це людина, комп’ютер успішно пройшов тест. Чи пройде тест Тюрінга — те, що зараз здається неминучим — покаже, що ШІ досяг розуму та розуміння?

Шаховий виклик

Тьюрінг відкинув це питання як безнадійно туманне і замінив його прагматичним визначенням «думки», згідно з яким думати означає просто пройти тест. Однак Тьюрінг помилявся, коли казав, що єдине чітке поняття «розуміння» — це суто поведінкове поняття проходження його тесту. Хоча цей спосіб мислення зараз домінує в когнітивній науці, існує також чітке повсякденне поняття «розуміння», яке пов’язане зі свідомістю. Зрозуміти в цьому сенсі означає свідомо осягнути деяку правду про реальність.

У 1997 році Deep Blue AI переміг шахового гросмейстера Гаррі Каспарова. Виходячи з суто поведінкової концепції розуміння, Deep Blue мав знання про шахову стратегію, яке перевершує будь-яку людину. Але воно не було свідомим: у нього не було ні почуттів, ні переживань.

Люди свідомо розуміють правила гри в шахи та обґрунтування стратегії. Deep Blue, навпаки, був безчуттєвим механізмом, який був навчений, щоб добре працювати в грі. Подібним чином ChatGPT — це безчуттєвий механізм, який був навчений на величезній кількості створених людьми даних для створення вмісту, який виглядає так, ніби його написала людина. Він свідомо не розуміє значення слів, які викидає. Якщо «думка» означає акт свідомого відображення, то у ChatGPT немає думок ні про що.

Час платити

Як я можу бути настільки впевненим, що ChatGPT не у свідомості? У 1990-х нейробіолог Крістоф Кох побився об заклад з філософом Девідом Чалмерсом на ящик гарного вина, що вчені повністю встановили б «нейронні кореляти свідомості» за 25 років. Під цим він мав на увазі, що вони визначили форми мозкової активності, необхідні й достатні для свідомого досвіду. Настав час Коху розплатитися, оскільки немає єдиної думки, що це сталося.

Це тому, що свідомість неможливо спостерігати, заглянувши всередину вашої голови. У своїх спробах знайти зв’язок між мозковою активністю та досвідом нейробіологи повинні покладатися на свідчення своїх піддослідних або на зовнішні маркери свідомості. Але існує кілька способів інтерпретації даних.

Деякі вчені вважають, що існує тісний зв’язок між свідомістю та рефлексивним пізнанням — здатністю мозку отримувати доступ до інформації та використовувати її для прийняття рішень. Це змушує їх думати, що префронтальна кора головного мозку, де відбуваються процеси високого рівня отримання знань, суттєво бере участь у всьому свідомому досвіді. Інші заперечують це, натомість стверджуючи, що це відбувається в будь-якій місцевій області мозку, де відбувається відповідна сенсорна обробка.

Вчені добре розуміють основну хімію мозку. Ми також досягли прогресу в розумінні функцій високого рівня різних частин мозку. Але ми майже не знаємо про те, що відбувається між ними: як високорівневе функціонування мозку реалізується на клітинному рівні.

Люди дуже захоплюються потенціалом сканування для виявлення роботи мозку. Але фМРТ (функціональна магнітно-резонансна томографія) має дуже низьку роздільну здатність: кожен піксель сканування мозку відповідає 5,5 мільйона нейронів, а це означає, що існує обмеження щодо того, скільки деталей можуть показати ці сканування. Я вірю, що прогрес у свідомості відбудеться, коли ми краще зрозуміємо, як працює мозок.

Пауза в розвитку

Як я стверджую у своїй майбутній книзі «Чому? Мета Всесвіту», свідомість, мабуть, еволюціонувала, тому що змінила поведінку. Системи зі свідомістю повинні поводитися інакше, а отже, виживати краще, ніж системи без свідомості. Якби вся поведінка визначалася хімією та фізикою, що лежить в основі, природний відбір не мав би мотивації робити організми свідомими; ми б еволюціонували як безчуттєві механізми виживання.

Тому я впевнений, що коли ми дізнаємося більше про роботу мозку, ми точно визначимо, які його області втілюють свідомість. Це пояснюється тим, що ці регіони демонструватимуть поведінку, яку неможливо пояснити відомими на цей час хімією та фізикою. Деякі нейробіологи вже шукають потенційні нові пояснення свідомості, щоб доповнити основні рівняння фізики.

Хоча обробка LLM зараз надто складна для повного розуміння, ми знаємо, що в принципі її можна передбачити з відомої фізики. Виходячи з цього, ми можемо впевнено стверджувати, що ChatGPT не є свідомим. Штучний інтелект створює багато небезпек, і я повністю підтримую нещодавній заклик десятків тисяч людей, у тому числі технічних лідерів Стіва Возняка та Ілона Маска, призупинити розробку, щоб розв’язувати проблеми безпеки. Потенціал для шахрайства, наприклад, величезний. Однак аргумент про те, що найближчі нащадки нинішніх систем штучного інтелекту будуть надрозумними й, отже, серйозною загрозою для людства, є передчасним.

Це не означає, що поточні системи ШІ не небезпечні. Але ми не можемо правильно оцінити загрозу, якщо не класифікуємо її точно. LLMs не розумні. Це системи, навчені створювати зовнішній вигляд людського інтелекту. Страшно, але не так страшно.

error: Вміст захищено!!!
Exit mobile version