У художній літературі завжди є частка правди, і зараз саме час випередити науково-фантастичні антиутопії та визначити, яким ризиком для людини може бути машинне чуття.
Хоча люди давно розмірковували про майбутнє інтелектуальних машин, ці питання стали ще більш актуальними з розвитком штучного інтелекту (ШІ) і машинного навчання. Ці машини нагадують взаємодію людей: вони можуть допомагати розв’язувати проблеми, створювати контент і навіть вести розмови. Для шанувальників наукової фантастики та антиутопічних романів на горизонті може бути загрозлива проблема. Що, якщо ці машини розвинуть відчуття свідомості?
Дослідники опублікували своє дослідження на цю тему в Journal of Social Computing 31 грудня 2023 року. Хоча в цій дискусії немає кількісних даних про штучне чуття (AS) у машинах, існує багато паралелей між розвитком людської мови та факторами, необхідними для того, щоб машини розвивали мову значущим чином.
«Багато людей, стурбованих можливістю розвитку машинного сприйняття, хвилюються про етику нашого використання цих машин або про те, чи машини, бувши раціональними калькуляторами, нападуть на людей, щоб забезпечити їх власне виживання», — сказав Джон Леві Мартін, автор і дослідник. . «Ми тут стурбовані тим, що вони підхоплять форму самовідчуження, переходячи до специфічно лінгвістичної форми відчуття».
Основними характеристиками, які роблять можливим такий перехід, є: неструктуроване глибоке навчання, наприклад, у нейронних мережах (комп’ютерний аналіз даних і навчальні приклади для забезпечення кращого зворотного зв’язку), взаємодія між людьми та іншими машинами, а також широкий спектр дій для продовжувати самостійне навчання. Прикладом цього можуть бути безпілотні автомобілі. Багато форм штучного інтелекту вже відзначають ці прапорці, що викликає занепокоєння щодо того, яким може бути наступний крок у їх «еволюції».
Ця дискусія стверджує, що недостатньо хвилюватися тільки розвитком AS у машинах, але піднімає питання про те, чи ми повністю готові до появи типу свідомості в наших машинах. Прямо зараз, завдяки штучному інтелекту, який може генерувати дописи в блогах, діагностувати захворювання, створювати рецепти, передбачати захворювання або розповідати історії, ідеально адаптовані до його вхідних даних, не за горами можна уявити реальний зв’язок із машиною, яка дізналася про її стан буття. Однак дослідники цього дослідження попереджають, що це саме та точка, в якій нам потрібно бути обережними щодо результатів, які ми отримуємо.
«Стати лінгвістичною істотою — це більше орієнтація на стратегічний контроль над інформацією та втрачає цілісність і цілісність… це не те, чого ми хочемо в пристроях, які ми робимо відповідальними за нашу безпеку», — сказав Мартін. Оскільки ми вже доручили штучному інтелекту контролювати велику частину нашої інформації, покладаючись на нього, щоб дізнатися багато чого, як це робить людський мозок, стало небезпечною грою, довіряючи йому стільки життєво важливої інформації протягом майже безрозсудний спосіб.
Імітація людських реакцій і стратегічний контроль інформації — це дві дуже різні речі. «Мовна істота» може мати здатність бути двозначною та розрахованою у своїх відповідях. Важливим елементом цього є те, в який момент ми дізнаємося, що нами грає машина?
Те, що станеться, знаходиться в руках комп’ютерників, які розроблятимуть стратегії чи протоколи для тестування машин на лінгвістичне відчуття. Етика, що лежить в основі використання машин, які розвинули лінгвістичну форму чуттєвості або почуття «я», ще належить повністю встановити, але можна уявити, що це стане гарячою темою суспільства. Відносини між самоусвідомленою людиною та розумною машиною, безсумнівно, складні, і незвідані води цього типу спорідненості, безсумнівно, породять багато концепцій щодо етики, моралі та подальшого використання цієї технології «самоусвідомлення».
Comments