Технології

Дослідження проливає світло на темну сторону ШІ

0

Сьогодні штучний інтелект рекламується як панацея майже від усіх обчислювальних проблем, від медичної діагностики до безпілотних автомобілів до запобігання шахрайству. Але коли штучний інтелект дає збій, він робить це «досить вражаюче», каже Верн Глейзер з Альбертської школи бізнесу. У своєму недавньому дослідженні «Коли правлять алгоритми, цінності можуть згаснути» Глейзер пояснює, як людські цінності часто підпадають під імператив ефективності ШІ та чому витрати можуть бути високими.

«Якщо ви не намагатиметеся активно продумати ціннісні наслідки, це призведе до поганих результатів», — каже він.

Глейзер наводить Тея від Microsoft як один із прикладів поганих результатів. Коли чат-бот був представлений у Twitter у 2016 році, він був відкликаний протягом 24 годин після того, як тролі навчили його викидати расистські слова.

Потім був скандал із «робоборгами» 2015 року, коли австралійський уряд використовував штучний інтелект для виявлення переплати допомоги по безробіттю та інвалідності. Але алгоритм вважав, що кожна невідповідність свідчить про переплату, і автоматично надсилав листи-повідомлення з вимогою повернення. Якщо хтось не реагував, справу передавали стягувачу. До 2019 року програма виявила понад 734 000 переплат на суму два мільярди австралійських доларів (1,8 мільярда канадських доларів).

«Ідея полягала в тому, що шляхом усунення людських суджень, які формуються упередженнями та особистими цінностями, автоматизована програма прийматиме кращі, справедливіші та раціональніші рішення за набагато менших витрат», — каже Глейзер.

Але людські наслідки були жахливими, каже він. Парламентські перевірки виявили «фундаментальний брак процесуальної справедливості» та назвали програму «неймовірно позбавляючою можливостей тих людей, які постраждали, спричиняючи значні емоційні травми, стрес і сором», включаючи щонайменше два самогубства.

Хоча ШІ обіцяє принести величезну користь суспільству, зараз ми також починаємо бачити його темне підчерев’я, каже Глейзер. У нещодавній колонці Globe and Mail Лоуренс Мартін вказує на антиутопічні можливості ШІ, включаючи автономну зброю, яка може стріляти без нагляду людини, кібератаки, глибокі фейки та кампанії з дезінформації. Колишній генеральний директор Google Ерік Шмідт попередив, що штучний інтелект можна легко використовувати для створення вбивчої біологічної зброї.

Глейзер ґрунтується на своєму аналізі в понятті «техніки» французького філософа Жака Елюля, запропонованому в його книзі «Технологічне суспільство» 1954 року, згідно з яким кожна сфера людської діяльності визначається імперативами ефективності та продуктивності.

«Еллул був дуже прозорливим», — каже Глейзер. «Його аргумент полягає в тому, що коли ви проходите через цей процес техніки, ви за своєю суттю позбавляєтеся цінностей і створюєте цей механістичний світ, де ваші цінності по суті зводяться до ефективності.

«Немає значення, штучний інтелект це чи ні. ШІ у багатьох відношеннях є, мабуть, лише найкращим його прикладом».

Щоб захиститися від «тиранії техніки» в ШІ, Глейзер пропонує дотримуватися трьох принципів. По-перше, визнайте, що оскільки алгоритми є математичними, вони покладаються на «проксі», або цифрові представлення реальних явищ. Наприклад, Facebook оцінює дружбу за кількістю друзів у користувача або за кількістю лайків, отриманих публікаціями друзів.

«Чи справді це міра дружби? Це міра чогось, але інше питання, чи це справді дружба», — каже Глейзер, додаючи, що інтенсивність, природу, нюанси та складність людських стосунків можна легко не помітити.

«Коли ви оцифровуєте явища, ви, по суті, представляєте щось як число. І коли ви отримуєте такий вид операцій, легко забути, що це урізана версія будь-якої ширшої концепції».

Розробникам ШІ Глейзер рекомендує стратегічно включати людське втручання в алгоритм прийняття рішень і створювати системи оцінки, які враховують кілька цінностей.

«Існує тенденція, коли люди впроваджують алгоритм прийняття рішень, щоб зробити це один раз, а потім відпустити», — каже він, але штучний інтелект, який втілює людські цінності, потребує пильного й постійного нагляду, щоб запобігти виникненню його потворного потенціалу.

Іншими словами, штучний інтелект — це просто відображення того, хто ми є — у найкращому та найгіршому вигляді. Без гарного, ретельного погляду в дзеркало останній міг би взяти верх.

«Ми хочемо переконатися, що розуміємо, що відбувається, щоб ШІ не керував нами», — каже він. «Важливо пам’ятати про темну сторону. Якщо ми зможемо це зробити, це може стати силою для суспільного блага».

Comments

Comments are closed.