Технічні гіганти змушені розкрити секрети ШІ

Європейська комісія змушує 19 технологічних гігантів, включаючи Amazon, Google, TikTok і YouTube, пояснити свої алгоритми штучного інтелекту (AI) відповідно до Закону про цифрові послуги. Попросити ці компанії — платформи та пошукові системи з понад 45 мільйонами користувачів ЄС — надати цю інформацію — це вкрай необхідний крок до того, щоб зробити штучний інтелект більш прозорим і підзвітним. Це зробить життя кращим для всіх.

Очікується, що штучний інтелект вплине на кожен аспект нашого життя — від охорони здоров’я до освіти, до того, на що ми дивимось і слухаємо, і навіть від того, наскільки добре ми пишемо. Але штучний інтелект також породжує багато страху, який часто обертається навколо богоподібного комп’ютера, який стає розумнішим за нас, або ризику того, що машина, якій доручено виконувати нешкідливе завдання, може ненавмисно знищити людство. Більш прагматично, люди часто задаються питанням, чи штучний інтелект зробить їх зайвими.

Ми були там раніше: машини та роботи вже замінили багатьох фабричних робітників і банківських клерків, не привівши до кінця роботи. Але підвищення продуктивності на основі ШІ супроводжується двома новими проблемами: прозорістю та підзвітністю. І всі програють, якщо ми серйозно не подумаємо про найкращий спосіб розв’язання цих проблем.

Звичайно, ми вже звикли, що нас оцінюють за допомогою алгоритмів. Банки використовують програмне забезпечення для перевірки наших кредитних рейтингів перед тим, як запропонувати нам іпотеку, як і страхові компанії чи компанії мобільного зв’язку. Програми для обміну поїздками перевіряють, чи ми достатньо приємні, перш ніж запропонувати нам поїздку. Ці оцінки використовують обмежену кількість інформації, відібраної людьми: ваш кредитний рейтинг залежить від історії ваших платежів, ваш рейтинг Uber залежить від того, як ставилися до вас попередні водії.

Рейтинги чорної скриньки

Але нові технології на основі ШІ збирають і впорядковують дані без нагляду людини. Це означає, що набагато складніше притягнути когось до відповідальності або справді зрозуміти, які фактори були використані для отримання машинно створеного рейтингу чи рішення. Що, якщо ви починаєте виявляти, що вам ніхто не передзвонює, коли ви подаєте заявку на роботу, або що вам заборонено позичати гроші? Це може бути через якусь помилку про вас десь в Інтернеті.

У Європі ви маєте право бути забутим і вимагати від онлайн-платформ видалення недостовірної інформації про вас. Але буде важко з’ясувати, яка інформація є невірною, якщо вона надходить від неконтрольованого алгоритму. Швидше за все, жодна людина не знає точної відповіді.

Якщо помилки погані, точність може бути ще гіршою. Що станеться, наприклад, якщо ви дозволите алгоритму переглянути всі доступні дані про вас і оцінити вашу здатність погасити кредит?

Високопродуктивний алгоритм може зробити висновок, що, за інших рівних умов, жінка, член етнічної групи, яка схильна до дискримінації, житель бідного району, хтось, хто розмовляє з іноземним акцентом або хтось не «добре виглядає», є менш кредитоспроможним.

Дослідження показують, що ці типи людей можуть розраховувати на те, що вони зароблять менше, ніж інші, і, отже, мають меншу ймовірність погасити свій кредит — алгоритми також «знають» це. Хоча існують правила, які забороняють людям у банках дискримінувати потенційних позичальників, алгоритм, що діє окремо, може вважати правильним стягувати з цих людей більше грошей за позичання грошей. Така статистична дискримінація може створити порочне коло: якщо ви повинні платити більше, щоб позичити, вам може бути важко зробити ці вищі виплати.

Навіть якщо ви забороните алгоритму використовувати дані про захищені характеристики, він може дійти подібних висновків на основі того, що ви купуєте, фільмів, які ви дивитеся, книг, які читаєте, або навіть способу написання та жартів, які змушують вас сміятися. Проте алгоритми вже використовуються для перевірки заявок на роботу, оцінювання студентів і допомоги поліції.

Вартість точності

Окрім міркувань справедливості, статистична дискримінація може завдати шкоди кожному. Дослідження французьких супермаркетів показало, наприклад, що коли співробітники з мусульманським ім’ям працюють під керівництвом упередженого керівника, працівник менш продуктивний, оскільки упередження керівника стає самоздійснюваним пророцтвом.

Дослідження італійських шкіл показує, що гендерні стереотипи впливають на успішність. Коли вчитель вважає, що дівчата слабші за хлопчиків у математиці та сильніші в літературі, учні відповідно організовують свої зусилля, і вчитель має рацію. Деякі дівчата, які могли б бути великими математиками, або хлопці, які могли б стати чудовими письменниками, можуть у підсумку обрати неправильну професію.

Коли люди беруть участь у прийнятті рішень, ми можемо виміряти та, певною мірою, виправити упередження. Але неможливо зробити алгоритми без контролю відповідальними, якщо ми не знаємо точної інформації, яку вони використовують для прийняття своїх рішень.

Якщо штучний інтелект дійсно хоче покращити наше життя, то прозорість і підзвітність будуть ключовими — в ідеалі, ще до того, як алгоритми будуть запроваджені в процес прийняття рішень. Це мета Закону ЄС про штучний інтелект. І тому, як це часто буває, правила ЄС можуть швидко стати світовим стандартом. Ось чому компанії повинні ділитися комерційною інформацією з регуляторними органами, перш ніж використовувати її для конфіденційних практик, таких як наймання.

Звичайно, таке регулювання передбачає досягнення балансу. Великі технологічні компанії вважають штучний інтелект наступним великим заходом, і інновації в цій сфері зараз також є геополітичною гонки. Але інновації часто відбуваються лише тоді, коли компанії можуть зберігати частину своїх технологій у таємниці, тому завжди існує ризик того, що надмірне регулювання загальмує прогрес.

Дехто вважає, що відсутність у ЄС великих інновацій ШІ є прямим наслідком суворих законів про захист даних. Але якщо ми не зобов’яжемо компанії відповідати за результати своїх алгоритмів, багато з можливих економічних вигод від розробки штучного інтелекту все одно можуть мати зворотний ефект.

error: Вміст захищено!!!
Exit mobile version