GPT-4 від OpenAI, система ШІ, що лежить в основі популярного чат-бота ChatGPT, нещодавно потрапила в заголовки газет після того, як інженер-хімік використав її, щоб запропонувати нову нервово-паралітичну речовину. Інженер Ендрю Вайт входив до групи експертів, найнятих OpenAI для вивчення ризиків, пов’язаних із розгортанням передових систем ШІ в суспільстві. Група під назвою «Червона армія» підштовхнула GPT-4, щоб перевірити його межі та зрозуміти потенційну небезпеку. Вони перевірили здатність моделі відповідати на пробні чи небезпечні запитання, пов’язані з токсикологією, плагіатом, національною безпекою та мовними маніпуляціями.
Хоча багато тестувальників висловлювали занепокоєння щодо потенційних ризиків, пов’язаних зі зв’язуванням мовних моделей із зовнішніми джерелами знань через плагіни, OpenAI запевнив громадськість, що серйозно поставився до безпеки та протестував плагіни перед їх випуском. Зворотний зв’язок Червоної Армії також використовувався для перенавчання моделі та розв’язання її проблем перед ширшим впровадженням GPT-4.
Однак, не зважаючи на зусилля OpenAI усунути ризики, пов’язані з моделлю, деякі члени Червоної армії, такі як Роя Пакзад і Бору Голло, відзначили, що GPT-4 все ще демонструє упередження та дискримінаційні відтінки, особливо під час тестування за статтю, расою та мова. Не зважаючи на критику та скарги з боку груп технологічної етики, OpenAI запустив нову функцію під назвою плагін ChatGPT, яка дозволяє програмам-партнерам надавати ChatGPT доступ до своїх послуг,
Розробка GPT-4 та інших передових систем штучного інтелекту порушує важливі питання щодо потенційної небезпеки розгортання цих систем у суспільстві. Хоча вони пропонують швидші та точніші інструменти для досліджень і розробок, вони також становлять значні ризики для громадської безпеки. Таким чином, для таких компаній, як OpenAI, вкрай важливо вживати профілактичних заходів, щоб розв’язувати ці проблеми та забезпечити відповідальний розвиток і розгортання технології ШІ.