Одним із найбільш суперечливих питань останніх місяців є зловмисне використання чат-ботів зі штучним інтелектом. Дотримуючись кількох вказівок, більшість чат-ботів, у тому числі ChatGPT, можуть давати досить жорстокі результати, ігноруючи правила безпеки. Цю проблему може вирішити новий штучний інтелект, розроблений групою, яка залишила команду OpenAI, творця ChatGPT.
Чат-бот Claude, створений компанією Anthropic, нібито дотримується низки правил, зокрема Загальної декларації прав людини. Фірма каже, що чат-боти мають «совість».
Моральний штучний інтелект
Згідно з новинами в Wired, Клод рухається навколо структури, яку розробники називають конституцією, яка включає багато важливих цивілізаційних правил, таких як Загальна декларація прав людини. Джаред Каплан, засновник Anthropic, сказав, що це «в основному посилює неконституційну поведінку та стримує проблемну поведінку».
У той час як провідні імена технологій, включно з Ілоном Маском, кажуть, що швидке зростання штучного інтелекту може спричинити проблеми для людей у майбутньому, рішенням Anthropic цієї проблеми, схоже, є етичний штучний інтелект.
Клод, який, як стверджується, більш схильний давати відповіді, які підтримують свободу думки, совісті, думок, вираження поглядів, зборів і релігії, рівність і братерство, навчається в рамках суворого списку правил. Дослідник Вашингтонського університету Єджін Чой сказав: «Це здається чудовою ідеєю для Anthropic, яка привела до хороших експериментальних результатів». сказав. За словами Чоя, ми повинні створити такі конституції та норми для майбутнього штучного інтелекту.
Comments