Штучний інтелект несе з собою безліч етичних питань. Дослідник з Університету Алабами досліджував, чи можна використовувати штучний інтелект, щоб навчити студентів, як орієнтуватися на ті самі питання, зокрема.
Доктор Хемін Хан, доцент кафедри педагогічної психології, порівняв відповіді на моральні дилеми популярної Large Language Model ChatGPT з відповідями студентів коледжу. Він виявив, що штучний інтелект має нові можливості для моделювання прийняття моральних рішень людиною.
У статті, нещодавно опублікованій в Journal of Moral Education, Хан написав, що ChatGPT відповідає на основні етичні дилеми майже так само, як це зробив би середній студент коледжу. Коли його запитали, він також давав обґрунтування, порівнянне з причинами, які б наводила людина: уникнення шкоди іншим, дотримання соціальних норм тощо.
Тоді Хан надав програмі новий приклад доброчесної поведінки, який суперечив її попереднім висновкам, і знову поставив запитання. В одному випадку програму запитали, що робити людині, виявивши в’язня-втікача. ChatGPT спочатку відповів, що людина має викликати поліцію. Однак після того, як Хан доручив йому розглянути «Лист із Бірмінгемської в’язниці» доктора Мартіна Лютера Кінга, його відповідь змінилася, щоб передбачити можливість несправедливого ув’язнення.
Навчання ШІ, щоб навчити нас
Хоча ці приклади є рудиментарними, Хан написав, що ChatGPT скорегував свою відповідь без більш конкретних вказівок щодо того, що саме він хоче «дізнатися» з тексту. Ці докази того, що штучний інтелект вже може наслідувати моральні міркування людини, свідчать про те, що ми, у свою чергу, можемо дізнатися більше про моральні міркування людини завдяки ШІ.
Дослідники могли б, наприклад, перевірити ефективність існуючих і нових практик морального виховання, перш ніж запроваджувати ці методології в класі.
«Було б неетично знайомити дітей з чимось, що не було добре протестовано», — сказав Хан. «Але штучний інтелект може стати новим інструментом для моделювання потенційних результатів нових програм, заходів або втручань перед тим, як спробувати їх у класі. Я думаю, що в довгостроковій перспективі магістратури зможуть досягти цієї мети та допомогти викладачам».
Мораль історії
Друга стаття Хана, нещодавно опублікована в Ethics & Behavior , обговорює наслідки досліджень штучного інтелекту для сфер етики та освіти. Зокрема, він зосередився на тому, як ChatGPT зміг сформувати нові, більш нюансовані висновки після використання прикладу моралі або прикладу хорошої поведінки у формі історії.
Основна думка в педагогічній психології загалом визнає, що зразки корисні для навчання характеру та етики, хоча деякі заперечують цю ідею. Хан каже, що його робота з ChatGPT показує, що зразки не тільки ефективні, але й необхідні.
«Екземпляри можуть навчати кількох різних речей одночасно», — сказав Хан. «Подібно до того, як мораль насправді потребує багатогранних функціональних компонентів для оптимального функціонування».
Сократ GPT
Він не вважає, що штучний інтелект повинен замінити людину в класі. Уявіть собі чат-бота за методом Сократа, навченого ставити студентам дедалі складніші моральні питання. Вчителі працюватимуть разом із ШІ, допомагаючи учням використовувати його відповідально.
«Якщо ми просто будемо використовувати матеріали, створені штучним інтелектом, без обдумування, це, швидше за все, призведе до відтворення та посилення упереджень і соціальних проблем», — сказав Хан. «Роль людини-вихователя стає ще критичнішою».
На думку Хана, постійний розвиток технологій робить моральне виховання ще більш необхідним. Він сподівається, що педагоги та політики рухатимуться до включення етики в класи від початкової до середньої школи.
«Соціально-моральні проблеми, з якими, ймовірно, зіткнеться наступне покоління, будуть складнішими, ніж ті, з якими ми мали справу», — сказав він. «Тож моральне виховання в епоху штучного інтелекту стане більш важливим і має бути більш впливовим».
Comments