Наверняка вы слышали о трех законах робототехники фантаста Азимова. Настало время, когда мы нуждаемся в этих законах, но для современного искусственного интеллекта правила Азимова не подходят. Ученые из Google, OpenAI, Стэнфорда и Беркли опубликовали документ, в котором целых пять законов для искусственного интеллекта.
Для того чтобы избежать потенциальных проблем, были разработаны следующие законы: Избегание негативных побочных эффектов — это дает гарантию того, что искусственный интеллект не будет менять что-либо в худшую сторону, преследуя свои цели.
Например, робот-уборщик не станет бить вазы потому, что это может ускорить процесс уборки. Избегание жульничества — тот же робот должен убирать мусор, а не прятать его, создавая видимость выполненной работы.
Масштабируемость надзора — искусственный интеллект должен максимально эффективно использовать полученную информацию о его работе от человека, не надоедая человеку слишком частыми вопросами и просьбами уточнить что-либо.
Безопасное обучение — очевидно, что робот должен экспериментировать и совершенствоваться, однако эти эксперименты не должны приводить к негативным последствиям.
К примеру, робот-уборщик не должен пытаться протереть розетки влажной тряпкой, даже если это может оказаться эффективным. Устойчивость к изменению вида деятельности — робот-уборщик, ответственный за порядок на фабрике, не должен опираться на свой опыт, занимаясь уборкой в офисе.
Взято с androidinsider.ru
Google сформулировала свои «законы робототехники»: 3 комментария
Обсуждение закрыто.