В 1942 году известный писатель-фантаст Айзек Азимов сформулировал три основных закона робототехники, правила, которым должны беспрекословно подчиняться роботы. Звучат эти три закона следующим образом:
1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

Эти три правила четки и понятны, и хорошо, что подчинение робота человеку определено вторым правилом. Проблема заключается лишь в том, что люди действуют не всегда логично и способны дать роботам такие указания, выполнение которых чревато для самих роботов не очень хорошими последствиями.

Робот

Для решения этой проблемы Гордон Бриггс (Gordon Briggs) и Мэттиас Шеуц (Matthias Scheutz), исследователи из Лаборатории проблем взаимодействия роботов и людей (Human-Robot Interaction Lab) университета Тафтса (Tufts University), США, разработали ряд дополнительных правил и алгоритмов, позволяющих роботам отклонять некоторые приказания получаемые ими от людей, если у них имеется ряд оснований для этого.

В лингвистической теории существует набор правил, определяющий возможность выполнения индивидом какого-либо действия:

1. Известно ли мне, как выполнить действие Х?
2. Способен я физически выполнить действие Х?
3. Способен ли я выполнить действие Х прямо сейчас?
4. Позволяет ли мне мой социальный статус выполнить действие Х?
5. Нарушает ли выполнение действия Х какой-либо из нормативных принципов?

Первые три условия прозрачны и просты для понимания, но условия 4 и 5 можно использовать в качестве правил, позволяющих роботу не выполнять прямые приказы людей. Четвертое правило можно интерпретировать для того, чтобы выполнить проверку наличия у человека полномочий на подачу роботу команд. А пятое правило позволяет роботу не выполнять действия, которые опасны для него или для окружающих.

Читайте також -  Huawei не планує випускати компактні телефони

Правильное использование приведенных выше правил позволяют четко определить, когда робот должен или не следовать приказам человека. Более того, эти правила можно использовать для дачи человеку аргументированного пояснения причин отказа выполнения поданной команды.

На первом видеоролике показан пример, в котором робот отклоняет команду «идти вперед», так как это нарушает 5-й нормативный принцип, роботу известно, что он упадет со стола, что приведет к его поломке. Он сообщает человеку об этом и просит его изменить команду так, чтобы робот смог ее выполнить.

Во втором примере робот отклоняет команду человека пройти через препятствие, стену из кубиков. В данном случае человеку известно, что это препятствие хрупко и неустойчиво, но роботу ведь об этом ничего не известно.

И в последнем примере робот отклоняет команду, поданную человеком, который не обладает нужными для этого полномочиями.

Во всех приведенных примерах второй и третий законы робототехники за счет применения дополнительных правил интерпретированы таким образом, что робот игнорирует приказы человека в тех случаях, когда роботу может быть нанесен ущерб.

Следует отметить, что все происходящее напоминает опасный прецедент, который в будущем может сыграть не на пользу человечества. Тем не менее, не стоит допускать ситуации, когда робот будет беспрекословно подчиняться командам любого человека, с которым ему довелось столкнуться. В последнем случае беспрекословное подчинение может привести к большому беспорядку и разрушительному хаосу, который может быть вызван действия некомпетентных людей, собравшихся ради шутки или в более зловещих целях покомандовать роботами.

Взято с dailytechinfo.org

3 Comments

  1. … [Trackback]

    […] Read More Info here to that Topic: portaltele.com.ua/news/technology/robotov-snabdili-sposobnostyu-ne-pod.html […]

  2. … [Trackback]

    […] Read More Info here to that Topic: portaltele.com.ua/news/technology/robotov-snabdili-sposobnostyu-ne-pod.html […]

  3. … [Trackback]

    […] Find More to that Topic: portaltele.com.ua/news/technology/robotov-snabdili-sposobnostyu-ne-pod.html […]

Leave a reply