Известный философ Ник Бостром считает, что будет «большая трагедия», если искусственный интеллект человеческого уровня никогда не будет разработан, хотя раньше этот человек предупреждал больше о катастрофических рисках для человечества, которыми грозит появление такой технологии.
Бостром, возглавляющий Институт будущего человечества при Оксфордском университете, привлек всемирное внимание в прошлом году, представив свою плодотворную работу «Сверхинтеллект: пути, опасности, стратегии». После этой публикации Стивен Хокинг, Билл Гейтс и Элон Маск выразили свою обеспокоенность проблемами, поднятыми в книге.
По мнению Маска, продвинутый ИИ может быть «опаснее ядерного оружия», а Хокинг не мелочась сообщил, что его появление приведет к концу человеческой эпохи.
В разговоре с IBTimes UK во время недавней конференции Silicon Valley Comes To Oxford, Бостром сообщил, что хотя угроза безусловно присутствует, он приветствует развитие сферы ИИ и надеется, что искусственный сверхинтеллект появится.
«Я думаю, что путь в самое лучшее будущее из возможных будет пролегать через создание машинного интеллекта в определенной точке, — говорит Бостром. — Я думаю, будет большая трагедия, если он никогда не будет разработан».
«Думаю, что, хотя было бы желательно приложить некоторые усилия по решению вопроса управления этой проблемой, определение начальных условий взрыва сверхинтеллекта будет наилучшим из возможных путей по повышению шансов на сохранение будущего в соответствии с общечеловеческими ценностями».
Для определения начальных условий Бостром предлагает выяснить желаемую последовательность технологического развития развивающихся областей вроде нанотехнологий и передовой синтетической биологии.
«Мы хотим решить проблемы с безопасностью еще до того, как кто-нибудь решит проблему самого ИИ», — говорит Бостром.
Последовательность, с которой разрабатываются различные технологии вроде этих, скорее всего, повлияет на общий риск траектории развития искусственного интеллекта. Бостром считает, что дальнейший прогресс должен быть сосредоточен на «проблемах контроля» путем увеличения инвестиций в талант и исследования.
Когда именно будет создан ИИ человеческого уровня, пока непонятно, хотя теоретики ИИ определяют сроки в 30-100 лет с нынешнего момента. Также непонятно, будет ли развитие передовых форм ИИ полезно для общества в целом или выгоду получат только отдельные лица и корпорации, контролирующие технологию.
В краткосрочной перспективе, Бостром говорит, что технологии ИИ вроде самоуправляемых автомобилей помогут обществу, повысив эффективность и безопасность. Его опасения сконцентрированы на более удаленных точках в будущем, когда машины перестанут быть просто инструментами и начнут подменять людей в широком спектре задач — а также смогут планировать и составлять стратегии на уровне с людьми.
Тем не менее, несмотря на мрачные возможности, которые открывает Бостром и его книга, философ не считает себя прорицателем конца света.
«Я пытаюсь узнать больше о том, на что будет похож ланшдафт будущих перспектив человечества, узнать, где будут коварные течения и как их можно будет обогнуть, — говорит Бостром. — Так что я больше заинтересован в выяснении того, что мы можем сделать сейчас, чтобы оказать наибольшее положительное влияние на наше будущее в долгосрочной перспективе. Мне больше интересно это, нежели определять абсолютный уровень риска или надеяться, что нам повезет в будущем. Я не настроен оптимистично или пессимистично — я откалибровал себя как только смог, чтобы опираться только на факты».
Взято с hi-news.ru
Будет трагедия, если искусственный сверхинтеллект никогда не появится: 5 комментариев