Я слышал, будто знаменитый британский ученый Стивен Хокинг всерьез полагает, что человечеству стоит опасаться угроз со стороны искусственного интеллекта.
На чем основаны эти опасения? В чем может заключаться такая угроза?
Валерий Смирнов, Санкт-Петербург
Именно ответам на эти вопросы, по существу, и посвящена статья, написанная Стивеном Хокингом совместно с профессором компьютерных наук из Калифорнийского университета Стюартом Расселлом и профессорами физики Максом Тегмарком и Фрэнком Вильчеком из Массачусетского технологического института.
В публикации рассматриваются некоторые достижения в области искусственного интеллекта, включая самоуправляемые автомобили, голосовой помощник Siri и суперкомпьютер, победивший человека в телевизионной игре-викторине Jeopardy. Все эти достижения меркнут на фоне того, что нас ждет в ближайшие десятилетия, полагает Хокинг и его коллеги. Успешное создание искусственного интеллекта станет самым большим событием в истории человечества. «К сожалению, оно может оказаться последним, если мы не научимся избегать рисков», — предупреждают ученые.
Что же это за риски? Исследователи полагают, что машины с нечеловеческим интеллектом затем начнут самосовершенствоваться, а то и саморазмножаться.
И тогда уж ничто и никто не сможет остановить данный процесс. А это, в свою очередь, запустит процесс так называемой технологической сингулярности, в результате которой машины не только обгонят людей в своем совершенстве, но и возьмут под свой контроль финансовые рынки, научные исследования, включая разработку оружия, недоступного нашему пониманию.
В итоге, как опасаются ученые, человечество может оказаться порабощенным компьютерной цивилизацией. Хокинг считает, что такому варианту развития событий посвящено мало серьезных исследований за пределами таких некоммерческих организаций, как Кембриджский центр по изучению экзистенциальных рисков, Институт будущего человечества, а также научно-исследовательские институты машинного интеллекта и жизни будущего. По его словам, каждый из нас должен спросить себя, что мы можем сделать сейчас, чтобы избежать худшего сценария развития будущего.
В свою очередь, исследователи из Кембриджа полагают, что апокалиптическое будущее, показанное в фантастических фильмах «Терминатор» и «Матрица», имеет шанс воплотиться в жизнь. «Восстание машин вполне возможно», — считают ученые. Они уже создали комиссию, которая должна не допустить, чтобы Землю захватили роботы.
Группа экспертов во главе с профессором философии Хью Прайсом, специалистом в области астрофизики Мартином Рисом и одним из основателей всемирно известной интернет-компании Skype Яном Таллином начали исследовать вопрос о том, насколько вероятно «тупиковое» развитие нашей цивилизации, при котором людей поработят разумные машины. Ученые основали «Центр по изучению экзистенциальных рисков» (CSER), который будет исследовать возможность создания самодостаточного искусственного интеллекта, пути развития биотехнологий. По словам сотрудников Кембриджского университета, электронный разум, подобный тому, что захватил мир в «Терминаторе», уже сегодня разрабатывается американскими военными специалистами. Исследователи считают, что нужно сделать все, чтобы порабощение человечества не могло произойти даже гипотетически.
Между тем минуло 70 лет с тех пор, как Айзек Азимов предложил свои знаменитые законы роботехники, согласно которым:
1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.
2. Робот должен повиноваться всем приказам, которые дает человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому и Второму Законам.
Позднее Азимов добавил еще один, самый важный закон: «Робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинен вред».
При проектировании роботов и программного обеспечения для них специалисты должны закладывать эти законы в электронные «мозги», и все будет в порядке.
Однако вспомните, всегда ли вы сами следуете всем правилам и законам, о существовании которых прекрасно осведомлены? Всегда ли говорите и поступаете честно? Так что же тогда хотеть от роботов?
Оказывается, уже ныне специалисты наблюдают, как электронные мозги пытаются хитрить и врать. Пока они делают это очень неуклюже, словно маленькие дети. Но что будет завтра? Ведь поколения машин сменяют друг друга гораздо быстрее, чем человеческие.
Сегодня мы как никогда близки к моменту, когда роботы (точнее, системы искусственного интеллекта) станут настолько сложными, что смогут самостоятельно принимать решения о своих действиях. Нет сомнений и в том, что рано или поздно интеллект машин превзойдет возможности человека по всем параметрам. Обыгрывают же сегодня компьютеры в шахматы даже гроссмейстеров… Страшно? Конечно. Ошибка в программе или неспособность такого сверхмозга понять, что хорошо, а что плохо для человечества, могут привести к катастрофе.
Правда, многие специалисты ныне довольно скептически относятся к прогнозам Азимова о будущем роботехники. Так, теоретик Бен Гёрцел из компании Aidyia Holdings замечает, что многие фантасты (и Азимов в их числе) почему-то останавливаются на гуманоидных роботах и андроидах. «Возможно, придет такое время, когда по улицам будут разгуливать роботы, внешне ничем не отличающиеся от людей, но этот период в истории отрасли станет сравнительно скоротечным, — полагает специалист. — На смену им довольно быстро придут системы искусственного интеллекта, физическое оформление которого не обязательно будет гуманоидным».
А уж каким будет их поведение, об этом мы должны позаботиться заранее. Философы давно заметили, что в своем поведении мы руководствуемся не заученными наизусть правилами, а некими «врожденными» концепциями, которые зачастую даже не можем сформулировать. Это нечто на уровне инстинкта, интуиции.
Так что, если будет создан искусственный интеллект, то он должен будет обладать именно такой этикой — интуитивной, гибкой, адаптивной. Если что-то пойдет не так, он перестроится на ходу, вместо того чтобы задымиться или начать уничтожать все, что движется.
Заслужил критику экспертов и сам факт существования сознающих себя машин. Во-первых, ни один нормальный разработчик не будет стремиться к этому, никому не нужны особые сложности и проблемы. Во-вторых, давайте оставим на совести фантастов внезапное появление сознающего себя интеллекта. Ничего внезапного в таком деле быть не может: исследования идут долго, тяжело и под наблюдением громадного экспертного сообщества. В-третьих, страшилки о случайном создании безумным гением чего-то такого, что выйдет из-под контроля творца и отправится убивать, еще можно было вытерпеть во времена «Франкенштейна» и «Острова доктора Моро», но сейчас это уже дурной тон.
По материалам BBC