7 Легенда о големе: ИИ, захватывающий мир

Существует предание, что однажды три человека спустились в царство тьмы, один сошёл с ума, другой ослеп, и только третий, Рабби-бен-Акиба, вернулся невредимым и рассказал, что он встретил самого себя.

Густав Майринк. Голем

Тема опасности ИИ красной нитью проходит через многие популярные статьи, посвящённые достижениям науки и технологий в этой области. Один из надёжных способов привлечь внимание человека — напугать его, поэтому для деятелей искусства, журналистов и блогеров тема опасности ИИ вряд ли в ближайшее время потеряет актуальность. Конечно, можно было бы попробовать просто отмахнуться от этой проблемы как от назойливой мухи, признав, что просто невозможно вычерпать океан чепухи, высказанной на эту тему в публичном пространстве. Наверное, примерно так же Архимед пытался отмахнуться от римского легионера, мешавшего ему решать важную математическую задачу. Если верить этой легенде, такое отношение к опасностям не сулит ничего хорошего. Кроме того, всегда существует риск выплеснуть с грязной водой ребёнка. Применение продвинутых технологий нередко сопряжено со вполне реальными, а не выдуманными рисками. Изменение производственного уклада в истории человечества нередко приводило к социальным катаклизмам. Войны, в ходе которых находили применение многие новинки науки и техники, приводили к массовому истреблению людей. Выходит, страхи, порождаемые мыслями об угрозах, таящихся в новых технологиях, не всегда были такими уж беспочвенными? Давайте попробуем разобраться в этом вопросе.

7.1 Насколько опасен ИИ?

7.1.1 История человеческих страхов перед машинами

Интересно, что страхи людей перед «умными машинами» возникли задолго до того, как человечеству удалось приблизиться к возможности их создания.

Знаменитая легенда о големе имеет истоки в раннем иудаизме. В Талмуде (трактат «Сангедрин» [‏סנהדרין‏‎], от греч. συνέδριον — собрание) создание голема [גולם] является одним из этапов создания человека: «В первый час собрал Всевышний прах со всей Земли. Во второй час — сделал голема (грубую форму). В третий — оформил части тела. В четвёртый — вдохнул в него душу…» и так далее[3048].

Создание голема (как прислуги для работы по дому) в XI в. приписывают еврейскому поэту и философу Шломо бен Иехуде ибн Гвиролю, а в конце XII – начале XIII в. в трактате «Секреты таинств» (רזייא סודי, Sodei Razaya)[3049], написанном раввином Элеазаром бен Иудой бен Калонимосом из Вормса, приводится самое раннее письменное руководство по созданию голема.

Но наиболее известна история (впервые встречающаяся в анонимном манускрипте первой половины XVII в.) о том, как рабби Элияху бен Аарон Иегуда из Хелма создал голема. Начертанное на лбу глиняного существа слово «эмет» (אמת, в переводе с иврита — «истина») оживляло голема, а для «отключения» нужно было стереть первую букву алеф — тогда «эмет» превращалось в «мет» (מת, что означает «мёртвый»)[3050], [3051]. Созданный рабби голем всё увеличивался и увеличивался в размерах, и тогда создатель испугался, что голем может уничтожить весь мир, и стер букву алеф, но не успел вовремя отскочить в сторону. Голем обрушился на рабби и убил его (согласно другому варианту легенды лишь травмировал, оставив на лице шрам).

По другой версии, для оживления голема использовался тетраграмматон (четырёхбуквенное непроизносимое имя бога), который нужно было написать на листе бумаги и либо поместить в рот голема, либо приложить ко лбу, тем самым оживив его. Именно поэтому рабби Элияху и получил почётное имя Ба’ал-Шем («владеющий именем», «шем» [‏השם‏‎] значит «имя», это одно из слов, используемое для замены тетраграмматона). Это «канонический» способ оживления голема — им же пользовался и ибн Гвироль.

Также создание голема приписывается мыслителю и мистику Йехуде Лёву бен Бецалелю из Праги и другим авторитетным раввинам[3052].


Голем был не единственным огромным боевым человекоподобным роботом в человеческой мифологии. За тысячи лет до него воображение древних греков будоражили сказания о гигантском бронзовом роботе Талосе, искусственной женщине Пандоре и их создателе боге Гефесте.

«Наша способность представлять искусственный интеллект восходит к древним временам, — говорит историк античной науки Адриенна Майор. — Задолго до того, как технический прогресс сделал возможными самодвижущиеся устройства, идеи о создании искусственной жизни и роботов были исследованы в древних мифах».

Впервые темы искусственного интеллекта, роботов и самодвижущихся объектов появляются в работах древнегреческих поэтов Гесиода и Гомера, которые жили где-то между 750 и 650 гг. до н. э. История Талоса, которую Гесиод впервые упомянул около 700 г. до н. э., представляет собой одну из самых ранних концепций робота.

Миф описывает Талоса как гигантского бронзового человека, построенного Гефестом, греческим богом изобретений и кузнечного дела. Зевс, царь греческих богов, поручил Талосу защитить остров Крит от захватчиков. Талос трижды в день обходил остров дозором и бросал валуны в приближающиеся вражеские корабли (не в этом ли мифе черпал вдохновение Пушкин, рассказывая о дружине Черномора, охранявшей остров царевича Гвидона?).

Сквозь тело гиганта — от головы до одной из ног — проходила вена, несущая таинственный божественный источник жизни, который греки называли ихором. Другой древний текст, поэма «Аргонавтика» (Ἀργοναυτικά), датируемый III в. до н. э., описывает, как колдунья Медея победила Талоса, вынув медный гвоздь на его лодыжке, в результате чего ихор вытек из вены — и жизнь оставила гиганта.

Ещё один пример мифического искусственного существа — Пандора, первое упоминание о которой встречается в «Теогонии» Гесиода. Хотя более поздние версии мифа изображают Пандору невинной женщиной, которая неосознанно открыла ящик со злом, у Гесиода Пандора — это злая искусственная женщина, созданная Гефестом и посланная по приказанию Зевса на землю, чтобы наказать людей за похищение огня.

По словам Майор, «можно утверждать, что Пандора была своего рода ИИ-агентом. Её единственная миссия заключалась в том, чтобы проникнуть в человеческий мир и открыть сосуд с несчастьями».



Помимо Талоса и Пандоры, Гефест создал и другие человекоподобные машины. Например, автоматических слуг, которые выглядели как женщины, но были сделаны из золота. Согласно Гомеру Гефест дал этим искусственным женщинам знания богов.

Майор отмечает, что ни в одном из этих мифов отправка искусственных существ на землю не заканчивается добром. Можно сказать, что лейтмотивом античных сказаний об искусственных существах является мысль о том, что неплохо, когда такие существа используются богами, но как только эти продукты божественной технологии взаимодействуют с людьми, мы получаем хаос и разрушение[3053], [3054].

Развитие механических вычислительных машин в XIX в. с новой силой пробудило страхи людей перед развитием технологий. Вот, к примеру, что писал в 1847 г. преподобный Ричард Торнтон, редактор религиозного журнала Primitive Expounder [Простой Толкователь]: «Ум… опережает сам себя и расправляется с необходимостью собственного существования, изобретая машины, которые должны вместо него мыслить… Как знать, однако, не замыслят ли таковые машины, будучи доведены до большого совершенства, устранить все свои недостатки, а затем напечь идеи, недоступные разуму простого смертного!»[3055], [3056]

В 1863 г., через четыре года после того, как Чарльз Дарвин опубликовал «Происхождение видов», писатель Сэмюэл Батлер под псевдонимом Cellarius в статье «Дарвин среди машин» (Darwin among the Machines)[3057] высказал идею о том, что эволюционирующие машины рано или поздно вытеснят человечество как доминирующий вид. Батлер предлагал немедленно уничтожить все машины, чтобы избежать этого печального исхода. Он писал:

Мы имеем в виду вопрос: какими скорее всего будут существа, которые станут доминирующим видом на Земле после людей. Мы часто слышали об этом споре; но нам кажется, что мы сами создаём собственных преемников; мы ежедневно добавляем красоту и тонкость их физической организации; мы ежедневно наделяем их большим могуществом и с помощью всевозможных изобретательных приспособлений снабжаем их той саморегулирующейся, самодействующей силой, которая будет для них тем же, чем стал интеллект для человеческого рода. С течением времени мы обнаружим себя в роли низшей расы. <…> День ото дня машины набирают силу; день ото дня мы становимся более подчинёнными им; всё больше людей ежедневно приковываются к ним, как рабы, чтобы ухаживать за ними, всё больше людей ежедневно посвящают энергию всех своих жизней развитию механической жизни. Результат — это просто вопрос времени, но то, что наступит время, когда машины будут иметь реальное превосходство над миром и его обитателями, — это то, в чём ни один человек с истинно философским складом ума не может ни на мгновение усомниться.

Статья заканчивается пламенным призывом: «Против них должна быть немедленно объявлена ​​смертельная война. Каждую машину любого рода должен уничтожить тот, кто желает добра своему виду. Пусть не будет никаких исключений, ни на йоту; давайте же немедленно вернёмся к первобытному состоянию нашей расы».

В 1872 г. Батлер (вновь анонимно) публикует сатирический роман-антиутопию под названием «Егдин, или За пределом» (Erewhon: or, Over the Range)[3058] (слово Erewhon, обозначающее вымышленную страну, в которой происходят действия романа, это анаграмма слова nowhere, т. е. «нигде», поэтому по-русски её иногда передают как «Егдин»). В этом романе машиноненавистнические идеи Батлера получают дальнейшее развитие. В 1901 г. выходит продолжение романа под названием «Спустя двадцать лет первооткрыватель страны и его сын возвращаются в Егдин» (Erewhon Revisited Twenty Years Later, Both by the Original Discoverer of the Country and by His Son)[3059]. Именно в честь Батлера автор вселенной «Дюны» писатель Фрэнк Герберт назвал крестовый поход человечества против компьютеров, мыслящих машин и наделённых разумом роботов Батлерианским джихадом[3060].

7.1.2 Текущая оценка опасности развития ИИ

Воззрения Батлера можно было бы счесть курьёзом и отнести к страху перед машинами, появившемуся в период стремительного индустриального прогресса XIX в. Но поскольку развитие науки и техники не останавливалось, то идеи восстания машин ещё не раз возникали в искусстве. Однако ранее они носили теоретический характер, относясь к обсуждению рисков далёкого будущего. Сейчас же, ввиду прогресса в области ИИ, этот вопрос всё более волнует широкую публику.

Что же говорят об опасности развития ИИ учёные и IT-специалисты?

Роман «Егдин» был знаком Тьюрингу, который упоминал его в лекции 1951 г., посвящённой долгосрочным прогнозам развития машинного интеллекта: «Представляется возможным, что, когда методы машинного рассуждения заработают, не потребуется много времени, чтобы превзойти наши слабые силы. Перед машинами не будет стоять проблема умирания, и они смогут общаться друг с другом, изощряя свой ум. Таким образом, на каком-то этапе нам следует ожидать, что машины возьмут власть, как это описывается в „Егдине“ Сэмюэла Батлера»[3061].

В том же году Тьюринг вернулся к этому вопросу в выступлении на радио Би-би-си: «Если машина умеет мыслить, то может мыслить разумнее нас, и что тогда ждёт нас? Даже если мы сумели бы удержать машины в подчинённом положении, например отключив питание в критический момент, мы как биологический вид чувствовали бы себя совершенно униженными… Эта новая опасность… безусловно, заслуживает того, чтобы из-за неё тревожиться»[3062], [3063], [3064].

Ныне уже покойный профессор Стивен Хокинг, один из самых уважаемых и известных британских учёных, заявил, что усилия по созданию мыслящих машин могут привести к тому, что само существование человечества окажется под угрозой. В интервью Би-би-си он отметил, что «появление полноценного искусственного интеллекта может стать концом человечества»[3065]. Хокинг в данном случае имел в виду сценарий «интеллектуального взрыва» [intelligence explosion]: «Он [полноценный искусственный интеллект] сам вырулит на взлётную полосу и станет сам себя совершенствовать со всё возрастающей скоростью. Люди, ограниченные медленной биологической эволюцией, не смогут тягаться [с ИИ] и будут вытеснены [superseded]». Конечно, в отличие от Батлера, Хокинг не предлагал уничтожить машины и вернуться к первобытному порядку вещей, однако если «полноценный искусственный интеллект» действительно угрожает самому существованию человечества, то некоторые люди могут сделать вывод о том, что необходимо полностью запретить исследования в данной области.

На необычный вариант ИИ-риска указывает популярный в наши дни шведский философ, профессор Оксфордского университета Ник Бостром. Он придерживается мнения, что достигший интеллектуального уровня человека ИИ [human-level AI] будет способен уничтожить человечество ввиду ошибочного целеполагания. Бостром объясняет это на примере машины, предназначенной для производства канцелярских скрепок: предположим, что вы поставили перед системой ИИ задачу изготавливать скрепки, причём делать их максимально эффективно и как можно больше. Система в какой-то момент поймёт, что человек представляет угрозу, поскольку может просто отключить её, что будет противоречить задаче максимизации количества скрепок. Кроме того, человеческие тела состоят из атомов, которые можно использовать для производства отличных скрепок. В итоге, руководствуясь поставленной целью, машина изведёт всё человечество на скрепки[3066]. История с машиной для производства скрепок имеет немало общего со средневековыми легендами, в которых фигурирует договор с дьяволом (вроде польской легенды о пане Твардовском). В этих историях дьявол обычно находит способ трактовать то или иное положение договора в свою пользу — совсем не так, как понимает его заключивший договор человек.

Более прямолинейные суждения можно услышать от икон высокотехнологического бизнеса. Например, в июне 2014 г. Илон Маск заявил, что создание продвинутых систем ИИ может привести к воплощению в жизнь сюжета фильма «Терминатор», и предупредил, что, если человечество не предпримет необходимых мер, чтобы обезопасить разработку, уже через пять лет планету может ожидать появление реальной SkyNet[3067].

Не останавливаясь на отсылке к кинобоевику, в октябре того же года на симпозиуме MIT Маск задействовал религиозные аналогии: «Разрабатывая ИИ, мы призываем демона. Знаете, все эти истории, где есть парень с пентаграммой и святой водой? Он уверен, что сможет управлять демоном, но это не так»[3068].

В целом Маск характеризует ИИ как «самую большую угрозу существованию человечества» [biggest existential threat][3069]. Правда, вполне возможно, что Маск со своей вульгарной риторикой не столько выражает своё мнение, сколько стремится привлечь внимание аудитории, что для него обычное дело.

Однако помимо упомянутых нами учёных, некоторые высказывания которых могут быть интерпретированы в технопессимистическом ключе, существуют и публичные персоны, поддерживающие идею ограничения развития технологий путём отказа от «нашего стремления к определённым родам знаний». К их числу относятся, например, американский писатель, автор книги «Хватит: оставаясь человеком в спроектированный век» (Enough: Staying Human in an Engineered Age) и сторонник антитехнологического «движения за отказ» [relinquishment movement][3070] Билл Маккиббен, а также американский учёный в области теории вычислительных систем Билл Джой.

Хотя в своих работах ни Джой, ни Маккиббен не требуют запрета всех исследований в области ИИ, другими исследователями их позиция нередко трактуется именно в таком ключе. Например, именно так трактует эти идеи Билл Хиббард, исследователь из Висконсинского университета в Мадисоне и автор множества исследований, посвящённых рискам, связанным с развитием ИИ[3071], [3072].

Ещё дальше пошёл американский математик и социальный критик, бывший старший преподаватель Калифорнийского университета в Беркли Теодор Качинский, печально известный ныне как Унабомбер (Unabomber, сокращение от University and airline bomber — подрывник университетов и авиалиний). Не ограничившись одной лишь пропагандой неолуддитских идей, в период с 1978 по 1995 г. Качинский разослал по почте 16 посылок с бомбами, целью которых были университеты, авиалинии и магазины компьютерной техники. Итогом стала гибель трёх (владелец компьютерного магазина, руководитель отдела рекламы и лоббист лесной промышленности) и ранение 23 человек. Среди получивших тяжёлые ранения были профессор Калифорнийского университета в Беркли Диогенес Ангелакос, профессор Мичиганского университета Джеймс Макконнелл, профессор Йельского университета Дэвид Джелернтер, ряд других сотрудников университетов.

В 1995 г. Качинский отправил в газету The New York Times письмо, в котором обещал отказаться от рассылки бомб, если в The New York Times или The Washington Post будет опубликован его манифест. Чтобы избежать жертв, ФБР рекомендовало опубликовать текст, что и было исполнено. Манифест Унабомбера, озаглавленный «Индустриальное общество и его будущее» (Industrial Society and Its Future), помимо позаимствованных позже Брейвиком рассуждений об опасности левых идей, содержит пространные рассуждения о том, как развитие технологий приводит ко всё большему порабощению людей. Террорист также анализирует различные сценарии развития человечества, один из которых, по его мнению, завершится порабощением человечества разумными машинами[3073]. Билл Джой писал: «Качинский действовал кровожадно и, по моему мнению, невменяемо. Он несомненно является луддитом, но простое указание этого факта не отклоняет его аргументацию; как ни тяжело мне было это осознавать, но в рассуждениях, изложенных в этом единственном отрывке, я видел некоторую логику. Я чувствовал необходимость противостоять ей»[3074].

К сожалению, подобная риторика, отчасти легализующая нарративы Унабомбера, содержит в себе потенциальную опасность, поскольку расширяет границы допустимого противодействия ИИ-рискам. Хотя современные настроения в обществе трудно назвать технофобскими, никто не может поручиться за то, что ситуация не изменится в одночасье, как это произошло в случае антипрививочного движения, которое получило в последние десятилетия широкое распространение в развитых странах. Кто знает, на какие крайности окажутся способны люди, чьи страхи подпитываются заявлениями в духе отсылок к «Терминатору» или парню с пентаграммой?

Ситуация особенно обострилась вслед за запуском ChatGPT — впечатляющая демонстрация возможностей современных генеративных моделей привлекла к себе огромное внимание общественности и послужила «спусковым крючком» для ряда публичных заявлений. Под влиянием «момента ChatGPT» некоторые учёные пересмотрели свои прогнозы в отношении ожидаемых темпов развития технологий ИИ. И у некоторых из них это, похоже, привело к экзистенциальному кризису. Вот что, например, говорит известный американский физик и информатик Дуглас Хофштадтер:

Для меня это [быстрый прогресс в области ИИ] довольно страшно, потому что это говорит о том, что всё, во что я раньше верил, отменяется. <…> Я думал, что пройдут сотни лет, прежде чем появится что-то весьма отдалённо похожее на человеческий разум, что асимптотически приблизится к уровню человеческого интеллекта, причём снизу. Я никогда не представлял, что компьютеры будут соперничать с человеческим интеллектом или даже превосходить его. Это была настолько далёкая цель, что я не беспокоился об этом. А потом это начало происходить всё быстрее, недостижимые цели и вещи, которые компьютеры не должны были быть в состоянии сделать, начали сдаваться… <…> Я думаю, что [прогресс ИИ] ужасает. Я ненавижу его. Я думаю об этом практически всё время, каждый божий день. <…> Такое ощущение, что вся человеческая раса вот-вот будет превзойдена и оставлена в пыли.

Ускоряющийся прогресс оказался настолько неожиданным, что застал врасплох не только меня, но и многих, многих людей — возникает некий ужас перед надвигающимся цунами, которое застанет врасплох всё человечество. Неясно, будет ли это означать конец человечества в том смысле, что системы, которые мы создадим, уничтожат нас, неясно, так ли это, но вполне возможно. Если нет, то это просто превращает человечество в очень маленькое явление по сравнению с тем, что гораздо более разумно, чем мы, и что станет для нас непостижимым в той же мере, как мы непостижимы для тараканов[3075], [3076].

22 марта 2023 г. на сайте некоммерческой организации «Институт будущего жизни» [Future of Life Institute] было опубликовано открытое письмо с призывом ко всем ИИ-лабораториям приостановить как минимум на шесть месяцев обучение более мощных моделей, чем GPT-4. По мнению авторов письма: «Системы искусственного интеллекта, способного конкурировать с человеческим, могут представлять серьёзную опасность для общества и человечества в целом…»

Авторы письма ссылаются на «Принципы работы с ИИ», разработанные в ходе конференции в Асиломаре (Калифорния, США) 2017 г., в которых, в частности, говорится: «продвинутый ИИ может повлечь коренные изменения в истории жизни на Земле, и его разработка и управление должны осуществляться при наличии соответствующих ресурсов и в условиях особой тщательности». Авторы письма констатируют, что к их глубокому сожалению «такого уровня планирования и управления в настоящее время не существует, в то время как в последние месяцы ИИ-лаборатории застряли в неконтролируемой гонке по разработке и развёртыванию всё более мощных цифровых умов, которые никто — даже их создатели — не могут понять, предсказывать или надёжно контролировать».

Интересно, что одним лишь призывом к ИИ-лабораториям авторы письма не ограничиваются. «Если быстро приостановить [работы ИИ-лабораторий] невозможно, — пишут они, — то правительства должны вмешаться и ввести мораторий».

Подписанты считают, что ИИ-лаборатории и независимые эксперты должны использовать «передышку» для совместной разработки и внедрения системы общих протоколов безопасности, чтобы независимые внешние эксперты могли контролировать разработку передовых систем ИИ. Параллельно авторы письма предлагают создать новые регулирующие органы, занимающиеся вопросами ИИ, а также системы государственного контроля, которые смогут обеспечить безопасность создаваемых систем[3077], [3078].

Среди прочих письмо подписали Илон Маск, Йошуа Бенджио, Стив Возняк, известный американский астрофизик Макс Тегмарк (кстати говоря, он является одним из основателей «Института будущего жизни»), а также многие другие эксперты в области информационных технологий.

В целом письмо написано в относительно взвешенной манере, хотя и содержит несколько достаточно сильных заявлений, таких, как утверждения о нашей неспособности понимать, предсказывать или надёжно контролировать разрабатываемые системы ИИ.

Куда более ёмким и афористическим стало опубликованное 30 мая того же года на сайте Центра за безопасность ИИ [Center for AI safety] «Заявление об ИИ-рисках» [Statement on AI Risk]. Его текст гласит: «Снижение риска вымирания из-за ИИ должно стать глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война». По мнению авторов, заявление призвано преодолеть существующие затруднения в публичном обсуждении ИИ-рисков и открыть дискуссию на эту тему. Оно также должно обратить внимание общества на рост числа экспертов и общественных деятелей, которые «всерьёз воспринимают некоторые из наиболее значительных рисков передового ИИ»[3079].

Среди подписавших это заявление можно найти имена Билла Гейтса, Йошуа Бенджио, Дэмиса Хассабиса, Сэма Альтмана, Ильи Суцкевера и многих других предпринимателей и специалистов из мира ИИ. Примечателен кейс Джеффри Хинтона, покинувшего корпорацию Google, в которой он проработал более десяти лет, для того, чтобы иметь возможность более открыто высказываться на тему ИИ-рисков, не задумываясь о том, как это повлияет на его работодателя. Уход Хинтона из Google тут же стал источником домыслов и газетных врак. Например, журналист The New York Times предположил, что Хинтон ушёл из Google, чтобы критиковать её. Хинтон тут же выступил с опровержением в своём твиттере, заявив, что Google [в отношении ИИ-рисков] действует весьма ответственно [very responsibly][3080]. Заголовок же новости CBS и вовсе гласил: «Канадский пионер искусственного интеллекта Джеффри Хинтон говорит, что искусственный интеллект может уничтожить людей. А пока можно заработать» [Canada's AI pioneer Geoffrey Hinton says AI could wipe out humans. In the meantime, there's money to be made]. Разумеется, фразу про заработок Хинтон никогда не произносил[3081].

В целом многие учёные в области машинного обучения и представители крупного ИТ-бизнеса на волне общественного интереса к ИИ поддержали необходимость внимательного отношения к ИИ-рискам, а также их открытого обсуждения. Однако нашлись и те, кто пошёл в своих заявлениях существенно дальше. Так, один из ярких представителей движения рационалистов, основатель сайта и сообщества LessWrong Элиезер Юдковский обрушился на сторонников моратория в обучении продвинутых моделей со страниц «Тайм». Его статья с недвусмысленным названием «Приостановки разработки ИИ недостаточно. Нам нужно прекратить её полностью» [Pausing AI Developments Isn't Enough. We Need to Shut it All Down] содержит весьма радикальные призывы: «Отключите все большие кластеры графических процессоров (большие компьютерные фермы, где совершенствуются самые мощные системы ИИ). Остановите все большие задачи по обучению. Установите потолок вычислительной мощности, которую разрешено использовать для обучения систем ИИ, и в ближайшие годы понижайте его, чтобы компенсировать более эффективные алгоритмы обучения. Никаких исключений для правительств и вооружённых сил. Немедленно заключите международные соглашения для предотвращения перемещения запрещённых видов деятельности куда-либо. Отслеживайте все проданные графические процессоры. Если разведка сообщает, что страна, не входящая в соглашение, строит GPU-кластер, опасайтесь не столько вооружённого конфликта между странами, сколько нарушения моратория; будьте готовы уничтожить авиаударом принадлежащий изгоям центр обработки данных [rogue datacenter]».

Далее следуют рассуждения о том, что ради предотвращения ИИ-апокалипсиса можно пойти и на риск обмена ядерными ударами и повторяющееся заклинание: «Вырубите всё это!» [Shut it all down!][3082].

В общем, без паники даже в ИТ-среде не обошлось. Что уж говорить о реакции неспециалистов?

«У меня теперь есть чёртов [mother-F-word] ИИ, который сделали для меня. Этот хрен [N-word] может разговаривать со мной, — сказал американский рэпер и актёр Snoop Dogg на конференции в Беверли-Хиллз. — Я такой: «Чувак, эта штука может вести настоящий разговор? По-настоящему?» Это просто сносит мне крышу, потому что я смотрел фильмы об этом в детстве много лет назад. Когда я вижу эту хрень, я думаю, что вообще происходит? Я слышал, как чувак, старый чувак, который создал ИИ [Джеффри Хинтон], сказал: «Это небезопасно, потому что у ИИ есть свой собственный разум»… Я думаю, мы сейчас в чёртовом фильме. Чёрт возьми, чувак, мне нужно инвестировать в искусственный интеллект»[3083].

Не обошлось и без высказывания исполнителя роли Терминатора из одноимённого фильма — Арнольда Шварценеггера: «Сегодня все боятся этого, того, к чему это приведёт. <…> И в этом фильме, в «Терминаторе», мы говорим о том, что машины обретают собственное сознание и берут верх. <…> Теперь, по прошествии десятилетий, это стало реальностью. Так что это больше не фантазия и не что-то футуристическое», — сказал актёр[3084].

Впрочем, несмотря на яркую риторику об угрозе ИИ-апокалипсиса, ряд специалистов из области информационных технологий считает внимание к этому вопросу чрезмерным. Например, Эндрю Ын сравнивает проблему опасности ИИ с проблемой перенаселения Марса. Действительно, в будущем вполне вероятно, что люди колонизируют Марс, также вероятно, что рано или поздно на Марсе может возникнуть проблема перенаселения, но не совсем понятно, почему мы должны заниматься этой проблемой уже сейчас?[3085] Когда в сообществе началось обсуждение возможного моратория или запрета на некоторые исследования в области ИИ, Ын высказался вполне однозначным образом:

Когда я думаю об экзистенциальных рисках для большей части человечества [, на ум приходят]:

* Следующая пандемия

* Изменение климата → массовая депопуляция

* Ещё один астероид

ИИ станет ключевым компонентом решения этих проблем. Так что, если вы хотите, чтобы человечество выжило и процветало в следующие 1000 лет, давайте развивать ИИ быстрее, а не медленнее[3086].

В той или иной мере согласны с Ыном и многие другие ведущие специалисты в области глубокого обучения. Например, Ян Лекун решительно выступает против использования набивших оскомину отсылок к фильму «Терминатор» при рассуждениях об ИИ[3087]. Лекун вообще с юмором воспринял разразившуюся полемику о потенциальной опасности современных генеративных моделей. Его забавный твит на эту тему собрал множество репостов и комментариев:

— Инженер: Я изобрёл новую вещь. Я называю её шариковой ручкой

— Народ в твиттере: О боже, люди могут писать с её помощью ужасные вещи, такие как дезинформация, пропаганда, разжигание ненависти. Запретить немедленно!

— Пишущие думеры[3088]: представьте, что каждый может получить шариковую ручку. Это может разрушить общество. Должен быть принят закон, запрещающий использование шариковой ручки для написания разжигающих ненависть высказываний. Введите регулирование применения шариковых ручек немедленно!

— Магнат карандашной индустрии: да, шариковые ручки очень опасны. В отличие от текста, написанного карандашом, который можно стереть, написанное шариковой ручкой остаётся навсегда. Правительство должно ввести лицензирование для производителей ручек[3089].

В начале апреля 2023 г. Лекун и Бенджио опубликовали получасовое видео с обсуждением идеи шестимесячного моратория (сойдясь на том, что такой мораторий является явно неудачной идеей), современной медийной шумихи вокруг ИИ и моды на ИИ‑думерство[3090].

С иронией воспринимают угрозу скорого захвата мира сверхинтеллектом Йошуа Бенджио[3091] (что не мешает ему серьёзно относиться к ИИ-рискам и подписывать открытые письма на эту тему), руководитель Алленовского института искусственного интеллекта (Allen Institute for AI, AI2) Орен Этциони[3092] и руководитель исследовательского отдела Microsoft Эрик Хорвитц[3093].

Известный американский предприниматель, инженер и изобретатель Марк Андриссен, сооснователь венчурного фонда «Андриссен Хоровиц» [Andreessen Horowitz], также яростно критикует ИИ-думеров. Он считает, что руководители технологических компаний заинтересованы в продвижении думерских взглядов, потому что они «могут заработать больше денег, если будут возведены нормативные барьеры, которые приведут к формированию картеля одобренных правительством поставщиков ИИ, защищённых от конкуренции с новыми стартапами и с [проектами с] открытым исходным кодом». Также Андриссен пишет, что экспертам по безопасности ИИ, специалистам по этике ИИ и исследователям рисков ИИ «платят за то, чтобы они были думерами, и их заявления должны восприниматься должным образом». Ссылаясь на статью[3094] в The Atlantic, в которой собрана большая коллекция высказываний инженеров и учёных, Андриссен подчёркивает, что многие лидеры в области исследований ИИ, этики, доверия и безопасности выразили явное несогласие с думерской повесткой дня и вместо этого сосредоточились на снижении сегодняшних задокументированных рисков ИИ-технологий. Андриссен с оптимизмом смотрит в будущее и утверждает, что ИИ может стать «способом сделать лучше всё, о чём мы заботимся»[3095]. Андриссен опубликовал небольшое эссе, в котором приводит краткий анализ нарративов, сформировавшихся в отношении проблематики ИИ-рисков, рассуждает о стоящих за их формированием социальных группах, а также об элементах правильной, по его мнению, политики в отношении развития ИИ[3096], [3097].

Основатель Facebook Марк Цукерберг также не разделяет пессимизма в отношении прогресса ИИ: «Я настроен оптимистически, — говорит он в одном из своих стримов, сопровождая рассуждения приготовлением барбекю. — Что до тех людей, которые испытывают скепсис [в отношении ИИ] и пытаются раздуть все эти сценарии судного дня, — я их просто не понимаю. Это совершенно неконструктивно, и в некотором смысле я считаю это довольно безответственным <…> Всякий раз, когда я слышу, как люди говорят, что искусственный интеллект причинит людям боль в будущем, я думаю, что да, вы знаете, технологии, как правило, всегда можно использовать как во благо, так и во вред, и вы должны быть осторожны при их разработке, должны внимательно относиться к тому, что именно вы создаёте, и как это будет использоваться, — развивает свою мысль Цукерберг, — Но я не понимаю людей, которые выступают за замедление прогресса в области ИИ, эта идея кажется мне весьма сомнительной»[3098].

Американский предприниматель Крис Николсон, сооснователь компании Skymind и один из авторов фреймворка Deeplearning4j, высказался на этот счёт более афористично: «Для людей из мира технологий рассуждения об искусственном интеллекте — это кокаин: они возбуждают и вызывают ничем не обоснованную паранойю» [Thinking about AI is the cocaine of technologists: it makes us excited, and needlessly paranoid][3099].

Кто же прав? И что же следует делать человечеству в данной ситуации?

7.1.3 Варианты преодоления рисков развития ИИ

В своей знаменитой статье 2000 г. «Почему мы не нужны будущему» (Why the Future Doesn’t Need Us) для издания Wired Джой рисует мрачную картину превращения нашего мира в «серую слизь» [gray goo], что, по его мнению, станет результатом деятельности нанороботов. «Единственной практической альтернативой, которую я вижу, — пишет Джой, — является отказ: надо ограничить развитие слишком опасных технологий путём ограничения нашего стремления к определённым родам знаний»[3100].

Может, действительно стоит ввести ограничения на развитие технологий ИИ, подобные международным договорам о ядерном, биологическом и химическом оружии? По сути, такие договоры можно считать установлением ограничений на развитие физики, биологии и химии в военных целях.

Лично мне такой путь представляется не слишком реалистичным.

Во-первых, развитие технологий сложно ограничивать вообще. На уровне международных договоров можно разве что ввести подобный запрет для отдельных стран. Но, как показала практика, даже небольшая находящаяся в изоляции Северная Корея смогла создать ядерное оружие и ракетно-космическую программу. Поэтому если новая технология действительно может оказаться прорывной, то ведущие государства мира всё равно будут, несмотря на ограничения и запреты, развивать её в секретном режиме, и никто не сможет этому воспрепятствовать.

Во-вторых, неясно, как возможно ограничить развитие ИИ в нынешнее время — ведь развитие этой отрасли не требует каких-либо уникальных ресурсов и доступно многим государствам и компаниям. Не исключено, что универсальный ИИ можно будет создать при помощи машин общего назначения, предназначенных для решения повседневных задач. Поэтому попытки ограничения развития ИИ приведут к тому, что пострадают полезные применения ИИ (медицинское, образовательное и др.), при этом военные исследования как раз не пострадают.

Трудность запрета универсального ИИ подчёркивает в своей книге «Совместимость. Как контролировать искусственный интеллект» (Human Compatible: AI and the Problem of Control) уже знакомый нам профессор Стюарт Рассел:

Прогресс в разработке универсального ИИ достигается главным образом в дискуссиях учёных из исследовательских лабораторий по всему миру, по мере возникновения и решения математических задач. Мы не знаем заранее, какие идеи и уравнения запрещать, и, даже если бы знали, не приходится ожидать, что подобный запрет будет осуществимым или действенным.

Ещё больше осложняет проблему то, что исследователи, двигающие вперёд разработку универсального ИИ, часто работают над чем-то ещё. Как я уже замечал, изучение инструментального ИИ — специализированных безобидных приложений наподобие игровых программ, медицинской диагностики и планирования путешествий — часто ведёт к развитию методов универсального характера, применимых к широкому спектру других задач, и приближает нас к ИИ человеческого уровня.

Рассуждая о возможности свёртывания исследований в области ИИ, Рассел пишет: «Как большинство исследователей ИИ, я содрогаюсь при мысли об этом. Кто смеет указывать мне, о чём можно думать и о чём нельзя? Любой, кто предлагает покончить с изучением ИИ, должен быть очень убедительным. Прекратить исследования ИИ означало бы отказаться не просто от одного из главных путей к пониманию того, как устроен человеческий разум, но и от уникальной возможности улучшить положение человека — создать намного более совершенную цивилизацию. Экономическая ценность ИИ человеческого уровня измеряется в тысячах триллионов долларов, и следует ожидать колоссального импульса на продолжение этих исследований со стороны корпораций и властей. Он пересилит туманные возражения философа, как бы тот ни почитался в качестве «обладателя особого знания», по выражению Батлера»[3101], [3102].

Какой же тогда путь снижения рисков следует избрать?

Надо заметить, что большая часть обеспокоенных экзистенциальными ИИ-рисками учёных не являются сторонниками таких радикальных мер, как введение ограничений на исследования в области ИИ. Тот же Бостром, например, предлагает организовать мониторинг развития в этой области, расширить международное сотрудничество между командами, занимающимися исследованиями в области ИИ (чтобы избежать «гонки вооружений» в этой области). Бостром рекомендует ограничение области принятия решений ИИ-агентами, предлагает различные способы влияния на обучение моделей (например, создание этически выверенных датасетов) и так далее[3103]. Его анализ этой области, безусловно, заслуживает внимания, хотя некоторые его выводы и идеи, на мой взгляд, являются небесспорными.

Ещё с начала 1970-х гг. учёные исследуют так называемую «проблему ограничения свободы» компьютерных программ. В рамках этой парадигмы современные исследователи рассматривают и различные механизмы контроля систем ИИ, близких к сверхинтеллекту. Так, например, Роман Ямпольский, основатель и директор Лаборатории кибербезопасности в Луисвиллском университете (University of Louisville, UofL), в своей работе «Герметизация сингулярности. Проблема ограничения свободы искусственного интеллекта» (Leakproofing the Singularity. Artificial Intelligence Confinement Problem), отталкиваясь от идеи «герметично замкнутой» сингулярности, предложенной австралийским философом Дэвидом Чалмерсом, предлагает конкретный протокол, цель которого — создать безопасную замкнутую среду, способную «ограничить свободу» сверхинтеллекта при его использовании человечеством[3104], [3105].

Если говорить об Илоне Маске, то и он, несмотря на использование вульгарных метафор, не является противником научно-технического прогресса. Маск хоть и высказывается (или даже действует в духе максимы «Не можешь победить — возглавь»), но активно способствует развитию технологий машинного обучения, стремясь скорректировать вектор технологического развития. В 2015 г. он пожертвовал 10 млн долларов волонтёрской организации «Институт будущего жизни» (Future of Life Institute), работа которой направлена на «смягчение рисков, грозящих человечеству в будущем». Эта некоммерческая организация, в частности, занимается исследованием угроз, которые несёт в себе искусственный интеллект[3106]. Осенью того же года Маск вместе с другими предпринимателями и специалистами из Кремниевой долины основал неоднократно упомянутую в книге компанию OpenAI. В число основателей, помимо самого Маска, вошли Сэм Альтман, Грэг Брокман, Джон Шульман, а также уже знакомые нам Илья Суцкевер и Войцех Заремба. Создание компании поддержали Рейд Хоффман — сооснователь компании LinkedIn, Питер Тиль — сооснователь PayPal и Джессика Ливингстон — партнёр-основатель венчурного фонда Y Combinator.

Суммарные стартовые инвестиции в компанию составили миллиард долларов. Цель OpenAI — способствовать повышению открытости разработки в области ИИ. Организация заявляет, что будет «свободно сотрудничать» [freely collaborate] с другими учреждениями и исследователями, сделав свои патенты и исследования открытыми для общественности[3107], [3108], [3109], [3110], [3111], [3112].

Маск и Альтман заявили, что одним из мотивов создания OpenAI стали опасения по поводу экзистенциальных рисков со стороны универсального ИИ [artificial general intelligence][3113], [3114]. OpenAI заявляет: «Трудно представить себе, в какой мере система ИИ человеческого уровня может принести пользу обществу, и столь же трудно понять, насколько она может навредить обществу в случае ошибок, допущенных при её создании, неправильного применения <…> Из-за удивительной истории развития ИИ трудно предсказать, когда ИИ человеческого уровня окажется в пределах досягаемости»[3115]. OpenAI заявляет, что ИИ «должен воплощать желания людей и в соответствии с духом свободы должен быть как можно более широко и равномерно распределённым…»[3116]

В связи с этим возникает риторический вопрос: «Действительно ли мы готовы позволить проникнуть в наше общество автономным программным и аппаратным агентам, детали работы которых известны лишь немногим избранным? Конечно, нет»[3117].

Альтман ожидает, что рассчитанный на десятилетия проект позволит создать системы ИИ, превосходящие людей в интеллектуальном плане[3118].

Однако возможность реализации контринтуитивной стратегии Маска и Альтмана, направленной на снижение рисков развития ИИ путём предоставления возможностей ИИ как можно большему числу людей, вызывает сомнения у более радикально настроенных «алармистов». Например, Бостром полагает, что в ситуации «плохой кнопки» основатели OpenAI изменят своей стратегии и не будут её раздавать всем («Если у вас будет кнопка, которая может причинить вред миру, вы не захотите дать её всем»)[3119]. Масло в огонь подлил факт выдачи лицензии компании Microsoft на использование GPT-3 в её собственных продуктах и сервисах. И хотя OpenAI и заявила, что «сделка не повлияет на дальнейший доступ [пользователей] к модели GPT-3 через API OpenAI»[3120], у многих людей возник вполне резонный вопрос: значит ли это, что OpenAI будет руководствоваться в предоставлении доступа к передовым разработкам в области ИИ чисто коммерческой логикой, усиливая тем самым доминирование крупных корпораций в обществе? И насколько такая логика сочетается с декларированными OpenAI лозунгами о демократизации ИИ и снижении ИИ-рисков за счёт расширения доступа к технологиям?

Есть ещё одно из направлений деятельности Маска, которое в некоторой степени связано с проблемой ИИ-рисков. Речь идёт о компании Neuralink, делящей с OpenAI здание Pioneer Building в Сан-Франциско. Эта компания специализируется на исследованиях в области интерфейсов «машина — мозг» (Brain Computer Interfaces, BCI), что по замыслу позволит людям тесно интегрироваться с будущими системами ИИ[3121]. Можно сказать, что они стремятся сделать человечество частью будущего сверхразума, чтобы оно смогло избежать роли тупиковой ветви эволюции.

Идеи, подобные идеям Маска, высказывают и другие известные предприниматели из сферы информационных технологий. Например, основатель компании Microsoft Билл Гейтс формулирует свои взгляды следующим образом: «Я принадлежу к лагерю тех, кто озабочен возникновением сверхинтеллекта. Сначала машины будут делать для нас много полезной работы и не будут обладать сверхинтеллектом. Это будет позитивным явлением, если мы нормально управляем процессом. Однако через несколько десятилетий ИИ станет достаточно сильным, чтобы вызвать беспокойство. Я согласен с Илоном Маском и другими на этот счёт и не понимаю, почему некоторые люди не чувствуют такого же беспокойства»[3122]. При этом Билл Гейтс поясняет, что не пытается притормозить научно-технический прогресс, а всего лишь хочет привлечь внимание к двум потенциальным проблемам: 1) ИИ начинает выполнять работу, к которой привыкли люди; 2) универсальный ИИ может эволюционировать в состояние, «конфликтующее с целями человеческих систем»[3123].

В целом, анализируя мнения учёных и бизнесменов относительно ИИ-рисков, заметно, что в действительности между взглядами, скажем, Бострома и Цукерберга, Маска и Ына мы не находим никакой зияющей пропасти. Даже Бостром, заслуживший себе репутацию алармиста, весьма далёк от идей Батлера. Набор мер, предлагаемый Бостромом, вовсе не предполагает «возврата в пещеры» и даже запрета развития ИИ.

Если рассматривать позицию представителей противоположного лагеря, взяв в качестве примера, скажем, Марка Цукерберга, то его взгляды на деле далеки от шапкозакидательского оптимизма. Даже в неформальных рассуждениях на тему ИИ-рисков за приготовлением говяжьих рёбрышек видно, что он вовсе не отрицает наличия этих рисков и необходимости принимать их в расчёт[3124]. На поверку вопрос об ИИ-рисках становится вопросом меры: как мы оцениваем те или иные риски? Когда и в какой мере следует уделять им внимание? Какие из них переоценены, а какие недооценены в глазах общественности?

Анализируя опасения, высказываемые в отношении развития ИИ, можно выделить несколько групп рисков, безусловно заслуживающих более подробного рассмотрения. Давайте попробуем приглядеться к этим группам поближе, чтобы лучше понять все pro et contra в отношении их серьёзности.

7.2 Сверхразум: реальные и мнимые опасности

— Ну? Тем более!

— Сверхразум — это сверхдобро, — сказал Тойво.

— Ну? Тем более!

— Нет, — сказал Тойво. — Никаких «тем более». Что такое добро мы знаем, да и то не очень твёрдо. А вот что такое сверхдобро…

Ася снова ударила себя кулачками по коленкам.

— Не понимаю! Уму непостижимо! Откуда у вас эта презумпция угрозы? Объясни, втолкуй!

— Вы все совершенно неправильно понимаете нашу установку, — сказал Тойво, уже злясь. — Никто не считает, будто Странники стремятся причинить землянам зло. Это действительно чрезвычайно маловероятно. Другого мы боимся, другого! Мы боимся, что они начнут творить здесь добро, как они его понимают!

Аркадий и Борис Стругацкие. Волны гасят ветер

Наверное, самый популярный катастрофический сценарий, предполагающий участие ИИ, — это появление опасного для человечества сверхразума (сверхинтеллекта). Его опасность для людей может заключаться в том, что интересы этого разума могут плохо соотноситься с интересами человечества, что обычно называют «проблемой выравнивания» [alignment problem]. Такое трагическое расхождение с ценностями человечества гипотетически может возникнуть как в результате ошибок при программировании системы, так и в процессе саморазвития (самообучения) сверхразума. Причём это может оказаться проблемой в духе Стругацких: беда будет не в том, что машина захочет причинить людям зло, напротив, она может стремиться сделать людям добро, но так, как она его понимает, и далеко не факт, что это представление машины о добре понравится людям.

История с нежелательными для нас действиями сверхразума хороша практически всем: здесь есть конфликт, историю несложно насытить различными драматическими деталями, на её основе можно построить как боевик (с несколькими сиквелами; пример — тот же «Терминатор»), так и психологический триллер.

Однако у неё есть и серьёзные недостатки.

Начнём с того, что для воплощения этого сценария необходимо появление сверхразума. Казалось бы, мы уже знаем, какой гипотетический процесс может привести к возникновению такой системы — это уже упомянутый нами «интеллектуальный взрыв», то есть некоторая самообучающаяся система в процессе обучения совершенствует саму себя, тем самым увеличивает эффективность этого самообучения, а далее возникновение петли с положительной обратной связью неизбежно приводит к появлению сверхинтеллекта, возможно превосходящего людей даже сильнее, чем люди превосходят муравьёв.

Однако не исключено, что наша Вселенная содержит ряд фундаментальных физических ограничений, которые могут сделать создание сверхинтеллекта невозможным. Мы уже упоминали физические лимиты, не позволяющие бесконечно наращивать скорость вычислений, — это лимиты Бремерманна и Ландауэра. Казалось бы, наши вычислительные устройства всё ещё далеки от этих пределов. Далёк от них и человеческий мозг. Однако важная особенность заключается в том, что многие интеллектуальные задачи относятся к классу сложности EXPTIME-complete, то есть время, необходимое для их решения, является экспоненциальной функцией от размерности задачи. Ввиду этого ускорение системы в несколько раз даёт лишь фиксированный, а не кратный прирост «интеллекта» (измеренного по некой условной шкале).

При этом, скорее всего, даже такой результат будет достигнут лишь в лучшем случае. Как показала практика разработки игр (а игры — это упрощённые модели реальности), часто наблюдается явление, получившее название «закон уменьшающейся полезности» [law of diminishing returns]: по мере продвижения к цели одинаковый прирост усилий даёт всё меньшую отдачу. Например, шахматная программа с фиксированной глубиной перебора вариантов получает куда больший прирост в силе игры при увеличении глубины перебора с одного до двух полуходов, чем при увеличении глубины перебора, скажем, с 10 до 11 полуходов[3125]. Таким образом, постоянное ускорение системы в несколько раз может даже и не обеспечивать постоянного «константного поумнения».

Конечно, за скобками наших рассуждений остаётся вопрос об эффективности применяемого алгоритма. Можно ли создать алгоритм для универсального ИИ, существенно превосходящий алгоритм мышления человека? К сожалению, у нас пока нет ответа на этот вопрос, поскольку нет иных примеров универсального интеллекта, кроме интеллекта человека. Мышление человека есть результат эволюции, способствующей приспособлению человеческих особей к среде их обитания. Это приспособление к среде обычно связано с решением определённого спектра задач. Причём многие из них, решавшиеся нашими предками на протяжении тысячелетий и оказавшие значимое влияние на то, как мы в принципе думаем, были бесконечно далеки от тех, что человечество ставит перед собой и системами ИИ сегодня. Вероятно, исследователи будущего смогут создать системы, более приспособленные для решения актуального круга задач по сравнению с человеческим мозгом, и тогда можно будет сказать, что в этом случае человеческий мозг обладает рядом существенных изъянов. Тут можно вспомнить фразу Гельмгольца: «Я счёл бы себя вправе самым резким образом выразиться о небрежности работы оптика и возвратить ему прибор с протестом, если бы он вздумал продать мне инструмент, обладающий такими недостатками, как человеческий глаз». Но несмотря на это, важно понимать, что человеческий мозг является продуктом длительного и масштабного оптимизационного процесса, в ходе которого он сталкивался с довольно разнообразными вызовами, что позволяет предположить его близость к оптимуму при решении весьма сложных и разнообразных задач.

Поэтому, по всей видимости, даже несмотря на весьма вероятное появление более эффективных алгоритмов мышления, вместо экспоненциального «интеллектуального взрыва» мы имеем все шансы получить асимптотически приближающуюся к некоторому пределу кривую.

Исходя из вышеизложенных ограничений, мы имеем серьёзные основания полагать, что возникновение сверхразума невозможно. При этом наверняка уровень человеческого интеллекта будет превзойдён — то есть созданная система будет способна более быстро и эффективно решать задачи, подвластные человеческому мышлению. Насколько это опасно? Представьте себе, что вы внезапно начали думать в сто раз быстрее остальных людей. Это позволит вам быстрее выполнять вашу работу, быстрее выучивать что-то новое, но не позволит вам подчинять других людей своей воле и захватить власть над миром.

Следующим недостатком рассуждений об опасностях, связанных с созданием сверхразума, является классическая ошибка в области риск-менеджмента — отсутствие анализа альтернативных сценариев и ассоциированных с ними опасностей. Алармисты рассматривают риски, связанные с потенциальным разрушительным воздействием ИИ, но при этом игнорируют риски, связанные с попыткой ограничить или даже остановить прогресс в этой области. Если ваш путь пролегает через реку, а мост через неё может с вероятностью один на сто миллиардов не выдержать вас, то значит ли это, что следует преодолевать реку вплавь?

Победа неолуддитов, результатом которой может стать существенное ограничение исследований в области ИИ, а также применения соответствующих технологий, потенциально может нанести куда более значительный вред, чем возможные негативные последствия применения самих технологий. Системы ИИ могут быть успешным инструментом для борьбы с существующими или новыми технологическими рисками (например, на транспорте, в опасных производствах), эффективно применяться в медицине, в деле охраны общественного порядка, в сфере воспитания и образования людей. Вообще они способны поднять качество принимаемых решений во множестве сфер человеческой деятельности, в том числе таких решений, которые связаны с огромными рисками. Тем самым технологии ИИ способны спасти множество человеческих жизней и улучшить уровень всеобщего счастья.

Как оценить эффект от запрета развития таких технологий?

Если рассуждать о технологических рисках, то можно заметить, что технологическое могущество человечества возрастает чрезвычайно быстрыми темпами, что приводит к эффекту, который я называю «удешевлением апокалипсиса». 150 лет назад при всём желании человечество не могло нанести ни биосфере, ни себе как виду невосполнимого урона. Для реализации катастрофического сценария 50 лет назад необходимо было бы сконцентрировать всю технологическую мощь ведущих мировых держав. Завтра для воплощения в жизнь глобальной техногенной катастрофы может хватить и небольшой горстки фанатиков. Наша технологическая мощь растёт куда быстрее, чем наша способность эту мощь контролировать. Продвинутая химия, технологии ядерного распада и синтеза, передовые биотехнологии и так далее — человечество развивает все эти направления с огромной скоростью, создавая всё больше и больше возможностей в манипуляции силами природы. При этом способность разумно распорядиться этим могуществом растёт не такими впечатляющими темпами — биологическая эволюция не может быстро сделать нас умнее (если вообще ведёт к нашему поумнению).

Именно об этой проблеме говорил в ходе своей последней пресс-конференции Станислав Лем: «У каждой технологии есть свой аверс и свой реверс: иными словами, её можно использовать совершенно по-разному. Риск, сопутствующий внедрению новых технологий, действительно, очень серьёзен и, вероятно, неизбежен. Однако я бы сказал, что куда большие угрозы дремлют в нас самих: человек имеет болезненную склонность к использованию технологических достижений против самого себя. Не случайно, что множество открытий было совершено для нужд гонки вооружений. Когда-то я сравнил современного человека с хищной обезьяной, которой вложили в руку бритву. Это сравнение нисколько не утратило своей актуальности, разве что обезьяна сделалась ещё более алчной»[3126].

Развитие технологий ИИ является в некотором роде ответом на медлительность нашей эволюции. Подобно тому, как одежда или, скажем, ножи являются «усовершенствованиями» наших тел, от рождения лишённых тёплого меха или острых когтей, системы ИИ раздвигают границы нашего разума. Текстовый редактор, поисковая система, смартфон, базы знаний и, наконец, продвинутые нейросетевые модели — это всё продолжение нас, нашего интеллекта, нашей культуры, это компоненты синтетического человеко-машинного интеллекта. Запрет технологий ИИ, таким образом, является в своём роде самокастрацией или, если угодно, лоботомией нашего вида, способом существования которого давно стало расширение своих возможностей за счёт создания технологических улучшений своей несовершенной природы.

Любопытно, что за изобретение и популяризацию лоботомии в своё время была присуждена Нобелевская премия. По дорогам США разъезжали лоботомобили, в которых вас могли путём нехитрой манипуляции раз и навсегда избавить от кучи проблем[3127]. Аналогично сторонники запрета ИИ в действительности призывают человечество сделать крайне опасный шаг, куда более опасный, чем многие переоценённые и разрекламированные ИИ-риски, о которых они пишут (нередко отвлекая внимание от реально существующих рисков алгоритмического общества[3128], которыми нужно учиться разумно управлять — что, конечно, куда сложнее и куда как менее эффектно, чем радикальные запретительные меры).

Люди, вооружённые продвинутыми системами аналитики и моделирования, средствами эффективной коммуникации, интеллектуальными средствами обучения и психологической поддержки, платформами для коллективного принятия решений, смогут действовать куда более разумно, чем люди, лишённые всего этого, имеющие в своём багаже лишь иррациональное поведение, связанное с неуправляемой агрессией, когнитивными искажениями, предрассудками, заблуждениями, ограниченностью и так далее. Возможно, нашим спасением от проклятия техноапокалипсиса станет именно технологически улучшенный человеческий интеллект, объединённый с машинами в единую систему, — своего рода «аугментированная прямая демократия». Если же такой новый социотехнологический уклад не возникнет, то нас может ждать глобальная катастрофа. Таким образом, попытки ограничить или запретить развитие технологий ИИ могут создать значительно большие риски, чем появление опасного для человечества сверхразума.

Кроме того, можно заметить, что многие апокалиптические сценарии с участием сверхразумного ИИ в действительности включают систему ИИ лишь в качестве своеобразной вишенки на торте. Ведь машина Бострома для максимизации числа скрепок сможет перемолоть всё человечество лишь в случае наличия разрушительной технологии переделки всего и всех в скрепки, причём эта технология должна быть столь могущественна, что ей не являются помехой никакие контрмеры человечества (некоторые интерпретации этого сценария предполагают, что машина добивается своего, манипулируя людьми, но для такой манипуляции определённо нужен сверхразум, многократно превосходящий человеческий, возможность создания которого мы уже обсудили). Машине, обладающей таким всесокрушающим оружием, вовсе не нужен оператор в виде сверхразума или ИИ-системы человеческого уровня. Устроить катастрофу, обладая такой технологией, могут и сами люди — сознательно или по недомыслию.

Если взять популярный апокалиптический сценарий с системой ИИ, нажимающей на красную ядерную кнопку, то он основан на наличии смертоносного ядерного оружия, созданного десятилетия назад без всякого участия ИИ. Данный сценарий останется вполне валидным, если ядерную кнопку нажимает не система ИИ, а человек или даже обезьяна. Но если кто-то предложит запретить обезьян то вряд ли мы сочтём это предложение адекватным.

Конечно, развитие технологий ИИ является лишь необходимым, а не достаточным условием выживания нашего вида в условиях постоянно растущих техногенных рисков. В какой-то мере наша ситуация похожа на положение, в котором находится человек, быстро идущий по канату над пропастью. Запрет технологий ИИ подобен идее резко остановиться или идее полностью отказаться от наклонов в одну из сторон. Даже если нам хватит ума не предпринимать такие заведомо самоубийственные действия, это вовсе не гарантирует нам того, что наше путешествие завершится благополучно. На этой дороге нас поджидает множество опасностей, которые придётся преодолеть, например: риски, связанные с чрезмерной концентрацией технологической и интеллектуальной мощи в руках немногочисленных национальных и экономических элит (как это показано во множестве дистопий киберпанка), различные диспропорции и недостаточная открытость обществу в развитии технологий, неразумные и безответственные попытки их регулирования (подобно тому, как в техно-опере Виктора Аргонова «2032: легенда о несбывшемся грядущем» попытка идеологической индоктринации АСГУ — Автоматической системы государственного управления — приводит к ошибкам в её решениях и к разрушительной для человечества войне[3129]) и так далее.

Система ИИ как элемент технологической катастрофы — это скорее дань моде: истории с участием ИИ продаются лучше, точно так же, как детективы с Шерлоком Холмсом или Натом Пинкертоном в годы популярности этих великих сыщиков продавались лучше обычных детективов.

Разумеется, все эти соображения не означают, что следует беспечно относиться к проблеме технологических рисков (включая и специфические ИИ-риски). Любая достаточно мощная технология требует известной осторожности в обращении — это относится и к энергии пара, и к атомной энергии, и к электричеству, и к «новому электричеству». Малая вероятность глобальной катастрофы не означает, что невозможны катастрофы локальные. Сколько людей погибло и погибает до сих пор из-за неудачного использования машин? Люди гибнут на производстве, в автоавариях, из-за неосторожного обращения с теми или иными инструментами. История знает много примеров техногенных аварий и катастроф. Хотя смерти людей из-за дефектов в программном обеспечении пока что экзотика, игнорировать их нельзя. Из-за халатности разработчиков программного обеспечения машины, убивающие людей вопреки воле своих создателей, уже были опробованы в деле. Одним из наиболее ярких примеров таких машин стал Therac-25 — аппарат лучевой терапии, созданный в 1982 г. канадской государственной корпорацией Atomic Energy of Canada Limited. С июня 1985 г. по январь 1987 г. этот аппарат стал причиной как минимум шести случаев многократного превышения дозы излучения, полученной пациентами в ходе терапии, при этом некоторые из них получили дозы в десятки тысяч рад. Как минимум два человека умерли от непосредственного воздействия радиации. Причиной трагедии стали ошибки в программном обеспечении аппарата[3130], [3131].

Также можно вспомнить авиакатастрофы с самолётами Boeing 737 серии MAX 8: причиной стала ошибочная работа программного обеспечения самолёта MCAS (Maneuvering Characteristics Augmentation System, система повышения маневренных характеристик). Как показало расследование, компания Boeing скрывала сам факт существования данной системы, чтобы избежать расходов по сертификации модели MAX 8 как нового самолёта. В результате в случае неверных показаний датчика угла атаки система MCAS предпринимала неверные и неожиданные для пилотов действия по опусканию носа самолёта и препятствовала попыткам экипажа исправить ситуацию[3132]. Следствием этого стали две авиакатастрофы в 2018 и 2019 гг., унесшие жизни 346 человек.

В целом количество смертей в результате техногенных аварий и катастроф многократно уступает числу жертв войн. Злонамеренный человеческий разум причиняет людям куда больше горя и страданий, чем ошибки проектирования техники. Это наводит на мысль, что создаваемые людьми системы ИИ будут представлять опасность скорее не в результате чьих-то ошибок, а в результате намеренного придания таким системам функций оружия. Боевые системы на базе ИИ необязательно должны быть особенно умны, чтобы представлять серьёзную опасность. Им вполне достаточно сочетания интеллекта примитивного организма с нечеловеческой скоростью реакции и разрушительной силой современного оружия. Именно поэтому, несмотря на то что универсальный искусственный интеллект ещё не создан, существующие наработки в области машинного обучения уже сегодня обладают значительным потенциалом применения в качестве компонентов оружия. Впрочем, если разобраться в этой проблеме чуть глубже, то окажется, что первые образцы оружия, способного убивать без решения человека, так называемого летального автономного оружия (Lethal autonomous weapons, LAWs), появились не позже XVII в. Речь идёт о наземных и водных минах. Примитивный механизм мины «уполномочен» принимать решения об убийстве людей. Развитие технологий привело к появлению в XX в. различных самонаводящихся машин убийства — торпед и ракет, а затем и первых боевых роботов. К сожалению, несмотря на протесты общественности, разработка новых, всё более «умных» видов вооружения продолжается семимильными шагами во всех ведущих технологических державах. Многие учёные, работающие в области ИИ, выступают за запрет автономного летального оружия. В июле 2015 г. более тысячи экспертов в области ИИ подписали письмо, предупреждающее об угрозе гонки вооружений, основанных на технологиях ИИ, и призывающее к запрету автономного оружия. Письмо было представлено на XXIV Международной совместной конференции по искусственному интеллекту (International Joint Conferences on Artificial Intelligence, IJCAI-15) в Буэнос-Айресе. В числе его подписантов были Стюарт Рассел, Питер Норвиг, Ян Лекун, Йошуа Бенджио, Нильс Нильссон, Демис Хассабис и многие другие. Свою подпись под письмом поставили и учёные, работающие в других областях, такие как Стивен Хокинг, Макс Тегмарк, знаменитый американский лингвист и философ Ноам Хомский, а также ряд предпринимателей из мира информационных технологий — Илон Маск, Стив Возняк, соучредитель Skype Яан Таллинн и так далее[3133].

Хотя большинство стран — членов ООН выступает за запрет летального автономного оружия, меньшинство блокирует это решение. Всё дело в том, что в составе этого меньшинства США, Россия, Великобритания, Австралия и Израиль[3134].

При этом было бы наивно полагать, что другие страны в таких условиях откажутся от применения технологий ИИ при разработке систем вооружений. Например, масштабы их применения Китаем позволяет оценить вышедший в 2021 г. доклад, подготовленный специалистами Центра безопасности и перспективных технологий (Center for Security and Emerging Technology, CSET), под названием «Обузданная молния. Как китайские военные внедряют искусственный интеллект» (Harnessed Lightning. How the Chinese Military is Adopting Artificial Intelligence). В основу исследования положен анализ около 350 контрактов на связанное с ИИ оборудование, заключенных в 2020 г. Народно-освободительной армией Китая с государственными оборонными предприятиями[3135].

В марте 2022 г. печально известный журнал Nature Machine Intelligence опубликовал статью «Двойное использование основанных на ИИ методов поиска лекарственных препаратов» (Dual use of artificial-intelligence-powered drug discovery)[3136], в которой было показано, что генеративные модели могут вполне успешно использоваться для разработки новых видов химического оружия. К сожалению, многие технологии, создаваемые в области ИИ, могут применяться не только в мирных целях.

Завершившаяся 17 декабря 2021 г. в Женеве VI конференция по рассмотрению действия Конвенции о запрещении или ограничении применения конкретных видов обычного оружия (Convention on Certain Conventional Weapons) стала очередным источником пессимизма для сторонников ограничения применения технологий ИИ в военной сфере. Вот как резюмировал итоги конференции председатель Лиги независимых IT-экспертов, эксперт Российского совета по международным делам Сергей Карелов:

Лицензия ИИ на убийство людей продлена на неограниченный срок.

8 лет экспертных обсуждений спущены в унитаз.

Завершившаяся в пятницу в Женеве 6-я конференция по рассмотрению действия Конвенции о запрещении или ограничении применения конкретных видов обычного оружия теперь войдёт в историю.

• 8 лет человечество обсуждало необходимость введения юридически значимых международных правил защиты людей от автономного смертельного оружия (роботов-убийц, принимающих решения с минимальным участием человека или без него).

• Впервые большинство из 125 стран заявили, что хотят ограничить возможности роботов-убийц.

• США, Россия, Великобритания и Индия заблокировали такое решение.

Моральные, этические и гуманитарные риски, риски безопасности и правовые риски применения роботов-убийц оказались далеко не самым важным вопросом для Конвенции ООН.

Конференция завершилась в пятницу лишь расплывчатым заявлением о целесообразности в 2022 [году] рассмотреть возможность поиска приемлемых для всех стран мер по данному вопросу.

«Я подумаю об этом завтра», — говорила в подобных случаях героиня «Унесённых ветром» Скарлетт ОХара. Но проблема в том, что завтра может быть поздно.

За день до этого, в ходе дискуссии, организованной Международным Красным Крестом, я предсказал ровно этот бесславный итог конференции, за который очень скоро будет заплачено многими жизнями людей.

В той или иной мере разделяют оценку Карелова и другие эксперты в этой области[3137], [3138]. Хотя я радикально не согласен с Кареловым по целому ряду вопросов, связанных с развитием технологий ИИ, в данном случае я поддерживаю его обеспокоенность сложившейся ситуацией.

28 мая 2021 г. британская газета Daily Mail со ссылкой на отчёт ООН рассказала о первом в истории применении полностью автономных дронов, снабжённых взрывчаткой, для атаки на пехоту противника[3139], [3140]. Дроны-квадрокоптеры Kargu-2 производства турецкой компании STM (Savunma Teknolojileri Mühendislik ve Ticaret AŞ) способны самостоятельно обнаруживать и поражать цели — оператору нужно лишь направить их в определённую зону. При этом оператор может отменить атаку дрона или перенаправить его на другую цель (если, разумеется, имеется радиосвязь с дроном). В марте 2020 г. Kargu-2 были размещены в Ливии, где использовались в гражданской войне против сил, лояльных генералу Халифе Хафтару.

Несмотря на высокий уровень секретности, связанный с военным применением технологий ИИ, вряд ли приходится сомневаться, что подобные разработки ведутся сегодня практически всеми развитыми странами. Соответствующие заявления неоднократно делали официальные источники разных стран: США, России, Китая, Великобритании, Израиля, Южной Кореи, также известно о разработке летального автономного оружия и в странах Евросоюза: Франции, Германии, Италии и Швеции[3141], [3142]. Растущая международная напряжённость и военные конфликты последних лет ещё в большей мере подстегнули гонку вооружений в этом направлении[3143].

Заметим, что для создания автономного оружия вовсе не нужен ни AGI, ни сверхразум, ни «интеллектуальный взрыв». Для этого вполне подходят современные прикладные системы ИИ, причём эта опасность носит не гипотетический, а весьма реальный характер. К сожалению, в результате спекуляций представителей лагеря алармистов на страхах публики, воспитанной на «Терминаторе» и знаменитом HAL 9000 Кларка и Кубрика, происходит смещение акцентов в сфере безопасности ИИ в сторону анализа маловероятных, но эффектных сценариев. При этом реальные опасности зачастую ускользают из виду.

Катастрофические нотки, звучащие из уст заметных медийных фигур, вульгаризируются вечно ищущими сенсации журналистами, а затем и авторами сценариев голливудских фильмов. В целом технопессимистические нотки доминируют в современном мейнстримном искусстве. На смену эпохе Жюля Верна, воспевавшей человеческий разум, жажду знаний и научно-технический прогресс, постепенно пришла эпоха творцов, в произведениях которых учёные в поиске способа межзвёздных путешествий открывают портал в ад (это, между прочим, синопсис реально существующего фильма под названием Event Horizon, в отечественном прокате получившего название «Сквозь горизонт»), а прогресс в области ИИ неизбежно приводит или к катастрофе, или в крайнем случае к построению пугающего дистопичного общества будущего. Даже герои некогда технооптимистичных и жюль-верновских по духу «Звёздного пути» (Star Trek) и «Звёздных врат» (Stargate) в последних сериалах, принадлежащих к этим вселенным, заняты главным образом постоянным самокопанием, решением личных психологических проблем и нескончаемыми конфликтами со своими же коллегами, а не изучением новых миров и технологий. Что уж говорить о новых научно-фантастических сериалах вроде «Видоизменённого углерода» (Altered Carbon) или «Мира Дикого Запада» (Westworld), где симпатии авторов сценария, кажется, и вовсе на стороне неолуддитов.

Создатели «Чёрного зеркала» (Black Mirror) и «Разрабов» (DEVS), которых трудно обвинить в отсутствии фантазии и таланта, предпочитают употребить свои умения для того, чтобы посильнее напугать зрителя последствиями технического прогресса. На фоне этой массовой волны технопессимизма технооптимистическому, неожюльвернианскому искусству буквально силой приходится пробивать себе дорогу в жизнь. В этом смысле показательна история создания книги «Марсианин» (The Martian), сюжет которой лёг в основу одноимённого оскароносного фильма. Автор книги, Энди Вейер, столкнувшись с полным отсутствием интереса со стороны издателей, принял решение публиковать книгу в интернете в открытом доступе, а затем по просьбе читателей выложил её в Amazon Kindle, где роман быстро завоевал статус бестселлера. Успех книги, а затем и снятого по её мотивам фильма показывает наличие спроса на технооптимизм среди читателей и зрителей, однако индустрия упорно продолжает клепать технофобские поделки. На фоне всеобщего технопессимизма произведения, подобные «Марсианину», «Двухсотлетнему человеку» (Bicentennial Man) или «Превосходству» (Transcendence) — фильму режиссёра Уолли Пфистера по сценарию Джека Паглена, лично мне кажутся глотками чистого воздуха, однако среди высокобюджетных фильмов, вышедших на экраны за последние три десятилетия, технооптимистические ленты можно пересчитать по пальцам максимум двух рук. Впрочем, я уверен, что найдётся множество людей, не разделяющих мою точку зрения.



Основная проблема современных технопессимистических литературы и кино заключается в присущей им в массе неконструктивности. Рисуя катастрофические сценарии развития технологий, они мало что могут предложить взамен, кроме консервативной программы, призывающей к ограничению развития технологий, возврату к «исконным ценностям», «смирению гордыни» и тому подобной квазирелигиозной чепухе. Интересно, что ведущие мыслители, которых мы условно можем отнести к числу алармистов, обычно как раз предлагают конструктивные программы. Они есть и у Бострома, и у Маска, и выглядят эти программы местами вполне разумно, а в случае Маска даже подкреплены рядом практических проектов, которые можно только приветствовать. Однако эта часть их идей слабо известна обществу, в отличие от прохладных историй о скрепках или о самонадеянном умнике, призывающем дьявола. Доминирование технофобского дискурса в искусстве, недоверие (часто вполне обоснованное) к технологическим корпорациям, недостаточная информированность общества о современном состоянии и перспективах технологий ИИ и, как следствие, страх людей перед неизведанным — всё это вызывает серьёзные опасения. В условиях мировой политической нестабильности трудно сохранять уверенность в том, что завтра те или иные политики в погоне за дешёвой популярностью не попытаются запретить целые направления научных исследований. Такая победа технолуддитов может обернуться для всего человечества настоящей катастрофой. Лично мне кажется, что перед всеми нами стоит серьёзная задача — проложить путь в будущее, ведущий по тонкому краю, разделяющему мир скрепок и мир скреп, и, кажется, сегодня мы опасно накренились в сторону второго, а вовсе не первого.

Для того чтобы пройти по нашей узенькой тропке, разумеется, вовсе не следует закрыть глаза и стремглав бежать вперёд. Напротив, нам нужно хорошо видеть угрозы, подстерегающие нас на пути. К сожалению, многие из этих угроз в действительности ускользают от внимания публики, зачарованной яркими метафорами. В моей книге не будет готовых ответов или всестороннего анализа этих опасностей. Конечно, мне тоже хочется иногда побыть кинокритиком или философом, однако нужно держать себя в определённых рамках, иначе эта книга никогда не выйдет из печати. Поэтому я ограничусь кратким упоминанием стоящих перед ИИ проблем — как социальных, так и технологических — и небольшим количеством соображений по каждой из них. Эти соображения не будут содержать готовых ответов или рецептов, и в ряде случаев они увеличат число вопросов, а не ответов. Однако я надеюсь, что они послужат отправной точкой для более глубокого общественного обсуждения названных проблем, что в результате позволит выработать разумные прикладные рецепты в области социальной и научно-технической политики.

Мы уже упомянули несколько стоящих перед нами угроз: ИИ-апокалипсис при участии сверхразума, техногенный апокалипсис из-за недостатка «разума» при использовании могущественных технологий, гонку автономных вооружений с опасными для мира последствиями, а также победу неолуддитов. Этот список будет неполон без проблем, относящихся к социальным последствиям развития технологий ИИ. И самой обсуждаемой из них, безусловно, является угроза массовой безработицы. О ней мы и поговорим в следующем разделе.

7.3 Съедят ли людей электроовцы?

О овцы, такие ручные и неприхотливые в еде. Они становятся настолько жадными и необузданными, что поглощают самих людей, опустошают и делают безлюдными поля, дома и города.

Томас Мор. Утопия

7.3.1 Влияние технического прогресса на общество: история проблемы

Ткачи, негодяи, готовят восстанье,

О помощи просят. Пред каждым крыльцом

Повесить у фабрик их всех в назиданье!

Ошибку исправить — и дело с концом,

В нужде, негодяи, сидят без полушки.

И пёс, голодая, на кражу пойдёт.

Их вздёрнув за то, что сломали катушки,

Правительство деньги и хлеб сбережёт,

Ребёнка скорее создать, чем машину,

Чулки — драгоценнее жизни людской

И виселиц ряд оживляет картину,

Свободы расцвет знаменуя собой.

Джордж Байрон. Ода авторам билля,

направленного против разрушителей станков

Массовое внедрение систем, основанных на последних достижениях в области ИИ, — это, мягко говоря, не первая технологическая революция в истории человеческого общества и не первый случай, когда перемены в технологическом укладе ставят под угрозу множество рабочих мест, что, в свою очередь, создаёт базу для тяжёлых социальных потрясений.

Вопреки распространённому заблуждению, Конфуций, по всей видимости, никогда не желал своим врагам жить в эпоху перемен. Древняя китайская мудрость гласит: 寧為太平犬,莫做亂離人, что значит «Лучше быть собакой в мирное время, чем человеком во времена хаоса», но это изречение более относится к войне, чем к переменам в жизни общества. Страх перед меняющимся миром — это, по всей видимости, всё-таки примета Нового времени. Могущественные боги научно-технического прогресса, мирно дремавшие в течение большей части Средневековья, пробудились и наделали много шума сначала в Европе, а затем и во всём мире. Технологическая революция решительно вторглась в быт феодальных общин, дав начало эпохе огораживаний. Стремительный рост ткацкой промышленности, начавшийся с появления и распространения ручных ткацких станков и развития ткацкой мануфактуры в Англии, привёл к быстрому росту цен на основное сырьё — шерсть. Чтобы расширить площадь пастбищ для овец, лендлорды сгоняли крестьян с земель, ликвидируя земледельческие общины. Это привело к серьёзным социальным проблемам — множество людей осталось без средств к существованию. Правительство боролось с этим крайне негуманными, но соответствующими духу времени методами. Вспыхивавшие восстания (например, восстание Томаса Кета) подавлялись, ужесточались наказания, принимались законы против бродяг. Например, в 1495 г. английский парламент принял статут, предписывающий властям «хватать всех таких бродяг, бездельников и подозрительных и заковывать в колодки и держать их так три дня и три ночи на хлебе и воде; и по истечении этих трëх дней и трëх ночей выпускать их на волю, приказывая, чтобы те больше не появлялись в городе».

Согнанные с земли люди пополнили строй промышленных рабочих в городах. Но промышленность развивалась недостаточно быстро, чтобы потреблять эту высвободившуюся рабочую силу. Это были годы, в которые, по меткому замечанию Томаса Мора, «овцы съели людей».

Таким образом, смена технологического уклада привела к социальной катастрофе.

Впрочем, как спустя два столетия заметил один из идейных прародителей современных интернет-троллей Джонатан Свифт, в данном случае удовлетворялся вовсе не овечий аппетит. В своём памфлете «Скромное предложение, имеющее целью не допустить, чтобы дети бедняков в Ирландии были в тягость своим родителям или своей родине, и, напротив, сделать их полезными для общества»[3144] Свифт предложил продавать детей бедняков в качестве деликатеса для стола представителей элиты. Далее в тексте памфлета изложены рецепты приготовления младенцев в пищу и калькуляции, доказывающие экономические выгоды от реализации предложенного плана.

Во второй половине XVIII в. появились первые станки, основанные на силе пара, что подстегнуло новую волну безработицы и привело к серии стихийных протестов. Проблема заключалась не только в том, что люди теряли работу, — при потере работы квалифицированный специалист мог найти себе новое место. Но в результате внедрения машин исчезали целые профессии, на освоение которых люди тратили многие годы. Это ставило работников в крайне тяжёлое положение, поскольку им теперь надо было осваивать новое ремесло, что для многих было неподъёмной задачей. Случаи уничтожения машин появились в Англии в конце XVIII в., а в 1811 г. возникло массовое движение луддитов, которое быстро распространилось по всей Англии и привело к разрушению ряда шерстяных и хлопкообрабатывающих фабрик.

Своим предводителем луддиты называли некоего Неда Лудда. Лудду приписывалось уничтожение двух чулочных станков, производивших дешёвые чулки и грозивших разорением опытным вязальщицам. Подпись Лудда стояла под множеством писем и прокламаций, однако реальное существование этого исторического персонажа в наши дни подвергается сомнению. В народной молве Лудд стал генералом Луддом и даже «королём Луддом». Поговаривали, что он живёт в Шервудском лесу, подобно Робин Гуду[3145]. Возможно, реальным прототипом Лудда был ткач Эдвард Ладлэм, но это не точно[3146], [3147].


Рис. 176 Гравюра с изображением Неда Лудда, 1812 г.

Реакция английского правительства была жёсткой — в качестве наказания за уничтожение машин была установлена смертная казнь, а сами восстания были подавлены войсками. Последнее из восстаний луддитов было разгромлено в 1817 г.

7.3.2 Сегодня в мире: прогресс и перспективы

«Через 30 лет роботы смогут делать практически всё, что умеют делать люди, — такой прогноз дал Моше Варди, профессор вычислительной инженерии и директор Института информационных технологий Кена Кеннеди (Ken Kennedy Institute for Information Technology) при Университете Райса (William Marsh Rice University). — Это приведёт к тому, что более 50% жителей Земли станут безработными. Мы приближаемся к тому времени, когда машины превзойдут людей почти в любом деле, — говорит Варди. — Я считаю, что обществу нужно посмотреть в лицо этой проблеме до того, как она встанет во весь рост. Если машины будут способны делать почти всё, что умеют люди, что тем останется делать? Вопрос, который я хочу поставить, звучит так: „Действительно ли технология, которую мы разрабатываем, приносит пользу человечеству?“»

Варди выступил с этим заявлением в 2016 г. на ежегодной встрече Американской ассоциации содействия развитию науки (American Association for the Advancement of Science), на которой он представил доклад под названием «Умные роботы и их влияние на общество» (Smart Robots and Their Impact on Employment)[3148].

Прав ли Варди? Реальна ли обрисованная им перспектива? Можно ли делать подобные предсказания, основываясь на нынешних достижениях?

Некоторые публичные ораторы заявляют, что все достижения последних десятилетий в области искусственного интеллекта есть не что иное, как мистификация, созданная для относительно честного отъёма денег у легковерных инвесторов.

Например, в 2018 г. английский изобретатель Эндрю Фентем опубликовал в издании The Register статью под названием «Мифологизация вопроса: ренессанс искусственного интеллекта — это просто дорогое компьютерное оборудование и пиар, брошенные на старую идею» (Mything the point: The AI renaissance is simply expensive hardware and PR thrown at an old idea), в которой пишет: «В области искусственного интеллекта не было значительного концептуального прогресса более 30 лет. Большая часть того, что мы сейчас наблюдаем в исследованиях искусственного интеллекта и в средствах массовой информации, — это то, что происходит, когда огромное количество очень дорогого компьютерного оборудования и изощрённая PR-кампания бросаются на довольно старую идею»[3149].

Доктор биологических наук, профессор Савельев и вовсе заявляет: «Я пережил уже три больших цикла, когда удалось расхитить колоссальные средства из бюджета на создание искусственного интеллекта. Я думаю, что ещё будет не один цикл. Я просто завидую ребятам, которые умудряются в третий раз обманывать население этой планеты на одну и ту же тему. Здорово, я бы тоже так хотел, но мне не дают». Вот в чём, по мнению Савельева, заключается основной недостаток систем искусственного интеллекта, на преодоление которого уйдут столетия:

Человеческий мозг обладает творчеством по одной простой причине. Я сейчас объясню почему. У нас между вот этими одиннадцатью миллиардами нейронов каждый день образуются две связи, и две связи рвутся. И так всю жизнь. Мозг думает не потому, что там сигналы бегают, как в больном воображении инженера недоученного. Не поэтому. Это у инженера в голове мозг работает, как электрический проводник. Там, простите меня, приходит один синапс, один-единственный контакт между нейронами, которых от ста тысяч до миллиона у каждой нервной клетки из одиннадцати миллиардов. А из этого, посчитайте, один такой синапс, в него приходит, медиаторов двадцать пять штук, в разных комбинациях, которые кодируют сигнал. И сигнал идёт электрохимический, а не чистая проводимость. Это по проводам электричество бегает. А здесь информационные сигналы все электрохимические. Близко нет. И самое главное, что эти контакты образуются и разрушаются всю жизнь. То есть, это что значит? Я привожу постоянно пример. У нас сто пятьдесят миллиардов вообще целиком во всей нервной системе нейронов, в коре одиннадцать миллиардов. То есть, это что означает? Что нам надо подождать ещё двести лет, и тогда мы сможем создать суперкомпьютер, посадив в обмотку каждого нейрона по китайцу с паяльником, который будет через два дня перепаивать контакты. Они не программируются, вот в чём фокус. А именно в них творчество. То есть, не комбинаторика: как поменять доллары на евро и обратно. Не как в шахматы выиграть. Не эта вся глупость, которая имитирует псевдонаучную деятельность, а совсем другое — морфогенез. У нас мозг думает, принимает решения, выбирает за счёт морфогенеза[3150].

К сожалению, высказывания что Фентема, что Савельева демонстрируют лишь их недостаточные знания в области методов ИИ, а также о прогрессе, происходящем в этой области. Например, Савельев не в курсе, что с морфогенезом у искусственных нейронных сетей всё в полном порядке: программные модели прекрасно обходятся без миллиардов людей с паяльниками, причём они обладали этой способностью ещё на самой заре электронной вычислительной техники. Моделировать образование или исчезновение связей между нейронами можно, меняя хранящиеся в памяти машины данные, без внесения изменений в её физическую конструкцию — именно эту простую мысль высказывает Тьюринг в уже упоминавшемся нами ранее письме Эшби[3151]. Фентем, по всей видимости, ничего не знает ни о современных свёрточных нейросетевых архитектурах, ни о LSTM, ни о словарных эмбеддингах, ни о механизме внимания и трансформерах, ни о генеративно-состязательных сетях — вообще ни о чём из огромного арсенала новых методов и архитектур, созданных за последние два-три десятилетия. Подобно маленькому ребёнку, который думает, что взрослые перестали его видеть, если он зажмурил глаза, подобные критики ИИ, по всей видимости, думают, что если они ничего не знают о прогрессе в какой-то области, то сам этот прогресс просто отсутствует.

Забавно разбирать эти тезисы в одной из заключительных глав работы, львиная доля которой посвящена как раз летописи достижений в области ИИ, в том числе относящихся к последнему десятилетию. Удивительно стремление человеческого разума к разнообразным теориям заговора. В погоне за увлекательным сюжетом в духе произведений Дэна Брауна некоторые люди готовы игнорировать даже очевидные факты. Фукидид в «Истории Пелопоннесской войны» писал: «…Потому что это привычка человечества — подвергаться бездумной надежде на то, чего они хотят, и использовать собственные суждения, чтобы отбросить то, что им не нравится». Факты, однако, упрямая вещь, они, подобно садовым граблям, выжидают удобный момент, чтобы проучить того, кто всерьёз собрался их игнорировать.

За последние полтора десятилетия науке удалось решить целый ряд сложных задач из области искусственного интеллекта. Ирония заключается в том, что многие замеченные публикой проекты, вроде Deep Blue или Alpha Go, в действительности лишь косвенно отражают прогресс, проделанный технологиями машинного обучения. Куда большее значение для производственного уклада имеют технологии, позволяющие машинам эффективно решать производственные задачи, с которыми раньше могли справиться только люди. Системы машинного зрения, способные со сверхчеловеческой точностью распознавать объекты, попавшие в объектив цифровых камер, системы распознавания и синтеза речи, модели для обработки естественного языка, геоинформационные и поисковые системы — всё это вещи, которые стремительно меняют облик производства и торговли, приводят к перестройке логистических цепочек и титаническим сдвигам на рынке труда, заметным даже невооружённым глазом. Пока внимание публики сосредоточено на медленном, но уверенном прогрессе в области беспилотного транспорта, совершенно незаметно в нашу жизнь пришли автоматизированные операторы колл-центров. На сентябрь 2023 г. одна лишь система, разработанная компанией «АБК» (дочерней компанией «Сбера», в которой ваш покорный слуга на протяжении почти семи лет занимал пост директора по информационным технологиям), совершает ежесуточно около 850 000 разговоров с клиентами суммарной продолжительностью более 800 000 минут. Сегодня «Сбер» продолжает активно развивать эту платформу под брендом VSRobotics. При этом за время с начала пандемии коронавируса число ежесуточно выполняемых с её помощью голосовых коммуникаций с клиентами выросло примерно десятикратно.

Телемаркетинг, справочные системы, работа с просроченной задолженностью, поддержка операций — всё это области, в которых роботы сегодня взяли на себя огромный объём задач, ещё вчера решавшихся исключительно людьми. Торговые автоматы пришли в московских офисах на смену буфетам. Многочисленные цепочки торговых посредников уступили значительную долю рынка электронным торговым площадкам. Наблюдая за успехами Amazon и ростом капиталов Джеффа Безоса, мало кто задумывается о том, что на складах этой компании уже давно трудятся роботы.

В марте 2012 г. Amazon приобрела за 775 млн долларов компанию Kiva Systems, известную сегодня под названием Amazon Robotics. В конце 2014 г. на десяти складах Amazon уже трудилось в общей сложности около 15 000 роботов[3152]. На 2023 г. число складских роботов Amazon превысило[3153] 750 000. Складской робот Amazon — небольшая тележка высотой около 30 см, способная перевозить более 300 кг груза. Согласованным перемещением тележек управляет логистическая система ИИ, берущая на себя задачу оптимизации транспортных операций внутри склада.

В 2022 г. компания DHL подписала с Boston Dynamics договор на 15 млн долларов о поставке роботов-грузчиков Stretch, которые будут работать на складах DHL в Северной Америке.

И Amazon, и DHL[3154], как и многие другие компании, не прочь продолжить автоматизированные логистические цепочки и за пределы складских помещений. На улицах многих городов уже сегодня появились роботы-курьеры. Соответствующие программы, кроме инновационных стартапов, развивают и FedEx, и Postmates, и даже «Яндекс»: в 2020 г. москвичи заметили на улицах города первого робота-курьера, разъезжающего по тротуарам[3155], [3156]. «Сбер» ещё с 2017 г. использует в некоторых регионах инкассаторские дроны[3157]. В Сан-Франциско увеличение количества роботов-курьеров привело к активной полемике о необходимости регулирования их применения. Хотя изначально высказывались весьма радикальные предложения, вплоть до полного запрета использования этой технологии, в конечном счёте всё завершилось принятием набора ограничений и выдачей разрешений ряду компаний[3158], [3159]. Хотя пока что количество роботов-курьеров существенно уступает числу складских или промышленных роботов, рост их числа лишь вопрос времени.

В промышленности полностью или частично автоматизированные системы уже давно не воспринимаются как нечто необычное. В конце концов, и жаккардовый ткацкий станок, и станки с ЧПУ, появившиеся в XX в., — всё это привычные нам средства автоматизации производства. Однако по мере того, как в распоряжении создателей таких станков появляются новые способы обработки данных, станки становятся способны выполнять более сложные операции, отвоёвывая у человека его ранее исключительные способности и рабочие места.

Пока в производственных процессах ещё участвуют люди, нужны и роботы, способные безопасно работать рядом с этими людьми, так называемые коллаборативные роботы (коботы). Последние годы рынок коллаборативной робототехники стремительно растёт[3160].

Согласно прогнозу компании Juniper Research, к 2023 г. в мире будет использоваться 8 млрд виртуальных голосовых ассистентов (на конец 2018 г. их количество оценивалось в 2,5 млрд)[3161]. По состоянию на январь 2020 г. около 500 млн пользователей во всём мире хотя бы раз в месяц обращались к одному только виртуальному ассистенту Google[3162].

Рекламные боты, строительные и биржевые роботы, роботизированные медицинские системы, автоматизированные системы речевой аналитики, транспортные системы навигации, в конце концов, роботы-пылесосы — всё это стало привычной частью нашей жизни в последние десятилетия. И всё-таки находятся люди, утверждающие, что прогресс в области ИИ — это всего лишь медийная шумиха. Существование таких людей удивляет меня куда больше, чем многие достижения науки и технологии.

7.3.3 Бессмысленный труд: невкусный плод древа прогресса

Если прогресс будет продолжаться и через 30 лет роботы смогут делать практически всё, что умеют люди, — к каким последствиям это приведёт и как отразится на современном обществе?

Хотя и в наши дни противников технического прогресса нередко называют неолуддитами, мы вроде бы живём в куда более травоядные времена, чем два столетия назад. Какое нам дело до гвельфов и гибеллинов? Наши машины изящны, одеты в утончённые дизайнерские корпуса, разве могут они сравниться в своей кровожадности с древними паровыми чудовищами? Представители финансовых кругов и политики стали гораздо вежливее, в цивилизованных странах раз в несколько лет они великодушно проводят выборы и почти никогда не посылают войска против народа для того, чтобы исправить неудачные результаты голосования.

В богатых странах безработные получают неплохие пособия по безработице, которые позволяют людям не умереть с голоду. В истории ручной труд не единожды в массовых объёмах замещался машинным, но каждый раз в экономике со временем возникали новые рабочие места, и уровень безработицы в наши дни вряд ли выше уровня безработицы 100 или 200 лет назад.

Поэтому можно предположить, что людей, работа которых станет невостребованной, ждёт более завидная судьба, чем 200 лет назад. Последние полвека в развитых странах активно растёт число людей, занятых в непроизводственной сфере, и например, в книге «Бредовая работа» (Bullshit Jobs) недавно ушедший от нас антрополог Дэвид Грэбер рассказал о феномене «бесполезных работ, о которых никто не хочет говорить». Он полагал, что такие работы окружают нас повсюду. В 2015 г. аналитическая компания YouGov опросила жителей Великобритании, считают ли они, что их работа является осмысленной с точки зрения окружающих [contribute ’meaningfully’ to the world]. 37% респондентов ответили «нет», а 13% не смогли определиться с ответом. Сходные результаты были получены и во время опроса в Нидерландах. Книга Грэбера[3163] носит отметку особого эмпиризма благодаря ряду приведённых в ней писем «из окопов абсурда»:

Я занимаюсь цифровым консалтингом для отделов маркетинга глобальных фармацевтических компаний. Часто работаю с глобальными PR-агентствами и пишу отчёты с названиями, например, «Как улучшить взаимодействие между ключевыми участниками цифрового здравоохранения». Это чистая, чистейшая фигня и не служит никакой цели, кроме галочек в маркетинговых отделах… Недавно я получил около двенадцати тысяч фунтов за двухстраничный отчёт для фармацевтической компании. Его планировали показать на встрече по глобальной стратегии. В итоге отчёт не понадобился, потому что до этого пункта повестки дня так и не дошли.

Грэбер обращает особенное внимание на то, что следует отличать бессмысленную работу от «отстойной работы» [shit job]. Последний термин используется для обозначения тяжёлой, неблагодарной, но нужной обществу работы. В отличие от тех, кто занят отстойной работой, обладатели бессмысленной работы нередко получают высокие зарплаты и хорошую компенсацию в виде массы свободного времени. И всё же они несчастны. Грэбер считал, что виной тому — ощущение бесполезности. Это наблюдение привело автора к определению бессмысленной работы как «формы оплачиваемой занятости, которая настолько бессмысленна, не нужна или вредна, что даже работник не может оправдать её существование, хотя по условиям контракта он чувствует обязанность притворяться, что это не так»[3164]. Если во времена «Нового курса» Рузвельта «лишние» работники строили дороги за счёт государства, то в наши дни они составляют бессмысленные презентации за счёт корпораций. Так или иначе, «бессмысленная занятость» выполняет роль своеобразного социального демпфера, частично компенсирующего последствия снижения спроса на рабочую силу в производственном секторе в результате постепенного повышения производительности труда (отдельный вопрос заключается в том, хотим ли мы жить в мире, в котором бессмысленная занятость является основным рецептом по борьбе с безработицей).

7.3.4 Висит груша — нельзя скушать: новые рабочие места

Надо отметить, что вопрос с возникновением новых рабочих мест под влиянием научно-технического прогресса является неоднозначным. Если проанализировать долгосрочную динамику рынка труда, можно обнаружить, что на длинной дистанции количество рабочих мест в экономике не сокращалось. Появлялись новые профессии и целые отрасли, а в отраслях, существенно не затронутых автоматизацией, увеличивалось количество занятых. Производство электроники, индустрия программного обеспечения (в том числе компьютерных игр), интернет-маркетинг и торговля — всё это области, неизвестные рынку труда до начала революции в области информационных технологий. Эпоха революции глубокого обучения также создаёт новые области применения человеческого труда — и это не только рабочие места для специалистов в области ИИ. Множество людей задействовано сегодня в обучении специалистов, разметке данных, разработке программно-аппаратных комплексов (как на основе новых моделей машинного обучения, так и предназначенных для их разработчиков), их тестировании и внедрении. Новые сервисы, основанные на достижениях ИИ, нуждаются в дизайнерах, маркетологах, экономистах, специалистах по DevOps (инженерах разработки) и так далее. Благодаря появлению новых отраслей и сервисов развитие технологий ИИ не является «игрой с нулевой суммой» — росту производительности труда сопутствует рост общественных потребностей.

Четвёртая промышленная революция, так же как и три предыдущих, создаёт новые рабочие места, однако требования к квалификации сотрудников, удовлетворяющих всем потребностям новых вакансий, не всегда соответствуют навыкам тех людей, которые лишаются работы в результате автоматизации.

Наивно предполагать, что люди, занятые не самым престижным трудом, по мановению волшебной палочки превратятся в программистов, специалистов по машинному обучению или цифровых адвокатов (о том, кто это, мы поговорим позже). Для переподготовки кадров в массовых масштабах нужны не только существенные финансовые ресурсы, но и специалисты по переподготовке кадров, которых, к сожалению, недостаточно. Предыдущие промышленные революции в среднесрочной перспективе привели к тяжёлым социальным последствиям: падению доходов населения, росту преступности, увеличению смертности и, наконец, к войнам — извечному средству для устранения избыточного населения.

Совершенно очевидно, что без масштабных социальных программ, без энергичной государственной политики в социальной сфере частный сектор экономики не сможет ответить на возникающие вызовы либо эти ответы будут найдены далеко за пределами гуманистической парадигмы.

7.3.5 Идея безусловного основного дохода

Часто в качестве панацеи от негативных социальных последствий научно-технического прогресса называют введение безусловного основного дохода (БОД), называемого также безусловным базовым доходом: каждый гражданин, как работающий, так и безработный, будет получать от государства определённую сумму денег, достаточную для безбедного существования, что навсегда решит проблему бедности, связанной с безработицей.

Удивительно, как хорошо забытое старое легко становится новым. Идее Томаса Пейна и маркиза де Кондорсе удалось более чем на 200 лет пережить своих создателей и предстать в виде своеобразного откровения пред лицом неискушённой публики. Подобное происходило практически каждый раз, когда общество сталкивалось с очередной волной массовой безработицы. Например, во времена Великой депрессии эта идея выросла в большое общественное движение.

Первый всеевропейский опрос, проведённый в апреле 2016 г., показал, что 64% жителей Евросоюза поддержали бы введение безусловного основного дохода. Только 4% граждан после введения безусловного базового дохода откажутся работать. Наиболее убедительными преимуществами данной модели люди считают то, что такие социальные выплаты «уменьшают тревогу о базовых финансовых потребностях» (40%) и помогают обеспечить людям равные возможности (31%).

Идея БОД весьма привлекательна — к числу аргументов, звучащих в её поддержку, обычно относят следующие:

БОД решит проблему бедности;

решит проблему технологической безработицы (безработицы, связанной с прогрессом в области технологий);

уменьшит проблему экономического неравенства;

снизит уровень преступности и так далее.

В этом есть, безусловно, изрядная доля смысла, однако на другой чаше весов находятся не менее весомые аргументы:

для финансирования программы БОД необходимо будет повысить налоговую нагрузку, что, совершенно очевидно, встретит сопротивление со стороны предпринимателей;

введение БОД в рамках лишь одного или нескольких национальных государств приведёт к бегству бизнеса (который будет стремиться таким образом снизить налоговую нагрузку) и притоку иммигрантов из стран, в которых БОД не будет внедряться;

поскольку для финансирования БОД в ряде существующих проектов предлагается сократить многие социальные программы, предоставляющие социальные блага в натуральной форме, введение БОД может привести не к уменьшению, а к росту социального неравенства.

Удовлетворительного решения обозначенных проблем, особенно при попытке внедрения БОД в отдельном государстве, пока не существует.

Также ясно, что безусловный доход не может остановить рост имущественного неравенства в обществе. Если налоги, собираемые с корпораций (являющихся основными бенефициарами инноваций), будут слишком велики, то это подавит в корпорациях желание осуществлять развитие и внедрение инноваций. Если же налоги, собираемые с корпораций, окажутся недостаточно велики, то рост богатства и могущества корпораций (а значит, и имущественного неравенства в обществе) будет продолжаться. Найти же оптимальный баланс между данными вариантами чрезвычайно сложно.

При этом важно понимать, что научно-технический прогресс во многом осуществляется за счёт общественного, а не частного сектора. Частные компании задействованы в основном на «последней миле» этого пути, осуществляя вложения главным образом в прикладную науку и создание технологий, позволяющих получить прибыль на горизонте финансового планирования. Однако развитие прикладной науки зависит от прогресса науки фундаментальной, а бо́льшая часть фундаментальных исследований осуществляется в некоммерческом секторе, будь то государственная наука или некоммерческие организации, такие, например, как вузы, входящие в Лигу плюща (Ivy League) в США (ассоциацию, объединяющую ряд ведущих вузов страны).

Развитие многих технологий требует вложений существенных сумм денег на длительный период, зачастую с высокими рисками невозврата, на что часто не готовы идти даже самые крупные корпорации. Причины такого положения вещей явно не относятся к технологической сфере.

Ситуацию могла бы поправить передача управления экономикой эффективной системе ИИ, целеполагание для которой будет осуществляться при помощи методов прямой демократии, но такой подход вряд ли понравится финансовой элите и самим технологическим корпорациям, рассматривающим научно-технический прогресс как источник собственной неконтролируемой власти. Поэтому решения, подобные предложенному Свифтом, имеют все шансы оказаться внедрёнными на практике. В своём «Скромном предложении» Свифт доводил до абсурда идеи, многие отголоски которых можно услышать и сегодня. Безо всякого стыда в интеллектуальной среде высказываются предложения об искусственном снижении рождаемости в третьем мире, платежах за стерилизацию, экономическом стимулировании бездетности и так далее. При этом в пользу этих мер выдвигается, как обычно, аргумент об опасности перенаселения, причём если в XIX в. в качестве главного негативного последствия перенаселения обычно называли голод, то в XXI в. на первое место нередко выходят соображения экологического характера. Эту позицию можно, вероятно, назвать «постмальтузианской».

7.3.6 Призрак постмальтузианства

Напомним коротко положения классического мальтузианства. В своём «Очерке о законе народонаселения»[3165] Мальтус пишет о том, что население растёт в геометрической прогрессии (его численность удваивается каждые четверть века в отсутствие войн и болезней), в то время как ресурсы Земли ограниченны (производство продуктов питания растёт в арифметической прогрессии). Таким образом, если ничем не компенсировать биологическую потребность людей к продолжению рода, то рано или поздно средств к существованию перестанет хватать на всех (этот эффект получил название «мальтузианская ловушка»[3166]). При этом рост народонаселения может быть ограничен лишь нравственным воздержанием или несчастьями (войны, эпидемии, голод). Будучи в некотором роде гуманистом, Мальтус ратовал за первое.

На деле теория Мальтуса оказалась несостоятельной в силу двух некорректных допущений, положенных в её основу. Во-первых, рост производительности труда за счёт достижений научно-технического прогресса оказался существенно недооценённым. В результате, вопреки предсказаниям Мальтуса, стоимость сельскохозяйственных угодий в XIX в. снижалась, а не росла. Во-вторых, Мальтус не заметил демографического перехода, который привёл к существенному снижению рождаемости. По мере того как росла производительность труда в сельском хозяйстве, всё большая доля населения переселялась в города, где рождаемость оказывалась заметно ниже. Таким образом, действие этих двух факторов породило ещё и мультипликативный эффект. Сегодня в развитых странах нередко не достигается даже естественное воспроизводство, поскольку репродуктивные модели поведения городских жителей существенно отличаются от репродуктивных моделей аграрного общества. В индустриальной экономике от количественной стратегии (K-стратегии) размножения люди переходят к качественной (Q-стратегии). В аграрном обществе рождение ребёнка означает появление новых рабочих рук в хозяйстве, а значит, экономически обосновано — оно обеспечивает жизнь родителей в старости. Для городского жителя рождение ребёнка воспринимается скорее как роскошь. Прежде чем родить ребёнка, нужно обзавестись жильём, купить машину, найти средства на образование ребёнка и так далее. Воспитание ребёнка связано с многочисленными рисками, трудностями и неудобствами и ставит под вопрос качество жизни родителей. Когда рождение ребёнка перестаёт быть экономической необходимостью, многие люди либо отказываются от рождения детей, либо постоянно откладывают момент рождения ребёнка, нередко так и не совершая этот шаг. Даже там, где родители решаются на столь сложное и ответственное предприятие, обычно возникают семьи с небольшим количеством детей.

Прогресс в области медицины и санитарии в XX в. привёл к росту выживаемости детей даже в обществах с аграрным укладом, что вновь вызвало к жизни страхи о перенаселении. В условиях быстрых темпов урбанизации в Азии горожане первого поколения по инерции придерживались Q-стратегии размножения, что привело к введению целого ряда ограничительных мер. В конце XX в. многим учёным казалось, что мир стоит на пороге глобальной катастрофы. Численность населения росла по гиперболическому закону. По подсчётам, выполненным в 1975 г. немецким астрофизиком Себастьяном фон Хорнером, если бы этот тренд сохранился, к 2025 г. население Земли стало бы бесконечным. Примерно ту же оценку получили за 15 лет до Хорнера авторы статьи в журнале Science под красноречивым названием «Судный день: пятница, 13 ноября 2026 года: в этот день человеческое население приблизится к бесконечности, если оно будет расти так же, как росло за последние два тысячелетия» (Doomsday: Friday, 13 November, A. D. 2026: At this date human population will approach infinity if it grows as it has grown in the last two millenia)[3167].

Однако уже в 1960–1970-е гг. возникло расхождение темпов роста с гиперболическим законом. Одним из первых исследователей, обратившим на это внимание, был Сергей Капица. По мнению Капицы, точка перегиба кривой роста численности приходится примерно на 2005 г. После прохождения этой точки предполагалось замедление, симметричное эпохе гиперболического роста[3168]. В целом прогнозы Капицы оправдались — сегодня темпы роста мирового народонаселения отстают даже от линейных, и всё в большем количестве стран коэффициент рождаемости снижается ниже уровня воспроизводства.

Современные модели предполагают дальнейшую стабилизацию численности населения Земли или её снижение. Например, модель 2020 г. учёных из Вашингтонского университета под руководством Кристофера Мюррея, опубликованная в журнале Lancet[3169], предсказывает достижение населением планеты пика в 2064 г. (9,7 млрд человек в основном сценарии) с последующим его сокращением до 8,8 млрд человек к концу века.

7.3.7 Перспективы различных профессий в эпоху четвёртой индустриальной революции

Какие изменения на рынке труда ждут нас в ближайшее время? У профессий, представители которых в среднесрочной перспективе могут быть массово заменены машинами, есть несколько важных признаков.

Шаблонность и однообразие выполняемых операций. Если ваша работа заключается в том, чтобы раз от разу совершать повторяющиеся, шаблонные действия, не требующие серьёзных интеллектуальных усилий и не предполагающие проявления вашей собственной инициативы, — это довод в пользу замены вас машиной. С такими операциями машины в большинстве случаев справляются лучше людей.

Стандартизованные взаимодействия с другими людьми в ходе выполнения служебных обязанностей. Если общение с клиентами, заказчиками, руководством, подрядчиками, госорганами и тому подобными в вашем случае происходит по стандартным шаблонам и с использованием электронных каналов связи, то в такого рода коммуникациях вас сможет эффективно заменить машина.

Наличие массивов данных, детально описывающих историю бизнес-процесса. Если вся история осуществляемых вами операций и их результатов хорошо запротоколирована, то такой набор данных может стать удобным обучающим массивом для системы машинного обучения.

На результат будут влиять и другие факторы: величина потенциальной экономии от замены представителя данной профессии на машину (как много людей занято в этой области и много ли они получают?); опасность работы; зрелость конкретных технологий, необходимых для успешной автоматизации; оценка рисков как от человеческого фактора, так и от «машинного» и так далее.

Попробуем рассмотреть несколько конкретных профессий и выделить основные группы риска.


Рис. 177. Профессии, входящие в различные группы риска с точки зрения возможности их автоматизации в среднесрочной перспективе

В «красную зону» входят профессии, для которых в настоящее время уже созданы прототипы решений по замене людей автоматизированными системами и где внедрение таких систем не связано с необходимостью радикальных изменений в законодательной сфере. Представители этих профессий уже замещаются машинами и будут далее активно замещаться ими в ближайшие несколько лет.

«Оранжевую зону» формируют профессии, в которых широкому тиражированию решений препятствуют либо законодательные ограничения, либо недостаточная техническая зрелость созданных систем. В зависимости от особенностей законодательного процесса, а также от нюансов развития конкретных технологий профессии «оранжевой зоны» в течение 3–7 лет имеют высокие шансы перехода в «красную зону».

Представители «жёлтой зоны» вряд ли в ближайшие десять лет будут заменены машинами, однако из-за повышения производительности труда в них возможно сокращение количества занятого персонала.

И наконец, к «зелёной зоне» относятся профессии с растущим спросом на специалистов.

В октябре 2020 г. эксперты Всемирного экономического форума (World Economic Forum) представили на суд общественности аналитический отчёт под названием «Отчёт о будущем рабочих мест» (The Future of Jobs Report 2020)[3170], в котором приведены результаты скрупулёзного анализа динамики мирового рынка труда. Авторы отчёта приходят к выводу, что темпы внедрения технологий остаются в целом достаточно постоянными, но в некоторых областях они могут расти. В соответствии с тенденциями последних лет развитие облачных вычислений, индустрии больших данных и электронной коммерции остаётся в числе основных приоритетов для руководителей бизнеса, однако также наблюдается значительный рост интереса к шифрованию, негуманоидным роботам и технологиям искусственного интеллекта. При этом рынок труда находится под двойным давлением — пандемия COVID-19 не только привела к общему экономическому спаду и локдаунам, но также подтолкнула многие компании к внедрению технологий, которые могут значительно изменить структуру спроса на рабочую силу к 2025 г. Простым примером этого тезиса является ускоренное внедрение речевых технологий: на смену колл-центрам, работу которых не так просто поддерживать из-за карантинных мероприятий, приходят голосовые роботы и виртуальные ассистенты. Если до пандемии от внедрения этих технологий многие бизнесы удерживали естественная инерция и недоверие к новым технологиям, то в условиях, когда успешное развитие в рамках привычных парадигм стало просто невозможным, многие компании сделали ставку на технологическую трансформацию.

Тем не менее авторы отчёта считают, что скорость создания новых рабочих мест в результате технического прогресса будет в среднесрочной перспективе преобладать над скоростью ликвидации старых рабочих мест. Предполагается, что в течение пяти лет (с 2020 по 2025 г.) в мире будет ликвидировано 85 млн старых рабочих мест и создано 97 млн новых. При этом будет расти потребность в первую очередь в квалифицированном труде, однако одним из основных вызовов авторы отчёта считают способность общественного сектора обеспечить повышение квалификации и переподготовку сотрудников, чьи рабочие места находятся под угрозой ликвидации.

Среди прочего авторы отчёта приводят список профессий, в пределах которых количество рабочих мест активнее всего сокращалось в 2007–2018 гг., позаимствованный в другом небезынтересном исследовании — статье аналитиков Федерального резервного банка Филадельфии под названием «„Форсированная автоматизация“ под влиянием COVID-19? Предварительные тренды в данных Текущего опроса населения» (“Forced Automation” by COVID-19? Early Trends from Current Population Survey Data)[3171]. «Текущий опрос населения» (Current Population Survey, CPS) — ежемесячное социологическое исследование, осуществляемое Федеральным бюро статистики труда США (US Bureau of Labor Statistics). Выводы филадельфийского исследования в целом созвучны отчёту аналитиков Международного экономического форума. Основной фокус исследователи из Филадельфии делают на том, что потери рабочих мест в ходе пандемии в первую очередь приходятся на работы, которые проще автоматизировать. Поэтому в ходе восстановления экономики после пандемии многие из ликвидированных рабочих мест не появятся вновь.

На основе опроса экспертов авторы отчёта Всемирного экономического форума составили перечень 20 профессий, в которых спрос на рабочую силу в ближайшие годы будет расти, а также 20 профессий, в которых он будет снижаться.



Внимательный читатель заметит, что некоторые профессии попали в обе части списка (например, «механики и наладчики машин»). Это значит, что в одних компаниях количество рабочих мест в этих профессиях сокращается, а в других — растёт, что связано, по всей видимости, с перестройкой существующих бизнес-процессов. При этом важно понимать, что, хотя формально созданные рабочие места могут относиться к той же профессии, что и ликвидированные, на деле они могут предполагать существенно отличающийся набор требований к сотрудникам.

Если внимательно посмотреть на происходящую в наши дни революцию генеративных моделей, проявляющуюся во всё более широком применении моделей, подобных ChatGPT, Midjourney и другим, то нельзя не усмотреть аналогии с заменой кустарного производства промышленным, произошедшей в ходе индустриальной революции. В прошлом сходное влияние на креативные индустрии оказывали распространение книгопечатания, фотографии, кино, телевидения и интернета. Кустарное производство обычно обладает следующими особенностями (для простоты я буду здесь в качестве примера использовать производство шкафов):


• низкой производительностью труда (шкаф производится долго и требует больших трудозатрат);


• как следствие — дороговизной отдельных изделий и недоступностью их для обычных людей (во времена Возрождения шкаф-дрессуар или шкаф-кабинет — весьма дорогие предметы мебели, имевшиеся лишь в домах зажиточных людей);


• сравнительно скромными объёмами производства (шкафов производится мало);


• концентрацией всех производственных функций в руках кустарей-универсалов (весь шкаф целиком делает один мастер, некоторые работы могут доверяться подмастерьям, но полноценного разделения труда ещё не существует);


• достижением высоких уровней индивидуального мастерства (лучшие кустари делают шкафы, являющиеся произведениями искусства);


• более массовая продукция заметно уступает в качестве лучшим образцам (шкафы, которые делают подмастерья или простые плотники, — кособокие и грубые).


По мере появления массового производства и развития средств автоматизации происходят следующие типичные изменения:

• растёт производительность труда (среднестатистический шкаф теперь изготавливается гораздо быстрее);


• как следствие — удешевление и расширение объёмов производства и доступности продукции (шкафы теперь есть почти в каждой семье);


• развивается разделение труда — теперь каждую отдельную деталь или даже технологическую операцию делает отдельный специалист (один нарезает доски, другой выполняет резьбу, третий производит покраску, четвёртый приделывает фурнитуру и т. д.);


• при массовом производстве снижаются трудозатраты на выполнение отдельных операций — как за счёт оптимизации производственного процесса, так и за счёт совершенствования мастерства узкоспециализированных специалистов и, наконец, за счёт автоматизации (например, доски заданного размера или стандартные элементы фурнитуры вполне может производить соответствующий станок);


• растёт качество массовой продукции (шкафы, сходящие с конвейера, относительно однообразны, но они более-менее прямые, без заусенцев и т. д.);


• в элитарном сегменте появляются технологические шедевры, которые просто нельзя было создать без продвинутых технологий (различные «умные» шкафы или сверхзащищённые шкафы-сейфы);


• если в кустарном производстве от мастера нужны и физическая сила, и разносторонние таланты, то промышленность снижает порог входа — рабочим может стать почти каждый, для этого не нужны долгие периоды цехового ученичества и особые задатки.


Все эти изменения неизбежно несут определённые социальные последствия, как позитивные, так и негативные. Среди них: увеличение благосостояния общества, разорение мастеров-кустарей, вложивших жизнь в совершенствование обесценившихся теперь навыков, временная технологическая безработица. В прошлом подобные явления привели к становлению промышленного, а затем финансового капитала, империализму, революциям и войнам.

Отталкиваясь от имеющейся у нас исторической аналогии, можно ожидать примерно следующие последствия от прогресса в области создания генеративных моделей и основанных на них инструментов:

• снижение трудозатрат на создание самого разного творческого контента;


• увеличение количества и разнообразия создаваемых произведений; здесь, скорее всего, будет наблюдаться несколько тенденций: 1) будут охвачены более узкие, «нишевые» темы и области, создание контента для которых в «догенеративную эпоху» просто не окупалось; 2) появится больше индивидуализированных текстов или изображений, ориентированных на запросы маленьких групп людей или даже под отдельных людей; 3) распространение полностью автоматической генерации контента (нейроквесты, динамические сценарии в играх, нейроанекдоты, нейрогороскопы, одноразовые картинки по запросу пользователя, создаваемые в развлекательных целях, и т. д.); 4) появление инструментов для потребителей контента (суммаризаторы и перефразировщики текстов, «объясняторы» картинок и т. п.);


• увеличение качества лучших произведений — при наличии помощника в виде мощной генеративной модели можно будет при желании создавать шедевры нового уровня; авторы смогут опробовать огромное количество вариантов различных элементов своих произведений, отбирая самые удачные, «шлифуя» свои произведения куда более тщательно в рамках того же количества времени — в итоге будут достигнуты новые вершины искусства;


• увеличение количества «мусорного» контента — бесполезных рекламных и SEO-текстов, графоманских произведений и тому подобное;


• по всей видимости, усиление разделения труда при создании контента; хотя оно уже есть и сейчас (например, над созданием текстов нередко работают писатель, редактор, корректор и т. д.), но, скорее всего, при создании многих творческих продуктов произойдёт передел ролей — как отдельные профессии будут развиваться промпт-инженерия, создание обучающего контента для генеративных моделей, оценка сгенерированных фрагментов, управление генерацией и компоновка результатов и так далее;


• снижение порога входа в профессию — модели для оценки и улучшения стиля помогут улучшать стилистику произведений, поисковые модели — подбирать аллюзии и метафоры, электронные редакторы позаботятся о стиле, грамотности, специфических для конкретной области качествах создаваемого текста и так далее.


Эти изменения, скорее всего, затронут множество областей творчества. Такие же процессы будут происходить в генерации текстов, изображений, музыки и даже программного кода. В программировании уже сегодня происходит очередной сдвиг парадигмы, подобный тому, что произошёл с появлением языков высокого уровня или интернет-площадок для массового взаимодействия разработчиков.

Всё это, разумеется, будет иметь свои социальные последствия: изменение социокультурных практик в различных творческих отраслях, усиление власти технологических корпораций, технологическая безработица и ажиотажный спрос на рабочую силу в отдельных областях, изменение практик потребления информации, массовые протесты и судебные разбирательства, появление новых шедевров и направлений в искусстве и так далее. Все эти последствия предсказать сегодня сложно, но, безусловно, следует задумываться о них, если мы хотим минимизировать негативные последствия происходящих или грядущих изменений и извлечь для человечества максимальную пользу из возникающих технологических возможностей.

Ключевым умением в эпоху перемен является, что весьма ожидаемо, умение меняться. В настоящее время на рынке труда сформировался целый ряд своего рода метапрофессий, предполагающих умение их представителей трансформироваться вместе с индустрией. Люди, занятые в области информационных технологий, давно привыкли к тому, что измениться может всё: уходят в небытие одни языки программирования и появляются другие, меняются библиотеки, фреймворки, парадигмы разработки, оборудование, смещаются акценты, меняются задачи… — и опытный специалист принимает эти изменения, следует им и поэтому остаётся востребованным. Подобные явления наблюдаются и во многих других сферах — в педагогике, медицине, электронике, банковской сфере.

7.3.8 Грозит ли человечеству безделье: насколько реальна проблема избытка рабочей силы?

Если задуматься о развитии человечества в целом, то очевидно, что проблемы нашего общества не могут решиться сами собой (точнее, решиться они могут, но не факт, что результат всем понравится). Для их решения нужно предпринимать действия стратегического характера, организовывать глобальные проекты. Но выясняется, что частный сектор неутомимо стремится к прибыли и имеет относительно краткосрочный горизонт планирования, а государства связаны с бизнесом сложной системой сдержек, противовесов и групп влияния, а также страдают от нехватки качественной экспертизы. В итоге принимаются тактические, а не стратегические решения.

Это опасно для человечества в целом — ведь может оказаться, что за пределами горизонта планирования нас ждёт катастрофа, подобно тому как в шахматной партии ход, который на первый взгляд ведёт к выигрышу фигуры, может привести к получению мата. То есть выигрыш в краткосрочной перспективе оборачивается в конечном счёте поражением. Например, массовое применение антибиотиков по поводу и без повода угрожает проблемой возникновения резистентных бактерий, а экологически вредные производства грозят нанести непоправимый ущерб биосфере и привести к несопоставимо большим затратам на ликвидацию своих последствий.

Мне кажется, что это должно стать причиной как минимум для серьёзной общественной дискуссии.

Один из парадоксов современной экономической системы заключается в том, что наряду с проблемой безработицы во многих направлениях хозяйства наблюдается острая нехватка человеческих рук, причём нельзя сказать, что это исключительно новые направления, в которых подготовка специалистов началась сравнительно недавно. Вот лишь короткий список направлений полезного (по моему мнению) применения человеческого труда, в которых явно не помешали бы дополнительные работники:

• Социальная сфера:


• • Усиление заботы о детях и пожилых.


• • Повышение доступности детских садов и социальная поддержка молодых семей.


• Образование:


Увеличение числа педагогов с целью индивидуализации образования и повышения его качества.

Образование для взрослых и пожилых (в том числе переподготовка и повышение квалификации).

• • Бесплатное и льготное образование для широких слоёв населения.


• Наука:


• • Биомедицинские исследования.


• • Социальные исследования.


• Экология:


• • Переработка отходов.


• • Очистные мероприятия.


• • Создание и поддержка заповедников.


• Инфраструктура:


Мегапроекты: колонизация моря, освоение новых территорий, космические и энергетические проекты и так далее.

• • Энергетика.


• • Транспортная инфраструктура.


• Здравоохранение:


• • Увеличение числа медучреждений, докторов, младшего медперсонала.


• • Продвинутая профилактика.


• R&D:


• • Сервисы и продукты на базе ИИ.


• • Биотехнологии.


• • Чистые технологии и переработка.


• Искусство:


• • Цифровое искусство.


• • Искусство, создаваемое при помощи ИИ.


Конечно, найдутся люди, которые скажут, что не всякий человек способен стать программистом, медиком или учёным, однако не стоит переоценивать влияние «природной предрасположенности». Предки многих современных специалистов, работающих в высокотехнологических отраслях, ещё несколько поколений назад не умели читать и писать. Любознательность и желание учиться формируются у детей в раннем возрасте, и это может создать впечатление, что они являются врождёнными. Однако в большинстве случаев врождённые факторы могут быть с лихвой перекрыты как положительным, так и негативным влиянием среды. В пользу этого свидетельствует вся история развития человеческого общества. Несмотря на это, мы до сих пор выделяем ничтожные ресурсы на воспитание и образование подрастающего поколения. Как изменился бы мир, если бы на воспитание и образование детей в странах третьего мира выделялись средства, сопоставимые с военными бюджетами развитых стран? Педагог, работающий с детьми в детском саду или начальной школе, чаще всего куда более низкооплачиваемый специалист, чем преподаватель старших классов или высшей школы. Однако цена педагогических ошибок, допущенных в раннем возрасте ребёнка, чрезвычайно высока. Нелюбознательный ребёнок, которому взрослые отбили всякое желание познавать окружающий мир и заниматься творческим трудом, во взрослом возрасте становится обузой общества. И несмотря на этот очевидный факт, правительства во всём мире принимают абсолютно недостаточные усилия для того, чтобы сделать воспитание и образование детей качественным и доступным для всех слоёв населения. Как следствие, после взросления плохо обученных детей правительства тратят значительно большие деньги на их встраивание в общество, то есть борются с последствиями своей недальновидной политики.

А если бы развитые страны помогли странам третьего мира улучшить образование и воспитание детей, то это помогло бы решить проблемы терроризма и религиозного фундаментализма в мировом масштабе, что в конечном счёте обошлось бы человечеству дешевле, чем нынешняя борьба с терроризмом.

Как выясняется при детальном рассмотрении, технологическая безработица парадоксальным образом носит вовсе не технологический характер. Дело не в том, что в мировой экономике недостаточно сфер, в которых человеческий труд был бы востребован. Проблема заключается не в «бесчеловечных технологиях», отнимающих у людей их рабочие места, а в том, как сами люди распределяют общественные ресурсы. Как мне кажется, общество, создающее «бессмысленную занятость» на фоне дефицита специалистов во множестве сфер, требует серьёзных изменений.

7.4 Цифровой тайный суд и другие проблемы алгоритмического общества

Система из трёх провидцев своими корнями уходит в компьютерную практику середины нашего века. Как в то время проверяли результаты компьютерных расчётов? С помощью второго, совершенно идентичного компьютера, в который вводились те же исходные данные. Но двух компьютеров не всегда достаточно. Если полученные от них результаты не сходятся, невозможно определить априори, какой из двух ответов верный. Решение этой проблемы базируется на статистическом методе и состоит в том, что для проверки результатов первых двух компьютеров используется третий. Таким способом получают так называемый рапорт большинства, или РБ. Если результаты двух из этой тройки компьютеров совпадают, именно этот ответ и считается верным, а второй — неверным. Согласно статистическим данным, крайне маловероятно, что два компьютера выдадут один и тот же неверный результат…

Филип Дик. Особое мнение[3172]

Пока философы ведут споры о проблеме сверхразума, наш мир незаметно вступил в эру прикладного ИИ — всё больше и больше решений в обществе принимается при помощи различных математических моделей, созданных обычно при помощи методов машинного обучения. Какие специфические проблемы присущи этому алгоритмическому миру, если, конечно, они вообще есть? Этой проблемой в последние годы занимается ряд исследователей, имена которых, к сожалению, не столь широко известны, как имена Илона Маска или Ника Бострома. Фундаментальная работа по систематизации подводных камней алгоритмического общества была осуществлена американской исследовательницей Кэти О’Нил в книге, которая в русском переводе получила название «Убийственные большие данные. Как математика превратилась в оружие массового поражения» (Weapons of Math Destruction: How big data increases inequality and threatens democracy[3173], дословный перевод: «Средства математического поражения: как большие данные увеличивают неравенство и угрожают демократии»[3174]).

Пройдёмся по проблемам, на которые обращает внимание О’Нил.

1. Проблема закрытости. Положим, что вы представитель какой-либо массовой профессии. В момент, когда вы устраиваетесь на работу, ваша анкета, скорее всего, будет оцениваться при помощи математической модели, призванной отсеять заведомо неподходящих кандидатов. С тем же самым вы столкнётесь, подавая заявку на кредит и во многих других ситуациях. Однако такая система может содержать в себе определённые дефекты. Кроме того, дефекты могут содержать данные, введённые в систему, а также данные о вас, полученные из других информационных систем (например, клиенты российских банков нередко сталкиваются с ошибочными блокировками своих счетов из-за некорректного сопоставления их с лицами, в отношении которых суд принял решение о блокировке). Ввиду вышеизложенного принятое моделью решение вполне может оказаться ошибочным.

Поскольку подобные модели широко используются в весьма важных областях, то по силе влияния на жизнь человека решение такой модели может быть вполне сопоставимо с вердиктом суда. В исследовании профессора Бруклинской школы права (Brooklyn Law School) Фрэнка Паскуале эта проблема названа проблемой «цифрового тайного суда» [Digital star chamber][3175], [3176]. Паскуале детально анализирует её в своей книге «Общество чёрного ящика: секретные алгоритмы, которые контролируют деньги и информацию» (The Black Box Society: The Secret Algorithms That Control Money and Information»)[3177], приводя показательные примеры.

Например, бывший водитель Uber по имени Мансур дал весьма пугающее описание своих взаимоотношений с работодателем. Вначале компания пыталась убедить его взять кредит на покупку нового автомобиля под очень высокий процент, а затем она неожиданно стала снимать в свою пользу всё большую часть дохода водителя. Но самым возмутительным Мансуру показалось то, что Uber может прекратить работу с ним, если его рейтинг окажется ниже отметки 4,7 (что может случиться, если несколько пассажиров поставят ему минимальную оценку). При этом подобное решение никак нельзя будет оспорить, и даже личное общение с сотрудниками Uber осуществить невозможно: все коммуникации производятся при помощи автоматических текстовых сообщений и электронных писем.

История Мансура по сути лишь иллюстрирует давние тенденции в области кредита и занятости, и она ни в коем случае не уникальна. Интернет-магазины живут в постоянном ужасе перед «смертной казнью Google» — внезапным, загадочным падением в рейтинге поисковых систем, в случае если они сделали нечто, что алгоритмы Google расценили как мошенничество. В США соискатели работы в Walmart’е и других крупных компаниях проходят некие «личностные тесты», которые затем обрабатываются неизвестными им алгоритмами с неведомым результатом. «Белые воротнички» также сталкиваются с программами для сортировки резюме, способными занизить или полностью проигнорировать квалификацию кандидата. Например, один алгоритмический анализатор резюме решил, что все 29 000 людей, претендовавших на «более-менее стандартную инженерную должность», недостаточно квалифицированны.

Практика показала, что «цифровой тайный суд» вполне может привести к реальным судебным приговорам и даже смертям людей. Например, на протяжении почти двух десятилетий сотрудники британской почтовой компании Post Office использовали для учёта продаж систему под названием Horizon. Из-за допущенных при её разработке ошибок некоторые расчёты осуществлялись неправильно, вследствие чего возникали мнимые недостачи на десятки тысяч фунтов. В итоге за несуществующие растраты были осуждены десятки сотрудников компании! Когда истинное положение вещей всё же выплыло на поверхность, было отменено 39 судебных приговоров, а компания Post Office выплатила компенсации 555 заявителям. Случай Horizon стал самой большой судебной ошибкой в истории Великобритании. Невинно осуждённым сотрудникам был нанесён огромный ущерб. Многие из них утратили сбережения, лишились возможности трудоустройства на престижную работу, оказались за решёткой, пережили распад семьи, а один из сотрудников, узнав, что за ним числится недостача в 100 000 фунтов, покончил с собой[3178], [3179], [3180].

Как видно, проблема «цифрового тайного суда» весьма актуальна, и никто не защищён от того, что в отношении него цифровой моделью будет принято какое-либо серьёзное решение. Однако если в случае обычного суда у человека есть право на состязательный процесс, на получение квалифицированной юридической помощи, на доступ к доказательствам, то в описанных выше случаях ничего подобного невозможно. Модель является собственностью компании, и человек не имеет права ни узнать причину отказа, ни проверить принятое решение на наличие ошибок, ни даже выяснить, какие именно данные о нём были приняты в расчёт. Всё, что связано с работой алгоритма, полностью закрыто от того, в отношении кого этот алгоритм принимает решение. Нередко параметры таких алгоритмов относятся к числу самых охраняемых тайн коммерческих организаций.

2. С проблемой закрытости связана вторая важная проблема — отсутствие обратной связи. Получив отказ на свою заявку, вы не знаете, что именно необходимо сделать, чтобы избежать повторного отказа. Одну женщину частный брокер данных ложно обвинил в том, что она продаёт метамфетамин, и той потребовались годы, чтобы исправить запись, — годы, в течение которых домовладельцы и банки отказывали ей в жилье и кредитах. Ситуация с государственными базами данных может быть ещё хуже: в США, например, репутация невинных людей может пострадать из-за попадания в отчёты о подозрительной деятельности или неточных записей об арестах. Этой проблеме много лет, и она пока так и не решена. Аппетит к данным как государственных, так и рыночных структур означает, что недостоверные записи могут распространяться довольно быстро. Из-за того что причины отказов не анализируются, разработчики моделей также лишены обратной связи. В результате ошибки в моделях и данных могут существовать годами, нанося ущерб как людям, так и самим владельцам моделей. Разумеется, проблема отсутствия обратной связи существовала в бюрократических системах задолго до появления вычислительной техники и основанного на ней «алгоритмического общества», но увеличение объёмов собираемых и обрабатываемых государством и корпорациями данных о людях приводит к потенциальному росту проблем, падающих на каждого отдельно взятого индивида. Системы, ориентированные в первую очередь на обработку типовых случаев, нередко дают сбои, сталкиваясь с более редкими ситуациями. При этом значения метрик, используемых для управления развитием этих систем, часто весьма обманчивы. Система, которая успешно решает мелкие проблемы 99% людей, выглядит на первый взгляд довольно привлекательно, в то время как за скобками могут оставаться гигантские проблемы, которые она создаёт оставшемуся 1%.

3. Модели способны вбирать в себя предрассудки. В то время как большинство сторонников конфиденциальности сосредоточились на вопросе сбора данных, угроза, исходящая от бездумного, плохого или дискриминационного анализа вполне может быть сильнее. Представьте себе готовящий проекты судебных решений искусственный интеллект, обученный на решениях судьи-расиста. Или модель, предназначенную для сортировки анкет кандидатов, натренированную на их оценке кадровиком, считающим женщин существами второго сорта. Опасность таких моделей не только в том, что они, подобно людям, будут обладать предрассудками, но ещё и в том, что при отсутствии должного контроля они способны тиражировать эти предрассудки в огромных масштабах.

Причины, по которым модели могут приобретать те или иные предрассудки, могут быть и не столь очевидными, как в случае приведённых выше примеров. В 2017 г. внимание общественности привлекла диссертация Джой Буоламвини, аспирантки из MIT Media Lab, под названием «Оттенки гендера: интерсекциональная фенотипическая и демографическая оценка датасетов лиц и гендерных классификаторов» (Gender Shades: Intersectional Phenotypic and Demographic Evaluation of Face Datasets and Gender Classifiers)[3181]. В своём исследовании Буоламвини использовала внушительный набор фотографий для анализа способности коммерческих библиотек (от IBM, Microsoft и Face++) распознавать лица людей в зависимости от их пола и цвета кожи. Выяснилось, что точность распознавания для женских лиц ниже, чем для мужских, а для лиц людей с более тёмными оттенками кожи ниже, чем для лиц людей с более светлой кожей. Причём проблема наблюдалась со всеми тремя библиотеками, а разрыв в точности распознавания между когортами «светлокожие мужчины» и «темнокожие женщины» составлял от 20,8 до 34,4 процентного пункта. Написанная годом позже статья Буоламвини и её коллеги Тимнит Гебру под названием «Оттенки гендера: различия в точности коммерческой гендерной классификации» (Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification)[3182] вызвала отклик у IBM и Microsoft, которые произвели доработки своего программного обеспечения.

Дефекты, подобные выявленным в исследовании Буоламвини, могут легко возникать в результате несбалансированности обучающих датасетов. Если в датасете лиц содержится недостаточное количество фотографий людей с некоторым оттенком кожи, то свёрточная нейронная сеть, обученная на этих данных, будет чаще ошибаться, встречаясь с такими же типами лиц в процессе использования. Поскольку в настоящее время активно внедряются различные сервисы на основе систем распознавания лиц (например, системы биометрической аутентификации на пользовательских устройствах, кредитоматы или системы автоматической регистрации в аэропортах), такие перекосы в работе моделей могут приводить к негативным последствиям. Более поздние исследования Буоламвини выявили наличие сходных проблем и в системах распознавания речи.

Буоламвини основала программу «Лига алгоритмической справедливости» (Algorithmic Justice League), направленную ​​на выявление предвзятости в коде, которая может привести к дискриминации в отношении недопредставленных групп.

4. Проблема чрезмерного доверия моделям. На заре компьютерной эры люди часто не доверяли прогнозам, построенным машинами на основе применения статистических моделей. Это нередко приводило к курьёзным последствиям. Наверное, самый известный случай — это события, произошедшие в ночь с 3 на 4 ноября 1952 г., когда компьютер UNIVAC был запрограммирован для предсказания результатов выборов президента США, на которых в борьбе сошлись Эдлай Стивенсон и Дуайт Эйзенхауэр. Телекомпания CBS должна была транслировать этот эксперимент, и её тележурналист Уолтер Кронкайт так описал подготовку к нему: «Машина должна предсказывать результаты выборов каждый час, базируясь на результатах за те же периоды времени в ночь выборов 1944 и 1948 годов. Учёные, которых мы привыкли называть длинноволосыми [long hairs], работали над сопоставлением фактов [с этими предсказаниями] последние два или три месяца». Но в конце речи он сделал оговорку: «На самом деле, мы не слишком зависим от этой машины. Это может оказаться и второстепенным шоу, мы не знаем, а потом опять же… для некоторых людей оно может оказаться очень уникальным и значимым»[3183], [3184].

По всей видимости, для того, чтобы ещё больше не зависеть от машины, находящейся в телестудии, сама машина была заменена макетом. Сделка, в соответствии с которой телекомпания CBS получила для демонстрации поддельный UNIVAC (настоящая машина находилась на другом конце линии связи — в Филадельфии), появилась из просьбы телевизионной сети к компании Remington Rand о бесплатном предоставлении во временное пользование сотни электрических пишущих машинок и счётных машин. Взамен это оборудование должно было появиться на экранах во время освещения ночи выборов, то есть по сути предполагалась бесплатная реклама бесплатно предоставленных машин. Но более привлекательной идеей оказалось бесплатное предоставление компьютера взамен на его бесплатную рекламу.

По результатам подсчёта всего 3 млн голосов (7%) UNIVAC предсказывал триумф Эйзенхауэра: 438 голосов коллегии выборщиков против 93 за Стивенсона. Большинство прогнозов предсказывало близкие друг к другу результаты кандидатов, поэтому такому прогнозу в Филадельфии просто не поверили. Ввиду этого программисты быстро внесли исправления в программу, чтобы получить более «правдоподобный» результат, который и был продемонстрирован. Однако в итоге оказалось, что Эйзенхауэр получил 442 голоса против 89 — то есть очень близко именно к первоначальному прогнозу! Когда ночная история выплыла наружу, известный американский тележурналист Эд Мерроу сказал: «Главная проблема с машинами — это люди»[3185], [3186].

В наши дни люди часто, напротив, склонны переоценивать качество решений, предлагаемых моделями, предполагая, что модель обладает сверхчеловеческими способностями. На самом деле поведение модели может быть связано с дефектами, допущенными на стадии разработки. Недоверие к системам ИИ легко переходит в безоговорочное принятие. Люди не всегда отдают себе отчёт в том, что тот факт, что некоторая система ИИ выиграла в го или шахматы у чемпиона мира, вовсе не значит, что система кредитного скоринга не ошибётся, присваивая клиенту кредитный рейтинг. ИИ очень часто воспринимается людьми как некая универсальная сверхчеловеческая сущность — такое представление активно формируется под влиянием плохого кино и бульварного чтива. В действительности мы имеем дело с разными системами, создававшимися разными командами, обладающими разными свойствами и предназначенными для решения совершенно разных задач, — такое положение дел характерно для эпохи прикладного ИИ.

В своей весьма пессимистичной по духу книге «Искусственная неразумность: как компьютеры неверно понимают мир» (Artificial Unintelligence: How Computers Misunderstand the World)[3187] (в русском переводе заголовок книги звучит как «Искусственный интеллект: пределы возможного»[3188]) профессор Нью-Йоркского университета Мередит Бруссард обращает внимание на опасность техношовинизма — наивной веры в то, что технологии сами по себе могут решить все существующие в обществе проблемы. Такой подход может приводить к формированию специфического «слепого пятна». Качество решений, предлагаемых системами, основанными на машинном обучении, сильно зависит от особенностей данных, на которых эти системы были обучены. При этом сами данные являются продуктом определённых процедур, несущих на себе отпечаток существующих социальных практик. Простой пример — библиотеки научных публикаций. Исследователи, которым не удалось подтвердить свои изначальные гипотезы, часто отказываются от публикации результатов. В итоге в подавляющем большинстве опубликованных работ эксперименты подтверждают гипотезы, хотя в реальных исследованиях это совсем не так. Данные могут содержать намеренные и ненамеренные искажения, распределение данных в базе может отличаться от распределения соответствующих им объектов или явлений реального мира (по самым разным причинам), наконец, данные могут быть просто неполны. Существующие в данных корреляции могут ошибочно интерпретироваться создателями систем ИИ как причинно-следственные связи. Но даже если в процессе создания подобных систем и удастся обойти существующие подводные камни, то неразумное применение плодов «искусственного разума» может привести к нежелательным последствиям.

Бруссард показывает, какие ошибки можно сделать, пытаясь создать систему, предсказывающую вероятность выживания в кораблекрушении на основе сведений о судьбе пассажиров «Титаника», особенно если не вдаваться в содержательный анализ событий, стоящих за этим небольшим массивом данных.

Например, шлюпки с нечётными номерами спасли больше людей, чем шлюпки с чётными номерами. Значит ли это, что для повышения безопасности следует всем спасательным шлюпкам давать нечётные номера? В действительности за этой сухой статистикой скрывается драматическая история. Капитан корабля при организации эвакуации отдал приказ сажать в шлюпки женщин и детей, а затем спускать шлюпки на воду. Офицеры, отвечавшие за эвакуацию, поняли этот приказ по-разному. Первый офицер, который отвечал за спасательные шлюпки на правом борту (с нечётными номерами), подумал, что капитан велел сажать в шлюпки женщин и детей в первую очередь (т. е. мужчин сажали в шлюпки, если поблизости не было женщин и детей). Второй офицер, отвечавший за шлюпки левого борта (с чётными номерами), посчитал, что сажать в шлюпку нужно только женщин и детей. В итоге большинство спасшихся пассажиров «Титаника» покинули корабль на шлюпках правого борта (разумеется, были и иные факторы, повлиявшие на это соотношение)[3189].

Доля выживших пассажиров «Титаника» была существенно выше среди тех, кто путешествовал по более дорогим билетам. Значит ли это, что страховая компания может снизить стоимость страховки для пассажиров, отправляющихся в круиз в каютах первого класса? Ведь данные говорят нам о том, что их шансы погибнуть при кораблекрушении будут ниже.

В общем, не стоит думать, что «умные машины» решат все проблемы человечества самостоятельно — использование продвинутых вычислительных моделей вовсе не является гарантией отсутствия ошибок в результатах, полученных с их помощью. И даже в случае отсутствия ошибок полученные результаты ещё нужно понять и правильно ими распорядиться. В общем-то на эту тему в своё время высказался ещё Чарльз Бэббидж: «Однажды меня спросили [члены парламента]: „Если ввести в машину неправильные числа, она даст верный ответ?“ <…> Я не могу взять в толк, какая мешанина идей должна быть в голове, чтобы спросить такое»[3190].

5. Формирование «токсического цикла». Представим себе систему социального рейтинга, использующую модель машинного обучения для присвоения гражданам определённого балла на основании их поступков. От социального рейтинга может зависеть доступ граждан к государственным сервисам и благам. Проблема заключается в том, что человек, по юности оступившись и получив в некоторый момент плохое значение социального рейтинга, утрачивает доступ к качественному образованию, тем самым уменьшая свои шансы на дальнейшую реабилитацию. Цель системы — корректировать поведение людей в положительную сторону, но вместо этого она может на деле способствовать дальнейшему погружению людей на социальное дно. Хотя такого рода явления существовали и ранее (например, работодатели избегают брать на работу людей с судимостью, тем самым уменьшая их шансы на возвращение к нормальной жизни), использование ИИ может приводить к тиражированию подобных практик. Потенциально это очень опасное свойство такого рода моделей. Хорошей иллюстрацией этого «токсического цикла» является первый эпизод третьего сезона телесериала «Чёрное зеркало», в котором мир будущего основан на системе оценок, которые люди могут ставить друг другу при помощи специального приложения.

7.5 Законодательное регулирование ИИ

Проблемы, описанные О’Нил, периодически привлекают внимание прессы и законодателей. При этом общественную дискуссию и законотворческие инициативы во многом подпитывают те или иные зрелищные демонстрации возможностей современного ИИ. За последние десять лет государственные и международные институты совершили несколько «подходов к снаряду» в области регулирования сферы ИИ, и в некоторых областях им удалось продвинуться от деклараций, напоминающих тосты «за всё хорошее», до конкретных законодательных актов (либо принципиального отказа от регулирования) и зачатков системы международных стандартов. Детальный обзор положения дел в области современной регуляторики в области ИИ потребовал бы увеличения объёма книги ещё на один том, поэтому здесь мы ограничимся упоминанием только некоторых документов и событий в этой области.

Хотя законы, так или иначе затрагивающие сферу ИИ, принимались и раньше[3191], первые попытки систематически подойти к регулированию разработки, внедрения и эксплуатации ИИ-систем относятся к началу 2010-х гг., когда внимание законодателей было привлечено к сфере беспилотного транспорта. Действующее на тот момент законодательство просто не разрешало использовать мобильные автопилоты, что ставило под вопрос дальнейшее развитие этой технологии. В соответствии с Венской конвенцией о дорожном движении 1968 г.[3192], участниками которой, по данным на 2023 г., являются 88 стран мира, одним из основополагающих принципов дорожного движения являлась концепция, согласно которой водитель всегда полностью контролирует и несёт ответственность за поведение транспортного средства. В 2016 г. реформа конвенции позволила использовать автоматизированные функции в транспортных средствах[3193], однако изменения, разрешающие использование беспилотного транспорта, вступили в силу лишь в июле 2022 г.[3194]

Крупнейшей западной страной, не являющейся участником Венской конвенции, являются США. И хотя на федеральном уровне в этой стране пока не существует закона о беспилотном транспорте, на уровне отдельных штатов такие законы действуют уже достаточно давно. Пионером в этой области стала Невада, которая ещё в 2011 г. приняла закон, разрешающий использование беспилотных автомобилей, а точнее — «автоматизированных транспортных средств» [automated vehicle]. Таким образом, Невада оказалась первой юрисдикцией в мире, где на дорогах общего пользования стало возможным на законных основаниях эксплуатировать такие авто (в определённых зонах, которые устанавливает Департамент транспортных средств Невады). Принятие нормативного акта было поддержано компанией Google, которая была заинтересована в том, чтобы легально тестировать свои беспилотники[3195]. Закон штата Невада определяет автоматизированное транспортное средство как «автомобиль, который использует искусственный интеллект, датчики и координаты глобальной системы позиционирования для управления собой без активного вмешательства человека-оператора», и признаёт, что оператору не нужно сохранять постоянное внимание во время работы автопилота. Однако Google не смогла добиться исключения из запрета на отвлечённое вождение (то есть такое вождение, при котором водитель может заниматься посторонними делами, которые отвлекают его от вождения, например отправлять текстовые сообщения). Кроме того, закон Невады требует, чтобы во время использования беспилотного транспорта в машине находился водитель, сидящий за рулём, и не более одного пассажира. Таким образом, закон, по сути, открыл дорогу лишь испытаниям, но не полноценной эксплуатации беспилотного транспорта[3196], [3197].

В последующие годы испытания беспилотного транспорта на своих дорогах разрешили и некоторые другие штаты — Флорида (2012)[3198], Калифорния (2012)[3199], Мичиган (2013)[3200] и так далее. В 2013 г. разрешение на тестирование беспилотного транспорта на своих общественных трассах выдало правительство Великобритании[3201] (на тот момент страна ещё не являлась участником Венской конвенции). В 2015 г. в рамках Всемирного конгресса по интеллектуальным транспортным системам прошла первая демонстрация беспилотников на общественных дорогах Франции[3202].

Пионером в области национального законодательства в отношении беспилотников стала Германия, в которой в 2017 г. был принят закон, призванный открыть дорогу автономному транспорту. Законодатели выделили категорию автомобилей «со значительно или полностью автоматизированными функциями вождения» и разрешили водителям отвлекаться от ситуации на дороге. Одновременно был удвоен лимит ответственности за причинённый вред и введено правило обязательной установки бортовых самописцев. В июле 2021 г. в действие вступил «Закон об автономном движении», который существенно расширил и конкретизировал предыдущие положения, разрешив эксплуатацию автономных транспортных средств без физического присутствия водителя (но только в пределах специально отведённых зон и под «техническим надзором», то есть при наличии удалённого наблюдения со стороны человека, способного вмешаться в критической ситуации). Наряду с этими изменениями был введён новый централизованный процесс сертификации автономных транспортных средств[3203].

В наши дни различные меры в области регулирования автономного транспорта предприняты также в других странах Евросоюза, Китае, Японии, Австралии, Израиле и иных странах. Не является исключением и Россия. Осенью 2018 г. правительство РФ своим постановлением разрешило тестировать беспилотные транспортные средства на автомобильных дорогах в Москве и Татарстане. В 2020 г. список регионов расширили до 13, распространив эксперимент на Санкт-Петербург, Московскую, Ленинградскую, Владимирскую, Самарскую, Нижегородскую и Новгородскую области, Краснодарский край, Чувашию, а также Ханты-Мансийский и Ямало-Ненецкий автономные округа. Постановление российского правительства, подобно большинству аналогичных зарубежных документов, требовало, чтобы при испытании беспилотного автомобиля за его рулём находился инженер-тестировщик. При этом российские разработчики беспилотников, недовольные темпами внесения изменений в Венскую конвенцию, в 2020 г. просили Министерство иностранных дел, Министерство транспорта и Министерство юстиции частично приостановить участие России в этом международном соглашении, чтобы устранить административные барьеры и обеспечить возможность тестирования и эксплуатации беспилотных автомобилей без инженеров-тестировщиков на дорогах общего пользования[3204]. Впрочем, до практических мер в этом направлении дело всё-таки не дошло, и проблема как будто решилась сама собой со вступлением в силу поправок к Венской конвенции.

Попытки законодателей более широко взглянуть на вопросы, связанные с развитием технологий ИИ, относятся главным образом к периоду расцвета технологий глубокого обучения. Например, в июне 2017 г. в Великобритании Палата лордов сформировала «Специальный комитет по искусственному интеллекту» [Select Committee on Artificial Intelligence], который, среди прочих документов, подготовил доклад под названием «ИИ в Соединённом Королевстве: готовы, хотим, можем?» [AI in the UK: ready, willing and able?][3205], в тексте которого сформулированы пять этических принципов, которые, по мнению авторов, должны использоваться как на национальном, так и на международном уровне:


ИИ следует развивать ради общего блага и для пользы всего человечества;


ИИ должен функционировать, основываясь на принципах справедливости и прозрачности принятия решений;


ИИ не должен использоваться с целью ущемления прав в области обработки данных и неприкосновенности частной жизни в отношении отдельных лиц, семей или социальных групп;


все категории граждан должны иметь право на образование, позволяющее им интеллектуально, эмоционально и экономически развиваться наряду с ИИ;


системам ИИ никогда не должна предоставляться автономная власть причинять вред, уничтожать или обманывать людей.


Члены комитета считают, что область искусственного интеллекта нуждается во всестороннем регулировании и Великобритания должна стать в этом лидером.

Тем не менее спустя шесть лет в Великобритании так и не появилось целостного свода законов, регулирующих разработку, развёртывание или использование технологий ИИ. Вместо этого разработчики ИИ-систем имеют дело с отраслевым регулированием (например, в области медицины) и множеством правил, установленных правительством, регулирующими органами, корпорациями, профсоюзами и другими организациями гражданского общества. Стремясь уменьшить возникший хаос, правительство заявило о своём намерении начать разработку более комплексной нормативно-правовой базы для ИИ[3206]. В 2022 и 2023 гг. оно опубликовало программный и консультационный документы, посвящённые стратегии регулирования, под названиями, соответственно, «Создание проинновационного подхода к регулированию ИИ» [Establishing a pro-innovation approach to regulating AI][3207] и «Проинновационный подход к регулированию ИИ» [A pro-innovation approach to AI regulation][3208]. Также правительство занялось формированием рабочей группы по фундаментальным моделям [Foundation Model Taskforce] с бюджетом 100 млн фунтов стерлингов и объявило, что Великобритания проведёт глобальный саммит по безопасности ИИ.

Разработанные правительством документы декларируют принципы, положенные в основу подхода к регулированию в сфере ИИ:


безопасность, защищённость и надёжность [Safety, security and robustness];


надлежащая прозрачность и объяснимость [Appropriate transparency and explainability];


справедливость [Fairness];


подотчётность и управление [Accountability and governance];


возможность оспаривания [решений систем ИИ] и получения возмещения [ущерба в случае его наличия] [Contestability and redress].


При этом «проинновационность», вынесенная в заголовок документа, проявляется среди прочего в том, что правительство отказывается от закрепления вышеперечисленных принципов на законодательном уровне, поскольку «новые жёсткие и обременительные законодательные требования к бизнесу могут сдерживать инновации в области ИИ и снижать нашу способность быстро и соразмерно реагировать на будущие технологические вызовы».

Значительно большую активность в области регулирования ИИ проявили власти США.

Хотя единый федеральный закон, направленный на эту область, так и не появился (вместо этого законодатели обозначили курс на точечное регулирование отдельных сервисов), ими был разработан и принят целый ряд других, весьма любопытных документов. Прежде всего следует упомянуть «Закон о национальной инициативе в области ИИ» [The National AI Initiative Act of 2020][3209], вступивший в силу 1 января 2021 г., посвящённый формированию долгосрочной федеральной программы, направленной на ускорение исследований и разработок в области ИИ, в частности, в целях экономической и национальной безопасности Соединённых Штатов.

Также следует отметить два других важных документа, принятых на федеральном уровне. Первый — «Документ по управлению ИИ-рисками» [AI Risk Management Framework][3210], выпущенный в январе 2023 г. Национальным институтом стандартов и технологий США. Разработка этого обширного документа была начата ещё в 2021 г. Он не только содержит в себе определения ИИ, ИИ-рисков и других важных с прикладной точки зрения терминов, но и описывает специфику ИИ-рисков по отношению к традиционным рискам, связанным с программным обеспечением [Traditional Software Risks], а также основные функции и методы риск-менеджмента в области ИИ.

Второй документ — выпущенное в 2022 г. Управлением научной и технологической политики [Office of Science and Technology Policy] правительства США «Руководство по разработке билля о правах, связанных с ИИ» [Blueprint for an AI Bill of Rights][3211]. Оно посвящено главным образом защите прав населения в алгоритмическом обществе (вопросам защиты от алгоритмической дискриминации, обеспечения конфиденциальности данных и т. д.).

Кроме того, законы об ИИ на момент написания книги приняты на уровне отдельных штатов в Алабаме, Колорадо, Иллинойсе, Миссисипи и Вермонте, на стадии рассмотрения находятся аналогичные законодательные акты в Калифорнии, Джорджии, на Гавайях, в Мэриленде, Нью-Джерси, Род-Айленде, Нью-Йорке и Вашингтоне. Также на счету американских законодателей различные местные законы и несколько проваленных актов на уровне штатов. В целом общее число законодательных инициатив в области ИИ здесь давно перевалило за сотню[3212].

В конце октября 2023 г. Белый дом опубликовал[3213], [3214], [3215] президентский «Указ о безопасной, защищённой и надёжной разработке и использовании искусственного интеллекта» [Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence]. Заместитель руководителя аппарата Белого дома Брюс Рид заявил, что содержащиеся в указе директивы представляют собой «набор самых жёстких мер, которые когда-либо предпринимало какое-либо правительство в мире» по защите граждан от влияния ИИ. Давайте рассмотрим важные положения указа:


1. Разработчики продвинутых систем ИИ, представляющих серьёзный риск для национальной безопасности, национальной экономической безопасности или здравоохранения, должны уведомлять правительство об обучении моделей, а также раскрывать федеральному правительству результаты своих тестов безопасности. При этом разработка методики тестирования возложена на NIST. Отдельно предполагается разработка стандартов «проверки биологического синтеза» для защиты от «опасных биологических материалов», синтезируемых с помощью ИИ.


2. Уведомление властей о строительстве вычислительных кластеров, если их вычислительная мощность превышает 1020 флопс.


3. Маркировка контента, генерируемого с помощью ИИ (например, водяными знаками). Разработка правил и методов маркировки возложена на Министерство торговли США.


4. Разработка расширенной программы кибербезопасности для создания инструментов искусственного интеллекта для устранения уязвимостей в критически важном программном обеспечении (на основе существующей программы «Кибервызов ИИ» [AI Cyber Challenge]).


5. Защита конфиденциальных данных и нацеленность на то, чтобы обучение систем ИИ на подобных наборах данных не приводило к нарушениям. При этом для возможности полноценно обеспечить защиту конфиденциальности Белый дом призывает Конгресс принять федеральный закон.


6. Борьба с алгоритмической предвзятостью: будут созданы и распространены инструкции по недопущению дискриминации в результате применения систем ИИ. Также правительство будет внедрять лучшие практики по устранению такой дискриминации, а администрация президента рассмотрит вопрос об использовании ИИ при вынесении приговоров в системе уголовного правосудия.


7. Программа по привлечению лучших мировых талантов, включающая в себя совершенствование визовых критериев для иммигрантов, обладающих опытом в области ИИ.


8. Поддержка работников, уязвимых в связи с развитием технологий ИИ.


Интересно, что указ содержит для первого пункта критерии для моделей, подпадающих под его действие. Информирование государства необходимо лишь в тех случаях, если для обучения модели планируется затратить более 1026 целочисленных операций или операций с плавающей запятой. Если же при обучении модели в качестве обучающих данных планируется использовать биологические последовательности, то порог обязательного информирования снижается до 1023 операций. Много это или мало? Вычислительный бюджет обучения модели LLama 2 с 70 млрд параметров составил порядка 1,1 × 1024 операций с плавающей запятой[3216], то есть примерно в 100 раз меньше установленного порога. Производительность самого быстрого в мире суперкомпьютера Frontier составляет около 1,68 × 1018 флопс. Таким образом, в мире пока что нет вычислительных кластеров, которые подпадали бы под действие вышедшего указа.

США не единственная страна, где регулирование ИИ присутствует даже на региональном уровне. Региональные законы, посвящённые ИИ, есть, например, в Китае, к их числу относятся «Положение о продвижении индустрии ИИ в Шэньчжэне» и «Шанхайские правила содействия развитию индустрии ИИ».

Китайская модель регулирования ИИ в целом похожа на американскую. Согласно «Плану по развитию ИИ нового поколения» «зонтичные» нормы в сфере ИИ должны быть приняты к 2025 г. В 2021 г. Министерство науки и технологий Китая выпустило «Руководящие этические принципы по регулированию ИИ». Под влиянием прогресса в области генеративных моделей появились на свет «Положение об управлении информационными интернет-сервисами, использующими технологии глубокого синтеза[3217]»[3218] и «Временные меры по управлению сервисами генеративного искусственного интеллекта»[3219], разработанные Администрацией киберпространства Китая соответственно в 2022 и 2023 гг.

Последний документ вызвал самое бурное обсуждение, западная пресса взорвалась заголовками: «Китай обязывает ИИ следовать „основным ценностям социализма“» [China mandates that AI must follow “core values of socialism”][3220], «Китай анонсирует правила, в соответствии с которыми ИИ должен быть связан „основными ценностями социализма“» [China announces rules to keep AI bound by ‘core socialist values’][3221], «Китай заявляет, что чат-боты должны придерживаться линии партии» [China Says Chatbots Must Toe the Party Line][3222] и так далее. Действительно, статья 4 говорит буквально следующее:

Предоставление и использование услуг генеративного искусственного интеллекта должно осуществляться в соответствии с законами и административными регламентами, уважением к общественной морали и этике, а также при соблюдении следующих правил:

Соответствовать основным ценностям социализма и не подстрекать к подрыву государственной власти и свержению социалистической системы, не должно ставить под угрозу национальную безопасность и интересы, наносить ущерб национальному имиджу, подстрекать к сепаратизму, подрывать национальное единство и социальную стабильность, не должно способствовать терроризму, экстремизму, продвижению контента, запрещённого законами и административными правилами, в частности разжигающего этническую ненависть и дискриминацию, пропагандирующего насилие, содержащего непристойность, а также вредоносную дезинформацию.

В процессе разработки алгоритмов, отбора обучающих данных, создания и оптимизации моделей, а также предоставления услуг должны быть приняты эффективные меры по предотвращению дискриминации по признаку этнической принадлежности, убеждений, страны, региона, пола, возраста, профессии, здоровья и так далее.

Уважать права интеллектуальной собственности, деловую этику, не нарушать коммерческую тайну и не использовать алгоритмы, данные, платформы и другие преимущества для достижения монополии и осуществления недобросовестной конкуренции.

Уважать законные права и интересы граждан, не подвергать опасности физическое и психическое здоровье людей, а также не посягать на честь и репутацию, не нарушать права на воспроизведение личных изображений, на неприкосновенность частной жизни и личной информации.

Основываясь на особенностях типов услуг, должны предприниматься эффективные меры для повышения прозрачности сервисов генеративного искусственного интеллекта, а также повышения уровня точности и надёжности генерируемой информации.

Однако при всей внушительности списка требований нужно отметить, что меры, предусмотренные этим документом для их обеспечения, являются весьма щадящими. В проекте документа, опубликованном в начале апреля 2023 г., было указано, что в случае выявления несоответствия сервиса указанным критериям у его создателей будет три месяца на устранение выявленного несоответствия, а в случае нерешения проблемы в течение этого срока предполагалось назначение штрафа (от 10 000 до 100 000 юаней, т. е. примерно от 130 000 до 1 300 000 рублей). Однако в финальной версии документа, опубликованной 10 июля и вступившей в силу 15 августа 2023 г., даже эта санкция отсутствует[3223].

В окончательной редакции документ стал ещё более лояльным к разработчикам генеративных сервисов. Среди прочего в нём исчезли требование при оказании услуг следовать «добрым традициям», жёсткое требование «правдивости и точности» генерируемого контента, требование перед запуском сервиса предоставить в Отдел информации национальной сети установленную законом оценку безопасности информационных услуг, а требование «гарантировать подлинность, точность, объективность и разнообразие» обучающих данных было заменено на требование «принимать эффективные меры» в этом направлении. Кроме того, в документе появились призывы поощрять инновационное применение технологий генеративного искусственного интеллекта в различных отраслях и областях, исследовать и оптимизировать сценарии применения, создавать экосистему приложений, поддерживать независимые инновации в области генеративного ИИ, программных и аппаратных платформ, развивать международное сотрудничество, содействовать созданию инфраструктуры генеративного ИИ и так далее и тому подобное. В документе также содержится призыв к создателям сервисов разъяснять и раскрывать способы их полезного применения, направлять пользователей к научному и рациональному пониманию и использованию технологий генеративного ИИ, принимать эффективные меры для предотвращения чрезмерного использования генеративного ИИ несовершеннолетними пользователями.

Также правила содержат требования маркировки генеративного контента и наличия договора с пользователем на оказание соответствующих услуг.

В целом «Временные меры по управлению услугами генеративного искусственного интеллекта» вряд ли могут всерьёз замедлить развитие соответствующих сервисов в Китае, чего не скажешь о готовящемся законодательстве Евросоюза.

Если судить по текстам европейских законопроектов, то кажется, что их авторов заботило главным образом создание труднопроходимых барьеров для зарубежных сервисов.

Центральную роль в планируемой системе регулирования ИИ в Евросоюзе занимает документ под названием «Гармонизированные правила в отношении искусственного интеллекта (Закон об искусственном интеллекте)» [Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act)], который был впервые представлен общественности в 2021 г.[3224] Подготовка к созданию документа началась ещё в 2018 г., когда была создана Экспертная группа высокого уровня по искусственному интеллекту (High-Level Expert Group on AI, HLEG), в состав которой вошли 52 известных эксперта.

Это весьма внушительный законопроект, состоящий (в редакции 2022 г.) из 85 статей и занимающий (вместе с предваряющими его общими соображениями по стратегии регулирования, а также предложениями по внесению поправок в некоторые связанные законы) 217 страниц[3225]. В ходе первого чтения в Европарламенте в июне 2023 г. к этому документу была принята 771 поправка (текст поправок занимает в общей сложности ещё 349 страниц)[3226].

Для того чтобы разъяснить логику законопроекта, авторы подготовили презентацию из 21 слайда (не обновлявшуюся, впрочем, с 2021 г.)[3227].

Давайте рассмотрим наиболее важные положения законопроекта, а затем попробуем разобраться в некоторых частностях.

Первым делом «Закон об искусственном интеллекте» требует обязательной сертификации систем ИИ до вывода их на рынок. В ходе сертификации должны быть выявлены риски, связанные с использованием данной системы, а сама система должна быть отнесена к одной из четырёх групп:


1. Системы с неприемлемым уровнем риска — в качестве примеров приводятся: дистанционная биометрия в общественных местах (с исключениями, касающимися защиты от преступлений и борьбы с терроризмом); системы распознавания эмоций в правоохранительных органах, пограничной службе, образовательных учреждениях и на рабочих местах; скоринг, где оценка может привести к проблемам для людей или групп людей в том социальном контексте, где данные изначально не собирались, или может привести к проблемам, несоразмерным совершённым поступкам. Эксплуатация систем такого рода категорически запрещена.


2. Высокорисковые системы («системы искусственного интеллекта, которые представляют значительный риск для здоровья, безопасности или основных прав людей») — например, системы, используемые в медицине или при найме сотрудников. Эксплуатация таких систем возможна, но только в строгом соответствии с установленными требованиями и после прохождения процедуры оценки соответствия системы этим требованиям.


3. Некоторые системы ИИ с особыми требованиями по обеспечению прозрачности (боты) — их эксплуатация разрешена при соблюдении требований по информированию и прозрачности.


4. Системы с минимальным уровнем риска или его отсутствием — их эксплуатация разрешается без ограничений.


В зависимости от группы, к которой будет отнесена та или иная система ИИ, к ней, её создателям и пользователям могут применяться разные требования. Например, разработчики высокорисковой системы должны:


• создать и внедрить систему менеджмента качества в своей организации;


• составить и поддерживать в актуальном состоянии техническую документацию по системе;


• вести журналирование операций [logging], чтобы пользователи могли контролировать работу системы;


• до ввода системы в эксплуатацию пройти оценку соответствия требованиям и, возможно, проходить повторные оценки системы (в случае значительных модификаций);


• зарегистрировать систему ИИ в базе данных Евросоюза;


• нанести маркировку CE и подписать декларацию соответствия;


• осуществлять мониторинг работы системы после вывода её на рынок;


• сотрудничать с органами надзора за рынком.


Каждое из подобных требований весьма подробно детализировано в законопроекте. Например, в нём для системы менеджмента качества приведён минимальный перечень из 13 аспектов, которые должны найти отражение в письменных правилах, процедурах и инструкциях.

Контроль соблюдения закона возлагается на национальные органы по надзору за рынком. Если орган надзора обнаруживает, что система ИИ не соответствует требованиям, изложенным в законе, он должен без промедления потребовать от оператора системы предпринять корректирующие действия и привести систему в соответствие либо вывести систему ИИ из эксплуатации в течение разумного периода, соразмерного характеру риска.

Значительная часть поправок, принятых в 2023 г., относится к вопросам регулирования разработки фундаментальных моделей. В соответствии с последней версией закона разработчики фундаментальных моделей обязаны среди прочего:


• продемонстрировать посредством соответствующего проектирования, тестирования и анализа выявление, снижение и смягчение разумно прогнозируемых рисков для здоровья, безопасности, основных прав, окружающей среды, демократии и верховенства закона; причём это должно осуществляться как до, так и на протяжении всего процесса разработки, для чего предлагается, например, привлекать независимых экспертов, а также тщательно документировать все неустранённые риски;


• обрабатывать и включать в обучающую выборку только те датасеты, в отношении которых можно применять подходящие для фундаментальных моделей методы управления данными, в частности меры по проверке пригодности источников, наличия смещений, а также меры по смягчению негативных последствий выявленных проблем;


• обеспечить достижение на протяжении всего жизненного цикла модели соответствующих уровней производительности, предсказуемости, интерпретируемости, корректируемости, безопасности и кибербезопасности, оцениваемых с помощью соответствующих методов, таких как оценка модели с привлечением независимых экспертов, документированный анализ и обширное тестирование в ходе концептуализации, проектирования и разработки;


• при проектировании и разработке модели использовать подходящие стандарты для снижения энергопотребления, использования ресурсов и производства отходов, а также для повышения энергоэффективности и общей эффективности системы; для всех создаваемых фундаментальных моделей должна существовать возможность измерения и регистрации потребления энергии и ресурсов, а также, если это технически возможно, другого воздействия на окружающую среду, которое может быть оказано в процессе развёртывания и эксплуатации системы на протяжении всего её жизненного цикла;


• составить обширную техническую документацию и понятные инструкции по использованию;


• создать систему управления качеством для обеспечения и документирования соблюдения закона;


• зарегистрировать модель в базе данных Евросоюза;


• в течение 10 лет после публикации или ввода в эксплуатацию модели хранить техническую документацию по ней и предоставлять её по требованию в распоряжение национальных компетентных органов и так далее.


Если же фундаментальная модель предназначена для задач генерации контента, то её создатели должны, вдобавок ко всему вышеперечисленному, проектировать, обучать (и если планируется — развивать) модель таким образом, чтобы обеспечить «адекватные гарантии против создания контента, нарушающего законодательство Евросоюза», а также публиковать подробный отчёт о наличии в обучающих данных контента, защищённого законом об авторском праве.

Помимо этого, в июне 2023 г. Еврокомиссия предложила не только ввести маркировку любого контента, произведённого системами ИИ, но и создать технологии распознавания такого контента[3228].

К другим интересным документам, разработанным в Евросоюзе, относится ряд документов Совета Европы: «Технико-экономическое обоснование правовой базы проектирования, разработки и применения ИИ на основе стандартов Совета Европы»[3229] (2020), «Возможные элементы правовой базы по ИИ, основанные на стандартах Совета Европы в области прав человека, демократии и верховенства закона»[3230] (2021), «„Нулевой проект“ конвенции об ИИ, правах человека, демократии и верховенстве закона»[3231] (январь 2023) и др.

Сложно представить себе, что современные технологии ИИ смогут успешно развиваться при наличии столь тяжеловесного регуляторного обременения. Впрочем, кто знает, в какой редакции будет окончательно принят европейский Закон об искусственном интеллекте и на что будет похожа на деле практика его применения.

Коротко рассмотрим состояние дел с регулированием ИИ в других странах.

Канада, по аналогии с Евросоюзом, стала на путь ограничительного регулирования. Проект универсального «Закона об ИИ и данных» устанавливает ряд обязательств и запретов, относящихся к проектированию, разработке и использованию систем ИИ. Более значимые обязательства могут быть возложены на разработчиков высокоэффективных систем ИИ, оказывающих значительное влияние на общество. По состоянию на май 2023 г. проект прошёл второе чтение, однако, по последним сообщениям в СМИ, власти Канады заняли выжидательную позицию до принятия европейского закона[3232].

Власти Индии отказались от регулирования этой отрасли путём принятия единого закона. Индия не будет регулировать ИИ, поскольку ИИ является «движущим фактором» цифровой экономики и играет важную стратегическую роль для продвижения страны вперёд. При этом «Национальная стратегия ИИ» (2018) признаёт наличие этических проблем в этой области. Так же как и во многих других странах, на разработку систем ИИ в Индии влияет законодательство о защите персональных данных. Находящийся на стадии обсуждения законопроект о регулировании этой сферы, возможно, введёт определённые ограничения при сборе данных для обучения. Также рассматривается вопрос об определении и регулировании высокорисковых систем ИИ[3233].

Израиль, так же как и Индия, отказался от принятия единого закона об ИИ, сделав ставку преимущественно на стимулирующее регулирование. Впрочем, с 2021 г. Министерство юстиции ведёт сбор предложений и комментариев в отношении создания нормативных ограничений и возможного регулирования в области ИИ. Однако существующий проект политики регулирования и этики в сфере ИИ, выпущенный Органом по инновациям в 2022 г., исключает возможность регулирования с помощью отдельного закона и призывает содействовать регулированию в конкретных случаях на основе управления рисками, а также предпочтительно использовать мягкие инструменты регулирования[3234], [3235].

В Южной Корее в настоящее время обсуждается проект закона «О продвижении индустрии ИИ и основных подходах для создания ИИ, заслуживающего доверия». Основные его положения в текущей редакции: поддержка индустрии ИИ, защита пользователей услуг на основе ИИ путём обеспечения надёжности ИИ-систем, повышенные требования к высокорисковым системам ИИ, создание системы сертификации ИИ, которому можно будет доверять[3236].

В России наиболее заметным событием в области регулирования ИИ является Указ Президента РФ от 10 октября 2019 г. №490 «О развитии искусственного интеллекта в Российской Федерации»[3237], утвердивший «Национальную стратегию развития искусственного интеллекта на период до 2030 года» «в целях обеспечения ускоренного развития искусственного интеллекта <> проведения научных исследований в области искусственного интеллекта, повышения доступности информации и вычислительных ресурсов для пользователей, совершенствования системы подготовки кадров в этой области». Сама «Национальная стратегия» — небольшой документ, содержащий всего 23 страницы. Он определяет цели, основные задачи и принципы развития ИИ в РФ, приоритетные направления развития и использования технологий, описывает механизмы реализации стратегии. Предполагается, что актуализация этого документа будет происходить приблизительно раз в три года.

Как показывает история с беспилотным транспортом, важным источником регулирования, затрагивающим технологии ИИ, являются различные отраслевые требования и стандарты. Например, Управление по контролю качества пищевых продуктов и лекарственных средств США (US Food and Drug Administration, US FDA или просто FDA) развивает собственные подходы и нормативную базу регулирования применения технологий ИИ в области здравоохранения[3238], [3239], [3240], предъявляя к разработчикам систем, содержащих ИИ-компоненты, достаточно жёсткие требования. Аналогичным образом поступают и отраслевые регуляторы многих других стран, например Национальная администрация медицинских продуктов (国家药品监督管理局) Китая[3241].

В 2017 г. Международная организация по стандартизации (International Organization for Standardization, ISO) совместно с Международной электротехнической комиссией (International Electrotechnical Commission, IEC) создала комитет ISO/IEC JTC 1/SC 42, предназначенный для разработки международных стандартов в области ИИ[3242]. В 2020 г. комитет выпустил отчёт ISO/IEC TR 24028:2020 «Информационные технологии. Искусственный интеллект. Обзор надёжности в области искусственного интеллекта»[3243], [3244], где анализируется, как оценивать и улучшать надёжность, доступность, точность, безопасность и конфиденциальность систем ИИ. Документ также рассматривает варианты снижения рисков от подводных камней в системах ИИ и описывает, как добиться доверия к системам ИИ через прозрачность, объяснимость, управляемость и так далее.

В 2018 г. Федеральное агентство по техническому регулированию и метрологии (Росстандарт) выступило инициатором создания национальных стандартов в области ИИ. Стандартизации было предложено подвергнуть технологии искусственного интеллекта в различных сферах: в системе общественной безопасности, в медицине, в сельском хозяйстве, на транспорте, в составе «умных домов» и так далее. В 2019 г. по инициативе Российской венчурной компании при поддержке Минпромторга России и Росстандарта был создан Технический комитет №164 «Искусственный интеллект», на сайте которого в 2021 г. были опубликованы первые редакции 36 проектов национальных стандартов в области применения искусственного интеллекта. Как говорится на сайте комитета, ТК 164 является «зеркальным» по отношению к международному подкомитету SC 42 «Artificial Intelligence» объединённого технического комитета ISO/IEC JTC 1 «Information Technologies» и берёт на себя функции постоянно действующего национального органа в ISO.

Принятая в декабре 2020 г. перспективная программа стандартизации по приоритетному направлению «Искусственный интеллект» на период 2021–2024 годы, утверждённая Росстандартом и Минэкономразвития, предусматривает разработку 217 стандартов в области ИИ[3245].

Надо заметить, что в связи с обсуждением будущего технологий ИИ часто возникает тема сбора и обработки персональных данных (и например, Федеральный закон №152-ФЗ «О персональных данных»[3246] тоже косвенно затрагивает тему разработки систем ИИ). Ставший сегодня хрестоматийным скандал вокруг компании Cambridge Analytica[3247] продемонстрировал опасность, которую влечёт за собой сосредоточение больших объёмов информации в руках крупных компаний, и создал прецедент неэтичного и недопустимого использования технологий ИИ. Так что к проблемам, описанным О’Нил, можно смело добавить ещё одну — риски вторжения алгоритмов в частную жизнь людей, что может существенно сместить принятые в обществе границы личной тайны. Анализируя массивный цифровой след, оставляемый человеком, алгоритмы в состоянии эффективно раскрывать те или иные факты личной жизни, которые люди предпочитают держать в секрете. Например, анализируя «лайки» в Facebook, современные модели машинного обучения могут строить весьма точные предположения о вашей сексуальной ориентации[3248]. В 2012 г. газета The New York Times рассказала своим читателям леденящую кровь историю о том, как отец узнал о беременности своей дочери благодаря действию алгоритмов рекламной системы Target:

Разгневанный мужчина ворвался в офис Target под Миннеаполисом и потребовал немедленно поговорить с менеджером: «Моя дочь получила это по почте! — заявил он. — Она ещё только учится в старшей школе, а вы присылаете ей купоны на детскую одежду и детские кроватки? Вы пытаетесь подтолкнуть её к тому, чтобы она забеременела?»

Менеджер понятия не имел, о чём говорит этот человек. Он посмотрел в почтовую программу, где обнаружил письма, отправленные дочери мужчины, содержавшие рекламу одежды для беременных, детской мебели и фотографии улыбающихся младенцев. Менеджер извинился, а через несколько дней позвонил мужчине, чтобы принести дополнительные извинения.

Однако по телефону отец говорил несколько смущённо. «Я поговорил с дочерью, — сказал он. — Оказывается, в моём доме происходили кое-какие вещи, о которых я не был полностью осведомлён. В августе она должна родить. Приношу свои извинения»[3249].

Вне зависимости от того, является ли эта история правдой или выдумкой, проблему раскрытия подробностей частной жизни алгоритмами вряд ли стоит недооценивать. Мир, в котором неопределённый круг людей может быть уведомлён о вашей беременности, болезни, сексуальных предпочтениях, влюблённости и так далее, вряд ли можно признать уютным. И по мере того как алгоритмы становятся всё более совершенными, точность их выводов становится всё больше, а объём информации, необходимый для достижения этих выводов, всё меньше.

Кто знает, возможно в недалёком будущем под влиянием таких проблем, как незаконная обработка персональных данных или проблема цифрового тайного суда, возникнет институт «цифровых адвокатов» или «алгоритмических омбудсменов», призванных защищать интересы людей в мире, в котором математические модели всё больше и больше влияют на нашу жизнь.

Если же говорить об анализе алгоритмических рисков вообще, то нельзя не отметить, что на сегодняшний день корпорации продвинулись в этой области существенно дальше, чем общественность. Начиная с конца XX в. специалисты в области финансов, а затем и другие корпоративные эксперты активно занялись изучением проблемы так называемого модельного риска — риска возникновения убытков в результате использования недостаточно точных моделей для принятия решений. Подготовкой рекомендаций в отношении управления модельными рисками занимаются влиятельные международные организации, например Базельский комитет по банковскому надзору[3250].

Успехи генеративных моделей в наши дни вновь привлекли общественное внимание к проблеме ИИ-рисков и регулирования технологий искусственного интеллекта. Неудивительно, что в сложившихся обстоятельствах законодатели также во многом прислушиваются ко мнению корпоративных экспертов. Вслед за наступлением «момента ChatGPT» появление Сэма Альтмана в Конгрессе было вопросом времени. Впрочем, все мы понимаем, что Альтман нуждается в контактах с законодателями не меньше, а возможно, и больше, чем они желают общения с ним. Поэтому контакты руководителя OpenAI с конгрессменами и другими влиятельными политиками США не ограничились лишь участием в парламентских слушаниях[3251].

В своей речи на Капитолийском холме Альтман выступил в поддержку государственного регулирования сферы ИИ и согласился сотрудничать с правительством в целях управления ИИ-рисками.

На слушаниях к Альтману присоединились Кристина Монтгомери, директор IBM по конфиденциальности и доверию [Chief Privacy & Trust Officer], и вездесущий Гэри Маркус.

В своей речи Альтман отметил, что хотя технологии, разрабатываемые его компанией, и могут ликвидировать некоторые рабочие места, но они также способны создать новые и что «правительству будет интересно узнать, как именно мы хотим это смягчить». Альтман поддержал идею Маркуса создать агентство, которое будет выдавать лицензии на разработку крупномасштабных моделей ИИ, разрабатывать правила безопасности и тесты, которые модели ИИ должны пройти перед выходом в свет. «Мы считаем, что польза используемых нами инструментов значительно перевешивает риски, но для нашей работы жизненно важно обеспечить их безопасность», — сказал Альтман.

Сложно сказать, что преобладает в мотивах Альтмана, когда он выступает в поддержку идеи о лицензировании разработки фундаментальных моделей. Быть может, забота о всеобщем благе, а быть может — желание возвести регуляторный барьер для конкурентов. Примечательно, что идея жёсткого регулирования вовсе не вызывает восторга у ряда законодателей. Китайцы создают искусственный интеллект, который «укрепляет основные ценности Коммунистической партии Китая и китайской системы, — сказал Крис Кунс, демократ из штата Делавэр. — И меня беспокоит то, как мы продвигаем ИИ, который укрепляет и усиливает открытые рынки, открытое общество и демократию»[3252].

7.6 Будем разумны!

Подводя итоги этому краткому обзору рисков и страхов, связанных с развитием ИИ, мне хотелось бы призвать к рациональному подходу к этой области. Разговоры об угрозе «интеллектуального взрыва» и «захвата мира сверхразумом» хотя и привлекают внимание публики, но, по сути, могут лишь подогреть технофобские настроения в обществе и отвлечь его внимание от более актуальных проблем, сопутствующих техническому прогрессу: технологической безработицы, роста неравенства и гонки вооружений.

В известной новелле «Четыре цикла» аргентинский прозаик, поэт и публицист Хорхе Луис Борхес утверждал, что все сюжеты сводятся всего к четырём историям: о штурме и обороне укреплённого города, о долгом возвращении, о поиске и о самоубийстве бога. Забавно наблюдать, что современные литература и кинематограф, рисуя картину очередного технологического апокалипсиса, чаще всего следуют одному из проторенных сценарных путей. Хотя они и не имеют, в общем-то, ничего общего с сюжетами у Борхеса, но их, как мне кажется, тоже четыре. Технологическую катастрофу начинают: 1) ограниченные и самоуверенные индивиды (обычно учёные или политики); 2) люди, находящиеся под влиянием человеконенавистнической идеологии; 3) сумасшедшие или же 4) дельцы, преследующие лишь собственную выгоду и не заботящиеся о большинстве. Объединяющим моментом этих четырёх историй, помимо самого техноапокалипсиса, является наличие опасной для человечества воли отдельных людей или их групп. То есть на деле боязнь разрушительной технологии оборачивается боязнью людьми самих себя. Создаваемые в наши дни могущественные технологии при правильном применении могут помочь разрешить многие общественные проблемы, а могут нанести серьёзный вред, и конечный результат зависит от нас с вами. Возможно, главный парадокс эпохи искусственного интеллекта в том, что, хотя машины в наши дни успешно заменяют людей в самых разных сферах человеческой деятельности, мы остро ощущаем потребность в человеке и человечности.


Загрузка...