Признаки, отдаленно напоминающие символьный подход, можно найти в трудах Раймонда Луллия (Raymundus Lullius, 1235–1315), в них он описал машину, способную приходить к логическим выводам. Этот каталонский монах, поэт, философ и теолог был одним из наиболее оригинальных умов средневековья, чем заслужил у современников почетный титул doctor illuminatus, то есть «озаренный наставник», а после смерти на столетия о нем сохранились противоречивые суждения. Иронический взгляд на Луллия обнаруживается в третьей части «Путешествий Гулливера», написанных Джонатаном Свифтом в 1726 году, 300 лет спустя. В «Путешествии в Лапуту, Бальнибарби, Лаггнегг, Глаббдобдриб и Японию» Гулливер повествует о своем вымышленном визите на летучий остров Лапуту, населенный учеными. Там, бродя по коридорам Великой Академии, он обнаружил странную машину, прозорливо названную Свифтом «компьютером» или «прибором для открытия отвлеченных истин». Прибор представлял собой навешенный на ось каркас с табличками по слову на каждой, при вращении каркаса таблички перемешивались, а когда прибор останавливался, он выдавал некоторую случайную последовательность слов. Собравшиеся вокруг него ученые мужи всесторонне разбирали полученный набор слов, пытаясь найти в нем скрытый смысл и обнаружить новое знание. (Не правда ли, напоминает извлечение информации из Больших данных.)
Однако настоящая машина Луллия была устроена иначе, она состояла из наложенных друг на друга концентрических дисков, такие устройства существовали издревле, их называли волвеллами (volvelle). Особую популярность изготовленные из пергамента или бронзы волвеллы-астролябии приобрели в Древней Греции. Арабы усовершенствовали астролябию и применяли ее для математических вычислений и астрологических предсказаний. В Западной Европе волвеллы появились в XII веке, они служили для астрономических, астрологических и алхимических расчетов. Встречаются волвеллы и сегодня, но лишь как сувенирные бумажные дисковые калькуляторы-игрушки.
Луллий оставил после себя несколько книг, из них основная – Ars Magna («Великое искусство»), в ней излагаются методы, посредством которых человек может не только легко понять и усвоить известные истины, но даже открыть новые. Помнят о Луллии и сегодня, в Европе до наших дней сохранилось несколько центров изучения Ars Magna.
Несмотря на чудачества, в деятельности Луллия было и кое-что рациональное, он за шестьсот лет (!) до ирландского математика Джорджа Буля (George Boole, 1815–1864), создателя алгебры логики, сформулировал нечто близкое, назвав это к «алфавитом для мыслей», а также начальные положения логического анализа, эвристических и дедуктивных методов. Для иллюстраций своих мыслей Луллий использовал диаграммы, похожие на графы, табличные формы представления информации, а также диаграммы Венна.
Интерес к идее символа как носителя мысли возродился в XVI веке, ранее под символом понимался просто знак чего-то, но английский поэт Эдмунд Спенсер (Edmund Spenser, 1552–1599) в 1590 году уточнил «это что-то одно, заменяющее собой что-то другое». Физик, механик, астроном, философ и математик Галилео Галилей пошел дальше – в символе он увидел связующее между человеческим сознанием и окружающим человека материальным миром. В 1623 году Галилей написал: «Я думаю, что любые ощущения вкуса, запаха или цвета и всего остального есть не что иное, как некие символы, существующие в нашем сознании». Продолжателем взглядов Галилея стал французский философ, математик, механик, физик и физиолог Рене Декарт, он дополнил их двумя собственными суждениями о символьном мышлении: первое – все сущее разделено на телесную и духовную субстанции, и второе – сознание не зависит от тела. Английский философ Томас Гоббс в целом соглашался с ним, но, будучи материалистом, отрицал картезианскую независимость духовной субстанции от телесного органа, утверждал, что к мышлению способна только материя. А раз так, то можно утверждать, что подчиненная законам природы работа мозга неродственно связана с отражением реальных материальных процессов в виде символов. В немалой степени становлению символьного подхода способствовали Исаак Ньютон и Готфрид Лейбниц, верившие в возможность объяснить существующее в мире исключительно на основе механических начал. Из всех перечисленных великих ученых идеи Гоббса ближе всего символьному AI, его труды способствовали тому, что умах большинства европейских ученых мышление представлялось как процесс манипуляции символами.
В XIX веке в Англии среди множества изобретателей Эпохи пара были и те, кто создавал логические машины, оперировавшие символами, среди них первенствовали Чарльз Стэнхоуп (Charles Stanhope, 1753–1786) и Альфред Сми (Alfred Smee, 1818–1877). Знатное происхождение и активное участие в политической деятельности не помешали лорду Стэнхоупу стать успешным изобретателем, автором трех счетных машин, близких по устройству машинам Паскаля и Лейбница, и ряда других новаций. Но главное его детище – Демонстратор Стэнхоупа (Stanhope Demonstrator), в его основе двумерная матричная конструкция, позволявшая механизировать решение простых логических и вероятностных задач.
Хирург Альфред Сми увлекался электробиологией (так называли влияние электричества на жизнедеятельность организма), параллельно он выдвинул утопический проект создания искусственного мозга, состоящего из двух машин – реляционной и дифференциальной. Утверждают, что при доступных изобретателю технологиях эта машина, будь она построена, заняла бы площадь, сопоставимую с территорией Лондона тех времен. В 1851 году Сми опубликовал книгу «Процесс мышления», которая стала популярной в Англии и способствовала распространению взглядов, предполагающих возможность механизации мышления.
Успешным продолжателем дела Стэнхоупа и Сми стал экономист и математик Стэнли Джевонс (William Stanley Jevons, 1835–1882). Ему повезло в жизни: учивший его преподаватель математики дружил с Чарльзом Бэббиджем, жизнь свела его непосредственно со Стэнхоупом, а прочитав книгу Сми, он вступил в переписку с Джоном Булем. Вооруженный полученными знаниями Джевонс в 1874 году выпустил собственную книгу «Принципы науки» и создал действующую логическую машину, названную современниками логическим пианино за ее внешнее сходство музыкальным инструментом. Машина Джевонса представляла собой сооружение высотой около метра, снабженное клавиатурой для ввода аргументов, а с помощью специальных пластинок на лицевой части задавалась таблица истинности. Этого было достаточно, чтобы механизировать вывод несложных логических умозаключений.
Развитием машины Джевонса стало устройство, построенное много позже в США профессором Принстонского университета Алленом Макгвардом (Allan Marquand, 1853–1924). Накануне появления цифровых компьютеров в короткий период с середины 40-х до начала 50-х годов в разных местах было создано порядка 10–12 различных электромеханических логических машин, все они были вариациями на тему машины Джевонса. Из них наибольшую известность получило устройство Уильяма Буркхарда и Теодора Калина (William Burkhartand, Theodore Kalin), созданное в середине 1947 года. Компьютеры положили конец дальнейшим попыткам механизировать логику.
В России над созданием логических машин трудился действительный статский советник Семен Николаевич Корсаков (1787–1853). Он был автором пяти «интеллектуальных машин». В краеведческом музее подмосковного города Дмитрова, в окрестностях которого он жил, есть посвященная Корсакову экспозиция, сохранилось и его захоронение.
Логические машины оставались единичными уникальными изделиями, ситуация изменилась с появлением электронных компьютеров, когда выяснилось, что помимо расчетов их можно использовать для логических операций. На логических машинах закончились первые попытки механизировать работу с символами.
Местом реинкарнация символьного подхода стал математический факультет Дартмутского колледжа, где летом 1956 года группа ученых собралась на семинар, вошедший в историю как Dartmouth Workshop. Имевшие там место события стали основой для мифа о рождении AI в городе Хановере (штат Нью-Гэмпшир), название которого пишется через одно «н» в отличие от немецкого Ганновера, столицы Нижней Саксонии. Историческое значение рабочей группы, так переводится workshop, собравшей несколько десятков лучших умов, заключается в двух моментах. Во-первых, здесь было предано гласности словосочетание Artificial Intelligence (AI) и, во-вторых, здесь был постулирован символьный подход (Symbolic AI), как единственно возможный для создания AI. Эти два обстоятельства предопределили весь последующий ход событий в истории AI на много лет вперед, вплоть до 90-х годов. Как показала жизнь, амбициозное название AI утвердилось и, скорее всего, навечно, альтернативы ему нет. Что же касается символьного подхода, то он оказался куда менее долговечен, и после двух взлетов и падений прекратил свое существование. Долгожительство термина AI связано с тем, что, утратив заложенный в него изначальный смысл, с появлением новых теоретических решений и технологий, он наполняется иным содержанием, AI вышел далеко за установленные в Дартмуте символьные границы.
Что же касается собственно семинара, то его итог не вполне совпал с ожиданиями организаторов. По замыслу предполагалось провести собрание цвета профессуры Восточного побережья США для выработки полномасштабной стратегии совместных действий, направленных на создание думающей машины (thinking machine). Однако стратегического консенсуса добиться не удалось, дело кончилось тем, что сформировалась небольшая группа энтузиастов, объединенных под знаменем Symbolic AI.
По воспоминаниям вдовы Рэя Соломонова (Ray Solomonoff, 1926–2009), еще одного выходца из семьи эмигрантов из России, принимавшего активное участие в подготовке к мероприятию, трое – Соломонов, Минский и Маккарти собирались в ее доме для выработки программы семинара и состава оргкомитета.
На предварительном этапе четверо молодых профессоров: Джон Маккарти, Марвин Минский, Натаниэль Рочестер и Клод Шеннон подготовили документ «Предложения к Дартмутскому летнему исследовательскому проекту по AI» (A proposal for the Dartmouth Summer Research Project on Artificial Intelligence, 1955). В нем они выразили свое намерение словами: «Мы предлагаем организовать двухмесячное исследование искусственного интеллекта с участием 10 человек летом 1956 года в Дартмутском колледже, Хановер, Нью-Гемпшир. Предпосылкой для исследования служит наше убеждение в том, что все составляющее обучения или любых других видов деятельности человеческого интеллекта могут быть описаны символами, причем настолько точно, чтобы быть переданы машине и она могла бы их симулировать. Мы попытаемся понять, как общаться с машинами на естественном языке, научить их формулировать абстракции и концепции, решать задачи, подвластные сейчас только людям, а также совершенствовать самих себя. Мы считаем, что существенное продвижение в одном или более перечисленных направлений вполне возможно, если специально подобранная группа ученых будет работать над этим в течение лета». При чтении этого невольного вспоминается «Чевенгур» Андрея Платонова, где герой считает, «что еще рожь не поспеет, а социализм будет готов».
Они без особых усилий нашли спонсора в лице благотворительного фонда Рокфеллера (Rockefeller Foundation) и разослали приглашения к участию по списку, состоявшему из 32 фамилий. Удивительно, но в него не вошли звезды первой величины, персонами нон грата оказались известные кибернетики Норберт Винер, Эшби Росс и Джулиан Бигелоу, а также основоположники альтернативного коннекционистского подхода Уоррен Мак-Каллок и Уолтер Питтс. К тому же из-за априорного разногласия во взглядах на содержание программы не все из приглашенных согласились принять участие в семинаре, он оказался менее представительным, чем задумывалось.
Несмотря на афронт по отношению к кибернетике, генезис принятого на семинаре названия Artificial Intelligence, косвенным образом связан с нею. Только через 30 лет, в 1996 году Маккарти признался в истинной причине выбора им собственного совершенно оригинального названия. Он решил пойти от обратного: «Я предпочел термин AI как не имеющий аналогов во избежание нежелательной для нас ассоциации с кибернетикой. Основным стержнем кибернетики служит аналоговая обратная связь, подчиненность этой идее увела бы нас в сторону. К тому же мы не хотели приять Норберта Винера на роль гуру и вообще пускаться с ним в какие-либо обсуждения». Ныне это открыто продекларированное отречение от кибернетики не выглядит достаточно убедительным и остается пожалеть о возведении искусственного барьера между AI и кибернетикой. Стоит предположить, что Маккарти и его сподвижники руководствовались далеко не полным, если не сказать искаженным представлением не только о возможностях компьютеров, но и о предмете кибернетики.
В раздоре косвенно повинен и сам Винер. Да, это он ввел в широкий оборот давно известное название «кибернетика», но сделал это так, что его научный авторитет подавил остальных других причастных к кибернетике. Сработал тот самый злосчастный эффект Матфея, поэтому те, кто «не в теме», обычно связывают содержание предмета кибернетики исключительно с Винером, а это далеко не так. Нередко в масс-медиа его называют и отцом AI. Сейчас как никогда прежде стало ясно, что кибернетика это не только «наука об общих закономерностях процессов управления и передачи информации в различных системах», как ее определяют в словарях. Вот современная трактовка кибернетики из издаваемого сейчас журнала International Journal of Machine Learning and Cybernetics (IJMLC). «Кибернетика имеет дело со сложными взаимодействиями в системах, составляющих наше окружение. А машинное обучение выявляет связи между переменными и наборами данных, действующими в этих системах. Объединение этих двух дисциплин позволит точнее раскрыть формы взаимодействия между системами с использованием механизмов обучения на данных». Кибернетика – явление куда более широкое, чем наука об управлении, и современные подходы к AI напрямую оказываются связанными с другой, не винеровской кибернетикой, но об этом ниже. А здесь же можно утверждать, что Маккарти поторопился и «выплеснул с водой младенца», что не лучшим образом сказалось на всем последующем развитии AI. Более подробно о кибернетике в главе 5.
Dartmouth Workshop продолжался немного дольше задуманного, примерно шесть недель, с конца июня до середины августа. Большинство участников рабочей группы провело в стенах Дартмутского колледжа всего одну-две недели, а полный срок лишь трое организаторов – Марвин Минский, Джон Маккарти и Рэй Соломонов. Последний не стал звездой первой величины, но это не умаляет его роли в описываемых событиях, к тому же это он создал дуэт Минский и Маккарти и он был их «духовным отцом», оказав критическое влияние на выбор символьного подхода к AI.
В англоязычной литературе о событии, случившемся в Дартмутском колледже, пишут как об акте рождения AI (Birth of AI), или об изобретении AI (AI invention), или даже об основании AI (AI foundation). Отсюда может сложиться ложное представление об AI как о какой-то объективно существующей субстанции, которую можно создать или изобрести, как о вещи, способной к самостоятельному существованию, которой до этого момента не было, а собравшейся группе усилием мысли удалось чудесным образом произвести ее на свет. С таким взглядом на AI и на его происхождение нельзя согласиться, поскольку в частном исследовательском университете, в одном из девяти входящих в Лигу плюща и по традиции называемом Дартмутским колледжем, произошло нечто совсем иное. Эту встречу нельзя назвать рождением, скорее это были заблаговременные крестины еще не рожденного младенца.
Более того, AI на семинаре не только не родился, но не был даже зачат, поскольку результатом семинара стал документ с подзаголовком «Декларация о намерениях» (Declaration of Intention), не более того. Подчеркивая это обстоятельство, Джон Маккарти до семинара написал, что под AI он понимает не продукт, а «науку и инженерию (!) создания разумных машин (intelligent machines)». Подчеркнем, не предмет, а науку и инженерию! Приверженность символическому подходу (Symbolic AI) выражена в «Декларации о намерениях» почти дословно как в предложениях к семинару: «Наши исследования будут основываться на предположении о том, что любые действия, связанные со знаниями, могут быть точно описаны и воспроизведены на машине». Из чего следует, что изначально был избран такой подход к AI, который предполагает возможность описания знаний в виде символов, затем перенос этих символьных записей в машину, а далее производство на машине новых знаний.
Выбор этого подхода легко объясним, человечество не придумало ничего иного для описания и воспроизведения присущих ему знаний кроме символьных записей. Но никакая запись не тождественна знанию, соотношение между записью и знанием далеко не так просто, только человек, понимающий язык записи (естественный или научный) может извлечь знания из записи, собственно говоря, сущность образования в значительной мере состоит в обучении этому языку. О соотношении данных, инфлюации и связи см. главу 8. Но если допустить, что символьная запись является носителем знания и метазнания, то, вполне логично предположить, что компьютер, как машина, оперирующая некими сложными символами, окажется способен к операциям со знаниями. Однако трудно представить, как можно было отождествить некий умозрительный символ, как носитель знания, с тривиальным алфавитно-цифровым символом, из кодовой таблицы ASCII или Unicode? Что общего у символа в сознании человека и восьмеричным кодом? Но тогда участникам семинара этот подход показался единственно возможным. Они его не назвали никак, но позже, когда потребовался какой-то ретроним в противовес альтернативному коннекционистскому подходу, его стали называть символьным.
Не все из побывавших на семинаре нашли понимание со стороны организаторов. Например, Саймон и Ньюэлл, стоявшие в академической иерархии заметно выше организаторов, приехали на Дартмутский семинар в полной уверенности своего приоритета, однако неожиданно для себя получили достаточно прохладный прием. Позже Саймон писал, что организаторы не захотели их выслушать, что вызвало и у них самих ответную реакцию, поскольку «… они только собирались делать то, что мы уже сделали». Однако неблагожелательный прием не помешал вскоре этим двум маститым ученым по каким-то причинам изменить свою позицию и стать верными союзниками Маккарти и Минского. Можно лишь догадываться, чем была вызвана такая покладистость.
Категорическое несогласие с позицией большинства выразил разве что один Карвер Мид, ставший позже разработчиком методов кремниевой компиляции, которые по сей день служат теоретической основой для всех современных средств проектирования полупроводниковых изделий: «Я верю в то, что отцы-основатели AI Марвин Минский и Джон Маккарти были правы в своих взглядах, но когда дошло до дела, то выяснилось, что требуются компьютеры, как минимум на восемь-девять порядков более мощные, чем те, которыми они располагали. Осознав наличие этого барьера, AI-сообщество распалось на две группы, одни отправились на поиски этих порядков, а другие продолжили делать вид, что они занимаются наукой. Я из первых». Миду совместно с Лин Конвей удалось решить задачу перевода логического описания полупроводниковых устройств в кремний, их решение и называют кремниевой компиляцией. А в начале 1970-х Мид осознал, что необходимо отделить теорию проектирования от производства и выделить ее как самостоятельную дисциплину (Electronic Design Automation, EDA), что заметно повлияло на создание технологий микроэлектроники.
Организаторам семинара в короткий срок удалось добиться самого благожелательного отношения к себе со стороны правительственных кругов, а затем на выделенные им колоссальные средства создать специализированную исследовательскую лабораторию в Массачусетском технологическом институте (МТИ), учебном заведении, известном как кузница научных кадров высшей квалификации, прежде всего, для ВПК. Для работы в лаборатории Маккарти переехал в Бостон из Хановера, где он жил прежде, не случайно это место было избрано для Дартмутского семинара. Минскому было проще, он перешел в МТИ из соседствующего с ним Гарвардского университета. Удачный поворот событий и неограниченное финансирование стимулировали энтузиазм молодого коллектива талантливых исследователей. Он был подкреплен неоправданной верой в потенциал компьютеров, характерной для пятидесятых годов, тогда их называли «большим железом» (mainframe). Надежда на возможности компьютеров и на свои способности позволяла им считать, будто они смогут создать AI за какие-нибудь 5–10 лет, правда, не уточняя, что это такое, видимо по конъюнктурным соображениям. В короткий срок Минский и его коллеги отказались от прежнего определения AI как науки и инженерии в пользу размытого и неопределенного представления AI как готового для использования интеллектуального продукта. Такая «продуктовая» интерпретация AI была намного удобнее в общении с сильными мира сего.
Надо учитывать, что местом сосредоточия исследований в области AI стал именно МТИ. Он был и остается своеобразным учебным и научным учреждением, где особый академический дух и высочайший уровень научных работ и образования благополучно сочетаются с прочным сотрудничеством со спонсирующими это учебное заведение военными кругами. Не будь этого источника, все сложилось бы иначе. Неслучайно во многочисленных интервью, данных им последние годы своей жизни, Минский открыто признавал влияние материального фактора как на стремительный подъем в шестидесятые годы, когда финансирование было неограниченным, так и на спад, наступивший через 10–15, когда военные, не получившие того, что им было обещано, попросту прекратили давать средства на продолжение работ.
Щедрость Пентагона, проявленная к науке вообще и создателям AI в частности, легко объяснима. В конце 50-х – начале 60-х администрация США испытывала на себе действие «момента Спутника» (Sputnik moment). Синдром, получивший это название, вызвали запуски советских искусственных спутников Земли (ИСЗ). Первые ИСЗ оказали немыслимое по своим масштабам воздействие на Америку, причем не только на оборонную доктрину, но и на науку, образование и даже на культуру.
Мало кто знает, что остатки первого ИСЗ, упавшего в пустыне Мохаве, находятся в Сан-Франциско в «Музее битников», предшественников хиппи и молодежной революции 1968 года, обратите внимание на созвучие спутник-битник. ИСЗ разрушили представление американцев о своей географической защищенности и немедленно, через неделю после запуска первого ИСЗ состоялось посвященное этому событию заседание Совбеза США. В феврале 1958 года по указанию президента Дуайта Эйзенхауэра было создано Управление перспективных исследовательских проектов (Advanced Research Projects Agency, или ARPA). Позже в название добавили одно слово «оборонных» (Defense), с тех пор оно известно как DARPA. В том же году было организовано Национальное управление по аэронавтике и исследованию космического пространства (National Aeronautics and Space Administration, NASA). Последнему были переданы все гражданские полномочия, относящиеся, как следует из названия, к космосу.
Следствием ускоряющего воздействия Sputnik moment стали и работы в области AI, и программа «Аполлон», и создание интернета. Выражение Sputnik moment стало нарицательным, его используют по сей день в самом разном контексте, в том числе и американские президенты. В 2011 Барак Обама связывал его с необходимостью поднять уровень образования и научных исследований для сохранения лидирующего положения руководимой им страны. Дональд Трамп называл моментом спутника технологическую угрозу со стороны Китая, в первую очередь в области AI.
Несмотря на оставшиеся разногласия относительно предмета AI, участники Дартмутского семинара разъехались с большими, хотя и неопределенным надеждами на будущее. Трезвость в оценках не позволила им сосредоточиться на сильном AI (AGI), но одновременно амбиции не давали возможности опуститься до инженерного уровня слабого AI (ANI). Их видению AI почти точно соответствовал бы недавно предложенный термин «машинный разум человеческого уровня» (Human Level Machine Intelligence, HLMI). Так называют автономные системы, которые, буде они созданы, смогут делать все то, что делает человек, но лучше и дешевле.
По итогам Дартмутского семинара в МТИ была создана Лаборатория AI (Artificial Intelligence Laboratory, AI Lab), многие годы она оставалась единственным центром AI, затем там же в МТИ открыли Лабораторию компьютерной науки (Laboratory for Computer Science, LCS), а 2003 году две объединились в одну лабораторию Computer Science and Artificial Intelligence Laboratory. Появление крупного центра для исследований в области AI с практически неограниченным бюджетом выглядело как успех, но поставленная на Дартмутском семинаре цель – создание научного сообщества достигнута не была. Из воспоминаний Маккарти: «Все выглядело не так, как мы замыслили, мы не могли настроиться на совместную работу научного сообщества и регулярно встречаться. Это очень меня огорчало, поскольку не удалось создать условия для эффективного обмена идеями».
Тем временем рекламная машина набирала обороты, настрой на радужные перспективы, созданный Минским, Маккарти и другими, добрался до средств массовой информации, на головы непросвещенных граждан из самых разных источников обрушились удивительные заявления. В 1961 году Минский писал: «Я настроен весьма оптимистично относительно интеллектуальных способностей машин, при нашей жизни они обойдут нас по уровню общего интеллекта». Через шесть лет он же продолжил: «Мы вступаем в полосу новой индустриальной революции, механизирующей интеллектуальные процессы. Пока это только начало, но уже сейчас машины могут играть в шахматы, работать с текстами на обычном языке, выполнять не только арифметические, а абстрактные логические операции и иные действия, прежде доступные только человеку. Через поколение, я уверен, мало что из интеллектуальной деятельности останется недоступным машинам, проблема создания искусственного интеллекта будет окончательно решена».
Опережая Минского, буквально через пару месяцев после Дартмутского семинара, в публичном выступлении, Герберт Саймон, презрев проявленное к нему там холодное отношение, поделился следующим утверждением, ставшим самым абсурдным из всего сказанного им впоследствии: «Я не ставлю своей цель удивить или шокировать вас, но подводя итог, могу смело утверждать, что мы входим в мир, где машины смогут учиться, думать и созидать. Более того, их способность к токого рода действиям будет постоянно возрастать и со временем достигнет уровня, при котором станут неизбежными проблемы совместного существования машин с человеком во всех традиционных для него сферах деятельности». В 1965 он же продолжил: «Через 20 лет машины смогут делать любую работу, которую сейчас делает человек».
Сегодня у любого, пребывающего в добром здравии и в здравом уме, не укладывается в голове, как человек, получивший в 1978 году Нобелевскую премию, был столь опрометчив в своих прогнозах. Марвин Минский, абсолютный лидер Symbolic AI, в 1970 году, имея к тому времени почти десятилетний не слишком удачный опыт, продолжал рисовать светлые картины будущего: «Через 3–5 (!) лет у нас будет машина с интеллектом, равным способностям среднего человека».
Даже Маккарти, изначально отличавшийся большим трезвомыслием, чем его ближайшие соратники, и тот сумел отличиться по части прогнозов. Разойдясь во взглядах с Минским, он в 1964 году переехал в Калифорнию и создал в Стэнфордском университете Лабораторию AI, где, в отличие от аналогичной лаборатории в МТИ, возглавляемой Минским, он предполагал заниматься прикладными вопросами, в том числе бинокулярным зрением, распознаванием речи и интеллектуальными системами управления и привода. Но даже и он поставил целью построение умной автономной машины за 10 лет! Для начала он предложил своим коллегам собрать все эти исследовательские темы в одном проекте и примерно за год создать робот по имени Shakey, о нем детальнее в главе 6. В качестве теста этот робот должен был без участия человека собрать цветной телевизор из набора комплектующих Heathkit Color TV Kit. Набор был куплен, но Shakey не смог выполнить задуманное ни через год, ни через пять, тогда, чтобы не пропадать добру, телевизор собрали руками и установили в зале, известном как Jacks Hall.
Справедливостям ради заметим, что в конце девяностых оба, и Минский, и Маккарти признали неоправданным свой оптимизм на старте, но как-то вынужденно и неохотно, объясняя неудачи ссылками на нехватку финансирования. О каких деньгах могла идти речь, если теперь они оценивали срок, необходимый для достижения уровня HLMI, аж четырьмя или даже пятью столетиями (!), а отнюдь не нескольким десятком лет. Удивительно, что, увеличив срок на 2 порядка, они не испытали ни малейшего смущения.
Основоположники символьного подхода сознательно не замечали важности материальной стороны AI. Убеждение во второстепенности инженерии было сформулировано Хансом Моравеком в форме тезиса, получившего название «парадокс Моравека». Этот парадокс активно поддержал Минский. Моравек утверждал, что для сложных мыслительных процессов требуются относительно небольшие вычисленные мощности, и напротив, для автоматизации сенсомоторных операций требуются огромные вычислительные ресурсы: «Относительно легко довести компьютер до уровня компетенции взрослого человека в таких задачах как тест на интеллект или игра в шашки, однако сложно или невозможно достичь навыков годовалого ребенка в задачах восприятия или мобильности». Почему он принял за истину такого рода убеждение и почему с подачи Минского эту спорную мысль называют парадоксом?
Не все поддались на обещания скорых результатов, только несколько ученых сумели сохранить трезвый взгляд. Среди них был Джозеф Вейценбаум, автор программы ELIZA, он предупреждал об ошибочности отождествления естественного и искусственного разума, основываясь на сравнительном анализе фундаментальных представлений психологии и на наличии принципиальных различий между человеческим мышлением и информационными процессами в компьютере.
О целесообразности переориентации научного сообщества со стремления наделить машины человеческими качествами на обеспечение более продуктивного взаимодействия человека с компьютером писал Джозеф Ликлайдер, психолог, вошедший в историю своей ролью в создании интернета. Ликлайдер был руководителем отдела методов обработки информации (Information Processing Techniques Office, IPTO) – подразделения ARPA, курировавшего разработку Глобальной сети. Ликлайдер автор знаменитой статьи «Симбиоз человека с машиной» (Man-Computer Symbiosis, 1960), ставшей своего рода идеологическим базисом для создания компьютерных сетей, в ней проповедуется совершенно естественное для сегодняшнего дня прагматичное отношение к машине.
Может показаться странным, но в 60-е годы способность компьютера, играть в шахматы, сочинять музыку или выполнять перевод с иностранного языка казалась гораздо более важной, чем умение решать те многочисленные и разнообразные прагматические задачи, для которых он используется сегодня в 99,99 % случаев. Нужен был кто-то, кто мог изменить цели и по-иному расставить приоритеты, и этим кем-то оказался психофизиолог Джозеф Ликлайдер. Он предложил направление, им же названное interactive computing, где во взаимодействии с человеком машине отведена вспомогательная роль. Через пару лет Даг Энгелбьарт уточнил роль компьютера – усиление человеческого интеллекта (augmenting the human intellect).
В статье Ликлайдера находим: «Задача состоит в том, чтобы обеспечить симбиотическое партнерство человека и машины, где человек ставит цели, формулирует гипотезы, определяет критерии и дает оценки, а на компьютер возлагается рутинная часть работы, способствующая повышению продуктивности человека». Эта мысль Ликлайдера остается актуальной по сей день: с внедрением новых технологий повышается уровень взаимодействия, в компетенцию машины переходят те рутинные функции, которые прежде мог выполнять только человек.
Критические взгляды таких ученых, как Вейценбаум и Ликлайдер, с одной стороны, и отсутствие практических результатов с другой, не могли остаться незамеченными. Была, правда, надежда на системы автоматизации перевода MT, но и они не оправдывали ожиданий. Для того чтобы сравнить обещанное в этой области с реальностью в 1964 году правительство США создало специальный комитет ALPAC (Automatic Language Processing Advisory Committee), его составили семь ученых, принадлежавших к разным направлениям, в том числе и те, кто серьезно занимался проблемами МТ. Наиболее критично был настроен Энтони Этингер (Anthony Oettinger, 1929), написавший диссертационную работу на тему автоматизации составления словарей еще в 1954 году и понимавший реальную сложность задачи МТ. Эттингер автор термина компьютерные коммуникации, был консультантом по высадке на Луну «Аполлона», президентом Ассоциации вычислительной техники (ACM), участвовал в работе разведывательного сообщества. Лингвистам хорошо известна его фраза, ставшая каноническим образцом неоднозначности живого языка «Time flies like an arrow; fruit flies like a banana» (Время летит как стрела, а фруктовые мухи любят бананы). В первом употреблении flies переводится глаголом летит, а во втором существительным муха, этот пример демонстрирует ограниченность тривиальных систем MT. В своем отчете, подготовленном к 1966, году ALPAC скептически оценил сделанное и перспективы подхода «слово-в-слово», он констатировал необходимость серьезных академических исследований. Это решение критическим образом повлияло на отношение военных к AI в целом, не только к MT, и стало первым импульсом к сокращению финансирования, близилась «первая зима AI».
Свою особую роль в судьбе AI сыграло правительство Великобритании. Обеспокоенное ситуацией неопределенности, оно в 1973 году обратилось за консультацией к специалисту в области прикладной математики Джеймсу Лайтхиллу, не связанному напрямую с AI, и предложило дать объективную оценку происходящему. Лайтхилл провел всестороннее исследование, проштудировал доступные источники и побеседовал с 52 (!) наиболее известными экспертами в области AI, классифицировал полученные данные, выполнил анализ и сделал прогноз на следующие 25 лет. Отчет официально называется Lighthill Report: Artificial Intelligence.
Лайтхилл начал с анализа статус-кво, разделив всю существовавшую на тот момент деятельность в области AI на три направления – A, B и C по специфике выполняемой в этих направлениях работы.
• A – Advanced Automation (продвинутая автоматизация), сюда он включил все, что так или иначе связано с разработкой машин, способных заменить человека в самом широком смысле этого слова. Направление А он в свою очередь разделил на два канала: один – назовем его A1 – индустриальные и военные приложения, другой – приложения AI к математике и науке. Первый реализуется с применением логических, а не только, как прежде, арифметических, способностей компьютеров для совершенствования систем и процессов управления, а также при разработке таких вещей как распознавание печатных текстов, изображений, на криптографию и на тому подобные вещи, которые сегодня стали естественными составляющими окружающей среды. Второй канал A2 – это доказательства теорем, машинный перевод и другие задачи, которые можно отнести к HLMI, то есть к машинному разуму человеческого уровня
• C–Computer-based CNS (воспроизведение на компьютере центральной нервной системы), в основе которой лежат теоретические исследования в области нейрофизиологии и психологии. Слово теоретические подчеркивает тот факт, что тогда это были не попытки моделировать реальную работу нервных клеток, а создание теоретических моделей мозга на основе общих принципов, известных из нейрофизиологии. Этот направление развивают не биологи, а математики, вкладывающие в свои модели полученное ими представление о работе мозга. Сегодня мы называем этот подход коннекционистским.
• B – Building Robots (создание роботов). Лайтхилл еще использует для него название Bridge activity, то есть объединенная деятельность направлений A и B с целью создания разумных машин-роботов.
Разобрав в первой части состояние дел во всех трех направлениях, автор отчета переходит ко второй части, которую он назвал Past disappointments, то есть разочарования прошлым. В ней он констатирует, что разочарование постигло как тех, кто работал по направлению A, так и тех, кто избрал направления С и B. Реальные достижения в автоматизации с использованием AI не идут ни в какое сравнение с успехами традиционных автоматизированных систем управления, достаточно представать сложность и успешность систем управления в космической индустрии, в авиации и т. д. Достижения по части перевода и доказательства теорем не идут ни в какое сравнение с тем, что делает человек. Столь же критически Лайтхилл оценивает положение в направлениях C и B.
Его основной вывод заключался в признании явного несоответствия уровня притязаний тех специалистов, которые занимаются AI, тому, на что они способны, накопленному ими научному багажу и потенциалу доступных им технологий. Общий тон отчета по-английски не категоричен, он скорее предупреждающий, чем отрицающий, призывает к трезвости в оценке сложившейся ситуации. Доклад заканчивается прогнозом на следующие 25 лет и предостерегает от излишнего оптимизма. Руководствуясь рекомендациями Лайтхилла, Британское правительство отказалось от идеи дополнительного экстренного финансирования AI, позволив событиям развиваться естественными темпами.
Представление отчета публике приняло форму открытой дискуссии в Палате Общин, транслировавшийся по каналу BBC. На роль оппонента был приглашен не кто иной как автор термина AI Джон Маккарти. Доступная в Сети полуторачасовая запись этой акции, интересна не только по содержанию, но и по форме, ее легко найти в YouTube и на официальной странице отчета. Обычно критику, содержащуюся в этом документе, рассматривают как одну из главных причин наступления первой зимы AI, но это не совсем так. Отчет констатирует факты, его можно сравнить с медицинским анализом, вскрывающим реальное положение дел, которое не соответствовало представлению заинтересованной стороны. Поведение Маккарти на слушаниях выглядит по меньшей мере странно, он не смог ничего противопоставить безукоризненно точным доводам Лайтхилла, продемонстрировав перед камерой удручающую беспомощность. Показательно, что только лет через 8–10 Маккарти довольно вяло прокомментировал свое участие в этих дебатах. Есть выражение «must read», то есть «обязательно к прочтению», про эту видеозапись можно сказать, что она «обязательна к просмотру».
Несмотря на то что в 60–70-е годы все работы, связанные с AI, были сосредоточены всего в трех местах: поначалу только в МТИ, после переезда туда Маккарти еще и в Стэнфордском университете, а позже и в Университете Карнеги – Меллона, работавшей в них относительно немногочисленной команде удалось привлечь к себе и своей деятельности немыслимое внимание со стороны правительства США. Они не только давали многочисленные обещания о скорой готовности AI, но к тому же сулили неизбежные социальные потрясения, которые вызовет в близком будущем внедрение AI. Запуганная Минским и его командой администрация президента Джона Кеннеди начала, а его преемника Линдона Джонсона завершила создание меморандума о тройной угрозе AI обществу (The Triple Revolution), с описанием прогнозируемых опасностей по трем направлениям: первое – автономные средства вооружения, второе – сокращение занятости и третье – нарушение гражданских прав. Это был первый из бесконечной череды апокалиптических прогнозов, предвещающих чудовищную опасность AI для общества. Особую обеспокоенность проявила весьма влиятельная в те годы организация «Центр изучения демократических ценностей» (Center for the Study of Democratic Institutions), среди тех, кого эти угрозы волновали, оказались многие демократически ориентированные персонажи, в том числе Мартин Лютер Кинг.
Однако к середине семидесятых стала очевидной несущественность всех этих угроз и спекуляций, стало ясно, что все страшилки AI были инспирированы желающими получить финансирование. Даже такой верный ученик Минского, как Ханс Моравек, писал: «Многие исследователи оказались в паутине неоправданных ожиданий. Их начальные предложения, адресованные ARPA, были слишком оптимистичны. Но, осознав одну ошибку, из желания остаться на плаву они совершали следующую и попадали в порочный круг – обещали все больше, понимая, что и эти обещания не будут исполнены». Моравек открыто признал, что ARPA и администрация США были введены в заблуждение (duped). А далее случилось неизбежное, наступило отрезвление, а вслед за ним отказ от щедрого финансирования с неизбежным итогом – началась Первая зима AI. Оказалось, что за 20 лет были попусту растрачены колоссальные средства, но ни одно (!) из обещаний первой волны AI не было реализовано. С этого момента обещания ученых больше ничего не значили для тех, кто им давал средства, проповедники AI вышли из доверия. Эдвард Фейгенбаум, в свое время лучший ученик Герберта Саймона, высказался следующим образом: «Рай закончился и началась реальная жизнь. AI перестал быть многообещающей технологией и превратился в рискованное дело».
В отличие от энтузиастов первой волны AI тот же Эдвард Фейгенбаум (Edward Feigenbaum, 1936) не ограничился простым признанием неудач, напротив, он сделал из них выводы и разработал собственный план по спасению AI, состоящий из двух частей.
• Техническая часть. Новый подход получил название экспертные системы (Expert Systems, ES). Суть его в отказе от любых попыток прямого наделения машины разумом, способностью решать общие задачи, вместо этого он сменил ориентацию на поиск подходов, во-первых, к тому, как по образу и подобию баз данных (СУБД) создавать базы знаний, накопленных экспертами в тех или иных прикладных областях науки, медицины и других и, во-вторых, создавать соответствующие средства, обеспечивающие машине способность оперировать этими знаниями.
• Финансирование. Фейгенбаум решил выйти из-под зависимости от военных и найти заинтересованных в коммерческих приложениях AI.
Предпосылкой к плану создания ES был проект по эвристическому программированию (Stanford Heuristic Programming Project), которым он руководил в конце шестидесятых. В нем Фейгенбаум отказался от методов, разработанных Ньэллом и Саймоном для решения общих логических задач, в пользу работы с отчужденными от человека и формализованными знаниями, сохраняемыми в базах. По замыслу Фейгенбаум база знаний (knowledge base, KB) – это аналог базы данных, содержащий информацию о человеческом опыте и знаниях. Для хранения знаний служат некие онтологии, так странно были названы описания, состоящие из множества объектов, представления знания и множества связей, объединяющих понятия и их отношения. Эта с трудом понимаяемая вещь не имеет ничего общего с понятием онтологии в философии.
В короткий срок в Стэнфордском университете были созданы первые экспериментальные ES. Одна из них, Mycin содержала назначения лекарств по симптоматике, а другая, Dendral – ориентирована на приложения в области органической химии. Фейгенбаум был убежден, что «сила этих интеллектуальных систем в знаниях, которыми они обладают, а не в заложенных в них алгоритмах и методах логического вывода».
За свою деятельность Фейгенбаум получил титул «отца экспертных систем», но выработанные им принципы создания ES остаются модификацией символьного подхода к AI, все тот же «сверху-вниз» по классификации Тьюринга. Суть его предложения сводится к тому, что накопленные людьми-экспертами знания некоторым способом закладываются в машину в предположении о том, что после этого машина окажется эффективнее человека в процессе оперирования этими знаниями. Предполагалось, что наибольший эффект будет достигнут в финансовом планировании, в медицинской диагностике, в геофизических исследованиях и других областях. Без излишних сомнений началась активная коммерциализация ES. В который раз проявилась вера в чудо, в 1984 году номер журнала Business Week вышел под лозунгом «AI пришел» (AI: It’s Here), вот отрывок: «Мы построили замечательный мозг, мы можем программировать человеческие знания и закладывать их в компьютер. Наконец AI достиг своей зрелости».
В середине 80-х ES достигли пика популярности, их ввели в университетские курсы и более половины крупных компаний, входящих в Fortune 500, пытались внедрить их в свой бизнесе. Лидером нового направления стала Digital Equipment Corporation (DEC), занимавшая вторую позицию в компьютерном мире после IBM, известная своими компьютерами PDP и VAX. Создаваемым здесь ES была предназначена скромная роль рабочих лошадок для тех случаев, когда человеку было трудно справляться с большими объемами рутинных знаний. Например, для совершенствования работы отделов продаж в DEC была создана ES XCON, предназначенная, как следует их ее названия, на роль «эксперта конфигураций» (eXpert CONfigurer). Он служил для задач комплектации поставляемых компанией компьютеров. Потребность в такой системе объяснялась тем, что разнообразие заказываемых конфигураций было настолько велико, что человеку с его способностями было сложно добиться согласованности поставок, часто возникали ошибки, требовались средства автоматизации. Поначалу в систему было заложено 750 правил, но со временем их число дошло до 2500. Система XCON тиражировалась вплоть до 1993 года, но со временем стало ясно, что затраты на поддержку систем этого класса оказываются выше, чем приносимая ими прибыль. По этой причине от ES отказались не только в DEC, но и в других компаниях. Однако некоторые следы ES сохранились до наших дней, они оказались воплощенными в бизнес-приложениях компаний SAP и Oracle.
Как ни странно, но самым серьезным критиком ES оказался Джон Маккарти, он совершенно справедливо называл главным дефектом экспертных систем невозможность наделить их здравым смыслом. Во многих случаях предлагаемые ES решения оказывались абсурдными. Маккарти привел в качестве примера рецепт, выписанный экспертной системой MYCIN, он действительно обеспечил бы победу над болезнью, но попутно убил больного. Крах ES обычно связывают со сложностью и трудоемкостью поддержания базы знаний, но при этом забывают об одно важном факторе – о случившейся смене компьютерной парадигмы, о замене централизованных систем на базе мэйнфреймов и миникомпьютеров клиент-серверными конфигурациями, где человек мог работать в интерактивном режиме на ПК.
Мир пошел по пути предсказанному Ликлайдером – создание трехзвенных систем управления «сервер – ПК – человек», где сервер служит для хранения и обработки данных, ПК предназначен автоматизации рутинной работы и для интерактивного взаимодействия человека с машиной в процессе принятия решений и других осмысленных действий. Это оказалось гораздо удобнее и проще.
Наибольших практических успехов по части ES достиг Дуглас (Даг) Ленат. Он начал с того, что в качестве диссертационной работы написал на языке Lisp «Автоматизированного математика» (Automated Mathematician, AM) одну из первых систем класса discovery systems, так назвали системы, предназначенные для открытия новых знаний. По следам AM была им же написана программа Eurisko, ее название переводится с греческого как «отыскиваю» или «открываю». Она представляла собой набор эвристик с элементами самообучения, они изменялась после того, как уточнялись ранее созданные эвристики. Программа Eurisko оставила свой след в технологии проектирования электронных интегральных микросхем, где тогда существовала проблема слишком сложная для человеческого разума, человек не справлялся с проверкой вариантов многослойного размещения компонентов на подложке.
Золотым веком для экспертных систем и лично для Лената были 80-е годы, когда каждая крупная компания считала необходимым обзавестись своей экспертной системой. Ленату повезло больше других – его идеями заинтересовалось ЦРУ, оно обеспечивает ему финансирование до сих пор. Во всех опубликованных хрониках работ по экспертным системам можно найти упоминания о его проекте Cyc. История Cyc началась в 1983 году, когда Министерство обороны США анонсировало пятилетнюю программу Strategic Computing Program, управлять реализацией которой должно было агентство DARPA. Одной из созданных в рамках этой программы компаний была Cycorp, созданная Ленатом и его партнером адмиралом Робертом Инманом. В одном из интервью Ленат так определил предмет деятельности своей компании: «С моей точки зрения, AI – это попытка заставить компьютеры делать то, что требует интеллекта, например, медицинская диагностика, сочинение музыки, изобретение новых или использование по-новому старых устройств. Компьютеры должны находить ответы на сложные вопросы наподобие "Что это?", относя их, в частности, к таким явлениям, как военные или политические кризисы. Пока на эти вопросы ни компьютеры, ни программы ответить не могут, люди остаются единственными мыслящими существами на планете, но существующая ситуация вполне может измениться в ближайшие годы, машины могут стать разумными. Для этого они должны владеть совокупностью человеческих знаний, причем речь не идет только о научном знании. Cyc – это огромный репозиторий самых разнообразных знаний, которые могут показаться тривиальными. Например, мы знаем, но не задумываемся о том, что наполненный стакан стоит держать донышком вниз, а людей не стоит тревожить по ночам и т. д. Это настолько очевидные истины, что их даже не объясняют детям, они приходят к этим выводам сами, но компьютеру следует передать и эти знания, какими бы простыми они ни казались».
По некоторым источникам ЦРУ по-прежнему эксплуатирует Cyc, который насчитывает к настоящему времени до 10 миллионов статей. Недавно Лената назвали «одиноким творцом, пытающимся научить компьютеры понимать смысл». Его деятельность оценивают по-разному, немногие оставшиеся сторонники символьного подхода, сохраняют веру в его дело, те же представители следующего поколения, кто занят практическими задачами, решаемыми средствами машинного обучения, не проявляют к Сус никакого внимания. Сам Ленат скептически относится к машинному обучению и нейронным сетям, он уверен, что когда-нибудь он и дело его жизни еще будут востребованы.
Одной из самых последних разработок, которую можно отнести к ES, является машина, вычисляющая знания (computational knowledge engine), Wolfram|Alpha. Ее создал в 2009 году известный математик и удачливый предприниматель Стивен Вольфрам, он объявил, что его компания Wolfram Research подготовила систему, в которой реализован альтернативный подход к работе с информацией. В прессе сообщалось, что она сможет составить конкуренцию Google, но это продукт совершенно иного класса. Wolfram|Alpha не ищет страницы по ключевым словам. Вольфрам так ее охарактеризовал: «Alpha – не поисковая машина, а машина, дающая ответы на заданные ей вопросы». Сам Вольфрам публично не распространяется о технологиях вычисления знаний. Относительно Wolfram|Alpha Ленат сделал следующий вывод: «Поисковая система Google работает с данными, не вникая в них, основываясь на формальном соответствии. Моя система Cyc сможет дать глубокий ответ, если вы, в свою очередь, сможете ей задать вопрос и при этом попадете в ту область, которую она знает. Wolfram|Alpha представляет собой нечто среднее. Грядущие перспективы системы в сильной степени зависят от того, насколько продуктивным окажется идея формирования базы знаний силами самой компании, удастся ли с подобным сугубо проприетарным подходом противостоять открытому редактированию, принятому в Wikipedia и других сетевых энциклопедиях». Складывается впечатление, что не удалось, и сегодня Wolfram|Alpha известна только узкому кругу специалистов.
Окончательному подрыву авторитета AI заметно способствовало правительство Японии принятым им в 1982 году планом создания компьютеров 5-го поколения Fifth Generation Computer System (FGCS). Идеологом FGCS был профессор Кузухиро Фучи (Fuchi Kazuhiro 1936–2006). Он ставил целью превращение компьютеров из приспособлений для облегчения работы в системы, способные самостоятельно оперировать знаниями (Knowledge Information Processing Systems, KIPS). По его замыслу, FGCS, обладая специализированным программным обеспечением, должны были извлекать знания из баз данных и баз знаний, чтобы оперировать ими. В качестве первых задач были поставлены следующие: ввод текста под диктовку, что решило бы проблему ввода иероглифической записи, перевод с голоса, реферирование статей, поиск смысла и категоризация, а также задачи распознавания образов.
Качественное отличие этих компьютеров от традиционных, построенных на микропроцессорах с фон-неймановской архитектурой, заключалось в том, что FGCS-компьютеры должны были быть ориентированы на логическое программирование и предназначены для решения задач AI. Проект был ошибочен по целому ряду исходных положений: в нем не было функционального разделения на программное и аппаратное обеспечение, отсутствовало глубинное понимание сути AI. Десять лет упорного туда и десятки миллиарды долларов не принесли какого-либо позитивного результата. Программа закончилась провалом, так как не опиралась на чёткие научные методики, более того, даже её промежуточные цели оказались недостижимы в технологическом плане.
Современный AI сохраняет все то же название, которое придумал Джон Маккарти в 1956 году, но скрывает под ним совершенно иное содержание. Лингвисты называют такое явление «диахроническим сдвигом значения». Сегодня внимание сосредоточено не на мифических умственных способностях машины, а на прикладных аспектах AI (Applied AI), в итоге, практически все, что делалось прежде на протяжении предшествующих шестидесяти с лишним лет, приходится признать, как говорят зодчие, «бумажной архитектурой».
Английский термин visionary architecture, который можно перевести как «архитектура мечты» подошел бы точнее, поскольку он не несет свойственного русскому слову «бумажный» иронического оттенка. Основателем этого самостоятельного жанра утопической архитектуры был живший в XVII веке Джованни Пиранези. Рисунок на бумаге или бумажный макет позволяют творцу освободиться от физических и других ограничений. Неслучайно бумажная архитектура привлекала к себе тех, кто не мог творчески состояться в советское время. Когда нет возможности построить желаемое, архитектор творит на бумаге. Можно с уверенностью сказать, что знакомство с лучшими образцами старинной и современной бумажной архитектуры доставит эстетическое удовольствие.
Сравнение старого доброго символьного AI с бумажной архитектурой не следует рассматривать как унижение тех людей, которые отдали свои силы и талант бумажному AI, на самом деле у них не было иной возможности. Вплоть до появления теорий машинного обучения и специализированных серверов на графических процессорах общего назначения GPGPU (General-purpose computing on graphics processing units) или, как теперь принято говорить, просто GPU для реализации нейронных сетей, не было компьютерной платформы для реализации AI.