Глава 6 Почему Истинный творец всего — не машина Тьюринга

Как-то утром летом 2016 года одна строка, напечатанная в престижном американском журнале Scientific American, мгновенно окончательно разбудила меня и привела в чувство. Она гласила: «Искусственные синапсы могут позволить суперкомпьютерам имитировать человеческий мозг».

Корейский материаловед Тае-Ву Ли сообщил журналистам, что теперь, когда ученые научились производить крохотные транзисторы, способные имитировать синапсы между нейронами, вот-вот будет реализована давнишняя мечта о построении машины, напоминающей мозг. Источая энтузиазм, Ли рассказал, что это «может привести к созданию более качественных роботов и самодвижущихся машин, извлечению данных, медицинской диагностике, анализу фондовых рынков и другим умным интерактивным системам и машинам в будущем». В статье говорилось, что благодаря примерно квадрильону связей между 100 миллиардами нейронов (реальное число ближе к 86 миллиардам) человеческий мозг может выполнять порядка 10 квадрильонов операций в секунду. Для сравнения: на тот момент самый быстрый в мире китайский суперкомпьютер Tianhe-2 работал с максимальной скоростью 55 квадрильонов в секунду. Однако Tianhe-2 для работы нужно в миллион раз больше энергии, чем человеческому мозгу. Понятный энтузиазм Ли был связан с тем, что его последняя версия искусственного синапса нуждалась лишь в 1,23 фемтоджоуля энергии для одной синаптической передачи — около одной восьмой от того, что требуется человеческому синапсу. Поэтому Ли считал, что, если разместить примерно 144 таких искусственных синапса на четырехдюймовой пластине и соединить их проволокой диаметром 200–300 нанометров, ему с коллегами удастся сделать важнейший шаг в воспроизведении работы человеческого мозга. Для этого, как он сообщил, нужно лишь дождаться некоторых усовершенствований трехмерной печати, чтобы собрать из этих пластинок трехмерные структуры, — и тогда почти из ничего появится искусственный мозг, способный превзойти по вычислительной способности серое вещество нашего собственного мозга.

Мир не в первый раз услышал прогноз о скорейшем падении Истинного творца всего с его пьедестала; аналогичные заявления делались регулярно со времен промышленной революции. Понятное дело, ни одна из предыдущих попыток не приближалась к отметке 1,23 фемтоджоуля на синапс. Однако на протяжении более трех столетий, какой бы ни была самая передовая технология времени — паровые машины, механические устройства, электронные гаджеты и начиная с 1936 года сложные цифровые машины, включая суперкомпьютеры, состоящие из тысяч взаимосвязанных микропроцессоров, — обязательно находились те, кто пророчил скорое воспроизведение специфических способностей человеческого мозга искусственными устройствами.

И неизбежно все эти начинания с треском проваливались.

Тем не менее с началом информационной эры наметилось неуклонное распространение идеи о том, что цифровые компьютеры в конце концов превзойдут по способностям человеческий мозг. Иногда, если судить по горячности, с которой делаются эти заявления, возникает впечатление, что сторонники данной идеи считают свой прогноз почти божественным пророчеством и что ничто не остановит нас на пути его реализации в ближайшем будущем. Но даже несмотря на множество предсказаний футурологов, а также практиков и энтузиастов в сфере искусственного интеллекта, нет никаких конкретных подтверждений того, что нас вскоре ждет этот самый революционный технологический прорыв в истории человечества.

Вместо убедительных подтверждений часто, особенно в последнее десятилетие, нам предлагают достаточно наивный аргумент вроде того, с которого начиналась данная глава, заключающийся в том, что для воспроизведения сложных мыслительных способностей нашего мозга нам нужно лишь правильно соединить сотни миллионов похожих на нейроны и энергетически эффективных транзисторов, а затем нажать на кнопку «ВКЛ».

Я готов с этим поспорить.

Идею о том, что внутреннюю работу человеческого мозга можно свести к алгоритму и воспроизвести с помощью цифровой логики, следует рассматривать лишь в качестве очередного постмодернистского мифа, урбанистической легенды или примера из эпохи постправды — времени, когда ошибочное или ложное заявление, повторенное множество раз и широко распространенное в обществе, начинает восприниматься в качестве истины. Мысль о достижимости уровня сложности нашего мозга просто за счет монтажа чрезвычайно большого количества эффективных электронных элементов не только очень далека от реальности, но при глубоком анализе вообще не имеет шанса на успешное воплощение — ни сейчас, ни когда-либо.

Очень немногие из тех, кто верит в эту идею, перестали считать, что человеческий мозг является истинным создателем цифровых машин и программ, а не наоборот. Слепая вера в то, что созданная человеком технология обернется против своего создателя и превзойдет его, постулирует, что система любого рода (скажем, наш человеческий мозг) способна создать нечто более сложное, чем она сама! Однако сторонники этого тезиса, кроме бесконечного озвучивания своей почти религиозной убежденности, не могут достоверно объяснить происхождение этой избыточной сложности. Я считаю подобное предположение очевидно ложным, поскольку оно нарушает многие общепринятые логические теоремы, включая две теоремы Курта Гёделя о неполноте и более позднюю формулировку, названную теоремой сложности и предложенную аргентинско-американским математиком Грегори Хайтином. По мнению Хайтина, формальная система (такая как компьютерная программа) не может создать подсистему (другую программу), превосходящую ее саму по сложности. В более формальной версии, представленной Джоном Касти и Вернером Депаули в книге «Гёдель: Жизнь логики, разума и математики», теорема Хайтина о сложности формулируется так: существуют числа, имеющие такую сложность, что ни одна компьютерная программа не может их генерировать.

Очевидно, что совокупно труды Гёделя и Хайтина логически противоречат гипотезе о том, что если бы человеческий мозг был устройством компьютерного типа со сложностью X, он мог бы создать нечто (вроде сверхразумного искусственного устройства) с уровнем сложности выше X.

Поскольку эталоном в этом сравнении является цифровой компьютер, имеет смысл начать наш рассказ с возвращения к историческим корням этой удивительной машины. Любой современный цифровой компьютер представляет собой одно из множества возможных конкретных воплощений абстрактного вычислительного устройства, впервые предложенного британским математиком и логиком Аланом Тьюрингом в 1936 году. Этот ментальный конструкт, названный в его часть универсальной машиной Тьюринга (УМТ), и сегодня описывает функционирование любой цифровой машины — от портативного компьютера до самого мощного суперкомпьютера планеты. Универсальная машина Тьюринга работает на основании встроенной таблицы запрограммированных пользователем инструкций, последовательно считывая и оперируя символами с поступающей в машину пленки. По мере прочтения символов на пленке, последовательно одного за другим, машина Тьюринга использует внутреннюю таблицу инструкций (программу) для выполнения различных логических операций, а затем записывает результаты.

Звучит просто, не правда ли? Но, к лучшему или к худшему, большинство технологических прорывов последних восьмидесяти лет, включая появление самого революционного инструмента массовой коммуникации в истории нашего вида — интернета, можно рассматривать в качестве побочного продукта абстрактной ментальной игрушки, возникшей в глубинах разума гениального математика.

Идея о том, что все природные явления можно симулировать на цифровом компьютере, во многом почерпнута из своеобразной и ошибочной интерпретации так называемого тезиса Чёрча — Тьюринга, исходно сформулированного Тьюрингом и американским математиком Алонзо Чёрчем. По сути, этот тезис гласит, что, если известна серия строго определенных этапов решения конкретного математического уравнения или задачи (эта серия этапов называется алгоритмом), цифровой компьютер способен воспроизвести эту операцию и найти решение данного уравнения. Такое уравнение относят к исчислимым функциям.

Здесь-то и начинается путаница.

Исходная гипотеза Чёрча — Тьюринга относилась исключительно к вопросам, связанным с формальным математическим моделированием. Однако с тех пор многие авторы интерпретировали гипотезу Чёрча — Тьюринга в таком ключе, как если бы она устанавливала предел вычислений для всех природных явлений. В целом эти авторы считали, что ни одно физическое вычислительное устройство не может превзойти по способностям машину Тьюринга. Звучит безобидно, но, игнорируя тот факт, что вычисления по Тьюрингу относятся только к области формальной математики, мы рискуем породить множество проблем и ошибочных выводов. На самом деле, если задаться вопросом о том, является ли мозг человека или других животных просто машиной Тьюринга, мы обнаружим, что вычислительная теория Тьюринга предполагает серию допущений, исключающих ее прямое приложение к сложным биологическим системам, таким как мозг. Например, в машине Тьюринга представление информации является формальным (т. е. абстрактным и синтаксическим, как 1+1), а не физическим и семантическим, как в большинстве биологических систем. В таком мозге, как наш, особый тип информации — информация Гёделя — физически записывается в нервную ткань, из которой состоит центральная нервная система (см. главу 3). Семантический анализ показывает, что даже простая фраза типа «Да ты меня ограбил!» приобретает разные значения в зависимости от контекста: это может быть дружеская шутка или серьезное обвинение. Люди легко улавливают правильный смысл, но машина Тьюринга, основанная на битах, испытывает большие трудности при анализе такого предложения.

Тем не менее многие программисты и нейробиологи использовали тезис Чёрча — Тьюринга в качестве главного теоретического основания для предположения, что мозг любого животного, включая нас, может быть приведен к алгоритму и симулирован на цифровом компьютере. Эти ученые полагают, что успешный подход к использованию симуляций механических систем можно беспрепятственно распространить на изучение биологических систем, сложность которых намного превосходит сложность любого созданного человеком устройства. Эта философская позиция называется компьютационализмом: данный термин связывают с именем Хилари Патнэма, который предложил его в 1963 году в книге «Мозг и поведение», но затем его защищали многие другие философы, такие как Джерри Фодор. Критики компьютационализма рассматривают этот тезис исключительно в качестве мистической фантазии. Поскольку множество людей ныне считают, что мозг похож на цифровой компьютер, использование моего определения органического компьютера при обсуждении мозга животных приобретает в нашем контексте особый смысл.

В экстремальной форме компьютационализм не только постулирует, что весь спектр человеческого опыта можно воспроизвести и инициировать с помощью цифровой симуляции, он также подразумевает, что в ближайшем будущем благодаря экспоненциальному росту мощности компьютеров машины смогут полностью заменить мыслительные способности человека. Это последнее утверждение, высказанное Реем Курцвейлом и другими, называют гипотезой сингулярности. В книге «Эпоха духовных машин: когда компьютеры превзойдут человеческий разум» Курцвейл выдвигает радикальную версию тезиса Чёрча — Тьюринга: «Если проблема не решается с помощью машины Тьюринга, она также неразрешима для человеческого разума». Однако истоки такого видения восходят к 1940-м и 1950-м годам, когда несколько прежних коллег Клода Шеннона из Массачусетского технологического института, такие как Норберт Винер и Уоррен Маккалок, а также многие другие уважаемые ученые, среди которых был и Джон фон Нейман, начали шире смотреть на многие спорные вопросы, чтобы сформулировать совершенно новую парадигму для определения человеческого разума и процесса обработки информации человеческим мозгом. Это движение было названо кибернетикой и на протяжении следующего десятилетия или около того обеспечивало интеллектуальные основы и обоснования той сферы исследований, которую теперь называют сферой искусственного интеллекта.

Как пишет в своей великолепной книге «Как мы становимся постлюдьми» моя коллега из Университета Дьюка Н. Кэтрин Хейлс, эта группа провела серию встреч, названных конференциями Мэйси по кибернетике[14], чтобы создать совершенно новую сферу исследований. Они объединили теорию информации Клода Шеннона, модель Уоррена Маккалока с индивидуальными нейронами в качестве единиц обработки информации, новую архитектуру цифровых компьютеров на основе бинарной логики и цифровых сетей Джона фон Неймана и концепцию Норберта Винера о восприятии машин и человеческих существ в качестве представителей одного класса автономных самонаправляющих устройств. Хейлс пишет: «Результатом этого революционного предприятия стало не что иное, как новый способ восприятия человеческих существ. С этих пор людей стали воспринимать в первую очередь как обрабатывающих информацию субъектов, по сути напоминающих разумные машины».

Людей вдруг стали воспринимать так, как будто они состоят из огромного числа битов, и в таком случае их разум, историю жизни, уникальный перцептивный опыт и воспоминания, их вкусы и решения, любовь и ненависть, вплоть до составляющей их органической материи, могут воспроизвести (и в какой-то момент воспроизведут) машины. Как считали кибернетики, цифровые машины будущего смогут загружать, ассимилировать, повторять, воспроизводить по своему желанию и, главное, симулировать все, что делает человека человеком. Таких разумных машин еще не существовало в то время, когда проходили конференции Мэйси (конечно же, их нет и до сих пор), но, как и современные пророки от мира искусственного интеллекта, некоторые участники кибернетического движения, по-видимому, считали, что это был лишь вопрос времени и, главным образом, вопрос уровня развития технологии. В этом контексте возникло много исследовательских программ (в том числе программа «сильного искусственного интеллекта», которая не смогла реализовать предшествовавшие оптимистические предсказания), нацеленных на создание аналогичных мозгу машин или по меньшей мере на симуляцию физиологического поведения мозга животного с помощью суперкомпьютеров (такие проекты, как Brain Project компании IBM и Human Brain Project Европейского союза). В 1968 году руководитель лаборатории искусственного интеллекта в МТИ Марвин Минский заявил: «За одно поколение мы получим разумные компьютеры, как HAL в фильме „2001“». Понятно, что его предсказание не сбылось, и недавно Минский объявил, что программы по симуляции мозга имеют очень небольшой шанс на успех.

Как рассказывает Хейлс в своей книге, довольно интересно, что Клод Шеннон не был склонен экстраполировать свое довольно узкое определение информации на другие сферы, в которых происходит обмен информацией. Как показала история, эта осторожность Шеннона была абсолютно оправданна. Вообще говоря, его определение информации никоим образом не учитывало смысла, контекста, семантики или, если уж на то пошло, особенностей среды. Более того, основываясь исключительно на бинарной логике и жестком цифровом синтаксисе, что невероятно облегчало применение алгоритмов в цифровых машинах, Шеннон также отделил свою идею от богатых в семантическом плане и зависящих от контекста процессов человеческого мышления и функционирования мозга.

В целом нейробиологи полагают, что высшие неврологические функции и животных, и человека проистекают из сложных эмерджентных свойств мозга, хотя происхождение и природа этих свойств остаются спорными. Эмерджентными свойствами обычно называют общие признаки системы, не определяющиеся ее индивидуальными компонентами. Такие эмерджентные свойства встречаются в природе повсеместно — там, где элементы взаимодействуют и сливаются между собой с образованием единого целого, как стая птиц, косяк рыб или фондовый рынок. Такие системы называют сложными. Таким образом, изучение сложных систем стало центром внимания в широком диапазоне дисциплин — от естественных наук, таких как химия и биология, до общественных наук, включая экономику и социологию.

Мозг животного — пример архетипа сложной системы. Следовательно, поведение мозга определяется разными уровнями организации мозга: его молекулярным, клеточным и сетевым строением вплоть до всей нервной системы в целом. Поэтому для точного моделирования мозга конкретного животного мы должны включить в описание его сложности обмен между центральной нервной системой и внешними элементами, такими как окружающая среда и мозг других существ, поскольку все они также взаимодействуют с конкретным изучаемым мозгом и непрерывно его модифицируют.

Как мы видели в главе 4, мозг пластичен; в отношении человеческого мозга информация обладает причинной эффективностью, изменяя конфигурацию его структуры и функцию, постоянно рекурсивным образом интегрируя информацию в сгусток органического вещества, формирующего нашу центральную нервную систему. Именно по этой причине нейробиологи обычно называют такие системы, как человеческий мозг, сложными самоадаптирующимися системами. Важно, что характеристики сложной самоадаптирующейся системы определяют нашу способность точно предсказывать или симулировать ее динамическое поведение. Например, в начале XX века гениальный французский математик Анри Пуанкаре показал, что эмерджентные поведенческие реакции системы, состоящей всего из нескольких взаимосвязанных элементов (не говоря уже о десятках миллиардов чрезвычайно тесно связанных нейронов), невозможно формально предсказать путем анализа ее составляющих. В такой сложной системе, как мозг, отдельные элементы динамически взаимодействуют друг с другом, создавая новые поведенческие реакции системы в целом. В свою очередь, эмерджентные реакции напрямую влияют на различные элементы системы. И поэтому сложный мозг животных, включая наш собственный, необходимо рассматривать в качестве интегральной системы — определенного континуума, который обрабатывает информацию как единое целое, в котором невозможно отделить аппаратуру от программного обеспечения или память от процессора.

В одном из наиболее примечательных пассажей в своей книге Хейлс рассказывает о том, как на конференциях Мэйси британский ученый Дональд Маккей активно защищал идею о том, что получение информации изменяет образ мыслей получателя. В результате этого явления причинной эффективности, по мнению Маккея, адекватная теория информации не должна исключать роль смыслового фактора. Поэтому Маккей указывал на необходимость учитывать ментальное состояние получателя и количественное воздействие информации, о чем, по мнению Хейлс, мы до сих пор не можем даже мечтать.

Путь формирования, представления, сохранения и использования информации в мозге животного (см. главу 3) в значительной степени отличается от того, каким специалисты в области информатики обычно представляют себе путь, посредством которого различные материальные воплощения универсальной машины Тьюринга, такие как цифровые компьютеры, осуществляют вычисления с помощью алгоритмических программ, отделенных от аппаратурного комплекса. В этом новом контексте, когда действия мозга рассматриваются с математической и вычислительной точки зрения, эмерджентные поведенческие реакции не воспроизводятся полностью с помощью классических, синтаксически абстрагированных программных манипуляций на фиксированной аппаратуре. Иными словами, богатую динамическую семантику, характеризующую функции человеческого мозга, нельзя свести к ограниченному алгоритмическому синтаксису цифровых компьютеров. Это объясняется тем, что эмерджентные свойства и процессы, одновременно затрагивающие разные уровни физической организации мозга и протекающие со специфической координацией миллиардов нисходящих и восходящих взаимосвязанных событий, нельзя эффективно рассчитать в контексте тезиса Чёрча — Тьюринга. Их можно лишь временно аппроксимировать путем цифровой симуляции. И это очень важный момент, поскольку, если мы соглашаемся, что мозг ведет себя как интегральная и самоадаптирующаяся сложная система, цифровые аппроксимации немедленно отклоняются от естественного поведения реального мозга. Из-за этого отклонения, каким бы мощным ни было конкретное цифровое воплощение машины Тьюринга (даже в случае суперкомпьютера Tianhe-2 с его 55 квадрильонами операций в секунду), его внутренняя логика не позволяет с помощью стандартных стратегий моделирования полностью воспроизвести сложное динамическое богатство, обеспечивающее исключительные функции и способности живого мозга, включая человеческий.

В нашей с Рональдом Сикурелом монографии мы выдвинули еще несколько доводов против возможности сведения активности мозга к действию машины Тьюринга. Мы сгруппировали доводы против этой гипотезы в три основные категории: эволюционные, математические и вычислительные.

Эволюционный довод подчеркивает фундаментальное различие между организмом и механизмом, таким как цифровой компьютер. Этот момент часто игнорируют, хотя он является одним из важнейших в данной дискуссии. Механизмы проектируют и собирают в соответствии с заданным планом или шаблоном. Вот почему механизм можно закодировать алгоритмом, симулировать на машине и, следовательно, подвергнуть обратной разработке.

Организмы же возникают в результате прохождения огромного количества эволюционных этапов на многих уровнях организации (от молекул до целых организмов), которые не подчиняются какому-либо заранее заготовленному плану или продуманному шаблону. Скорее эти стадии реализуются в результате серий случайных событий. Таким образом, организмы тесно связаны с окружающей средой, поскольку непрерывно изменяются при изменении параметров внешнего мира. Учитывая постоянно изменяющийся характер внешней среды, эта задача решается лишь при постоянном использовании данных, собираемых организмами в отношении самих себя и окружающего мира для переформатирования и оптимизации органического субстрата, который определяет сущность живого организма и из которого возникает созданная организмом информация. Без этого непрерывного процесса создания информации организм постепенно разлагается и умирает. Как мы видели в главе 3, смерть наступает тогда, когда организм больше не способен полностью поддерживать состояние гомеостаза, что приводит к термодинамическому равновесию и распаду всей системы.

Все вышесказанное, очевидно, справедливо и для мозга. Поэтому идея о независимой от субстрата, отделенной информации неприменима в тех случаях, когда речь идет о ее потоке внутри организма. В типичной машине Тьюринга поток информации обеспечен программой или входящей перфолентой, которые не зависят от самого аппарата, определяющего физическую структуру цифровой машины, тогда как в случае организма, и особенно мозга, информация буквально записывается в органическое вещество, и поток информации направляется через целый ряд уровней организации. Кроме того, производимая организмом информация постоянно модифицирует создающий ее материальный субстрат (нейроны, дендриты, дендритные шипики или белки). Этот уникальный процесс связывает органическое вещество и информацию в неприводимую единую сущность. Таким образом, гёделевская информация в организме зависит от субстрата, и этот вывод подтверждает интегральную природу головного мозга и очевидным образом отражает непреодолимые препятствия в применении дихотомии «программа — инструмент» к центральной нервной системе животного. На самом деле эти различия четко показывают, почему мозг следует рассматривать в качестве совершенно особого типа вычислительной системы — органического компьютера.

Джон Сёрл приводит соответствующий пример, когда говорит, что можно имитировать химическую реакцию превращения двуокиси углерода в сахар, но без интеграции информации эта симуляция не приведет к естественному процессу фотосинтеза. Поддерживая эту точку зрения, Пригожин настаивал, что диссипативные системы, такие как мозг животных, существуют вдали от термодинамического равновесия. Такие системы характеризуются неустойчивостью и временной необратимостью обработки информации. В целом это не позволяет применять в отношении организмов стандартные детерминистские объяснения причинности. Организмы можно описывать лишь статистически, в терминах вероятности, как результат процесса, эволюция которого во времени необратима ни на каком уровне. Функция же машины Тьюринга, как показал Чарлз Беннеттл, логически обратима на каждом этапе — просто за счет сохранения промежуточных результатов. Это положение, обычно называемое аргументом необратимости, ранее было выдвинуто Сельмером Брингсйордом и Майклом Зензеном.

Анализируя один аспект этой временно́й необратимости, американский палеонтолог и эволюционный биолог Стивен Джей Гулд предложил мысленный эксперимент, прекрасно иллюстрирующий дилемму, стоявшую перед теми, кто верил в возможность «обратного проектирования» сложных биологических организмов с помощью цифровой детерминистской платформы. Гулд называл этот эксперимент «пленкой жизненного опыта» и писал о том, что если бы удалось смотать и запустить заново гипотетическую пленку с записью всех эволюционных событий, приведших к появлению человеческого вида, вероятность получить ту же последовательность событий, которая привела к появлению человеческой расы, была бы равна нулю. Иными словами, поскольку эволюция жизни определяется длиннейшей чередой случайных событий, никогда ранее не происходивших на Земле, надеяться на воспроизведение точно такой же ситуации, которая миллионы лет назад дала начало развитию человечества, не приходится. Этот аргумент подкрепляет сделанное мной в начале книги заявление о том, что мозг Спока, вероятнее всего, будет значительно отличаться от нашего. Следовательно, его космологическое представление о вселенной тоже будет другим.

Важно заметить, что логика в основе эксперимента с пленкой жизни строго указывает на невозможность использования детерминистских и обратимых моделей для воспроизведения процесса, возникающего в результате последовательности случайных событий. Поэтому любая модель, реализуемая на машине Тьюринга (являющейся детерминистским устройством), цель которой заключается в отслеживании эволюции нашего вида, очень быстро отклонится от реального исторического пути формирования человечества. По сути, это означает невозможность обратной разработки того, что изначально не было преднамеренно разработано. Таким образом, как бы парадоксально это ни звучало, сторонники идеи обратной разработки, которую некоторые считают самым передовым достижением современной биологии, не могут понять, что на этой теоретической позиции они напрямую ставят под сомнение самую долговечную теорию, когда-либо существовавшую в их собственной сфере науки, — дарвиновскую теорию эволюции за счет естественного отбора. Более того, признание идеи обратной разработки полностью согласуется с тем, что в процессе формирования человека и его мозга была задействована некая версия разумного проектирования.

До недавнего времени никто не признавал эволюционных возражений против создания цифровой реплики человеческого мозга, но вот логические основания описанных ниже математических и вычислительных возражений до некоторой степени основаны на работах 1930-х годов самого Тьюринга и другого гения — австрийского математика и логика Курта Гёделя. Как считал Гёдель, его знаменитые теоремы о неполноте четко и ясно указывали, что человеческий разум преодолевает ограничения машины Тьюринга, а алгоритмические схемы не могут полностью описать возможности человеческого мозга. Как писал Гёдель, «мои теоремы лишь показывают, что механизация математики, т. е. устранение разума и абстрактных сущностей, невозможна для установления четких основ. Я не показал, что существуют неразрешимые для человеческого мозга вопросы — лишь то, что не существует машин, которые могут разрешить все вопросы теории чисел».

В своей знаменитой Гиббсовской лекции[15] Гёдель также заметил, что его теоремы о неполноте подразумевают, что человеческий мозг намного опережает мощность машины Тьюринга: на самом деле пределы формальной системы не влияют на человеческий мозг, поскольку центральная нервная система может генерировать и устанавливать истину, не доказуемую соответствующей формальной системой, т. е. алгоритмом машины Тьюринга. Первая теорема о неполноте в формулировке Роджера Пенроуза проясняет этот момент: «Если вы считаете, что конкретная формальная система непротиворечива, вы также должны признать, что в этой системе есть истинные утверждения, справедливость которых не может быть доказана формальной системой».

Роджер Пенроуз настаивал, что аргументы Гёделя ясно указывают на некоторое ограничение цифровых компьютеров, не существующее для человеческого разума. Поддерживая позицию Пенроуза, Сельмер Брингсйорд и Константин Аркудас представили очень убедительные доказательства в подтверждение тезиса Гёделя, показав, что человеческий разум работает как некий «гиперкомпьютер», поскольку человеческий мозг имеет такие способности (например, может признавать истинность какого-то утверждения), которые нельзя симулировать с помощью алгоритма на машине Тьюринга[16].

Непосредственный вывод из всех этих утверждений ясен: полный репертуар человеческих ментальных активностей не сводится к цифровым программным алгоритмам. Эти сущности не поддаются вычислению. Соответственно, главный принцип гипотезы сингулярности полностью опровергается тем простым фактом, что цифровые машины никогда не справятся с тем, что называют аргументом Гёделя.

Для выдвижения соответствующих доводов не обязательно опираться только на логику. В книге «Релятивистский мозг» мы с Рональдом перечислили математические и вычислительные препятствия для принятия тезиса о скорой победе цифровых машин над человеческим мозгом. Ниже представлен краткий перечень наших доводов.

Цифровая симуляция основана на многих предвзятостях и предположениях, таких как способ подачи информации. Кроме того, на этом пути нужно преодолеть множество различных препятствий. Исходные предположения могут в конце полностью обесценить саму модель. Например, давайте представим себе любую физическую систему S, эволюцию которой мы хотим симулировать. Первая аппроксимация состоит в том, чтобы назвать S изолированной системой. При соприкосновении с реальной жизнью выясняется, что биологические системы не могут быть изолированными от окружающей среды без значительной потери функциональности. В частности, если S — живая система, в каждый конкретный момент времени ее структура полностью зависит от обмена веществом и информацией с окружающей средой. S — интегрированная система. Следовательно, если рассматривать ее в качестве изолированной системы, это может кардинально отклонить симуляцию от реальности, особенно если речь идет о такой живой системе, как мозг. В частности, это ограничение обесценивает любые попытки построить реалистичную модель мозга живой взрослой мыши на основании данных, полученных на таких экспериментальных образцах, как срезы мозга молодых мышей. Такие экспериментальные образцы значительно снижают истинную сложность исходной системы и не учитывают ее взаимодействие с окружающей средой. Распространение результатов, полученных на основании редуцированной модели, на реальное поведение живого мозга просто бессмысленно, даже если модель создает некое тривиальное эмерджентное поведение, такое как осцилляции активности нейронов.

И это только первая из ряда важнейших проблем в применении классического редукционистского подхода к пониманию комплексных систем, таких как человеческий мозг. Сводя систему ко все более мелким модулям, мы фактически разрушаем ядро операционной структуры, позволяющей системе генерировать ее уникальный уровень сложности. А без возможности отражать внутреннюю сложность системы оставшиеся качества становятся бесполезны для объяснения того, как в реальности работает система в целом.

На следующем этапе компьютерной симуляции производят отбор данных, измеренных непосредственно для системы S, с осознанием того, что нам не известны многие другие данные и вычисления на разных уровнях наблюдения за системой. По желанию или из-за отсутствия иных вариантов мы обычно считаем все эти данные несущественными для данной симуляции. Но в случае сложных систем, таких как мозг, нельзя быть уверенным, что какой-то другой уровень наблюдения, скажем квантовое описание системы, действительно не имеет значения. Таким образом, мы, безусловно, используем для нашей симуляции весьма неполный набор данных о системе S.

После проведения наблюдений или измерения каких-то естественных проявлений системы S мы пытаемся подобрать математическую формулу, которая могла бы соответствовать выбранным данным. Как правило, эта математическая формула определяется набором зависимых от времени дифференциальных уравнений. Дифференциальные уравнения были разработаны в первую очередь для применения в физике и совсем не обязательно применимы к биологическим системам. Более того, важно подчеркнуть, что в большинстве случаев эти математические формулы сами по себе уже являются аппроксимациями, не отражающими поведение природной системы на всех ее многочисленных уровнях организации. Опять-таки большинство физических процессов в лучшем случае лишь аппроксимируются математической функцией. Если вас это удивляет, знайте, что вы не одиноки. Большинство людей, которые верят в возможность воспроизведения всех природных явлений во вселенной с помощью компьютерных симуляций, к моему изумлению, не учитывают этот простой факт.

Далее нужно попытаться свести выбранную математическую формулу к алгоритму, который можно ввести в цифровую машину. Следовательно, компьютерная симуляция — это попытка имитировать математическое отображение ряда наблюдений за природным явлением, а вовсе не само природное явление как таковое. Поскольку эволюция биологической системы не подчиняется бинарной логике, используемой в цифровых компьютерах, результат компьютерной симуляции во многих случаях может эволюционировать совсем не так, как само природное явление. Это особенно справедливо в тех случаях, когда мы рассматриваем сложные адаптивные системы, эмерджентные свойства которых важны для правильного функционирования системы в целом. Таким образом, наша алгоритмическая аппроксимация может быстро отклониться от реального поведения природной системы, что заведомо приведет к бессмысленному результату.

Например, большинство моделей, которые, как утверждается, создают искусственную жизнь, используют комбинации разных алгоритмических методов — от объектно-ориентированного и процессно-ориентированного программирования до итеративного подхода — для имитации человеческого поведения. Как считает специалист в области эволюции и вычислительной техники Питер Дж. Бентли, это плохая стратегия, поскольку «не существует логически согласованного метода для корреляции этих программных трюков с биологическими сущностями. И поэтому данный подход приводит к туманным и в целом ненадежным моделям, основанным на субъективных метафорах и желании обеспечить биологическую значимость».

Но подобные проблемы возникают не только в биологии. Математик Майкл Берри приводит простой пример, иллюстрирующий трудности в симуляции любой физической системы, даже такой, казалось бы, простой, как бильярдная игра. Рассчитать результат удара первого бильярдного шара достаточно просто. Оценить результат второго удара уже сложнее, поскольку нужно точнее определять исходное состояние системы для получения приемлемой аппроксимации траектории шара. А дальше дело обстоит еще хуже. В частности, чтобы с большой точностью описать девятый удар, следует принять во внимание уже силу притяжения стоящих у стола людей. И если вы думаете, что даже это слишком трудно, знайте, что для расчета пятьдесят шестого удара требуется учесть влияние каждой отдельной частицы вселенной.

Другая интересная иллюстрация ограниченности предсказаний поведения сложных систем, особенно биологических, связана с ныне широко используемой технологией «больших данных» (big data). На протяжении нескольких последних лет нам упорно твердят, что при наличии чрезвычайно большого массива данных, содержащих гигантский объем информации о каком-то предмете, с помощью алгоритмов машинного обучения можно с высокой степенью точности предсказать будущее такой же системы. На эту тему написано огромное количество материала, так что здесь у меня просто нет места, чтобы его полностью отразить. Но я все же хочу указать на два очевидно неудачных примера применения этого подхода: предсказания результатов голосования и классификацию бейсбольных команд.

Во время выборов президента США в 2016 году десятки миллионов долларов были затрачены на создание систем обработки больших массивов данных, которые, как предполагалось, позволят назвать победителя еще до проведения голосования, не то что до подсчета голосов. К тому моменту, когда на восточном побережье США миллионы людей уже проголосовали и избирательные участки были закрыты, многие традиционные СМИ, включая New York Times, CNN и три главные американские телевизионные сети, начали раскрывать предсказания своих систем big data, которые практически единогласно прочили убедительную победу кандидату от Демократической партии Хиллари Клинтон. Как всем известно, на этих одних из самых невероятных в истории США президентских выборах победу одержал Дональд Трамп. Юление журналистов и газетных изданий по поводу очевидной победы Трампа было еще позорнее и унизительнее, чем знаменитый заголовок на первой странице Chicago Tribune 3 ноября 1948 года, «Дьюи одержал победу над Трумэном», ошибочно объявлявший о победе Томаса Дьюи над действовавшим президентом Гарри Трумэном, тогда как на деле все было наоборот.


Но почему же предсказания всех этих могучих медийных организаций со всеми инвестированными ими в технологию big data средствами оказались не лучше, если не хуже прогнозов 1948 года? На момент написания этой главы подробности еще неизвестны, но случившееся очень хорошо иллюстрирует ключевую проблему данного подхода: предсказания подобных систем основаны на предположении, что будущее событие воспроизведет статистику предыдущих событий, использованную для построения базы данных, и выведенных на ее основе корреляций. Сделанные такими системами предсказания могут быть точны только в том случае, если будущее событие происходит таким же образом, как предыдущие. Однако в изменчивых сложных динамических системах предсказания big data легко оказываются бессмысленными, если значения соответствующих переменных отличаются от значений в прошлом либо если эти переменные взаимодействуют совершенно иным образом. Как подсказывает опыт, человеческие сообщества полностью соответствуют определению изменчивых сложных систем, так что у нас мало оснований полагать, что следующие выборы пройдут так же, как предыдущие.

В США методология big data стала очень популярной, когда в 2011 году вышел чрезвычайно успешный фильм «Человек, который изменил все» (Moneyball) с Брэдом Питтом в главной роли, основанный на опубликованной в 2003 году книге Майкла Льюиса «MoneyBall. Как математика изменила самую популярную спортивную лигу в мире», повествующей о том, как с помощью нестандартного подхода тренер Билли Бин значительно повысил конкурентоспособность своей малобюджетной бейсбольной команды. Бин понимает, что для того, чтобы вывести Oakland Athletics в одну лигу с такими монстрами, как Yankees, Red Sox или моим фаворитом Phillies, он должен изменить стандартные методы подбора наиболее талантливых игроков, чтобы произвести сильнейший эффект за минимальные деньги. Для этого Билли Бин обращается к саберметрике — напоминающему big data подходу, разработанному статистиком и писателем Джорджем Уильямом Джемсом, много писавшем о бейсболе; метод основан на эмпирическом анализе бейсбольной статистики для выявления лучших игроков и формирования команды-победителя. Действуя вопреки советам опытных экспертов, Бин полагается на главные выводы саберметрики о том, что лучшим основанием для подбора игроков, способных составить хорошую команду, является статистика столкновений.

Вышло так, что под руководством Бина и при помощи его саберметрического подхода Oakland Athletics в последующие годы (2002 и 2003) дошла до серии финальных игр. Вскоре после этого стратегию Бина начали перенимать и другие команды. Можно только вообразить, сколько денег (вероятно, сотни миллионов долларов) было направлено на реализацию этой стратегии с тех пор, как команды высшей лиги США решили, что в XXI веке эта игра будет подчиняться статистике.

Забавно, что в этой истории часто не учитывают тот факт, что в бейсболе, как в любом спорте, важна не только сила защиты. В первую очередь ключевым игроком для победы является питчер[17], и, как упоминалось в статье в Guardian, в 2017 году, в том сезоне в составе Oakland Athletics почти каждый день играли великолепные питчеры. Защита, разумеется, тоже имеет значение, так же как и тактика, сообразительность и взаимопонимание игроков. Более того, кроме игровых качеств есть еще много других человеческих факторов, которые определяют, сможет ли сформированная из талантливых игроков команда стать командой чемпионского уровня. Я упоминаю об этом, поскольку проверке реальной причинной связи между саберметрическими параметрами и выигрышем в лиге чемпионов, являющимся, по моему наивному мнению, заветной целью любой команды (хотя некоторые владельцы команд заботятся только о том, чтобы сделать деньги), было уделено слишком мало внимания.

В конечном итоге команда Oakland Athletics хорошо выступала против мощных соперников, однако ничего не выиграла. Также не выиграли и другие команды, потратившие много денег на переход к этой методологии. Правда, команда New York Mets, руководство которой десятью годами позднее адаптировало подход Бина, все же победила в Мировой серии 2015 года. Однако нет реальных научных доказательств того, что эта или другая Мировая серия была выиграна благодаря саберметрике. Опять-таки кажется, что «неизбежность» скорее возникала как абстракция, как дань моде в умах тех, кто поклоняется методологии big data, нежели как вывод из фактических данных, доказывавших реальное явление.

Если выборы и бейсбол — достаточно сложные процессы для симуляции и предсказаний, еще больше сложностей возникает при анализе динамики мозга с 86 миллиардами нейронов. Очевидно, что при симуляции целого мозга животного, функционирование которого требует тонкого взаимодействия миллиардов нейронов и множество уровней организации, вероятность отклонения симуляции от реальности чрезвычайно велика.

Математический аспект в симуляции активности мозга тоже проблематичен. Первая проблема касается вычислимости. Вычислимость определяет, существует ли способ превратить математическую формулу в эффективный алгоритм, который можно заложить в цифровую машину. Вычислимость связана с возможностью получения буквенно-цифрового конструкта, а не с какими-либо физическими свойствами системы. И здесь мы упираемся в стенку: поскольку большинство математических описаний природных явлений не могут быть сведены к алгоритмам, их считают невычислимыми функциями. В частности, не существует общей процедуры, позволяющей систематически налаживать цифровой компьютер: не существует алгоритмического выражения для функции F, которая могла бы заранее выявить какую-то будущую неполадку, способную помешать работе компьютера. Что бы мы ни делали, машина всегда будет совершать неожиданные ошибки, которые нельзя предсказать при производстве компьютера и разработке программного обеспечения. Поэтому такая функция F классифицируется в качестве невычислимой функции. И в таком качестве она не удовлетворяет тезису Чёрча — Тьюринга, определяющему тип функций, которые можно симулировать на машине Тьюринга.

Также хорошо известно, что не существует такой вещи, как универсальная антивирусная программа. Причина в том, что функция F, результат которой — все программы, не содержащие вирус, также является невычислимой. Тот же тип рассуждений показывает, почему для цифровых машин не существует ни универсальных систем кодирования, ни алгоритмических процедур для установления того, являются ли динамические системы хаотическими или нет.

То же самое касается живого мозга: он генерирует поведение, которое можно полностью описать только с помощью невычислимых функций. Поскольку машина Тьюринга не справляется с такими функциями, нет возможности точно симулировать их на цифровом компьютере.

Представленные выше примеры — лишь небольшая выборка, отражающая распространенность невычислимых функций в математическом описании природных явлений. Все эти примеры являются следствиями или вариантами знаменитой проблемы остановки, одна из версий которой известна как десятая проблема Давида Гильберта. Проблема остановки касается существования общего алгоритма, позволяющего предсказать, зависнет ли компьютерная программа в какой-то момент или будет продолжать работать. Алан Тьюринг показал, что такого алгоритма не существует. С тех пор проблема остановки Гильберта стала типичной моделью невычислимой функции.

Проблема остановки означает, что мы не можем заранее предсказать, какие функции являются вычислимыми, а какие нет. По этой же причине, среди прочих, гипотеза Чёрча — Тьюринга остается лишь гипотезой: ее никогда не удастся доказать или опровергнуть никакой машине Тьюринга. На самом деле почти никакие функции не могут быть рассчитаны машиной Тьюринга, включая большинство функций, которые пригодны для описания мира природы и которые, по нашему с Рональдом мнению, производятся высокоразвитым мозгом животных.

Уже осознавая ограничения своей вычислительной машины, в опубликованной в 1939 году диссертации сам Алан Тьюринг попытался преодолеть их, придумав то, что он называл вычислениями с оракулом. Смысл машины с оракулом заключался в использовании инструмента из реального мира для решения проблем, которые «не могли быть решены механически» машиной Тьюринга. После ответа оракула машина Тьюринга могла завершить вычисления. Тьюринг показал, что некоторые машины с оракулом мощнее машины Тьюринга. Как он заключил, «мы не можем продвинуться дальше в природу этого оракула, кроме как сказать, что он не может быть машиной».

Заявление Тьюринга удивительно. В самом начале эры цифровой информации один из ее основателей уже понимал, что возможности компьютеров ограниченны. Наверное, еще больше шокирует осознание того, что в то время Тьюринг уже убедился в значительном превосходстве вычислительной способности человеческого мозга над способностью созданного им вычислительного инструмента. Как он отмечал, «класс проблем, которые может решить машина, весьма специфичен. Это те проблемы, которые могут быть решены конторским служащим, действующим по заданным правилам и без понимания» и, как выясняется, без ограничения в количестве бумаги. Придя к этому выводу, Тьюринг непреднамеренно положил начало развитию направления гиперкомпьютерных (сверхтьюринговых) вычислений.

Однако я должен подчеркнуть, что сам Тьюринг никогда не предполагал, что нечто вроде оракула может быть построено; он многократно настаивал на том, что в каждом элементе математического мышления присутствует интуиция (человеческое свойство из разряда невычислимых функций). Говоря это, он фактически подтверждал вывод Гёделя, отразившийся в его теоремах. По мнению Гёделя, при наличии формализованного математического доказательства интуиция проявляется на тех этапах, где математик видит справедливость ранее недоказанного утверждения. Однако Тьюринг не делал никаких предположений по поводу того, что мозг делает физически в момент принятия интуитивного решения.

Через много десятилетий после появления идеи машины с оракулом Грегори Хайтин, работавший с бразильскими коллегами Ньютоном Карнейро Аффонсо да Коста и Франсиско Антонио Дориа, выдвинул сходную идею о том, что «аналоговые, а не цифровые устройства могут решать некоторые нерешаемые арифметические выражения». Это возможно по той причине, что аналоговые вычислительные устройства осуществляют вычисления физическим образом, что означает, что они производят вычисления, просто подчиняясь законам физики, а не следуя заранее заданному алгоритму в рамках формальной системы. Иными словами, в аналоговых компьютерах не существует разделения между аппаратной и программной частью, поскольку конфигурация первой отвечает за осуществление вычислений и может модифицировать саму себя. Это именно то, что мы ранее назвали интегральной системой.

По мнению Хайтина, да Косты и Дориа, аналоговые устройства могут служить основой гиперкомпьютеров, или «устройств из реального мира, справляющихся с вопросами, которые не могут быть решены машиной Тьюринга». Эти авторы также предполагают, что возможность создания прототипа такого гиперкомпьютера путем сопряжения машины Тьюринга с аналоговым устройством зависит лишь от уровня развития соответствующей технологии. Это означает, что вся задача может сводиться к инженерной проблеме. Теперь вы понимаете, зачем мы в лаборатории активно проверяем эту гипотезу, создавая рекурсивное аналого-цифровое вычислительное устройство, нейромагнитный реактор, вдохновленные основными постулатами моей релятивистской теории мозга, — чтобы проверить некоторые из этих идей.

В этом теоретическом контексте не приходится удивляться тому, что такие интегральные системы, как мозг, действительно преодолевают вычислительные ограничения машины Тьюринга. На самом деле само существование мозга у животных можно использовать для опровержения «физической версии» гипотезы Чёрча — Тьюринга. Если рассматривать в таком аспекте человеческий мозг, его можно квалифицировать как гиперкомпьютер. Аналогичным образом, связывая мозг с машиной через интерфейс «мозг-машина», можно создать другой тип гиперкомпьютера, мозгосеть, в которой множество мозгов будут связаны между собой (см. главу 7).

Есть и другие математические проблемы, влияющие на вычислимость биологических функций. Например, в начале XX века Анри Пуанкаре показал, что сложные динамические системы (сущности, индивидуальные компоненты которых сами являются сложными взаимодействующими элементами) нельзя описать с помощью интегрируемых функций, т. е. производных функций, которые можно интегрировать, чтобы представлять себе связь между параметрами. Такие динамические системы характеризуются кинетической энергией составляющих их частиц, к которой нужно добавить потенциальную энергию взаимодействия между этими частицами (элементами). На самом деле именно этот второй член является причиной нелинейности и неинтегрируемости подобных функций. Пуанкаре не только продемонстрировал неинтегрируемость функций, но и предложил ее объяснение — резонанс (взаимодействие) между степенями свободы (числом частиц).

Это означает, что богатство динамического поведения сложных систем нельзя отразить разрешаемым набором простых дифференциальных уравнений, поскольку их взаимодействия в большинстве случаев приводят к появлению бесконечных членов. Бесконечные члены — постоянный кошмар математиков, поскольку они вызывают массу проблем при попытках аналитического решения уравнений.

Как мы видели ранее, мозг животного сформирован сложными, отдельными самоадаптирующимися (пластичными) нейронами, замысловатые связи и функциональная интеграция которых с миллиардами других клеток создают множество дополнительных уровней сложности нервной системы в целом. Более того, поведение каждого нейрона в конкретной сети нейронов на разных уровнях наблюдения нельзя понять в отрыве от общей картины активности мозга. В таком контексте даже самый примитивный мозг животного соответствует критериям Пуанкаре и должен рассматриваться в качестве сложной динамической системы с резонансом между разными уровнями организации или составляющими биологическими элементами (нейронами, глией и т. д.). Поэтому можно сказать, что вероятность нахождения интегрируемого математического описания активности мозга в целом весьма невысока.

Кроме того, если жизненно важные вычисления мозга (в сущности, те самые, что ответственны за его эмерджентные свойства) хотя бы отчасти происходят в аналоговом режиме, как предполагает релятивистская теория мозга, то процесс оцифровки не позволяет ни аппроксимировать физиологическое поведение мозга в конкретный момент времени, ни предсказать его эволюцию в ближайшем будущем.

Пуанкаре также показал, что сложные динамические системы могут быть очень чувствительными к начальным условиям и проявлять нестабильное и непредсказуемое поведение, которое в наши дни называют хаосом. Иначе говоря, чтобы с помощью цифровой машины предсказать поведение изменяющейся во времени аналоговой системы Пуанкаре, нужно точно знать исходное состояние системы и иметь интегрируемую вычисляемую функцию, которая рассчитывает предсказание для будущего состояния. Никакие из этих условий не соблюдаются, когда мы говорим о мозге.

Иными словами, критическая и неразрешимая проблема, с которой сталкивается любой создатель модели, нацеленной на воспроизведение поведения мозга животного с помощью цифровой симуляции, заключается в том, что из-за динамического поведения нервной системы невозможно точно оценить исходное состояние миллиардов нейронов на разных уровнях организации; при каждом новом измерении начальные условия изменяются. Кроме того, большинство уравнений, выбранных для описания динамического поведения мозга, представляют собой неинтегрируемые функции.

В свете этих ограничений типичные симуляции на машине Тьюринга, даже если это современный суперкомпьютер с тысячами микропроцессоров, скорее всего, не выявят каких-либо существенных физиологических свойств реального мозга. Важно, что такие симуляции, вероятно, будут отклоняться от динамического поведения реального мозга еще на самых первых этапах расчетов, что сделает их результаты абсолютно бессмысленными для понимания каких-то новых аспектов функционирования мозга.

При симуляции активности мозга на цифровой машине также приходится сталкиваться с многочисленными случаями неразрешимости. Разрешимость в цифровых вычислениях связана с числом циклов вычислений, необходимых для завершения конкретного расчета, а также с другими физическими ограничениями, такими как доступная память или энергетические ресурсы. Поэтому, даже если алгоритмическое представление математической функции для описания природного явления будет найдено, время симуляции по такому алгоритму может оказаться неприемлемым с практической точки зрения: оно может превышать время жизни всей вселенной. Проблемы такого рода называют неразрешимыми. Поскольку универсальная машина Тьюринга может решить любую задачу, которую может решить другая машина Тьюринга, просто повышение мощности или скорости компьютера не превращает неразрешимую проблему в разрешимую — лишь позволяет получить более качественную аппроксимацию за данный отрезок времени.

Давайте рассмотрим пример неразрешимой проблемы. Встроенные в мембраны нейронов белковые структуры, называемые ионными каналами, играют важнейшую роль в передаче информации между клетками мозга. Для нормального функционирования белки должны принимать оптимальную трехмерную конфигурацию. Окончательная трехмерная структура белков, возникающая в так называемом процессе фолдинга, является критическим фактором для нормального функционирования нейронов. Этот процесс включает в себя растяжение, сворачивание, скручивание и изгиб аминокислотной цепи, определяющей первичную структуру белка. В каждом отдельном нейроне экспрессируется до 20 тысяч разных генов, кодирующих белки, а также десятки тысяч последовательностей некодирующей РНК. И поэтому белки являются частью интегральной системы мозга, генерирующей информацию. Давайте рассмотрим простой белок, образованный линейной последовательностью примерно ста аминокислот, и предположим, что каждая из них может принимать одну из трех различных конформаций. В соответствии с моделью минимума энергии, которую обычно используют для анализа трехмерной структуры белков, для получения конечного результата нам нужно изучить 3100 или 1047 возможных состояний. Поскольку число решений в нашей модели фолдинга белка растет экспоненциально с увеличением числа аминокислот и возможных конформаций, данная проблема становится неразрешимой. Если белок принимает нативную конформацию путем случайного подбора, пробуя каждое состояние на протяжении 1 пикосекунды, общее время поиска может превысить нынешний возраст вселенной.

Фолдинг белка — это проблема оптимизации, т. е. она заключается в поиске оптимального решения среди всего спектра возможных решений. Такие решения обычно выражаются в виде максимумов или минимумов математической функции. Большинство проблем оптимизации попадают в разряд неразрешимых задач, обычно называемых NP-трудными задачами. Это такие задачи, решения для которых могут быть проверены детерминистической машиной Тьюринга за полиноминальное время[18]. Все задачи, которые умеет решать сложный мозг, попадают в эту категорию. В симуляциях такие задачи обычно решают с помощью аппроксимационных алгоритмов, дающих решение, близкое к оптимальному. Однако при симуляции активности мозга аппроксимационные решения должны быть найдены одновременно на разных уровнях организации (например, молекулярном, фармакологическом, клеточном, сетевом, атомном и квантовом), что делает задачу еще более сложной, поскольку оптимизация сложной адаптивной системы часто предполагает оптимизацию составляющих ее подсистем. В частности, путем ограничения уровней организации, учитываемых при симуляции интегральной системы, как это обычно делается в ходе грубой симуляции активности мозга, с некоторой вероятностью упускаются важные явления, которые происходят на нижних уровнях интегральной системы и могут быть критическими для оптимизации всей системы.

Этот пример прекрасно показывает, что Тьюринг подразумевал под «оракулом из реального мира»: в реальной жизни такая интегральная биологическая система, как белок, решает задачу за миллисекунды, тогда как алгоритмическому компьютеру для получения того же решения может потребоваться больше времени, чем все время существования вселенной. Разница в том, что «белковая аппаратура» рассчитывает оптимальное решение и «находит» трехмерную конфигурацию, просто подчиняясь законам физики в аналоговом режиме, тогда как машина Тьюринга следует алгоритму, созданному для решения той же задачи на цифровом устройстве. Организмы из реального мира, являющиеся интегральными системами, справляются со сложностями аналоговым путем, но этот процесс не может быть точно воспроизведен формальной системой и, следовательно, алгоритмом.

Обычно решаемые алгоритмы создаются как аппроксимации для оценки будущих состояний природных систем, исходя из некоторых начальных условий. В частности, так метеорологи пытаются моделировать погоду и делать предсказания, точность которых, как известно, стремительно снижается с увеличением временного отрезка. При симуляции активности мозга проблема разрешимости становится еще более принципиальной, поскольку огромное количество взаимосвязанных нейронов взаимодействует в строго определенной временной последовательности. Например, поскольку в цифровом компьютере есть часы, которые последовательно отсчитывают время, проблема обновления данных в точном соответствии со временем для миллиардов или даже триллионов параметров, определяющих текущее состояние мозга, становится полностью неразрешимой. Опять-таки любая следующая попытка предсказать состояние мозга в будущем, исходя из произвольно выбранных начальных условий, дает ненадежную аппроксимацию. В итоге на длинном отрезке времени в результате работы программы невозможно получить значимых предсказаний для эмерджентных свойств, даже в таких ограниченных временных рамках, как несколько миллисекунд.

И опять же, если предположить, что некоторые фундаментальные аспекты функционирования мозга опосредованы аналоговыми полями, такими как электромагнитные поля нейронов в релятивистской теории мозга, цифровая машина никогда не сможет ни симулировать эти функции, ни обновлять гигантское количество параметров (миллиарды или триллионы операций) точным синхронным образом в одном временном цикле. Иными словами, цифровые симуляции не смогут воспроизводить никакие реальные эмерджентные свойства головного мозга.

На этом этапе важно отметить, что при попытках симуляции работы целого мозга (диссипативной системы с большим количеством внутренних связей, находящейся во взаимодействии с телом животного и внешней средой) автоматически следует отбрасывать любую скорость обработки данных, не соответствующую в точности реальному времени. Симуляция работы мозга со скоростью (даже со скоростью суперкомпьютера) ниже скорости в «реальном» окружении, с которым мозг связан и постоянно взаимодействует, не даст ничего похожего на то, что производит или чувствует естественно эволюционировавший мозг. Например, мозг реального животного за долю секунды понимает, что на него нападает хищник. Если «модельный мозг» реагирует с гораздо более низкой скоростью, такая симуляция не имеет никакого практического значения для понимания того, как мозг реагирует в естественных условиях при взаимодействии хищника и жертвы. Эти наблюдения применимы к мозгу широкого спектра организмов на филогенетической шкале — от беспозвоночных животных вроде нематоды Caenorhabditis elegans с самым рудиментарным мозгом, содержащим всего 302 нейрона, до мозга человека, состоящего из 86 миллиардов нейронов.


Все перечисленные в этой главе ограничения хорошо известны, в целом считаются разумными и не отрицаются даже в среде исследователей, работающих в области искусственного интеллекта. Тем не менее эти люди упорно распространяют утопическую идею о том, что цифровые машины не только смогут симулировать интеллект наподобие человеческого, но и в конечном итоге превзойдут всех нас в нашей собственной игре — в игре, в которой мы мыслим, реагируем и живем как люди.

Во время выступлений перед публикой я обычно привожу гипотетический диалог между нейробиологом (Н) и исследователем в области искусственного интеллекта (ИИ), чтобы указать на пропасть, существующую в наше время между людьми, которые, как я, верят в пользу применения самых передовых технологий на благо человечества и для ослабления человеческих страданий, и теми, кто движется в направлении реализации мрачного будущего в духе Курцвейла. Диалог этот звучит следующим образом:

Н: Скажите, как с помощью машины Тьюринга запрограммировать понятие красоты?

ИИ: Дайте мне определение красоты, и я ее запрограммирую.

Н: В этом и есть суть проблемы. Я не могу ее определить. Не можете и вы, и никакой другой человек, который когда-либо жил и воспринимал ее.

ИИ: Но если вы не можете дать точного определения, я не могу ее запрограммировать. Вообще говоря, если вы не можете дать точное определение какой-то вещи, эта вещь несущественна. Ее просто нет. И меня, как специалиста в области компьютерных наук, она совсем не волнует.

Н: Так не существует вовсе или она безразлична конкретно вам? Вероятно, существует столько же определений красоты, сколько в истории нашего вида было живых человеческих мозгов. Каждый из нас ввиду особых условий жизни имеет свое особое определение красоты. Мы не можем описать ее точно, но мы ее узнаем, когда находим, когда мы ее видим, дотрагиваемся до нее или слышим ее. Красива ли ваша мать или дочь?

ИИ: Да, они красивы.

Н: Можете сказать почему?

ИИ: Нет, не могу. Но я не могу запрограммировать мое личное и субъективное ощущение на компьютере. Следовательно, оно не существует или не означает ничего с научной точки зрения. Я материалист. Я не могу точно в количественном или процедурном плане определить мое ощущение красоты. В моем материалистическом научном мире она просто не существует.

Н: Вы пытаетесь сказать, что лишь по той причине, что вы не можете количественным образом описать ощущение от вида красивого лица — лица вашей матери или дочери, это ощущение не имеет смысла?

ИИ: Именно так. Да. Вы все правильно поняли.

Как бы чудовищно это ни звучало, многие в наше время уже решили, что все то, чего не может добиться машина Тьюринга, не является важным ни для науки, ни для человечества. И поэтому я боюсь, что мой гипотетический исследователь в области искусственного интеллекта никоим образом не уникален в своих взглядах. Хуже того, меня все больше пугает, что наше привыкание к способу функционирования цифровых машин и вера в них приводят к тому, что наш легко адаптирующийся мозг приматов рискует сам перейти к имитации функционирования этих машин. Вот почему я боюсь, что при продолжении этой тенденции Истинный творец всего может подвергнуться постепенному распаду и превратиться в некий вариант цифровой биологической машины, приговорив весь наш вид к превращению в современных разумных зомби.

Загрузка...