Многослойные перцептроны", как называли эти новые нейронные архитектуры, могли воскресить коннекционизм из мертвых. Но до полного воскрешения необходимо было решить одну проблему: обучение. Оригинальный алгоритм перцептрона содержал рецепт установки связей между входными нейронами и считывающими нейронами - то есть правило обучения было разработано для двухслойной сети. Если новая порода нейронных сетей будет иметь три, четыре, пять или более слоев, то как должны быть установлены связи между всеми этими слоями? (Несмотря на все положительные стороны правила обучения перцептрона - его простоту, доказательство того, что оно может работать, тот факт, что оно было обнаружено в мозжечке, - оно не смогло ответить на этот вопрос. Знания того, что многослойный перцептрон может решать более сложные задачи, было недостаточно для того, чтобыграндиозные обещания коннекционизма. Необходимо было, чтобы оннаучился решать эти проблемы.
* * *
Пасхальное воскресенье коннекционистского возрождения наступило в 1986 году. Статья "Обучение представлений путем обратного распространения ошибок", написанная двумя учеными-когнитивистами из Калифорнийского университета в Сан-Диего Дэвидом Румельхартом и Рональдом Уильямсом, а также компьютерщиком из Карнеги-Меллон Джеффри Хинтоном, была опубликована 9 октября в журнале Nature. В ней представлено решение именно той проблемы, которая стояла перед этой областью: как обучать многослойные искусственные нейронные сети. Приведенный в статье алгоритм обучения, названный "обратным распространением", стал широко использоваться сообществом в то время. И по сей день он остается доминирующим способом обучения искусственных нейронных сетей для решения интересных задач.
Рисунок 6
Оригинальное правило обучения перцептрона работает, потому что, имея всего два слоя, легко понять, как исправить то, что пошло не так.Если считывающий нейрон выключен, когда он должен быть включен, то связи, идущие от входного слоя к этому нейрону, должны стать сильнее, и наоборот. Таким образом, связь между этими связями и показаниями очевидна. Алгоритм обратного распространения решает более сложную задачу. В сети с большим количеством слоев между входом и считыванием взаимосвязь между всеми этими связями и считыванием не так очевидна. Теперь вместо президента и его или ее советников у нас есть президент, его советники и сотрудники этих советников. Степень доверия советника к тому или иному сотруднику -то есть сила связи между этим сотрудником и советником - безусловно, в конечном итоге повлияет на действия президента. Но это влияние труднее непосредственно заметить и труднее исправить, если президент чувствует, что что-то идет не так.
Нужен был явный способ рассчитать, как любое соединение в сети повлияет на уровень считывания. Как оказалось, математика предлагает отличный способ сделать это. Рассмотрим искусственную нейронную сеть с тремя слоями: входным, средним и считывающим. Как связи от входа к среднему слою влияют на считывание? Мы знаем, что активность среднего слоя является результатом активности входных нейронов и весов их связей со средним слоем. Зная это, мы можем написать уравнение для того, как эти веса влияют на активность среднего слоя. Мы также знаем, что нейроны считывания следуют тому же правилу: их активность определяется активностью средних нейронов и весами соединений средних нейронов с нейронами считывания. Поэтому уравнение, описывающее, как эти веса влияют на считывание, также легко получить. Осталось найти способ связать эти два уравнения вместе.
При формировании поезда в игре в домино число на конце одной плитки должно совпадать с числом на начале другой, чтобы они соединились. То же самое верно и для сшивания этих уравнений. Здесь общим термином, связывающим два уравнения, является активность среднего слоя: эта активность определяет активность считывающего устройства и определяется связями между входом и серединой. Соединив эти уравнения через активность среднего слоя, можно напрямую рассчитать влияние связей между входом и средним слоем на считывание. А это позволяет легко определить, как должны измениться эти связи при неправильном считывании. В математике такое объединение связей известно как "правило цепочки", и оно лежит в основе алгоритма обратного распространения.
Правило цепочки было открыто более 200 лет назад не кем иным, как кумиром Маккаллоха и Питтса, философом и эрудитом Готфридом Лейбницем. Учитывая, насколько полезным является это правило, его применение для обучения многослойных нейронных сетей не стало сюрпризом. На самом деле, алгоритм обратного распространения был изобретен как минимум трижды до 1986 года. Но статья 1986 года стала частью идеального шторма, который обеспечил широкое распространение ее результатов. Первой причиной этого стало содержание самой статьи. В ней не только было показано, что нейронные сети можно обучать таким образом, но и проанализирована работа сетей, обученных для решения нескольких когнитивных задач, таких как понимание связей на семейном древе.Другой составляющей успеха сталоувеличение вычислительной мощности , которое произошло в 1980-х годах; это было важно для того, чтобы обучение многослойных нейронных сетей стало практически возможным для исследователей. Наконец, в том же году, когда была опубликована статья, один из ее авторов, Румельхарт, также опубликовал книгу о коннекционизме, в которой был представлен алгоритм обратного распространения. Эта книга, написанная совместно с другим профессором Карнеги-Меллона, Джеймсом Макклелландом, разошлась тиражом около 40 000 экземпляров к середине 1990-х годов. Ее названиеПараллельная распределенная обработка" - дало название всей программе исследований по созданию искусственных нейронных сетей в конце 1980-х и начале 1990-х годов.
По схожим причинам история искусственных нейронных сетей приняла еще более драматический оборот примерно через десять лет после начала нового тысячелетия. Груды данных, накопленных в эпоху Интернета, объединились с вычислительными мощностями XXI века, чтобы ускорить прогресс в этой области. Сети со все большим количеством слоев вдруг стали обучаться все более сложным задачам. Такие увеличенные модели - так называемые "глубокие нейронные сети" - в настоящее время преобразуют искусственный интеллект и нейронауки.
Современные глубокие нейронные сети основаны на том же базовом понимании нейронов, что и нейроны Маккаллоха и Питтса. Однако за пределами этого базового понимания они не стремятся напрямую повторить человеческий мозг. Например, они не пытаются имитировать его структуру или анатомию. Но они стремятся имитировать человеческое поведение, и у них это неплохо получается. Когда2016 году популярная служба языкового перевода Google начала использовать глубокие нейронные сети, это позволило сократить количество ошибок перевода на 50 %. YouTube также использует глубокие нейронные сети, чтобы помочь своему алгоритму рекомендаций лучше понять, какие видеоролики люди хотят посмотреть. А когда голосовой помощник Apple Siri отвечает на команду, его слушает и говорит глубокая нейронная сеть.
В общей сложности глубокие нейронные сети теперь можно обучать находить объекты на изображениях, играть в игры, понимать предпочтения, переводить с одного языка на другой, преобразовывать речь в письменные слова и письменные слова в речь. В отличие от оригинального перцептрона, компьютеры, на которых работают эти сети, занимают целые комнаты. Они расположены в серверных центрах по всему миру, где с жужжанием обрабатывают мировые изображения, тексты и аудиоданные. Розенблатт, возможно, был рад увидеть, что некоторые из его грандиозных обещаний, данных газете New York Times, действительно были выполнены. Просто для этого потребовались масштабы, почти в тысячу раз превышающие те, которыми он располагал в то время.
Алгоритм обратного распространения был необходим для того, чтобы поднять искусственные нейронные сети до уровня, позволяющего им достигать почти человеческих показателей при выполнении некоторых задач. В качестве правила обучения для нейронных сетей он действительно работает. К сожалению, это не означает, что он работает как мозг. Если правило обучения перцептрона - это то, что можно увидеть в игре между реальными нейронами, то алгоритм обратного распространения - нет. Он был разработан как математический инструмент для обеспечения работы искусственных нейронных сетей, а не как модель того, как учится мозг (и его изобретатели с самого начала ясно дали это понять).Причина в том, что реальные нейроны, как правило, могутзнатьтолькооб активности нейронов, с которыми они связаны, но не об активности нейронов, с которыми эти нейроны связаны, и так далее, и так далее. По этой причине для реальных нейронов не существует очевидного способа реализовать правило цепочки. Они должны делать что-то другое.
Для некоторых исследователей, особенно в области искусственного интеллекта, искусственная природа обратного распространения не является проблемой. Их цель - создать компьютеры, способные думать, любыми способами. Но для других ученых - в частности, нейробиологов - поиск алгоритма обучения мозга имеет первостепенное значение. Мы знаем, что мозг умеет становиться лучше; мы видим это, когда учимся играть на музыкальном инструменте, водить машину или читать на новом языке. Вопрос в том, как.
Поскольку мы знаем, что обратное распространение работает, некоторые нейробиологи начинают именно с него. Они проверяют признаки того, что мозг делает что-то вроде обратного распространения, даже если он не может сделать это в точности. Вдохновением послужил успешный опыт обнаружения перцептрона в мозжечке. Там подсказки содержались в анатомии: разное расположение лазающих волокон и гранулезных клеток указывало на различную роль каждого из них. Другие области мозга демонстрируют паттерны связности, которые могут намекать на то, как они обучаются. Например, в неокортексе некоторые нейроны имеют дендриты, которые тянутся далеко над ними. Далекие области мозга посылают входные сигналы на эти дендриты. Несут ли они с собой информацию о том, как эти нейроны повлияли на последующие в нейронной сети мозга? Можно ли использовать эту информацию для изменения силы связей в сети? И неврологи, и исследователи искусственного интеллекта не теряют надежды, чтоверсия обратного распространения в мозге будет найдена и что, когда она будет найдена, ее можно будет скопировать для создания алгоритмов, которые будут обучаться еще лучше и быстрее, чем современные искусственные нейронные сети
В своем стремлении понять, как разум учится под наблюдением, современные исследователи поступают так же, как Маккалох. Они смотрят на груды фактов о биологии мозга и пытаются увидеть в них вычислительную структуру. Сегодня они руководствуются в своих поисках разработками искусственных систем. Завтра открытия из биологии снова будут направлять создание искусственного интеллекта. Эта обратная связь определяет симбиотические отношения между этими двумя областями. Исследователи, стремящиеся построить искусственные нейронные сети, могут черпать вдохновение в закономерностях, найденных в биологических сетях, а нейробиологи могут обратиться к изучению искусственного интеллекта, чтобы определить вычислительную роль биологических деталей. Таким образом, искусственные нейронные сети поддерживают связь между изучением разума и мозга.
Глава 4. Создание и сохранение воспоминаний
Блок железа при температуре 770°C (1 418°F) представляет собой прочную серую сетку. Каждый из триллионов его атомов служит одним кирпичиком в бесконечных параллельных стенах и потолках кристаллической структуры. Это образец упорядоченности. Однако в отличие от упорядоченной структуры магнитное расположение этих атомов представляет собой беспорядок.
Каждый атом железа образует диполь - миниатюрный магнит с одним положительным и одним отрицательным концом. Тепло приводит в движение эти атомы, меняя направление их полюсов в случайном порядке. На микроуровне это означает множество крошечных магнитов, каждый из которых действует в своем направлении. Но поскольку эти силы действуют друг на друга, их чистый эффект становится незначительным. При увеличении масштаба эта масса мини-магнитов вообще не обладает магнетизмом.
Однако, когда температура опускается ниже 770°C, кое-что меняется. Направление движения отдельного атома меняется все реже. Установив свой диполь, атом начинает оказывать постоянное давление на своих соседей. Это указывает им, в каком направлении они тоже должны двигаться. Атомы с разными направлениями борются за влияние на местную группу, пока в конце концов все не выстроятся в одну линию, так или иначе. Когда все маленькие диполи выровнены, возникает мощная сила. Ранее инертный блок железа превращается в мощный магнит.
Филипп Уоррен Андерсон, американский физик, получивший Нобелевскую премию за работу над подобными явлениями, написал в ставшем знаменитым эссе под названием "Больше - это другое", что "поведение больших и сложных агрегатов элементарных частиц, оказывается, не может быть понято в терминах простой экстраполяции свойств нескольких частиц". Иными словами, коллективное действие множества мелких частиц, организованное только за счет их локальных взаимодействий, может привести к появлению функции, напрямую не возможной ни для одной из них в отдельности. Физики формализовали эти взаимодействия в виде уравнений и успешно использовали их для объяснения поведения металлов, газов и льда.
В конце 1970-х годов коллега Андерсона, Джон Дж. Хопфилд, увидел в этих математических моделях магнетизма структуру, схожую со структурой мозга. Хопфилд использовал это понимание, чтобы взять под математический контроль давнюю загадку: вопрос о том, как нейроны создают и сохраняют память.
* * *
Ричард Семон ошибался.
Немецкий биолог, работавший на рубеже двадцатого века, Земон написал две объемные книги о науке памяти. Они были наполнены подробным описанием результатов экспериментов, теорий и словарем для описания воздействия памяти на "органические ткани". Работа Сэмона была проницательной, честной и ясной - но в ней был один существенный недостаток. Подобно тому, как французский натуралист Жан-Батист Ламарк считал (в отличие от нашего современного понимания эволюции), что признаки, приобретенные животным при жизни, могут передаваться его потомству, Семон предположил, чтовоспоминания, приобретенные животным, могут передаваться по наследству. То есть он полагал, что выученные организмом реакции на окружающую среду будут возникать у потомства без обучения. В результате этой ошибочной интуиции большая часть ценной в других отношениях работы Семона была постепенно отброшена и забыта.
Ошибаться в вопросах памяти - не редкость. Философ Рене Декарт, например, считал, что воспоминания активируются маленькой железой, управляющей потоком "животных духов". Уникальность Сэмона заключается в том, что, несмотря на недостатки его работы, которые приговорили его к исторической безвестности, один из его вкладов оставался влиятельным достаточно долго, чтобы породить целый корпус исследований. Этот маленький артефакт его усилий - "энграмма" - слово, придуманное Семоном в книге "Мнема" в 1904 году и впоследствии заученное миллионами студентов, изучающих психологию и неврологию.
В то время, когда Семон писал свои работы, память только недавно стала объектом научного изучения, и большинство результатов касались исключительно навыков запоминания, а не биологии. Например, людей обучали запоминать пары бессмысленных слов (таких как "wsp" и "niq"), а затем проверяли их способность восстановить второе слово, когда им подсказывали первое. Этот тип памяти, известный как ассоциативная память, станет объектом исследований на десятилетия вперед. Но Семону было интересно не только поведение: он хотел узнать, какие изменения в физиологии животного могут поддерживать такую ассоциативную память.
Опираясь на скудные экспериментальные данные, он разделил процесс создания и восстановления воспоминаний на множество компонентов. Находя обычные слова слишкоми перегруженными, он создал новые термины для обозначения этих разделов работы. Слово, ставшее таким влиятельным, "энграмма", было определено как "устойчивое, хотя в основном латентное изменение в раздражительной субстанции, вызванное стимулом". Или, говоря проще, физические изменения в мозге, которые происходят при формировании воспоминаний. Другой термин, "экфория", был отнесен к "влияниям, которые пробуждают мнемический след или энграмму из ее латентного состояния в состояние проявленной активности". Это различие между энграммой и экфорией (или между процессами, которые закладывают память, и процессами, которые ее извлекают) было одним из многих концептуальных достижений, которые обеспечила работа Семона. Несмотря на то, что его имя и большая часть его языка исчезли из литературы, многие концептуальные идеи Сэмона были верны, и они составляют основу того, как моделируется память сегодня.
В 1950 году американский психолог Карл Лэшли опубликовал работу "В поисках энграммы", которая закрепила наследие этого слова. Она также задала довольно мрачный тон в этой области. Статья была так названа, потому что поиск - это все, чего, по мнению Лэшли, он добился за 30 лет экспериментов. В своих экспериментах Лэшли обучал животных создавать ассоциации (например, реагировать определенным образом, когда им показывают круг, а не букву "X") или заучивать задание, например, как пробежать через определенный лабиринт. Затем он хирургическим путем удалял определенные участки мозга или соединительные пути и наблюдал за тем, как это сказывалось на поведении животных после операции. Лэшли не смог найти ни одной области или схемы повреждений, которые бы достоверно влияли на память. Он пришел к выводу, что, следовательно, воспоминания должны быть каким-то образом равномерно распределены по всемумозгу , а не в какой-то одной области. Но, основываясь на некоторых расчетах о том, сколько нейронов может быть использовано для воспоминаний и сколько путей между ними, он не был уверен, что это возможно. Таким образом, его эпохальная статья стала чем-то вроде белого флага, отказавшись от любых попыток сделать выводы о местонахождении памяти перед лицом массы противоречивых данных. Физическая природа памяти оставалась для Лэшли все такой же сложной проблемой.
В то же время бывший студент Лэшли разрабатывал свои собственные теории обучения и памяти.
Дональд Хебб, канадский психолог, чья ранняя работа в качестве школьного учителя способствовала росту его интереса к разуму, стремился превратить психологию в биологическую науку. В своей книге 1949 года "Организация поведения" он описывает задачу психолога как "сведение причуд человеческого мышления к механическому причинно-следственному процессу". И в этой книге он изложил механический процесс, который, по его мнению, лежит в основе формирования памяти.1 Преодолевая ограниченные, а иногда и вводящие в заблуждение физиологические данные, доступные в то время, Хебб пришел к этому принципу о физических основах обучения в основном благодаря интуиции. Однако в дальнейшем он добился огромного эмпирического успеха. Принцип, известный сегодня как гебистское обучение, кратко описывается фразой "нейроны, которые работают вместе, работают вместе".
Хеббианское обучение описывает, что происходит на маленьком перекрестке между двумя нейронами, где один из них может послать сигнал другому, - это пространство называется синапсом. Предположим, есть два нейрона, A и B. Аксон нейрона A устанавливает синаптическую связь с дендритом или телом клетки нейрона B (таким образом, нейрон A является "пресинаптическим", а нейрон B - "постсинаптическим", см. Рисунок 7). При хеббианском обучении, если нейрон A неоднократно срабатывает раньше нейрона B, связь между A и B укрепляется. Укрепление связи означает, что в следующий раз, когда сработает A, он будет более эффективен для того, чтобы вызвать срабатывание B. Таким образом, активность определяет связанность, а связанность - активность.
Рисунок 7
Подход Хебба с его фокусом на синапсе рассматривает энграмму как локальную и глобальную: локальную, потому что отпечаток памяти возникает в маленьком промежутке, где один нейрон встречается с другим, но глобальную, потому что эти изменения могут происходить в синапсах по всему мозгу. Это также делает память естественным следствием опыта: при податливых синапсах любая активация мозга способна оставить след.
Лэшли, добросовестный ученый, стремящийся следовать фактам, признал, что инграмма должна быть распределена, основываясь на собственных экспериментах. Но он не находил удовлетворения врешении Хебба, которое - хотя и было заманчивой и элегантной теорией - основывалось скорее на догадках, чем на достоверных фактах. Он отклонил предложение Хебба стать соавтором этой работы.
Возможно, Лэшли и не поддержал идеи Хебба, но после публикации его книги было проведено бесчисленное множество экспериментов. Морские слизни - слизистые коричневые беспозвоночные длиной в фут, имеющие всего около 20 000 нейронов, - стали объектом пристального изучения в этой области благодаря своей способности к обучению самым простым ассоциациям. Эти слизни без панциря имеют на спине жабры, которые в случае угрозы могут быть быстро втянуты для сохранности. В лабораторных условиях короткий удар электрическим током заставляет жабру втянуться. Если такому удару неоднократно предшествовало безобидное легкое прикосновение, слизень в конце концов начнет втягивать жабру в ответ только на прикосновение, демонстрируя ассоциацию между прикосновением и тем, что ожидается дальше. Это эквивалент того, как морские животные учатся сочетать "wsp" с "niq". В соответствии с теорией обучения Хебба было показано, что эта ассоциация опосредована усилением связей между нейронами, которые представляют прикосновение, и нейронами, которые приводят к реакции жабр. Изменение поведения происходило за счет изменения связей.
Геббианское обучение не только наблюдалось, но и контролировалось. В 1999 году исследователи из Принстона показали, что генетическая модификация белков в клеточной мембране, которые способствуют синаптическим изменениям, может контролировать способность мыши к обучению. Усиление функции этих рецепторов повышает способность мышей запоминать объекты, которые им показывали раньше. Вмешательство в работу этих белков ухудшает эту способность.
В настоящее время наукой установлено, что опыт приводит к активации нейронов и что активация нейронов может изменять связи между ними. Эта история принимается как хотя бы частичный ответ на вопрос об энграмме. Но, как описывает Семон, сама энграмма - это лишь часть истории памяти. Память также требует запоминания. Как такой способ хранения воспоминаний может обеспечить их долгосрочное хранение и запоминание?
* * *
В том, что Джон Дж. Хопфилд стал физиком, нет ничего удивительного. Родившись в 1933 году в семье Джона Хопфилда-старшего, прославившегося в области ультрафиолетовой спектроскопии, и Хелен Хопфилд, изучавшей электромагнитное излучение атмосферы, Хопфилд-младший вырос в семье, где физика была в такой же степени философией, как и наукой. Физика была точкой зрения, согласно которой окружающий нас мир, при наличии усилий, изобретательности и достаточных ресурсов, поддается предсказанию и разумному количественному анализу", - написал Хопфилд в автобиографии. Быть физиком - значит посвятить себя поиску такого рода понимания". И физик - это то, кем он стал.
Хопфилд, высокий и долговязый мужчина с очаровательной улыбкой, получил степень доктора философии в 1958 году в Корнельском университете.дальнейшем он подражал своему отцу, получив стипендию Гуггенхайма, и использовал ее для обучения в Кавендишской лабораториив Кембридже. Но даже к этому времени энтузиазм Хопфилда по отношению к предмету его докторской диссертации - физике конденсированных сред - стал ослабевать. В 1968 году у меня закончились проблемы... для которых мои особые таланты казались полезными", - писал он позже.
Воротами Хопфилда из физики в биологию стал гемоглобин - молекула, которая одновременно выполняла важнейшую биологическую функцию переносчика кислорода в крови и могла быть изучена с помощью многих методов экспериментальной физики того времени. Хопфилд несколько лет работал над структурой гемоглобина в Bell Labs, но свое настоящее призвание в биологии он нашел после того, как в конце 1970-х годов был приглашен на серию семинаров по нейронаукам в Бостоне. Там он столкнулся с разношерстной группой клиницистов и нейробиологов, собравшихся вместе для решения глубокого вопроса о том, как разум возникает из мозга. Хопфилд был очарован.
Однако Хопфилда, как бы он ни был математически мыслящим человеком, огорчал качественный подход к мозгу, который он видел на выставке. Он был обеспокоен тем, что, несмотря на очевидные таланты в биологии, эти исследователи "никогда не смогут решить проблему, потому что решение может быть выражено только на соответствующем математическом языке и в соответствующей структуре". Таким языком владели физики. Поэтому Хопфилд постарался использовать свои навыки физика, даже когда приступил к исследованию памяти. По его мнению, некоторые физики того времени, совершившие скачокв биологию, полностью иммигрировали, переняв вопросы, культуру и лексику своей новой страны. Он хотел твердо сохранить свое гражданство физика.
В 1982 году Хопфилд опубликовал работу "Нейронные сети и физические системы с эмерджентными коллективными вычислительными способностями", в которой изложил описание и результаты работы того, что сейчас известно как сеть Хопфилда. Это была первая работа Хопфилда на эту тему; он только начинал погружаться в область нейронаук, и тем не менее она произвела фурор.
Рисунок 8
Сеть Хопфилда (см. рис. 8) - это математическая модель нейронов, которая может реализовать то, что Хопфилд назвал "памятью с возможностью адресации содержимого". Этот термин, пришедший из компьютерных наук, относится к понятию, что полную память можно извлечь из небольшого ее компонента. Сеть, которую Хопфилд создал для этой задачи, очень просто устроена. Она состоит только из бинарных нейронов (таких, как нейроны Маккаллоха-Питтса, представленные в прошлой главе), которые могут быть либо "включены", либо "выключены". Поэтому именно взаимодействие между этими нейронами и приводит к интригующему поведению этой сети.
Сеть Хопфилда является рекуррентной, то есть активность каждого нейрона определяется активностью любого издругих нейронов сети. Поэтому активность каждого нейрона служит как входом, так и выходом для его соседей. В частности, каждый входной сигнал, получаемый нейроном от другого нейрона, умножается на определенное число - синаптический вес. Затем эти взвешенные входы суммируются и сравниваются с пороговым значением: если сумма больше (или равна) пороговому значению, уровень активности нейрона равен 1 ("включен"), в противном случае - 0 ("выключен"). Этот выход затем поступает на вход других нейронов в сети, чьи выходы снова поступают на вход других нейронов, и так далее, и так далее.
Подобно телам в мош-пите, компоненты рекуррентной системы толкают и тянут друг друга, причем состояние единицы в любой момент времени определяется теми, кто ее окружает. Таким образом, нейроны в сети Хопфилда подобны атомам железа, постоянно влияющим друг на друга посредством магнитных взаимодействий. Эффекты этого непрерывного взаимодействия могут быть огромными и сложными. Предсказать, какие закономерности создадут эти взаимосвязанные части, практически невозможно без точной математической модели. Хопфилд был хорошо знаком с этими моделями и их способностью показать, как локальные взаимодействия приводят к возникновению глобального поведения.
Хопфилд обнаружил, что при правильном выборе весов между нейронами в его сети сеть какможет реализовать ассоциативную память. Чтобы понять это, мы должны сначала определить, что считается памятью в этой абстрактной модели. Представьте, что каждый нейрон в сети Хопфилда представляет один объект: нейрон A - это кресло-качалка, нейрон B - велосипед, нейрон C - слон и так далее. Чтобы представить конкретное воспоминание, скажем, о вашей детской спальне, нейроны, представляющие все объекты в этой комнате - кровать, ваши игрушки, фотографии на стене, - должны быть "включены"; в то время как нейроны, представляющие объекты не в этой комнате - луну, городской автобус, кухонные ножи, - должны быть "выключены". Таким образом, сеть в целом находится в состоянии активности "спальня вашего детства". Другое состояние активности - с разными наборами нейронов "включено" или "выключено" - будет представлять собой другое воспоминание.
В ассоциативной памяти небольшой вход в сеть реактивирует целое состояние памяти. Например, если вы увидите свою фотографию на кровати в детстве, это может активировать некоторые нейроны, представляющие вашу спальню: нейроны кровати, нейроны подушки и т. д. В сети Хопфилда связи между этими нейронами и нейронами, представляющими другие части спальни - шторы, игрушки, письменный стол, - заставляют эти нейроны активизироваться, воссоздавая полное ощущение спальни. Отрицательно взвешенные связи между нейронами спальни и нейронами, представляющими, скажем, местный парк, гарантируют, что в память спальни не проникнут другие предметы. Таким образом, вы не запомните качели рядом с вашим шкафом.
Когда одни нейроны включаются, а другие выключаются, именно их взаимодействие делает полную память более рельефной. Таким образом, тяжелую работу по восстановлению памяти выполняют синапсы. Именно сила этих связей выполняет грозную, но деликатную задачу восстановления памяти.
На языке физики полностью восстановленное воспоминание - это пример аттрактора. Короче говоря, аттрактор - это популярная модель деятельности. К нему эволюционируют другие модели активности, подобно тому, как вода тянется вниз по водостоку. Память - это аттрактор, потому что активация нескольких нейронов, формирующих память, побуждает сеть заполнить остальные. Как только сеть переходит в состояние аттрактора, она остается в нем, а нейроны фиксируются в своих "включенных" или "выключенных" положениях. Физики, всегда любившие описывать вещи в терминах энергии, считают аттракторы "низкоэнергетическими" состояниями. Это комфортное положение, в котором может находиться система; именно это делает их привлекательными и стабильными.
Представьте себе батут, на котором стоит человек. Мяч, помещенный в любое место на батуте, покатится к человеку и останется там. Таким образом, мяч, находящийся в углублении, созданном человеком, является притягивающим состоянием для этой системы. Если бы два человека одинакового размера стояли на батуте друг напротив друга, система имела бы два аттрактора. Мяч катился бы к тому, к кому он изначально был ближе всего, но все дороги все равно вели бы к аттрактору. Системы памяти были бы бесполезны, если бы могли хранить только одно воспоминание, поэтому важно, чтобы сеть Хопфилда могла поддерживать несколько аттракторов. Точно так же, как мяч стремится к ближайшей низкой точке на батуте, начальные состояния нейронной активности эволюционируют в сторону ближайшего, наиболее похожего воспоминания (см. рис. 9).Начальные состояния, которые приводят к определенному аттрактору памяти - например, фотографиявашей детской кровати, которая воскрешает воспоминания о всей комнате, или поездка на пляж, которая воспламеняет воспоминания о детском отдыхе, - как говорят, находятся в "бассейне притяжения" этого воспоминания.
Поэма "Удовольствия памяти" (The Pleasures of Memory) написана в 1792 году Сэмюэлем Роджерсом. Размышляя о всеобщем путешествии, в которое память может увлечь разум, он писал
Убаюканный в бесчисленных камерах мозга,
Наши мысли связаны между собой множеством скрытых цепочек.
Проснись лишь один, и вот, мириады восстают!
Каждый штампует свое изображение, пока другой летит!
Скрытая цепочка" Роджерса может быть найдена в схеме весов, которые восстанавливают память в сети Хопфилда.Действительно, модель аттрактора соответствует многим нашим представлениям о памяти. Она неявно учитывает время, необходимое для восстановления воспоминаний, поскольку сети требуется время для активации нужных нейронов. Аттракторы также могут быть слегка смещены в сети, создавая воспоминания, которые в основном правильные, но с измененной деталью или двумя. А слишком похожие воспоминания могут просто слиться в одно. Хотя сведение памяти к ряду нулей и единиц может показаться оскорблением богатства нашего опыта, именно конденсация этого, казалось бы, невыразимого процесса делает его понимание доступным.
Рисунок 9
В сети Хопфилда то, насколько прочно нейроны связаны друг с другом, определяет, какие паттерны нейронной активности формируют память. Таким образом, программа находится в весах - но как она туда попадает? Как опыт может создать именно те веса, которые нужны для формирования памяти? Хебб говорит нам, что воспоминания должны возникать в результате усиления связей между нейронами с одинаковой активностью - и в сети Хопфилда именно так и происходит.
Сеть Хопфилда кодирует набор воспоминаний с помощью простой процедуры. При каждом переживании, когда два нейрона либо активны, либо неактивны, связь между ними укрепляется. Таким образом, нейроны, которые работают вместе, оказываются связанными друг с другом. С другой стороны, при каждом опыте, когда один нейрон активен, а другой неактивен, связь ослабевает.5После этойпроцедурыобучениянейроны, которые обычно совместно участвуют в воспоминаниях, будут иметь сильную положительную связь, нейроны с противоположной активностью - сильную отрицательную связь, а остальные будут находиться где-то посередине. Это как раз та связь, которая необходима для формирования аттракторов.
Аттракторы - не тривиальные явления. В конце концов, если все нейроны в сети постоянно посылают и получают входные сигналы, почему мы должны предполагать, что их активность когда-нибудь установится в состоянии памяти, не говоря уже о правильном состоянии памяти? Поэтому, чтобы быть уверенным в том, что в этих сетях образуются правильные аттракторы, Хопфилду пришлось сделать довольно странное допущение: веса в сети Хопфилда симметричны. Это означает, что сила связи от нейрона A к нейрону B всегда такая же, как и сила связи от B к A. Соблюдение этого правила давало математическую гарантию появления аттракторов. Проблема в том, что шансы найти в мозге популяцию таких нейронов, мягко говоря, невелики. Для этого нужно, чтобы каждый аксон, выходящий из одной клетки и образующий синапс с другой, в точности соответствовал тому, что та же клетка отправляет свой аксон обратно, соединяясь с первой клеткой с той же силой. Биология просто не так чиста.
Это свидетельствует о постоянном напряжении в математическом подходе к биологии. Точка зрения физика, зависящая от почти иррациональной степени упрощения, постоянно противоречит биологии, полной грязных, неудобных деталей. В данном случае детали математики требовали симметричных весов, чтобы сделать какое-либо определенное заявление об аттракторах и, таким образом, добиться прогресса в моделированиипроцесса памяти . Биолог, скорее всего, сразу бы отверг это предположение6.
Хопфилд, стоявший по обе стороны пропасти между математикой и биологией, знал, что нужно ценить точку зрения нейробиологов. Чтобы снять их озабоченность, он показал в своей оригинальной работе, что - хотя это и нельзя было гарантировать математически - сети, допускающие асимметричные веса, все же были способны обучаться и поддерживать аттракторы относительно хорошо.
Таким образом, сеть Хопфилда стала доказательством того, что идеи Хебба об обучении действительно могут работать. Кроме того, она давала возможность изучать память математически - количественно. Например, сколько именно воспоминаний может хранить сеть? Этот вопрос можно задать, только имея в голове точную модель памяти. В простейшей версии сети Хопфилда количество воспоминаний зависит от числа нейронов в сети. Например, сеть с 1 000 нейронов может хранить около 140 воспоминаний; 2 000 нейронов - 280; 10 000 - 1 400 и так далее. Если количество воспоминаний не превышает примерно 14 процентов от количества нейронов, каждое воспоминание будет восстановлено с минимальной ошибкой. Однако добавление новых воспоминаний будет подобно последнему дополнению к карточному домику, которое приведет к его обрушению.Когда возможности сети Хопфилда превышены, она разрушается: входные сигналынаправляются к бессмысленным аттракторам, и ни одно воспоминание не восстанавливается успешно. Это явление получило соответствующее драматическое название "катастрофа отключения".
От точности не уйти: как только найдена оценка объема памяти, разумно спросить, совпадает ли она с количеством воспоминаний, которые, как мы знаем, хранит мозг. Знаменательное исследование, проведенное в 1973 году, показало, что люди, которым показывали более 10 000 изображений (каждое только один раз и на короткий промежуток времени), были вполне способны распознать их впоследствии. 10 миллионов нейронов в периферической коре - области мозга, связанной с визуальной памятью, - могли бы хранить такое количество изображений, но это не оставило бы места ни для чего другого. Таким образом, казалось, что в гебистском обучении есть проблема.
Однако эта проблема становится менее проблематичной, когда мы понимаем, что узнавание - это не запоминание. То есть ощущение знакомости при виде изображения может возникать без способности восстановить этот образ с нуля. Сеть Хопфилда примечательна тем, что способна справиться с последней, более сложной задачей - она полностью заполняет память из ее частичного фрагмента. Но первая задача по-прежнему важна. Благодаря исследователям из Бристольского университета стало известно, что распознавание также может быть выполнено сетью, использующей гебистское обучение. Такие сети, если оценивать их способность маркировать входной сигнал как новый или знакомый, обладают значительнобольшей производительностью: 1000 нейронов теперь могут распознать целых 23 000 изображений. Как прозорливо заметил Семен, это пример проблемы, возникающей при использовании общего языка для разделения функций мозга. То, что нам кажется просто "памятью", распадается под пристальным взглядом науки и математики на множество различных навыков.
* * *
Когда в 1953 году американский врач Уильям Сковилл удалил гиппокамп с каждой стороны мозга 27-летнего Генри Молесона, он думал, что помогает предотвратить припадки Молесона. Чего Сковилл не знал, так это того, какое невероятное влияние окажет эта процедура на науку о памяти. Молесон (более известный как H. M." в научных работах, чтобы скрыть свою личность до самой смерти в 2008 году) после процедуры получил некоторое облегчение от припадков, но у него больше никогда не формировались осознанные воспоминания. Последующая и постоянная амнезия Молесона положила начало исследованию гиппокампа - изогнутой структуры длиной в палец, расположенной глубоко в мозге, - как центрального звена в системе формирования памяти. Как выяснилось в ходе беспокойных поисков Лэшли, это место действительно играет особую роль в хранении воспоминаний.
Современные теории функционирования гиппокампа таковы: информация о мире сначала попадает в гиппокамп в зубчатой извилине - области, которая проходит вдоль нижнего края гиппокампа. Здесь представление грунтуется и подготавливается к тому, чтобы стать формой, более удобной для хранения в памяти. Затем зубчатая извилина направляет связи туда, гдесчитается , формируютсяаттракторы, - в область под названием CA3; CA3 имеет обширные рекуррентные связи, что делает ее основным субстратом для эффектов, подобных сети Хопфилда. Затем эта область посылает выход в другую область, называемую CA1, которая действует как ретрансляционная станция; она посылает запомненную информацию обратно в остальные части мозга (см. рис. 10).
Рисунок 10
Что интересно в этом последнем шаге - и что, возможно, запутало первоначальные выводы Лэшли - так это то, что эти проекции в различные области мозга, как полагают, облегчают копирование воспоминаний. Таким образом, СА3 действует как буфер, или хранилище, сохраняя воспоминания до тех пор, пока они не будут перенесены в другие области мозга. Для этого он реактивирует память в этих областях. Таким образом, гиппокамп помогает остальным частям мозга запоминать информацию, используя ту же стратегию, которую вы используете при подготовке к тесту: повторение. Многократно активируя одну и ту же группу нейронов в других областях мозга, гиппокамп дает этим нейронам возможность самим пройти процесс гебистского обучения. В конце концов их собственный вес изменится настолько, что память будет надежно сохранена.
Зная об этом хранилище памяти в мозге, исследователи могут изучить, как оно работает. В частности, они могут искать в нем аттракторы.
В 2005 году ученые из Университетского колледжа Лондона регистрировали активность клеток гиппокампа у крыс. Крысы привыкли находиться в двух разных вольерах - круглом и квадратном. Нейроны гиппокампа проявляли одну активность, когда они находились в круге, и другую, когда в квадрате. Тест на наличие аттракторов проводился, когда животное помещали в новую среду "сквирл", форма которой была чем-то средним между кругом и квадратом. Исследователи обнаружили, что если окружение было более квадратным, то нейронная активность переходила к паттерну, ассоциирующемуся с квадратом; если окружение было более круговым, то к паттерну, ассоциирующемуся с кругом. Важно отметить, что в ответ на промежуточное окружение не возникало никаких промежуточных представлений, только круг или квадрат. Это делает воспоминания о круге и квадрате аттракторами. Начальный входной сигнал, который не является в точности одним или другим, нестабилен; он неизбежно направляется к ближайшему установленному воспоминанию.
Сеть Хопфилда воплотила в жизнь теории Хебба и показала, как аттракторы - обычно изучаемые в физике - могут объяснить тайны памяти. Однако Хопфилд понимал, что математика не может быть реализована в реальных мозгах в реальных лабораториях. Он описывал свою модель как "простую пародию на сложности нейробиологии". Действительно, как творение физика, оналишена всего липкого богатства биологии. Но как пародия, способная к мощным вычислениям, она также предложила множество открытий - открытий, которые не ограничились простым хранением и запоминанием.
* * *
Вы ужинаете на кухне, когда домой возвращается ваш сосед по комнате. Увидев их, вы вспоминаете, что вчера вечером дочитали книгу, которую они вам одолжили, и хотите вернуть ее до того, как они уедут в командировку на следующий день. Поэтому вы откладываете еду, выходите из кухни и идете по коридору. Вы поднимаетесь по лестнице, поворачиваете, заходите в свою комнату и думаете: "Стоп, что я здесь делаю?".
Это ощущение встречается довольно часто. Настолько, что ему дали название: "дестинезия", или амнезия того, почему вы оказались там, где находитесь. Это сбой так называемой "рабочей памяти" - способности удерживать в голове идею даже в течение 10 секунд, необходимых для того, чтобы пройтись из комнаты в комнату. Рабочая память важна практически для всех аспектов познания: трудно принять решение или разработать план, если вы постоянно забываете, о чем думали.
Психологи изучают рабочую память уже несколько десятилетий. Сам термин впервые появился в книге "Планы и структура поведения", написанной в 1960 году Джорджем А. Миллером и его коллегами, работавшими в Центре перспективных исследований в области поведенческих наук в Калифорнии. Однако концепция была изучена задолго до этого. Действительно, сам Миллер написал одну из самых влиятельных работ на эту тему четырьмя годами ранее, в 1956 году. Возможно,, предвидя свою славу, Миллер дал статье дерзкое название "Магическое число семь, плюс или минус два". Под этим магическим числом подразумевается количество предметов, которые человек может удерживать в своей рабочей памяти в любой момент времени.
Пример оценки: 1) покажите участнику несколько цветных квадратов на экране; 2) попросите его подождать некоторое время - от нескольких секунд до нескольких минут; 3) затем покажите ему второй набор цветных квадратов. Задача испытуемого - указать, совпадают ли цвета второго набора с цветами первого. Люди хорошо справляются с этим заданием, если количество показываемых квадратов остается небольшим, достигая почти 100-процентной точности при показе только одного квадрата. При добавлении большего количества квадратов производительность падает и падает, пока после семи она почти не отличается от случайного угадывания. Вопрос о том, действительно ли семь - это особая величина, когда речь идет о таком виде рабочей памяти, остается открытым: некоторые исследования показывают более низкие пределы, некоторые - более высокие. Однако несомненно, что статья Миллера произвела впечатление, и с тех пор психологи работают над тем, чтобы охарактеризовать практически все аспекты рабочей памяти - от того, что в ней может храниться, до того, как долго она может работать.
Но остается открытым вопрос, как именно мозг это делает: где и каким образом хранятся рабочие воспоминания? Проверенный метод ответа на такие вопросы - эксперименты с поражением - указывает на префронтальную кору, большую часть мозга, расположенную сразу за лбом. Будь то люди с неудачными травмами или лабораторные животные с удаленной областью, было ясно, что повреждение префронтальной коры существенно снижает рабочую память. Без нее животныенемогутудерживать мысль дольше секунды или двух. Мысли и переживания проходят через их сознание, как вода через сжатые ладони.
Отметив место "Х", неврологи начали копать. Опустив электрод в префронтальную кору обезьян, в 1971 году исследователи из Калифорнийского университета в Лос-Анджелесе подслушивали нейроны, находящиеся там. Ученые, Хоакин Фустер и Гарретт Александер, делали это, пока животные выполняли задание, похожее на тест на запоминание цвета. Эти тесты известны как задания с "отсроченным ответом", поскольку включают период задержки, в течение которого важная информация отсутствует на экране и должна быть удержана в памяти. Возник вопрос: что делают нейроны в префронтальной коре во время этой задержки?
Большинство областей мозга, отвечающих за зрение, стереотипно реагируют на подобные задачи: нейроны сильно реагируют, когда узоры на экране появляются вначале, а затем снова, когда они появляются после задержки, но в период задержки - когда в мозг не поступает никаких зрительных сигналов - эти области в основном молчат. Для этих нейронов "вне поля зрения" действительно означает "вне сознания". Однако Фастер и Александр обнаружили, что клетки в префронтальной коре были другими. Нейроны, реагировавшие на визуальные паттерны, продолжали работать даже после того, как паттерны исчезали; то есть они сохраняли свою активность в течение периода задержки. Физическая сигнатура рабочей памяти в действии!
префронтальной коре, так и за ее пределами. Эксперименты также намекнули, что, когда эти паттерны стрельбы выходят из строя, рабочая память нарушается. В некоторых экспериментах, например, кратковременная электрическая стимуляция в период задержки может нарушить текущую активность, что приводит к снижению производительности в задачах на отсроченный ответ.
Что такого особенного в этих нейронах, что они могут это делать? Почему они могут удерживать информацию и поддерживать ее в течение нескольких секунд или минут, в то время как другие нейроны ее пропускают? Для такой устойчивой работы нейронам обычно нужен устойчивый вход. Но если активность задержки возникает без какого-либо внешнего входа в виде изображения, то этот постоянный вход должен поступать от соседних нейронов. Таким образом, активность задержки может генерироваться только сетью нейронов, работающих вместе, и связи между ними сговариваются, чтобы поддерживать активность. Именно здесь снова вступает в игру идея аттракторов.
До сих пор мы рассматривали аттракторы в сетях Хопфилда, которые показывают, как входные сигналы оживляют память. Может быть, не совсем понятно, как это помогает в работе с рабочей памятью. В конце концов, рабочая память - это все о том, что происходит после зажигания; после того как вы встали, чтобы взять книгу соседа по комнате, как вам удастся удержать эту цель в памяти? Однако, как выяснилось, аттрактор - это именно то, что нужно в данной ситуации, потому что аттрактор остается на месте.
Аттракторы определяются производными. Если мы знаем, какие входы получает нейрон и на какие веса умножаются эти входы, мы можем записать уравнение - производную, - описывающее, как активность нейрона будет меняться со временем под воздействием этих входов. Если эта производная равна нулю, это означает,активность нейрона не меняетсявременем; он просто продолжает работать с той же постоянной скоростью. Вспомните, что, поскольку этот нейрон является частью рекуррентной сети, он не только получает входные данные, но и служит входом для других нейронов. Так, его активность направлена на вычисление производной соседнего нейрона. Если ни один из входов соседнего нейрона не меняется - то есть все их производные также равны нулю, - то и у него будет нулевая производная, и он будет продолжать срабатывать с той же скоростью. Когда сеть находится в состоянии аттрактора, производная каждого нейрона в этой сети равна нулю.
Именно так, если связи между нейронами правильные, воспоминания, начатые в один момент времени, могут сохраняться гораздо дольше. Все клетки могут поддерживать свой ритм работы, потому что все клетки вокруг них делают то же самое. Ничего не меняется, если ничего не меняется.
Проблема в том, что все меняется. Когда вы выходите из кухни и идете в спальню, вы сталкиваетесь со всевозможными вещами - вашими ботинками в коридоре, ванной, которую вы собирались убрать, видом дождя на окне - которые могут вызвать изменения во входном сигнале нейронов, пытающихся удержать память. И эти изменения могут вытолкнуть нейроны из состояния аттрактора, представляющего книгу, и направить их в совершенно другое место. Чтобы рабочая память функционировала, сеть должна хорошо сопротивляться влиянию таких отвлекающих факторов. Обычный аттрактор может в определенной степени противостоять отвлекающему воздействию. Вспомните пример с батутом. Если человек, стоящий на батуте, слегка подтолкнет мяч, он, скорее всего, выкатится из углубления, а затем вернется обратно. При небольшом возмущении память остается нетронутой, но если датьмячу более сильный толчок, кто знает, где он окажется? Хорошая память должна быть устойчива к таким отвлекающим факторам - так что же может сделать сеть хорошей хранительницей воспоминаний?
Танец между данными и теорией - это сложный процесс, в котором нет четкой ведущей или последующей роли. Иногда математические модели разрабатываются только для того, чтобы соответствовать определенному набору данных. В других случаях детали данных отсутствуют или игнорируются, и теоретики поступают так, как и следует из их названия: теоретизируют о том, как может работать система, еще не зная, как она работает. Когда речь зашла о создании надежной сети рабочей памяти, ученые в 1990-х годах пошли в последнем направлении. Они придумали так называемую "кольцевую сеть" - разработанную вручную модель нейронной цепи, которая идеально подходит для надежного поддержания рабочей памяти.
В отличие от сетей Хопфилда, кольцевые сети хорошо описываются их названием: они состоят из нескольких нейронов, расположенных кольцом, причем каждый нейрон соединяется только с теми, которые находятся рядом с ним. Как и у сетей Хопфилда, у этих моделей есть состояния аттрактора - паттерны активности, которые являются самоподдерживающимися и могут представлять собой воспоминания. Но состояния аттракторов в кольцевой модели отличаются от состояний аттракторов в сети Хопфилда. Аттракторы в модели Хопфилда дискретны. Это означает, что каждое состояние аттрактора - то, которое относится к вашей детской спальне, то, которое относится к вашему детскому отпуску, то, которое относится к вашей нынешней спальне, - полностью изолировано от остальных. Не существует плавного перехода между этими разными воспоминаниями, независимо от того, насколько они похожи; вам придется полностью покинуть одно состояние аттрактора, чтобы попасть в другое. Аттракторы в кольцевой сети, напротив, непрерывны. С непрерывными аттракторами переход между похожимивоспоминаниями очень прост. Модели с непрерывными состояниями аттракторов скорее напоминают желоб дорожки для боулинга: попав в желоб, шар не может легко из него выбраться, но может плавно перемещаться внутри него.
Сети с непрерывными состояниями аттракторов, подобные кольцевой модели, полезны по целому ряду причин, и главная из них - тип ошибок, которые они допускают. Может показаться глупым хвалить систему памяти за ее ошибки - разве мы не предпочли бы вообще не иметь ошибок? - Но если мы предположим, что ни одна сеть не может обладать идеальной памятью, то качество ошибок становится очень важным. Кольцевая сеть допускает небольшие, разумные ошибки.
Рассмотрим пример теста на рабочую память, в котором испытуемые должны были запомнить цвет фигур на экране. Цвета хорошо отображаются в кольцевых сетях, потому что, как вы помните из уроков рисования, цвета располагаются на колесе. Итак, представьте себе сеть нейронов, расположенных в виде кольца, где каждый нейрон представляет немного другой цвет. На одной стороне кольца находятся нейроны, представляющие красный цвет, рядом с ними - оранжевые, затем желтые и зеленые; так мы доходим до стороны, противоположной красному, где находятся нейроны, представляющие синий цвет, которые ведут к фиолетовым и снова к красному.
В этой задаче при виде фигуры возникает активность в нейронах, представляющих ее цвет, в то время как другие нейроны молчат. В результате на кольце образуется небольшой "бугорок" активности, сосредоточенный на запомненном цвете. Если в то время, когда человек пытается удержать в памяти этот цвет, поступают какие-либо отвлекающие сигналы - например, от других случайных объектов в комнате, - они могут оттолкнуть или отодвинуть бугорок активности от желаемого цвета. Но - и это решающий- он сможет сдвинуть его только в очень близкое место на кольце. Так красный может стать красно-оранжевым или зеленый - тиловым. Но память красного цвета вряд ли станет зеленым. Или, если уж на то пошло, вообще не станет никаким цветом; где-то на кольце всегда будет неровность. Все эти свойства являются прямым следствием желобообразной природы непрерывного аттрактора - он обладает низким сопротивлением при переходе между близкими состояниями, но высоким сопротивлением при других возмущениях.
Еще одно преимущество кольцевой сети заключается в том, что ее можно использовать для выполнения различных действий. Слово "рабочая" в рабочей памяти призвано опровергнуть мнение о том, что память - это просто пассивное хранение информации. Напротив, хранение идей в рабочей памяти позволяет нам комбинировать их с другой информацией и приходить к новым выводам. Отличным примером этого является система направления головы у крыс, которая также послужила вдохновением для ранних моделей кольцевых сетей.
У крыс (как и у многих других животных) есть внутренний компас: набор нейронов, которые постоянно отслеживают направление, в котором находится животное. Если животное поворачивается лицом к новому направлению, активность этих клеток меняется, отражая это изменение. Даже если крыса сидит неподвижно в тихой затемненной комнате, эти нейроны продолжают работать, сохраняя информацию о направлении движения. В 1995 году группа специалистов из лаборатории Брюса Макнотона в Университете Аризоны и отдельно Кечен Чжан из Калифорнийского университета в Сан-Диего предположили, что этот набор клеток может быть хорошо описан кольцевой сетью. Направление - одно из тех понятий, которые хорошо отображаются в круге, и бугорок активности на кольце будет использоваться для хранения направления, в котором находится животное (см. рис. 11).
Но кольцевая сеть не только объясняет, как знание о направлении головы сохраняется с течением времени, но и служит моделью того, как сохраненное направление может меняться, когда животное меняет направление. Клетки, определяющие направление головы, получают входные сигналы от других нейронов, например от нейронов зрительной системы и вестибулярного аппарата (который следит за движением тела). Если эти входы правильно подключены к кольцевой сети, они могут подтолкнуть бугорок активности к новому месту на кольце. Например, если вестибулярная система говорит, что тело сейчас движется влево, бугорок сдвигается влево. Таким образом, движение по кольцу не создает ошибок в памяти, а скорее обновляет ее на основе новой информации. Рабочая" память оправдывает свое название.
Рисунок 11
Кольцевые сети - прекрасное решение сложной проблемы создания надежных и функциональных систем рабочей памяти. Они также являются прекрасными математическими объектами. Они демонстрируют желаемые свойства простоты и симметрии. Они точны и тонко настроены, даже элегантны.
Как таковые, они совершенно нереальны. Потому что для биолога, конечно, "тонкая настройка" - это грязные слова. Все, что требует тонкого планирования и первозданных условий для нормальной работы, не выживет в хаосе, которым является развитие и деятельность мозга. Многие из желаемых свойств кольцевых сетей проявляются только при очень специфических предположениях о связности между нейронами, предположениях, которые просто не кажутся очень реалистичными. Поэтому, несмотря на все их желательные теоретические свойства и полезные возможности, шансы увидеть кольцевую сеть в мозге представляются незначительными.
Поэтому открытие, сделанное в исследовательском центре недалеко от Вашингтона в 2015 году, стало еще более захватывающим.
Janelia Research Campus - это исследовательский центр мирового класса, спрятанный на идиллических бывших сельскохозяйственных угодьях в Эшберне, штат Вирджиния. Вивек Джаяраман работает в Janelia с 2006 года. Он и его команда из примерно полудюжины человек работают над пониманием навигации у Drosophila melanogaster, вида плодовой мушки, широко изучаемого в нейронауках. Размер этих животных, сравнимый с рисовым зерном, является одновременно и благословением, и проклятием. Хотя их трудно достать, у этих крошечных мушек всего около 135 000 нейронов, что примерно на 0,2 процента больше, чем у другого популярного лабораторного животного - мыши. Кроме того, об этих нейронах известно очень многое. Многие из них легко классифицировать по генам, которые они экспрессируют, а их количество и расположение очень похожи у разных особей.
Как и у грызунов, у мух тоже есть система для отслеживания направления движения головы. Эллипсоидное тело расположено в центре мозга мухи и имеет уникальную форму: в его центре находится отверстие, вокруг которого расположены клетки, образующие пончик из нейронов - или, другими словами, кольцо.
Однако нейроны, расположенные кольцом, не обязательно образуют кольцевую сеть. Поэтому в лаборатории Джаярамана решили выяснить, действительно ли эта группа нейронов, похожая на кольцевую сеть, ведет себя так же. Для этого они поместили в нейроны эллипсоидного тела специальный краситель, который заставляет их светиться зеленым светом, когда они активны. Затем они заставили муху ходить, а нейроны снимали на видео. Если бы вы посмотрели на эти нейроны на экране, когда муха направляется вперед, вы бы увидели мерцание маленьких зеленых точек в одном месте на черном экране. Если муха решит повернуть, мерцающий участок переместится в другое место. Со временем, когда муха перемещается, а вместе с ней перемещается и зеленое пятно на экране, загоревшиеся точки образуют четкую кольцевую структуру, соответствующую основной форме тела эллипсоида. Если выключить в комнате свет, чтобы муха не могла видеть, в какую сторону она направлена, зеленое мерцание все равно останется в том же месте кольца - явный признак того, что память о направлении движения сохраняется.
Помимо наблюдения за активностью кольца, экспериментаторы также манипулировали им, чтобы исследовать крайние варианты его поведения. Настоящая кольцевая сеть может поддерживать только одну "шишку" активности, то есть в данный момент времени активными могут быть только нейроны в одном месте кольца. Поэтому исследователи искусственно стимулировали нейроны на стороне кольца, противоположной тем, которые уже были активны. Такая сильная стимуляция противоположных нейронов привела к тому, что первоначальный бугорок выключился, а бугорок в новом месте сохранился даже после того, как стимуляция былавыключена. В ходе этих экспериментов стало ясно, что эллипсоидное тело - не самозванец, а яркий пример воплощения теории в жизнь.
Это открытие - кольцевая сеть в буквальной, видимой форме кольца - похоже на то, что природа нам подмигивает. Уильям Скэггс и другие авторы одной из оригинальных работ, в которой предлагалась кольцевая сеть, явно сомневались в возможности такой находки: "Для наглядности полезно представлять сеть как набор круговых слоев; это не отражает анатомическую организацию соответствующих клеток в мозге". Большинство теоретиков, работавших над моделями кольцевых сетей, предполагали, что они будут встроены в какую-то более крупную и запутанную сеть нейронов. И так будет в большинстве систем у большинства видов. Этот аномально чистый пример, вероятно, возник в результате очень точно контролируемой генетической программы. Другие будет гораздо сложнее обнаружить.
Даже если мы обычно не можем увидеть их напрямую, мы можем сделать предсказания о поведении, которое мы ожидаем увидеть, если мозг использует непрерывные аттракторы. В 1991 году исследователь рабочей памяти Патриция Голдман-Ракич обнаружила, что блокирование функции нейромодулятора дофамина затрудняет запоминание обезьянами местоположения предметов. Известно, что дофамин изменяет поток ионов в клетку и из нее. В 2000 году исследователи из Института Солка в Калифорнии показали, как имитация присутствия дофамина в модели с непрерывным аттрактором улучшает память модели. Он стабилизирует активность нейронов, кодирующих память, делаяих более устойчивыми к нерелевантным входным сигналам. Поскольку дофамин связан с вознаграждением, эта модель также предсказывает, что в условиях, когда человек ожидает большого вознаграждения, его рабочая память будет лучше - именно это и было обнаружено. Когда людям обещают большую награду за запоминание чего-либо, их рабочая память становится лучше. Здесь концепция аттрактора работает как нить, сшивающая химические изменения с когнитивными. Она связывает ионы с опытом.
Аттракторы вездесущи в физическом мире. Они возникают в результате локальных взаимодействий между частями системы. Будь то атомы в металле, планеты в солнечной системе или даже люди в сообществе, они будут вынуждены двигаться к состоянию аттрактора и, если не произойдет серьезных сбоев, останутся в нем. Применение этих концепций к нейронам, формирующим память, соединяет точки в биологии и психологии. С одной стороны, сети Хопфилда связывают формирование и извлечение воспоминаний с тем, как меняются связи между нейронами. С другой стороны, такие структуры, как кольцевые сети, лежат в основе того, как идеи удерживаются в сознании. В одной простой схеме мы описываем, как записываются, сохраняются и активизируются воспоминания.
Глава 5. Возбуждение и торможение.
Сбалансированная сеть и колебания
Почти в каждом нейроне идет борьба. Эта борьба - борьба за конечный результат работы нейрона - сталкивает две фундаментальные силы мозга друг с другом. Это битва возбуждения против торможения. Возбуждающие сигналы побуждают нейрон к действию. Тормозные сигналы делают обратное: они отодвигают нейрон дальше от порога возбуждения.
Баланс между этими двумя силами определяет деятельность мозга. Он определяет, какие нейроны и когда срабатывают. Он формирует их ритмы - ритмы, которые задействованы во всем, от внимания до сна и памяти. Возможно, более удивительно то, что баланс между возбуждением и торможением также может объяснить особенность мозга, которая преследовала ученых на протяжении десятилетий: пресловутую ненадежность нейронов.
Если подслушать нейрон, который должен выполнять одно и то же действие снова и снова - например, нейрон в двигательной системе, повторяющий одно и то же движение, - то можно обнаружить, что его активность удивительно неравномерна. Вместо того чтобы каждый раз дословно повторять один и тот же паттерн всплесков, он будет срабатывать чаще при одних попытках и реже при других.
Ученые узнали об этой своеобразной привычке нейронов еще во времена нейронной записи. В 1932 году физиолог Джозеф Эрлангер обновил оборудование в своейлаборатории в Сент-Луисе, что позволило ему регистрировать нейронную активность с чувствительностью, в 20 раз превышающей прежнюю. Вместе со своим коллегой Э. А. Блэром он наконец-то смог выделить отдельные нейроны в лапке лягушки и записать, как они реагируют на точные импульсы электричества - 58 одинаковых импульсов в минуту, если быть точным.
К своему удивлению, Эрлангер и Блэр обнаружили, что одинаковые импульсы не вызывают одинаковых ответов: нейрон может реагировать на один импульс тока, но не на следующий. При этом сохранялась зависимость между силой импульса и реакцией: например, при использовании слабых токов нейрон реагировал, скажем, в 10 процентах случаев, средних - в половине случаев и так далее. Но за пределами этих вероятностей реакция нейрона на тот или иной импульс казалась делом чистой случайности. Как писала пара в своей статье, опубликованной в 1933 году в American Journal of Physiology: "Мы были поражены калейдоскопическим видом [ответов], полученных от больших нервов при абсолютно постоянных условиях".
Эта работа стала одним из первых исследований, систематически изучавших загадочные неровности нервной системы, но она была далеко не последней. Например, в 1964 году пара американских ученых раз за разом выполняла одно и то же движение щеткой по коже обезьяны. Они сообщили, что активность нейронов, реагирующих на это движение, выглядит как "серия нерегулярно повторяющихся импульсов, так что в целом при визуальном осмотре нельзя обнаружить никакой упорядоченной картины".
В 1983 году группа исследователей из Кембриджа и Нью-Йорка отметила, что: "Известно, что изменчивость реакции нейронов коры головного мозга весьма значительна". Их исследование зрительной системы у кошек и обезьян показало, чтонейронный ответ на повторение одного и того же изображения дает разные результаты. Реакция все еще имеланекоторую связь со стимулом - клетки все еще меняли среднее число срабатываний на разные изображения. Но какой именно нейрон и когда сработает в каждом конкретном случае, казалось, было так же непредсказуемо, как погода на следующей неделе. Последовательное предъявление одинаковых стимулов не дает одинаковых реакций", - заключили авторы.
В 1998 году два видных нейробиолога даже сравнили работу мозга со случайностью радиоактивного распада, написав, что нейроны имеют "больше общего с тиканьем счетчика Гейгера, чем с часами".
Десятилетия исследований и тысячи статей привели к тому, что нервная система оказалась в полном беспорядке. Сигналы, поступающие в мозг, воздействуют на нейроны, которые и без того включаются и выключаются по собственной прихоти. Поступающие на эти нейроны сигналы могут влиять на их активность, но не контролировать ее в точности - всегда будет присутствовать элемент неожиданности. Эту предположительно бесполезную болтовню, отвлекающую от основного сообщения, которое пытается передать нейрон, неврологи называют "шумом".
Как знаменито сказал Эйнштейн в отношении новой науки - квантовой механики: "Бог не играет в кости". Так почему же мозг должен играть? Может ли быть какая-то веская причина, по которой эволюция породила шумные нейроны? Некоторые философы утверждают, что шум в мозге может быть источником нашей свободы воли - это способ преодолеть представление о разуме как о подчиненном тем же детерминированным законам, что и любая машина. Однако другие с этим не согласны. Как писал британский философ Гален Стросон: "Возможно, некоторыеизменения в человеке можно отследить... под влиянием индетерминистских или случайных факторов. Но абсурдно полагать, что индетерминистские или случайные факторы, за которые человек [по определению] никак не отвечает, сами по себе могут способствовать тому, что человек будет действительно морально ответственным за то, каким он является". Другими словами, следование решениям, основанным на подбрасывании монеты, тоже не совсем "свободно".
Ученые выдвигали и другие цели для этой непредсказуемости. Например, случайность может помочь узнать что-то новое. Если кто-то каждый день ходит на работу по одной и той же дороге, то случайный поворот налево может привести его в незнакомый парк, новое кафе или даже ускорить путь. Нейронам тоже полезно немного исследовать, и шум позволяет им это сделать.
Помимо вопроса о том, почему нейроны шумят, нейробиологов волнует вопрос о том, как они становятся такими. Возможные источники шума существуют за пределами мозга. Например, фоторецепторы в глазах должны получить определенное количество фотонов, чтобы отреагировать на них. Но даже постоянный источник света не может гарантировать, что в глаз будет поступать постоянный поток фотонов. Таким образом, входной сигнал для нервной системы может быть ненадежным.
Кроме того, некоторые элементы работы нейрона зависят от случайных процессов. Например, электрическое состояние нейрона меняется, если меняется диффузия ионов в жидкости вокруг него. Кроме того, нейроны, как и любые другие клетки, состоят из молекулярных машин, которые не всегда работают по плану: необходимые белки могут вырабатываться недостаточно быстро, подвижные части могут застревать и т. д.Хотя эти физические сбои могутспособствовать шумности мозга, они, похоже, не полностью объясняют ее. На самом деле, если взять нейроны из коры головного мозга и поместить их в чашку Петри, они ведут себя гораздо надежнее: стимуляция этих нейронов одним и тем же способом дважды приводит к одинаковым результатам. Поэтому элементарные сбои в работе клеточных механизмов - которые могут происходить как в чашке, так и в мозге - кажутся недостаточными для объяснения шума, который обычно наблюдается.
Таким образом, бухгалтерия не сбалансирована: вносимый шум почему-то не равен производимому шуму. Можно было бы предположить, что это просто любопытная ошибка в учете; возможно, в нейронном механизме есть несколько лишних ненадежных шестеренок, или входные данные из мира еще менее стабильны, чем мы думаем. Подобные ошибки могли бы компенсировать разницу, если бы не один маленький факт: сама природа работы нейронов делает их шумоподавителями.
Чтобы понять это, представьте, что вы с друзьями играете в игру, цель которой - посмотреть, как далеко вы сможете коллективно перебросить футбольный мяч по длинному полю, пока не истечет таймер. Никто из вас не обладает хорошей практикой, и время от времени вы совершаете ошибки - кто-то пропускает пас, кто-то устает, кто-то спотыкается. Вы также иногда превосходите свои собственные ожидания, бегая слишком быстро или передавая пас слишком далеко. Если отведенное время невелико - скажем, 30 секунд, - то такие кратковременные промахи или преимущества сильно скажутся на вашей дистанции. Вы можете пробежать 150 м в одной попытке и 20 в следующей. Но если время большое, скажем, пять минут, эти колебания в результатах могут просто уравновесить друг друга: медленное начало может быть компенсировано интенсивным спринтом в конце, или выигрыш от длинного прохода может быть потерян из-за падения. В результате, чем большевремя , тем более схожей будет дистанция в каждой попытке. Другими словами, "шумность" ваших спортивных способностей со временем выравнивается.
Нейроны оказываются в похожей ситуации. Если нейрон получает достаточно входного сигнала за определенный промежуток времени, он выдает спайк (см. рис. 12). Получаемый им входной сигнал является шумовым, поскольку он поступает от других нейронов. Так, в один момент нейрон может получить, скажем, пять входных сигналов, в следующий - 13, а после этого - ноль. Как и в примере с игрой, если нейрон будет долгое время принимать шумовые сигналы, прежде чем решить, достаточно ли их для всплеска, влияние шума уменьшится. Однако если он использует только быстрый снимок входного сигнала, шум будет доминировать.
Сколько же времени нейрон комбинирует свои входные сигналы? Около 20 миллисекунд. Это может показаться мало, но для нейрона это очень много. Спайк длится всего 1 миллисекунду, а клетка может получать множество импульсов одновременно со всех своих входов. Поэтому нейроны должны уметь брать среднее значение по многим снимкам входного сигнала, прежде чем принять решение о спайке.
Неврологи Уильям Софтки и Кристоф Кох использовали простую математическую модель нейрона - модель "утечки интеграта и огня", представленную в главе 2, - чтобы проверить именно это. В своем исследовании 1993 года они смоделировали нейрон, получающий входные сигналы в нерегулярное время. Однако сам нейрон - поскольку он интегрировал эти входящие импульсы во времени - все равно производил выходные импульсы, которые были гораздо более регулярными, чем получаемые им входные сигналы. Это означает, что нейроны действительно способны уничтожать шум - принимать шумные входные сигналы и производить менее шумные выходные сигналы.
Рисунок 12
Если бы нейроны не могли гасить шум, то ненадежность мозга не была бы такой загадкой. Как уже говорилось, можно предположить, что небольшое количество случайностей попадает в мозг - либо из внешнего мира, либо изнутри клетки - и распространяется по системе через связи между нейронами. Если бы шумные входы приводили к таким же, а возможно, и более шумным выходам, это была бы вполне самосогласованная история: шумные нейроны порождали бы шумные нейроны. Но, согласно модели Софтки и Коха, все происходит иначе. При прохождении через нейрон шум должен становиться слабее. При прохождении через целую сеть нейронов он должен был бы полностью исчезнуть. Однако куда бы ни посмотрели неврологи, он есть.
Мозг не только непредсказуем, но и, похоже, поощряет эту непредсказуемость - вопреки естественному стремлению нейронов подавить ее. Что поддерживает случайность? Есть ли в мозге генератор случайных чисел? Что-то вроде скрытой биологической игральной кости? Или, как предположили ученые 1990-х годов, все эти беспорядки на самом деле являются результатом более фундаментального порядка, баланса между возбуждением и торможением?
* * *
Эрнсту Флори потребовалось несколько визитов к мяснику из Лос-Анджелеса, чтобы обнаружить источник торможения в мозге.
В середине 1950-х годов Флори, нейробиолог немецкого происхождения, эмигрировавший в Северную Америку, работал над этим вопросом вместе со своей женой Элизабет. В то время уже был установлен факт, что нейроны общаются между собой, посылая друг другу химические вещества - так называемые нейротрансмиттеры. Однако единственные известные нейротрансмиттеры были возбуждающими - то есть химическими веществами, которые заставляли нейрон с большей вероятностью выстрелить. Однако уже с середины XIX века было известно, что некоторые нейроны могут снижать электрическую активность своих объектов. Например, братья Веберы, Эрнст и Эдуард, в 1845 году показали, что электрическая стимуляция нерва в спинном мозге может замедлить работу клеток, контролирующих биение сердца, и даже привести его к остановке. Это означало, что химическое вещество, выделяемое этими нейронами, было тормозным - оно снижало вероятность того, что клетки начнут биться.
Флори нужны были образцы для исследования "фактора I" - так он назвал вещество, отвечающее за торможение. Поэтому он регулярно ездил на своем Chevrolet 1934 года выпуска к конному мяснику и брал у него части, не столь любимые обычными покупателями: свежие мозги и спинной мозг. Выделив из этой нервной ткани различные вещества, он проверил, что произойдет, если применить каждое из них к живым нейронам, взятым у раков. В итоге он определилнесколько химических веществ-кандидатов, которые надежно успокаивали рачьи нейроны. Такое межвидовое сопряжение было, по сути, удачей со стороны Флори. Не всегда можно предположить, что нейротрансмиттеры у разных животных функционируют одинаково. Но в данном случае то, что тормозило лошадь, тормозило и раков.
С помощью профессиональных химиков Флори использовал ткань другого животного - 45 кг (100 фунтов) коровьего мозга, чтобы очистить "фактор I" до его базовой химической структуры. В итоге у него осталось 18 мг гамма-аминомасляной кислоты. Гамма-аминомасляная кислота (или ГАМК, как ее чаще называют) была первым идентифицированным тормозным нейротрансмиттером.
Является ли нейротрансмиттер тормозным или возбуждающим, зависит от глаза смотрящего - или, если говорить более технически, от рецептора нейрона-мишени. Когда нейромедиатор высвобождается из одного нейрона, химическое вещество преодолевает короткое расстояние через синапс между этим нейроном и его мишенью. Затем оно прикрепляется к рецепторам, расположенным на мембране целевого нейрона. Эти рецепторы похожи на маленькие белковые замки. Для их открытия требуется правильный ключ - то есть правильный нейромедиатор. А когда они открыты, то довольно избирательно относятся к тому, кого впускать. Например, один из видов рецепторов, к которым присоединяется ГАМК, пропускает в клетку только хлорид-ионы. Хлорид-ионы имеют отрицательный заряд, и если впустить их больше, то нейрону будет сложнее достичь электрического порога, необходимого для выстрела. Рецепторы, к которым прикрепляются возбуждающие нейротрансмиттеры, пропускают положительно заряженные ионы, например натрия, которые приближают нейрон к порогу.
Нейроны склонны выделять один и тот же нейромедиатор на все свои мишени - этот принцип известен как закон Дейла (названный в честь Генри Халлетта Дейла, который смело предположил это в 1934 году, когда были идентифицированы только два нейромедиатора). Нейроны, выделяющие ГАМК, называются "ГАМК-эргическими", хотя, поскольку ГАМК является наиболее распространенным тормозным нейромедиатором в мозге взрослого млекопитающего, их часто называют просто "тормозными". Возбуждающие передатчики немного разнообразнее, но нейроны, которые их выделяют, все равно в целом классифицируются как "возбуждающие". В пределах одной области коры возбуждающие и тормозные нейроны свободно перемешиваются, посылая связи друг к другу и получая их друг от друга.
В 1991 году, после того как многие факты о торможении были установлены, Флори написал ретроспективу о своей роли в открытии первого - и, возможно, самого важного - тормозного нейротрансмиттера. Он закончил ее фразой: "Что бы ни делал мозг для разума, мы можем быть уверены, что ГАМК играет в этом главную роль". Вероятно, Флори не знал, что в то же самое время развивается теория, согласно которой торможение является ключевым игроком в производстве непредсказуемости мозга.
* * *
Возвращаясь к аналогии с футбольным матчем с таймером, представьте, что к вам добавилась еще одна команда. Их цель - бороться с вами, перемещая мяч на противоположный конец поля. Когда часы остановятся, победит тот, кто окажется ближе к своей цели. Если другая команда также состоит из ваших друзей-полуспортсменов, то в среднем обе командыбудут выступать одинаково. Шумность вашего выступления все равно повлияет на результат: ваша команда может обойти другую на несколько метров в одной попытке и на столько же в другой. Но в целом это будет сбалансированная и спокойная игра.
А теперь подумайте, если бы в другой команде были профессиональные спортсмены - одни из самых сильных и быстрых игроков на свете. В этом случае у вас и ваших друзей не было бы ни единого шанса; вас бы всегда били. Именно поэтому никто не станет смотреть соревнования между карьерными футболистами и школьной командой, Тайгер Вудс против вашего отца или Годзилла против буквально мотылька. Исход всех этих матчей слишком предсказуем, чтобы быть интересным. Другими словами, нечестные бои создают постоянство; честные бои более увлекательны.
В коре головного мозга нейроны имеют тысячи связей как с возбуждающими, так и с тормозящими клетками. Благодаря этому каждая отдельная сила сильна и постоянно доминировала бы, если бы другая была хоть немного слабее. Например, без присутствия торможения сотни возбуждающих сигналов, бомбардирующих клетку в любой момент, заставили бы ее гореть почти постоянно; с другой стороны, одно только торможение привело бы клетку в состояние полного застоя. При огромной силе каждой из сторон истинная активность нейрона - это результат перетягивания каната между гигантами. То, что происходит в нейроне, - это действительно сбалансированная борьба, которую можно увидеть на Олимпийских играх, а не на школьном дворе.
Скажите этот факт специалисту по информатике, и он может начать волноваться. Это потому, что ученые-компьютерщики знают, что вычисление разницы между слишком большими и шумными числами может привести к большим проблемам. В компьютерах числамогут быть представлены только с определенным уровнем точности. Это означает, что некоторые числа необходимо округлять, что вносит погрешность или шум в вычисления. Например, компьютер с точностью только до трех цифр может представить число 18 231 как 1,82x103; оставшиеся 31 потеряются при округлении. При вычитании двух примерно равных чисел влияние этой ошибки округления может повлиять на ответ. Например, 18 231 минус 18 115 равно 116, но компьютер вычислит эту разницу как 1,82x103 минус 1,81x103, что составляет всего 10! Таким образом, компьютер отклоняется на 106. И чем больше число, тем больше будет ошибка. Например, компьютер с трехзначной точностью, вычисляющий 182 310 минус 181 150, выдаст ответ, который на 1 060 меньше истинного.
Вы бы не почувствовали себя комфортно, если бы ваш банк или кабинет врача производили вычисления подобным образом. По этой причине программистов учат писать свой код так, чтобы избежать вычитания двух очень больших чисел. Однако нейроны вычитают два больших числа - возбуждение минус торможение - в каждый момент времени. Может ли такой "баг" быть частью операционной системы мозга?
Ученые уже некоторое время размышляли над этой идеей, когда в 1994 году нейробиологи из Стэнфорда Майкл Шадлен и Уильям Ньюсом решили проверить ее на практике. Подобно работе Софтки и Коха, Шадлен и Ньюсом построили математическую модель одного нейрона и подали на него входные сигналы. Однако на этот раз нейрон получал как шумные возбуждающие, так и шумные тормозящие сигналы. Когда эти две силы противостоят друг другу, иногда побеждает возбуждение, а иногда - торможение. Эта ли эта борьба похожа на шумные вычисления и приведет ли она к появлению нейрона, которыйбудет работать нестабильно? Или нейрон все же сможет подавить шум в этих входах так же, как он подавлял возбуждающие входы в работе Софтки и Коха? Шадлен и Ньюсом обнаружили, что, действительно, при обоих этих типах входов - каждый из которых поступал с одинаково высокой скоростью - выход нейрона был зашумлен.
В боксерском поединке между любителями кратковременное ослабление внимания одного из них может позволить другому нанести небольшой удар. Однако в поединке между профессионалами такой же промах может привести к нокауту. В общем, чем сильнее две соперничающие силы, тем больше колебания в исходе их борьбы. Именно так внутренняя борьба между возбуждением и торможением в нейроне может превзойти его обычные способности к подавлению шума. Поскольку оба источника равномерно распределены, чистый вход нейрона (то есть общее возбуждение минус общее торможение) в среднем не очень велик. Но поскольку оба источника сильны, колебания вокруг этого среднего значения огромны. В один момент нейрон может оказаться намного выше своего порога возбуждения и выдать спайк. В следующий момент его может заставить замолчать волна торможения. Эти воздействия могут заставить нейрон выстрелить, когда в противном случае он бы не выстрелил, или замолчать, когда в противном случае он бы замолчал. Таким образом, баланс между возбуждением и торможением создает хаос в нейроне и помогает объяснить изменчивость мозга.
Моделирование, проведенное Шадленом и Ньюсомом, в значительной степени помогло понять, как нейроны могут оставаться шумными. Но оно не зашло достаточно далеко. Реальные нейроны получают сигналы от других реальных нейронов. Чтобы теория о том, что шум возникает в результате баланса между возбуждением и торможением, была верной, она должнаработать для целой сети возбуждающих и тормозящих нейронов. Это означает, что каждый нейрон получает входные сигналы от других нейронов, и его выходные сигналы также возвращаются к ним. Однако в моделировании Шадлена и Ньюсома участвовал всего один нейрон, который получал входные сигналы, контролируемые создателями модели. Вы не можете просто посмотреть на доходы и расходы одного домохозяйства и решить, что национальная экономика сильна. Точно так же моделирование одного нейрона не может гарантировать, что сеть нейронов будет работать так, как нужно. Как мы видели в предыдущей главе, в системе с большим количеством движущихся частей все они должны двигаться правильно, чтобы получить желаемый результат.
Чтобы заставить целую сеть производить надежный шум, требуется координация: каждый нейрон должен получать возбуждающий и тормозной вход от своих соседей примерно в равных пропорциях. При этом сеть должна быть самосогласованной - то есть каждый нейрон должен производить столько же шума, сколько он получает, ни больше, ни меньше. Может ли сеть из взаимодействующих возбуждающих и тормозящих клеток на самом деле поддерживать такой уровень шума, который наблюдается в мозге, или же шум в конце концов стихнет или взорвется?
* * *
Когда дело доходит до вопросов самосогласованности в сетях, физики знают, что делать.Как мы видели в предыдущей главе, в физике полно ситуаций, когда самосогласованность важна: например, газы, состоящие из большого количества простых частиц, где каждая частица подвержена влиянию всех окружающих ее частиц иответвлияет на них.Поэтому были разработаны методы, облегчающие работу с математикой этих взаимодействий.
В 1980-х годах израильский физик Хаим Сомполинский использовал эти методы, чтобы понять, как ведут себя материалы при различных температурах. Но в конце концов его интересы обратились к нейронам. В 1996 году Сомполинский и его коллега, физик, ставший нейробиологом, Карл ван Вресвейк применили физический подход к вопросу о балансе в мозге. Подражая математике, используемой для понимания взаимодействующих частиц, они записали несколько простых уравнений, которые представляли очень большую популяцию взаимодействующих возбуждающих и тормозящих клеток. Эта популяция также получала внешние сигналы, представляющие собой связи, поступающие из других областей мозга.
С помощью простых уравнений ван Вресвейк и Сомполински смогли математически определить, какое поведение они хотели бы видеть в модели. Например, клетки должны быть способны поддерживать активность, но не слишком активную (например, не должны безостановочно стрелять). Кроме того, они должны реагировать на увеличение внешнего сигнала повышением средней скорости стрельбы. И, конечно же, реакция не должна быть шумной.
Введя эти требования, ван Вресвейк и Сомполински стали перебирать уравнения. Они обнаружили, что для создания полноценной сети, которая будет продолжатьнерегулярнострелятьс разумной скоростью, необходимо соблюсти некоторые условия. Например, тормозные клетки должны оказывать на возбуждающие клетки более сильное влияние, чем возбуждающие клетки друг на друга. Благодаря тому, что возбуждающие клетки получают чуть больше торможения, чем возбуждения, активность сети находится под контролем. Также важно, чтобы связи между нейронами были случайными и редкими - каждая клетка должна получать входные сигналы, скажем, от пяти или десяти процентов других клеток. Это гарантирует, что два нейрона не будут зациклены на одной и той же модели поведения.
Ни одно из требований, которые обнаружили ван Вресвейк и Сомполински, не было неразумным для мозга. И когда пара провела симуляцию сети, которая отвечала всем этим требованиям, возник необходимый баланс между возбуждением и торможением, а симулированные нейроны выглядели такими же шумными, как и реальные. Интуиция Шадлена и Ньюсома о том, как один нейрон может поддерживать шумный режим работы, действительно подтвердилась в сети взаимодействующих нейронов.
Ван Вресвейк и Сомполински не только показали, что в сети можно сбалансировать возбуждение и торможение, но и обнаружили возможную пользу от этого: нейроны в плотно сбалансированной сети быстро реагируют на входные сигналы. Когда сеть сбалансирована, она похожа на водителя, у которого каждая нога одинаково нажата на газ и тормоз. Однако этот баланс нарушается при изменении количества внешнего сигнала. Поскольку внешние сигналы являются возбуждающими - а они направлены на возбуждающие клетки сети в большей степени, чем на тормозящие, - увеличение их количества подобно увеличению веса на педали газа. После этого автомобиль разгоняется почти так же быстро, как и поступил сигнал. Однакопосле первоначальной реакциисеть восстанавливает равновесие. Взрыв возбуждения в сети заставляет тормозные нейроны срабатывать сильнее, и - подобно добавлению дополнительного груза на тормоз - сеть приходит в новое равновесие, готовая снова реагировать. Такая способность быстро реагировать на изменение входного сигнала может помочь мозгу точно идти в ногу с меняющимся миром.
Знание того, что математика работает, обнадеживает, но настоящая проверка теории происходит на реальных нейронах. В работе Ван Вресвейка и Сомполинского содержится множество предсказаний, которые нейроученые могут проверить, что и сделали Майкл Вер и Энтони Задор из лаборатории Колд-Спринг-Харбор в 2003 году. Пара записывала нейроны в слуховой коре крыс, которая отвечает за обработку звука, в то время как животным проигрывались различные звуки. Обычно, когда неврологи опускают электрод в мозг, они пытаются уловить выход нейронов - то есть их всплески. Но эти исследователи использовали другую технику, чтобы подслушать, какой вход получает нейрон - в частности, чтобы увидеть, уравновешивают ли возбуждающие и тормозящие сигналы друг друга.
Они увидели, что сразу после включения звука в клетку поступает мощный поток возбуждения. За ним почти сразу же последовал такой же приток торможения - тормоз, который следует за газом. Поэтому увеличение входного сигнала в этой реальной сети показало именно то поведение, которое ожидалось от модели. Даже при использовании более громких звуков, которые вызывали большее возбуждение, количество торможения, которое следовало за ним, всегда соответствовало ему. Казалось, что в мозге возникает баланс, как и в модели.
Чтобы исследовать еще одно предсказание модели, ученым пришлось проявить некоторую изобретательность. Ван Вресвейк и Сомполинскипоказали, что для создания сбалансированной сети сила связей между нейронами должна зависеть от общего количества связей: при большем количестве связей каждая связь может быть слабее. Жереми Барраль и Алекс Рейес из Нью-Йоркского университета хотели найти способ изменить количество связей в сети, чтобы проверить эту гипотезу.
Внутри мозга сложно контролировать рост нейронов. Поэтому в 2016 году они решили выращивать их в чашке Петри. Это экспериментальная установка, которая по своей простоте, управляемости и гибкости почти как живая версия компьютерной симуляции. Чтобы контролировать количество связей, они просто поместили в чашку разное количество нейронов; в чашках с большим количеством нейронов образовывалось больше связей. Затем они наблюдали за активностью нейронов и проверяли силу их связей. Все популяции (содержащие как возбуждающие, так и тормозящие клетки) шумели, как и положено сбалансированной сети. Но сила связей резко различалась. В блюде, где каждый нейрон имел всего около 50 связей, связи были в три раза сильнее, чем в блюде с 500 связями. На самом деле, если рассматривать все популяции, средняя сила связи была примерно равна единице, деленной на квадратный корень из числа связей - именно то, что предсказывала теория ван Вресвейка и Сомполинского.
По мере того, как искались все новые и новые доказательства, находилось все больше подтверждений тому, что мозг находится в сбалансированном состоянии. Но не все эксперименты проходили так, как предсказывала теория; не всегда наблюдался жесткий баланс между возбуждением и торможением. Есть все основания полагать, что определенныеобласти мозга , занятые выполнением определенных задач, могут с большей вероятностью демонстрировать сбалансированное поведение. Например, слуховая кора должна реагировать на быстрые изменения частоты звука, чтобы обрабатывать поступающую информацию. Поэтому быстрая реакция хорошо сбалансированных нейронов - подходящий вариант. Для других областей, где не требуется такая скорость, может быть найдено другое решение.
Прелесть баланса в том, что он берет вездесущего обитателя мозга - торможение - и заставляет его работать над решением столь же вездесущей загадки - шума. И все это без какой-либо опоры на магию: то есть без скрытого источника случайности. Шум возникает даже тогда, когда нейроны реагируют так, как и должны.
Этот контр-интуитивный факт, что хорошее поведение может привести к бедламу, очень важен. И он уже был замечен ранее. Ван Вресвейк и Сомполински ссылаются на эту историю в первом слове названия своей работы: "Хаос в нейронных сетях со сбалансированной возбуждающей и тормозной активностью".
* * *
В 1930-х годах хаоса не существовало: когда нейробиологи впервые осознали, насколько шумны нейроны, математическая теория, позволяющая понять их поведение, еще не была открыта. А когда она появилась, все произошло, казалось бы, случайно.
Кафедра метеорологии в Массачусетском технологическом институте была основана в 1941 году, как раз к приезду Эдварда Лоренца. Лоренц, родившийся в 1917 году в хорошем районе Коннектикута в семье инженера и учительницы, с ранних лет проявлял интерес к числам, картам и планетам. Степень бакалавра по математике он собирался продолжить, но, как и в случае со многими учеными его времени, вмешалась война. В 1942 году Лоренц получил задание предсказывать погоду для военно-воздушного корпуса США. Чтобы научиться этому, он прошел ускоренный курс метеорологии в Массачусетском технологическом институте. После окончания службы в армии он остался заниматься метеорологией и остался в Массачусетском технологическом институте: сначала в качестве аспиранта, затем научного сотрудника и, наконец, профессора.
Если вы когда-нибудь пытались спланировать пикник, то знаете, что предсказание погоды далеко от совершенства. Академические метеорологи, занимающиеся крупномасштабной физикой планеты, вряд ли считают ежедневное прогнозирование своей целью. Но Лоренц не переставал интересоваться этим вопросом и тем, как новая технология - компьютер - может помочь.
Уравнения, описывающие погоду, многочисленны и сложны. Перебирать их вручную, чтобы понять, как погода сейчас приведет к погоде потом, - огромная, почти невыполнимая задача (к тому времени, когда вы ее закончите, предсказываемая вами погода, скорее всего, уже пройдет). Но компьютер, вероятно, может сделать это гораздо быстрее.
В 1958 году Лоренц проверил это на практике. Он свел динамику погоды к 12 уравнениям, выбрал несколько значений для начала - скажем, западный ветер со скоростью 100 км/час - и пустил математику в ход. По ходу дела он распечатывал результаты модели на рулонах бумаги. Выглядело это достаточно похоже на погоду, со знакомыми приливами и отливами течений и температур. Однажды он захотел повторить моделирование, чтобы посмотреть, как оно будет развиваться в течение более длительного периода времени. Вместо того чтобы начинать ее с самого начала, он решил, что может запустить ее частично качестве начальных условий значения из распечатки . Нетерпение иногда является матерью открытий.
Однако цифры, которые распечатал компьютер, были неполными. Чтобы больше поместилось на странице, принтер сократил количество цифр после запятой с шести до трех. Таким образом, числа, которые Лоренц ввел во второй запуск симуляции, не совпадали с тем, что было в модели до этого. Но какое значение могут иметь несколько знаков после запятой в модели погоды всего мира? Оказывается, совсем немного. После нескольких запусков математического механизма - около двух месяцев изменения погоды в модельном времени - этот второй запуск моделирования полностью отличался от первого. То, что было жарко, стало холодно, то, что было быстро, стало медленно. То, что должно было стать повторением, превратилось в откровение.
До этого момента ученые полагали, что небольшие изменения порождают только небольшие изменения. Небольшой порыв ветра в один момент времени не должен иметь силы, чтобы сдвинуть горы впоследствии. Согласно этой догме, то, что наблюдал Лоренц, должно было произойти в результате ошибки, возможно, технической ошибки, допущенной большими и неуклюжими компьютерами того времени.
Однако Лоренц был готов увидеть, что происходит на самом деле. Как он писал в 1991 году: "Ученый всегда должен быть в поиске других объяснений, кроме тех, которые широко распространены". То, что наблюдал Лоренц, было истинным поведением математики, каким бы не интуитивным оно ни казалось. В определенных ситуациях небольшие флуктуации могут усиливаться, делая поведение непредсказуемым. Это не ошибка или заблуждение, просто так устроены сложные системы. Хаос - так назвали этот феномен математики - реален, и ученым не мешало бы попытаться понять его.
Хаотические процессы приводят к результатам, которые выглядят случайными, но на самом деле являются следствием идеального следования правилам. Источником этого обмана является печальная истина о том, что наша способность предсказывать результаты, основываясь на знании правил, гораздо более ограничена, чем считалось ранее, особенно если эти правила сложны. В своей книге "Хаос: Making a New Science" ("Создание новой науки"), рассказывающей о том, как возникла эта область, Джеймс Глик пишет: "Традиционно динамик считал, что записать уравнения системы - значит понять ее... Но из-за маленьких кусочков нелинейности в этих уравнениях динамик оказался бы беспомощным в ответе на самые простые практические вопросы о будущем системы". Это наделяет даже самые простые системы, скажем, взаимодействующие бильярдные шары или качающиеся маятники, потенциалом порождать нечто удивительное". Он продолжает: "Те, кто изучал хаотическую динамику, обнаружили, что беспорядочное поведение простых систем действует как творческий процесс. Оно порождает сложность: богато организованные паттерны, иногда стабильные, иногда нестабильные, иногда конечные, иногда бесконечные".
Хаос творился в атмосфере - и если ван Вресвейк и Сомполинский были правы, то он творился и в мозге. Поэтому объяснение того, почему мозг реагирует на повторяющиеся сигналы с разнообразием, не обязательно связано с несовершенством клеточных механизмов. Это не значит, что в мозге нет источников шума (например, ненадежных ионных каналов или сломанных рецепторов), просто такой сложный объект, как мозг, с его взаимодействующими пулами возбуждения и торможения, не обязан демонстрировать богатые и нерегулярные реакции. В деле, при моделировании сети ван Вресвейку и Сомполински достаточно было изменить начальное состояние одного нейрона - с "горящего" на "не горящий" или наоборот - чтобы создать совершенно иную картину активности во всей совокупности. Если столь незначительное изменение может вызвать такие нарушения, способность мозга поддерживать шум кажется не такой уж загадочной.
* * *
В медицинских центрах по всему миру пациенты с эпилепсией проводят несколько дней - вплоть до недели - в маленьких комнатах. Эти "мониторинговые" комнаты обычно оснащены телевизором - для пациентов - и камерами, которые следят за движениями пациента - для врачей. Днем и ночью пациенты подключены к аппарату электроэнцефалограммы (ЭЭГ), который фиксирует поведение их мозга. Они надеются, что полученная информация поможет лечить их припадки.
Электроды ЭЭГ, прикрепленные с помощью наклеек и скотча к коже головы, отслеживают электрическую активность, производимую расположенным под ними мозгом. Каждый электрод дает одно измерение - сложную комбинацию активности многих и многих нейронов одновременно. Это сигнал, который изменяется во времени, как на сейсмографе. Когда пациенты бодрствуют, сигнал представляет собой неровную и волнистую линию: он беспорядочно движется вверх и вниз, но без выраженного ритма. Когда пациенты спят (особенно в глубоком сне без сновидений), на ЭЭГ возникают волны: большие движения вверх и вниз, продолжающиеся в течение секунды или более. Когда происходит интересующее нас событие - припадок, - движения становятся еще более резкими. Сигнал совершает большие, быстрые движения вверх и вниз, три-четыре раза в секунду, как ребенок, бешено рисующий мелком.
Что делают нейроны, чтобы создать такие сильные сигналы во время припадка? Они работают вместе. Подобно хорошо обученному военному строю, они маршируют в такт: срабатывают в унисон, затем замолкают и снова срабатывают. В результате возникает повторяющийся, синхронный всплеск активности, который заставляет сигнал ЭЭГ подниматься и опускаться снова и снова. Таким образом, припадок является противоположностью случайности - это идеальный порядок и предсказуемость.
Те же нейроны, которые вызывают припадок, также производят медленные волны сна и нормальную шумную активность, необходимую для повседневного познания. Как одна и та же цепь может демонстрировать такие разные модели поведения? И как она переключается между ними?
В конце 1990-х годов французский нейробиолог-вычислитель Николя Брюнель задался целью понять могут вести себя различные схемы. В частности, основываясь на работах ван Вресвейка и Сомполинского, он хотел изучить, как ведут себя модели, состоящие из возбуждающих и тормозных нейронов. Для этого Брунель исследовал пространство параметров этих моделей.
Параметры - это ручки, которые можно поворачивать в модели. Они представляют собой значения, которые определяют конкретные характеристики, например количество нейронов в сети или количество входов для каждого из них. Как и обычное пространство, пространство параметров можно исследовать в разных направлениях, но здесь каждое направление соответствует отдельному параметру. Брюнель решил исследовать два параметра: во-первых, сколько внешних сигналов получает сеть (т.е. сигналов из других областей мозга) и, во-вторых, насколько сильны тормозные связи в сети по сравнению с возбуждающими. Немного изменяя каждый из этих параметров и перебирая уравнения, Брюнель мог проверить, как поведение сети зависит от этих значений.
Проделав это для множества различных значений параметров, вы получите карту поведения модели. Широта и долгота на этой карте (см. рис. 13) соответствуют двум параметрам, которые варьировал Брюнель, соответственно. Для сети, расположенной в середине карты, торможение точно равно возбуждению, а вход в сеть имеет среднюю силу. В движении влево по карте возбуждение становится сильнее торможения; движется вправо и наоборот. Двигаясь вверх, вход в сеть становится сильнее, вниз - слабее. В таком виде сеть, которую изучали ван Вресвейк и Сомполински, - с тормозными связями, немного более сильными, чем возбуждающие, - находится чуть правее середины.
Рисунок 13
Брунель исследовал этот модельный ландшафт в поисках любых изменений в рельефе: заставляют ли определенные наборы параметров сеть вести себя кардинально по-другому? Чтобы найти первый поразительный ориентир, не нужно далеко отходить от исходной сети ван Вресвейка и Сомполински. При переходе из области, где сильнее торможение, в область, где сильнее возбуждение, происходит резкий переход. В математике такие переходы называются бифуркациями. Подобно крутому обрыву, отделяющему травянистую равнину от моря, бифуркации отмечают быстрый переход между двумя отдельными областями в пространстве параметров. На карте Брюнеля линия, где возбуждение и торможение равны, отделяет сети с нерегулярным, шумным возбуждением справа от сетей с жестким, предсказуемым возбуждением слева. В частности, когда торможение становится слишком слабым, нейроны в этих сетях прекращают свое уникальное питтер-паттер и начинают стрелять в унисон. Их жесткая синхронная активность - группы нейронов, включающиеся и выключающиеся вместе, - очень похожа на припадок.
Физиологи веками знали, что некоторые вещества действуют как конвульсанты - то есть вызывают судороги. С расширением знаний о нейромедиаторах, которое пришло в середине XX века, стало ясно, что многие из этих препаратов вмешиваются в процесс торможения. Например, бикукуллин, содержащийся в растениях по всей Северной Америке, не дает ГАМК присоединиться к рецептору. Туйон, присутствующий в малых дозах в абсенте, не дает рецепторам ГАМК пропускать хлорид-ионы. Каков бы ни был механизм, в конечном итоге эти наркотики нарушают баланс в мозге, ставя тормозящие влияния в невыгодное положение. Используя свой взгляд на поведение мозга с высоты птичьего полета, Брюнель смог увидеть, как изменение параметров мозга - с помощью наркотиков или иным способом - переводит его в различные состояния.
Путешествие на другой конец карты Брюнеля открывает еще одну модель деятельности. В этой области торможение преобладает над возбуждением. Если внешнее воздействие остается на среднем уровне, нейроны здесь не шумят. Однако стоит сдвинуться вверх или вниз, и появляются две похожие, но разные модели поведения. При высоком и низком уровне внешнего сигнала нейроны демонстрируют некоторую сплоченность. Если сложить количество нейронов, активных в каждый момент времени, то можно увидеть волны активности: короткие периоды более чем средней интенсивности стрельбы, за которыми следует меньшая. Но в отличие от военной точности припадка, сеть здесь больше похожа на ударную секцию, состоящую из шестилетних детей: здесь есть определенная организация, но не все постоянно играют вместе. Фактически, отдельный нейрон в этих сетях участвует только в каждой третьей или четвертой волне - и даже тогда их синхронизация не всегда идеальна. Таким образом, эти состояния одновременно и осциллирующие, и шумные.
Особенность, которая отличает поведение в правом верхнем углу карты от поведения в правом нижнем, - это частота колебаний. Если на сеть подавать сильные внешние сигналы, средняя активность будет быстро меняться вверх и вниз - до 180 раз в секунду. Сильный входной сигнал приводит в движение возбуждающие клетки, которые заставляют тормозящие клетки отключиться; затем тормозящие клетки отключаются сами, и все повторяется. Если уменьшить входной сигнал сети, она будет колебаться медленнее, около 20 раз в секунду. Эти медленные колебания происходят потому, что внешний вход в сеть настолько слаб, а торможение настолько сильно, что многие нейроны просто не получают достаточно входного сигнала для возбуждения. Однако те из них, которые срабатывают, используют свои связи, чтобы медленно оживить сеть. Если же активируется слишком много тормозных клеток, сеть снова становится тихой.
Несмотря на поверхностное сходство с припадком, эти беспорядочные колебания на самом деле не являются изнурительными. На самом деле ученые наблюдали осцилляции в самых разных частях мозга при самых разных условиях. Группы нейронов в зрительной коре, например, могут колебаться с частотой 60 раз в секунду. Гиппокамп (машина для обработки памяти из прошлой главы) иногда колеблется быстро, а иногда медленно. Обонятельная луковица, где обрабатываются запахи, генерирует волны с частотой от одного раза в секунду (что совпадает с частотой вдоха) до сотни раз. Колебания можно обнаружить повсюду, если присмотреться.
Математики с удовольствием наблюдают за осцилляциями. Это потому, что для математика колебания доступны. Хаос и случайность сложно уловить с помощью уравнений, но идеальная периодичность - это просто и элегантно. За тысячелетия математики разработали оборудование не только для описания колебаний, но и для предсказания их взаимодействия и обнаружения их в сигналах, которые - на нетренированный взгляд - могут вовсе не выглядеть как колебания.
Нэнси Копелл - математик, или, по крайней мере, была им раньше. Как и ее мать и сестра до нее, Копелл специализировалась на математике в бакалавриате. Затем она получила степень доктора философии5в Калифорнийском университете в Беркли в 1967 году и стала профессором математики в Северо-Восточном университете в Бостоне. Но после многих лет, проведенных на границе математики и биологии, где она брала проблемы из последней, чтобы вдохновиться идеями для первой, она начала чувствовать себя более оседлой в стране биологии. Как пишет Копелл в автобиографии: "Мой взгляд начал меняться, и я обнаружила, что физиологические явления интересуют меня не меньше, чем математические задачи, которые они порождают. Я не перестала думать математически, но проблемы интересовали меня меньше, если я не видела их связи с конкретными биологическими сетями". Многие из биологических сетей, которые ее интересовали, были нейронными, и на протяжении всей своей карьеры она изучала всевозможные колебания в мозге.