Говорят, Чингинс-хан дал своим полководцам, отправленным на запад, очень короткую инструкцию: омыть копыта своих коней волнами Последнего моря. С точки зрения средневековых монголов, за Последним морем уже ничего не было.
Великий полководец кибернетиков Винер призвал своих последователей прорваться к Последнему морю науки, постигнуть идеал вычислительных машин — мозг. Кибернетика — наука об управлении. Лучшая известная человеку управляющая машина — мозг. Значит, создание ее модели — высшая цель кибернетики. Собственно, и вычислительная машина «Урал» и даже обыкновенный арифмометр в каком-то, почти одинаково узком смысле, могут быть названы моделями определенных способностей мозга. Скажем, способности совершать арифметические действия. Но ведь нас интересуют совсем иные его свойства и возможности. Как быть с ними? И тут встает бесконечное число раз повторявшийся вопрос: «Может ли машина мыслить?» Ведь достаточно полно отражающая свойства мозга модель докажет эту полноту отражения тем, что окажется в состоянии мыслить.
Но… предположим, что такая модель создана. Как узнать, мыслит ли она? Вспомните «Графа Монте-Кристо» и встречу в подземельях замка Иф Эдмона Дантеса и аббата Фариа. Как каждый из них узнал, что с другой стороны человек? По самому звуку голоса. (Впрочем, в ту пору и мысли не могло возникнуть, что за человека способно выдать себя нечто иное — разве что демон или привидение.)
Но теперь времена изменились. Разговаривают и машины. Как узнать, что через стенку от вас находится не шкафообразный (или человекообразный) автомат, а человек? Раз звука недостаточно, надо вслушаться в смысл его слов. Задавать вопросы и анализировать ответы. И если вы убедитесь, что машина не смогла бы с этим справиться, значит, рядом — ваш брат по разуму. Однако лет через пятьдесят — этот срок называет виднейший кибернетик А. Тьюринг — много шансов будет за то, что вы ошибетесь. К тому времени машина будет в состоянии поддерживать разговор не хуже, чем средний человек. Тьюринг и выдвинул для оценки «разумности» машины критерий поддержания ею разговора. А имело ли это смысл? Ведь до сих пор идут бурные споры о самой возможности создания мыслящей машины.
Я не буду приводить бесчисленных философских и нефилософских аргументов «за» и «против». Не буду и ссылаться на изречения авторитетов. Ведь «пифагоровы штаны» верны не потому, что эту теорему доказал именно Пифагор. Теоремы же есть не только в геометрии, но и в других науках, в том числе в кибернетике. Одну из них недавно выдвинули и доказали ученые Маккаллок и Питтс. Смысл ее таков: любая функция естественной нервной системы, которая может быть логически описана с помощью конечного числа слов, может быть реализована формальной нервной сетью, а следовательно, и воспроизведена машиной.
Вот более простая перефразировка этой теоремы: робот, построенный определенным образом, способен вывести любые правильные заключения из конечного числа посылок.
Есть немало ученых, в том числе и крупных кибернетиков, не согласных с этой теоремой и пытающихся найти слабые места в доказательствах Маккаллока и Питтса. Но эти несогласия носят пока скорее эмоциональный характер: им так же не хочется соглашаться с доводами этих двух кибернетиков, как Эйнштейну не хотелось признавать выводы квантовой механики.
Но вот уже несколько лет, как все попытки опровержений теоремы не удаются. Значит, с солидной долей вероятности ее можно считать верной. Так что же, выходит, до мыслящей модели мозга — рукой подать? Вовсе нет. Принципиальную возможность от возможности практической отделяют иногда тысячелетия. Вспомните! Архимед две с лишним тысячи лет назад обнаружил, что может, в принципе, сдвинуть Землю; вот только точки опоры не было да подходящего рычага не нашлось. Кибернетики, разумеется, в лучшем положении, чем Архимед: они по крайней мере знают, как изготовить свои «рычаги». Говорят, что из всех уже существующих моделей ближе всего к мозгу подошли персептроны — устройства для распознавания образов.
Классическим (хотя уже далеко не новейшим) образцом персептрона считается построенная американским ученым Ф. Розенблатом машина Марк-I.
Сетчатка глаза моделируется здесь полем из нескольких сотен фотосопротивлений. Каждое из них может находиться в двух состояниях — возбужденном или невозбужденном.
Марк-I должен определять, к какому классу изображений относится проецируемая на поле из фотосопротивлений фигура (скажем, круг это или треугольник). Но одной модели сетчатки здесь мало. Позади нее располагаются ассоциативные элементы, к каждому из которых подключается несколько фотосопротивлений. Ассоциативный элемент суммирует сигналы, поступившие в него от тех из «подопечных» сопротивлений, которые в данный момент возбуждены. Если получившаяся сумма больше некоей наперед для всех таких элементов заданной величины, он выдает на выходе единицу (сигнал, равный единице, если уж выражаться точно). Ну, а если сумма меньше заданной величины, на выходе получается ноль. Выходные сигналы ассоциативных элементов в специальных устройствах перемножаются на переменные, не зависящие друг от друга коэффициенты (они могут быть и положительны, и отрицательны, и равны нолю). Результаты суммируются. Если конечная сумма положительна или равна нолю, персептрон дает на выходе единицу. Если она отрицательна — на выходе появляется ноль.
Тут важно добиться того, чтобы при появлении, скажем, на поле из фотосопротивлений контура треугольника прибор выдавал единицу, а при проецировании круга — ноль. Этого можно достичь подбором переменных коэффициентов, на которые умножаются сигналы ассоциативных элементов.
В простейшем случае, когда надо научить простейший персептрон отличать треугольники от кругов, поступают так.
Персептрону предъявляют в произвольном порядке самые разные треугольники и круги. Когда на Марк-I проецируется треугольник, коэффициенты всех возбужденных им элементов увеличиваются, когда проецируется круг, коэффициенты возбужденных последним элементов уменьшаются.
В результате с каждым новым предъявлением треугольника растет вероятность того, что суммарный сигнал окажется положительным. И наоборот: каждый показ круга увеличивает вероятность отрицательного суммарного сигнала.
Прибор обучается на собственном опыте.
Впрочем, этот способ обучения оказался не лучшим. Эффективнее другой, предусматривающий изменение коэффициентов лишь в том случае, если персептрон ошибется. Когда он выдает на выходе ноль вместо единицы, коэффициенты возбужденных элементов увеличиваются, когда единицу вместо ноля — они уменьшаются.
Разумеется, усложненный персептрон в состоянии различать не два образа, а гораздо большее их число. Особенно удивительно и многообещающе следующее обстоятельство. Если в уже «обученном» персептроне выключить часть ассоциативных элементов, он сохраняет большую часть своих «знаний». Персептрон, великолепно различавший буквы Е и К, продолжал правильно определять их в каждых четырех из пяти случаев даже тогда, когда он «потерял» семь из каждых восьми своих элементов.
Однако все это никак не объясняет, почему можно говорить о персептроне именно как о модели мозга. Так вот, он заслужил это следующими своими свойствами.
При распознавании персептрон не перебирает всех знакомых ему фигур и вообще не нуждается в запоминании конкретных, «показанных» ему объектов. Мозг же тоже «знает» собаку вообще, а не собак конкретных.
В состав персептрона входят модель сетчатки глаза и модели нейронов — это модели нейронов ведь и называют ассоциативными элементами. Элементы, как и нейроны, возбуждаются (выдают единицу) только при достаточно большой интенсивности сигнала, а физиологи говорят о «пороге возбуждения» естественных нейронов.
Даже высокая стойкость персептрона сближает его с мозгом, поскольку способность мозга к восстановлению работоспособности при повреждениях почти невероятна (вспомните хотя бы Луи Пастера, сделавшего величайшие свои открытия уже после того, как одно его мозговое полушарие было парализовано).
В общем доказывать здесь право персептрона быть моделью мозга можно долго. Гораздо быстрее и проще убедиться, что это модель лишь очень немногих из свойств мозга, и модель весьма приближенная.
Ну, а где же он, разумный робот, пришествие которого предопределено теоремой Маккаллока и Питтса?
Если теорема верна, он где-то далеко, очень далеко впереди. Или, если хотите, в фантастических рассказах и даже сказках.
Первый автомат, способный мыслить, был построен, по преданию, Талосом, учеником самого Дедала. Этот автомат в виде медного великана охранял от нападений некий остров. Кто знает, может быть, Талос создал бы что-нибудь и почище, но тут, рассказывает древнегреческий миф, произошла история, достойная и в наше время громового фельетона. Дедал позавидовал своему ученику, приревновал его к славе — и убил несчастного Талоса. После этого убийства ему и пришлось скрыться, бежать с родины к царю Миносу на Крит, где он построил Лабиринт и изготовил крылья.
Мне кажется, что убийство Талоса Дедалом так же маловероятно, как создание Талосом первого робота. Но эти древние греки! Даже богов своих они сделали ворами и обманщиками, а о великих людях помнили (или выдумывали) не только хорошее, но и плохое.
Кроме «меднорукого» исполина можно вспомнить еще Голема средневековых легенд — глиняного истукана, подчинявшегося воле волшебника.
В XIX веке жена поэта Перси Биши Шелли, девятнадцатилетняя Мэри Шелли, создает в своем воображении человека, составленного из частей тел людей и животных. Название для него она применяет явно устаревшее — демон.
Затем появляются роботы Карела Чапека, созданные из искусственной живой материи. Затем думающие машины становятся героями рассказов буквально сотен писателей — с тем лишь недостатком, что в отличие от авторов мифов и Чапека создатели образов роботов большей частью следуют за наукой, а не опережают ее.
Талоса боялись только враги его хозяина. Роботы Чапека уничтожают человечество. Тот же мотив входит в немалое число произведений и последних лет. Мало того, сам Норберт Винер предостерегал людей против думающих машин. Страх перед роботами, по исследованиям западных психологов и социологов, распространен довольно широко.
Но ведь роботов еще нет! Почему же там так боятся несуществующего? Увы, у этого страха людей Запада есть основания. И они не в том, что на Земле действительно может воцариться «машинная раса». Чтобы понять, в чем тут дело, заглянем совсем в другую эпоху истории человечества. В средневековье. Как вы думаете, опасны для человека… овцы? Не похоже. Однако в Англии говорили тогда, что овцы едят людей. Имелось в виду вытеснение полей пастбищами, захват помещиками под овечьи пастбища общинных земель. Скотоводство было для них выгодней земледелия, а рабочих рук требовало меньше, и крестьяне оказывались сразу и без земли, и без работы, а значит, без хлеба.
Трудно заподозрить в сознательной злой воле и паровоз и текстильный станок. Однако первые легенды о «бунте машин» появились именно в ту пору, когда это были, пожалуй, самые сложные из машин.
Рабочие, у которых машины отняли хлеб, боялись их так же, как боятся сегодня роботов многие интеллигенты США, которым вполне реально угрожает безработицей применение вычислительных машин.
Таковы, пожалуй, главные социальные корни и предупреждений Винера (которому лично, разумеется, голод не угрожал) и многих других обвинений против «грядущего робота».
А вот что говорит академик А. Н. Колмогоров:
«…Нужно стремиться этот глупый и бессмысленный страх перед имитирующими нас автоматами заменить огромным удовлетворением тем фактом, что такие сложные и прекрасные вещи могут быть созданы человеком».
В общем, по-видимому, «Последнее море» моделирования может быть достигнуто. Но не все согласны с теми признаками, по которым Тьюринг предлагает определить, что мы «вышли на берег».
В гневной книге с подзаголовком «Миф о думающих машинах» обрушивается, в частности, и на концепцию Тьюринга американский ученый Таубе. Он уверяет, и даже довольно убедительно, что уже достигнутые возможности машин переоцениваются, что совершенство того, что уже сделано в кибернетике, сильно преувеличено.
Ссылаясь на ряд теорем, Таубе утверждает, что есть проблемы, принципиально неразрешимые для машины (правда, тут же встает вопрос, разрешимы ли эти проблемы и для человека).
Подвергнув жестокой критике ряд положений кибернетики, поставив под сомнение (правда, бездоказательно) верность теоремы Маккаллока и Питтса, Таубе выдвигает взамен критерия Тьюринга другое условие.
Модель мозга может быть признана достаточно близкой к прототипу лишь в том случае, если она обеспечит своему обладателю (роботу) выживание в сложной обстановке борьбы за существование. То есть модель мозга должна быть в состоянии выполнить те требования, которые предъявляет жизнь к мозгу любого животного. Здесь Таубе наметил финиш, повесил «ленточку», которую должна будет «перерезать» некая достаточно «умная» машина.
Как ни странно, но и условие Таубе и условие Тьюринга удовлетворить гораздо труднее, чем, скажем, построить машину, способную сделать из фактов выводы, заслуживающие присвоения их автору звания кандидата наук. Такие машины ведь фактически уже существуют. Не так давно сообщалось, что одной из них удалось установить определенную взаимозависимость между свойствами нефтеносных пластов. Ту самую зависимость, что на два года раньше открыл ученый (люди, работавшие с машиной, не включили в ее программу сведения о его диссертации, так как ничего об этой диссертации не знали). Выходит, машины уже сейчас способны к творческой работе? Многим ученым кажется, что да. Но ведь так трудно иногда провести границу между работой творческой и нетворческой. Потому и ценны критерии Тьюринга и Таубе, что они более определенны.
Но… ведь все это относится в конечном счете к моделированию разума. А человек — далеко не только разум. Кроме головы, у него есть сердце — благородное сердце, горячее сердце, нежное сердце, верное сердце — одним словом, чувства. Эмоции. Можно ли промоделировать их? Что же! Познакомьтесь со студентом из лент…