Ему двадцать лет. Он студент Киевского политехнического института, друзья ласково зовут его Эмиком. Впечатлительный, порывистый, остроумный, он сумел справиться с двойным ударом судьбы: ушла к другому невеста, первая научная работа была напечатана под чужим именем — украдена, попросту говоря. Но Эмик все-таки остался оптимистом. Конечно, большой недостаток нашего героя то, что с ним не всегда легко поддерживать разговор. 280 слов — вот и весь его багаж. Для студента позорно мало. Но не торопитесь осуждать Эмика. Ведь у этого начинающего исследователя и незадачливого влюбленного есть еще одно уникальное качество: вместо плоти и крови он состоит из перфорированных лент — длинных полосок бумаги, покрытых дырочками. Эмик не человек, а только отдаленная модель человека.
В кибернетике пришла пора для студента из бумажных лент, для мечтательного и порывистого Эмика, легко впадающего в печаль, приходящего в гнев, умеющего радоваться и огорчаться…
И все это говорится о машине?! Нет, не о машине собственно. О программе для машины. О программе, задача которой — моделирование человеческих эмоций. Сразу оговоримся — речь пойдет только о моделях эмоций. Моделях настолько простых, что печаль и гнев, радость и страх надо бы ставить в кавычки. Да слишком много тогда понадобится для этой главы кавычек! Машина, разумеется, не может переживать — она производит действия, в чем-то аналогичные переживаниям. В очень небольшом «чем-то». Но аналогичные!
…Есть в Киеве место, название которого вы знаете, даже если и не успели еще побывать в зеленой украинской столице. Речь идет не о славном Крещатике, а о несколько мрачноватой Лысой горе. Читали, верно, у Гоголя хотя бы, про ведьм с Лысой горы. Или слышали симфоническую картинку Мусоргского «Ночь на Лысой горе».
Ну, а сегодня на Лысой горе засели кибернетики. Здесь, в Институте кибернетики, которым руководит академик В. Глушков, в отделе биокибернетики, возглавляемом профессором Н. Амосовым, и создан Эмик. А прямые родители и воспитатели Эмика — группа очень и не очень молодых людей.
В ней два инженера и физиолог, два врача и психолог и шесть математиков. Двенадцать человек, поставивших своей целью промоделировать эмоции, дать машине «чувства» (здесь мы еще ставим кавычки, но дальше вам придется каждый раз представлять их мысленно).
С точки зрения иных философствующих фантастов робот уже тем совершеннее человека, что обходится без чувств. Выходит, будто чувства нужны лишь в часы досуга, чтобы наслаждаться музыкой, стихами, живописью. А работе все эти «сантименты» только помеха.
У всего живого есть беспощадный экзаменатор — эволюция, которая вырубает то, что вредно для организма. Именно поэтому люди не имеют когтей, густой шерсти. А эмоции? Они становятся шире и тоньше, приобретают все большую важность в жизни человека.
А раз чувства не только сохранялись, но и развиваются — значит, они нужны.
Одни из них играют сигнальную роль: голод отправляет льва на охоту, а человека — в столовую.
Страх, ярость — и люди перепрыгивают пропасти, ломают руками тюремные решетки. Сильное чувство словно командует скрытым силам организма: «Все наверх!» Этим предусмотрена возможность как бы переключения на форсированный режим, как у машин на военном корабле или у самолетных моторов. А роль капитана, отдающего команду о переключении, играет достаточно сильная эмоция.
Не будем дальше перечислять все те случаи, когда эмоции оказываются необходимы, — их слишком много. Скажем лишь об одном еще, может быть, самом сложном.
Вот Ромео видит Джульетту и влюбляется в нее с первого взгляда. Давид Копперфильд с первого же взгляда чувствует отвращение к Урии Гипу.
Разве каждому из нас не знакомы по личному опыту такого рода впечатления?
При первой встрече с человеком он не оставляет вас безразличным — он нравится или не нравится. Чем это объясняется? Мозг на основе огромного опыта провел анализ того, что вы увидели и услышали, сравнил с тем, что известно ему о других нравившихся и не нравившихся вам людях, и выдал результат анализа в виде эмоции. Логический осмысленный анализ провести так быстро нельзя. «Сердце» обгоняет здесь разум. Происходит, собственно, предвосхищение, предвидение будущего. И пусть первое впечатление не всегда оказывается верным. Как известно, даже прогнозы погоды не всегда сбываются…
Вообще эмоция часто оказывается оценкой ситуации, в которую попал человек. За неприятным осадком от разговора или бодростью духа всегда стоят реальные житейские обстоятельства.
Исследуя роль эмоций для человека, профессор Н. М. Амосов пришел к очень любопытной и многообещающей гипотезе.
Как известно, сигналы, поступающие от органов чувств в мозг, подвергаются там обработке. И — обратите внимание — из одних и тех же фактов разные люди часто делают разные, иногда даже противоположные выводы. И даже одни и те же люди, но в разном настроении. Посудите сами. Если вам в веселую минуту кто-нибудь наступит на ногу (не очень больно), дело ограничится взаимным «простите». Ну, а в минуту, когда вы раздражены, он (и вы) так легко не отделается.
Амосов объяснил это тем, что сигналы в мозгу проходят обработку в соответствии с двумя хранящимися там программами — эмоциональной и интеллектуальной. Мышление, с точки зрения гипотезы Амосова, есть постоянное взаимодействие этих двух программ.
Относительное значение двух программ у людей не одинаково. У одних решающую роль играет, по-видимому, интеллектуальная, у других — эмоциональная программа. Быть может, в этом коренная причина существования двух основных типов высшей нервной деятельности (по И. П. Павлову) — художественного и мыслительного.
Но зачем эмоции машине? В конце концов у машин есть только одна задача — работать.
…В первом литературном произведении о роботах (оттуда пришел и сам этот термин), пьесе К. Чапека «Р.У.Р.» есть такая сцена. Героиня спрашивает у ученого:
«Если вы не даете им души, зачем вы хотите дать им боль?!»
И слышит ответ:
«В интересах производства… — боль — автоматическая защита от увечья».
Прозорливый писатель поставил в 1920 году проблему, к которой наука пришли только через сорок лет.
Эмоции понадобятся машине именно в производственных интересах. Дело, конечно, уже не в увечьях. Конкретный пример: перевод. Машины уже работают как переводчики. Но увы, им по силам перевод только технического текста. И как раз потому, что технический текст беднее любого другого эмоциями. В литературном тексте — рассказе, романе, стихотворении — каждое слово несет столько тончайших эмоциональных оттенков, что при переводе руководствоваться словарем, даже самым полным, нельзя.
Но и минимальные требования, которым должен удовлетворять перевод, включают в себя эмоциональную окраску предложений. А ведь говорят уже и о машине-редакторе… Машина-композитор сейчас «выдает» простенькие мелодии. Если мы захотим сделать их более сложными, дать машине внутренний критерий для отбора лучших из них, ее придется снабдить эмоциями.
Впрочем, все это — примеры частные. Есть и более общие. Сейчас при решении машинных задач широко применяется принцип эвристического (от «эврика» — нашел) программирования.
Человеку, скажем, надо было бы провести решение определенной задачи в четыре последовательных приема. Машине программируют знание этих приемов в той же последовательности. Машина шаг за шагом повторяет путь, которым в аналогичных случаях идет человеческое мышление. Такой метод программирования одержал много побед. Но в то же время на его пути оказалось неожиданно много препятствий.
Каждый следующий шаг человека при решении вызван какими-то потребностями и мотивами. А машина потребностей и мотивов не знает. Вместо этого приходится делать программу чрезмерно жесткой, слишком многое надо учесть заранее, предусмотреть даже детали каждого очередного шага. Ну, и, соответственно, становится меньше задач, для решения которых данная программа пригодна… Плохо? Конечно.
Не поможет ли тут моделирование эмоций? Не даст ли машине появление моделей чувств недостающие «потребности» и «мотивы»? Многие кибернетики полагают, что главные недостатки эвристического программирования будут устранены, если дать машинам подобие эмоций.
И наконец, дело в принципе. Для машины идеал, пусть пока недосягаемый, именно человек. Если человек не может обойтись без эмоций, вряд ли это удастся во многих случаях и машине.
Вспомните, что с точки зрения кибернетики человек — образец системы, гибко изменяющей линию поведения, контролирующей свои поступки, идущей, если нет других, свежими, неторными путями.
Еще один, решающий довод в пользу моделирования эмоций относится уже к области медицины, в частности медицинской психологии и психиатрии. Современная психология при всей своей внешней изощренности самая нелегкая из наук. Уж слишком сложен и изменчив объект ее исследования — человек.
Очень трудно в экспериментальных условиях вызвать у человека искренние страх, гнев, радость, не говоря уже о любви, скупости и других сложных чувствах. Ведь доброволец, пришедший к психологу, знает, что находится в условиях опыта.
А психиатрия, изучающая психические болезни?
Когда ставит опыты микробиолог, он моделирует на морской свинке ход болезни у человека. Душевную болезнь трудно промоделировать даже на шимпанзе.
А на машине? По-видимому, вполне возможно — опять-таки со скидкой на упрощение. Но ведь между морской свинкой и человеком тоже есть некоторая разница.
В общем вы, наверное, уже согласились, что эмоции нужно моделировать. Но, кроме слова «нужно», в русском языке есть слово «можно». Нужно, но можно ли? И вот тут нам придется возвратиться к киевскому бумажному студенту — Эмику. Впрочем, не сразу. Эмик последняя и пока самая сложная, но отнюдь уже не первая модель человеческих эмоций. Это сравнительно высокая ступенька на лестнице машинной эволюции. А начать надо, как в биологии, с простейших.
В эволюции живых существ первым зачатком эмоций было ощущение. Капелька живой протоплазмы стремилась выбраться из тени на солнце. И с того же начали знаменитые кибернетические «черепахи», о которых уже говорилось здесь, те, что тоже умеют ехать на своих колесиках к зажженной лампочке или подзаряжаться электрической энергией с помощью штепселя на стенке.
Машину можно заставить воспринимать определенные сигналы как порицание, штраф. Тогда она будет избегать действий, в результате которых следует штраф.
И на свет появилась как будто простая модель. «Черепаха» («всамделишная», то есть механическая, или ее математическое описание — в принципе это неважно) подвергается (не одновременно) двум видам воздействия (например, на нее падает из одного источника обычный световой луч, из другого — рентгеновы лучи). Одно воздействие вредно, другое полезно. «Черепаха» ползет к источнику полезного воздействия и уползает от источника вредных лучей.
С точки зрения кибернетики, в механизме «самоуправления черепахи» есть два «этажа». Один ведает самим движением, другой определяет направление этого движения по принципу «хорошо — плохо» — к источнику лучей или от него. Работа второго «этажа» уже имеет что-то общее с эмоциями, ведь те тоже определяют отношение живого существа к новому для него явлению.
Но можно ввести добавочно и третий «этаж», управляющий уже быстротой движения. Быстроту можно сделать зависимой, скажем, от силы вредного воздействия. Если оно очень велико, «черепаха» пускается бежать со всех ног. Так моделируется способность эмоций переводить организм на «аварийный режим».
А не так давно в США был создан предшественник киевского Эмика — уже сравнительно сложная модель эмоциональной деятельности человека. Ее создатель, ученый Дж. Лоуэллин дал своей модели название «Личность Олдос». У Олдоса немало общих семейных черт с нашим Эмиком. Прежде всего — вид. И Олдос ведь тоже пачка перфолент. Все свойства личности были записаны в виде чисел, все новые сведения в нее вносили в виде чисел, и в виде чисел же машина, в которую ввели программу Олдоса, давала свои ответы. Ответы эти соответствовали возникавшим в ней подобиям эмоций.
Три вида эмоций знал Олдос. Одни сочетания цифр ему нравились, другие вызывали страх или гнев. И страх и гнев могли быть слабыми и сильными по шкале в девять баллов. Когда Олдос испытывал страх, он совершал математические операции, условно названные отступлением. При гневе же наступал, «кидался в атаку», разумеется, тоже условно. Но сами эмоции ему непосредственно не задавались. Он их «вырабатывал». В машину вводили семизначное число. Первые три цифры в нем играли роль описания новой ситуации; последние четыре говорили о том, что эта ситуация сулит Олдосу. И Олдос начинал заниматься анализом. У него была память, в которой хранилось 750 чисел. Он сравнивал новое число со старыми и «припоминал», какие эмоции вызывали те из них, что наиболее похожи на новое, были они вредны или полезны, то есть сопровождались или не сопровождались штрафом.
Но у человека возникающая эмоция зависит ведь не только от такой памяти. Если вы, например, утром в день своего рождения вывихнули ногу, подарки не доставят вам ожидаемого удовольствия. На нашем настроении отражаются только что испытанные чувства. И для моделирования этого обстоятельства у Олдоса имелась, кроме «постоянной памяти», еще память кратковременная. В ней хранились сведения о самых последних «переживаниях». Если машина уже была испугана, новая ситуация вызывала обычно более сильный страх, чем в случае, если перед этим машина приходила в гнев. Чтобы еще приблизить модель к человеку, для нее запрограммировали определенный процент ошибок в опознании ситуации. Как и человеку, Олдосу свойственно ошибаться. Числа, сулящие опасность, он в шести процентах случаев принимал за благоприятные, и наоборот.
Дали Олдосу и характер. Вернее, не Олдосу, а Олдосам. Похожих программ, отличающихся друг от друга только деталями, было изготовлено несколько.
Один Олдос был сделан нерешительным. Он избегал действий: начинал отступать только при очень сильном страхе, а наступать только при очень сильном гневе.
Благодаря этому Олдос избежал ряда неприятностей — штрафов, но и не получил часть возможных удовольствий — не забудьте, кроме гнева и страха, у Олдоса есть еще некая положительная эмоция, которую можно условно назвать радостью. Да и когда эмоции были достаточно сильны, наступление и отступление совершались очень осторожно и медленно. А решительный Олдос, наоборот, при малейшем испуге обращался в бегство, а, приходя в гнев, кидался в стремительную атаку. Это влекло за собой больше неприятностей, но и больше удовольствий.
Олдос умеет в известных пределах накапливать опыт, память его обогащается знанием новых ситуаций, и поведение в связи с этим кое в чем изменяется.
Одного Олдоса, например, поместили во «враждебную обстановку». Большинство ситуаций вызывало у модели отрицательные реакции — гнев и страх. А приятного она видела мало. И этот Олдос очень быстро стал… пессимистом. Помните запрограммированные шесть процентов ошибок при опознании чисел-ситуаций? Так вот, эти ошибки приобрели общий характер. Олдос принимал благоприятные ситуации за вредные. Мало того, когда он побыл во враждебной среде долго («пережил» несколько сот главным образом неприятных ситуаций), то число пессимистических ошибок даже превысило отпущенные человеком шесть процентов. У страха глаза велики!
А другой Олдос в благоприятной обстановке (почти все ситуации вызывают положительную эмоцию), естественно, стал оптимистом. И ошибался, принимая вредные ситуации за полезные.
Ну, а что, если пессимиста перевести в дружественную среду, а оптимиста — во враждебную? Скоро ли и как они приспособятся к новой обстановке?
Выяснилось, что это зависит от опыта. И богатый опыт оказался здесь скорее вреден. Чем больше ситуаций знал Олдос до перемены, тем дольше он изменял свое поведение. Установившиеся привычки при перемене образа жизни мешают. Модель ведет тут себя, как человек.
Итак, неудачнику начинает везти, а на былого удачника обрушиваются удары судьбы. Кто из них быстрее войдет в ритм новой жизни? Или они это сделают одновременно? Нет! Оптимист быстрее приноравливается к невзгодам, чем пессимист к успехам. Выходит, даже машина подтверждает пользу оптимизма!
Естественный вопрос: наверное, это было предусмотрено программой? Специально — нет. Сами ученые, ставившие опыты, были несколько удивлены этим результатом. Потом, конечно, они нашли для него объяснение в некоторых тонкостях программы, но отнюдь не простое и не прямое.
И как ни проста «личность Олдос», в ее поведении уже видны кибернетикам отдельные черты, подобные некоторым особенностям человеческой личности. Значит, опыт был удачным. Моделирование эмоций в принципе оказалось возможным.
А следом за Олдосом появился Эмик.
Кстати, почему именно Эмик? Откуда взялось это имя? Насколько я понял, новая программа обязана своим именем двум обстоятельствам. Во-первых, две начальные буквы в этом имени те же, что и в слове эмоция. А, во-вторых… так зовут друзья одного из членов авторского коллектива программы — Эмик. А теперь о существе дела.
Наш киевлянин несравненно сложнее своего американского родственника по имени Олдос. Тот знает только удовольствие, страх и гнев. Эмик, по замыслу своих создателей, должен испытывать и печаль, и тревогу, и любопытство, и негодование, и горе, и обиду, и жалость, и многие другие эмоции. И не только испытывать, но выражать их. Однако как? Хорошо создателям Олдоса — наступление и отступление так естественно соответствуют гневу и страху. Как сделать доступными выражению многочисленные и куда более тонкие эмоции?
А как их выражает человек? Ну, разумеется, улыбкой и смехом, слезами и морщинкой на лбу, прищуром глаз и легкой гримасой… Но главное, конечно, словами. Слова должны стать средством выражения эмоций и для Эмика.
Одновременно фразы, составленные Эмиком, должны быть показателем его, так сказать, интеллектуальных и эмоциональных способностей. Можно ведь по речи человека судить о его развитии.
Итак, задача — создать модель целого эмоционального мира. Но что в принципе представляет собой этот мир? Что надо создавать?
Биокибернетикам прежде всего пришлось разработать таблицу эмоций, пока, естественно, очень неполную. В нее вошли 55 эмоций, разделенных по четырем основным типам: на чувства (например, тоска), настроения (тревога), страсти (ненависть) и аффекты (ужас).
Непременная черта страсти — длительность, аффекта — сугубая кратковременность и сила, настроения — длительность и устойчивость.
В таблице учли и то, что страх может быть и аффектом, и настроением, и, в случае душевной болезни, страстью. Любую эмоцию можно было теперь обозначить числом — по ее месту в таблице, — как это делают шахматисты с клетками шахматной доски.
Каждой эмоции дали строго научное определение. Но от Эмика-то ведь ждали не научных ответов! Значит, для его программирования надо было найти эмоциональные описания возникновения каждой из эмоций и ситуаций, которые к этому возникновению приводят.
И тут на помощь пришли писатели-классики. Шекспир и Пушкин, Бальзак и Достоевский, Толстой и Чехов приняли самое непосредственное участие в работе над моделью. Ученые находили в их книгах описания чувств, анализировали вызвавшие их ситуации, выделяли в этих ситуациях главное. Биологи, психологи и инженеры стали одновременно еще и литературоведами. В общем-то это была чистейшая «поверка алгеброй гармонии».
Однако времена ведь меняются. Не устарели ли описания чувств, сделанные классиками? Сколько раз, кстати, кричали что-то в этом роде литературные потрясатели основ! Писал же Игорь Северянин: «Для нас Державиным стал Пушкин». Кибернетики — люди деловитые, все привыкшие проверять. И они решили сверить выводы, сделанные по книгам классиков, с романами последнего десятилетия. Взяли бесспорно великолепные, бесспорно более чем современные произведения Эрнеста Хэмингуэя и Альберто Моравиа. И лишний раз подтвердилось — прогресс прогрессом, а чувства человеческие остались теми же. И сходные ситуации вызывают теперь те же эмоции, что и сто и триста лет назад. Толстой и Хэмингуэй равно злободневны в седьмом десятилетии XX века.
А затем надо было перенести результаты анализа на дырчатые ленты. Это и оказалось самым сложным.
…Из семи частей-блоков состоит модель, созданная киевскими кибернетиками. Как и у Олдоса, здесь есть отдельные блоки долговременной и кратковременной памяти, а кроме того, еще входной блок, блок взаимодействия, блок эмоций, блок ответа и блок анализа.
Долговременная память хранит 280 слов — примерно столько же, сколько знает их двухлетний ребенок. Не думайте, однако, что это так уж мало. В каждом языке легко выделить сравнительно небольшую группу чаще всего употребляемых слов. С 1000 слов человек чувствует себя в чужой стране уже вполне благополучно, и даже сотня слов, если они правильно выбраны, дает возможность, что называется, не теряться. Самые подходящие из 280 слов должен выбрать и правильно соединить Эмик для ответа на очередной вопрос.
Слов, собственно, можно было бы взять и больше, но память Эмика слишком загружена еще более ответственными сведениями — об ассоциациях, связях между словами.
Массовики домов отдыха очень любят такую игру. Они предлагают слушателям в ответ на каждое их слово бросать другое — первое, пришедшее в голову. А затем демонстрируют лист бумаги, на котором заранее были записаны ответы. Потому что для большинства людей к слову «фрукт» ассоциативная пара — «яблоко», к слову «обед» — «вкусный», к слову «палец» — «указательный», «жидкость» обязательно «прозрачная» и так далее. Разумеется, в этом шуточном эксперименте используются результаты вполне серьезных психологических опытов.
Человек в своей речи постоянно пользуется ассоциациями, иные из которых даже режут ухо, настолько трафаретными они стали. Наоборот, ясные и в то же время свежие ассоциации радуют.
Моделируя человеческую личность, нельзя упустить из виду ассоциативную память.
Ряд ассоциаций, давно найденных психологами, и внесли киевляне в память Эмика.
Но каждое слово вызывает у человека не только мысли, но и какие-то, пусть неясные, эмоции. Есть слова (арбуз, улыбка, озеро), вызывающие приятные ощущения, есть (смерть, операция и др.), связанные с чувством страха. Значит, надо учесть эмоциональную оценку каждого слова. Ее, естественно, выражают каким-то условным числом.
Блок долговременной памяти состоит из двух частей. В одной хранятся сведения о словах и связях между ними. В другой — начальный запас входных предложений-вопросов (чтобы было с чем сравнивать новые вопросы). Составлены эти предложения из слов, что содержатся в первой части памяти. Каждому из них (предложений) придана эмоциональная оценка с помощью чисел, обозначающих положение эмоций в той таблице, о которой мы говорили.
Собственно, каждое слово тоже имеет в этих предложениях эмоциональную оценку. Но общая оценка вопроса — отнюдь не сумма эмоций, вызываемых отдельными его частями. И сама эмоциональная оценка одного и того же вопроса в разных условиях может быть разной.
У вас совсем непохоже спросят: «Не хотите ли поесть?» в столовой, в ресторане, в гостях у друга или у людей, которым вы не слишком приятны.
А уж с какими разными оттенками можно спросить: «Вы считаете, что знаете предмет?», или: «Вы поэт?!»
И это, конечно, тоже надо учесть. Поэтому вся вторая область памяти разбита на участки, соответствующие участкам таблицы эмоций, а отдельные предложения могут храниться в нескольких участках одновременно.
Учтена здесь даже та тонкость и сложность человеческих чувств, о которой века твердит поэзия. Вопрос может вызвать не одну определенную эмоцию, а сочетание нескольких чувств одновременно. («Люблю и ненавижу», — писал древнеримский поэт Катулл, «Мне грустно и легко», — Пушкин).
Но одних эмоций мало, чтобы дать на вопрос верный ответ. Надо еще знать, как этот ответ сформулировать, то есть надо знать синтаксис. И в памяти Эмика есть набор конструкций, форм ответа, связанных с отдельными эмоциями. В конструкции указан порядок размещения слов, что войдут в состав ответа.
И вот представьте, что модель готова отвечать.
На входной блок поступает первый вопрос. Он тут же разлагается на части. От слов отделяются их эмоциональные оценки, найденные машиной, от предложения в целом — его общая эмоциональная оценка. И Эмик обращается к тому участку своей ассоциативной памяти, который предназначен для слов, соответствующих оцененной эмоции.
Но у человека эмоциональная окраска ответа отнюдь не определяется ведь только эмоциональной окраской вопроса. Она зависит от состояния человека, его настроения. Это тоже надо промоделировать. И результаты анализа вопроса отправляются на блок эмоций. Здесь происходит их взаимодействие, во-первых, с эмоциональной оценкой предыдущего ответа и, во-вторых, с фоном. Фон играет здесь примерно ту же роль, что для нас в обычной жизни погода. Осенний дождь навевает грусть, весеннее утро приводит в доброе настроение.
Тут происходит очень любопытное явление столкновения эмоций, они вытесняют друг друга или сливаются, борются, подвергаются взаимному влиянию. Так борются порою в каждом из нас, скажем, страх и любопытство, тревога и надежда. Киевские кибернетики позаботились о том, чтобы в модели эта борьба проходила по законам, известным психологии и физиологии.
Учтено и то, что эмоции могут перейти друг в друга: отвращение иногда становится злостью, злость — возмущением, возмущение — гневом, гнев вызывает ненависть.
Даже Олдосу можно было придать тот или иной «характер». То же относится к Эмику, но наш «киевский студент» обладает и подобием темперамента. Можно сделать у него сильнее те или иные эмоции, устроить так, чтобы в одном варианте Эмика чаще побеждали на «кухне чувств» бурные эмоции, а в другом — более тихие, чтобы возмущение заняло место гнева, раздражение — место страха.
Конструкции ответа Эмик берет из той части памяти, которая соответствует окончательной эмоциональной оценке им ответа. Но эту конструкцию надо еще заполнить конкретными осмысленными словами. Ведь конструкция указывает, скажем, только, что на первое место надо поставить местоимение, на второе — глагол. Но какое местоимение, какой глагол? Это-то и оказывается самым сложным.
Здесь работа группы создателей Эмика впадает в общее русло основных работ Киевского института кибернетики. Ученые во главе с Глушковым работают, в частности, над тем, чтобы научить машину распознавать смысл фраз.
Каждое слово, хранящееся в Эмике, получило условный вес.
И Эмик выбирает для ответа самые «тяжелые» слова, оказавшиеся в определенном участке памяти, границы которого указывает эмоциональная оценка.
Как рука перчатку, заполняют эти слова предварительно найденную для них форму. Впрочем, не обязательно сразу фраза-ответ получится удачной. Но это не страшно. Модель способна обучаться в процессе работы.
Ступенью к созданию Эмика стал в Киеве его старший брат, первым «переведенный на машину». Как и полагается в сказках, он куда глупее своего младшенького. Впрочем, «глупее» не то слово. Эмик-старший вообще не умеет выбирать из своей памяти слова по их смыслу. Да и слов в его распоряжении всемеро меньше — всего-навсего сорок. Но чувствовать умеет и старший брат. Это единственное его назначение. В ответ на группы слов, поступающих на вход, Эмик-старший выдает цепочку слов с той же эмоциональной окраской, но с учетом настроения и предыдущих ответов на вопросы.
Ему скажут: «Хороший друг», а он отвечает: «Красивый — дом большой — жизнь — хлеб — ходить — смелый — женщина».
Вполне «человеческая» ассоциативная цепочка!
Но Эмик настоящий способен не только глубже чувствовать, но и думать. Или, если выразиться научно, точнее, моделировать процесс возникновения эмоций и одновременно моделировать мышление. Он служит и для проверки гипотезы Амосова о взаимодействии в мозгу человека эмоциональной и интеллектуальной программ. Собственно, весь Эмик построен на основе этой гипотезы.
Итак, еще Чапек говорил, что роботам понадобятся эмоции. Но созданные воображением этого писателя роботы не были собственно машинами в принятом сегодня смысле слова. Они были живыми существами, построенными из органических тканей. Современные фантасты работают, естественно, с «железными людьми». Как они представляют себе решение проблемы эмоций у машины? Пока на страницах газет и журналов продолжается древний спор на тему о том, может ли машина мыслить.
Давным-давно один веселый философ задал богословам всех времен великолепный логический вопрос: «Бог может все. Ну, так может ли он создать такой камень, который даже он поднять не сможет?»
Последний же десяток лет менее веселые и часто очень раздраженные люди спрашивают: «Человек может все. Ну, так может ли он создать машину, которая будет умнее его?»
А когда речь доходит до эмоций… Конечно, чувствующая машина — лакомый кусочек для фантаста.
Однако большинство писателей почему-то считают, что чувства у машин, если появятся, то сами собой, как результат и следствие развития «машинного интеллекта», самого по себе усложнения электронного мозга.
Ленинградский писатель Геннадий Гор понял, что это представление неверно. В его повести «Странник и время» люди задают машинам чувства, создают эмоциональных роботов. Но знаете, почему им это понадобилось? Потому, что людям с эстетической точки зрения было неприятно все время иметь дело с бездушными машинами. И создать таких чувствующих роботов удалось только благодаря открытию неведомого поля. С его помощью роботам передаются переживания людей. Роботы эти, собственно, не самостоятельные чувствующие машины, а только эмоциональные двойники людей, избавленные зато от мышления, не связанного с мышлением тех, чьими двойниками они являются.
Все это, кстати, происходит где-то в 60-х годах… двадцать третьего века.
Отдадим должное фантазии талантливого писателя. Но до чего приятно, что реальность науки оказалась настолько более фантастической!
Чувствовать — нет, но моделировать чувство машина может уже сегодня.
От механической «черепахи» через Олдоса к Эмику. А что дальше, какими будут следующие ступени моделей психики?
Предугадывать трудно. Ясно только, что раньше или позже они должны будут включить в себя модели органов чувств. Слишком многое в наших эмоциях зависит от способа приема впечатлений. Преемники Эмика недолго будут получать их только в виде бумажных лент с дырочками. Ведь даже рядовая электрическая «черепаха» работы кружка «Умелые руки» может принимать световые, а то и звуковые сигналы. А в десятках лабораторий всего мира машины учатся читать и слышать. Одна из самых общих задач кибернетики — научить машину различать между собой всевозможные зрительные и слуховые образы. Когда эта проблема будет разрешена, создастся основа для еще большего приближения модели человека к ее великому и таинственному прототипу. Но и тогда модели будет еще далеко до него. Впереди столько ступенек…