Интеллектуальный робот третьего поколения — своеобразное кибернетическое «живое» существо, разумеется, если понимать этот термин достаточно широко. Рассмотрим основные органы этого существа.
Оно наделено рецепторами — разнообразными датчиками внешней и внутренней информации: зрением, слухом, осязанием, обонянием. Кроме рецепторов, оно имеет эффекторы — средства воздействия на окружающую среду. Это мышцы, или сервомоторы, приводящие в действие разнообразные конечности: руки, ноги, хобот, щупальца и т. д.
Главным в таком организме является достаточно развитый мозг, роль которого играет центральный компьютер. Компьютер, кроме всего прочего, имеет непосредственную связь с человеком — оператором. Самое главное, что такой робот обладает вполне целесообразным поведением; по крайней мере, он не глупее обезьяны. Этот организм и есть истинный робот, какую бы физическую форму он ни имел.
Чтобы отличать его от всех других роботов, с которыми мы до сих пор встречались на страницах этой книги, мы будем называть его «кибер», ибо породившая его наука — кибернетика — как раз и постулирует факт универсального единства живого и неживого целенаправленного поведения. Недаром один из создателей интеллектуальных роботов писал: «Робот — это функциональное описание системы, которая до недавнего времени могла быть получена лишь в результате роста живых клеток, а теперь начинает становиться чем-то, что мы можем сами изготовлять».
Кибер способен понимать человеческий язык, на котором ведет диалог с оператором, он сам формируете своем «сознании» довольно подробную модель внешней среды — реальной обстановки, в которой ему приходится «жить». Он может анализировать сложившуюся ситуацию, планировать свои действия для достижения поставленной оператором общей цели, намечать желаемые движения и реализовывать их в условиях неполной информации и быстро меняющейся ситуации.
Стоит заметить, что мы еще далеки от того, чтобы охватить человеческое мышление во всей его глубине.
Тем не менее некоторые исследователи пытаются создать некий «микромир», который вычислительная машина все-таки могла бы понимать.
Вот, например, робот, созданный Д. Уиногрэдом в лаборатории искусственного интеллекта Массачусетского технологического института. Он пытается целиком и полностью освоить игру в кубики: их расстановку и перемещение, геометрические конструкции — в той мере, в какой это знакомо ребенку. Эта машина способна самостоятельно передвигаться и брать определенные предметы. Она «видит» и анализирует увиденное. Она повинуется командам и отвечает на вопросы на человеческом языке. И что всего важнее, автомат способен к «пониманию».
Рассмотрим пример взаимопонимания этого робота и человека, взятый из книги Б. Бирюкова и М. Гутчина «Машина и творчество».
Человек. Подними большой красный блок.
Робот. Хорошо (прежде чем поднять красный блок, машине приходится его освободить: найти место для зеленого блока, лежащего на красном, и перенести его).
Человек. Схвати пирамиду.
Робот. Я не знаю, какую пирамиду вы имеете в виду (так как имеются три пирамиды, робот ничего не делает).
Человек. Найди блок, который выше, чем тот, который ты держишь, и поставь его в ящик.
Робот. Хорошо («рука» робота опускает красный блок и, поднимая высокий голубой блок, ставит его в ящик).
Человек. Что находится в ящике?
Робот. Голубая пирамида и голубой блок.
Человек. Что поддерживает пирамиду?
Робот. Ящик (такой ответ дан потому, что если раньше программа не знала, о какой пирамиде идет речь, то сейчас предполагает, что мы имеем в виду ту пирамиду, которая только что была упомянута).
Человек. Сколько блоков не находится в ящике?
Робот. Четыре.
Человек. Является ли по крайней мере один из них более узким, чем тот, который я просил тебя поднять?
Робот. Да, красный куб.
Человек. Он опирается на что-либо?
Робот. Да, на стол.
Человек. Может ли стол поднимать блоки?
Робот. Нет.
Человек. Может ли пирамида опираться на блок?
Робот. Да (дедуктивная система находит реальный пример и поэтому знает, что это возможно).
Человек. Может ли пирамида опираться на пирамиду?
Робот. Я не знаю (таких примеров на сцене нет).
Человек. Собери вместе (поставь друг на друга) две пирамиды.
Робот. Я не могу (робот пробует, но терпит неудачу).
Человек. Голубая пирамида — моя.
Робот. Я понимаю.
Человек. Моими являются блоки, цвет которых не красный, но то, что поддерживает пирамиду, не является моим.
Робот. Я понимаю (строятся две новые теоремы, касающиеся вопросов собственности — чей, кому принадлежит).
Человек. Ящик мой?
Робот. Нет.
Человек. Что-нибудь находящееся в ящике является моим?
Робот. Да, два предмета: голубой блок и голубая пирамида.
Человек. Не соберешь ли ты вместе оба красных блока, а также зеленый куб и пирамиду?
Робот. Хорошо (робот выбирает зеленый куб, на котором ничего нет, ставит его на большой красный блок, после чего снимает маленькую пирамиду с маленького красного куба и использует его для завершения указания).
Мы только что познакомились с отрывком из работы американского кибернетика по фамилии Уиногрэд (такова ее английская транскрипция, однако иногда его фамилию переводят просто как Виноград). Про эту работу М. Минский на советско-американской конференции сказал: «За последние десять лет мы увеличили разум ЭВМ в 106 раз, и я просто как игрок в покер скажу, что на руках у меня имеются доказательства существования искусственного разума. Это докторская диссертация Т. Уиногрэда из Массачусетского технологического института… В ней мы находим программу для вычислительной машины, обладающей небольшой, но все же заметной долей человеческого разума».
Однако, несмотря на видимые успехи искусственного интеллекта роботов, крупный вексель, выданный кибернетиками, еще не оплачен. И дело здесь не только в недостаточном быстродействии ЭВМ или в малом ассортименте сенсорных датчиков. Причина в другом: не хватает конструктивных идей для построения программ разумного поведения роботов. Ведь процессы мышления человека при решении даже самых тривиальных задач еще не разгаданы. Процесс самопознания интеллекта человека продвигается чрезвычайно медленно. Задача «познай самого себя» становится камнем преткновения на пути развития человекоподобных мыслящих устройств.
Проблема создания интеллектуальных роботов, «живущих» в среде, обладающей свойствами неопределенности, привела в последние годы к глубокому осознанию и даже самоосознанию процессов подобного рода, происходящих в биологических системах, в мозгу животных и человека. В результате появилась концепция иерархических адаптивных систем управления, которая эффективно развивается как фундамент организации целесообразного поведения роботов, наделенных интеллектом. Каким образом наш мозг управляет нашим телом, которое даже при грубой оценке с чисто механических позиций имеет более 200 степеней свободы? Как он командует каждой мышцей при выполнении сложных движений, когда мы пишем, ходим, бегаем, плывем, играем на рояле? Как успевает он переработать в минимальное время столь большой объем информации? А никак. Мозг, наш центральный процессор, «выше» этого.
Он вообще не контролирует действия отдельных двигательных единиц нашего тела. Детализация движений происходит на уровнях гораздо более низких, чем кора больших полушарий. Это похоже на программирование на языке высокого уровня, где достаточно указать «цикл от 1 до 20 с шагом 1», а машина сама развернет эту команду цикла в детализированную систему операций. Наиболее очевидные распоряжения типа «прикоснешься к горячему — отдерни руку» происходят даже без осознания их мозгом.
Такое распределение функций, представляющее собой распределение крупной задачи между несколькими уровнями, гораздо выгоднее, экономнее, оперативнее, чем жестко централизованное, когда управляющий орган точно предписывает необходимое действие каждому из составляющих систему элементов. При решении серьезных задач такой централизованный мозг оказался бы настолько сложным, что едва ли уместился бы не только в черепной коробке, но даже во всем теле человека.
При выполнении тех или иных сложных движений мы складываем их из некоторых обобщенных кирпичиков: встать, сесть, шаг правой, шаг левой. Обучение ребенка всему многообразию движений сводится к формированию и закреплению в его «памяти» соответствующих кирпичиков. Кстати, аналогично организуется и процесс восприятия. Чувственный образ — это определенная последовательность или комбинация звуковых, зрительных или обонятельных импульсов (лошадь, человек) или их комбинации (человек на лошади или кентавр.)
Другой общий принцип организации управления в сложных биологических системах — это способность к обучению, адаптация к заранее неизвестным, меняющимся в довольно широких пределах условиям жизни.
Способность к адаптации присуща не только организму в целом, но и отдельным его органам и даже функциям. Эта способность незаменима в тех случаях, когда одна и та же проблема должна решаться многократно. Таким образом, феномен адаптации играет существенную роль в целесообразном поведении всего живого.
В начале нашего века зоопсихолог Э. Торндайк провел следующий эксперимент с животными. Имелся Т-образный лабиринт с тремя площадками. На площадку, находившуюся в основании буквы Т, помещалось подопытное животное, а на две другие площадки, находившиеся у концов горизонтальной перекладины буквы Т, помещалась приманка. Животное могло делать альтернативный выбор: добежав до развилки, оно могло повернуть к левой площадке или к правой площадке.
Но по пути к приманке его ожидала неприятность.
В стенки коридора были вмонтированы электроды.
С некоторой фиксированной вероятностью на них подавалось напряжение, и тогда пробегавшее мимо них животное получало болевое раздражение — среда выдавала сигнал наказания. Сигналом же поощрения среды была та пища, которая ожидала животное на конечной площадке. Если в эксперименте вероятность раздражения в одном из коридоров (например, в левом) намного превосходила вероятность такого раздражения в другом коридоре (в правом), то естественно было бы считать, что животное адаптируется к условиям среды: после серии пробежек оно будет предпочитать поворачивать в правый коридор, а не в левый. Больше всего Э. Торндайк экспериментировал с крысами. Оказалось, что они быстрее оценивают более безопасный путь и уверенно выбирают его даже при небольшой разнице наказаний.
Другие подопытные животные делали это с разной степенью адаптивности, но способность эта оказалась присущей всем видам животных, участвующих в экспериментах.
Проблема управления интеллектуальным роботом заключается, таким образом, в моделировании способности животного и человека к адаптации.
Иерархическая организация управления роботами — это прежде всего распределение функций восприятия, обработки информации и управления между отдельными уровнями иерархии и подсистемами роботов. Полностью централизованные алгоритмы обработки информации и управления при больших объемах обработки, свойственных роботам третьего поколения, оказываются малоэффективными или даже непригодными. Таким образом, возникновение иерархической адаптивной структуры диктуется в первую очередь стремлением повысить качество управления роботом, то есть уменьшить уровень неопределенности и увеличить быстродействие.
Для функционирования отдельных уровней и подсистем необходим значительно меньший объем информации.
Так возникает распараллеливание алгоритмов, что и позволяет решить задачу в условиях существенно меньшей неопределенности.
Итак, для активной жизни роботов третьего поколения жизненно необходимы «хорошие мозги», ибо именно от степени интеллектуальности робота зависит принадлежность его к тому или иному поколению. Существует даже весьма обоснованная классификация роботов в зависимости от функций его электронного мозга.
Управляемые роботы. Роботы «нулевого поколения» — управляемые человеком манипуляторы — не обладают, естественно, никакими свойствами интеллектуальности — все заключено в операторе.
Обучаемые роботы. Роботы первого поколения имеют память. План и порядок действий задает человек — оператор, а робот всего лишь запоминает (способность обучаться) и воспроизводит.
Очувствленные роботы. План действий задает человек, а робот, запомнив план, вычисляет конкретный порядок действий в зависимости от тех или иных данных внешней среды (обратная связь).
Интеллектуальные роботы. Человек задает лишь цель, а робот сам составляет план операции, определяет порядок действий с учетом реальных условий и превращает действия в движения исполнительных механизмов. Для этого роботу необходимо иметь не только широкую систему чувств, не только интеллект, но и модель окружающей действительности и даже модель самого себя (сознание и самосознание робота).
«Представление о том, что компьютеры делают только то, что им диктуют люди, обманчиво. Если вы не можете сказать компьютеру, как сделать что-то самым лучшим образом, то вы обязываете его испробовать множество подходов. И если кто-то потом будет говорить, что машина действовала так, как ей было сказано, в этом будут содержаться двусмысленности. Ведь вы не устанавливали и не могли знать, какой из подходов изберет машина», указывает М. Минский, специалист в области искусственного интеллекта.
Обычные вычислительные машины, которые обрабатывают счета за электричество или производят банковские операции, — это всего лишь счетные устройства: быстродействующие, но абсолютно неразумные. Вся их программа содержит лишь список команд, которые они безошибочно выполняют.
В некоторых научно-исследовательских центрах уже имеются другие вычислительные машины, внешне очень похожие на прежние, но в них заложены более сложные программы. Ученые начиняют машину информацией и учат ее «мыслить». Такие машины, наделенные «разумом», постепенно смогут имитировать многие наши способности, а в некоторых случаях даже превзойти их. В скором времени, возможно, это будут роботы, которые начнут рассуждать, понимать, приобретут способность учиться, а после этого попытаются изменить наши представления о жизни и даже о сам-их себе.
Исследователи во всем мире занимаются этой проблемой вот уже в течение 25 лет. Во время второй мировой войны английский математик А. Тьюринг изобрел машину — прародительницу современных вычислительных машин. Это была система, способная расшифровывать вражеские сообщения. Всю свою жизнь изобретатель затем мечтал о создании такой машины, которая была бы способна учиться и стать разумной.
То, что сейчас называют первым «искусственным мозгом», родилось в проектах другого известного математика- Дж. фон Неймана в октябре 1945 года в Принстоне. Он так же, как и его будущие последователи, был увлечен психологией и неврологией. После бесплодных попыток создать математическую модель человеческого поведения он потерял веру в возможность создания «искусственного разума», элементы первых громоздких вычислительных устройств имели настолько большие размеры, что Дж. фон Нейман не в состоянии был решить вопрос — каким образом заменить ими ничтожно малые нервные клетки.
Поскольку в те времена человеческий мозг рассматривали как нечто сотканное из взаимосвязанных нейронов, его можно было представить в виде какого-то вычислительного устройства, в котором циркулирует не энергия, а информация. Если принять такую аналогию, рассуждали ученые, то почему бы не придумать систему, в которой разум будет зарождаться в результате прохождения через нее информации?
Выдвигались самые различные теории относительно искусственного мышления. Физик Д. Мак-Кей предложил, например, интересный метод аналогий и вероятностей, пользуясь которым машина могла бы мыслить, используя логические элементы, двоичные или недвоичные.
Этот метод вполне заслуженно был оценен как слишком упрощенный для точного моделирования человеческого мышления.
На первой крупной конференции ученых, работающих в этой области, которая состоялась еще в 1956 году, многие ее участники высказались за принятие термина «искусственный разум», чтобы хоть как-то определить предмет своих исследований. При этом не обошлось без бурных дебатов. Хотя все присутствующие верили в возможность передачи кое-чего, что пока находится лишь в компетенции человека, своим еще примитивным вычислительным машинам, они были далеки от того, чтобы прийти к единому мнению относительно средств достижения этой возможности. Одни полагали, что необходимо начать с постановки машинам простых задач, другие считали, что прежде всего следует разработать теорию и построить модель человеческого мозга…
Два никому не известных исследователя, А. Невелл и Г. Саймон, выдвинули совсем необычную идею. Они изучали, каким образом два человека могут общаться друг с другом с помощью системы сигнализаторов и кнопок. Эта система должна была раскладывать их поведение на серию простых и логических операций. Поскольку большая вычислительная машина была установлена в том же помещении, где работали оба исследователя, они развлекались тем, что ставили свой эксперимент с ног на голову: вводили в машину простые логические правила, чтобы заставить ее выработать в себе способность к более сложным рассуждениям. Это была гениальная мысль; программа не только работала, но с ее помощью было открыто новое доказательство одной теоремы: оно было совершенно неожиданным и намного более элегантным, чем до этого существующее.
А. Невелл и Г. Саймон открыли основополагающий принцип: нет необходимости в том, чтобы понять человеческий мозг для передачи разума машине. Необходимо изучать не то, как работает наш мозг, а то, что он делает. Нужно проанализировать человеческое поведение и исследовать процесс приобретения им знаний, а не разрабатывать теорию относительно сети нейронов.
Короче говоря, предпочтение отдается психологии, а не физиологии.
Начиная с этого времени исследователи пошли по пути, открытому А. Невеллом и Г. Саймоном, что, однако, не мешает им постоянно спорить по поводу различных способов заставить «думать» вычислительную машину.
Последователи одной школы — она основана на логике — пытаются расчленить процесс рассуждения на серию логических предложений. Машина «продвигается» от одного предложения к другому, делая последовательные выводы, сравнимые с известным силлогизмом:
«Все люди смертны; Сократ — человек, следовательно, Сократ смертен».
Машина еще далека от того, чтобы приобрести те общие знания, которыми обладает даже малолетний ребенок. И достигнут ли вообще когда-нибудь машины уровня развития ребенка? Этот вопрос уже давно разделил ученых на два лагеря. В Беркли преподаватель философии X. Дрейфус стал во главе радикальной оппозиции приверженцам идеи «искусственного разума». Он поставил их науку в один ряд с алхимией. «Никогда не удастся запрограммировать нашу мысль, — заявляет он, — хотя бы по той простой причине, что мы растем в реальном мире, в обществе, мы познаем мир вместе с нашим телом, мы не состоим из одного только разума!
Машина может знать, что такое „ресторан“, — продолжает он, — но она не в состоянии знать, ест ли посетитель ногами. Или как приближается к столу официантка: в полете или ползком? Никогда машина не будет иметь столько знаний, чтобы охватить мир во всем его многообразии!»
Но сотрудник Массачусетского технологического института М. Минский отказывается верить в то, что разум машин ограничен. Когда его спрашивают, что же он понимает под термином «искусственный разум», он, таинственно улыбаясь, отвечает:
«Это наука, которая заставляет делать машины то, что человек считает интеллектуальным, когда делает то же самое». Этот ученый объединил вокруг себя еще нескольких исследователей, также работающих над созданием искусственного разума. Будучи физиком и математиком, он изучил психологию, неврологию и социологию. Когда-то своими руками он сконструировал машину на базе электронных ламп, участвовал в разработке «Персептрона», некоего подобия искусственного ученика. Совместно с математиком С. Пейпертом он был также автором обучающей системы для детей.
Сейчас М. Минский уже не заводит разговор о машинах. Тема его бесед человек; когда он говорит, взгляд его кажется отсутствующим, он как бы прослеживает внутри себя весь ход своих собственных рассуждений. «Искусственный разум — это новый вид психологии», — замечает М. Минский. Она представляется ему платформой экспериментальной науки, которая использует вычислительную машину как средство моделирования с целью постижения природы человеческого мышления.
«Наши основные знания нигде не записаны, — утверждает М. Минский. — Все знают, что для того, чтобы взять книгу, нужно протянуть руку. Но этого не найдешь ни в одной энциклопедии. А вычислительная машина не может этого знать».
М. Минский и его студенты пытались, например, определить такое простое на первый взгляд понятие, как «вода». Это оказалось настоящей головоломкой. Необходимо знать, что вода — это жидкость, что ее уровень горизонтален, что ее количество не изменится, если ее перелить из одного сосуда в другой, но она вытечет из дырявого сосуда, может замочить одежду и т. д.
И вот вычислительная машина, получившая самую общую информацию о воде, «постаралась» дать ответ на один очень важный вопрос: «Что случится, если наклонить стакан, заполненный водой?» Машина очень хорошо изображала на своем экране стакан, опрокинутый до горизонтального положения, и, несмотря на «известный» ей закон тяготения, упорно показывала на экране опрокинутый стакан, жидкость из которого никак не выливалась. И она никогда не сможет познать на горьком, но таком поучительном опыте то неприятное ощущение, какое испытывает человек, когда вода заливает одежду. Вычислительная машина более охотно воспринимает чисто книжные знания.
Именно такие исследования проводит группа ученых под руководством психолога Р. Шэнка. Здесь машина учится читать и обобщать текст, разумеется, при постановке вопросов в письменном виде. Она делает переводы как с английского языка на другие, так и наоборот; упражняется в ведении беседы, в искусстве аргументирования и даже начинает заучивать слова.
— Почему ты вчера вернулся так поздно? — недовольно спрашивает Мэгпай.
— Я ходил в кегельбан, — отвечает Скотт Робертсон, ее муж, не обращая внимания на вызывающий тон.
— А я думала, что ты испытываешь отвращение к этой игре, — коварно замечает Мэгпай.
— Когда я в компании, то не испытываю.
— А я к этой компании не отношусь?
Скотт слабо протестует:
— Это ведь не одно и то же.
— Разумеется, потому что ты не можешь найти себе женщин у себя дома!
Происшедшая семейная сцена была бы самой обычной, если бы эта ревнивая американка не оказалась… ЭВМ.
Мэгпай — Сорока — это программа для вычислительной машины, которой отведена роль сварливой супруги, озабоченной тем, чтобы «приструнить» своего подставного мужа, молодого психолога Йельского университета, который ведет с «ней» диалог посредством клавиатуры.
Эта машина не хранит в своем запоминающем устройстве заготовленные и стереотипные фразы. Она сама формирует ответы. Она аргументирует, «размышляет», и в этом она в какой-то степени уподобляется человеческому существу. Машина «мыслит» своим особым способом. Опираясь на психологию и информатику, ученые поставили перед собой по меньшей мере честолюбивую задачу: изучить образ мышления человека и его поведение, чтобы затем воспроизвести их искусственно.
Когда мы говорим слова «искусственный интеллект», то немедленно возникает аналогия с чем-то ненастоящим. Вспомним, с каким оттенком мы произносим слова «искусственная пища» или «искусственная трава».
Термин же «искусственный интеллект» затрагивает нас до глубины души, ибо единственный интеллект, который нам известен, — это наш собственный, естественный. Может быть, поэтому проблема создания искусственного интеллекта вызвала столько споров и публикаций. Число публикаций, посвященных проблеме «возможен ли искусственный интеллект», приближается к числу публикаций, посвященных конкретным научным результатам в этой области. Человек яростно защищает один из последних бастионов своего человеческого от нашествия машинного. Дело осложняется еще и тем, что термин «искусственный интеллект» чисто условный. Это понятие до сих пор не определено. Остроумное определение типа «наука, которая заставляет делать машину то, что человек считает интеллектуальным, когда делает это сам», к сожалению, малоконструктивно, а иногда и прямо заводит исследователей в болото практического формализма.
Известно, сколько шума и научной суеты породил знаменитый тест Тюринга «Если я не догадаюсь, что со мной беседует машина, то эта машина уже достигла интеллектуального уровня человека». Чтобы исключить проблему машинной речи, такой диалог лучше вести с помощью телетайпа. Для многих кибернетиков, как казалось, недосягаемый тюринговский уровень открыл блестящую перспективу. Как из рога изобилия посыпались различные электронные собеседники. В конце 60-х годов американский кибернетик, преподаватель Массачусетского технологического института Дж. Вейценбаум изготовил несколько программ, основная цель которых в условиях теста Тюринга — сбить с толку придирчивого эксперта. В основе этой работы лежит идея псевдореального диалога. При таком диалоге имеется только видимость беседы. «Собеседник» фактически не вникает в смысл сообщаемого, а строит свой ответ на основе несложного формального преобразования услышанного.
— Прийти к вам мне посоветовал приятель; он говорит, что это несколько развлечет меня, — говорит исследователь.
— Прийти сюда посоветовал ваш приятель? — удивляется машина.
— Он говорит, что у меня вечно депрессия.
— Мне очень жаль, что у вас депрессия.
Дж. Вейценбаум придумал свою обворожительную «Элизу» после того, как досконально изучил скучные салонные беседы. Он заметил, что некоторые из его соотечественников обладают способностью отвечать собеседнику, не проявляя при этом к нему никакого интереса, но они все же очень хорошо умеют поддерживать диалог. «Элиза», унаследовавшая эту способность, отыскивает в вопросах ключевые слова, формируя после этого стереотипные ответы, которые кажутся вполне уместными. «Дама», таким образом, наделена некоторым интеллектом, но на самом деле это лишь ограниченная притворщица. «Элиза» очень проста: определенные ключевые слова во фразе человека заставляют ее реагировать, подставляя определенные речевые обороты.
Например, если машина читает предложение: «Ты неизвестно что», она отвечает: «Почему вы думаете, что я неизвестно что?» Велеречивая «Элиза» просто салонная болтунья.
В отличие от нее «Пэрри» — программа, созданная К. Колби в Стенфордском университете, призвана помочь начинающим психиатрам приобрести некоторый опыт в беседе с тяжело больными пациентами. Программа моделирует человека, страдающего манией преследования. В программу заложена определенная биография. Пэрри 28 лет, он холост, работает на почте. Он легко раним, чувствителен ко всему, что касается его внешности, образования, убеждений. Его любимые занятия — кино и скачки. Как-то он набросился на букмекера, заведующего ставками на ипподроме, из-за того, что тот не выплатил ему выигрыша, и с тех пор страшится мести преступного мира. Во время разговора эмоциональное состояние Пэрри часто меняется. Если ведущий беседу человек слишком часто затрагивает «больные места», Пэрри начинает волноваться, у него появляются симптомы паранойи.
— Вы боитесь преступного мира?
— Мафия — самые страшные гангстеры.
— Вы связаны с мафией?
— Видите ли, они меня знают.
— Откуда они вас знают?
— Они следят за мной.
— Почему?
— Хотят сочинить что-то обо мне, чтобы меня посадили.
— Что они имеют против вас?
— Они хотят со мной покончить.
— Почему?
— У меня есть против мафии кое-какие улики.
Когда группе психиатров была предоставлена возможность побеседовать посредством телетайпа с настоящим больным и с программой Пэрри одновременно, то они, хотя и знали, что один из собеседников — машина, не могли отгадать, кто именно. Таким образом, тест Тюринга начал действовать.
Интересное событие произошло позже, когда уже упомянутый нами Дж. Вейценбаум создал модель врача-психиатра для лечения некоторых больных с признаками расстройства типа неврозов. Возникла идея «вылечить» Пэрри с помощью программы-врача. Вот пример происходящего между ними диалога:
В. Здравствуйте. Расскажите, на что вы жалуетесь.
П. Люди иногда действуют мне на нервы.
В. Я не уверен, что полностью вас понимаю.
П. Вам следует быть повнимательнее.
В. Пожалуйста, продолжайте.
П. Как-то я пошел на ипподром в Бэй-Медоус.
В. И с чем вы это связываете?
П. Я пошел на скачки.
В. Что еще вы хотели бы обсудить?
П. Я интересуюсь скачками.
В. Почему вы это говорите?
П. Там жульничают в игре.
В. Я не уверен, что полностью вас понимаю.
П. Вы настоящий зануда.
В. Вам нравится считать меня настоящим занудой?
П. Я сыт по горло.
В. И с чем вы это связываете?
П. До свидания.
В. Мне было очень приятно с вами познакомиться. С вас 399 долларов 25 центов.
Неплохой диалог, хотя доктор немного «плавает».
Программисты надеются со временем настолько усовершенствовать программу «Пэрри», чтобы молодые врачи в процессе диалога могли «вылечить» искусственного больного, и тогда студенты смогут практиковаться в разговоре с машиной, не подвергая действительно больных людей риску пострадать от неумелого лечения.
Еще важнее научить машину улавливать суть того или иного сообщения. Различают два типа общения с компьютером: ограниченная беседа и ограниченное понимание. При ограниченной беседе машина «понимает» все, что ей говорят, но лишь в случае, если затрагивается определенная тема скажем, шахматные ходы или построение конструкций из кубиков. При ограниченном понимании можно разговаривать с машиной о чем угодно, но она далеко не всегда вас полностью поймет. Именно такова программа «Элиза», разработанная Дж. Вейценбаумом. «Элиза» способна лишь на поверхностное понимание предметов и явлений.
Однако по мере развития теории и практики кибернетического диалога речь машины становится все более и более осмысленной. Вспомним ревнивую Мэгпай, которой начинался этот параграф. Тест Тюринга начал срабатывать все чаще и чаще.
Вице-президент одной американской компании, занимающейся производством ЭВМ, сам того не подозревая, оказался подвергнут тестированию по критерию Тюринга. Вот какой диалог по телетайпной связи произошел у вице-президента с системным программистом Д. Бобровым, сотрудником той же компании:
В-пр. Нельзя ли мне сейчас воспользоваться ЭВМ?
Бобров. Почему вы спрашиваете?
В-пр. Может быть, мне удастся заключить сделку.
Бобров. Почему вы в этом уверены?
В-пр. Мои предполагаемые покупатели никогда не видели нашу систему в действии.
Бобров. Это имеет для вас большое значение?
В-пр. Конечно.
Бобров. Вы как будто сомневаетесь в этом?
В-пр. Что за нелепое замечание?
Бобров. Что вы имеете в виду, говоря о нелепом замечании?
В-пр. Возражаете ли вы против того, чтобы я сейчас воспользовался ЭВМ?
Бобров. Расскажите мне побольше о ваших предполагаемых покупателях.
В-пр. Позвоните мне 491-18-50.
Когда звонка от Д. Боброва не последовало, разгневанный вице-президент начал отчитывать своего секретаря, и тут выяснилось, что телетайпный коммутатор соединил его не с самим Д. Бобровым, а с той самой системой, которую вице-президент и хотел предложить заказчикам. Таким образом, критерий Тюринга быстро девальвировал в глазах кибернетиков, так и не поведя нас к границам подлинной интеллектуальности компьютеров.
Пока одни ученые разрабатывали принципы кибернетического диалога, другие практики и прагматики стремились запрячь эту новую способность машины в телегу научно-технического прогресса. Они решили предложить машине некоторый объем знаний из очень конкретной области.
Все полученные машиной элементы информации связаны между собой сложной системой взаимозависимых отношений. Прибегая чаще к аналогиям и заключениям, чем к логическим выводам, машина сортирует, объединяет и синтезирует эти элементы, постепенно развивая свою способность «мыслить».
Первые такие машины появились в конце 50-х годов.
Они доказали около сорока теорем и решали простые задачки типа «постройка детской пирамиды».
Уже в 60-х годах можно было побеседовать о погоде с машиной, имеющей понятие о метеорологии и обладающей знаниями синтаксиса, которые ей необходимы для правильного построения фраз. Когда, например, ей говорили: «Я не люблю дождь летом», она очень вежливо отвечала: «Да, но дождь летом бывает не так часто».
Другая программа, получившая название «Бейсбол», отвечает на все вопросы, связанные с матчами года: место встречи, счет, состав команд. Что касается программы «Сэд Сэм», то она уже стала интересоваться семейными отношениями своих собеседников, правда, не имея о том никакого понятия. И только в 1965 году машина «Сэр» стала больше внимания уделять значению слов, а не их расстановке во фразе. А машина такого же типа «Стьюдент», как хорошо успевающий учащийся, решала уравнения первого порядка, формулируя последовательность их решения на беглом английском языке.
Чем в большей степени вводимые в машину знания относятся к специальной области, тем больше шансов существует за то, чтобы машины их освоили. В настоящее время некоторые из них являются самыми настоящими «экспертами». Они уже помогают специалистам определять, например, насколько богат рудой тот или иной геологический пласт, или ставить диагноз при инфекционном заболевании.
Для создания таких искусственных «специалистов» необходимо передать им знания специалистов-людей.
Но, как это ни парадоксально, главная трудность как раз заключается в том, чтобы «изъять» эти знания из мозга человека. Врач, например, ставит свой диагноз, исходя из опыта, следуя при этом правилам, которыми он пользуется почти бессознательно, автоматически.
И вот исследователи проводят долгие часы, интервьюируя врачей и других специалистов, чтобы затем уяснить для себя основные закономерности, свойственные процессу их мышления. Как только удастся восстановить весь ход их рассуждений, будет относительно несложно воспроизвести его в программе вычислительной машины.
Начиная с 1965 года машина «Дендрал» — первый искусственный «специалист», созданный в Стенфордском университете Э. Файгенбаумом, помогает химикам определять молекулярную структуру веществ. Другой эксперт, «Проспектор» («Старатель»), тщательно исследует геологические карты и пробы грунта для определения возможных месторождений. В штате Вашингтон им было открыто богатое месторождение молибдена.
Что касается машины «Медцин», ее программа была составлена в 70-х годах, то она ставит диагнозы при инфекционных заболеваниях, если ей сообщат результаты анализов и основные симптомы заболевания. И что самое важное, она в любой момент объяснит причину, по которой ставит именно такой диагноз, а не другой, если таких объяснений потребует от нее пользователь.
В университете Питтсбурга специалист по компьютерам Г. Поупл и специалист по внутренним болезням Дж. Майерс создали программу «Кадуцей», которая содержит в своей памяти больше симптомов болезней, чем смог бы в любом случае запомнить врач. Программа позволяет ЭВМ комбинировать факты, оценки и суждения и ставить сложные диагнозы. Машина ставит диагноз?
Да! И вот тому пример. В этот компьютер были однажды введены детальные сведения о пожилом человеке, доставленном ночью машиной «скорой помощи» в университетскую клинику. У него был плохой вид и одышка. Сердечный приступ? «Это было мое первое предположение», — рассказывал доктор Майерс.
Принимая во внимание картину состояния больного — отсутствие болей в области грудной клетки, перенесенный ранее сердечный приступ, нормальное давление крови, запись в истории болезни о диабете, — компьютер отверг более десятка предположенных заболеваний, предварительно оценив их проявления, а затем на экране появилось сообщение о главном подозрении: «предварительный диагноз — диабет сахарный».
Компьютер запросил об уровне сахара в крови у больного. Довольно высокий. Он задал другие вопросы, чтобы вынести завершающее решение по диабету, а затем объявил: «отвергнуть диагноз — диабет — сахарный».
Далее последовали новые диагностические вопросы о шумах в сердце, о результатах прослушивания дыхания (дыхательных шумов) и рентгеновского просвечивания грудной клетки… Через несколько минут компьютер вынес заключение, что больной является жертвой сердечного приступа. Врачу потребовалось бы несколько дней, чтобы прийти к такому же решению.
В сложных или в необычных случаях «Кадуцей» ставил более правильный диагноз и тщательнее, чем это делали практикующие врачи. По словам доктора Дж. Майерса, компьютер почти всегда соглашался с врачом-специалистом, у которого было достаточно времени, чтобы изучить каждый симптом у пациента.
После проведения дополнительных испытаний «Кадуцей» смог бы стать обычным советчиком докторов, и он, возможно, даже уменьшит стоимость медицинского обслуживания, поскольку врачам придется назначать больным меньшее число анализов, руководствуясь вопросами компьютера. Ведь не секрет, что лечение в США, включая анализы, стоит очень дорого.
Уже существует около 50 таких новоиспеченных «специалистов». Предсказывают, что у них будет многочисленное потомство. В Японии, например, работают над созданием ЭВМ, которая будет автоматически переводить и отпечатывать документы, совершая для этого распознавание живой и письменной речи. Все, чго придется делать пользователю, — это произносить команды. Если машина не поймет, она заговорит, будет задавать вопросы. Она будет делать выводы на основе собственных «суждений». Кроме того, она будет учиться, запоминая свои ошибки.
Возможно, что «экспертные системы» будущего станут давать советы не только инженерам, врачам и химикам, но даже любителям-цветоводам, ухаживающим за прихотливыми комнатными растениями. Они обретут роль обычных, будничных консультантов.