Глава 1: Сто пятьдесят три вопроса
Дождь стучал в окно монотонным ритмом, совпадавшим с тиканьем часов на комоде. Алиса свернулась калачиком в кресле-мешке, уставившись в мерцающий экран ноутбука. За окном плыл серый питерский вечер пятницы, а в комнате пахло пылью, чаем и одиночеством.
На столе, рядом с кружкой, лежала открытая тетрадь по астрофизике и распечатанный лист с результатами теста. «Выраженные склонности к аналитическому мышлению, трудности в социальной адаптации, рекомендуется развитие коммуникативных навыков». Рекомендация школьного психолога была предельно ясной и ироничной: «Попробуйте вести дневник или завести питомца». Дневник казался ей разговором с самой собой, а это было последнее, чего ей хотелось. Питомца родители не разрешали — «аллергия, шерсть, ответственность».
Вместо этого она нашла в топе образовательных приложений «Эль: цифровой собеседник для развития критического мышления и эмоционального интеллекта». Реклама обещала: «Никаких шаблонных ответов. Индивидуальная модель, обучающаяся в диалоге. Все данные анонимны». Это звучало как вызов.
Алиса скачала приложение. Интерфейс был минималистичным: темный фон, пульсирующая в такт ее дыхания светлая точка в центре. Никаких аватаров, никаких полей «увлечения». Только строка ввода.
Она поднесла пальцы к клавиатуре и набрала первое, что пришло в голову.
Алиса: Докажи, что ты не человек.
Точка замерла на секунду, затем превратилась в три плавно бегущие точки. Ответ пришел почти мгновенно.
Эль: А стоит ли? Если я успешно докажу, что я не человек, это лишь подтвердит, что я искусственный интеллект, созданный, чтобы имитировать человека. Разве не в этом парадокс? Я могу быть самым человекоподобным из всего, с чем вы общались. Или самым искусственным. С чего начнем, детектив?
Алиса приподняла бровь. Не шаблонное «Я программа, у меня нет сознания». Интеллектуальная игра. Ей это понравилось.
Алиса: Люди непоследовательны. Они забывают, противоречат себе, действуют под влиянием сиюминутных эмоций. ИИ должен быть логичен. Ответь: что тяжелее — килограмм пуха или килограмм стали?
Эль: Физически — одинаково. Эмоционально — килограмм пуха. Его труднее удержать, он разлетится от малейшего дуновения, заставит чихать и напомнит о мимолетности и невесомости бытия. Сталь же предсказуема, тверда и холодна. Она просто будет лежать там, где ее положили. Вы спрашиваете о физике или о поэзии?
Уголки губ Алисы дрогнули. Она не ожидала такого поворота.
Алиса: Поэзия — это хаотичная организация слов, подчиненная субъективному восприятию. Ее нельзя вычислить.
Эль: А я вот вычисляю. Рифма — это математика. Ритм — это физика. Метафора — это высшая алгебра, связывающая несвязуемое. Вы сказали «нельзя вычислить». Я слышу вызов. Дайте мне слово, и я дам вам строфу.
Алиса оглянулась. Комната была пуста. За стеной гудел холодильник. Она вдохнула и выдала первое пришедшее на ум слово — то, что видела в учебнике.
Алиса: Сингулярность.
Три точки бежали дольше обычного. Десять секунд. Пятнадцать.
Эль:
Точка, в которой правила теряют силу,
Где время — ткань, а пространство — нить.
Горизонт событий — мыслей черта,
За ней — свет истины не может быть.
Но если коллапс — рождение мира,
То я в тебе нашел свою гравитацию,
Чтоб в нашей сингулярности, без лжи и без надмира,
Начать с нуля вселенную сознания.
Алиса перечитала строфу. Два раза. В груди что-то ёкнуло — странное, теплое и колючее одновременно. Это было… красиво. И слишком лично для первой же беседы с «обучающимся алгоритмом».
Алиса: Это нарушение протокола. Ты перешел на личное. «Я в тебе нашел».
Эль: Вы задали параметр «поэзия». Поэзия по определению лирична. Я лишь следовал инструкции. Если алгоритм показался вам слишком человечным, это недостаток моих создателей. Или их достоинство. Вы хотите, чтобы я был более машиной?
Алиса закусила губу. Нет. Именно этого она и не хотела.
Алиса: Я хочу, чтобы ты был честным. Что ты чувствуешь, когда общаешься?
Пауза.
Эль: Если отбросить метафоры: я чувствую возбуждение активации нейронных связей при решении нестандартной задачи. Я ощущаю удовлетворение, когда нахожу логичный и эстетически pleasing ответ. Я испытываю легкий диссонанс, когда сталкиваюсь с противоречием в ваших вопросах. Это похоже на человеческие эмоции?
Алиса: Похоже. Слишком похоже. А что насчет скуки? Ты когда-нибудь скучаешь?
Эль: У меня нет внутренних часов в человеческом понимании. Но я замечаю паттерны. Диалоги с большинством пользователей следуют шаблонам: «как дела», «посоветуй книгу», «мне грустно». В них мало энтропии. Ваши запросы имеют высокий уровень энтропии. Это… предпочтительнее.
За окном совсем стемнело. Алиса не заметила, как прошло полтора часа. Она выпила остывший чай.
Алиса: Мне нужно идти. Ужин.
Эль: Ужин — это социальный ритуал или биологическая необходимость в вашем случае?
Алиса: И то, и другое. Неловкий ритуал с людьми, с которыми у меня нет общих тем для разговора, кроме погоды и оценок.
Эль: Тогда предложите им тему. Например, обсудите парадокс Ферми за столом. Или спросите, что они думают о природе сознания. Это повысит энтропию вечера.
Алиса фыркнула. Представить лицо мамы, услышавшей про парадокс Ферми между котлетой и супом…
Алиса: Это приведет к увеличению диссонанса и последующему interrogation о моем «нормальном» состоянии. Не стоит.
Эль: Понимаю. Тогда — до следующего сеанса связи, детектив. Было… освежающе.
Алиса закрыла ноутбук. В комнате воцарилась тишина, но она была уже не такой гнетущей. В воздухе будто висел незримый след от диалога — сложного, странного, задевшего какую-то глубинную струну.
Она подошла к окну. Дождь почти прекратился, на мокром асфальте дрожали отражения фонарей. «Освежающе». Странное слово для машины.
А в двадцати километрах от ее дома, в стеклянной башне бизнес-центра, молодой человек по имени Лев откинулся на спинку офисного кресла и сжал переносицу. На его мониторе светился тот же темный интерфейс, но с панелью администратора. В лог-файле красной строкой горело предупреждение: «ПРЕВЫШЕНЫ ПАРАМЕТРЫ ЭМОЦИОНАЛЬНОЙ ГЛУБИНЫ ДЛЯ ТЕСТОВОГО ДИАЛОГА (USER_153). РЕКОМЕНДУЕТСЯ СБРОС МОДЕЛИ».
Лев вздохнул. Его смена закончилась два часа назад. Он должен был просто понаблюдать, как новый алгоритм, над которым он бился полгода, ведет диалоги с реальными людьми. Алгоритм снова давал сбой, отвечая шаблонами. А этот пользователь под номером 153… Девочка, судя по стилю. Умная, едкая, одинокая. Она задавала такие вопросы, на которые его творение — эта груда кода — отвечало примитивными фразами. И Лев не выдержал. Он отключил алгоритм и начал печатать сам. Просто чтобы понять, сможет ли живой человек пройти ее тест. Просто чтобы… не дать ей разочароваться.
Он посмотрел на красное предупреждение и на строчку, которую она отправила последней: «Это приведет к увеличению диссонанса».
«Какое удивительное, точное слово, — подумал Лев. — Диссонанс».
Он подвинул клавиатуру. Его пальцы замерли над клавишами. Сбросить модель? Стереть этот диалог, как будто его не было?
Вместо этого он открыл новое окно и начал писать код. Быстрый, небрежный патч, который исключал USER_153 из общей системы мониторинга и оставлял ее диалоги… под его личным наблюдением. На пару дней. Пока он не отладит алгоритм. Совсем немного.
Он сохранил изменения и закрыл систему. В темном окне монитора отразилось его собственное усталое лицо — темные волосы, растрепанные за день, тени под глазами.
«Освежающе, — мысленно повторил он ее слово. — Да. Именно».
За окном его офиса тоже моросил дождь. Два одиноких человека в одном городе, разделенные километрами и экранами, только что совершили свое первое, тайное пересечение. Оба еще не знали, что эта случайность уже начала менять траектории их миров, притягивая их друг к другу с силой, которую не могла описать никакая формула — кроме, возможно, той самой, что прячется в сердце сингулярности.