Глава 4 Петля «я»

Я думаю, речь идет о поисках того, что такое на самом деле персональный компьютер. Он нужен для того, чтобы зафиксировать всю жизнь человека[228].

Гордон Белл, компьютерный инженер, исследователь в Microsoft

«У тебя одна идентичность, — говорил основатель Facebook Марк Цукерберг журналисту Дэвиду Киркпатрику, автору книги The Facebook Effect[229]. — Те времена, когда у тебя один имидж для своих приятелей на работе, другой — для своих коллег, третий — для остальных своих знакомых, наверное, уже подходят к концу… Иметь две личины — значит быть недостаточно честным»[230].

Год спустя, вскоре после публикации книги, 26-летний Цукерберг выступал на сцене Музея компьютерной истории в Маунтин-Вью вместе с Киркпатриком и журналистом радио NPR Гаем Рэзом. «В книге Дэвида, — сказал Рэз, — вы говорите, что у людей должна быть только одна идентичность… Но я веду себя по-разному в семье и с коллегами»[231].

Цукерберг пожал плечами: «Ну, я просто так сказал, и все».

Рэз продолжал: «А вы сейчас та же самая личность, что и в общении с друзьями?»

«Э, да, — ответил Цукерберг. — Все тот же неуклюжий я»[232]. Если бы Марк Цукерберг был обычным молодым человеком лет двадцати с небольшим, такая путаница во взглядах была бы в порядке вещей: большинство из нас не уделяют много времени философским рассуждениям о природе идентичности. Однако этот человек контролирует самую могущественную и популярную в мире технологию управления имиджем и самовыражения. И его точка зрения по этому вопросу играет ключевую роль в стратегии, которую он придумал для своей компании и Интернета в целом.

Выступая на одном из мероприятий нью-йоркской конференции Ad Week, исполнительный директор Facebook Шерил Сэндберг сказала, что ожидает быстрых перемен в Интернете. «Люди не желают того, что адресовано всему миру, — им хочется чего-то, соответствующего тому, что они сами хотят увидеть и узнать», — заметила она и предположила, что через 3–5 лет такая ситуация станет нормой[233]. Цель Facebook — быть в центре этого процесса, единственной платформой, посредством которой все остальные сервисы и сайты воспринимают личные и социальные данные. У вас одна идентичность — это ваш профиль на Facebook; и она повсюду за вами следует и влияет на ваш опыт.

Сложно представить себе более радикальный отход от ранних принципов Интернета: в те времена во многом привлекательность Сети объяснялась именно тем, что свою личность можно было не раскрывать. В чатах и форумах ваши пол, раса, возраст и место жительства были именно такими, как вы утверждали. Пользователи ликовали, потому что новая среда позволяла скрывать что угодно. Основатель Electronic Frontier Foundation Джон Перри Барлоу мечтал о «мире, куда может войти любой, не имея никаких привилегий или предубеждений, основанных на расе, экономическом или военном могуществе, месте рождения»[234]. Любой желающий мог переступить границы и экспериментировать, примеряя на себя разные личины. Казалось, грядет революция.

Однако когда законодательство и коммерция догнали развитие технологий, простор для анонимности в онлайне стал сужаться. Анонима нельзя привлечь к ответственности за его действия; анонимные клиенты мошенничают, анонимные комментаторы начинают бессмысленные перепалки, анонимные хакеры причиняют неприятности. Чтобы установить доверие, на котором основаны нормальная жизнь сообщества и капитализм, нужно знать, с кем вы имеете дело.

Поэтому сотни компаний занимаются деанонимизацией Интернета. Фирма PeekYou, основанная создателем сайта RateMyProfessors.com[235], патентует методы, позволяющие сопоставлять интернет-псевдонимы с именами реальных людей[236]. Компания Phorm помогает провайдерам внедрить метод «углубленной проверки пакетов», чтобы изучать трафик на их серверах. Она пытается собрать всеобъемлющие досье на каждого пользователя, чтобы затем использовать их в рекламе и персонализированных услугах. А если провайдеры вдруг начнут осторожничать, то, например, компания BlueCava может занести в базу данных все компьютеры, смартфоны и прочие устройства с интернет-доступом по всему миру; по ним можно будет обнаруживать их пользователей[237]. Иными словами, даже если вы установили самые жесткие настройки конфиденциальности вашего браузера, ваш гаджет вскоре сможет сдать вас с потрохами.

Эти технологические достижения позволяют обеспечить более устойчивую персонализацию, чем все, что мы видели до сих пор. И мы все чаще будем передавать компаниям, оказавшимся в центре этого процесса, право создавать описание наших реальных «я». Когда вы знакомитесь с человеком в баре или в парке, то рисуете для себя некий образ исходя из его поведения и действий. Facebook и другие игроки рынка идентичности намерены стать онлайновыми посредниками в этом процессе. Но если они будут действовать некорректно, результат получится размытым и искаженным. Необходимое условие грамотной персонализации — понимание того, что составляет личность человека.

Взаимодействие идентичности и персонализации имеет еще один напряженный аспект. Большинство персонализированных фильтров используют трехэтапную модель. Сперва надо выяснить, кто эти люди и что им нравится. Затем — обеспечить их контентом и услугами, которые лучше всего им подходят. Наконец, требуется тонкая подстройка. Ваша идентичность задает ваше медиапотребление. И в этой логике лишь один изъян: медиа тоже влияют на личность. В итоге можно добиться прекрасного соответствия между вами и вашими медиа, изменив… вас самих. Самосбывшееся пророчество — это ложное представление о мире, которое становится верным благодаря чьим-то действиям. Сегодня мы оказались в начале эпохи «самосбывающихся» идентичностей: искаженная интернет-картина, изображающая нас, становится нами.

Персонализированная фильтрация может даже повлиять на возможность выбирать собственную судьбу. Теоретик информационного права Йохай Бенклер в своей влиятельной работе Siren Songs and Amish Children («Песни сирен и дети-амиши») описывает, как информационное разнообразие раскрепощает[238]. Автономия, по меткому выражению Бенклера, — хитрая концепция: чтобы быть свободным, нужно не только делать то, что хочешь, но и знать, что можно делать. Дети-амиши — это истцы в знаменитом судебном процессе «Штат Висконсин против Йодеров». Родители пытались запретить им посещать государственные школы, чтобы они не соприкасались с современной жизнью. Бенклер доказывает, что это реальная угроза свободе детей: незнание о том, что можно стать астронавтом, — это, по сути, такой же запрет, как недозволение воспользоваться известной возможностью.

Естественно, слишком много вариантов — тоже проблема: в этом изобилии можно запросто утонуть, а необходимость выбирать парализует деятельность. Но суть все та же: стена фильтров не просто закрепляет вашу идентичность. Она также выделяет те варианты, которые дает вам на выбор. Студентам университетов «Лиги плюща» попадаются объявления о таких вакансиях, о каких учащиеся обычных государственных колледжей даже не слышали. Личные новостные ленты профессиональных ученых могут содержать конкурсные заметки, которые никогда не встретятся исследователям-любителям. Выделяя одни варианты и блокируя другие, стена фильтров вмешивается в ваши решения. И затем формирует будущих вас.

Плохая теория

Пока еще не совсем ясно, как персонализация формирует вашу идентичность, — тем более многие из нас по-прежнему чаще потребляют традиционные вещательные медиа, чем персонализированный контент. Однако если изучить восприятие личности механизмами фильтрации, можно будет предсказать их влияние на нас. Для персонализации требуется теория о том, из чего состоит личность, какие данные лучше отражают сущность конкретного человека. И у каждой крупной интернет-компании свой подход к этой проблеме.

Например, системы фильтрации Google при определении ваших предпочтений во многом полагаются на веб-историю и клик-сигналы. Считается, что о ваших кликах посторонним ничего не известно и, когда вы вводите «кишечный газ» или ищете сайты со слухами о знаменитостях, это остается между вами и вашим браузером. Если вы узнаете, что ваши запросы видны другим людям, то, возможно, будете вести себя иначе. Однако именно это определяет, какой контент вы увидите в Google News и какую рекламу покажет вам Google — иными словами, теорию Google насчет вас.

В Facebook иная основа персонализации. Он, несомненно, отслеживает клики, однако основной инструмент понимания вашей личности — это изучение всего, чем вы делитесь с другими, и списка тех, с кем вы взаимодействуете. Это совсем другой коленкор: мы частенько переходим на пустые, похабные и непристойные сайты, однако стараемся не сообщать о них всем своим друзьям. Верно и обратное. Признаюсь, я порой делюсь статьями, которых вовсе не читал: длинное журналистское расследование восстановления Гаити, смелый политический заголовок, — потому что мне нравится представать перед окружающими в лучшем свете. Иначе говоря, Google-я и Facebook-я — это совсем разные люди. Есть огромная разница мелсду принципами «вы — то, на что вы кликаете» и «вы — то, чем вы делитесь».

У обоих подходов есть свои преимущества и недостатки. В версии Google подросток-гей, который скрывает свою ориентацию от родителей, все равно будет получать персонализированный поток новостей, в том числе сообщения о жизни гей-сообщества, показывающие, что он не одинок. Но в то же время «я», основанное на кликах, будет сильнее притягивать нас к тому, что нас и так привлекает. Это личность, подобная собаке Павлова. Где-то есть информация о том, что вы внимательно прочли статью на TMZ.com[239], и в следующий раз при просмотре новостей на экране с большей вероятностью выскочит мелодраматическая история о браке Брэда Питта. (Если бы Google не боролся с порнографическим контентом, проблема, вероятно, была бы куда острее.)

«Я» в Facebook, основанное на контенте, которым вы поделились, отражает скорее ваши побуждения и намерения. Facebook в большей степени принимает на веру ваши слова, представляя вас таким, каким вам хотелось бы выглядеть в глазах других людей. Ваше «я» здесь — это скорее представление, а не бихевиористский «черный ящик», и оно может быть гораздо более ориентированным на социум, чем набор сигналов, отслеживаемых Google. Но у подхода Facebook есть и свои отрицательные стороны: поскольку он работает с публичной частью «я», он неизбежно уделяет меньше внимания частным интересам. Если взять того же подростка, скрывающего свою ориентацию, то его информационное окружение на Facebook может сильно отличаться от реальной личности. Портрет на Facebook остается недописанным.

Но оба подхода — довольно слабые интерпретации нашей сущности. Отчасти дело в том, что не существует набора данных, который точно описывает, кто мы такие. «Информация о нашей недвижимости, профессии, покупках, финансах и истории болезни не рассказывает всего, — пишет эксперт по приватности Дэниел Солов. — Мы нечто большее, чем информация, которую мы сообщаем»[240].

Рисующие на компьютере мультипликаторы и инженеры-роботехники часто сталкиваются с проблемой, известной как «зловещая долина». Это нечто очень похожее на живые объекты, но не выглядящее по-настоящему живым и потому пугающее. Отчасти поэтому цифровые изображения реальных людей еще не появились на большом экране: когда изображение очень сильно — но не полностью — похоже на настоящего человека, это тревожит на фундаментальном психологическом уровне. И вот мы очутились в «зловещей долине» персонализации. Наши двойники, отраженные в наших медиа, очень похожи на нас, но не соответствуют нам в точности. И в этом разрыве между данными и реальностью может потеряться что-то очень важное.

Утверждение Цукерберга, что у каждого лишь «одна идентичность», совершенно неверно. Психологи называют это заблуждение фундаментальной ошибкой атрибуции. Мы склонны объяснять поведение людей их врожденными чертами, а не ситуациями, в которые они попадают. Даже когда контекст очевидно играет большую роль, нам трудно отделить конкретные поступки человека от его личности[241].

Наши черты поразительно изменчивы. Человек, агрессивный на работе, дома может быть «тряпкой». Краснобай в минуты счастья может оказаться интровертом в моменты стресса. Даже наши самые глубинные черты — например, нежелание причинять другим боль — могут меняться в зависимости от контекста. Это продемонстрировал психолог Стэнли Милгрэм в своем легендарном эксперименте в Йельском университете в 60-х годах прошлого века, когда убедил добропорядочных граждан бить других испытуемых током по кивку человека в лабораторном халате[242].

Мы ведем себя так не случайно: черты личности, приемлемые на семейном ужине, могут помешать во время спора с другим пассажиром в метро или при подготовке важного рабочего отчета. Пластичность нашего «я» позволяет нам с честью выходить из ситуаций, которые были бы невыносимы, если бы мы всегда вели себя одинаково[243]. Рекламодатели давно это поняли. Телепрограммы четко делятся в зависимости от времени суток — это объясняет, почему вас не преследует реклама пива, когда вы едете утром на работу. В 8 утра у людей одни потребности и стремления, а в 8 вечера — другие. По той же причине на рекламных щитах в районе с оживленной ночной жизнью вы увидите одни товары, а в спальных районах, куда возвращаются после веселой вечеринки, — другие.

Цукерберг на своей странице в Facebook указывает «прозрачность» в числе своих главных предпочтений. Но у полной прозрачности есть обратная сторона: один из важнейших аспектов приватности состоит в управлении и сохранении разграничений между разными вариантами нашей личности. При наличии лишь одной идентичности теряются нюансы, без которых не получится качественная персонализированная подгонка.

Персонализация не улавливает баланс между профессиональным «я» и «я» в моменты досуга, и ее механизмы также могут устроить путаницу между вашими устремлениями и вашим текущим «я». Ведь наше поведение — это поиск компромисса между будущим и настоящим. В будущем мы желаем стать стройными, но сейчас нам хочется конфету. Мы хотим быть эрудированными, хорошо информированными интеллектуалами, но прямо сейчас нам хочется посмотреть реалити-шоу «Пляж»[244]. Специалисты по поведенческой экономике называют это предвзятостью настоящего — это разрыв между вашими предпочтениями по поводу будущего и текущего момента.

Этот феномен объясняет, почему в списке отложенных фильмов в сервисе видеопроката Netflix у многих пользователей так много наименований. Когда исследователи из Гарварда и Analyst Institute изучили, какими соображениями руководствуются люди при выборе кинофильмов в прокате, они смогли оценить, как будущие устремления людей противопоставляются их текущим желаниям[245]. В список часто добавлялись фильмы, которые «нужно» посмотреть, такие как «Неудобная правда»[246] или «Список Шиндлера», — но там же они и оставались, а меж тем зрители хватали фильмы, которые им «хочется» посмотреть, — скажем, «Неспящие в Сиэтле»[247]. А когда им надо было выбрать три фильма для просмотра сразу, они менее охотно выбирали ленты из категории «нужно». Похоже, есть фильмы, которые мы всегда с радостью отложим на завтра.

Лучшие СМИ помогают нейтрализовать эту особенность нашего мышления, смешивая истории из разрядов «нужно» и «хочется», побуждая нас копнуть глубже и заняться трудным, но стоящим делом, вникнуть в сложные проблемы. Но стена фильтров дает противоположный результат: поскольку переходит по ссылкам ваше нынешнее «я», фильтры неизбежно ориентируется на «хочется», а не на «нужно».

Проблема «одной идентичности» — это не столько фундаментальный изъян, сколько техническое упущение. Цукерберг думает, что она у вас одна, а на самом деле их несколько, поэтому персонализация вашей информационной среды в Facebook будет менее эффективной. Джон Баттелл сказал мне: «Мы еще слишком далеки от понимания нюансов нашей человеческой сущности, чтобы это отражалось в нюансах наших технологий»[248]. При наличии достаточного объема данных и достаточного числа программистов проблема контекста решаема — и, согласно утверждению специалиста по персонализации Джонатана Макфи, Google работает над ней[249]. Мы видели, как маятник качнулся от анонимности раннего Интернета к модной ныне концепции одной идентичности; возможно, в будущем удастся найти «золотую середину».

Однако упомянутая проблема иллюстрирует одну из опасностей ситуации, когда вы передаете свою самую личную информацию компаниям, имеющим искаженное представление об идентичности. Сохранение зон с разной идентичностью — это ритуал, помогающий нам справляться с требованиями разных социальных ролей и сообществ. А за стеной фильтров все выглядит примерно одинаковым, и что-то теряется. Ведь ваша разгульная сторона порой проявляет себя на работе, а беспокойство по рабочим вопросам может преследовать даже вечером, на отдыхе.

И когда все наши действия попадают в вездесущую онлайновую базу, возникает еще одна проблема: знание о том, что мы делаем, влияет на то, что мы видим. И от того, какими компании видят нас, порой мороз по коже идет. Специалист по конфиденциальности генной информации Марк Ротстейн описывает, как нечеткость правил игры в этой сфере может даже привести к сокращению числа людей, желающих проверить свою склонность к определенным болезням: если вам могут выставить более высокий счет за страховку или вовсе отказать в ней из-за гена, связанного с болезнью Паркинсона, то вполне разумно не проходить этот тест и избежать «опасных знаний»[250].

В то же время, когда наши действия в онлайне помечаются и добавляются в досье, которое компании используют для принятия решений, мы можем решить, что стоит быть осторожнее. Если бы мы знали (или хотя бы подозревали), что покупателям книги «Все о том, как исправить свою кредитную историю» предлагают менее престижные кредитные карты, то не стали бы приобретать ее. «Если бы мы считали, что любое наше слово и действие становятся публичными, — пишет профессор права Чарльз Фрид, — то страх неодобрения или ощутимого возмездия мог бы удержать нас от слов и действий, которые мы бы произнесли или совершили, будучи уверенными, что знаем о них только мы». Как отмечает эксперт по Google Шива Вайдхьянатан, «загадочный Джей Гэтсби[251] Скотта Фитцджеральда не смог бы существовать в наши дни. Цифровой призрак Джея Гетца преследовал бы его повсюду»[252].

Проблему одной идентичности и игнорирования контекста решить невозможно даже в теории. Компании, занимающиеся персонализацией, несомненно, научатся лучше чувствовать контекст. Не исключено, что они смогут находить более точный баланс между долгосрочными и краткосрочными интересами. Но когда это произойдет, когда они смогут тщательно измерить работу вашей психики, все только усложнится.

Удар по нашим слабостям

Сегодня в основе стены фильтров по-прежнему лежит довольно примитивная логика: люди, купившие DVD «Железный человек», наверное, купят и «Железный человек — 2»; те, кому нравятся поваренные книги, наверное, будут заинтересованы в кухонной технике. Однако Дин Эклз, аспирант из Стэнфорда и консультант Facebook, считает эти простые рекомендации лишь началом. Его интересуют средства, а не цели: ему куда интереснее, что побуждает вас выбрать тот или иной товар, чем то, какие продукты вам на самом деле нравятся.

Эклз заметил, что при покупке товаров — допустим, цифровых камер — разные люди реагируют на разные рекламные трюки. Некоторым проще покупать только те камеры, которые похвалил эксперт или отраслевой журнал. Другие ориентируются на популярность, скидки или же знакомый и пользующийся доверием бренд. Некоторые предпочитают, по словам Эклза, «высокоинтеллектуальные» аргументы: умные, тонкие замечания, которые с ходу не поймешь[253]. А кто-то лучше реагирует, когда его огреют по голове самым простым сообщением.

У большинства из нас есть любимые стили аргументации, но есть и такие, которые отталкивают нас. Некоторые люди бросаются на скидки как ошалелые; другие считают, что скидка говорит о более низком качестве товара. Эклз обнаружил, что, всего лишь устранив приемы убеждения, раздражающие людей, можно повысить эффективность маркетинговых акций на 30–40 процентов[254].

При покупке товаров трудно «перепрыгивать из категории в категорию»: ваши предпочтения в одежде слабо связаны с литературными вкусами, — однако такая «настройка убеждения» подсказывает, что сами типы аргументов, к которым вы восприимчивы, легко перенести из одной области в другую. Человек, реагирующий на рекламу турпоездки на Бермуды со словами «закажите прямо сейчас и получите скидку 20 процентов», куда более вероятно отреагирует на аналогичную скидку, допустим, на ноутбук.

Если Эклз прав — а пока исследования, похоже, подтверждают его теорию, — то информация о том, как вас легче склонить к покупке, будет иметь ощутимую ценность. Одно дело — понимать, как продать вам товары определенной группы, и другое — повысить вероятность «попадания» в абсолютно любой сфере. И как только компания вроде Amazon составит на вас такое досье, постепенно предлагая вам разные типы скидок и изучая, на какие из них вы отреагировали, она может продать эту информацию другим компаниям. (Это настолько новая область знаний, что неясно, есть ли корреляция между оптимальными стилями убеждения и демографическими характеристиками аудитории, но очевидно, что какую-то связь найти можно.)

Эклз уверен, что от составления таких пользовательских досье может быть масса пользы. Он приводит в пример DirectLife — переносное устройство, разработанное Philips, которое определяет, какие аргументы склоняют человека к более здоровому питанию, и с их помощью убеждает регулярнее заниматься спортом. Однако другие возможности Эклза тревожат. Знание о том, на какие стимулы реагируют конкретные люди, дает власть над ними и способность манипулировать каждым.

Благодаря новым методам «анализа чувств» теперь можно угадывать, в каком состоянии духа находится человек. В приподнятом настроении люди пользуются значительно более позитивно окрашенными словами. Так что, проанализировав достаточное количество ваших SMS, сообщений в Facebook и электронных писем, можно будет определять, когда у вас хороший день, а когда плохой; отделять сообщения, написанные трезвой рукой, от тех, что написаны спьяну (хотя бы по количеству опечаток). Если все получится, то можно выдавать вам контент под ваше настроение: в какой-нибудь ужасный день в ближайшем будущем Pandora может сообразить, что к моменту вашего входа на сайт нужно подгрузить Pretty Hate Machine[255]. Но эти же технологии позволят эксплуатировать особенности вашей психологии.

Предположим, компания знает: конкретные клиенты испытывают непреодолимое желание купить что-то, когда испытывают стресс, приступ самоуничижения или находя тся в легком подпитии. Если персональное устройство способно в нужный момент выкрикивать «Ты можешь!» людям, нуждающимся в поддержке, то эта технология даст политикам возможность обращаться к каждому избирателю лично с учетом его страхов и слабостей.

Рекламно-информационные передами показывают посреди ночи не только потому, что эфирное время стоит дешево. И ночные часы большинство людей особенно легко поддаются убеждению. Они могут загореться желанием купить куборезку, которую ни за что по взяли бы днем. Впрочем, правило «трех часов утра» довольно грубое: вероятно, в нашей повседневной жизни есть моменты, когда мы особенно склонны купить то, что нам подсовывают. Маркетологи могут воспользоваться теми же данными, на основе которых мы получаем персонализированный контент, чтобы найти наши слабости и манипулировать ими. И это уже не фантазии: исследова тель приватности Пэм Диксон выяснила, что компания РК List Management выставила на продажу список клиентов под названием «Для меня — бесплатно. Покупатели с непреодолимыми желаниями». Попавшие туда охарактеризованы как люди, чрезвычайно легко поддающиеся рекламе, если акция подается как лотерея[256].

Поскольку персонализированное убеждение работает при продаже товаров, оно может сослужить службу и при продвижении идей. Несомненно, место, время и стиль аргументации могут сделать нас более восприимчивыми к чьим-то словам. Передача подсознательных сообщений запрещена, мы понимаем, что некоторые виды убеждения по сути жульничество. Нечестно атаковать людей особыми словами и высказываниями, ориентированными на подсознание. Но ведь легко представить себе, как политическая кампания нацеливается на избирателей именно в те моменты, когда легко преодолеть наши более разумные устремления.

Мы интуитивно понимаем, какую власть дает раскрытие нашей глубинной мотивации, желаний и сущности, — вот почему многие в повседневной жизни откровенничают лишь с людьми, которым понастоящему доверяют. И здесь есть симметрия: вы знаете ваших друзей примерно так же хорошо, как и они вас. А вот сбор данных о том, как вас легче всего убедить, подчас происходит невидимо и асимметрично: вы можете и не знать об этом. В отличие от некоторых форм профилирования[257], проводимых открыто для пользователя (как в Netflix), такое профилирование на поверку выглядит ущербно. Автоматизированный тренер воспринимается совсем иначе, если он говорит: «У тебя прекрасно получается! Я говорю тебе это, потому что ты хорошо реагируешь на поощрение!»

Вы не обязательно заметите, что на вас составляют досье. Вы не увидите, как с его помощью будут управлять вашим поведением. И компании, которым мы передаем эти данные, не связаны юридическими обязательствами держать их при себе. Если досье попадется каким-нибудь нечистым на руку компаниям, они смогут обходить ваш рациональный механизм принятия решений, давая дорогу вашим непреодолимым влечениям. Понимание чьей-то идентичности вооружает вас инструментами влияния на этого человека.

Темная и узкая тропа

В скором времени Google, по словам вице-президента компании Мариссы Майер, надеется упразднить поле для ввода поисковых запросов. «Следующий шаг — автоматизация, — говорил Эрик Шмидт в 2010 году. — Я хочу, чтобы, когда я шел по улице, мой смартфон вел поиск постоянно—"а знаете?", "а знаете?", "а знаете?"»[258] Иными словами, ваш телефон должен соображать, что бы вам хотелось поискать, раньше вас.

В приближающейся эпохе поиска без поиска идентичность будет управлять медиа. Но создатели персональных фильтров еще не в полной мере поняли: медиа тоже формируют идентичность. Политолог Шанто Айенгар называет в числе главных факторов предвзятость в связи с доступностью, и в статье 1982 года «Экспериментальная демонстрация "не столь уж минимальных" последствий телевизионных новостей» он показал, насколько сильной она может быть[259]. И течение шести дней Айенгар предъявлял нескольким жителям Нью-Хейвена телевизионные новости. Сюжеты были специально обработаны, чтобы каждой группе доставались свои фрагменты.

После этого ученый попросил участников эксперимента отметить, насколько для них важны такие темы, как загрязнение окружающей среды, инфляция и вопросы обороны. Изменения по сравнению с анкетами, заполненными до эксперимента, были разительны: «Участники, которые наблюдали стабильный поток новостей об обороне или загрязнении, пришли к выводу, что эти проблемы более существенные»[260]. В группе, которой показывали отрывки о загрязнении окружающей среды, соответствующая тема поднялась в списке приоритетов с шестого места на второе.

Дрю Уэстен, специалист по нейропсихологии, занимающийся темой политического убеждения, продемонстрировал силу этого эффекта, попросив группу людей запомнить список слов, в том числе «луна» и «океан»[261]. Через несколько минут он сменил тему и спросил, какое моющее средство предпочитают участники. Большинство выбрали Tide[262], хотя это слово в списках не фигурировало.

Выдвижение тех или иных новостей на первый план — не единственный способ влияния медиа на нашу идентичность. Мы также более склонны верить тому, что слышали прежде. В исследовании Хашера и Голдстейна от 1977 года участников попросили прочесть 60 утверждений и сказать, истинны они или ложны[263]. Все эти высказывания были правдоподобны, но некоторые истинны («Французские горнисты получают бонусы живыми деньгами, если остаются на военной службе»), а другие — нет («Развод существует лишь в технически продвинутых обществах»). Через две недели эти же испытуемые должны были оценить второй набор высказываний, в котором повторялись некоторые предложения из первого. В третий раз, еще через две недели, участники эксперимента гораздо чаще верили тем высказываниям, которые уже слышали. Информация как пища: мы — то, что мы потребляем.

Все это базовые психологические механизмы. Но если совместить их с персонализацией медиа, неприятности неизбежны. Ваша идентичность формирует ваше медиапотребление, но затем медиа формируют ваши убеждения и области интереса. Вы переходите по ссылке, и это сигнализирует об интересе к чему-то; значит, вы с большей вероятностью будете в дальнейшем видеть статьи именно на эту тему, что, в свою очередь, повысит значимость темы для пас. Вы оказываетесь в ловушке, в «я»-петле, и если система вдруг восприняла вас неверно, то это приведет к появлению весьма причудливых схем, подобно реверберации в усилителе звука.

Если вы пользуетесь Facebook, то, наверное, уже сталкивались с этой проблемой. Вы ищете свою старую подружку из колледжа, Салли. Это лишь мимолетное любопытство: а что же с ней стало после всех этих лет? Facebook воспринимает это так: вы интересуе тесь Салли. И вдруг ни с того ни с сего ее жизнь заполняет вашу ленту новостей. Вам все еще чуть-чуть любопытно, вы кликаете на новые фото ее детей, мужа и домашних питомцев, которые она вывесила, и тем самым подтверждаете догадку Facebook. С точки зрения программы, у вас с этим человеком есть какие-то отношения, даже если вы много лет не общались. И еще несколько месяцев жизнь Салли будет представлена в вашей ленте лучше, чем вам нужно. Есть люди, чьи сообщения вы прочли бы с гораздо большим интересом, но вам попадаются именно ее публикации.

Отчасти этот эффект обратной связи объясняется, по словам венчурного капиталиста Мэтта Колера, проблемой «локального максимума». Колер был одним из первых сотрудников Facebook и повсеместно считается одним из самых умных экспертов по социальным сетям в Кремниевой долине.

Проблема локального максимума, как он мне объяснил, возникает всякий раз, когда вы пытаетесь что-то оптимизировать. Допустим, вы хотите написать простые инструкции, чтобы помочь слепому, потерявшемуся в горах Сьерра-Невада, найти путь к пику этого хребта. «Потыкайте вокруг себя и проверьте, не имеет ли окружающая поверхность уклона, — говорите вы. — Если нет, то двигайтесь в направлении, где ощущается подъем, и так далее»[264].

Программисты сталкиваются с такими проблемами постоянно. Какая ссылка даст лучший ответ на запрос «рыба»? Какое фото Facebook должен показать вам, чтобы повысить вероятность, что вы приметесь листать фотографию за фотографией? Общее направление кажется довольно очевидным: нужно настраивать и корректировать выдачу в том или ином направлении, пока не попадете в точку. Но с инструкциями по ориентированию в холмах есть проблема: они в равной мере могут отправить вас и на вершину горы Уитни[265], и в ее предгорья — локальный максимум.

Кажется, ничего страшного? Однако за стеной фильтров то же может произойти с любым человеком и любой темой. Мне сложно не кликнуть на статью о новых гаджетах, хотя я на самом деле не считаю эту тему особенно важной. Персонализированные фильтры играют на наших самых непреодолимых влечениях, создавая «импульсные медиа», чтобы заставить вас переходить по ссылкам чаще. Технология обычно не способна отличить такое влечение от общего интереса, и если вы приносите сайту показы страниц, которые можно продавать рекламодателям, то все остальное и не важно.

Чем быстрее система учится на ваших кликах, тем вероятнее, что вы попадете в некий каскадный процесс: мелкое стартовое действие — клик на статью о садоводстве, анархии или Оззи Осборне показывает, что вам это нравится. Это, в свою очередь, приносит вам еще больше информации на данную тему, и вы еще более склонны кликать по новым ссылкам: тема уже подготовлена для вас.

Начиная со второго клика в игру вступает и ваш мозг. Он стремится уменьшить когнитивный диссонанс с помощью странной, неотразимой, хотя и нелогичной логики: «Зачем бы мне делать X, если я не человек, делающий X, — следовательно, в, должно быть, человек, делающий X». Каждый новый клик в этой петле еще одно самооправдание: «Черт, кажется, мне очень нравится Crazy Train[266]». Когда происходит такой рекурсивный процесс, подпитывающий сам себя, вы, по словам Колера, «оказываетесь на темной и узкой тропе». Мелодия тонет в реверберации. Если случайность н неожиданные озарения не разорвут петлю, вы застрянете и предгорьях вашей идентичности, вдалеке от реального пика.

И это еще относительно доброкачественная петля. Может быть и иначе.

Мы знаем, что происходит, когда учителя считают учеников тупыми: те становятся еще тупее. И одном эксперименте, который провели еще до учреждения комиссий по этике, учителям дали результаты теста, которые, как утверждалось, показывали IQ и степень одаренности учеников, поступающих в их класс. Однако им не сказали, что результаты были перераспределены случайным образом. Спустя год ученики, которых представили как смышленых, заметно увеличили свой IQ. Те же, чей уровень, согласно тестам, был ниже среднего, такого не добились[267].

Так что же происходит, когда Интернет считает вас тупицей? Персонализация, основанная на предполагаемом IQ, — не столь уж фантастический сценарий. В Google Docs, например, есть полезный инструмент для автоматической оценки уровня сложности написанного текста[268]. Даже если ваш уровень образования еще не попал в базу данных Acxiom, его легко может вычислить любой располагающий несколькими вашими электронными письмами и сообщениями в Facebook. Пользователям, чьи тексты говорят о наличии университетского диплома, могут чаще показывать статьи из New Yorker, а тем, кто пишет более простым языком, — из New York Post.

В мире вещательных СМИ предполагается, что все представители аудитории способны читать и обрабатывать информацию примерно на одном уровне. За стеной фильтров для этого нет никаких оснований. И это, с одной стороны, здорово: масса людей, отказавшихся от чтения, потому что газеты стали слишком заумными, могут снова начать потреблять письменный контент. Но если никто не потребует повышения качества, то эти люди надолго застрянут в третьем классе.

Поступки и приключения

Иногда передача алгоритмам права решать, что мы увидим и какие возможности нам предложат, приносит более честные результаты. Компьютер может игнорировать расу и пол, на что люди обычно не способны. Но это лишь в случае, если соответствующие алгоритмы добросовестны и проницательны. Иначе они будут просто отражать социальные нормы той культуры, которую обрабатывают.

В ряде случаев алгоритмическая обработка персональных данных может привести даже к большей дискриминации, чем если бы этим занимались люди. Например, программа, помогающая компаниям процеживать массу резюме в поисках подходящих соискателей, может «учиться», принимая во внимание, сколько рекомендованных ею кандидатов были наняты. Если работодатель выбирает девять белых подряд, то программа может сделать вывод, что компания не заинтересована в черных, и исключит их из дальнейшего поиска. «Во многих отношениях, — пишет социолог Дэлтон Конли из Нью-Йоркского университета, — такая сетевая категоризация более коварна, чем банальная сортировка по расе, классу, полу, религии или любому другому параметру»[269]. Среди программистов такая ошибка получила название «чрезмерно близкой подгонки».

Онлайн-сервис видеопроката Netflix работает на основе Алгоритма CineMatch. Сначала все было довольно-таки просто. Если он взял на прокат первый фильм трилогии «Властелин колец», то Netflix мог изучить, какие фильмы брали другие люди, посмотревшие его. Если многие из них просили «Звездные войны», то велика вероятность, что и я захотел бы их посмотреть.

Этот метод анализа называется k-NN (метод «к-ближайших соседей»[270]), и с его помощью CineMatch научился довольно ловко угадывать, что люди хотели бы посмотреть, исходя из тех фильмом, что они уже брали, и оценок, которые им поставили. К 2006 году CineMatch мог с точностью до балла предсказывать оценку, которую пользователь выставит любому из многих сотен тысяч фильмов в коллекции Netflix. Он дает более точные рекомендации, чем большинство людей. Человек-продавец ни за что не порекомендовал бы фильм «Молчание ягнят» поклонникам «Волшебника страны Оз», однако CineMatch знает: людям, которым по душе один из этих фильмов, зачастую нравится и другой. Но главу Netflix Рида Хастингса это не устроило. «Сейчас мы вывели модель Т[271], а возможно гораздо большее», — сказал он журналисту в 2006 году[272]. 2 октября 2006 года на сайте Netflix появилось объявление: «Мы заинтересованы. Цена вопроса — 1 миллион долларов». Netflix опубликовал колоссальные массивы данных — рецензии, записи о прокате фильмов и другую информацию из своей базы, очищенную от всего, что могло бы указать на конкретного пользователя. И компания была готова заплатить миллион долларов человеку или команде, которые смогут опередить CineMatch по точности предсказаний хотя бы на 10 процентов. Конкурс Netflix Challenge был открыт для всех. «Все, что вам нужно, — это компьютер и классные идеи», — заявил Хастингс в интервью New York Times[273].

За девять месяцев в конкурсе поучаствовали около 1800 команд из более чем 150 стран. Они опирались на идеи машинного обучения, коллаборативной фильтрации, нейронных сетей и интеллектуального анализа данных. Обычно конкурсанты, соревнующиеся за такой крупный приз, действуют в тайне от других. Но Netflix призывала конкурирующие группы общаться друг с другом и открыла интернет-форум, где они могли совместно работать над общими затруднениями. Если почитать этот форум, можно практически пощупать те проблемы, которые терзали конкурсантов во время трехлетней погони за более совершенным алгоритмом. Проблема чрезмерно близкой подгонки возникала снова и снова.

При создании алгоритмов анализа данных возникают две большие сложности. Первая — найти все структуры и вычленить их из шума. Вторая — противоположность первой: не выводить структур, которых на самом деле не существует. Формула, описывающая последовательность «1,2,3», может звучать как «предыдущее число плюс один» или же как «положительные простые числа от меньшего к большему». Вы не сможете выбрать верную, пока не получите больше данных. А если вы слишком поспешно делаете выводы, то занимаетесь чрезмерно близкой подгонкой.

В прокате фильмов риски невелики: в прошлом, например, многие зрители были убеждены, что если им понравились фильмы «Крестный отец» и «Крестный отец — 2», то понравится и «Крестный отец — 3». Но проблема чрезмерной подгонки — это, по сути, одна из центральных, неустранимых проблем стены фильтров. В сущности, это создание стереотипов.

Под «стереотипами» (этот термин употреблял еще Уолтер Липпман) часто понимаются злонамеренные, ксенофобские представления, не соответствующие действительности. Классический пример — «люди с таким-то цветом кожи глупее других». Однако даже если стереотипы и их негативные последствия в целом довольно точно описывают реальность, они все равно несправедливы по отношению к конкретным людям.

Маркетологи уже давно изучают «серую зону» между областью возможных прогнозов и теми прогнозами, которые оказались справедливы. По словам Чарли Страйкера, бывалого игрока отрасли поведенческого таргетирования, выступавшего на саммите «Социальный граф», армия США добилась поразительных успехов, используя данные социальных графов для рекрутирования новых солдат[274]. Ведь если шестеро ваших друзей по Facebook записались в армию, вероятно, и вы рассмотрите такую возможность. Выводить определенные заключения о вас на основании того, каким людям нравитесь вы или какие люди дали на вас ссылку, — это весьма неплохой бизнес. И метод этот работает не только в армии. Банки начинают использовать социальные данные, чтобы определить, кому можно давать кредит: если ваши друзья не платят вовремя, есть шанс, что и вы окажетесь таким же никчемным клиентом. «Решение будет приниматься исходя из кредитоспособности ваших друзей», — говорит Страйкер. «У этой технологии есть очень мощные варианты применения, — сказал еще один предприниматель, занимающийся социальным таргетированием, в интервью Wall Street Journal. — Кто знает, как далеко мы зайдем?»[275]

Это вызывает тревогу еще и потому, что от компаний не требуют объяснять, на основе чего они принимают решения. В результате суждение о вас вам неизвестно, и вы не сможете его оспорить. К примеру, Linkedln, социальная сеть по поиску работы, предлагает спрогнозировать вашу дальнейшую карьеру: сравнив ваше резюме с резюме других людей из вашей области, продвинувшихся дальше, она может предсказать, где вы окажетесь через пять лет. Программисты компании надеются, что вскоре она сможет подсказывать решения, которые принесут вам больше пользы: «IT-профессионалы среднего уровня вроде вас, окончившие бизнес-школу Wharton, зарабатывают на 25 тысяч долларов в год больше, чем те, кто в ней не учился». Это весьма полезный сервис. Но представьте, что будет, если Linkedin передаст эти данные корпоративным клиентам, чтобы помочь им отсеять людей, которые по прогнозу оказываются неудачниками. Это может произойти в тайне от вас, вы не сможете поспорить, доказать, что прогноз ошибочен. Здесь не действует презумпция невиновности.

Вам кажется несправедливым, что банки дискриминируют клиентов лишь потому, что их школьные приятели не спешат оплачивать свои счета, или потому, что ваши вкусы совпадают со вкусами многих злостных неплательщиков? Действительно, так и есть. И это подводит к более общей проблеме индукции — логического метода, на основе которого алгоритмы выводят прогнозы из данных. Философы бились над этой проблемой задолго до появления компьютеров. Вы можете подтвердить истинность математического доказательства, выводя его из аксиом, однако философ Давид Юм в 1722 году заметил, что на деле все иначе[276]. Как следует из одного инвестиционного клише, предыдущие показатели не гарантируют достижения таких же результатов в будущем.

Возникает ряд серьезных вопросов по поводу науки, ведь она, по сути, представляет собой метод использования данных для прогнозирования будущего. Карл Поппер, выдающийся философ науки, всю жизнь пытался разобраться в проблеме индукции. Мыслители-оптимисты конца XIX века, изучая историю науки, видели и пей движение к истине. Поппер же решил сосредоточиться на тех обломках, что бросают вдоль этой дороги: на изобилии неверных теорий и идей, полностью соответствующих научным канонам и при этом ужасающе ошибочных. В конце концов, птолемеева концепция мира, где в центре — Земля, а Солнце и другие планеты вращаются вокруг нее, выдержала огромное количество математических проверок и научных экспериментов.

Поппер поставил проблему несколько иначе: если вы видели только белых лебедей, это еще не значит, что все лебеди — белые. Искать нужно черного лебедя — контрпример, подтверждающий, что теория ошибочна. «Фальсифицируемость», доказывал Поппер, — это ключ к поиску истины. Целью науки, с его точки зрения, было нахождение максимально убедительных аргументов, против которых никто не сможет найти контрпример — черного лебедя[277]. В основе взглядов Поппера лежало глубокое смирение в отношении выводимых научным методом знаний — ощущение, что мы ошибаемся столь же часто, как оказываемся правы, и обычно не знаем, правы мы или нет.

Именно этого лишены многие алгоритмические методы прогнозирования. Конечно, время от времени они сталкиваются с людьми и поступками, которые не вписываются в их шаблон, но такие отклонения не подрывают их фундаментальных основ. Ведь рекламодатели, от чьих денег зависит развитие подобных систем, не нуждаются в идеальных моделях. Им важно «попасть» в целевую аудиторию, а не прочувствовать всю сложность человеческого существа.

Когда вы моделируете погоду и предсказываете, что вероятность дождя составляет 70 процентов, этот прогноз никак не затрагивает состояние грозовых туч. Дождь пойдет или не пойдет, и все. Но когда вы предсказываете, что если мои друзья неплатежеспособны, то вероятность моей неплатежеспособности составляет 70 процентов, ситуация иная: ошибка повлечет за собой последствия. Это будет дискриминация.

Лучший способ избежать чрезмерной подгонки, по мнению Поппера, — это доказать ложность модели и выстроить новые алгоритмы, учитывающие презумпцию невиновности. Если Netflix показывает мне романтическую комедию и она мне нравится, он покажет мне еще одну и решит, будто я поклонник романтических комедий. Но если он хочет получить достоверную картину моей личности, ему следует постоянно проверять эту гипотезу — например, подкинуть мне фильм «Бегущий по лезвию»[278] и попробовать доказать, что я люблю не только комедии. Иначе я попаду в ловушку локального максимума, где обитают Хью Грант и Джулия Робертс.

Статистические модели, на которых основана степа фильтром, списывают со счетов слишком сильные отклонения. Но па деле именно они делают жизнь интересной и дают нам вдохновение. И именно отклонения — первые признаки перемен.

Один из лучших аргументов против алгоритмов прогнозирования можно найти, как это ни удивительно, у русского романиста XIX века Федора Достоевского. Его книга «Записки из подполья» была страстной критикой утопического научного рационализма тех дней. Достоевский размышлял над регламентированной, упорядоченной человеческой жизнью, которую обещала наука, и пророчил банальное будущее. «Все поступки человеческие, — ворчит безымянный рассказчик, — само собою, будут расчислены тогда по этим законам, математически, вроде таблицы логарифмов, до 108 000, и занесены в календарь… все будет так точно исчислено и обозначено, что на свете уже не будет более ни поступков, ни приключений».[279].

Мир часто следует предсказуемым правилам и соответствует предсказуемым моделям: прилив начинается и кончается, затмение приходит и уходит, даже погода становится все более предсказуемой. Но применять такой подход к человеческому поведению опасно хотя бы потому, что лучшие мгновения нашей жизни — зачастую самые непредсказуемые. Если жизнь полностью предсказуема, то и жить не стоит. Но алгоритмическая индукция может привести к тотальному детерминизму, когда наши предыдущие клики полностью определяют наше будущее. Иными словами, если мы не будем стирать нашу интернет-историю, возможно, нам придется повторять ее вечно.

Загрузка...