По мнению Барнса и Харбата, самая глубокая ирония заключается в том, что Facebook сама с радостью предоставила бы возможность нарезать демографические данные на кусочки, которые Cambridge Analytica якобы делала с похищенными данными. Платформа уже давно предоставляет крупным рекламодателям возможность таргетировать пользователей с помощью данных, которые платформа не предоставляла малому бизнесу - торговые представители создавали такую аудиторию на заказ, используя данные, не входящие в меню, по запросу клиента. Часть работы Барнса в Сан-Антонио заключалась в создании таких аудиторий на заказ для кампании Трампа, как и другие сотрудники Facebook делали это для таких клиентов, как Coca-Cola. Один из бывших руководителей, участвовавший во внутреннем анализе ситуации с Cambridge Analytica, сказал об этом так: "Если бы кампания хотела, чтобы Facebook создал индивидуальную коллекцию психологических профилей, им бы не пришлось получать ее от гребаного британского академика-хакера".
Хотя у Facebook было достаточно оснований подозревать, что Cambridge Analytica продавала "змеиное масло", неопределенность в отношении того, какими данными обладала Cambridge Analytica и как они были использованы, не позволяла компании убедительно утверждать, что скандал не был большим делом. Сочетание технологий, скрытных миллиардеров и наемников - один из руководителей Cambridge Analytica был пойман за обсуждением возможности заманивания политических лидеров за границей с помощью проституток - отразило конспирологический характер мышления того времени. Он связал все ниточки вместе во всеобъемлющую, хотя и не совсем правдоподобную теорию о том, как злоупотребляли социальными сетями, манипулировали избирателями, и Трамп был избран - и все это с помощью Facebook.
Независимо от того, оказала ли Cambridge Analytica какое-либо влияние на американскую политику, последствия скандала сразу же ощутились внутри Facebook. За несколько месяцев до скандала глава команды Facebook по развитию рекламного бизнеса Роб Голдман уже добивался прекращения отношений Facebook с крупными сторонними брокерами данных, которые предоставляли таргетированную информацию для рекламодателей, утверждая, что это представляет риск для конфиденциальности Facebook и ее пользователей. Спор поднялся до уровня Сэндберг. Она выслушала Голдмана, но решила, что данные об автономной жизни пользователей слишком ценны, чтобы от них отказываться. Когда вскрылась история с Cambridge Analytica, на следующий день она изменила свое мнение.
-
В то время как высшее руководство Facebook пыталось отразить один скандал за другим, его инженерные команды были заняты тем, что пытались предотвратить новые. Особое беспокойство Карлоса Гомеса-Урибе, мексиканского специалиста по машинному обучению, вызывало то, что можно было бы назвать проблемным контентом. Другими словами, это тот хлам, который теперь регулярно засоряет ленты пользователей.
Гомес-Урибе был принят на работу в Facebook в январе 2017 года для руководства рекомендациями в ленте новостей. Он хорошо зарекомендовал себя в Google, а затем в Netflix, куда пришел в 2010 году, как раз когда компания переходила от почтового проката DVD к потоковому видео, чему отчасти способствовала знаменитая рекомендательная система компании. Используя миллиарды данных о прокате и рейтингах пользователей, компания предлагала персонализированные подборки фильмов, что выгодно отличало ее от конкурентов.
Но Гомес-Урибе, нанятый в качестве специалиста по статистике, считал, что подход компании слишком прост. У Netflix был самый полный в мире набор данных о вкусах людей в кино, а она все еще давала рекомендации на основе пятизвездочной шкалы, которую критик газеты New York Daily News придумал в 1929 году. Когда он сказал менеджеру, отвечавшему за эту систему, что считает, что может сделать лучше, тот дал ему шанс доказать свою правоту или умереть, пытаясь это сделать.
Менее чем за неделю Гомес-Урибе создал черновой прототип рекомендательной системы, которая обещала превзойти ту, на создание которой инженеры Netflix потратили годы.
Новая модель, появившаяся в результате этой работы, в значительной степени основанная на методах машинного обучения, изучила все имеющиеся у компании поведенческие данные, чтобы не просто угадать, какие сериалы могут понравиться пользователю, но и определить, какие именно варианты ему нужны в данный момент. Рекомендации менялись в зависимости от времени суток, склонности пользователя к просмотру и даже географических тенденций. Если на Флориду надвигается сильный ураган, Netflix предложит "Идеальный шторм" и "Шаркнадо".
Гомес-Урибе отклонил предложения о работе от Facebook в первые годы развития машинного обучения, но после выборов 2016 года он пересмотрел свое решение и предложил работу по очистке рейтинга ленты новостей. Должность директора, которую ему предложили, была бы существенным шагом вниз для вице-президента Netflix со штатом в сотню человек, но проблемы казались интересными, и Гомес-Урибе решил, что Facebook нуждается в помощи.
Терпение не относится к числу сильных сторон Гомеса-Урибе, и он согласился с одним условием: ему нужны были гарантии, что он сможет существенно изменить продукт, как это было в Netflix. Потоковый сервис, безусловно, заботился о показателях - например, повышал вовлеченность пользователей с помощью рекомендаций. Подписчики, которые смотрели больше телевизора, с большей вероятностью продолжали платить за сервис. Но цель заключалась в создании долгосрочной стоимости, а это не так просто оценить количественно. Например, его команда могла бы переработать предложения Netflix таким образом, чтобы сократить количество ежедневных входов в систему, если бы для этого было веское обоснование. Позволит ли это Facebook?
На встрече с Цукербергом Гомес-Урибе пытался выяснить, насколько искренне Facebook настроен пересмотреть свои алгоритмы. Как отреагирует Цукерберг, если очистка News Feed будет происходить за счет традиционных показателей роста компании?
"Если вы найдете хорошие подходы, которые значительно улучшат целостность за счет вовлеченности, это прекрасно - мы их запустим", - вспоминает Гомес-Урибе слова Цукерберга. "Потому что я также предполагаю, что команда Growth будет выполнять свою работу и рост продолжится".
Успокоившись, Гомес-Урибе согласился на работу. Его убежденность в том, что рекомендательные системы Facebook нуждаются в исправлении, только усилилась после того, как он получил возможность увидеть изнутри, как компания их строит.
Работа Facebook по ранжированию была небрежной - по-другому и не скажешь. Компания изменила свои системы рекомендаций на основе A/B-тестов, которые проводились в течение всего нескольких недель, что на месяцы меньше того срока, который Netflix считал необходимым для наблюдения за долгосрочными изменениями в поведении пользователей. Facebook отнесся к формированию глобальной коммуникационной и вещательной платформы более бесцеремонно, чем Netflix к решению направить пользователей в сторону The Great British Bake Off. (Представитель компании оспорил воспоминания Гомеса-Урибе о поспешном и неадекватном тестировании изменений в рейтинге, назвав эксперименты компании тщательными и направленными на улучшение пользовательского опыта).
Не ограничиваясь подходом к экспериментам по принципу "лучше сделать, чем сделать идеально", Гомес-Урибе также задался вопросом, что именно измеряет Facebook. Возможно, платформе нужно переосмыслить способ подсчета вовлеченности, подобно тому, как Netflix переосмыслил, что значит для видео быть хорошим матчем.
В истории Facebook уже были прецеденты такого рода систематического переосмысления, которое представлял себе Гомес-Урибе. Первый подход к ранжированию, основанный на лайках, был грубым, и через несколько лет стало ясно, что пользователи ставят лайки своим друзьям не потому, что действительно ценят их, а как простой маркер, который говорит другу: "Да, я это видел". Когда ценность "лайков" снизилась, компании потребовалось новое поведение пользователей, которое можно было бы максимизировать. Она начала определять приоритеты времени, проведенного на платформе.
Но изменение показателей может изменить поведение, и переориентация на затраченное время привела к тому, что Facebook стал поощрять пользователей к просмотру большого количества видео в ущерб другим видам деятельности. Это имело свои недостатки, поэтому Facebook пошел на попятную и придал больший вес контенту, содержащему сочетание эмодзи, комментариев и лайков.
Этот процесс стал для компании тяжелым испытанием. Никто не предсказал обесценивания "лайков" или того, что показ пользователям большего количества видео снизит общее производство контента на платформе, хотя в ретроспективе и то, и другое имело смысл. Признавая, что Facebook многого не знал, Моссери стал увещевать команду разработчиков ленты новостей всегда быть начеку и искать "односторонние двери" в продукте, то есть изменения, которые могут изменить его таким образом, что их нельзя будет легко отменить, если платформа удивит своих надзирателей.
"Это было достойно восхищения, и я до сих пор постоянно думаю об этом", - сказал один бывший старший инженерный менеджер. "Но если вы пройдете через слишком много дверей, то со временем не сможете вернуться к первой - двухстворчатые двери становятся одностворчатыми". Другими словами, некоторые изменения не так-то просто отменить.
Каждый квартал компания вносила десятки изменений в ранжирование, и каждое новое решение накладывалось на предыдущие. Совокупный вес всех этих изменений, как правило, не давал возможности для серьезных преобразований. Тысячи инженеров потратили годы на оптимизацию платформы на основе согласованных показателей успеха. Изменить что-то основополагающее было бы равносильно тому, чтобы отбросить годы с таким трудом достигнутых успехов.
Именно это и хотел сделать Гомес-Урибе, на которого сильно повлияло время работы в Netflix: выкинуть все это. Он вспомнил, как потоковый сервис научился обращать внимание на то, сколько времени пользователи тратят на каждый фрагмент контента. Если люди бросали смотреть телешоу через три минуты, это был худший знак, чем если бы они вообще его не смотрели.
Команда Гомеса-Урибе начала разрабатывать новую систему, которая поощряла бы только содержательное участие: если пользователь увидел что-то и сразу же нажал кнопку "поделиться", это будет стоить меньше, чем, скажем, если он продержит пост открытым в течение минуты, а затем оставит комментарий. Это поощряло то взаимодействие, к которому они стремились, но как способ решения проблем целостности подход не оправдал себя - количество времени, проведенное пользователем с контентом, не коррелировало с тем, был ли он точным и содержательным.
Второй подход был более перспективным, хотя и спорным. По мнению Гомеса-Урибе, самые активные пользователи Facebook могут оказаться не на пользу платформе. Анализ данных показал, что существует небольшая, но значительная часть пользователей, которые, похоже, проводят на Facebook невероятное количество времени. Иногда цифры наводили на мысль о недобросовестности. Как может быть, что аккаунт, в который заходят по двадцать часов в день, не автоматизирован и не управляется людьми, работающими посменно?
Команде Гомеса-Урибе не поручалось работать над проблемой российского вмешательства, но один из его подчиненных заметил нечто необычное: некоторые из самых гиперактивных аккаунтов, казалось, полностью уходили в темноту в определенные дни года. Оказалось, что время их простоя совпадает со списком государственных праздников в Российской Федерации.
"В России уважают праздники?" - вспоминает он. "Неужели мы все такие тупые?"
Но пользователям не обязательно быть иностранными троллями, чтобы продвигать проблемные посты. Анализ, проведенный командой Гомеса-Урибе, показал, что класс влиятельных пользователей Facebook, как правило, предпочитает более современный контент, и они более склонны к крайним пристрастиям. Кроме того, они были более плодовиты - они ставили лайки, комментировали и перепощивали гораздо больше контента, чем обычные пользователи. Эти аккаунты были исключением из правил, но поскольку Facebook рекомендовал контент на основе совокупных сигналов вовлеченности, они оказывали огромное влияние на рекомендации. Если Facebook и был демократией, то такой, в которой каждый мог голосовать когда угодно и как угодно.
После работы в Netflix и Google - обе компании ограничивали степень влияния отдельного пользователя на рекомендации - подход Facebook показался Гомес-Урибе странным. Netflix никогда бы не создал алгоритм, который позволил бы человеку, смотрящему восемьдесят часов телевизора каждую неделю, в десять раз больше влиять на рекомендации, чем тому, кто смотрит восемь. Netflix не имеет ничего против просмотра телепередач, но идея о том, что все просмотры равны, была в корне искажена.
Поэтому команда Гомеса-Урибе предложила большое, но простое решение. Facebook перестроит алгоритм новостной ленты, чтобы ограничить влияние гиперактивных пользователей. Платформа по-прежнему будет учитывать их вовлеченность, но чем больше они будут вовлечены, тем меньший вес в рекомендациях Facebook будет придаваться каждому дополнительному действию. Для этого пришлось бы изменить математику подсчета вовлеченности каждой страницы, группы и комментария. По словам Гомеса-Урибе, для перестройки системы потребуется около двадцати человек, а после завершения работы News Feed придется заново обучать, чтобы ускорить многолетние усилия по оптимизации. Это будет не маленькая задача, именно тот амбициозный проект, который, как заверили Гомеса-Урибе, он сможет реализовать.
Несмотря на требуемую работу, идея сразу же понравилась многим руководителям высшего звена, работавшим в других крупных технологических компаниях. Среди тех, кто поддержал ее, был Киньонеро, ведущий инженер компании по прикладному машинному обучению. "Существует закон Вселенной, согласно которому 90 процентов кликов должны исходить от менее чем 10 процентов пользователей, а это дает непропорционально большое влияние небольшому числу людей, обладающих властью", - сказал Киньонеро. "Это дизайнерское решение, и единственный способ решить его - глубоко переосмыслить сами метрики".
Но достоинства изменений не казались столь очевидными руководителям отдела ленты новостей Джону Хегеману и Ларсу Бэкстрому, которые практически всю свою карьеру посвятили культуре роста и оптимизации Facebook. Если некоторые пользователи с огромным энтузиазмом делятся контентом и взаимодействуют с другими пользователями, зачем Facebook отключать их?
Просьба Гомеса-Урибе была отклонена. Поэтому он поступил практически так же, как и в Netflix, - делал все сам, пока руководство не прозрело.
Из-за нехватки ресурсов Гомес-Урибе был вынужден ограничить свои амбиции в отношении капитального ремонта. С помощью добровольцев из команды Facebook Core Data Science сотрудники Гомеса-Урибе разработали быструю и грязную версию его первоначального плана. Вместо того чтобы перестраивать News Feed, чтобы дать более спокойным пользователям больше права голоса, они просто наложили последнее уравнение на конечный результат существующего алгоритма, рекомендующего новостные материалы. Уменьшив распространение контента, непропорционально популярного среди гиперактивных пользователей, платформа снизила бы количество людей, отчаянно пытающихся сделать Facebook своим личным мегафоном. Такой подход не был идеальным, но он работал.
Поскольку гиперактивные пользователи, как правило, более пристрастны и более склонны делиться дезинформацией, разжиганием ненависти и кликушеством, вмешательство привело к повышению целостности почти по всем направлениям. Анализ того, как вмешательство повлияет на распространение поляризованного контента в США, показал, что оно сильно ударит по ультраправым и ультралевым изданиям и немного увеличит распространение новостей основных издателей.
Учитывая, что американская экосистема консервативных издателей намного больше, чем левая, можно было не сомневаться, что просмотры контента, популярного среди республиканцев, упадут сильнее. Но этот вывод не подтвердился во всем мире - например, в Венесуэле изменения в итоге сказались на доминирующих в Facebook левых в большей степени, чем на их оппонентах.
Несомненно, подход, получивший название "Sparing Sharing", был новым и интересным: Facebook подал патент на него в сентябре 2017 года. В знак признания очевидной пользы результатов Гомес-Урибе стал называть U-образный график воздействия "счастливым лицом". Изменив News Feed так, чтобы не дать крикунам доминировать в распределении новостей, Гомес-Урибе удалось заручиться поддержкой и Хегемана, и Моссери в News Feed - что тут может не понравиться?
Много, если верить команде Facebook по общественной политике. Консервативные издатели уже обвиняли компанию в том, что она нацелена на их контент с помощью необъективных проверок фактов, слишком агрессивной модерации контента и тайных усилий по подавлению. Несмотря на то что в ограничении возможностей пользователей по турбораспространению контента за счет упорства не было ничего политического по своей сути, не было сомнений в том, что консервативный и либеральный контент по-разному воспринимается в Facebook. Консервативные голоса преобладали - и чаще попадали в неприятности.
Эта асимметрия вызвала бурные дебаты внутри компании. Действительно ли американские консерваторы ведут себя более агрессивно или же правоприменительная практика Facebook просто необъективна? Стали ли консерваторы обращаться к Facebook за информацией, потому что основные издания были переполнены яростными леваками? Были ли либеральные группы раздроблены таким образом, что добиться массовости стало сложнее, или их онлайн-организаторы стали благодушными во время правления Обамы? Может быть, американская консервативная риторика в большей степени опирается на гнев и страх, и Facebook непропорционально поощряет это? (В социально либеральной культуре Facebook этот последний вопрос обычно задавался шепотом).
Чем бы это ни объяснялось, но с тем, что консервативный контент лучше всего продается в Facebook, компании пришлось считаться. Даже если бы Sparing Sharing применяла одинаковые правила к публикациям правых и левых, чистый ущерб консерваторам был бы больше. И это было бы неловко.
Если бы алгоритм Facebook изначально был построен так, как предлагает Гомес-Урибе, все это не представляло бы проблемы - никто не собирался проводить слушания в Конгрессе из-за того, что некоторые инженеры News Feed ограничили влияние одного аккаунта на рекомендации. Но изменение системы сейчас расстроило бы целую индустрию издателей, ориентированных на Facebook, которые развивались, чтобы использовать вовлеченность гиперактивных пользователей. Какова же была ответственность Facebook перед теми слоями общества, которые он сформировал?
На кону стоял глубокий моральный и философский вопрос, имеющий глобальные последствия. Поэтому Facebook связалась со своим главным защитником в Вашингтоне, Джоэлом Капланом, чей официальный титул - глава отдела глобальной общественной политики.
То, что компания, приверженная нейтралитету, будет обсуждать вопросы дизайна и механики платформы со своим главным лоббистом, не является стандартом. В Twitter и Google деликатные решения, касающиеся модерации контента или дизайна платформы, проходили через команды специалистов по продуктовой политике, которые в свою очередь отчитывались перед юридическим отделом компании. В Facebook же за такими решениями следил человек, который был заместителем главы администрации в Белом доме Джорджа Буша-младшего, а затем лоббировал интересы энергетической компании из Далласа, находящейся в затруднительном финансовом положении.
На одной из встреч по поводу Sparing Sharing Каплан и Эллиот Шраге - глава отдела общественной политики и коммуникаций Facebook, присутствовавший там в качестве представителя Цукерберга и Сэндберга, - расспрашивали Гомеса-Урибе о его предполагаемом вмешательстве. Очевидным фоном для обсуждения был предполагаемый ущерб трафику консервативных СМИ. Но явное беспокойство вызывало то, что предложение Гомеса-Урибе основывалось на идее, что в чрезвычайно интенсивном использовании Facebook есть что-то проблематичное. Что если, скажем, отряд девочек-скаутов станет суперпользователем, чтобы продвигать продажу печенья? (Каплан сказал в более позднем интервью, что он не помнит, чтобы ссылался на девочек-скаутов, но признал обеспокоенность тем, что изменение рейтинга повредит издателям, которые вырастили необычно восторженных последователей в Facebook).
Жесткая внутренняя оппозиция не погубила Sparing Sharing, но это означало, что план Гомеса-Урибе должен был получить благословение вышестоящей инстанции.
На то, чтобы зарезервировать блок времени в календаре Цукерберга, ушли недели и помощь Моссери, а также руководителей рейтинга News Feed, которые по-прежнему поддерживали инициативу, хотя и несколько более осторожно после размолвки с Public Policy. Когда пришло время, в конце 2017 года, Гомес-Урибе отправился с данными в руках, чтобы привести доводы, которые он считал очевидными. Предложенное им изменение дало бы умеренному большинству пользователей Facebook больше права голоса в том, какие новости распространяются по платформе, и значительно сократило бы распространение историй, которые в итоге были бы отмечены как ложные специалистами по проверке фактов.
"Я все еще думал, что, возможно, ответственные люди попросят меня делать больше подобных вещей", - вспоминает он.
Цукерберг выслушал Гомеса-Урибе и Каплана в течение десяти минут, прежде чем вынести свое решение.
"Сделайте это, но уменьшите вес на 80 процентов", - сказал Цукерберг Гомесу-Урибе. "И больше не приноси мне ничего подобного".
План Гомеса-Урибе неосознанно столкнулся с вопросом идеологии, но не политической. Facebook был создан для того, чтобы обеспечить максимальную общую вовлеченность. Идея о том, что платформу нужно защищать от эксцессов ее самых увлеченных пользователей, просто не приветствовалась.
Гомес-Урибе покинул совещание разгневанным. Поскольку штраф за гиперобмен ссылками составляет лишь пятую часть от того, что его команда считала эффективным, появление Sparing Sharing не собиралось существенно менять платформу.
Карлос создал рычаги довольно быстро при минимальной поддержке, и ему досталась версия "Давайте сделаем наших людей счастливыми", а не "Мы действительно хотим это сделать", - вспоминает коллега.
Моссери призвал его смотреть на вещи с другой стороны, а поздравил его с тем, что новаторский запуск будет одобрен при любом раскладе сил. Частичная победа все равно была победой.
Пошел ты. Как это можно считать успехом? подумал Гомес-Урибе.
Он добивался революции, а вместо нее получил утешительный приз.
Гомес-Урибе оправился. В сотрудничестве с исследователем, специализирующимся на поляризации, он погрузился в еще одну деликатную область. Данные Facebook позволяли легко отличить страницы, ориентированные на узкий сегмент пользователей, от тех, которые обращались к разнообразной аудитории. Почему бы не изменить рейтинг в пользу страниц, которые, казалось бы, помогают пользователям из разных лагерей найти общий язык?
После того как компания без энтузиазма отреагировала на Sparing Sharing, можно было не сомневаться, что команда Гомеса-Урибе играет с чем-то, что выше ее достоинства. Они старались привлечь как можно меньше внимания к своему плану. Они вписывали свой эксперимент в поток изменений алгоритмов, которые постоянно тестировал Facebook. Если бы эксперимент оказался перспективным, то полученные данные позволили бы бороться за него.
План почти сработал. Когда эксперимент был уже на грани запуска - оставалось только, чтобы другая команда перевернула один бит кода с 0 на 1, вспоминает Гомес-Урибе, - член маркетинговой команды Facebook News Feed узнал об этой попытке и сообщил о ней коллегам из отделов публичной политики и коммуникаций Facebook. Гомеса-Урибе тут же завалили враждебными вопросами об этой затее. Не является ли подавление поляризующего контента формой социальной инженерии? Как Facebook публично объяснит то, что он делал?
Это был всего лишь эксперимент, но в ходе него собирались данные, которые Facebook активно не хотел получать. Поскольку другие подразделения компании были начеку, руководство команды по ранжированию ленты новостей вмешалось и заблокировало эксперимент.
"Карлос был крестоносцем", - сказал Майкл Макнелли, глава компании Connections Integrity. "Он хотел спасти мир".
Этот инцидент ознаменовал раннюю смерть самых прямых усилий Facebook по борьбе с поляризацией и конец ограниченного терпения Гомеса-Урибе. В мае 2018 года, менее чем через полтора года после того, как Facebook наняла его, чтобы он переосмыслил, как решать проблемы контента с помощью ранжирования, он уволился и поступил в Стэнфорд, заинтересовавшись статистикой и теоретической физикой.
-
Когда скандал с Cambridge Analytica продолжал поглощать внимание общественности, Цукерберг не стал оценивать последствия в проклятых редакционных статьях New York Times или зажигательных роликах Рэйчел Мэддоу. Его беспокоили метрики.
Правда заключалась в том, что, как бы ни были неприятны для компании истории о российском влиянии, они не смогли серьезно поколебать показатель доверия пользователей к Facebook, измеряемый с помощью ежедневного опроса пользователей, известного как CAU. Сокращенно от "Заботится о вас", эта статистика была собрана путем опроса тысяч пользователей с помощью одного вопроса: "Верите ли вы, что Facebook заботится о вас?". Непринужденное звучание вопроса не соответствовало его важности. Точная формулировка CAU прошла тщательную проверку по всему миру и была признана оптимальным показателем настроения пользователей по отношению к компании.
С годами, по мере того как Facebook становился все крупнее и корпоративнее, CAU постепенно снижался, но лишь однажды он существенно сдвинулся с места, что отразилось в ежедневных цифрах - после того как Facebook решил вынести функции обмена сообщениями в отдельное приложение. (Этот проступок пользователи не могли простить в течение многих месяцев).
Теперь, после скандала с Cambridge Analytica, CAU падает, принимая худший удар за все время. Эта проблема привлекла все внимание Цукерберга. Он считал, что устойчивый удар по CAU может нанести непоправимый ущерб Facebook.
Цукерберг был одержим идеей "прорыва" в деле Cambridge Analytica. Всякий раз, когда Facebook оказывался в затруднительном положении, компания выжидала несколько дней, а затем объявляла о чем-то драматическом и новом. Вместо того чтобы игнорировать критику или реагировать на нее, этот подход был основан на том, чтобы вытеснить ее шумихой, и в целом он срабатывал. Но ничто не прорывалось сквозь Cambridge Analytica. Ни объявления о внутренних расследованиях. Ни обнародование новых новаторских мер контроля конфиденциальности. Ни обещания потратить миллиарды долларов на модерацию контента.
Публично Цукерберг и Facebook не собирались отрицать значимость Cambridge Analytica. В своих выступлениях и постах генеральный директор говорил, что компания раскаивается и стремится к самоанализу. Однако внутри компании он занял другую позицию.
На встрече в июне 2018 года Цукерберг объявил себя "генеральным директором военного времени" - это отсылка к трудам Бена Хоровица, соучредителя, наряду с членом совета директоров Facebook Марком Андреессеном, известной венчурной фирмы A16Z. Согласно книге Хоровица "Тяжелая вещь о тяжелых вещах", "CEO мирного времени знает, что правильный протокол ведет к победе. Генеральный директор военного времени нарушает протокол, чтобы победить". Другие черты успешного "генерального директора военного времени", согласно книге Хоровица, включают паранойю, целенаправленное использование ненормативной лексики и крики.
Цукерберг, очевидно, прислушался к совету. Он заявил сотрудникам на общекорпоративном собрании, что освещение Cambridge Analytica - это "чушь собачья", и начал заметно злиться во время совещаний о том, как перевести разговор на что-то другое, кроме скандала. "Я мог бы придумать идеи получше, если бы потратил десять минут на размышления", - проворчал Цукерберг на одной из таких встреч с руководителями.
В поисках решения Цукерберг обратился к Наоми Глейт, возглавлявшей в то время отдел социального блага. Глейт была одним из самых долгоживущих заместителей Цукерберга, частью небольшой группы руководителей, которые завоевали доверие генерального директора благодаря длительному пребыванию в должности. Она была известна как специалист по устранению неполадок, подобно мистеру Вульфу из "Криминального чтива", эффективный менеджер, на которого можно было рассчитывать в трудных обстоятельствах, когда требовалось безупречное пошаговое исполнение. Если Глейт поручали какую-то работу, можно было быть уверенным, что она важна и что кто-то другой ее уже испортил.
Подразделение Глейт занимало видное место в команде роста Facebook. Она курировала оптимистичную, социально позитивную работу компании, например запуск в 2015 году фандрайзеров на Facebook, которые компания преподносила как поощряющие спонтанную щедрость на небольшие суммы и помогающие пользователям связаться с теми, кто им небезразличен. В публичных заявлениях об этом проекте не упоминалось о том, что обработка пожертвований даст компании доступ к данным кредитных карт пользователей - бесценному ресурсу для компании, заинтересованной в интернет-коммерции. Внутренние информационные панели, используемые для оценки успеха фандрайзинговых кампаний в Facebook, включали количество обработанных кредитных карт в качестве центрального показателя успеха, наряду с такими показателями, как общее количество долларов, собранных на благотворительные цели.
-
Скандал с Россией и Cambridge Analytica разозлил не только рядовых пользователей. В июне 2018 года Харбат, будучи директором по глобальной избирательной политике, принимал группу либеральных правозащитных организаций в штаб-квартире Facebook в Вашингтоне. Все они были разгневаны до такой степени, что не могли справиться со своими обычными связями с компанией.
В центре их ярости оказалась компания Cambridge Analytica, но к ней, как и к исторически беспечному отношению Facebook к пользовательским данным, добавились вмешательство иностранных государств в выборы, дезинформация и неадекватная модерация. Как эти промахи были взаимосвязаны, неясно. Но когда представитель Planned Parenthood заявил, что Facebook убивает людей, Харбат понял, что спорить не стоит.
"Это было время, когда многие вещи собирались в кучу", - вспоминает она. "Моя работа заключалась в том, чтобы быть человеком и дать людям возможность выговориться".
Как только либералы ушли, Харбат вместе с Капланом встретился с другой группой посетителей: Кевином Маккарти, лидером республиканского большинства в Палате представителей, и Брэдом Парскейлом, который стал руководителем предвыборной кампании Трампа. Они тоже были недовольны Facebook, хотя и по разным причинам. Парскейл был убежден, что у компании есть секретный список фраз, которые она использует для уничтожения консерваторов, ставящих под сомнение изменение климата и другие элементы либеральной догмы (на самом деле это не так). Но что его действительно беспокоило, так это то, что компания до сих пор не поблагодарила его за то, что он публично приписал Facebook победу Трампа в 2016 году. Парскейл довел эту мысль до такой степени, что Маккарти сорвался на него: "Чего ты хочешь, Брэд? Чтобы они прислали тебе цветы?"
У Маккарти тоже были претензии. Он был расстроен тем, что в начале месяца в результатах поиска Google Республиканская партия Калифорнии была ненадолго включена в список нацистских организаций. Ошибка не имела никакого отношения к Facebook - она возникла в результате того, что кто-то незаметно для себя совершил акт вандализма на странице Википедии, на которую ссылался Google, - но Маккарти, похоже, воспринял это как доказательство того, что вся Кремниевая долина замышляет против республиканцев. Харбат и Каплан сделали все возможное, чтобы убедить его в обратном, но Маккарти и Парскейл остались неубежденными. (Позже Парскейл говорил, что не помнит подробностей встречи, но ему надоело "врать и реагировать на их разбуженных сотрудников", и он считает, что антиконсервативная цензура со стороны компании может стоить республиканцам выборов 2020 года).
Такое недоверие было трудно развеять, учитывая, что сотрудники Facebook придерживались либеральных взглядов, а 87 процентов их политических пожертвований шли демократам. Уже столкнувшись с натиском незаконных антиконсервативных обвинений в предвзятости, компания была обеспокоена возможностью появления реальных. Каплан стал главным внутренним наблюдателем, проверяя предложения по изменению продуктов на предмет предвзятости или чего-либо, что можно было бы обвинить в этом. Кроме того, Каплан контролировал принятие решений о модерации отдельных материалов - ему подчинялась Моника Бикерт, глава отдела контентной политики компании. Разумеется, все подчинялись Сэндберг, когда нужно было сделать особенно важный звонок, и она отступала перед Цукербергом, когда речь шла о чем-то действительно щекотливом. Хотя генеральный директор иногда вмешивался в вопросы модерации контента и политики, он, как правило, считал их досадными отвлечениями. На практике за Капланом часто оставалось последнее слово в вопросах ранжирования, правил и правоприменения, что было побочным направлением его основной работы по обеспечению счастья или, по крайней мере, успокоения влиятельных лиц Вашингтона.
По мере того как роль Каплана в Facebook становилась все более понятной за его пределами, либералы стали повторять за консерваторами обвинения в политическом фаворитизме. Но хотя он иногда выступал от имени консерваторов, даже его критики внутри Facebook не считали его фанатиком.
Истинный конфликт интересов заключался не в том, что компания поручила лоббисту-республиканцу разбирать ее правила и высказывать свое мнение о механизмах ее работы, а в том, что она передала эти обязанности лоббисту любой ориентации. Миллиарды пользователей Facebook будут управляться человеком, чья работа заключается в том, чтобы заботиться не о них, а о Facebook.
Глава 5
Когда речь заходит об очистке лент пользователей, некоторые проблемы качества должны быть легкой добычей. Это было ясно Майклу Макнелли, который пришел в Facebook в апреле 2017 года после тринадцати лет работы в Google, где он занимался обучением ранних моделей машинного обучения для борьбы со спамом.
Трудно переоценить, насколько актуальной была проблема спама на рубеже XXI века, когда массовые сообщения были готовы разрушить электронную почту, а возможно, и общение в Интернете в целом. Спам рос в геометрической прогрессии в то время, когда фильтры, призванные его остановить, добивались лишь незначительных успехов. Конгресс принял закон - CAN-SPAM Act - и прокуроры отправили несколько человек в тюрьму за организацию спам-операций, но в конечном итоге это ничего не изменило. А вот работа по машинному обучению, над которой трудились люди вроде Макнелли, помогла.
Для людей то, что считается спамом, было интуитивно понятным и сразу распознаваемым. Для компьютеров - не очень. Поэтому большая часть работы заключалась в том, чтобы выяснить, какие объективные сигналы люди склонны подавать, когда сталкиваются со спамом. К моменту прихода Макнелли компания Google уже находилась на переднем крае изучения этого вопроса. В одном из конкретных случаев инженер Google по имени Саймон Тонг придумал поведенческий метод обнаружения порнографии.
Тонг не оценивал изображения - в те времена искусственный интеллект для компьютерного зрения был грубым по современным меркам. Все, что он делал, - это смотрел, куда перемещались курсоры пользователей при получении массовых писем. В случае с обычными письмами никакой закономерности не было. Но в случае с порнографией мышь получателя сразу же начинала зависать над изображением, как извращенный ирландский сеттер. Реакция была почти непроизвольной - мгновенное подергивание, отражающее то, что делают люди, когда неожиданно сталкиваются с обнаженным товарищем - мы смотрим.
У плохих парней тоже были свои шаблоны. Макнелли и его коллеги использовали сочетание автоматизации, анализа данных и здравого смысла, чтобы отличить вредоносных пользователей от нормальных, но не только для электронной почты, но и для рекламного мошенничества и фиктивных отзывов. Самой большой константой было то, что злоумышленники, как правило, были слишком увлечены использованием продуктов компании. Google хотел, чтобы люди отправляли много писем, кликали на рекламу и писали много отзывов - но только до определенного момента. Слишком частое выполнение действий вызывало подозрение, а то и откровенную враждебность. Самыми опасными пользователями были те, которые с точки зрения простого использования выглядели как самые лучшие.
"Гиперактивные и исключительные вещи не вызывали доверия, - говорит Макнелли. Иногда неадекватное поведение было автоматизировано, но не всегда. Один из внутренних продуктов Google под названием "Zip It" изучал распределение по времени пятизвездочных оценок пользователей, чтобы бороться с попытками манипулировать порядком в списках покупок. Отображение слишком большого количества восторженных отзывов о слишком большом количестве товаров было признаком злого умысла. Если кто-то писал двадцать различных пятизвездочных отзывов о товарах за один день, надлежащей реакцией было игнорирование всех этих отзывов.
Успех Google в поиске характерных признаков плохого поведения позволил создать сервисы и результаты поиска, превосходящие конкурентов. Такие проблемы, как спам и рекламное мошенничество, никогда не будут решены полностью - всегда найдутся плохие игроки и ошибки. Но до тех пор, пока Google не прекращал обучение своих моделей обнаружения, система в целом работала.
Facebook нанял Макнелли, чтобы тот использовал те же методы обнаружения и машинного обучения для участия в своей новой битве с дезинформацией. Изначально Макнелли получил команду из двадцати сотрудников, он был старше большинства руководителей Facebook и более утомлен. После того как почти два десятилетия занимался борьбой с мошенниками в недрах Интернета, он не был склонен "предполагать добрые намерения". Именно из-за этой несклонности он и был нужен компании.
"Технология имеет непредвиденные последствия, а благими намерениями вымощена дорога в ад", - сказал Макнелли в интервью много лет спустя. "Цукерберг, Крис Кокс и другие признавали, что что-то не так и что можно сделать лучше. Я пришел в Facebook не как поклонник, а чтобы попытаться быть полезным".
Помимо того, что Макнелли пришлось разубеждать других в том, что корпорация обязана мыслить благотворительно, он также должен был приспособиться к подходу Facebook к экспериментам. В Google любое значимое изменение алгоритма поиска требовало тщательного изучения последствий. Каким бы ни было предложение, сотрудники, выступающие за него, составляли для своего начальства из команды по качеству поиска диаграмму, демонстрирующую его последствия и объясняющую, почему они считают, что измененные результаты новой модели являются улучшением.
Иногда Facebook проводил подобную оценку, но она была слишком дорогой и трудоемкой, чтобы стать регулярной. Вместо этого о целесообразности изменения алгоритма судили по тому, как он изменял около десятка основных показателей, таких как продолжительность сеансов пользователей, объем создаваемого ими контента и степень взаимодействия с другими пользователями.
Как и в случае с коллегами из Google, у команды, предлагающей изменения, обычно была теория о том, почему эта мелочь улучшит платформу. Например, есть интуитивная логика в том, что новые пользователи должны найти своих друзей, чтобы сделать платформу интересной. Может ли приоритет свежих аккаунтов в рекомендациях Facebook "Люди, которых вы можете знать" ускорить этот процесс и помочь новым пользователям начать с лучшей ноги?
Имея на руках правдоподобную идею, команда, отвечающая за рост числа друзей, в течение нескольких недель тестировала ее варианты на крошечных долях пользовательской базы Facebook на незначительных рынках, пробуя версии до тех пор, пока не определила ту, которая, казалось бы, лучше всего увеличивает число друзей. До тех пор, пока команда не нанесет ущерб другим показателям, которые волнуют Facebook, перестройка рекомендаций People You May Know станет сильным кандидатом на запуск.
Казалось бы, это интуитивный подход, но, по мнению Макнелли, здесь не хватало аналитического слоя. Конечно, нет ничего плохого в том, что Facebook разворачивает приветственный вагон для новых пользователей, но имеют ли результаты смысл в реальном мире? Были ли новые связи, которые завязывались, настоящими, или все они были связаны с молодыми женщинами с глянцевой внешностью, как на стоковых фотографиях? Действительно ли эти новые друзья вели себя так, как будто действительно знали друг друга?
В Facebook, как он понял, никто не отвечал за то, чтобы заглянуть под капот. "Они доверяли показателям, не вникая в отдельные случаи", - говорит Макнелли. Это было частью принципа "Двигайся быстро". Ежегодно запускались сотни проектов, в основе которых лежали только показатели прибыли".
Еще кое-что беспокоило Макнелли. Показатели целей Facebook, как правило, рассчитывались в средних величинах.
"В статистике часто встречается явление, что среднее значение непостоянно, поэтому некоторые патологии могут выпадать из геометрии показателей цели", - говорит Макнелли. В своем сдержанном, математическом стиле он называл самые святые показатели Facebook дерьмом. Принимать решения, основываясь только на метриках, без тщательного изучения их влияния на реальных людей, было безрассудно. Но делать это на основе средних показателей было просто глупо. Средний показатель может вырасти, потому что вы сделали что-то, что в целом было полезно для пользователей, или же он может вырасти, потому что нормальные люди стали пользоваться платформой чуть меньше, а небольшое количество троллей - гораздо больше.
Все в Facebook понимали эту концепцию - это разница между медианой и средним значением, тема, которую обычно преподают в средней школе. Но в интересах целесообразности все основные показатели Facebook были основаны на совокупном использовании. Это было похоже на то, как если бы биолог измерял силу экосистемы на основе сырой биомассы, не в силах отличить здоровый рост от токсичного цветения водорослей.
Если Карлос Гомес-Урибе обрушивался с резкой критикой непосредственно на руководителей, контролировавших News Feed, то Макнелли работал внутри системы. Он с энтузиазмом воспринял попытки Гомеса-Урибе отменить льготное отношение News Feed к гиперактивным пользователям и был разочарован, когда по настоянию Цукерберга эта попытка застопорилась, а ее эффект снизился на 80 %. Но прагматизм Макнелли отражал прагматизм систем, которые он пытался создать. В рамках параметров, установленных Facebook, его команда предпринимала самые эффективные шаги.
Демонстрацией такого подхода стала ранняя работа Facebook над дезинформацией. К 2017 году Facebook отказалась от убеждения, что благодаря мудрости толпы пользователи будут самостоятельно распознавать ложь и не распространять ее. Разоблачения, связанные с выборами 2016 года, быстро поставили крест на этой линии мышления. Но Facebook по-прежнему не желал брать на себя работу по определению истины самостоятельно, поэтому он наладил партнерские отношения с внешними организациями по проверке фактов.
Их журналистские усилия помогли Facebook выявить сомнительные истории и затем наложить штрафные санкции на другие истории, появившиеся на тех же доменах. Но эти меры имели лишь ограниченный эффект. К тому времени, когда Facebook занялся проблемой фальшивых новостей, македонцы и их подражатели уже давно вышли за рамки статуса хоббистов. Теперь они поддерживали сотни в основном бесполезных сайтов с названиями вроде "The Denver Guardian". Когда один из них становился мишенью, организация, стоящая за ним, могла просто переключиться на другой, продвигая контент через сети страниц Facebook.
"В Facebook осознание того, что есть противники, играющие в движок, пришло поздно, - говорит Макнелли. Чтобы вытеснить распространителей фальшивых новостей с платформы, Facebook должен был сделать публикацию бредовых историй невыгодной на постоянной основе. И, как и в предыдущей работе Макнелли по борьбе со спамом и рекламным мошенничеством, первым шагом было выяснение того, чем поведение издателей фальшивых новостей отличается от поведения легальных изданий.
Отличительной чертой стало бесстыдство издателей фальшивых новостей в их стремлении привлечь к себе внимание. Наряду с плохой информацией на их страницах неизменно присутствовали clickbait (сенсационные заголовки) и engagement bait (прямые призывы к пользователям взаимодействовать с контентом, тем самым распространяя его дальше).
Facebook уже не одобрял эти методы ажиотажа, считая их немного спамными, но, по правде говоря, ничего особенного с ними не делал. Насколько большой ущерб может нанести вирусная запись "Поделитесь этим, если вы поддерживаете войска"?
Оказалось, что ответ на этот вопрос, когда такой способ повышения вовлеченности используется в операциях по созданию фальшивых новостей, был весьма существенным. Поэтому команда Макнелли начала работать над усилением мер по борьбе с тем, что раньше считалось мелким проступком. Если бы Facebook могла бороться с гиперболическими высказываниями и попытками искусственно подтолкнуть пользователей к участию, возможно, это сделало бы проблему фальшивых новостей более решаемой.
Для того чтобы провести такую репрессию, Facebook необходимо было создать системы для обнаружения плохих постов. Инженеры скормили системе машинного обучения примеры сенсационных постов и постов-приманок, обучив ее отличать такие материалы от более сдержанного контента. Полученный алгоритм предсказывал вероятность того, что пост является приманкой, по шкале от нуля до единицы.
Эта техника, называемая контролируемым обучением, была технически сложной, но концептуально простой. Цель заключалась в том, чтобы надежно распознавать весь плохой контент, который он видел, без ложных срабатываний. Конечно, такое автоматическое совершенство невозможно, и при определении того, как и стоит ли использовать инструмент, который неизбежно приведет к ошибкам, приходилось принимать сложные решения. Всегда существовал компромисс между точностью (как часто классификатор ошибается) и отзывом (какой процент целевого контента он действительно распознает).
То, что Facebook больше ценит - точность или запоминание, - зависело от того, что ее больше беспокоило: ложноотрицательные или ложноположительные результаты. Если Facebook задумывалась об автоматическом удалении фальшивых аккаунтов, она должна была быть более чем на 99 % уверена в том, что пользователь является фальшивым, прежде чем нажимать на курок, даже если такой уровень точности означал, что миллионы фальшивых аккаунтов останутся нетронутыми. В других обстоятельствах гораздо большее значение имеет отзыв: классификатор, выявляющий сообщения с потенциальными суицидальными намерениями, должен быть осторожен и отправлять контент на проверку человеку, даже если вероятность того, что он окажется пригодным к действию, невелика.
Большинство проблем с целостностью оказались между этими двумя крайностями. Facebook не хотел, чтобы люди видели на его платформе язык ненависти, но он не был готов удалять или вручную проверять каждое сообщение, которое классификатор отмечал как потенциально оскорбительное. В этом случае компании приходилось хеджировать свои ставки.
Решением стало понижение рейтинга. Вместо того чтобы удалять или пересматривать сомнительный пост, Facebook мог просто поставить большой палец на шкалу новостной ленты, чтобы он попал к меньшему количеству людей, снизив его оценку в рейтинге, определяющем, что появляется в ленте пользователя. Если штраф был достаточно велик, то сомнительный пост либо пропадал совсем, либо оказывался так далеко в очереди, что пользователь вряд ли до него добирался.
Преимущество понижения рейтинга заключалось в том, что Facebook не нужно было решать, является ли контент приемлемым или нет. Ближайшие друзья пользователя могли по-прежнему видеть сообщение, но для всех остальных пониженный в рейтинге контент просто заменялся следующим в очереди. Это также снижало цену неточности. Поскольку ничего не удалялось, никто не расстраивался. Но Facebook все равно не хотел подавлять контент на зыбких основаниях. Никто не хотел, чтобы платформа служила автоматической полицией нравов, хоронящей любой пост с острыми выражениями или намеком на кожу. Совершенно безопасная платформа была бы совершенно скучной.
Поэтому вопрос о том, как откалибровать смесь автоматических удалений и понижений контента, был одновременно и практическим, и философским. Если вы считали, что плохой контент представляет собой серьезную опасность, и полагали, что Facebook несет ответственность за то, какой контент он рекомендует, вы, скорее всего, предпочли бы относительно жесткий подход. Но если вы рассматривали Facebook как нейтральную платформу, предоставляющую пользователям персонализированный контент, вы сочли бы такой подход излишне строгим, возможно, даже неэтичным. Лента новостей пользователей отражает их личные предпочтения и вкусы, и Facebook должен как можно меньше вмешиваться в их выражение.
" Вред возникает в ситуациях, когда зритель не видит того, что он действительно хотел увидеть", - говорится в одной из внутренних исследовательских записок, подытоживающей позицию минималистов и утверждающей, что изменения в рейтинге, лишающие пользователей доступа к максимально интересному контенту, не позволяют "уважать" их суждения.
Эти дебаты время от времени вспыхивали на Workplace, хотя абсолютное мнение сотрудников с той или иной стороны было редкостью. Максималисты с сайта не считали, что Facebook должна принимать меры против всего потенциально вредного контента, а минималисты не думали, что Facebook должна уважать аппетит белых супремасистов к расистским мемам. Facebook не отвечал за все, что размещали и потребляли его пользователи, но и не был вольницей открытого интернета.
Где бы ни находился Цукерберг и большинство высших руководителей Facebook, сомнений не возникало. Несмотря на попытки некоторых кругов представить Facebook как тирана, помешанного на цензуре, генеральный директор всегда казался более озабоченным тем, чтобы не переусердствовать с модерацией. Facebook должен как можно меньше управлять своей платформой, удаляя только однозначно плохой контент и требуя перевеса доказательств для даже скромного подавления контента. Эти препятствия привели к тому, что вмешательство в добросовестность происходило в основном на периферии - позднее исследование показало, что корректировки ленты новостей, снижающие рейтинг графического насилия, некачественной медицинской информации и дезинформации, изменяли лишь крошечный процент сеансов пользователей, и даже тогда пользователи не сообщали, что их лента стала меньше стоить их времени. В ослабленном виде понижение Sparing Sharing Гомеса-Урибе затронуло лишь одного из тысячи.
Циник мог бы справедливо заметить, что такая принципиальная сдержанность давала дополнительные преимущества: требовала меньше работы и приносила больше отдачи. Но люди, общавшиеся с генеральным директором, в целом считали, что его позиция отражает идеологию в большей степени, чем выгоду или целесообразность. Если вы считали, что ленты пользователей Facebook отражают их желания - а Цукерберг считал именно так, - то вы с подозрением относились к попыткам вмешаться в них.
Каков бы ни был источник этих настроений, они практически исключали самый простой подход к борьбе с дезинформацией: просто снижать уровень сенсационности и привлекательности приманки чаще и жестче, чем сейчас, жертвуя точностью ради повышения запоминаемости. Такой подход был исключен.
Обязанность Facebook уважать предпочтения пользователей создавала еще одну проблему. Согласно метрикам, которые использовала платформа, дезинформация была тем, чего хотели люди. Все метрики, которые использовал Facebook, показывали, что людям нравятся истории с сенсационными и вводящими в заблуждение заголовками, и они ими делятся.
Макнелли подозревал, что показатели затушевывают реальное положение дел. Его команда решила доказать, что на самом деле это не так. Они обнаружили, что, несмотря на то, что пользователи регулярно пользуются контентом-приманкой, в ходе опросов они соглашались с тем, что такой материал не представляет для них ценности. Когда им сообщали, что они поделились ложным контентом, они испытывали сожаление. И, как правило, они считали, что проверка фактов содержит полезную информацию.
Поэтому Макнелли, действуя в духе институционализма, организовал еженедельные встречи с Адамом Моссери и Джоном Хегеманом, чтобы доказать, что, когда речь идет о приманках и фальшивых новостях, на показатели вовлеченности просто нельзя полагаться, чтобы отразить то, что пользователи действительно ценят.
Его усилия окупились. В мае 2017 года Facebook объявил, что начнет удалять кликбейт не потому, что он вводит в заблуждение, является сенсационным или мошенническим, а потому, что пользователи сказали им, что им не нравятся вещи, которые вводят в заблуждение, являются сенсационными или спамными. Оказалось, что официальный нейтралитет - это ключ, который может открыть целый корпус работ.
"Мы пытаемся выяснить, что вызывает раздражение, и боремся с дезинформацией независимо от нее", - говорит Макнелли о таком подходе.
Стратегия заключалась в том, чтобы обвинять издателей мистификаций в их неприятном поведении, а не в публикации фальшивых новостей. На сайтах фальшивых новостей, как правило, было много рекламы, а люди не любят рекламу, что оправдывало снижение рейтинга. Кроме того, такие сайты обычно запускают всплывающие окна, а их все ненавидят. Сайты фальшивых новостей в среднем загружались на мгновение дольше, чем более легитимные издания, а никто не любит ждать.
Если бы не проблема фальшивых новостей, у Facebook не было бы шансов сделать приоритетными эти инициативы, многие из которых были, по крайней мере, в некоторой степени избыточными. Но здесь велась какая-то игра. Чтобы избежать необходимости разбираться в истине, компания наказывала издателей фальшивок за все, кроме того, что их новости не соответствовали действительности.
Ранжирование было не единственным рычагом, доступным команде Макнелли. Они создали ярлыки для проверки фактов, которые занимали физическое пространство, отведенное для ложного сообщения, тем самым лишая его внимания при прокрутке пользователем. А для того, чтобы дать фактологам Facebook небольшую фору в борьбе с вирусными ложными новостями, они создали классификатор, который проверял комментарии на предмет распространенных проявлений неверия, отдавая предпочтение постам с высоким процентом скептических комментариев.
Другие социальные медиаплатформы, такие как YouTube и Twitter, применяли аналогичную тактику, но Facebook, пожалуй, двигался быстрее всех и, безусловно, был самым прозрачным. В течение 2017 года были запущены десятки различных инициатив.
Макнелли научился преодолевать внутренние препятствия, но иногда угрозы для работы с дезинформацией исходили извне компании. Один из агрессивных подходов к борьбе с дезинформацией заключался в том, чтобы просто отделить новости от ленты пользователей, поместив их в отдельную вкладку, которая выполняла бы роль своеобразного карантина. Если раньше Facebook стремился расширить распространение новостей, пытаясь противостоять Twitter, то теперь он пытается их сократить. Как и в случае с большинством крупных изменений в дизайне, Facebook протестировал отдельную вкладку новостей на нескольких небольших рынках, включая Боливию, Камбоджу и Сербию.
Тест, проведенный в конце 2017 года, привел к падению потребления новостей на платформе и разозлил издателей. Ссылаясь на падение трафика легального боливийского новостного издания, которое полагалось на Facebook, New York Times обвинила Facebook в превращении страны в "подопытного кролика в постоянном стремлении компании изобрести себя заново".
После резкой критики со стороны как старых, так и начинающих цифровых издателей Facebook отменил эксперимент. Ирония была близка к поверхности. Издатели новостей обвиняли Facebook в деградации всей новостной экосистемы. Но когда компания предприняла шаг, который уменьшил бы ее роль в распространении новостей, издатели закричали.
"То, что внешний мир хочет от Facebook, противоречиво и не может быть удовлетворено", - сказал Макнелли.
Возможно, идею с вкладкой новостей можно было объяснить лучше, а может быть, это был просто неправильный подход. Но каждый раз, когда подобное предложение с благими намерениями разлеталось в пух и прах, люди, работающие над дезинформацией, теряли немного позиций. В отсутствие последовательных, согласованных требований со стороны внешнего мира , Facebook всегда возвращался к логике максимизации собственных показателей использования.
"Если что-то не будет хорошо выглядеть, когда это попадет в основные СМИ, они могут колебаться, стоит ли это делать", - говорит Макнелли. "В других случаях нам советовали делать меньшие шаги и посмотреть, заметит ли кто-нибудь. Ошибки всегда были на стороне того, чтобы делать меньше".
Хотя Макнелли добился определенного успеха, заставив компанию обратить внимание не только на то, чем занимались пользователи, но и на то, что им было нужно. Нигде его команда не столкнулась с ними так явно, как в попытке создать новую метрику, известную как "Широкое доверие".
В течение многих лет команда компании по партнерству с медиа пыталась придумать, как склонить чашу весов Facebook в сторону крупных уважаемых издательств и отвлечься от заезжих цифровых новостных источников, которые регулярно их опережали. Команда Partnerships предлагала просто дать мейнстримным изданиям преимущество - например, повысить их рейтинг в ленте. Эта идея была сразу же отклонена. Facebook был не более заинтересован в оценке качества, чем в оценке фактов.
Макнелли увидел возможность выйти на аналогичную территорию таким образом, чтобы компания не выбирала фаворитов. Вместо того чтобы отдавать предпочтение надежным изданиям перед случайными новичками, платформа могла бы дать преимущество источникам, которым доверяют сами пользователи.
Как бы ни привлекал людей контент сомнительных издательств на Facebook, они редко искали материалы вне платформы или даже знали, откуда они взялись. Если пользователь замечал, что новость, которой поделился его друг, поступила от доселе неизвестного издания вроде "The Boston Inquirer" - информация, которую интерфейс Facebook практически не подчеркивал, - он становился более скептичным и с меньшей вероятностью делился ею. На данный момент Facebook не учитывает предпочтение известных надежных источников.
Поэтому исследователи Макнелли начали работать над метрикой для определения "широкого доверия", используя опросы. Можно было предположить, что все усилия будут обречены на провал из-за партийной принадлежности: зарегистрированные демократы будут отвергать материалы Fox News, а республиканцы - MSNBC, считая их чистой ложью. Но все оказалось не так, по крайней мере, в 2017 году. Американские пользователи Facebook в подавляющем большинстве оценили оба канала как легитимные источники новостей. Напротив, такие сайты, как "Покончить с ФРС", один из самых известных издателей фальшивых новостей перед выборами 2016 года, получили низкие оценки доверия, даже среди консервативных пользователей. Предложение Макнелли заключалось в том, чтобы дать сайтам, заслужившим доверие Broad Trust, преимущество перед теми, кто его не заслужил.
Как способ борьбы с дезинформацией и сенсационным контентом, Broad Trust, несомненно, работал. Люди по-прежнему могли свободно потреблять и делиться контентом с любого новостного сайта. Но в самой ленте новостей стало меньше шансов усилить статьи с новостного сайта, созданного на предыдущей неделе.
Facebook одобрил включение показателя Broad Trust в ранжирование ленты новостей в конце 2017 года, причем Цукерберг лично объявил о его появлении. " В современном мире слишком много сенсаций, дезинформации и поляризации. Социальные медиа позволяют людям распространять информацию быстрее, чем когда-либо прежде, и если мы не будем специально решать эти проблемы, то в итоге усилим их", - написал Цукерберг. Вот почему важно, чтобы в "Ленте новостей" появлялись новости высокого качества, которые помогают найти общий язык".
Компания Broad Trust была признана победителем. Однако за кулисами все шло не так гладко. Как и в случае с Sparing Sharing, его эффект не был политически сбалансированным; экосистема партизанских цифровых издателей была значительно больше справа. Несмотря на то, что Цукерберг признавался в поддержке Broad Trust, и несмотря на то, что сами пользователи, казалось, постоянно поддерживали идею, лежащую в его основе, Цукерберг решил - после активного лоббирования со стороны Джоэла Каплана - что сила воздействия изменения рейтинга должна быть сильно принижена, как и Sparing Sharing Карлоса Гомеса-Урибе.
У нас были веские причины считать это решение зловещим: у Broad Trust был небольшой потенциал для того, чтобы поставить Facebook под удар. Его эффект был широко привлекательным, а единственные пострадавшие стороны - ночные новостные издания - не были особенно влиятельными или любимыми избирателями. Но даже если ставки были невелики, а выгоды значительны, компания все равно уклонилась.
Facebook поддерживала работу Макнелли, направленную на борьбу с абсолютно худшими вещами - иностранными издателями откровенной лжи. Но они заблокировали его, как только он попытался бороться со стимулами, которые породили эту индустрию в первую очередь.
"Для людей, которые хотели исправить Facebook, поляризация была плакатом "Давайте сделаем что-то хорошее в мире", - сказал Макнелли. "В результате был вынесен вердикт, что целью Facebook не является выполнение этой работы".
Макнелли все понял. По-прежнему решив работать в рамках системы, он сосредоточил свои усилия на том, чтобы делать вещи, которые компания будет поддерживать. В течение чуть более года команда Макнелли внесла более 140 отдельных изменений в рейтинг, призванных нанести удар по бизнес-модели издателей откровенно фальшивых новостей. Многие из них были не более чем бумажными сокращениями, но все вместе они оказали влияние.
Совокупный вес изменений поставил на колени худших нарушителей. Изменения были достаточно заметны, чтобы их можно было увидеть за пределами компании. После чуть более года работы аналитическая компания NewsWhip, специализирующаяся на анализе социальных сетей, объявила, что издатели-мистификаторы старой гвардии практически мертвы.
Какими бы ни были разочарования, это был большой успех. Когда команда по составлению рейтингов приступила к работе, не было никаких сомнений в том, что Facebook снабжает своих пользователей откровенно ложной информацией со скоростью, значительно превосходящей все остальные виды СМИ. Теперь это уже не так (несмотря на то что компанию еще долгие годы будут поливать углями за распространение "фальшивых новостей").
По иронии судьбы, Facebook оказался не в том положении, чтобы хвастаться этим успехом. Поскольку Цукерберг все время настаивал на том, что фальшивые новости составляют лишь незначительную часть контента, Facebook не мог радоваться тому, что он, возможно, находится на пути к тому, чтобы сделать это утверждение правдой.
-
Даже когда Facebook эффективно устранял свои самые очевидные ошибки после выборов 2016 года, платформа внедряла новые инициативы, а вместе с ними и новые сложности.
В начале 2018 года Цукерберг сделал громкое заявление. На фоне растущей озабоченности общественности влиянием социальных сетей на психическое здоровье компания Facebook с помощью ученых из ведущих университетов мира внимательно изучила свои продукты и пришла к выводу, что пассивное потребление контента не приносит пользы людям. Чтобы социальные сети приносили пользу, они должны были укреплять социальные связи людей.
" Исходя из этого, мы вносим серьезные изменения в то, как мы создаем Facebook", - заявил Цукерберг в своем сообщении на Facebook. "Я меняю цели, которые я ставлю перед нашими продуктовыми командами, - от помощи в поиске релевантного контента до помощи в более значимых социальных взаимодействиях".
Родилась новая метрика - "значимые социальные взаимодействия" (Meaningful Social Interactions), или MSI.
По словам Цукерберга, изменения произойдут за счет количества времени, которое люди проводят на Facebook. Но его больше волнует "сближение людей", чем количественная оценка их ежедневного использования.
Все это звучало прекрасно, и исследования пользователей компании действительно показали, что взаимодействие с друзьями через Facebook лучше для людей, чем прокрутка ленты новостей в зомбиподобном состоянии. Но у этого шага было и более прозаическое объяснение: пользователи недостаточно комментировали.
Facebook уже давно стремится максимизировать "потраченное время". Хотя поставленная Цукербергом в 2014 году задача постоянного 10-процентного роста была долгосрочной математической невыполнимой - в конце концов, на Земле живет лишь ограниченное число людей и есть лишь ограниченное число часов в сутках, - это также был пример того, как Facebook делает то, что у нее получается лучше всего: ставит смелую, но легко измеримую цель, а затем стимулирует продуктовые команды по всей компании, чтобы они взялись за ее достижение.
Сначала им удалось достичь поставленной Цукербергом цели, но потом они ее повысили. Цель стала заключаться в постоянном росте ежегодных затрат времени на 12 процентов.
Затем произошло то, что Facebook сделал хуже всего.
"Никто особо не задумывался над общей картиной", - рассказывает об истории целей Facebook старший научный сотрудник отдела аналитики компании. "В начале 2017 года показатели вовлеченности начали падать... и никто этого не заметил". Это была ошибка всей компании. Все гонялись за показателями, как стая детсадовцев за футбольным мячом. А тем временем, по словам специалиста по анализу данных, "система шла ко дну".
Спад был опасен. Комментарии и реакции были важнейшим компонентом вечного двигателя Facebook: без вовлеченности люди переставали публиковать и репостить бесплатный контент. А без бесплатного контента Facebook умирал.
К тому времени, когда компания осознала, что происходит у нее под носом, обстоятельства были плачевными.
Падение показателей положило начало "спринтерской работе, в ходе которой так и не удалось выяснить, почему показатели снизились", - вспоминает специалист по анализу данных. Частично это, вероятно, было результатом перехода к потреблению видео, который поощрялся постановкой целей по максимизации "проведенного времени". Это также связано с тем, что пользователи все больше потребляют контент от крупных издателей, что вписывается в "существующее убеждение, что FB больше не ориентирован на ваших друзей", - добавил специалист по анализу данных. "Слишком много видео и другого публичного контента было проблемой".
Новостной ленте предстоял капитальный ремонт. Изменение способа подсчета вовлеченности стало бы огромным событием для Facebook - оно означало бы поворот к лучшему по сравнению с тем, как компания измеряла свой собственный успех с первых дней своего существования. Но в ноябре 2017 года - как раз в тот момент, когда компания обычно начинает сворачивать крупные проекты за год, - Цукерберг приказал News Feed остановить падение вовлеченности. У них было тридцать дней. (В своем заявлении компания отрицает, что процесс был поспешным, говоря, что новый алгоритм создавался в течение восемнадцати месяцев, но внутренние документы говорят об этом однозначно. Работа началась незадолго до Дня благодарения и закончилась до конца года).
Многие руководители, включая Моссери и Хегемана, стали пытаться придумать, как изменить вес алгоритма. "Значимые социальные взаимодействия" были термином искусства; у него еще не было определения. Поэтому они начали с существующей в компании метрики взаимодействия, необработанного подсчета межпользовательских действий, известного как U2U, а затем попытались уточнить, какие виды действий являются наиболее важными - наиболее социально значимыми. Комментарии показались более значимыми, чем реакции на эмодзи, а эмодзи - более значимыми, чем лайки. Комментарии и репосты тоже где-то здесь. Но как оценить относительную важность этих действий, пока не ясно.
Учитывая спешные сроки разработки, MSI вряд ли можно назвать выверенным мерилом того, что привносит в жизнь пользователей значимую связь. В нем не было никаких усилий по анализу настроений, а значит, он придавал одинаковую ценность как искренней записке о тяжелой утрате, так и заявлению о намерении помочиться на могилу усопшего. Важным было не содержание сообщения, а сам факт комментария. Компания уже добавила множество реакционных эмодзи, помимо основного "нравится", включая "люблю", "хаха", "вау", "грустно" и "сердито". По новым меркам Facebook, когда кто-то умирал, ему было все равно, выберете ли вы сердечко или сердитое лицо, лишь бы вы на что-то нажали.
За несколько недель платформа полностью изменила оценку поведения пользователей. Согласно новой системе MSI, повторная публикация стала стоить в тридцать раз больше, чем лайк. Комментарии стоили в пятнадцать раз больше, а ответы с помощью эмодзи - в пять. Вовлеченность друзей, с которыми пользователь взаимодействует чаще всего, получила дополнительный импульс, поскольку исследования пользовательского опыта подтвердили, что людям важнее вовлеченность друзей, с которыми они чаще взаимодействуют. Но тестирование проводилось в спешке. Facebook срочно нужно было вызвать определенное поведение пользователей, поэтому он просто изменил новостную ленту в пользу того контента, который его порождает.
"Эти ребята летали на волоске от гибели", - вспоминает один из бывших руководителей, участвовавших в проекте.
Разумеется, простое изменение того, какой контент попадает в ленту, не было конечной целью. Была надежда, что в ответ на изменения некоторые пользователи начнут создавать контент, заслуживающий реакций, акций и комментариев, которые ценила новая система. Дальше в дело вступит "мимикрия" - хорошо задокументированная модель поведения пользователей Facebook, дублирующая поведение друг друга. Исследование пользовательского опыта подтвердило интуицию, что люди действительно больше заботятся о вовлеченности, исходящей от их друзей, что подтверждает новый подход.
Facebook только что на ходу изменил способ оценки активности 2 миллиардов человек . Метрика все еще была неровной, но ее основы уже были заложены. Теперь в ленте новостей приоритет будет отдаваться тому контенту, который генерирует наибольшее количество "отданных MSI", и предпочтение тем производителям контента, которые принесли чрезмерное количество "полученных MSI". Особое предпочтение будет отдаваться постам, которые, как ожидается, сгенерируют "нисходящий MSI" - термин, обозначающий лавину последующих взаимодействий, возникающих при многократном повторном распространении вирусных постов.
По словам компании, все это имело смысл, даже если и было несколько неубедительным: она считала, что вовлеченность людей является хорошим косвенным показателем того, насколько ценным для них было сообщение.
Команды Civic и News Feed Integrity не присутствовали при рождении метрики. Но многие члены обеих команд вспомнили, что, когда они впервые узнали о новых весах вовлеченности MSI, их реакция была одинаковой: это заставит людей ссориться. Возможно, намерения Facebook были искренними, но мысль о том, что турбонаддув комментариев, репостов и эмодзи приведет к неприятным последствиям, была вполне очевидна для людей, которые, например, работали с македонскими тролль-фермами, сенсациями и ненавистным контентом.
Гиперболические заголовки и приманка для возмущения уже были хорошо известной тактикой цифровых публикаций, как на Facebook, так и за его пределами. Они хорошо распространялись, их перепощивали длинными цепочками. Придание импульса контенту, который вызывает повторные публикации, должно было добавить экспоненциальный компонент к и без того здоровой скорости распространения такого проблемного контента. В то время как компания пыталась бороться с распространителями дезинформации, гиперпартийности и языка ненависти, она только что сделала их тактику более эффективной.
Несколько руководителей в команде целостности Facebook высказали Хегеману свои опасения по поводу MSI, который признал наличие проблемы и пообещал попытаться доработать MSI позже. Но принятие MSI было делом решенным, сказал он, - по приказу Цукерберга.
Даже сотрудники, не являющиеся сотрудниками Integrity, признавали риск. Когда менеджер по продуктам команды Growth спросил, не означает ли это изменение, что News Feed будет отдавать предпочтение более спорному контенту, руководитель команды, ответственной за эту работу, признал, что вполне может.
Команда News Feed Integrity работает очень усердно (и быстро!), чтобы смягчить потенциальное воздействие запуска на целостность", - написал он на , добавив, что компания надеется, что тактика "приманки для вовлечения" поможет в некоторой степени. Поиск способа измерить ущерб, нанесенный MSI усилиям по обеспечению целостности платформы, войдет в "список желаний" команды.
"Когда инженер говорит вам: "Мы займемся этим", вы должны понимать, что он лжет", - отметил бывший директор, работавший над изменением MSI.
Компания, разумеется, не говорила об этих опасениях публично. В доказательство альтруистических мотивов платформы Цукерберг, комментируя результаты четвертого квартала 2017 года, заявил, что Facebook будет придерживаться MSI, даже несмотря на то, что она обходится платформе в 50 миллионов часов использования в день.
Компания старалась представить внедрение MSI как общественное благо не только для внешнего потребления. Всякий раз, когда сотрудники на собрании задавались вопросом, не ставит ли Facebook во главу угла благополучие своей платформы, а не благополучие своих пользователей, руководители указывали на значимые социальные взаимодействия. Как можно обвинять компанию в безответственности, когда Цукерберг пожертвовал столькими пользователями на алтарь сближения людей?
Аргумент в основном сработал - за исключением сотрудников Integrity и круга инженеров, которые знали, что MSI была создана, чтобы решить проблему вовлеченности, которая считалась гораздо более серьезной, чем увеличение затраченного времени.
Facebook по-прежнему утверждала, что MSI - это действительно благо для мира, а не спешка, и этот аргумент, по их словам, был подкреплен нераскрытыми результатами исследований. Но позже исследования показали, что как способ сближения людей MSI оказался бесполезным. Пользователи сообщали, что они менее удовлетворены "Лентой новостей" и менее склонны утверждать, что Facebook показывает им сообщения от важных для них людей. Однако "бизнес-метрические показатели" - насколько они увеличили количество пользователей и комментариев - были высоки, и переработанная лента новостей дала примерно 0,17 % прироста ежедневных пользователей.
Прошел год, прежде чем сторонние наблюдатели начали понимать, что в Meaningful Social Interactions есть нечто большее, чем кажется на первый взгляд. Анализ, проведенный компанией NewsWhip, показал, что внедрение MSI превратило редко используемый эмодзи "angry" в индикатор успеха политического контента . Fox News, Breitbart и страница редактора Daily Wire Бена Шапиро лидировали по количеству "гневных" сообщений, пишет аналитическая фирма, а либеральная Daily Kos и страница сенатора Берни Сандерса в Facebook также собирали их в изобилии. Другими темами, которые, как показалось, превзошли все ожидания после сдвига, стали похищенные дети и аборты. Slate отметил, что самым популярным постом на платформе в начале 2019 года была новостная заметка из 119 слов с менее чем информативным названием "Suspected Human Trafficker, Child Predator May Be in Our Area".
Проведенное Facebook исследование влияния MSI лишь подтвердило эти выводы. По данным компании, клики получали те истории, которые вызывали "негативные настроения пользователей".
Конечно, это была не только вина MSI. Журналистика всегда процветала за счет конфликтов - "если кровь льется, то она и ведет", гласит старая журналистская поговорка. Не было причин ожидать, что в социальных сетях все будет иначе (в докладе NewsWhip, подготовленном до MSI, отмечалось, что истории о жестоком обращении с животными отлично расходятся в решеринге). Но стимулы на платформе кардинально изменились, и не только для издателей новостей.
Эффект был больше, чем просто провоцирование споров между друзьями и родственниками. Как позже сообщит коллегам исследователь Civic Integrity, внедрение MSI в Facebook, похоже, зашло так далеко, что изменило европейскую политику. "Вовлеченность в позитивные и политические посты сильно снизилась, в результате чего партии все больше полагаются на подстрекательские посты и прямые нападки на своих конкурентов", - написал социолог Facebook после опроса политических стратегов о том, как они используют платформу. В Польше партии описывают политический дискурс в Интернете как "социально-гражданскую войну". По оценкам руководства социальных сетей одной из партий, доля их постов изменилась с 50/50 позитивных/негативных до 80 % негативных и 20 % позитивных, что явно связано с изменением алгоритма. Крупные партии обвинили социальные сети в углублении политической поляризации, назвав ситуацию "неустойчивой".
То же самое можно сказать и о партиях в Испании. " Они поняли, что резкие нападки на своих оппонентов приносят наибольшую вовлеченность", - пишет исследователь. "С их точки зрения, они попали в ловушку неизбежного цикла негативной агитации, обусловленного структурой стимулов платформы".
Если Facebook и делал политику более боевой, то не все были этим расстроены. Экстремистские партии с гордостью сообщили исследователю, что они проводят "провокационные стратегии", в рамках которых они "создают конфликтное взаимодействие по вопросам, вызывающим разногласия, таким как иммиграция и национализм".
Чтобы конкурировать, умеренные партии не просто вели более конфронтационную политику. Они занимали и более экстремальные политические позиции. Это был вопрос выживания. "Хотя они признают, что вносят свой вклад в поляризацию, они чувствуют, что у них нет выбора, и просят о помощи", - пишет исследователь.
По словам представителей умеренных партий, Facebook может ослабить давление, оказываемое на пользователей, производящих взрывной контент, отменив изменения в рейтинге, или, по крайней мере, вернув страницы, ориентированные на политику, к старой системе.
Для исследователя это звучало и разумно, и насущно. Он сравнил MSI с подачей пользователям нездоровой пищи: "Ее краткосрочная ценность не стоит долгосрочных затрат. Поэтому мы должны уменьшить стимул для издателей вызывать возмущение у своей аудитории, поскольку это правильно как для нашей миссии, так и для нашего долгосрочного роста". Комментируя эти выводы несколько лет спустя, Facebook заявила, что не считает работу исследователя убедительной.
Более поздние исследования, проведенные в Азии, привели к аналогичному выводу о пагубном влиянии MSI, но ни первоначальная, ни последующие работы не вызвали немедленного расплаты, к которой призывал исследователь. Лишь много позже топ-менеджеры, такие как Гай Розен, ныне руководитель службы безопасности Facebook, внутренне признали, что, хотя распространение контента с целью максимизации MSI было "круто для кошачьих видео", оно было плохим показателем ценности более серьезных тем.
За некоторыми ранними идеями MSI стояли благие намерения, даже честное желание ответить на критику со стороны, что время, проведенное в Facebook, не было потрачено с пользой. Но фактическая метрика, которую создала компания, смешивала благо своих пользователей с бизнес-императивом. Благополучие, которое продвигала Facebook, было ее собственным.
Глава 6
Если Джефф Аллен интуитивно понимал троллей и оппортунистов, которые разлагали новостную ленту Facebook, то это потому, что он сам когда-то был таким наемником.
Аллен вырос в Олате (штат Канзас), элитном пригороде Канзас-Сити, в семье компьютерного инженера, работавшего в технологической среде "Силиконовой прерии" на Среднем Западе. Первый компьютер появился у него в возрасте семи лет. Аллену нравились компьютеры, но он предпочитал играть в видеоигры. Однако родители не так охотно субсидировали это занятие, ограничивая его возможности парой десятков картриджей Nintendo, которые он покупал на деньги, заработанные в качестве кассира в магазине Price Chopper. Он зарабатывал 5,15 доллара в час, но игры стоили около 60 долларов.
Технология решила эту математическую проблему. В середине 1990-х годов один хакер создал первый эмулятор видеоигр - программное обеспечение, позволяющее персональному компьютеру имитировать процессор игровой консоли. Внезапно бутлегированные копии игр стали наводнять файлообменные веб-сайты, уничтожая естественные границы возможностей технически подкованного подростка обладать ими. Боже мой, теперь мне нужны все игры для Super Nintendo, подумал Аллен. Со временем его коллекция выросла до более чем девятисот игр для Nintendo и семисот игр для Super Nintendo. Он загрузил их на сайт Emunation.com, чтобы его друзья тоже могли играть в эти игры.
Если бы не нововведение в Кремниевой долине, школьная карьера Аллена, связанная с нарушением авторских прав, могла бы на этом и закончиться. Но интернет-реклама вот-вот должна была захватить мир. Первое объявление появилось в 1994 году, и стандарты для размещения рекламы были низкими. По настоянию друга , с которым он познакомился в Интернете, Аллен подал заявку в DoubleClick, зарождающийся гигант цифровой рекламы, позже купленный Google. Разрешит ли компания размещать рекламу на его пиратском игровом сайте?
DoubleClick был не против. Аллену нужно было вставить фрагмент кода в HTML своего сайта, и он получал небольшую часть доходов от рекламы, которую DoubleClick размещал на нем. Через несколько недель компания прислала Аллену, которому тогда было пятнадцать лет, чек, который он назвал "моими первыми деньгами в Интернете". Это было столько же, сколько он заработал в Price Chopper за три месяца. К черту таскание продуктов, я занимаюсь Интернетом, подумал Аллен.
Аллен был едва ли не единственным коллекционером видеоигр, которому пришла в голову эта мысль. Emunation.com противостоял десяткам других сайтов с бутлегами игр, и все они боролись за внимание горстки поисковых систем, таких как WebCrawler, AltaVista и Yahoo. Аллена отличало то, что он быстро сообразил, как обмануть.
"Вы можете манипулировать результатами поисковых систем, просто вставляя невидимый белый текст с определенным ключевым словом в конец HTML-строки", - говорит он. "Если вы делали это, а затем ждали два дня, то становились номером один в поисковой выдаче WebCrawler по этому запросу", - сказал он. "Все это выглядело как игра".
Чем больше он обманывал поисковые системы, тем больше денег зарабатывал, и вскоре тысячи долларов стали поступать каждый месяц. В 1997-1999 годах Аллен создал самый успешный, по его мнению, сайт по эмуляции видеоигр в мире.
Праздник закончился, когда незадолго до восемнадцатилетия Аллена в почтовый ящик его родителей попало письмо от американского юрисконсульта Nintendo. Адвокат отметил, что пиратство в тех масштабах, которым способствовал Аллен, является достаточным основанием для обвинения в уголовном преступлении. "Я был такой: "Еще несовершеннолетний! " - сказал Аллен. "Если бы они взяли меня на месяц позже, я бы испугался". Аллен пошёл на поправку, закрыл сайт и поступил в колледж.
За годы, которые потребовались Аллену, чтобы получить степень бакалавра, а затем и доктора физики, компания Google обошла всех своих конкурентов в области поисковых систем, потому что придумала, как сделать жульничество, в котором Аллен преуспел, более сложным. Вместо того чтобы доверять веб-сайтам, точно представляющим их содержимое, Google оценивал , насколько другие веб-сайты доверяют им, используя взаимосвязи открытой сети, чтобы отличить авторитетные источники информации от ловко оптимизированного мусора.
Это новшество было бы не по зубам школьнику Джеффу Аллену, но манипуляции с результатами Google не были невозможны. И Аллен, придя к выводу, что путь к постоянной работе физика долог и безрадостен, снова отправился на поиски "интернет-денег". Вскоре его наняли в компанию About.com, веб-гигант, создававший контент обо всем, что может появиться в результатах поиска, чтобы выяснить, на какие запросы Google следует ориентироваться и как структурировать свой сайт для оптимального размещения в результатах поиска.
На этих играх можно было делать большие деньги, но Google это явно не устраивало. Каждые несколько месяцев поисковая система меняла свой алгоритм ранжирования таким образом, что трафик About.com падал. Чем больше Аллен изучал тактику Google, тем больше впечатлялся. Google начал с того, что выставлял его работодателю штрафы за очевидные признаки проблем с качеством, такие как опечатки, грамматические ошибки и плагиат. Но попытка вычислить ответ на вопрос "Это дерьмо?" стала более изощренной, и Google научился наказывать сайты с избыточным контентом, неглубокими резюме и статьями авторов, на чьи работы больше нигде в интернете не ссылались.
Когда сотрудники Google встречались с коллегами Аллена, те без обиняков объясняли, что их правила были призваны подорвать успех игр, в которые играла About.com. Так же как Аллен искал слабые места в обороне поисковой системы, сотрудники Google искали слабые места в попытках манипулирования About.com, и они их находили. В ответ About.com придумывала новые способы обмануть Google, но это была проигранная битва.
Поскольку Google постепенно перекрывал доступ воздуха к сайту, Аллену и его боссам пришлось задуматься о немыслимом: о производстве более качественного контента. About.com не только стал вкладывать больше средств в свои статьи, но и начал очищать сайт от гор старого мусора, который тянул его позиции в результатах Google вниз. Вместо того чтобы играть с правилами Google, Аллену теперь предстояло их соблюдать. Он начал писать алгоритмы, которые определяли и удаляли самый бессмысленный и неаккуратный контент сайта.
За два года количество опубликованных статей на About.com сократилось с более чем 4 миллионов до 700 тысяч. Оставшийся контент не получил литературных премий, но был, несомненно, более полезным. В ответ на это поисковый трафик Google вернулся.
Переход сайта About.com на качество по требованию Google помог продлить жизнь его бизнеса, но урок, который следует извлечь, заключается не в том, что хороший контент всегда лучше. Просто не стоит связываться с Google.
На других платформах стремление About.com получить просмотры страниц за нежелательный контент не прекращалось. Один из заметных успехов пришел на Facebook, когда About.com понял, что может выгодно покупать рекламу, продвигающую его собственный рекламный контент. В частности, одно из них, слайд-шоу знаменитостей под названием "Стоит ли мне делать стрижку пикси", оказалось золотой жилой при повторном показе - пожилая целевая аудитория не понимала, что дошла до конца, и просто продолжала кликать.
Но Аллен уже не был в About.com, чтобы разделить славу, когда бывший коллега сообщил ему, что сайт обнаружил, как превратить бесконечный цикл гламурных снимков Дамы Джуди Денч и Шарлиз Терон в грузовики с деньгами. К середине 2016 года он устроился на работу в Facebook, где занимался наукой о данных.
Первой задачей Аллена в Facebook было улучшение результатов локального поиска на платформе, что должно было помочь конкурировать с функцией бизнес-поиска Google и Yelp. Но, хотя люди регулярно общались со знакомыми им предприятиями на Facebook, они редко искали новые. "Когда вы вводили реальный локальный поисковый запрос, который реальные люди набирают в реальных поисковых системах, наш локальный поисковик просто падал на землю", - говорит Аллен.
Аллен был уверен, что это проблема, но его начальство поставило эту оценку под сомнение. Если пользователи хотели найти именно те виды местных предприятий, о которых говорил Аллен, то почему эти поисковые запросы не отображались в пользовательских данных компании? По мнению Аллена, налицо был явный подвох. Результаты локального поиска Facebook были отстойными, и они не улучшатся, пока у компании не будет поведенческих данных для их улучшения. Но пользователи не генерировали эти данные, потому что результаты локального поиска Facebook были отстойными.
Решить проблему было бы сложно при любых обстоятельствах, но с учетом скептицизма вышестоящего руководства это было невозможно. Аллен натолкнулся на слепое пятно Facebook - на глубокую уверенность компании в том, что горы поведенческих данных показывают, чего хотят пользователи от ее платформы, а не просто их реакцию на ограниченный выбор, который им предоставлялся.
К 2018 году Аллену стало скучно, и он перешел в команду Facebook по ранжированию страниц. Предполагалось, что он не будет заниматься честностью как таковой, но Аллен сразу увидел проблему: самыми успешными издателями политического контента в Facebook были иностранные контент-фермы, размещавшие абсолютный мусор, по сравнению с которым старый SEO-шник About.com выглядел так, будто ему место в New Yorker.
Аллен был не первым сотрудником, заметившим проблему качества. Эти страницы были порождением издателей фальшивых новостей, с которыми Facebook боролся после выборов 2016 года. В то время как проверки фактов и другие меры по борьбе с ними значительно затруднили распространение откровенных мистификаций, издатели перегруппировались. Некоторые из тех, о ком BuzzFeed писал в 2016 году, - подростки из небольшого македонского горного городка Велес - снова были в игре. Как дети из страны с ВВП на душу населения в 5800 долларов манипулировали системой распространения новостей Facebook?
У Аллена был готовый ответ на этот вопрос. Ему не нужно было садиться на рейс, чтобы точно знать, кто сидит за компьютерами: славянин Джефф Аллен школьного возраста.
Все выстроилось в ряд. Двумя десятилетиями ранее Yahoo и ей подобные не смогли понять, как такие отщепенцы, как Аллен, методом проб и ошибок доберутся до приблизительного понимания алгоритмов, а затем используют эти знания, чтобы сломать их ради прибыли. Поисковые системы так и не смогли оправиться.
Facebook совершила ту же ошибку, недооценив угрозу со стороны нигилистически настроенных, но технически подкованных подростков вдали от Кремниевой долины. Аллен почти восхищался ими.
"Когда я увидел фермы троллей, я не стал их винить", - говорит Аллен. "Я сказал: "Да, братцы, зарабатывайте! Если бы мне было семнадцать, я бы был с вами на все 100 процентов". "
Но Аллену уже не было семнадцати. У него был более развитый моральный компас. И, при всем уважении к закону об авторском праве, вред от коммерциализации социальной и политической дезинформации в массовом масштабе был гораздо больше, чем от того, что он разозлил юристов Nintendo.
Опыт Аллена подсказывал ему, что дальше будет только хуже. Людям вроде него потребовалось время, чтобы понять, как играть с поисковыми системами, но как только секреты были раскрыты, эти знания распространились как вирус. Не нужно было быть элитным кибернетическим оперативником или вундеркиндом в социальных сетях. Как только коды были взломаны, любой мог их скопировать.
К тому времени, когда Аллен перешел в команду Pages Facebook, сотрудники, занимавшиеся рейтингом ленты новостей и расследовавшие российскую пропаганду после выборов, определили частую тактику ее роста: реклама.
Рекламная система Facebook позволяла компаниям выбирать, чего они хотят добиться. Coca-Cola может хотеть, чтобы ее бренд увидела огромная аудитория, и не более того. Группа может захотеть, чтобы пользователи посещали ее сайт и подписывались на электронные письма о предстоящих концертах. Компания по производству матрасов может захотеть заплатить Facebook только за внимание пользователей, которые в итоге совершили покупку. Чтобы помочь компаниям достичь этих разных целей, Facebook позволил рекламодателям выбирать, за что они будут платить: за показы, за клики или за подтвержденные продажи.
Кроме того, существовала реклама Page Like - та, которую русские использовали с большим успехом. Их инвестиции в размере 100 000 долларов, приобретенные так называемым Агентством интернет-исследований, позволили им развивать свои страницы такими темпами, с которыми органический рост никогда не смог бы сравниться. "ИРА использовало Facebook так, как оно и должно было использоваться", - вспоминает один из сотрудников Facebook, занимавшийся послевыборной экспертизой. Покупка рекламы решила проблему "холодного старта", дав русским начальную аудиторию, которую они могли взрастить до гигантских размеров.
Объявления типа "Страница" вряд ли были краеугольным камнем бизнеса Facebook - на них приходился ничтожный процент выручки компании. Но они стали основополагающим инструментом для запуска не только российского вмешательства в выборы, но и бесчисленных других схем манипулирования.
Так почему бы, задался вопросом Аллен, не перестать продавать бензин поджигателям?
Его команда попыталась сделать это годом ранее, предложив либо ограничить показ рекламы, либо полностью отказаться от нее. Предсказуемо, что против этой идеи выступили две основные группы - команда, которой платили за продажу рекламы, и команда, которой платили за то, чтобы страницы росли. Идея так и не получила серьезного рассмотрения и к моменту прихода Аллена в команду в 2018 году была снята с рассмотрения.
Аллен достиг того, что стало ритуалом перехода для добросовестных сотрудников: осознания того, что под давлением бизнеса самое простое и прямое решение проблемы оказалось не у дел. Некоторые из его более искренних коллег с трудом преодолевали это деморализующее препятствие, но вся карьера Аллена была построена на поиске путей обхода созданных ограничений. Не имея возможности атаковать недобросовестные страницы на ранних стадиях роста, он начал изучать другие способы, с помощью которых они обыгрывали Facebook.
Аллену нужно было учиться у мастеров - издателей, которые ничего не знали об американской аудитории, ничего не тратили на контент и тем не менее преуспели на Facebook. Другими словами, ему нужно было учиться у македонцев.
Просматривая страницы ферм троллей, он заметил, что их посты обычно становятся вирусными. Это было странно. Конкуренция за место в ленте новостей пользователей означала, что большинство страниц не могли надежно донести свои сообщения даже до тех людей, которые сознательно решили за ними следить. Но с помощью репостов и алгоритмов "Ленты новостей" македонские тролль-фермы регулярно достигали огромных аудиторий. Если вирусность поста означала джекпот внимания, то македонцы выигрывали каждый раз, когда ставили баксы в игровой автомат Facebook.
Причина, по которой контент македонцев был так хорош, заключалась в том, что он не был их собственным. Практически каждый пост был либо агрегирован, либо украден откуда-то еще в Интернете. Обычно такие материалы брались с Reddit или Twitter, но македонцы просто сдирали контент с других страниц Facebook и перепощивали его для своей гораздо большей аудитории. Это срабатывало потому, что в Facebook оригинальность не была преимуществом, она была обузой. Даже для талантливых создателей контента большинство постов оказывались неудачными. Но то, что уже стало вирусным, почти всегда становилось таковым снова.
Македонцы обманывали Facebook с помощью вырезанного и вставленного контента точно так же, как Аллен обманывал WebCrawler, вставляя невидимые ключевые слова в HTML своего сайта. И, как и он, они получали деньги за рекламу, направляя свою аудиторию на контент-фермы или получая выплаты по программе разделения доходов Facebook для крупных издателей на платформе. Но у македонцев был и третий, более зловещий способ зарабатывать деньги в Интернете. Они могли продавать свои большие страницы покупателям с неизвестными намерениями.
Аллен начал заметку о проблеме с лета 2018 года с напоминания. " Миссия Facebook заключается в том, чтобы дать людям возможность создавать сообщества. Это хорошая миссия", - написал он, прежде чем утверждать, что поведение, которое он описывает, эксплуатирует попытки сделать это. В качестве примера Аллен привел реальное сообщество - группу, известную как Национальный конгресс американских индейцев. У группы были четкие лидеры, она выпускала оригинальные программы и проводила автономные мероприятия для коренных американцев. Но, несмотря на искренние усилия NCAI, у нее было гораздо меньше поклонников, чем у страницы под названием "Native American Proub" [sic], которая велась из Вьетнама. Неизвестные администраторы страницы использовали переработанный контент для продвижения сайта, на котором продавались футболки.
"Они эксплуатируют коренное американское сообщество", - написал Аллен, утверждая, что, даже если бы пользователям нравился контент, они бы никогда не решили следить за страницей гордости коренных американцев, которая тайно управляется из Вьетнама. В качестве доказательства он приложил приложение с реакцией пользователей, которые поумнели. "Если вы хотите прочитать 300 отзывов от реальных пользователей, которые очень расстроены страницами, эксплуатирующими коренное американское сообщество, вот подборка отзывов с 1 звездой на страницах "Сообщество" и "СМИ" коренных американцев", - заключил он.
Это не было проблемой ниши. Это все больше становилось стандартным состоянием страниц в каждом сообществе. Шесть из десяти лучших страниц с черной тематикой, включая страницу номер один "My Baby Daddy Ain't Shit", были фермами троллей. Четырнадцать лучших англоязычных страниц христианской и мусульманской тематики были нелегитимными. Группа тролль-ферм, распространяющих евангелический контент, имела совокупную аудиторию в двадцать раз больше, чем самая большая аутентичная страница.
" Это ненормально. Это нездорово. Мы дали возможность неаутентичным актерам накапливать огромные аудитории для непонятных целей", - написал Аллен в более поздней заметке. "В основном, похоже, они хотят быстро заработать на своей аудитории. Но есть признаки того, что они были в контакте с ИРА".
Насколько серьезной была проблема? Выборка издателей Facebook со значительной аудиторией показала, что 40 процентов из них использовали контент, который был либо украден, либо агрегирован, либо "раскручен" - то есть изменен незначительным образом. То же самое можно сказать и о видеоконтенте Facebook. Один из коллег Аллена обнаружил, что 60 % просмотров видео приходится на агрегаторы.
Эта тактика была настолько известна, что на YouTube люди собирали обучающие видеоролики о том, как за несколько недель стать лучшим издателем Facebook. "Я беру видео с YouTube и загружаю их на Facebook", - сказал один парень в видео, которое задокументировал Аллен, отметив, что нет необходимости делать эту работу самостоятельно. "Вы можете заплатить 20 долларов на Fiverr за компиляцию - "Эй, просто найдите мне смешные видео про собак и соедините их в компилятивное видео". "
Вот черт, подумал Аллен. Facebook проигрывает в поздних стадиях игры, в которую он даже не понимает, что играет. Он назвал набор выигрышных тактик "изготовленной виральностью".
" Какой самый простой (не требующий больших усилий) способ сделать большую страницу в Facebook?" написал Аллен во внутренней слайд-презентации. "Шаг 1: Найдите существующее сообщество [Facebook]. Шаг 2: соскрести/собрать контент, популярный в этом сообществе. Шаг 3: Сделать репост самого популярного контента на свою страницу".
К счастью, отметил Аллен, эту тактику легко обнаружить. На страницах "мусорных" издательств постоянно отсутствовали имена авторов или даже контактная информация, а их контент становился вирусным слишком предсказуемо, как игрок в рулетку, выигрывающий на каждом вращении колеса. Вдобавок ко всему, у Facebook уже имелись системы, позволяющие снимать отпечатки пальцев и отмечать отдельные фрагменты контента - они использовались, например, для автоматической блокировки изображений сексуального насилия над детьми в момент их загрузки.
Если Facebook не может закрыть владельцев мусорных страниц, добавил он, это может значительно усложнить их работу. " Мы должны удалить с нашей платформы контент, который эксплуатирует сообщества, или лишить нас всякой мотивации размещать его на нашей платформе, потому что он противоречит нашей миссии", - написал Аллен коллегам летом 2018 года.
Исследование Аллена вызвало дискуссию. То, что главная страница для американских ветеранов Вьетнама управлялась из-за границы - из Вьетнама, не меньше - было просто позорно. И если бы Аллен и его коллеги смогли разработать способы систематического подавления ферм мусорного контента - материала, который вряд ли превозносился кем-то из команды Facebook, - то добиться одобрения руководства стало бы реальной возможностью, в отличие от отказа от рекламы Page Like, который не был принят из-за того, что отторгал определенные внутренние группы.
Именно здесь Аллен столкнулся с ключевым принципом Facebook - "Предполагать добрые намерения". Этот принцип применялся к коллегам, но он должен был быть в равной степени применим и к миллиардам пользователей Facebook. Помимо того, что это была приятная мысль, она была в целом верной. Подавляющее большинство людей, пользующихся Facebook, делают это ради общения, развлечения и отвлечения внимания, а не для того, чтобы обманывать или мошенничать. Но, как Аллен знал на собственном опыте, этот девиз вряд ли можно считать исчерпывающим руководством к действию, особенно когда речь идет о деньгах.
AltaVista, WebCrawler и другие поисковые системы, которые Аллен обманул, потерпели неудачу, потому что не были готовы к тому, что сайты могут обманным путем пробиться на вершину. Google добился успеха, потому что его основатели поняли, что намерениям молодого Джеффа Аллена и таких организаций, как About.com, нельзя доверять.
"Меня всегда раздражало, когда Цукерберг говорил, что злоупотребление Facebook невозможно предсказать, что он не может видеть будущее из комнаты общежития Гарварда", - говорит Аллен. "А вот из гаража в Пало-Альто будущее выглядело вполне очевидным".
Дорога в нынешний ад Facebook была вымощена благими намерениями. Аллен вряд ли мог отменить строчку из руководства для сотрудников компании, но он мог хотя бы попытаться научить своих коллег на личном опыте.
Он собрал слайд-колоду под названием "Исповедь SEO-отморозка", используя отраслевой акроним "поисковая оптимизация". Чтобы разрушить Facebook, не обязательно быть русским оперативником, отметил Аллен . Достаточно быть немного нигилистом и иметь вкус к тому, что шестнадцатилетний Джефф Аллен называл "интернет-деньгами".
Нацеливание на конкретные страницы таких паразитов, как он, могло бы дать временную передышку, но единственный правдоподобный способ победить их требовал вещества. Обойти это было невозможно. Facebook предстояло решить проблему качества.
"Последние девять месяцев я изучал и исследовал существующие веб-платформы и историю медиа за последние 150 лет", - написал Аллен в своей презентации. "Мы владеем платформой. Мы играем в игры на наших условиях".
С помощью другого исследователя данных Аллен зафиксировал характерные черты, присущие издателям дерьма. Они агрегировали контент. Они слишком часто становились вирусными. Они часто размещали приманку для вовлечения. И они полагались на репосты от случайных пользователей, а не на выращивание преданной долгосрочной аудитории.
Ни одна из этих черт сама по себе не заслуживала сурового наказания. Но вместе они складываются в нечто ужасающее. Проверка на наличие этих признаков в 2019 году выявила 33 000 организаций - всего 0,175 процента всех страниц, - которые получали целых 25 процентов всех просмотров страниц Facebook. Практически ни одна из них не была "управляемой", то есть контролируемой организациями, которые команда Facebook по партнерству считала надежными профессионалами в области СМИ, и на них приходилось всего 0,14 процента доходов Facebook. Если Facebook хотела поощрять хороших издателей - организации с авторитетными владельцами, которые вкладывают деньги в производство собственного контента, - ей нужно было дискриминировать тех, кто играл на платформе, чтобы создать вирусность. Аллен был уверен, что такой подход сработает: он был очень похож на тактику Google, которая заставила About.com навести порядок.
Это был убедительный аргумент, но продать его было непросто: Facebook, и в особенности Цукерберг, меньше всего хотели заниматься вопросами качества.
-
Десять лет и десятки тысяч враждебных статей назад Facebook был источником надежды для журналистского бизнеса. Стратеги в редакциях по всей Америке представляли графики растущих цифровых рекламных долларов, компенсирующих падающие доходы от печатной рекламы и подписки, и обещали ускорить день, когда эти линии сойдутся. Хотя для большинства изданий компенсировать потерянные подписные доллары за счет копеек от цифровой рекламы было проблематично, трафик из Facebook был похож на джекпот. Когда материал попадал на платформу, он мог легко заработать в десять или сто раз больше просмотров, чем в противном случае.
Как раз в тот момент, когда цифровые агентства начали по-настоящему копать золото трафика в социальных сетях, Брэндон Сильверман случайно занялся продажей лопат.
Сильверман был прогрессистом, увлеченным цифровой организацией. В 2011 году он стал соучредителем компании CrowdTangle, целью которой было помочь некоммерческим организациям и левым политическим группам разрабатывать и управлять кампаниями по активизации в Интернете. Продукт потерпел неудачу на целевом рынке, но он оказался необычайно хорош в отслеживании событий на таких платформах, как Facebook и Twitter. Если вы хотели узнать, когда тема начала привлекать необычный трафик, или заметить пост в начале кривой вирусного роста, CrowdTangle мог это сделать. Способность работать в качестве "нюхача" вирусности была очень ценной функцией на заре экономики внимания, когда маркетинговые агентства были вынуждены помогать своим клиентам генерировать шумиху в социальных сетях и отслеживать упоминания о них.
Сильверман наткнулся на золотую жилу, и только одно стояло между ним и прибыльной карьерой в области мониторинга корпоративных брендов: он считал это глубоко неубедительным. Однажды вечером я пришел домой и сказал жене: "Если эта штука будет инструментом социальной аналитики, ты должна выстрелить мне в голову", - сказал он.
Менее прибыльным, но более привлекательным для Сильвермана вариантом было сотрудничество с новостными издательствами. Даже самые заурядные новостные издания начали интересоваться тем, что происходит в социальных сетях, и новая плеяда "цифровых" издателей, таких как BuzzFeed и Upworthy, вырвалась вперед.
Две бизнес-модели - консультирование брендов и новостных организаций - сосуществовали в рамках CrowdTangle до 2014 года, когда Сильверман ехал из своего дома в Вашингтоне в Нью-Йорк, чтобы провести демонстрацию инструмента для маркетинговой команды Pfizer. Пока он ехал по адресу на Amtrak, коллега сообщил ему, что NPR также хочет провести демонстрацию в своей штаб-квартире в Вашингтоне, и они были свободны в тот же день. "С одной стороны, это потенциально миллионы долларов от Pfizer, - сказал он. "С другой стороны, это был NPR". Он сошел с поезда на следующей остановке и отправился обратно в Вашингтон.
Способность CrowdTangle находить и отслеживать вирусный контент в социальных сетях сделала компанию слишком очевидной целью для приобретения. Когда Сильверман продемонстрировал инструмент газете New York Times, первый вопрос, заданный сотрудниками отдела цифровых технологий газеты, был о том, как скоро Facebook купит его компанию.
Facebook уже был энтузиастом, как и YouTube, Reddit и Twitter. Можно было бы подумать, что эти компании заинтересованы в инструменте, чтобы узнать, чем занимаются их конкуренты, но оказалось, что зачастую они с таким же удовольствием используют CrowdTangle для отслеживания работы различных издателей на своих собственных платформах. Это показалось Сильверману немного нелепым. Крупнейшие компании социальных сетей платили CrowdTangle за доступ к тем же данным, которые они предоставляли его компании бесплатно.
Сильверман продавал не данные, а их понятность. В каждой компании были команды партнеров - люди, отвечающие за связь со СМИ, знаменитостями и спортивными лигами, - которым нужно было отвечать на вопросы о том, какой контент лучше, когда и в каком количестве размещать и почему те или иные материалы стали вирусными. Но компании, в которых они работали, никогда не создавали простых внутренних инструментов для решения этих задач.
"Это была эпоха больших данных", - говорит Сильверман. "Платформы создавали непонятные приборные панели с графиками объемов и иголками, но людям, с которыми мы работали, нужен был просто контент с четкими цифрами".
Между CrowdTangle и Facebook было несколько заигрываний, но ничего серьезного, пока в 2016 году Цукерберг и Сэндберг не отправились в Солнечную долину, штат Айдахо, на ежегодную конференцию Allen & Co. по медиа, развлечениям и технологиям, где выступал медиамагнат Руперт Мердок.
"Всю сессию Руперт просто разглагольствовал о Facebook и о том, почему они являются раковой опухолью для новостной индустрии", - сказал Сильверман, который не присутствовал на мероприятии, но много слышал о нем от других участников. "И я думаю, что было много кивков и одобрения".
В частном порядке Мердок и Роберт Томсон, генеральный директор принадлежащей Мердоку компании News Corp, приняли Цукерберга на своей вилле в Солнечной долине, чтобы выступить с гораздо более прямым предупреждением: если Facebook не начнет сотрудничать с новостной индустрией, News Corp станет заклятым врагом, оказывая давление на компанию на разных континентах.
Угроза встревожила Цукерберга. Facebook не собирался злить газеты, но и друзей у него было не так уж много. В период паранойи по поводу конкуренции с Twitter в начале подросткового периода Facebook наводнил свою платформу новостным контентом - благо для издателей, которые изо всех сил пытались заставить цифровую журналистику работать. Издатели вложили значительные средства в платформу, но поняли, что, как только конкурентные опасения Facebook ослабли, трафик стал непостоянным. В один месяц издание могло праздновать получение 30 миллионов просмотров с помощью трафика Facebook, а в следующий - увидеть, что его количество сократилось вдвое. Facebook не задумывался о том, что разозление новостных организаций может нанести ущерб его репутации.
Чтобы попытаться исправить ситуацию, Facebook нанял Кэмпбелла Брауна, известного тележурналиста, для руководства новой командой, которая будет заниматься дипломатией СМИ и создавать инструменты, способные сделать Facebook более надежным партнером. Была и другая часть плана: Facebook должен был купить компанию CrowdTangle.