@importknig

Перевод этой книги подготовлен сообществом "Книжный импорт".

Каждые несколько дней в нём выходят любительские переводы новых зарубежных книг в жанре non-fiction, которые скорее всего никогда не будут официально изданы в России.

Все переводы распространяются бесплатно и в ознакомительных целях среди подписчиков сообщества.

Подпишитесь на нас в Telegram: https://t.me/importknig

Джефф Хорвиц «Сломанный код. Внутри Facebook и борьба за раскрытие его вредных секретов»

Оглавление

Глава 1

Глава 2

Глава 3

Глава 4

Глава 5

Глава 6

Глава 7

Глава 8

Глава 9

Глава 10

Глава 11

Глава 12

Глава 13

Глава 14

Глава 15

Глава 16

Глава 17

Глава 18

Глава 19


Глава 1

Возвращение Артуро Бехара в кампус Facebook в Менло-Парке в 2019 году было похоже на возвращение домой. Кампус был больше, чем когда он уезжал в 2015 году - штат сотрудников Facebook удваивался каждые полтора года, - но атмосфера почти не изменилась. Инженеры ездили между зданиями на фирменных велосипедах, бегали круги по полумильной дорожке через сады на крышах и встречались в закутках кафе, которые придавали зевающим офисам Facebook человеческий масштаб.

Бежар вернулся, потому что подозревал, что что-то в Facebook зашло в тупик. В первые годы своего отсутствия в компании, когда плохая пресса обрушивалась на нее, а затем накапливалась, как вода в яме, он верил, что Facebook решает проблемы, связанные с ее продуктами, как может. Но он начал замечать вещи, которые казались неправильными, детали, которые создавали впечатление, что компании наплевать на то, что испытывают ее пользователи.

Бежар не мог поверить, что это правда. Подходя к пятидесяти, он считал шесть лет работы в Facebook кульминационным моментом в карьере технолога, которую можно было назвать только очаровательной. В середине 1980-х годов он был подростком из Мехико, писавшим компьютерные игры для себя, когда случайно познакомился с соучредителем Apple Стивом Возняком, который брал уроки испанского в Мексике.

После того как Возняк провел лето в компании звездного гида-подростка, он оставил Бежару компьютер Apple и билет на самолет, чтобы тот приехал в Кремниевую долину. Они поддерживали связь, и Возняк оплатил Бежару обучение в Лондоне по специальности "информатика".

"Просто делай что-то хорошее для людей, когда можешь", - сказал ему Возняк.

Успех последовал за ним. После работы над перспективным, но обреченным на провал киберсообществом в 1990-х годах Бежар провел более десяти лет в качестве "главного параноика" в некогда легендарном подразделении безопасности Yahoo. Марк Цукерберг нанял его в качестве директора по инженерным вопросам Facebook в 2009 году после собеседования, проведенного на кухне генерального директора.

Хотя Бежар специализировался на безопасности, он понял, что защита пользователей Facebook означает нечто большее, чем просто ограждение от преступников. В Facebook все еще оставались плохие парни, но инженерная работа, которую требовал Facebook, была в равной степени как социальной динамикой, так и кодом.

В начале своей работы Шерил Сэндберг, главный операционный директор Facebook, попросила Бежара разобраться с резко возросшим количеством сообщений пользователей об обнаженной натуре. Его команда проанализировала сообщения и убедилась, что они в подавляющем большинстве случаев были ложными. На самом деле пользователи сталкивались с нелестными фотографиями себя, размещенными друзьями, и пытались удалить их, сообщая, что это порнография. Простое указание пользователям вырезать это не помогло. Зато появилась возможность сообщить о том, что фотография не нравится, описать свои ощущения, а затем попросить поделиться этими ощущениями с другом в частном порядке.

По словам Бежара, количество сообщений о наготе сократилось примерно вдвое.

Несколько таких успехов привели Бежара к созданию команды под названием Protect and Care. Эта работа, ставшая испытательным полигоном для усилий по предотвращению неприятных ситуаций в Интернете, поощрению гражданского взаимодействия и помощи пользователям, подверженным риску самоубийства, казалась одновременно новаторской и важной. Единственной причиной ухода Бежара из компании в 2015 году стало то, что он находился в процессе развода и хотел проводить больше времени со своими детьми.

Хотя к тому времени, когда в компании начались скандалы после выборов 2016 года, он уже не работал в Facebook, за шесть лет работы там Бежар усвоил принцип, давно закрепленный в официальном кодексе поведения компании: "исходить из добрых намерений". Когда друзья спрашивали его о фальшивых новостях, иностранном вмешательстве в выборы или похищенных данных, Бежар заступался за своего бывшего работодателя. "Руководство совершало ошибки, , но, получив информацию, они всегда поступали правильно", - говорил он.

Но, по правде говоря, Бежар не так уж часто думал о проблемах Facebook. Придя в компанию за три года до IPO, деньги его не волновали, и Бежар был занят фотографией природы, серией совместных работ с композитором Филипом Глассом и реставрацией автомобилей вместе со своей дочерью Джоанной, которая в свои четырнадцать лет еще не была достаточно взрослой, чтобы водить машину. Она документировала их работу по восстановлению Porsche 914 - модели 1970-х годов, которую называли эстетикой коробки для пиццы, - в Instagram, который Facebook купил в 2012 году.

Аккаунт Джоанны стал в меру успешным, и вот тут-то все и пошло наперекосяк. Большинство ее подписчиков были в восторге от того, что девушка занимается восстановлением автомобилей, но некоторые проявляли откровенное женоненавистничество, как, например, парень, который сказал Джоанне, что она привлекает внимание "только потому, что у тебя сиськи".

"Пожалуйста, не говорите о моих несовершеннолетних сиськах", - ответила Джоанна Бежар и сообщила о комментарии в Instagram. Через несколько дней Instagram уведомил ее, что платформа рассмотрела комментарий мужчины. Он не нарушал стандартов сообщества.

Бежар, разработавший предшественницу системы информирования пользователей, которая только что отмахнулась от сексуальных домогательств его дочери, сказал ей, что это решение было случайным. Но несколько месяцев спустя Джоанна рассказала Бежару, что один парень из средней школы в соседнем городе прислал ей фотографию своего пениса через прямое сообщение в Instagram. Большинство друзей Джоанны уже получали подобные фотографии, сказала она отцу, и все они просто старались не обращать на них внимания.

Бежар был потрясен. Подростки, выставляющие себя напоказ незнакомым девушкам, были отморозками, но они, надо полагать, не вынимали свои члены, когда проходили мимо девушки на школьной парковке или в проходе круглосуточного магазина. Почему Instagram стал местом, где было принято, что эти парни иногда делают это - или что молодые женщины, такие как его дочь, должны были отмахнуться от этого?

Старая команда Бежара по защите и заботе была переименована и перетасована после его ухода, но он по-прежнему знал многих людей в Facebook. Когда он начал засыпать своих старых коллег вопросами об опыте молодых пользователей в Instagram, они ответили ему предложением о заключении консультационного соглашения. Возможно, он сможет помочь в решении некоторых вопросов, которые его волновали, подумал Бежар, или, по крайней мере, ответить на свои собственные вопросы.

Так Артуро Бежар оказался в кампусе Facebook. Жадный и очень оживленный - реакция Бехара на изучение чего-то нового и интересного представляет собой жест, призванный вызвать взрыв головы, - он получил необычный доступ благодаря легкому знакомству с самыми высокопоставленными руководителями Facebook. Назвав себя "вольным мексиканцем", он начал изучать внутренние исследования и назначать встречи, чтобы обсудить, как платформы компании могут лучше поддерживать своих пользователей.

За прошедшие четыре года настроение в компании, безусловно, испортилось. Однако, как обнаружил Бежар, все сотрудники Facebook были такими же умными, дружелюбными и трудолюбивыми, как и раньше, даже если никто больше не считал социальные сети чистой выгодой. Штаб-квартира компании с ее бесплатной прачечной, едой на заказ, тренажерным залом, местами отдыха и медицинскими учреждениями оставалась одним из лучших мест для работы в мире. Бежар чувствовал, что рад вернуться.

Эта ностальгия, вероятно, объясняет, почему ему потребовалось несколько месяцев, чтобы проверить то, что он считает своим самым значимым вкладом в Facebook, - переделку системы сообщений о неудачном опыте пользователей.

Это был тот же самый импульс, который заставил его не назначать встречи с некоторыми из своих старых коллег из команды "Защита и забота". "Думаю, я не хотел ничего знать", - сказал он.

Бежар был дома, когда наконец поднял старую систему своей команды. Тщательно выверенные подсказки, которые он и его коллеги составили - просили пользователей поделиться своими проблемами, понять правила Facebook и конструктивно урегулировать разногласия, - исчезли. Вместо этого Facebook теперь требовал, чтобы люди заявляли о конкретном нарушении правил платформы, проходя через целую цепь всплывающих окон. Пользователи, решившиеся пройти этот путь, попадали на последний экран, где им требовалось подтвердить свое желание отправить сообщение на . Если они просто нажимали кнопку "готово", которая по умолчанию отображалась ярко-синим цветом, система архивировала их жалобу, не отправляя ее на рассмотрение модератору.

Бежар не знал, что за шесть месяцев до этого команда переработала систему отчетов Facebook с конкретной целью сократить количество завершенных пользовательских отчетов, чтобы Facebook не пришлось с ними возиться, высвободив ресурсы, которые в противном случае можно было бы направить на обучение системы модерации контента, управляемой искусственным интеллектом. В служебной записке, посвященной усилиям по сдерживанию расходов на модерацию разжигания ненависти, один из руководителей признал, что Facebook, возможно, перестаралась в своих усилиях по пресечению потока пользовательских сообщений: "Возможно, мы завели иглу слишком далеко", - написал он, предположив, что, возможно, компания не хочет подавлять их так тщательно.

Позже компания заявила, что пыталась улучшить качество отчетов, а не подавить их. Но Бежару не нужно было видеть эту записку, чтобы распознать недобросовестность. Достаточно было увидеть веселую синюю кнопку. Он положил телефон, ошеломленный. Facebook должен был работать не так. Как может платформа заботиться о своих пользователях, если ей недостаточно внимания, чтобы прислушаться к тому, что их расстраивает?

В этом было высокомерие, предположение, что алгоритмам Facebook даже не нужно слышать о том, что испытывают пользователи, чтобы понять, чего они хотят. И даже если обычные пользователи не могли видеть это так, как Бежар, в конце концов они получили бы сообщение. Такие люди, как его дочь и ее друзья, несколько раз сообщали об ужасных вещах, прежде чем поняли, что Facebook это не интересует. Тогда они перестанут.

Когда Бежар в очередной раз вошел в кампус Facebook, его по-прежнему окружали умные, искренние люди. Он не мог представить, что кто-то из них решил переделать функции отчетности Facebook с целью обмануть пользователей и заставить их выбросить свои жалобы в мусорную корзину; но, очевидно, они это сделали.

"После этого мне потребовалось несколько месяцев, чтобы разобраться в правильном вопросе", - говорит Бежар. "Что сделало Facebook местом, где подобные усилия естественным образом смываются, а люди ломаются?"

-

Не зная Бежара, многие сотрудники Facebook задавались подобными вопросами. По мере того как социальная сеть все больше и больше подвергалась тщательному изучению извне и изнутри, в Facebook появился постоянно расширяющийся штат сотрудников, занимающихся изучением и устранением множества проблем, оказавшихся в центре внимания.

Эти усилия, в широком смысле называемые работой по обеспечению добросовестности, вышли далеко за рамки обычного модерирования контента. Для диагностики и устранения проблем социальных сетей требовались не только инженеры и специалисты по обработке данных, но и аналитики, экономисты и антропологи. Этот новый класс технических работников оказался в состоянии противостоять не только внешним противникам, решившим использовать социальные сети в своих целях, но и убежденности высшего руководства в том, что использование Facebook - это абсолютное благо. Когда в одноименной социальной сети компании происходили отвратительные вещи, эти руководители указывали пальцем на недостатки человечества.

У сотрудников, ответственных за решение проблем Facebook, не было такой роскоши. Их работа требовала понимания того, как Facebook может искажать поведение своих пользователей - и как оно иногда "оптимизируется" таким образом, чтобы предсказуемо нанести вред. Добросовестные сотрудники Facebook стали хранителями знаний, о существовании которых внешний мир не подозревал, а начальство отказывалось верить.

Пока небольшая армия исследователей с докторскими степенями в области науки о данных, поведенческой экономики и машинного обучения выясняла, как их работодатель изменяет человеческое взаимодействие, я был занят решением куда более простых вопросов о том, как работает Facebook. Я недавно переехал на Западное побережье, чтобы освещать деятельность Facebook в Wall Street Journal, и эта работа была связана с неприятной необходимостью притворяться, что я авторитетно пишу о компании, которую не понимаю.

И все же у меня была причина, по которой я хотел заниматься социальными сетями. После четырех лет журналистских расследований в Вашингтоне работа по обеспечению политической ответственности, которой я занимался, казалась мне бессмысленной. В новостной экосистеме теперь доминировали социальные сети, и истории не получали распространения, если они не апеллировали к онлайн-партизанам. Было так много плохой информации, распространяемой вирусами, но проверки фактов, которые я писал, казались не столько корректирующими мерами, сколько слабой попыткой оседлать хвост дерьма.

Освещение Facebook было, таким образом, капитуляцией. Система обмена информацией и достижения консенсуса, частью которой я являлся, была на последнем издыхании, поэтому я мог бы получать деньги за то, чтобы писать о том, что придет ей на смену.

Удивительно, как трудно было разобраться даже в основах. Публичные объяснения Facebook алгоритма Ленты новостей - кода, который определял, какие посты появляются перед миллиардами пользователей, - опирались на фразы вроде "Мы соединяем вас с теми, кто и что важнее всего". (Позже я узнал, что у компании была причина, по которой она умолчала о деталях: фокус-группы пришли к выводу, что подробные объяснения "Ленты новостей" оставляют пользователей в замешательстве и тревоге - чем больше люди думали о передаче "кто и что важнее всего" Facebook, тем менее комфортно они себя чувствовали).

В знак признания своей огромной власти и влияния на общество в 2017 году компания создала блог Hard Questions, заявив в своем первом сообщении, что "серьезно относится к нашей ответственности и подотчетности за наше воздействие и влияние". Но Hard Questions никогда не вдавался в подробности, и после нескольких изнурительных лет общественного контроля от него тихо отказались.

К тому времени, когда я начал освещать деятельность Facebook, нежелание компании отвечать на вопросы репортеров тоже возросло. Пресс-служба Facebook - щедрая команда из почти четырехсот сотрудников - имела репутацию дружелюбной, профессиональной и нежелающей отвечать на вопросы. У меня было много знакомых пиарщиков, но никто не хотел рассказывать мне, как работают рекомендации Facebook "Люди, которых вы можете знать", какие сигналы отправляют спорные посты в вирусное распространение или что имела в виду компания, когда заявляла, что ввела чрезвычайные меры безопасности пользователей на фоне этнических чисток в Мьянме. Рекомендации по контенту платформы определяют, какие шутки, новости и сплетни становятся вирусными по всему миру. Как она могла стать таким "черным ящиком"?

Возникшее разочарование объясняет, как я стал поклонником всех, кто хоть немного знаком с механикой Facebook. Бывшие сотрудники, согласившиеся поговорить со мной, с самого начала говорили тревожные вещи. Автоматизированные системы принуждения Facebook были совершенно неспособны работать так, как было заявлено. Усилия, направленные на стимулирование роста, непреднамеренно вознаграждали политическую фанатичность. И компания знала гораздо больше о негативных последствиях использования социальных сетей, чем утверждала.

Это был дикий материал, гораздо более убедительный, чем постоянные обвинения в том, что платформа несправедливо цензурирует сообщения или благоволит президенту Трампу. Но мои источники из бывших сотрудников Facebook не могли предложить много доказательств. Уходя из компании, они оставляли свою работу за стенами Facebook.

Я сделал все возможное, чтобы привлечь нынешних сотрудников в качестве источников информации, отправив сотни записок, суть которых сводилась к двум вопросам: Как на самом деле работает компания, в руках которой находятся миллиарды людей? И почему так часто кажется, что это не так?

Другие репортеры, конечно, тоже делали подобные версии. И время от времени мы получали отрывочные документы, указывающие на то, что возможностей и проблем у Facebook больше, чем он сам о себе заявляет. Мне посчастливилось быть там, когда поток информации превратился в поток.

Через несколько недель после выборов 2020 года Фрэнсис Хауген, менеджер по продуктам среднего звена в команде Facebook по обеспечению гражданской целостности, ответила на одно из моих сообщений в LinkedIn. По ее словам, людям нужно было понять, что происходит в Facebook, и она сделала несколько заметок, которые, по ее мнению, могут быть полезны для объяснения.

Хауген нервничал, не решаясь сказать что-то еще через LinkedIn или по телефону, поэтому в тот уик-энд мы встретились на туристической тропе в холмах за Оклендом. После четвертьмильной прогулки по прибрежным красным лесам Калифорнии мы сошли с тропы, чтобы поговорить наедине.

Хауген с самого начала была необычным источником информации. Платформы Facebook подрывали веру в общественное здравоохранение, способствовали авторитарной демагогии и рассматривали пользователей как эксплуатируемый ресурс, заявила она на нашей первой встрече. Вместо того чтобы признать свои проблемы, Facebook продвигала свои продукты на отдаленные, бедные рынки, где, по ее мнению, они практически гарантированно принесут вред.

По ее словам, поскольку Facebook не справляется со своими недостатками, она решила, что ей придется сыграть свою роль в их обнародовании.

Ни один из нас не обладал достаточно грандиозным воображением, чтобы предположить, к чему приведут эти амбиции: десятки тысяч страниц конфиденциальных документов, показывающих глубину и масштаб вреда, причиняемого всем - от девочек-подростков до жертв мексиканских картелей . Это ввергло бы Facebook в многомесячный кризис: Конгресс, европейские регулирующие органы и рядовые пользователи задавались вопросом о роли Facebook в мире, который, казалось, погружался во все большую смуту.

Не все инсайдеры, с которыми я беседовал в течение следующих двух лет, разделяли точный диагноз Хауген о том, что именно пошло не так в Facebook, или ее рецепт, как это исправить. Но в большинстве своем они были согласны не только со своими товарищами по корпорации, но и с письменными оценками десятков сотрудников, которые никогда не выступали публично. Во внутренних документах, собранных Хауген, а также в сотнях других, предоставленных мне после ее ухода, сотрудники фиксировали демонов дизайна Facebook и разрабатывали планы по их сдерживанию. Затем, когда их работодатель бездействовал, они наблюдали, как один предсказуемый кризис разворачивается за другим.

Что бы ни говорилось в справочнике для сотрудников, предполагать добрые намерения становилось все труднее.


Глава

2

Это было позднее утро среды, на следующий день после выборов 2016 года, и старшие сотрудники Facebook по вопросам государственной политики и выборов собрались в конференц-зале своего старого офиса в Вашингтоне - непритязательном и тесном помещении, расположенном среди юридических и лоббистских фирм, сгрудившихся в городском квартале Penn Quarter. Все пытались понять, что победа Дональда Трампа означает для компании.

Эллиот Шраге, глава отдела публичной политики и коммуникаций Facebook, был тем, кто предложил это мрачное предсказание. Звоня из Калифорнии, он был уверен, что Facebook станет козлом отпущения в 2016 году.

Выборы были тяжелыми для страны и компании. Приход Трампа привнес новую ярость в американскую политику, а расистские свистки и грубые насмешки над оппонентами стали обычным явлением в новостях. Русские взламывали Демократический национальный комитет, а WikiLeaks публиковал электронные письма, украденные у руководителя предвыборной кампании Хиллари Клинтон. Не зря в сети циркулировал мем с изображением пылающего пожара в мусорном баке, когда речь заходила о политических дискуссиях.

Facebook уже столкнулся со своей долей критики. Сначала консерваторы обвинили его в цензуре новостных материалов правого толка; затем Трамп использовал платформу для нападок на мусульманских и мексиканских иммигрантов; и, наконец, стало известно, что македонские сайты-мистификаторы фабрикуют большую часть самых популярных новостей на платформе.

Компании предстояла расплата. Как и их начальница Шерил Сэндберг, которую, по слухам, давно рассматривают на должность министра финансов в администрации Хиллари Клинтон, большинство собравшихся руководителей были демократами. Но предсказание о том, что Facebook возьмет на себя вину за избрание Трампа, было особенно зловещим для Кэти Харбат, главы команды Facebook по выборам и республиканки. В течение последних пяти лет ее работой были попытки доказать, что Facebook изменит политику.

Харбат родилась в консервативной семье в городке бумажных фабрик под Грин-Беем, штат Висконсин, и еще в колледже, участвуя в республиканской сенатской кампании, увлеклась политикой. После окончания Висконсинского университета в 2003 году она вместе с подругой переехала в Вашингтон в поисках работы. Несколько месяцев она проработала в парфюмерном магазине Macy's, а затем устроилась на работу в Республиканский национальный комитет.

Харбат пришла в RNC как раз в тот момент, когда ее единственный сотрудник, занимавшийся тем, что тогда называлось "электронной кампанией", ушел. Единственным преимуществом Харбат было создание веб-сайта на занятиях по журналистике в колледже, но она выдвинула свою кандидатуру на должность, которая тогда считалась второстепенной. По ее воспоминаниям, ответ был таков: "Мы не понимаем этих цифровых штучек - конечно, действуйте". "Получив должность помощника директора по электронным кампаниям и зарплату в 25 000 долларов, она стала ведущим игроком в онлайн-усилия Республиканской партии.

Наглая и общительная, Харбат быстро продвинулась по службе. В 2008 году она стала заместителем директора президентской кампании Руди Джулиани, а затем перешла на работу в Национальный республиканский сенаторский комитет на промежуточные выборы 2010 года. Кандидаты от обеих партий стремились подражать молодежной кампании в социальных сетях, которая привела к власти первого чернокожего президента страны. Это объяснялось как желанием политиков ассоциировать себя с культурной репутацией социальных сетей, так и их предполагаемой полезностью. В то время достаточно было просто произнести речь на Facebook, чтобы получить хорошую прессу.

Харбат покупала много рекламы на Facebook в рамках своей работы в NRSC, и она регулярно консультировалась с Адамом Коннером, который основал офис Facebook в Вашингтоне в 2007 году после работы над несколькими демократическими кампаниями, включая президентскую кампанию Джона Керри за несколько лет до этого.

К 2011 году, когда очередные выборы были уже не за горами, Коннер пришел к выводу, что не очень-то здорово, когда республиканцы вроде Харбат обсуждают рекламную стратегию с демократами вроде него самого, и предложил ей присоединиться к офису компании в Вашингтоне в качестве одного из первых сотрудников.

"Я немного устал от "хомячьего колеса" республиканской политики", - говорит Харбат. "Перейдя в технологическую компанию, я мог заниматься более интересными вещами, чем в любой другой кампании". Facebook был повсюду и уверенно шел к своему метеоритному восхождению. Журнал Time только что назвал Марка Цукерберга человеком года 2010 года, назвав его "связующим звеном".

Сидя за столами в нескольких футах друг от друга в офисе на Дюпон-Серкл с часто ломающимся лифтом, Коннер и Харбат принимали звонки от кампаний, желающих получить совет по цифровой стратегии или помощь после блокировки аккаунтов. Но большая часть работы заключалась в том, чтобы убедить кандидатов и должностных лиц, что им вообще нужно быть на Facebook - что эта платформа не просто семейные фотографии и пустой звук. Целью было заставить политический мир обратить внимание на Facebook; если при этом компания продавала политическую рекламу, это было просто бонусом.

Когда выборы 2012 года закончились, политическая команда Харбат не выиграла, зато выиграла ее корпоративная команда. В то время, когда Facebook стремился конкурировать с Twitter, занимаясь новостями и политикой, активное использование платформы в кампании по переизбранию Обамы пошло на пользу влиянию Facebook. Цукерберг хотел доказать, что Facebook - это не только общение с друзьями, и он хотел сделать это на глобальном уровне. Харбат, которому тогда было тридцать, стал глобальным эмиссаром Facebook в политическом мире.

В 2013 году ей предстояло совершить свою первую поездку в Индию, чтобы встретиться с представителями крупных политических партий. Накануне отъезда она достала свой рабочий журнал и озаглавила страницу "Индийские фразы". Наряду со словами "здравствуйте" и "спасибо", она включила фонетическое произношение слов "Лок Сабха" и "Уттар Прадеш". Эти слова, являющиеся соответственно национальным законодательным органом и крупнейшим индийским штатом, были для индийской политики такими же базовыми, как "Конгресс" и "Флорида" у себя дома.

Если Харбат не знал местного контекста или подробностей о кандидатах, это было неважно. Facebook должен был быть нейтральной платформой, а это означало, что он должен предложить помощь любой крупной политической партии, которая этого захочет. Многие из 1,3 миллиарда жителей Индии только что впервые вышли в интернет с помощью мобильных телефонов, и Facebook хотел быть рядом, когда они это сделают. Продвижение политической рекламы было одной из целей, но главным направлением было просто обучение и поощрение партий к организации на платформе.

Харбат путешествовала более половины года - график был изнурительным, но вдохновляющим. Ей нравился темп, компания и миссия - Facebook была в состоянии принести демократию в цифровую эпоху по всему миру. Социальные сети уже продемонстрировали свою способность свергать автократии во время "арабской весны", и теперь они были готовы вдохнуть новую жизнь в политику по всему миру. Внутренний манифест 2012 года, известный как "Красная книга", провозглашал, что "Facebook не был создан для того, чтобы быть компанией", и призывал своих сотрудников мыслить более амбициозно, чем корпоративные цели. "ИЗМЕНЕНИЕ КАК ОБЩАТЬСЯ ЛЮДЯМ ВСЕГДА ИЗМЕНИТ МИР", - говорилось в книге над иллюстрацией печатного станка. Харбат запасся несколькими экземплярами.

Как ни убедительна была миссия Facebook, деньги не помешали. Хотя Харбат пришла в Facebook менее чем за полтора года до выхода компании на биржу в 2012 году, вырученные ею до IPO акции с лихвой покрыли покупку квартиры с двумя спальнями в Арлингтоне, штат Вирджиния. Она оклеила ванную комнату обоями, сделанными на заказ из ее постов в Instagram. В некоторых из них она пила пиво или охотилась с семьей в Висконсине. На других были изображены мировые лидеры, фотографии из рабочих поездок и вдохновляющие плакаты из офисов Facebook.

Если Харбат пила "Кул-Эйд", то и большинство окружающих тоже. Новости о роли Facebook в политике, которые она вырезала и сохраняла, почти всегда были блестящими. Политика была настолько выигрышной для компании, что команда Facebook по партнерству, которая работала над увеличением присутствия издателей, знаменитостей и крупных брендов на платформе , пыталась поглотить ее, утверждая, что политики - это просто еще один высокопоставленный электорат. Только вмешательство Джоэла Каплана, главы вашингтонского подразделения Facebook по вопросам общественной политики, позволило сохранить это подразделение под началом Харбата.

Не все эти волнения были чистой воды шумихой. Facebook опубликовал в журнале Nature исследование, показывающее, что он может повысить явку на выборах в массовом масштабе с помощью сообщений, направляющих пользователей к местам регистрации избирателей в штатах, и цифровых наклеек "Я проголосовал", которые служили одновременно напоминанием друзьям избирателя и тонкой формой давления со стороны сверстников.

Харбат хотела, чтобы Facebook сделала больше до следующих президентских выборов - создала специальные инструменты для политической организации и каналы для взаимодействия выборных должностных лиц с избирателями. Цукерберг опередил ее. В 2015 году на собрании сотрудников он вскользь упомянул, что Facebook следует создать целую команду, занимающуюся вопросами гражданского участия. Для руководства новой командой, которая сначала называлась Civic Engagement, а затем Civic Integrity, Facebook переманила Самидха Чакрабарти, сторонника цифровой демократии, который курировал работу Google по выборам.

Именно на этой высокой ноте Харбат обратила свое внимание на предстоящие президентские выборы в США - кампанию, которая, как надеялись в Facebook, продемонстрирует, что ее платформа - не только будущее демократии, но и ее настоящее. Вооружившись статистическими данными о том, что выборы уже стали темой номер один в Facebook, и тематическими исследованиями о том, как Facebook может увеличить сбор средств, нацеливание рекламы и явку избирателей, команда Харбат спонсировала и транслировала все политические события, какие только могла. Когда десять кандидатов пришли на первые бурные республиканские дебаты в августе 2015 года, Facebook заплатил за спонсорство, транслируя их в прямом эфире и размещая свой логотип по всей сцене. То же самое компания делала и для демократов.

Однако к весне 2016 года Харбат начал чувствовать, что в сетевой политике что-то не так. Первый признак появился не дома, а на Филиппинах, где сосредоточено наибольшее количество пользователей Facebook в мире. Перед майскими выборами в этой стране команда Харбата оказывала стандартные консультации основным партиям. Одна кампания - Родриго Дутерте - процветала. Президентская кампания Дутерте, который был крутым мэром , была безобразной: он проклинал Папу Римского, обещал внесудебные расправы над наркоманами и высмеивал собственную дочь как "королеву драмы", когда та заявила, что ее изнасиловали.

Facebook считал, что предвыборная риторика Дутерте - это не его дело, но по мере того, как шли выборы, компания начала получать сообщения о массовых фальшивых аккаунтах, откровенной лжи на страницах, контролируемых кампанией, и скоординированных угрозах насилия в адрес критиков Дутерте. После многих лет работы в политике Харбат не был наивен в отношении грязных трюков. Но когда Дутерте победил, невозможно было отрицать, что платформа Facebook вознаградила его агрессивную и порой нечестную политику. Избранный президент запретил независимым СМИ присутствовать на своей инаугурации, но вел прямую трансляцию этого события на Facebook. Вскоре после этого начались обещанные им внесудебные расправы.

Через месяц после победы Дутерте в мае 2016 года в Великобритании прошел референдум о выходе из Европейского союза. Кампания по Brexit была насыщена антииммигрантскими настроениями и откровенной ложью. Как и на Филиппинах, повстанческая тактика, похоже, процветала на Facebook - сторонники лагеря "Выйти" уничтожали на платформе сторонников "Остаться".

Оба голосования подтвердили место Facebook в политике, но для Харбат эта роль не была благотворной. Она не собиралась перечить избирателям, но обе победившие кампании в значительной степени опирались на Facebook для распространения язвительности и лжи. Успех этой тактики был тем более неприятен, что на родине, в Штатах, кандидат в президенты, который когда-то долгое время был кандидатом, добивался успеха с помощью той же программы.

Дональд Трамп прославился в республиканской политике тем, что с помощью Twitter задал вопрос о том, является ли Обама американским гражданином. Он резко вырос в опросах после того, как назвал мексиканских иммигрантов насильниками и высмеял сенатора Джона Маккейна за то, что тот попал в плен и подвергался пыткам во время войны во Вьетнаме. Когда число участников праймериз сократилось до Трампа и сенатора от Техаса Теда Круза, Трамп обрушился на жену своего оппонента и намекнул, что отец Круза мог помочь Ли Харви Освальду убить Джона Кеннеди.

Харбат находил все это отвратительным, но нельзя было отрицать, что Трамп успешно использовал Facebook и Twitter, чтобы обойти традиционное освещение кампании, привлекая к себе внимание так, как не удавалось ни одной кампании. "Ему достаточно снять короткое видео в Facebook или Instagram, а потом его уже освещают СМИ", - удивлялась Харбат во время своего выступления в Европе весной того года. Она не ошиблась: политические репортеры сообщали не только о содержании постов Трампа, но и о количестве их "лайков".

Нужно ли Facebook задуматься о том, чтобы приложить некоторые усилия для проверки фактов лжи, распространяемой на ее платформе? Харбат обсудил эту тему с Адамом Моссери, который в то время возглавлял отдел новостей Facebook.

"Как мы сможем определить, что из этого правда?" - ответил Моссери. ответил Моссери. В зависимости от того, как на это смотреть, это была эпистемическая или технологическая головоломка. В любом случае, компания решила отказаться от лжи на своей платформе.

Компания Facebook выступила спонсором съездов демократов и республиканцев и устроила большие вечеринки на обоих съездах. Харбат занимался съездом республиканцев и был в ужасе от речей странноватых знаменитостей - аколитов Трампа и скандирования "Заприте ее!" - имея в виду соперницу Трампа, Хиллари Клинтон. Когда пришло время вечеринки в Facebook, никто из знакомых Харбата в республиканском истеблишменте не был склонен праздновать. "У вас есть этот сумасшедший съезд, и он похож на детские похороны", - вспоминает она.

Хотя Харбат не любил Трампа, Facebook все же помогал обеим основным партиям использовать свои продукты, предлагая каждой из них специального сотрудника, который помогал бы нацеливать рекламу Facebook, решать технические проблемы и поддерживать связь с руководством компании. Люди Клинтон отказались от предложения компании выделить сотрудника в штаб-квартире в Бруклине. Люди Трампа, однако, были рады помощи, что поставило Харбат перед проблемой. Никто из ее команды политиков не хотел работать в компании.

Харбат обратился к Джеймсу Барнсу, другу-республиканцу, который работал в команде компании по продаже политической рекламы. Барнс не любил Трампа больше, чем Харбат, но взялся за работу в духе адвоката по уголовным делам, взявшегося за неприятного клиента. Решив сделать все возможное, Барнс переехал в Сан-Антонио в офис компании Giles-Parscale, которая занималась веб-маркетингом в рамках цифровой кампании Трампа. Офис располагался у автострады, через дорогу от мебельного магазина La-Z-Boy, и руководил им шестифутовый Брэд Парскейл, который в основном занимался созданием сайтов для региональных клиентов, таких как ежегодное родео в Сан-Антонио. Он попал в мир Трампа, создав сайт для бренда Trump Hotel, а затем стал цифровым стратегом Трампа после того, как создал сайт для его предвыборной кампании за 1500 долларов.

Хотя Трамп и сам разбирался в социальных сетях, Барнс обнаружил, что его кампании нужна помощь, поскольку она испытывала трудности с некоторыми основами целевой рекламы. Некоторые из его работ - например, выяснение того, как кампания может обновить целевую аудиторию Facebook, чтобы избежать рекламы избирателей, проголосовавших по открепительным удостоверениям, которые, скорее всего, уже проголосовали, - были настолько новыми, что он и Харбат решили, что их следует предложить лагерю Клинтон.

"Они сказали, что у них нет времени на интеграцию этого в свои процессы", - вспоминает Харбат.

Работа Барнса в Сан-Антонио закончилась 7 октября 2016 года, в день утечки выдержки из программы Access Hollywood. На записи Трамп, уже столкнувшийся с обвинениями в сексуальных домогательствах и нападениях, хвастался своими безуспешными попытками переспать с замужней женщиной и заявлял, что его слава означает, что он может просто "взять их за киску".

Барнс покинул офис и больше не возвращался. Дальнейшая работа с кампанией была не просто неприятна, она была бессмысленна: офис кампании в Сан-Антонио временно приостановил закупки рекламы и практически закрылся, готовясь к поражению. Барнс улетел обратно в Вашингтон, поддерживая лишь слабую связь с людьми Трампа. Когда за несколько дней до выборов он прочитал в Bloomberg Businessweek статью, в которой цифровая команда Трампа хвасталась, что проводит операции по подавлению избирателей в Facebook, он понятия не имел, о чем идет речь.

Вечером после выборов Барнс, Харбат и остальные члены команды политиков собрались в штаб-квартире Facebook в Вашингтоне. По мере получения результатов группа переходила от празднования к тревоге и отправилась в подвальный бар неподалеку от офиса. Когда стало ясно, что Трамп победит, Барнс воспринял результаты особенно тяжело. "Его реакция была "Боже мой, что я наделал?", а не "Что наделала компания?". " - сказал Харбат. "Он думал, что только по его вине это произошло, и чувствовал себя невероятно виноватым".

На следующее утро, по словам Барнса, он проснулся от сообщения в Facebook от личного помощника Джоэла Каплана. Главный лоббист Facebook хотел поговорить с Барнсом, а точнее, придать ему бодрости.

Когда они встретились в тот день, Каплан сказал Барнсу, что он не виноват в избрании Трампа - как и Facebook, если уж на то пошло. Каплан тоже не любит Трампа, признался он, но сказал Барнсу, что тот должен гордиться тем, что помог людям высказаться. И никто из них не должен был сомневаться в том, что этот голос говорит.

Так говорили себе большинство руководителей Facebook. Однако в Менло-Парке большая часть сотрудников компании была настроена иначе. Поздние послеобеденные встречи отменялись по мере поступления результатов ранних опросов, а в некоторых случаях их заменяли беседы с менеджерами, граничащие с консультацией по вопросам горя. К вечеру, когда стало ясно, что Трамп победил, разговоры на Workplace - защищенной внутренней версии сайта Facebook, которую сотрудники использовали для работы, обмена документами и общения, - стали мрачными и интроспективными. Основа самооценки компании заключалась в том, что, создавая платформу и объединяя людей, Facebook делает мир более осведомленным и понятным. Цукерберг неоднократно повторял эту идею на протяжении многих лет, однажды предположив, что внедрение Facebook на Ближнем Востоке положит конец терроризму, поскольку связь между людьми приведет к взаимопониманию. Хотя рост ИГИЛ с его онлайн-вербовкой положил конец этому конкретному стремлению, общий тезис сохранился.

"Мы превратились из мира изолированных сообществ в единое глобальное сообщество, и нам всем от этого только лучше", - заявил он на конференции разработчиков компании в апреле 2016 года, осудив "боязливые голоса, призывающие строить стены".

Сотрудники Facebook, настроенные в основном либерально, поверили ему. Теперь они задавались вопросом не столько о том, избрал ли Facebook Трампа, сколько о том, насколько его победа совместима с существованием Facebook . Их платформа должна была открыть новую эру социального прогресса и взаимопонимания. Как это могло так ужасно испортиться?

"Если бы мы оказали то положительное влияние, которое планировали, этого бы не случилось", - вспоминает бывший топ-менеджер компании, описывая настроение.

Закрывал ли Facebook глаза на организованные на платформе акции ненависти? Была ли у компании редакционная ответственность за достоверность фактов, которую она не признавала? Были ли пользователи заперты в "пузырях фильтров", которые мешали им распознать Трампа как демагога, разжигающего ненависть?

Те же вопросы задавали и журналисты. В течение двадцати четырех часов после подведения итогов голосования социальные сети стали пестреть аналитическими материалами о выборах. В большинстве случаев речь шла не только о Facebook - если и шла речь, то о Twitter, который приобрел большую значимость из-за личной привязанности к нему Трампа. Одна статья в New York Times заявила, что выборы 2016 года - это " еще один момент Твиттера", и отбросила политическое значение Facebook и Instagram.

Тем не менее Цукерберг был рассержен намеком на то, что Facebook могла подтасовать результаты выборов. Он поговорил с Энн Корнблут, редактором Washington Post, лауреатом Пулитцеровской премии, которую Facebook наняла годом ранее для обеспечения стратегических коммуникаций. Он сказал ей, что Facebook необходимо опровергнуть критику, сочтя ее "кислым виноградом".

Цукерберг считал, что математика на стороне Facebook. Да, на платформе была дезинформация, но она, конечно, не составляла большинство контента. В количественном отношении ложь составляла лишь малую часть всех новостей, просматриваемых на Facebook, а сами новости - лишь малую часть всего контента платформы. Цукерберг утверждает, что такая малая доля могла перевернуть ход выборов, и это совершенно нелогично.

Корнблут, понимавший ритм послевыборного пересказа в прессе, призвал его отказаться от участия. Меньше всего Facebook нужно было привлекать к себе внимание в то время, когда так много людей были разгневаны.

Но Цукерберг был боссом. Проигнорировав совет Корнблута, он на следующий день выступил с аргументами в прямом эфире на конференции Techonomy, которая проходила в отеле Ritz-Carlton в Халф-Мун-Бей. Назвав фальшивые новости "очень маленьким" компонентом платформы, он объявил возможность того, что они повлияли на ход выборов, "безумной идеей".

"Я считаю, что в утверждении, что единственная причина, по которой кто-то мог проголосовать так, как проголосовал, - это то, что он увидел фальшивые новости", - сказал Цукерберг, добавив, что существование ложной информации с обеих сторон означает, что "это точно не оказало никакого влияния".

Достоинства аргумента не были важны. Важно было лишь то, что, заявив о безупречности Facebook, Цукерберг нарисовал мишень на спине своей компании. "Марк Цукерберг отрицает, что фальшивые новости в Facebook повлияли на выборы", - гласила статья в Washington Post, одна из десятков, в которых опровержение генерального директора сопровождалось подробным объяснением контраргумента. ("По крайней мере, я заставил его опустить цифры", - позже сказал Корнблут Харбату).

Помимо самодеятельного подхода генерального директора к послевыборному пиару, Facebook отличала от других социальных медиаплатформ вторая проблема. Кампания Трампа очень хотела отдать компании должное за свою победу. Никто, кроме Трампа, не мог поставить себе в заслугу его личное использование Twitter, но Парскейл собрал огромные суммы для кампании с помощью целевой рекламы Facebook, и ему не терпелось напомнить всем об этом перевороте. " Facebook и Twitter стали причиной нашей победы", - сказал он в интервью Wired.

Гэри Коби, руководитель рекламного отдела RNC, который тесно сотрудничал с Парскейлом, пошел еще дальше, заявив Wired, что общий посыл кампании Трампа был уточнен благодаря тому, что удалось сделать в рекламе на Facebook. Для пущей убедительности он публично поздравил Барнса по имени в Twitter, назвав сотрудника Facebook "MVP" кампании Трампа. По словам Харбата, если бы кампания Обамы в 2012 году так расхваливала возможности Facebook, то пробки от шампанского уже были бы выбиты. Но твит Коби вскрыл целую банку червей. Мало того, что его похвала Барнсу была нежелательна лично для него, так еще и потребовал от Facebook объяснений, какого черта один из ее сотрудников вообще внедрился в кампанию Трампа.

"Мы беспокоились о безопасности Джеймса", - говорит Харбат. Тем временем команда Трампа приходила к нам и говорила: "Почему вы не рады, что мы вас кредитуем? "

Наконец-то Facebook получил признание в качестве центрального форума для политиков - и это было ужасно.

-

Любимая поговорка Facebook гласит: "Данные побеждают аргументы". Но когда дело дошло до аргумента Цукерберга о том, что фальшивые новости не являются серьезной проблемой Facebook, у компании не было никаких данных. Как бы ни был убежден генеральный директор в том, что Facebook не виноват, у него не было доказательств того, как появились "фальшивые новости", как они распространялись по платформе и использовала ли кампания Трампа их в своих рекламных кампаниях на Facebook.

Спустя два дня после того, как Цукерберг отверг возможность того, что Facebook неправомерно повлиял на выборы, он отступил. " После выборов многие люди спрашивают, повлияли ли фальшивые новости на результат, и какова наша ответственность за предотвращение распространения фальшивых новостей", - написал он в Facebook 12 ноября. "Это очень важные вопросы, и я очень хочу ответить на них правильно". Однако в заметке не было сказано, что Цукерберг считает, что критики могут быть правы - это не так.

Вскоре Цукерберг почувствовал, насколько тяжелой будет расплата. Через неделю после выборов репортер BuzzFeed News Крейг Сильверман опубликовал анализ, показывающий, что в последние месяцы выборов фальшивые новости были самым вирусным контентом на Facebook, связанным с выборами. Ложное утверждение о том, что Папа Римский поддержал Трампа, набрало более 900 000 лайков, репостов и комментариев - больше, чем даже самые распространенные материалы CNN, New York Times или Washington Post. Как показала история, самые популярные ложные сообщения были в поддержку Трампа.

Это была бомба. Интерес к термину "фальшивые новости" вырос на сайте Google в день публикации статьи и оставался высоким в течение многих лет, сначала когда критики Трампа приводили его в качестве объяснения победы избранного президента, а затем, когда Трамп стал использовать этот термин для очернения СМИ в целом.

Эта история обеспокоила Facebook не только из-за плохой рекламы. Несмотря на то что сотрудники отдела коммуникаций компании не соглашались с методикой Сильвермана, руководители требовали, чтобы специалисты по обработке данных News Feed повторили ее. Действительно ли ложь была главным контентом платформы, связанным с выборами?

Через день сотрудники пришли с ответом: почти.

Беглый и грязный анализ показал, что данные, которые использовал BuzzFeed, были немного искажены, но утверждение, что пристрастные мистификации побеждают настоящие новости в ленте новостей Facebook, было бесспорно верным. У распространителей брехни было большое преимущество перед легальными изданиями - их материалы были неизменно убедительными и эксклюзивными. Хотя, например, десятки основных новостных изданий написали конкурирующие истории об утечке электронных писем Клинтон, ни одна из них не могла конкурировать с заголовком "WikiLeaks ПОДТВЕРДИЛА, что Хиллари продала оружие ИГИЛ".

Результаты исследования взбудоражили руководителей Facebook. Всего за несколько дней до этого Цукерберг говорил, что ложь с обеих сторон естественным образом нивелирует друг друга - аргумент, который, как показала история BuzzFeed, а теперь и их собственное исследование, в лучшем случае выдавал желаемое за действительное.

Компания многого не знала. Почему фальшивые новости стали демонстрировать огромные показатели вовлеченности? Отражает ли этот успех предпочтения пользователей, манипуляции или какие-то недостатки в дизайне Facebook? И была ли проблема в Facebook хуже, чем в остальном интернете, на кабельном телевидении или на митинге Трампа?

Чтобы ответить на эти вопросы, Facebook придется изучить и изменить свою платформу таким образом, который еще несколько месяцев назад считался немыслимым. Она должна была установить истину, а затем изменить свою экосистему так, чтобы это было выгодно. Эта задача была бы сложной и при самых благоприятных обстоятельствах - а последствия порочной президентской кампании, в ходе которой все большее внимание стало уделяться вмешательству России в выборы, вряд ли были таковыми.

Получив одобрение Цукерберга, Моссери направил группу своих сотрудников , работающих с новостной лентой, чтобы они начали оценивать проблему фальшивых новостей и предлагать возможные решения. Чтобы сосредоточиться на деликатной работе в условиях конфиденциальности, команда собрала свои столы вместе с остальными сотрудниками рейтинга News Feed и поселилась в самом близком к укромному уголке в здании 20, самом большом в мире офисе с открытой планировкой.

Спроектированное Фрэнком Гери и завершенное всего за год до этого, помещение имело в основном открытые структурные опоры и стеклянные стены - кивок в сторону корпоративного стремления Facebook к связи и прозрачности. Оно было построено не для того, чтобы люди прятались.


Глава

3

Перспектива того, что ошибки Facebook могли изменить исход выборов и подорвать демократию, беспокоила Криса Кокса больше, чем любого другого топ-менеджера компании. Кокс, главный директор по продуктам Facebook, был потрясен в течение недели, последовавшей за победой Трампа, и свои чувства он передавал не только своему окружению. Через несколько дней после голосования один из руководителей инженерного отдела другой компании, которую он безуспешно пытался переманить, написал Коксу письмо с предложением своих услуг, а также с резкой оценкой: Facebook явно облажался, писал руководитель, и платформа в ее нынешнем виде представляет угрозу для здорового общественного дискурса.

"Хорошо", - написал Кокс в ответ на предложение мужчины, добавив, что лично он чувствует себя ужасно.

Кокса давно беспокоило влияние платформы на общество, и особенно ее потенциальная роль в разжигании розни. Еще в 2015 году он удивил кандидата на руководящую должность масштабом своих амбиций. "Я спросил его о самом важном, над чем я мог бы работать, и [Кокс] в основном ответил, что это поляризация, люди чувствуют себя отчужденными друг от друга", - вспоминает руководитель. "Было реальное ощущение, что Facebook может сыграть свою роль в их объединении".

После выборов Facebook не стала начинать с нуля, поскольку начала более серьезно подходить к вопросу о том, что допускается на ее платформе. Компания создала определенные базовые системы защиты. Основная ответственность за такие проблемы, как спам и массовая кража данных, лежала на команде Site Integrity; проблемы, связанные с неправильным поведением обычных пользователей, находились в ведении подразделения, известного как Community Opera tions. Необходимость такой работы отражала растущую важность платформы для пользователей, рекламодателей и мошенников по всему миру.

Помимо масштаба и известности Facebook, существовала еще одна причина, по которой платформа нуждалась в усилении контроля. Facebook больше не была той социальной сетью, которую Цукерберг, как известно, создал в своей комнате в общежитии Гарварда. Продукт, который сотрудники называли Blue, заменялся по частям. Получившийся продукт был не просто более сложным - он был более нестабильным.

-

Путь Facebook к становлению крупнейшей в мире социальной медиакомпании был попеременно пронизан амбициями и оправданной паранойей. Насколько Цукерберг был убежден в том, что Facebook находится на траектории, способной изменить ход развития интернета и общества, настолько же он рассматривал любую растущую платформу, позволяющую людям отправлять сообщения, делиться или транслировать контент, как экзистенциальную угрозу.

Это убеждение появилось еще в 2004 году, в те времена, когда платформу запускали из арендованного дома в Пало-Альто. При первых признаках того, что в студенческих городках может появиться продукт, похожий на социальную сеть, Цукерберг объявлял "блокировку", во время которой все должны были работать почти без остановки, пока Facebook не закончит создание всех функций, которые он считал необходимыми, чтобы нейтрализовать угрозу.

Такая оперативность стала предметом гордости. К 2011 году, когда у Facebook появился корпоративный кампус, красная неоновая вывеска с надписью lockdown была готова к следующей чрезвычайной ситуации. Двухмесячный спринт, вызванный слухами о планах Google запустить социальную сеть, привел к появлению в Facebook функций Groups и Events, а Цукерберг завершил внутреннюю беседу об угрозе Google ссылкой на римского оратора, который заканчивал каждую речь словами "Carthago delenda est" - Карфаген должен быть разрушен.

Даже после того, как малораспространенный Google Plus был побежден, компания не могла успокоиться. Сетевые эффекты превратили социальные сети в игру "победитель-всех-победителей", в которой конкурирующие платформы были одновременно и угрозой, и помехой свободному распространению информации.

"Марк смотрел на Snapchat, как Рональд Рейган на Берлинскую стену", - вспоминает один из членов команды Facebook Core Data Science.

Facebook недвусмысленно заявлял, что хочет создать функции, которые будут учитывать все особенности офлайн-жизни. В 2014 году Цукерберг купил WhatsApp за 19 миллиардов долларов, опасаясь конкуренции со стороны текстовых сообщений, и он подталкивал Facebook к конкуренции с сайтами знакомств и одноранговыми торговыми площадками. Требования генерального директора к росту были очень высокими. Согласно более поздней истории метрических целей Facebook, в 2014 году Цукерберг внутренне заявил, что Facebook должен стремиться к 10-процентному ежегодному росту пользователей в вечном периоде. Ответственность за это бесконечное экспоненциальное расширение ложилась как на элитную команду Growth, так и на инженерные команды по всей компании.

Как объяснил Цукерберг своему финансовому директору в электронном письме 2012 года, он считал, что существует "лишь конечное число различных социальных механизмов, которые можно изобрести". Всякий раз, когда появлялась новая механика, писал Цукерберг, компания должна была либо скопировать ее, либо приобрести. "Основной план состоит в том, чтобы купить эти компании и оставить их продукты в работе, а со временем внедрить изобретенную ими социальную динамику в наши основные продукты", - написал Цукерберг. "Один из способов взглянуть на это - то, что мы действительно покупаем, это время".

Это была менее веселая и более параноидальная интерпретация хорошо известного девиза компании "Двигайся быстро и ломай вещи". Этот лозунг, как и бесцеремонный призыв к разработке продуктов, отражал необходимость беспокоиться о том, что может появиться в зеркале заднего вида. Красная книга", внутренний манифест компании, опубликованный вскоре после IPO, превратил этот страх в вдохновляющий лозунг: "Если мы не создадим вещь, которая убьет Facebook, это сделает кто-то другой".

С каждой новой функцией конкурирующего продукта, вызывающей экзистенциальный кризис, Facebook должен был превратиться в некое подобие Франкенштейна, наспех сшитого из частей конкурирующих платформ. Компания позаимствовала кнопку reshare из ретвитов Twitter, запустила живое видео после успеха Periscope, содрала эфемерные видеопосты из Snapchat и включила групповые видеочаты а-ля Houseparty. Вопиющее воровство было расценено сначала как постыдное, потом как безрассудное, а затем как комичное. "Facebook скопировал Snapchat в четвертый раз, и теперь все его приложения выглядят одинаково", - гласил запоминающийся заголовок Recode.

Необходимость быстрой адаптации приводила к тому, что код регулярно оказывался неровным по краям и, по сути, "ломал вещи". В презентации 2015 года Бен Маурер, отвечавший за надежность инфраструктуры Facebook, отметил, что сбои в работе сайта происходили практически каждый раз, когда инженеры Facebook садились за клавиатуру. В течение одного шестимесячного периода единственными двумя неделями, когда ничего серьезного не происходило, были "неделя перед Рождеством и неделя, когда сотрудники должны писать друг другу рецензии".

Инженеры не были некомпетентны - они просто следовали часто цитируемой мудрости компании: "Сделанное лучше, чем совершенное". По словам Маурера, вместо того чтобы сбавлять обороты, Facebook предпочла создать новые системы, способные минимизировать ущерб от небрежной работы, создать брандмауэры для предотвращения каскадных сбоев, отбрасывать неактуальные данные, пока они не скопились в очередях, разрушающих сервер, и перепроектировать инфраструктуру так, чтобы ее можно было легко восстановить после неизбежных сбоев.

Та же культура распространялась и на разработку продуктов, где премии и повышения по службе выдавались сотрудникам в зависимости от того, сколько функций они "отгрузили" - на жаргоне программистов это означает включение нового кода в приложение. Проводимые раз в полгода, эти обзоры "цикла подведения итогов работы" стимулировали сотрудников завершать продукты в течение шести месяцев, даже если это означало, что готовый продукт был лишь минимально жизнеспособным и плохо документированным. Инженеры и специалисты по обработке данных рассказывали, что жили в условиях вечной неопределенности относительно того, где собираются и хранятся пользовательские данные - плохо обозначенная таблица данных могла оказаться лишним файлом или важным компонентом важного продукта. Брайан Боланд, давний вице-президент рекламного и партнерского подразделений Facebook, вспоминает, что однажды крупная сделка по обмену данными с Amazon сорвалась, потому что Facebook не смогла выполнить требование гиганта розничной торговли не смешивать данные Amazon со своими собственными.

"Создавать вещи гораздо интереснее, чем обеспечивать их защиту и безопасность", - говорит он об отношении компании. "Пока не возникнут проблемы с регуляторами или прессой, вы не будете с этим разбираться".

Постоянный поток аварийных ситуаций и некачественно созданных функций породил мрачные шутки о том, что Facebook - старейший в мире стартап, а неряшливость - самая стойкая черта его культуры. В 2021 году, когда Майк Шрепфер, тогдашний директор по технологиям, спросил инженеров компании, что их больше всего расстраивает, ответ был ошеломляющим. "Нам постоянно нужно, чтобы что-то проваливалось - часто чертовски эффектно, - чтобы вызвать интерес к исправлению, потому что мы награждаем героев больше, чем людей, которые предотвращают необходимость героизма", - гласил главный ответ на Workplace, который собрал около тысячи положительных откликов и десятки комментариев, рассказывающих о катастрофических, но неизбежных инженерных неудачах.

Нигде в системе не было места контролю качества. Вместо того чтобы пытаться ограничить проблемный контент, Facebook, как правило, предпочитал персонализировать ленты пользователей тем, что, по его мнению, они хотели бы видеть. Хотя легкое отношение к модерации имело практические преимущества - продажа рекламы против контента, который вы не просматриваете, это отличный бизнес, - Facebook стал относиться к этому как к моральной добродетели. Компания не пыталась контролировать действия пользователей - она была нейтральна.

Хотя компания признала, что ей придется выполнять некоторые полицейские функции, руководители продолжали утверждать, что платформа в основном регулирует себя сама. В 2016 году, когда компания столкнулась с давлением, требующим более жесткой модерации вербовки террористов, Шерил Сэндберг заявила на Всемирном экономическом форуме, что платформа делает все возможное, но что долгосрочное решение проблемы ненависти в Facebook - это утопить ее в позитивных сообщениях.

" Лучшее противоядие от плохой речи - это хорошая речь", - заявила она, рассказывая аудитории о том, как немецкие активисты обрушили на страницу неонацистской политической партии в Facebook "лайки", завалив ее сообщениями о толерантности.

Определенно, "контрречь", которую описывала Сэндберг, в Facebook не работает. Какой бы вдохновляющей ни была концепция, взаимодействие с мерзким контентом привело бы к тому, что платформа распространила бы неприемлемый материал среди более широкой аудитории.

Несмотря на реалии механики платформы, такая вера в доброту Facebook часто использовалась для придания стремлению Facebook к росту блеска морального императива. Такая уверенность достигла своего пика во внутренней записке Эндрю "Боз" Босворта, который прошел путь от одного из помощников Марка Цукерберга в Гарварде до одного из его самых доверенных помощников и конфидентов в Facebook. Под названием "Уродливый" Босворт написал памятку в июне 2016 года, через два дня после того, как убийство жителя Чикаго было случайно показано на Facebook. Столкнувшись с призывами к компании пересмотреть свои продукты, Босворт сплотил войска.

"Мы часто говорим о хорошем и плохом в нашей работе. Я хочу поговорить о плохом", - говорилось в записке. По его словам, общение людей приносит очевидную пользу - но в масштабах Facebook оно может принести вред, будь то издевательства пользователей над сверстником до самоубийства или использование платформы для организации террористической атаки.

То, что Facebook неизбежно приведет к таким трагедиям, было прискорбно, но не это было главным. Безобразие, писал Боз, заключалось в том, что компания настолько глубоко верила в свою миссию общения людей, что готова была пожертвовать чем угодно ради ее выполнения.

"Вот почему вся работа, которую мы проводим в области роста, оправдана. Все сомнительные методы импорта контактов. Все тонкие формулировки, которые помогают людям оставаться в поиске друзей. Вся работа, которую мы делаем, чтобы привлечь больше общения. Работа, которую нам, вероятно, когда-нибудь придется выполнять в Китае. Все это", - написал Босворт.

Facebook и Босворт отреклись от своих аргументов, когда BuzzFeed News опубликовал меморандум два года спустя, но это не умалило его правоты. Facebook злоупотребляла списками контактов людей, чтобы стимулировать рост. Она писала свои правила конфиденциальности таким образом, что сбивала с толку пользователей, которые хотели сделать свои профили более приватными. И она работала над созданием инструментов цензуры в рамках своих усилий по получению доступа в Китай. Все это было отвратительно, и Facebook делала это сознательно. Меморандум Босворта не был мысленным экспериментом. Это был кодекс, по которому жила компания.

-

Не все функции продуктов Facebook были скопированы у других. В 2006 году в патентное бюро США поступила заявка на "автоматически генерируемый дисплей, содержащий релевантную для пользователя информацию о другом пользователе социальной сети". Вместо того чтобы заставлять людей искать интересующие их элементы в "разрозненном и неорганизованном" контенте, система будет стремиться генерировать список "релевантной" информации в "предпочтительном порядке".

В качестве авторов были указаны "Цукерберг и др.", а продуктом была лента новостей.

Идея показывать пользователям потоки активности была не совсем новой - сайт обмена фотографиями Flickr и другие пользователи уже экспериментировали с ней, но изменения были масштабными. Раньше пользователи Facebook взаимодействовали с сайтом в основном с помощью уведомлений, пинков или просмотра профилей друзей. С запуском ленты новостей пользователи получили постоянно обновляющийся поток постов и изменений статуса.

Это изменение стало шоком для 10 миллионов пользователей Facebook, которые не оценили, что за их действиями следят, а их некогда стабильные профили проверяют на наличие нового контента. В ответ на многочисленные жалобы Цукерберг написал пост, в котором заверил пользователей: "Ничто из того, что вы делаете, не транслируется; скорее, этим делятся люди, которым небезразлично, что вы делаете, - ваши друзья". Он озаглавил его: "Успокойтесь. Дышите. Мы вас слышим".

Выслушать жалобы пользователей было не то же самое, что прислушаться к ним. Как позже отметил Крис Кокс на одном из пресс-мероприятий, "Лента новостей" мгновенно добилась успеха в повышении активности на платформе и установлении контактов между пользователями. Вовлеченность быстро удвоилась, и уже через две недели после запуска более миллиона пользователей впервые связали себя единым интересом. Причина, объединившая стольких людей? Петиция, направленная на искоренение "сталкерской" ленты новостей.

Непрозрачная система, против которой восставали пользователи, была, оглядываясь назад, удивительно простой. Контент в основном появлялся в обратном хронологическом порядке, а ручная настройка позволяла людям видеть как популярные посты, так и разнообразные материалы. "Вначале ранжирование ленты новостей сводилось к повороту ручек, - говорит Кокс.

Некоторое время возиться с циферками было достаточно хорошо, но списки друзей росли, а Facebook внедрял новые функции, такие как реклама, страницы и группы по интересам. Поскольку развлечения, мемы и коммерция начали конкурировать с сообщениями друзей в ленте новостей, Facebook нужно было сделать так, чтобы пользователь, который только что вошел на сайт , увидел фотографии с помолвки лучшего друга раньше, чем популярный рецепт энчилады на кулинарной странице.

Первая попытка сортировки, получившая в итоге название "EdgeRank", представляла собой простую формулу, которая определяла приоритетность контента в зависимости от трех основных факторов: возраста сообщения, степени его вовлеченности и взаимосвязи между пользователем и автором. Как алгоритм, она не представляла собой ничего особенного - просто грубая попытка перевести вопросы "Это новое, популярное или от кого-то, кто вам дорог?" в математику.

В этом не было никакой темной магии, но пользователи снова восстали против того, чтобы Facebook накладывал свой отпечаток на то, что они видят. И снова показатели использования Facebook подскочили.

Рекомендательные системы платформы находились еще в зачаточном состоянии, но диссонанс между вокальным неодобрением пользователей и их активным использованием привел компанию к неизбежному выводу: мнение обычных людей о механизмах Facebook лучше игнорировать. Пользователи кричали "стоп", Facebook продолжал работать, и все шло как по маслу.

К 2010 году компания стремилась выйти за рамки грубой формулы EdgeRank и рекомендовать контент на основе машинного обучения - направления искусственного интеллекта, направленного на обучение компьютеров разработке собственных алгоритмов принятия решений. Вместо того чтобы программировать компьютеры Facebook на ранжирование контента в соответствии с простыми математическими вычислениями, инженеры будут программировать их на анализ поведения пользователей и разработку собственных формул ранжирования. То, что видели люди, было бы результатом постоянных экспериментов: платформа предлагала бы все, что, по ее прогнозам, с наибольшей вероятностью вызовет лайк у пользователя, и оценивала бы свои собственные результаты в режиме реального времени.

Несмотря на растущую сложность своего продукта и сбор данных о пользователях в невиданных доселе масштабах, Facebook все еще не знал о своих пользователях достаточно, чтобы показывать им релевантную рекламу. Брендам нравилось внимание и шум, которые они могли получить, создавая контент на Facebook, но они не находили платные предложения компании привлекательными. В мае 2012 года компания General Motors полностью свернула свой рекламный бюджет в Facebook. Один из известных специалистов по цифровой рекламе заявил, что объявления в Facebook "в корне одни из худших по эффективности рекламных блоков в Сети".

Устранение проблемы было поручено команде под руководством Хоакина Киньонеро Канделы. Испанец, выросший в Марокко, Киньонеро жил в Великобритании и работал над искусственным интеллектом в Microsoft в 2011 году, когда его друзья, разбросанные по Северной Африке, начали с воодушевлением рассказывать о протестах, вызванных социальными сетями. Методы машинного обучения, которые он использовал для оптимизации поисковой рекламы Bing, нашли свое применение в социальных сетях, с помощью которых люди свергли четыре автократических государства и едва не свергли еще несколько. Я присоединился к Facebook из-за "арабской весны", - говорит Киньонеро.

Киньонеро обнаружил, что способ создания продуктов Facebook был почти таким же революционным, как и их результаты. Приглашенный другом на экскурсию по кампусу в Менло-Парке, он был потрясен, заглянув через плечо инженера, вносившего существенные, но неконтролируемые обновления в код Facebook. Убедившись в том, что компания работает гораздо быстрее, чем Microsoft, Киньонеро через неделю получил предложение о работе в Facebook.

Киньонеро начал работать над рекламой, и его время вряд ли могло быть более удачным. Достижения в области машинного обучения и скорость вычислений позволили платформе не только распределять пользователей по демографическим нишам ("одинокая гетеросексуальная женщина в Сан-Франциско, около двадцати лет, интересуется кемпингом и танцами сальса"), но и выявлять корреляции между тем, на что они нажимают, а затем использовать эту информацию, чтобы угадать, какие объявления они сочтут релевантными. Начав с почти случайных предположений о том, как максимизировать шансы на клик, система училась на удачах и промахах, совершенствуя свою модель для предсказания того, какие объявления имеют наилучшие шансы на успех. Вряд ли она была всеведущей - рекомендованные объявления регулярно оказывались необъяснимыми. Но планка успеха в цифровой рекламе была низкой: если 2 процента пользователей нажимали на рекламу, это считалось триумфом. При миллиардах объявлений, просматриваемых каждый день, изменения в алгоритмах, дающие даже скромный выигрыш, могли принести десятки или сотни миллионов долларов дохода. И команда Киньонеро обнаружила, что может вносить такие изменения. "Я сказал своей команде работать быстро, выпускать продукцию каждую неделю", - говорит он.

Быстрые темпы имели смысл. ИИ команды улучшал не только доходы, но и отношение людей к платформе. Более точная нацеленность рекламы означала, что Facebook может зарабатывать больше денег на каждом пользователе, не увеличивая рекламную нагрузку , и не так уж много того, что могло пойти не так. Когда Facebook предлагал подросткам крем для зубных протезов, никто не умер.

Реклама стала плацдармом для машинного обучения в Facebook, и вскоре все захотели получить свой кусочек действия. Для руководителей, которым было поручено увеличить количество вступающих в группы Facebook, добавленных друзей и сделанных постов, привлекательность была очевидна. Если методы Киньонеро могли повысить частоту взаимодействия пользователей с рекламой, они могли повысить частоту взаимодействия пользователей со всем остальным на платформе.

Все команды, отвечающие за ранжирование или рекомендации контента, бросились переделывать свои системы так быстро, как только могли, что привело к взрывному росту сложности продукта Facebook. Сотрудники обнаружили, что самые большие успехи часто достигаются не в результате целенаправленных инициатив, а в результате простого возиться. Вместо того чтобы переделывать алгоритмы, что было медленно, инженеры добивались больших результатов с помощью быстрых и грязных экспериментов по машинному обучению, которые сводились к тому, что они бросали на стену сотни вариантов существующих алгоритмов и смотрели, какие из них прижились - какие лучше всего работают с пользователями. Они не обязательно знали, почему та или иная переменная имеет значение или как один алгоритм превосходит другой, например, в предсказании вероятности комментирования. Но они могли продолжать возиться, пока модель машинного обучения не создавала алгоритм, который статистически превосходил существующий, и это было достаточно хорошо.

Трудно представить себе подход к созданию систем, который в большей степени воплощал бы лозунг "Двигайся быстро и ломай вещи". Facebook хотел только большего. Цукерберг привлек Янна ЛеКуна, французского ученого-компьютерщика, специализирующегося на глубоком обучении, то есть на создании компьютерных систем, способных обрабатывать информацию способами, вдохновленными человеческим мышлением. Уже прославившийся созданием основополагающих методов искусственного интеллекта, благодаря которым стало возможным распознавание лиц, ЛеКун возглавил подразделение, которое должно было вывести Facebook в авангард фундаментальных исследований в области искусственного интеллекта.

После успеха с рекламой перед Киньонеро была поставлена не менее сложная задача: как можно быстрее внедрить машинное обучение в кровеносную систему компании. Его первоначальный штат из двух десятков человек - команда , ответственная за создание новых основных инструментов машинного обучения и обеспечение их доступности для других подразделений компании, - вырос за три года, прошедшие с момента его найма. Но он все еще не был достаточно большим, чтобы помочь каждой команде, которая хотела получить помощь в области машинного обучения. Навыки построения модели с нуля были слишком узкоспециализированными, чтобы инженеры могли легко их освоить, а увеличить число докторов наук в области машинного обучения, разбрасываясь деньгами, было невозможно.

Решением стало создание FB Learner, своего рода версии машинного обучения "по цифрам". Он упаковал методы в шаблон, который могли использовать инженеры, в буквальном смысле не понимающие, что они делают. FB Learner сделал для машинного обучения внутри Facebook то, что когда-то сделали сервисы вроде WordPress для создания веб-сайтов, избавив от необходимости возиться с HTML или настраивать сервер. Однако инженеры, о которых идет речь, не создавали блог, а возились с внутренностями того, что быстро становилось ведущей глобальной коммуникационной платформой.

Многие в Facebook знали о растущем беспокойстве по поводу искусственного интеллекта за стенами компании. Плохо разработанные алгоритмы, призванные поощрять хорошее здравоохранение, наказывали больницы, которые лечили более больных пациентов, а модели, призванные количественно оценить риск повторного совершения преступления кандидатом на условно-досрочное освобождение, оказывались предвзятыми в пользу содержания чернокожих в тюрьме. Но в социальной сети эти проблемы казались далекими.

Один из заядлых пользователей FB Learner позже охарактеризовал массовое распространение машинного обучения в Facebook как "вручение ракетных установок двадцатипятилетним инженерам". Но в то время Киньонеро и компания говорили об этом как о триумфе.

"Инженеры и команды, даже с небольшим опытом, могут с легкостью создавать и проводить эксперименты и внедрять продукты на основе искусственного интеллекта в производство быстрее, чем когда-либо", - объявил Facebook в 2016 году, хвастаясь тем, что FB Learner ежедневно получает триллионы точек данных о поведении пользователей и что инженеры проводят на них 500 000 экспериментов в месяц.

Огромное количество данных, которые собирал Facebook, и настолько хорошие результаты таргетинга рекламы, что пользователи регулярно подозревали (ошибочно) компанию в подслушивании их разговоров в офлайне, породили утверждение, что "Facebook знает о вас все".

Это было не совсем верно. Чудеса машинного обучения заслонили его пределы. Рекомендательные системы Facebook работали на основе сырой корреляции между поведением пользователей, а не на основе выявления их вкусов и интересов и последующей подачи контента на их основе. News Feed не могла сказать, нравится ли вам катание на коньках или на велосипеде, хип-хоп или K-pop, и не могла объяснить человеческим языком, почему одно сообщение появилось в вашей ленте выше другого. Хотя эта необъяснимость была очевидным недостатком, системы рекомендаций на основе машинного обучения говорили о глубокой вере Цукерберга в данные, код и персонализацию. Освобожденные от человеческих ограничений, ошибок и предвзятости, алгоритмы Facebook были способны, по его мнению, на беспрецедентную объективность и, что, возможно, более важно, эффективность.

Отдельное направление работы по машинному обучению было посвящено выяснению того, какой контент на самом деле содержится в постах, рекомендованных Facebook. Известные как классификаторы, эти системы искусственного интеллекта были обучены распознаванию образов на огромных массивах данных. За много лет до создания Facebook классификаторы доказали свою незаменимость в борьбе со спамом, позволив поставщикам электронной почты выйти за рамки простых фильтров по ключевым словам, которые блокировали массовые письма, скажем, о "Ви@гре". Получив и сравнив огромную коллекцию писем - некоторые из них были помечены как спам, а некоторые как не спам, - система машинного обучения могла разработать свой собственный рубрикатор для их различения. После того как этот классификатор будет "обучен", его можно будет пустить в свободное плавание, анализируя входящую почту и предсказывая вероятность того, что каждое сообщение будет отправлено во входящие, в папку нежелательной почты или прямиком в ад.

К тому времени, когда в Facebook начали появляться эксперты по машинному обучению, список вопросов, на которые пытались ответить классификаторы, вышел далеко за рамки "Это спам?", во многом благодаря таким людям, как ЛеКун. Цукерберг был уверен в будущем прогрессе этой технологии и ее применении в Facebook. В 2016 году он предсказывал, что в ближайшие пять-десять лет классификаторы превзойдут человеческие способности к восприятию, распознаванию и пониманию, что позволит компании закрывать от неправильного поведения и совершать огромные скачки в соединении мира. Это предсказание оказалось более чем оптимистичным.

Даже по мере совершенствования методов, увеличения массивов данных и ускорения обработки данных один недостаток машинного обучения сохранялся. Алгоритмы, которые создавала компания, упорно отказывались объяснять сами себя. Инженеры могли оценить успешность классификатора, протестировав его, чтобы узнать, какой процент его суждений был точным (его "точность") и какую часть вещей он обнаружил (его "отзыв"). Но поскольку система сама учила себя определять что-то на основе логики собственного дизайна, когда она ошибалась, не было никакой понятной человеку причины.

Иногда ошибки казались бессмысленными. В других случаях они были систематическими и отражали человеческий фактор. Артуро Бежар вспоминает, что в самом начале работы Facebook над классификатором для выявления порнографии система регулярно пыталась отсеять изображения кроватей. Вместо того чтобы научиться определять людей, занимающихся сексом, модель научилась распознавать мебель, на которой они чаще всего занимаются сексом.

Проблема легко решалась: инженерам нужно было просто обучить модель на большем количестве матрасных сцен с рейтингом PG. Это стало хорошей шуткой - если не принимать во внимание, что форма машинного обучения, которую только что испортили инженеры, была одной из самых простых, которые использовал Facebook. Подобные фундаментальные ошибки продолжали происходить, даже когда компания стала полагаться на гораздо более продвинутые методы ИИ для принятия гораздо более весомых и сложных решений, чем "порно или не порно". Компания полностью перешла на искусственный интеллект, как для определения того, что должны видеть люди, так и для решения любых проблем, которые могут возникнуть.

Несомненно, компьютерная наука была ослепительной, а достижения - конкретными. Но скорость, широта и масштабы внедрения машинного обучения в Facebook обошлись без понятности. Почему алгоритм Facebook "Страницы, которые вам могут понравиться" так сосредоточен на рекомендациях определенных тем? Как видеофрагмент из компьютерной анимации о зубных имплантатах оказался просмотренным сто миллионов раз? И почему некоторые новостные издательства добивались вирусности, просто переписывая материалы других изданий?

Отвечая на эти вопросы, специалисты по связям с общественностью Facebook отмечали, что системы компании реагируют на поведение людей и не учитывают вкусы. Эти доводы было трудно опровергнуть. Они также скрывали неудобный факт: Facebook добивалась своего роста не совсем понятными способами.

Через пять лет после объявления о начале использования машинного обучения для рекомендации контента и таргетирования рекламы системы Facebook будут настолько сильно зависеть от искусственного интеллекта, способного к самообучению, что без этой технологии, с гордостью заявил Янн ЛеКун, от продуктов компании останется лишь "пыль".

-

Как и большинство членов продуктовых команд Facebook, Хоакин Киньонеро обладал тем, что он называл "инженерным мышлением". Успех заключался в определении проблемы, а затем в создании чего-то эффективного, мощного и широко используемого для ее решения. "Я явно не ожидал непредвиденных последствий интеграции упрощенного машинного обучения в продукт", - говорит он.

Появление машинного обучения в ранжировании ленты было в то время большим событием, хотя мало кто в Facebook понимал, что компания переходит Рубикон. Facebook не просто менял порядок, в котором люди видели посты, - он менял всю динамику социальной жизни в Интернете.

До появления ранжированной ленты добавление в друзья означало занесение в очередь на просмотр всех его будущих сообщений - непривлекательная перспектива для случайного знакомого или гиперпостинга родственника. Как и в оффлайновой жизни, было только столько людей, с которыми вы могли поддерживать связь, только столько групп, в которые вы могли вступить.

Ранжирование устранило эту социальную нагрузку. Пользователи могли следить за сотнями аккаунтов и страниц, не перегружая свой аккаунт; удаленные связи в идеале появлялись только тогда, когда они публиковали что-то исключительно интересное. Это изменение сделало дружбу менее значимой, и пользователи перестали курировать группы друзей - это было большим изменением по сравнению с социальным миром офлайн. С разбуханием списков друзей платформа стала более публичной, побуждая людей создавать контент, который будет пользоваться популярностью у широкой аудитории, и избегать публикации более интимных вещей, которые они не хотели бы передавать случайным знакомым или даже людям, которых они на самом деле не знают.

По мере того как платформа становилась все более зрелой, а число ее пользователей росло и исчислялось миллиардами, Facebook пытался найти правильные показатели успеха. С самого начала высшее руководство компании больше всего ценило показатель Daily Average People, или DAP, - количество пользователей, зашедших на сайт в тот или иной день. Когда эта метрика стала неактуальной в попытках Facebook ускорить свой рост, компания обратилась к сессиям - совокупному количеству заходов на Facebook каждый день, а также к затраченному времени и метрикам производства и потребления определенных типов контента. Наконец, появилась обширная категория показателей вовлеченности, которые варьировались от фундаментальных (повторные публикации) до заумных (взаимодействие с уведомлениями о дне рождения).

Одной из целей, которая явно отсутствовала в регулярных обсуждениях, были деньги. Даже для сотрудников, отвечающих за таргетинг рекламы, "релевантность" должна была превалировать над долларами и центами. Среди сотрудников отдела продуктов обсуждение финансовых последствий решений Facebook было под запретом, а конфликты между пользой и прибылью обычно решались в пользу пользы. "Мы не создаем сервисы, чтобы зарабатывать деньги; мы зарабатываем деньги, чтобы создавать лучшие сервисы", - написал Цукерберг в "Красной книге" 2012 года, призванной воплотить революционную этику Facebook. Положенная на стол каждому новому сотруднику, книга номинально была создана, чтобы отметить достижение платформой миллиарда пользователей. Но она появилась всего через несколько месяцев после первичного размещения акций Facebook. В условиях огромного и стремительно развивающегося рынка миссию компании - сделать мир более открытым и связанным - иногда было трудно отличить от более жадного стремления к завоеванию доли рынка.

Со временем, когда добиться роста становилось все труднее, Facebook все больше полагался на одну особенность своей платформы: вирусность. Любовь Цукерберга к этому явлению проявилась в 2014 году, когда он принял участие в акции Ice Bucket Challenge - вылил ведро ледяной воды себе на голову, чтобы привлечь внимание общественности и собрать деньги на исследования , направленные на лечение дегенеративного неврологического заболевания ALS, и опубликовал видео в Facebook вместе с миллионами других людей. Акция Ice Bucket Challenge собрала более 100 миллионов долларов для главной благотворительной организации, занимающейся лечением этого заболевания, - Ассоциации ALS. На протяжении многих лет Цукерберг приводил это видео в качестве доказательства того, что компания приносит пользу всему миру.

Чтобы стимулировать вирусность, Facebook изменил дизайн новостной ленты, чтобы побудить людей нажимать на кнопку повторной публикации или следить за страницей, когда они просматривают пост. Инженеры изменили алгоритм Facebook, чтобы увеличить частоту репостов контента от незнакомых людей. Facebook также начал поиск "трения" - всего, что замедляло работу пользователей или ограничивало их активность, - с целью его устранения. Одно из таких изменений дало пользователям возможность создавать неограниченное количество страниц. Другое позволило им размещать один и тот же материал сразу в нескольких группах. Третье - приоритетно рекомендовало аккаунты, которые, скорее всего, примут запрос в друзья. Несмотря на различия в механизмах, все они способствовали ускорению работы Facebook.

Время от времени сотрудники замечали, что поведение, которое поощряла компания, выглядит немного странно. В заметке, озаглавленной "1% френдов", специалист по изучению данных отметил, что после нескольких лет "оптимизации объема френдов" поведение френдов становится все более неравномерным. Всего 0,5 % аккаунтов отвечали за большинство новых связей, и эти пользователи отправляли более пятидесяти запросов в день. Возможно ли, что эти беспорядочные друзья не создавали по-настоящему ценных отношений?

В ответ коллеги рассуждали о том, как изменить алгоритм Facebook "Люди, которых вы можете знать" или ограничить пользователей от более чем ста запросов в друзья в течение нескольких дней подряд. Но никто, похоже, не считал однобокий рост числа друзей в Facebook насущной проблемой.

Инструменты компании становились все сложнее, но цели и методы - нет. Facebook хотела, чтобы пользователи публиковали, взаимодействовали и потребляли больше контента, и после коротких тестов изменяла платформу любым способом, который позволял им это делать. Компания хотела роста и не слишком внимательно следила за тем, как он достигается.

-

Перед выборами 2016 года, когда все эти изменения укоренились, Криса Кокса в значительной степени беспокоило то, что происходило с Facebook за рубежом. Женатый на тайской женщине, которая сняла получивший широкую известность документальный фильм о работнице секс-индустрии в Бангкоке, Кокс был более внимателен к международным пользователям Facebook, чем многие другие. (Он также практикующий буддист и известный хороший человек).

В 2008 году компания Facebook с головой ушла в международную экспансию, привлекая пользователей к переводу своего сайта. Через два года компания предлагала свои услуги на семидесяти пяти языках. Однако нанять людей, говорящих на этих языках, было совсем другой историей.

К сожалению, заграничный рывок компании пришелся как раз на тот момент, когда Шерил Сэндберг пыталась ввести контроль над расходами в преддверии первичного размещения акций Facebook, и она распорядилась заморозить численность персонала в Community Operations, команде, которой поручено удалять оскорбления, угрозы, мошенничество и другую незаконную деятельность, когда она обнаруживает их, как правило, через сообщения пользователей.

"Мы отставали даже тогда, когда все только начиналось, а все остальные регионы становились горячими точками", - говорит Шарлотта Уиллнер, которая возглавляла группу международной поддержки в течение почти трех лет. "Если я хотела нанять кого-то с египетским арабским, мне приходилось отказываться от корейского". Даже на некоторых из крупнейших зарубежных рынков Facebook полностью полагалась на Google Translate, чтобы контролировать пользовательский контент.

Однажды Уиллнер случайно прочитал отчет неправительственной организации, в котором говорилось об использовании Facebook для знакомства и организации встреч с десятками молодых девушек, которых затем похищали и продавали в сексуальное рабство в Индонезии. Цукерберг в то время отрабатывал навыки публичных выступлений и попросил сотрудников задавать ему сложные вопросы. Так, на собрании всех сотрудников Уиллнер спросил его, почему компания выделила деньги на первую в истории телевизионную рекламу - недавно выпущенный девяностосекундный ролик, в котором Facebook уподобляется стульям и другим полезным конструкциям, - но не выделила бюджет на сотрудника, который бы занялся известной ролью своей платформы в похищении, изнасиловании и иногда убийстве индонезийских детей.

Цукерберг выглядел физически больным. Он сказал Уиллнеру, что ему необходимо изучить этот вопрос. В течение недели запрос Уиллнера о численности персонала был профинансирован.

Она не винит лично Цукерберга за такое положение дел. "Не может быть, чтобы Марк думал, что это тот компромисс, на который он хочет пойти, но где-то в этой гигантской цепи кто-то принял такое решение", - сказала она. "Так работают большие организации".

Игра Уиллнер за ресурсы, возможно, и принесла победу, но не стала тревожным сигналом. По словам Уиллнер, к тому времени, когда общее замораживание численности персонала было отменено, компания безнадежно отстала на тех рынках, где, по ее мнению, вероятность злоупотреблений со стороны Facebook была наиболее высока. Уходя из Facebook в 2013 году, она пришла к выводу, что компания никогда не сможет наверстать упущенное.

Летом 2016 года президентские выборы в США были еще на горизонте, когда Кокс созвал очередную рабочую группу из инженеров, социологов, экономистов и специалистов по обработке данных. Его беспокоила поляризация, и главной темой для его новой группы стали "пузыри фильтров".

Это явление было популяризировано несколькими годами ранее в выступлении на TED Элая Паризера, основателя прогрессивной правозащитной группы MoveOn.org. Концепция была проста: по мере того как интернет-компании все больше персонализировали контент, который они рекомендовали пользователям, эти люди получали более узкий взгляд на мир. В то время разворачивалась "арабская весна", и Паризер продемонстрировал идею "пузырей фильтров", рассказав о том, что произошло, когда он попросил друзей набрать в Google "Египет". Результаты одного из друзей были наполнены ссылками на информацию о продолжающемся восстании. Результаты второго друга не содержали информации о восстании, а содержали советы по путешествиям и фотографии пирамид. Выступление Пэризера в 2011 году положило начало дискуссии о том, может ли такая персонализация создать "эхо-камеры", в которых люди будут получать только ту информацию, которая соответствует их мировоззрению.

В 2015 году Facebook опубликовал в престижном журнале Science статью, в которой исследовал, не подвергают ли рекомендации его новостной ленты пользователей более пристрастному питанию, чем они могли бы увидеть самостоятельно. Вердикт, вынесенный на основе анализа новостных лент 10 миллионов пользователей, гласил: "Индивидуальный выбор в большей степени, чем алгоритмы, ограничивает доступ к контенту, меняющему отношение". В пресс-релизе Facebook назвал результаты исследования опровергающими опасения по поводу "пузырей фильтров". Критический обзор в журнале Wired поставил под сомнение методологию исследования, которое стало известно как "исследование Facebook "Это не наша вина"", но работа, тем не менее, собрала тысячи ссылок в будущих исследованиях.

Не меньшее беспокойство вызвал анализ, которым поделилась рабочая группа, относительно особого типа новостных публикаций в Facebook, особенно тех, которые обслуживают оголтелых партизан. Сайты с общими названиями типа 365USANews набирали огромный трафик в Facebook благодаря грамматически и фактически неверным заголовкам.

"Казалось, что безумные экстремистские сайты живут за счет питательных веществ, которые дает им Facebook. Если бы Facebook отключил их, Google и органический трафик не поддержали бы их", - вспоминает один из специалистов по изучению данных, участвовавший в работе. "Это было первое реальное подтверждение этого".

Как бы ни был примечателен этот результат - в разгар предвыборного сезона, - от команды, отвечающей за такие сайты, не требовали немедленных изменений. Работа велась просто для того, чтобы компания могла разобраться в ситуации. "Работа шла относительно медленно, и люди, участвовавшие в ней, были немного более академичны", - вспоминает один из участников, занимавший должность в команде по рейтингу новостной ленты.

Даже если бы члены группы были готовы к действиям, они столкнулись бы с препятствием: Цукерберг лично приказал компании отказаться от всего, что напоминало бы человеческое курирование.

Приказ возник в результате спора вокруг "Трендинговых тем" Facebook, регулярно обновляемого списка самых горячих новостей на сайте. Внедренные в 2014 году в качестве попытки конкурировать с Google News и Twitter, "Трендовые темы" позволили Facebook использовать свои автоматизированные системы для выявления тем, которые набирали популярность. Затем члены небольшой команды кураторов выбирали заслуживающие доверия, репрезентативные новости для продвижения с помощью краткой статьи. Некоторые материалы были связаны с политикой, некоторые - с развлечениями, и все они помещались в небольшое поле в правом верхнем углу сайта. Продукт был второстепенным, принципиально не связанным с основным рейтингом ленты новостей Facebook.

Однако сонный статус этой функции изменился в мае 2016 года, когда Майкл Нуньес, репортер технологического сайта Gizmodo, опубликовал серию статей о ее непрозрачной механике. В первой статье Нуньес взял интервью у людей, редактировавших Trending Topics, и обнаружил группу безработных представителей СМИ из Лиги плюща, нанятых через кадровое агентство и работавших в подвале нью-йоркской штаб-квартиры Facebook (двое из них оказались бывшими соседями Нуньеса по комнате). "Никто толком не знает, как это работает, и компания не рассказывает", - пишет журналист.

Компания, предоставившая лишь беглый комментарий для статьи, впоследствии пожалела, что не стала играть в мяч. Хотя статья вызвала шумиху в медиакругах, она не шла ни в какое сравнение с последующей статьей Нуньеса, опубликованной неделю спустя и озаглавленной "Бывшие сотрудники Facebook: We Routinely Suppressed Conservative News". Взрывное утверждение о политической предвзятости, содержащееся в заголовке, в основном опиралось на одного бывшего сотрудника, который вел журнал популярных среди консерваторов тем, которые, по его мнению, обходили стороной его коллеги, например, обвинения в адрес комиссара налоговой службы Лоис Лернер и любые истории о скандальном консервативном комике Стивене Краудере с YouTube.

Нигде в статье Нуньеса нет утверждения, что сама компания просила кого-то положить палец на чашу весов против консерваторов. Единственное требование руководства Facebook заключалось в том, чтобы команда избегала выделения историй о самой Facebook. "Другими словами, новостной раздел Facebook работает как традиционный отдел новостей, отражая предубеждения своих сотрудников и институциональные императивы корпорации", - пишет Нуньес. "Наложение человеческих редакторских ценностей на списки тем, которые выдает алгоритм, ни в коем случае не является чем-то плохим - но это резко контрастирует с заявлениями компании о том, что модуль трендов просто перечисляет "темы, которые недавно стали популярными на Facebook". "

Даже если суть истории сводится к тому, что "Facebook занимается скромным человеческим курированием", призрак преднамеренной предвзятости открыл банку с червями в тот самый момент, когда демонизация Трампом СМИ стала центральной частью его кампании.

Кэти Харбат находилась на Филиппинах в момент появления этой истории и узнала о ней, когда в ее ленте новостей стали появляться возмущенные посты друзей-республиканцев с сайта . Она передала свой телефон сотруднику отдела по связям с общественностью Facebook и рассказала, что компания вот-вот станет центральной фигурой в обвинениях консерваторов в предвзятости СМИ.

Она оказалась права. Задача по подавлению возмущения выпала на долю Молли Катлер, юриста и доверенного лица Шерил Сэндберг. Часть работы Катлер заключалась в проведении внутреннего анализа, в ходе которого она обнаружила, что внимание, уделяемое консервативным и либеральным новостным изданиям в Trending Topics, было "практически одинаковым". Трамп был самой обсуждаемой темой и для тех, и для других.

Но Цукербергу этого оказалось недостаточно. Компания поспешила организовать встречу генерального директора с "лидерами консервативной мысли", включая Гленна Бека, Такера Карлсона и Барри Беннета, помощника Трампа, на которой Цукерберг пообещал решительно защищать нейтралитет платформы. "Я хотел лично выслушать их проблемы и провести открытый разговор о том, как мы можем укрепить доверие", - написал Цукерберг в Facebook после встречи.

Через несколько месяцев Facebook уволил всю команду Trending Topics, отправив охранника выпроводить их из здания. В объявлении отдела новостей говорилось, что компания всегда надеялась сделать Trending Topics полностью автоматизированной, и отныне так и будет. Если история превосходила показатели вирусных новостей Facebook, она становилась лидером Trending Topics.

Эффект от переключения не был незаметным. Освобожденный от оков человеческих суждений, код Facebook стал рекомендовать пользователям посмотреть на празднование "Национального дня топлесс", ложную историю о том, что Мегин Келли была уволена с Fox News, и слишком точную историю под названием "Мужчина снимает себя на камеру, занимаясь сексом с сэндвичем McChicken".

Если не принимать во внимание чувства команды социальных сетей McDonald's, есть основания сомневаться в том, что вовлеченность в эту финальную историю отражает подлинный интерес публики к завинчиванию сэндвичей: большая часть вовлеченности, очевидно, исходила от людей, желающих никогда не видеть этот проклятый контент. Тем не менее, Цукерберг предпочитал, чтобы все было именно так. Восприятие нейтральности Facebook имело первостепенное значение; сомнительное и неприятное было лучше, чем предвзятое.

"Цукерберг сказал, что от всего, что связано с человеком, мы должны избавиться, насколько это возможно", - вспоминает член команды по ранней поляризации.

Среди первых жертв такого подхода оказался единственный инструмент компании для борьбы с мистификациями. Более десяти лет Facebook избегала удаления даже самой очевидной чепухи, что было не столько принципиальной позицией, сколько единственно возможным вариантом для стартапа. "Мы были кучкой студентов в одной комнате", - говорит Дейв Уиллнер, муж Шарлотты Уиллнер и человек, написавший первые стандарты контента Facebook. "Мы были радикально не готовы и не имели права решать, какой должна быть правильная история мира".

Но когда компания начала получать миллиарды долларов ежегодной прибыли, появились, по крайней мере, ресурсы для рассмотрения проблемы фальшивой информации. В начале 2015 года компания объявила, что нашла способ борьбы с мистификациями без проверки фактов, то есть без оценки правдивости самой информации. Она просто будет подавлять контент, о котором пользователи непропорционально часто сообщают как о ложном.

Никто не был настолько наивен, чтобы думать, что это не может вызвать споров или что этой функцией не будут злоупотреблять. В разговоре с Адамом Моссери один из инженеров спросил, как компания будет реагировать, например, на мистифицированные "развенчания" рукотворного глобального потепления, которые были популярны среди американских правых. Моссери признал, что с изменением климата будет сложно, но сказал, что это не повод останавливаться: "Вы выбираете самый сложный случай - большинство из них окажутся не такими уж сложными".

Компания Facebook без лишнего шума обнародовала информацию о своей работе по борьбе с ложью, сделав заявление, в котором точно отметила, что пользователи достоверно сообщают о ложных новостях. При этом было упущено, что пользователи также сообщают о ложных новостях, которые им не нравятся, независимо от их точности.

Чтобы остановить поток ложных срабатываний, инженеры Facebook придумали обходной путь: "белый список" доверенных издателей. Такие безопасные списки широко распространены в цифровой рекламе, позволяя, например, ювелирам покупать заранее разрешенную рекламу на множестве авторитетных свадебных сайтов, исключая при этом такие домены, как www.wedddings.com. Белые списки Facebook были примерно такими же: они составили щедрый список признанных новостных сайтов, чьи материалы будут рассматриваться как не подлежащие сомнению.

Решение было нелепым и могло поставить в невыгодное положение малоизвестные издательства, специализирующиеся на фактических, но неоднозначных материалах. Тем не менее оно эффективно снижало успех ложных вирусных новостей в Facebook. Так было до тех пор, пока компания не столкнулась с обвинениями в предвзятости в отношении Trending Topics. Тогда Facebook упреждающе отключил эту функцию.

Отключение защиты Facebook от мистификаций стало одной из причин резкого роста фальшивых новостей осенью 2016 года. До президентских выборов оставались считанные месяцы, а руководство Facebook уже сняло ногу с тормоза.

"Все это стало прямым следствием того, что СМИ сосредоточились на трендовых историях", - отметил сотрудник, составляющий рейтинг ленты новостей. "Это привело к ужасному слепому пятну".


Глава 4

Федеральное бюро расследований хотело встретиться с Джеймсом Барнсом и его адвокатами на парковке отеля Holiday Inn в Вашингтоне.

Подъехал черный городской автомобиль с двумя мужчинами на переднем сиденье, которые велели Барнсу сесть посередине, между двумя его адвокатами, предоставленными Facebook. Затем они отвезли его в неприметное офисное здание, где проходило расследование Роберта Мюллера о вмешательстве России в выборы 2016 года. Наверху мужчины приступили к допросу. Они хотели знать, есть ли русские в офисе в Сан-Антонио.

"Вы, ребята, должно быть, шутите, - ответил Барнс.

"Хорошо, но вы же знаете, что мы должны были спросить", - ответил агент.

Мюллер вел расследование о возможном российском вмешательстве в выборы Трампа с мая 2017 года, когда в стране появились сообщения о контактах между окружением Трампа и российскими чиновниками, а также попытки понять, как такой человек, как Трамп, мог попасть в Белый дом.

Первое предупреждение о том, что Россия пытается вмешаться в предстоящие выборы, Facebook получил в 2015 году, как и другие крупные технологические компании. Но основное внимание уделялось тому, что русские могут сделать с платформами социальных сетей, а не риску того, что они станут на них популярны. Репортеры, в том числе Адриан Чен из New York Times Magazine, писали о "ферме троллей" под названием "Агентство интернет-исследований", базировавшейся в Санкт-Петербурге, но никому в Facebook не приходило в голову, что группа злонамеренных иностранных пользователей может запустить масштабную манипуляцию в социальной сети с 2 миллиардами пользователей.

Компания была не одинока. Правительство было сосредоточено на перспективе того, что русские попытаются испортить результаты выборов, а не склонить избирателей. "Идея применения операций влияния в интернете и социальных сетях в 2016 году не была сосредоточена на этом", - говорит Натаниэль Глейшер, бывший директор по политике кибербезопасности Агентства национальной безопасности, который в начале 2018 года перешел в Facebook на должность главы отдела политики кибербезопасности.

После выборов люди как внутри, так и вне Facebook задавали множество вопросов, которые раньше казались бы неправдоподобными. Команда под руководством Алекса Стамоса, директора по безопасности Facebook, начала искать сети российских пользователей, которые играли в американскую политику, и они их нашли. Помимо масштабных операций русских по взлому и утечке информации - они атаковали Демократический национальный комитет, а затем электронную почту руководителя предвыборного штаба Хиллари Клинтон Джона Подесты - они вложили средства в создание партизанских аккаунтов и страниц в Facebook, которые накачивались политической желчью в ходе президентской гонки. Большинство материалов были враждебны Клинтон, но сети фальшивых аккаунтов занимались и антитрамповской пропагандой. Проблема была общеиндустриальной. Аналогичные вскрытия проводились в Twitter и YouTube с похожими результатами.

Первой реакцией компании на выводы Стамоса было разочарование. Второй реакцией был вопрос о том, чего еще она не знает. Расследование Мюллера только начиналось, и пресса пестрила историями о контактах между помощниками Трампа и российскими агентами. Возможно ли, что люди в орбите Трампа были посвящены в российские манипуляции в социальных сетях? Компания провела исчерпывающую проверку, тщательно изучив, что искали в Facebook помощники Трампа, с кем они переписывались и какой контент просматривали, в поисках возможных доказательств сотрудничества или предвидения. Они не нашли ни одного.

По итогам обзора Facebook оказалась в той же лодке, что и большая часть Вашингтона и средств массовой информации: компания с радостью осознает, что социальные сети сыграли решающую роль в выборах 2016 года, но не понимает, каким образом.

История стала еще хуже, когда выяснилось, что русские потратили 100 000 долларов на предвыборную рекламу в Facebook, причем часть из них была оплачена в рублях. Facebook проанализировал расходы и увидел, что они соответствуют схеме, используемой обычными вирусными маркетологами. Русские создали страницы с такими названиями, как Blacktivist и Secured Borders, а затем купили так называемую рекламу "Страница нравится", чтобы дешево приобрести подписчиков. Эти объявления были именно такими, как они звучали - их единственным призывом к действию было поставить лайк странице, тем самым гарантируя, что зритель получит будущие посты, за продвижение которых владелец страницы не платил. Как только страница становилась достаточно большой, покупка рекламы прекращалась, и страница собирала аудиторию за счет "органического" распространения. Объявления типа "Страница нравится" были для русских способом купить путь к массовому масштабу. "Объявления на странице "Нравится" были входом на супермагистраль дезинформации", - так выразился один из директоров Facebook.

Facebook подвергалась нападкам каждый раз, когда появлялось новое разоблачение деятельности России, и Шерил Сэндберг это надоело. Она хотела дать понять, что компания ничего не скрывает. Для этого ей нужно было показать, что она не боится перевернуть все камни. Она обратилась к команде, занимающейся экспертизой операций русских, со странной просьбой: Что было самым ужасным и шокирующим, что компания могла раскрыть о вмешательстве в работу платформы? По ее мнению, как только это станет известно, причем не иначе как от руки самой Facebook, компания сможет оставить скандал в прошлом. Исследователи посоветовали ей обратить внимание на "охват" - термин, заимствованный из рекламы, который подсчитывает общее число людей, хотя бы раз увидевших определенный контент. Этот показатель будет намного больше, чем, например, количество сообщений, которые сделали россияне, или количество людей, которые с ними общались. Компания обнародует статистику "охвата" на слушаниях в Конгрессе, посвященных манипуляциям в социальных сетях, в которых также примут участие представители YouTube и Twitter.

Накануне слушаний, осенью 2017 года, репортеры ознакомились с подготовленными показаниями юрисконсульта Facebook Колина Стретча и его коллег из Twitter и Google. Twitter признал, что обнаружил 131 000 российских твитов. Google сообщил, что было загружено "более 1 000" российских видео. Со своей стороны, Facebook назвал девятизначную цифру. Сравнение было не столько яблоком с апельсином, сколько яблоком со школьным автобусом. Как часть триллионов просмотров контента за время выборов 2016 года, это было ничтожно мало - ошибка округления, - но звучало, конечно, много:

"Только через Facebook российское влияние достигло 126 миллионов человек", - гласил заголовок New York Times.

-

На протяжении всех споров вокруг России и фейковых новостей Цукерберг сохранял невозмутимый вид, оставив наведение порядка своим помощникам. В компании говорят, что он внимательно следил за ходом работ, но у генерального директора были и другие дела, например, выполнение ежегодных личных задач, которые он публиковал на Facebook. Иногда эти задачи были связаны с проблемами самой Facebook: Когда Цукерберг столкнулся с вопросами о том, достаточно ли он взрослый, чтобы быть генеральным директором, он публично решил каждый день надевать галстук. Когда Facebook стремилась выйти на рынок Китая, он взялся за изучение мандаринского языка. Целью Цукерберга на 2017 год, выбранной им на фоне бурно обсуждаемых выборов, было посещение каждого штата. "Моя работа заключается в том, чтобы соединить мир и дать каждому возможность высказаться", - написал он. "В этом году я хочу лично услышать больше таких голосов".

Затем появилась компания Cambridge Analytica.

17 марта 2018 года на первых полосах газет New York Times и Guardian появились сенсационные заявления Кристофера Уайли, розовощекого бывшего сотрудника британской компании, занимающейся разработкой цифровых стратегий. Компания имела очевидные связи с семьей Мерсеров и миллиардерами-донорами Трампа, и Уайли заявил, что, по его мнению, фирма делала предложения русским.

На самом деле история оказалась более скучной, чем можно было предположить из ежедневного потока новостей того времени. Начиная с 2010 года, Facebook разрешил сторонним разработчикам получать доступ к данным из профилей пользователей Facebook, когда они использовали продукты разработчиков. Эта информация включала в себя не только активность самого пользователя, но и его друзей, включая посты, фолловеров и лайки. Когда в последующие годы стало известно об ужасной практике компании в области конфиденциальности данных, Facebook закрыл доступ к "открытому графу", но ранее полученные данные оказались не в ее руках. Cambridge Analytica приобрела именно такие данные и использовала их для создания "психографических профилей" - туманного термина, который подразумевает возможность глубокого, почти подсознательного психологического манипулирования с помощью "поведенческого микротаргетинга". Нет никаких признаков того, что кампания Трампа когда-либо использовала эту информацию, или что она была бы очень полезной, если бы использовала - данные, которыми располагала Cambridge Analytica, были частичными и двухлетней давности, что является пожизненным сроком для целей таргетинга рекламы.

Загрузка...