Часть I. Использование правильных карт

Карта – это еще не сама местность.

Альфред Коржибский

Глава 1. Видеть будущее в настоящем

Сми часто навешивают на меня ярлык футуриста. Я себя таковым не считаю. Я считаю себя картографом. Я составляю карту настоящего, с помощью которой легче увидеть возможности будущего. Карта – это не только изображение физического местоположения и маршрута. Картой можно назвать любую систему, которая помогает нам понять, где мы находимся и куда мы стремимся. Одна из моих любимых цитат – цитата Эдвина Шлоссберга: «Мастерство писателя заключается в умении создать контекст, в котором смогут мыслить другие люди». Эта книга – карта.

Мы используем карты – упрощенные абстракции реальных условий, которые они изображают, – не только когда пытаемся добраться из одного места в другое, но в каждом аспекте нашей жизни. Когда мы идем по нашему темному дому, не включая свет, это возможно потому, что мы можем представить ментальную карту пространства, расположение комнат, местонахождение каждого стула и стола. Точно так же, когда предприниматель или венчурный капиталист каждый день идет на работу, он или она представляет ментальную карту технологий и ландшафт бизнеса. Мы разделяем мир на категории: друг или знакомый, союзник или конкурент, важное или неважное, срочное или незначительное, будущее или прошлое. Для каждой категории у нас есть ментальная карта.

Но, как мы знаем из печальных историй о людях, которые слепо следуют за своим GPS-навигатором и падают с несуществующего моста, карты могут ошибаться. В бизнесе и в технологиях мы часто не понимаем, что находится впереди, потому что мы двигаемся, руководствуясь старыми картами, а иногда даже плохими картами – картами, которые не содержат важнейших сведений об окружающей среде или, возможно, даже искажают информацию о ней.

Чаще всего в быстро изменяющихся областях, таких как наука и техника, карты неправильные просто потому, что столь многое еще не изведано. Каждый предприниматель, каждый изобретатель также является исследователем, пытающимся понять, что можно сделать, что работает, а что нет и как двигаться вперед.

Вспомните предпринимателей, которые занимались строительством трансконтинентальной железной дороги США в середине девятнадцатого века. Впервые идея была предложена в 1832 году, но до 1850-х годов не было ясно даже то, осуществим ли проект в принципе. И тогда палата представителей США предоставила финансирование для серии исследований американского Запада, предшествующих любому фактическому строительству. Три года исследований, с 1853-го по 1855-й, привели к созданию Тихоокеанских железных дорог – вначале в виде двенадцатитомного сборника данных о 400 000 квадратных миль американского Запада.

Но даже все эти данные не внесли окончательной ясности. Велись ожесточенные споры о наилучшем маршруте, дискуссии, которые касались не только геофизических преимуществ северных и южных маршрутов, но также и вопроса о продолжении использования рабского труда. Даже когда предполагаемый маршрут был утвержден и в 1863 году началось строительство, возникли непредвиденные проблемы, на порядок серьезнее, чем предполагалось ранее, – погодные условия, которые были слишком сложными для локомотива и делали ряд маршрутов непроходимыми в зимний период. Вы не можете просто нарисовать линии на карте и ожидать, что все будет отлично работать. Карту необходимо было уточнять и перерисовывать с добавлением большего количества важных данных, пока она не стала достаточно четкой, чтобы действовать в соответствии с ней. Исследователи и геодезисты множество раз шли по ложному пути, прежде чем принять решение об окончательном маршруте.

Создание правильной карты – первая проблема, с которой мы сталкиваемся в понимании смысла современных WTF-технологий. Прежде чем мы сможем понять, что делать с ИИ, программами, предоставляющими услуги по требованию и исчезновением рабочих мест для среднего класса, а также как эти вещи могут повлиять на будущее, в котором мы хотим жить, мы должны убедиться, что мы не ослеплены старыми идеями. Мы должны видеть закономерности, которые выходят за границы прежнего понимания.

Карта, с которой мы следуем в будущее, подобна пазлу с множеством недостающих фрагментов. Вы можете видеть примерные очертания одной закономерности здесь и еще одной там, но между ними существуют огромные пробелы, и вы никак не можете их соединить. И вот однажды кто-то высыпает на стол еще один набор пазлов, и внезапно вырисовывается картина. Карта неизведанной территории отличается от пазла тем, что никто не знает полную итоговую картину заранее. Она не существует до тех пор, пока мы не увидим ее – этот пазл, картину которого мы собираем вместе, по мере продвижения вперед, совершая открытия по мере исследования. Поиск нашего пути к будущему – это процесс взаимодействия, в котором каждый исследователь заполняет важнейшие фрагменты пазла, что позволяет другим идти вперед.

Прислушаться к рифме

Марку Твену приписывают высказывание: «История не повторяется, но она часто рифмуется». Изучите историю и обратите внимание на ее закономерности. Это первый урок, как думать о будущем, который я усвоил.

История о том, как возник термин «открытое программное обеспечение», как он был усовершенствован и вошел в обиход в далеком 1998 году – что он помог нам понять об изменении характера программного обеспечения, как это новое понимание изменило концепцию промышленности и что он предсказал о будущем мире, – показывает, как ментальные карты, которые мы используем, ограничивают наше мышление и как пересмотр карты может изменить выбор, который мы делаем.

Прежде чем я углублюсь в то, что сейчас зовется древней историей, мне нужно, чтобы вы мысленно вернулись в 1998 год.

Программное обеспечение продавалось в обернутых в целлофан коробках, причем обновления выпускались в лучшем случае раз в год, часто раз в два или три года. Только у 42 % американских семей был персональный компьютер, в то время как у 80 % сегодня есть смартфоны. Только у 20 % населения США был мобильный телефон. Интернет вдохновлял инвесторов, но количество его пользователей было мизерным, всего 147 миллионов во всем мире, по сравнению с 3,4 миллиарда сегодня. Более половины всех пользователей США получали доступ к Интернету через провайдера AOL. Amazon и eBay появились три года назад, а Google был основан только в сентябре того же года.

Microsoft сделал Билла Гейтса, своего основателя и генерального директора, самым богатым человеком в мире. Это была компания-лидер в области технологий, практически монополист в предложении программного обеспечения персонального компьютера, в этой сфере она уничтожала конкурента за конкурентом. Министерство юстиции США начало антимонопольное расследование в отношении компании в мае того же года, так же как оно поступило почти тридцатью годами ранее в отношении IBM.

В отличие от запатентованного программного обеспечения, которое сделало компанию Microsoft столь успешной, открытое программное обеспечение распространяется по лицензии, что позволяет каждому свободно изучать, модифицировать и программировать на его основе. Примеры открытого программного обеспечения включают операционные системы Linux и Android; веб-браузеры, такие как Chrome и Firefox; популярные языки программирования, такие как Python, PHP и JavaScript; современные инструменты обработки большого объема данных, такие как Hadoop и Spark; и передовые инструменты, управляемые искусственным интеллектом, такие как TensorFlow от Google, Torch Facebook или CNTK от Microsoft.

В начале компьютерной эры большинство программ было с открытым исходным кодом, хотя называлось это по-другому. Некоторое базовое программное обеспечение поставлялось вместе с компьютером, но большая часть кода, которая делала компьютер действительно полезным, была записана в специализированных программах, предназначенных для решения конкретных задач. В частности, программное обеспечение, написанное учеными и исследователями, часто предоставлялось в открытом доступе. Однако в конце 1970-х и в 1980-е годы компании поняли, что контроль доступа к программному обеспечению приносит им коммерческую выгоду, и стали закрывать доступ, используя ограничительные лицензии. В 1985 году Ричард Столлман, программист Массачусетского технологического института, опубликовал «Манифест GNU», в котором изложил принципы того, что он назвал «свободным программным обеспечением». При этом free – не в смысле бесплатное, а free в смысле свободы обучения, перераспределения и модификации программного обеспечения без специального разрешения.

Амбициозной целью Столлмана было создание абсолютно бесплатной версии операционной системы AT&T Unix, первоначально разработанной в Bell Labs, исследовательском подразделении AT&T. К тому времени, когда Unix впервые появилась в конце 1970-х годов, AT&T была юридически признанной монополией с огромной прибылью от регулируемых услуг телефонной связи. Вследствие этого, в соответствии с мирным соглашением, подписанным в 1956 году с министерством юстиции, AT&T запрещалось вести конкурентную борьбу в компьютерной индустрии, в то время контролируемой IBM, и Unix была лицензирована на либеральных условиях для исследований в области компьютерных наук. В ответ программисты в университетах и компаниях по всему миру вносили ключевые элементы в операционную систему.

Но после решающего согласительного постановления 1982 года, в котором AT&T согласилась разделиться на семь небольших компаний (Baby Bells) в обмен на разрешение вести конкурентную борьбу на компьютерном рынке, AT&T попыталась запатентовать Unix. Они подали в суд на Калифорнийский университет в Беркли, который разработал альтернативную версию Unix (Berkeley Software Distribution, или BSD), и фактически попытались прикрыть возможность коллективного использования, которое изначально помогло создать операционную систему.

Пока деятельность Berkeley Unix была приостановлена судебными нападками AT&T, проект GNU Столлмана (GNU является рекурсивным акронимом, расшифровывающимся как GNU is Not Unix) продублировал все ключевые элементы Unix, кроме ядра – центрального кода, который действует как своего рода регулировщик для всех остальных программ. Это ядро было разработано финским студентом-компьютерщиком Линусом Торвальдсом, чьей дипломной работой в 1990 году стала минималистская, похожая на Unix операционная система, которая могла быть перенесена на множество разных компьютеров. Он назвал эту операционную систему Linux.

В течение следующих нескольких лет систему активно использовали в коммерческих целях, поскольку предприниматели воспользовались возможностями полностью бесплатной операционной системы, сочетающей ядро Торвальдса с воссозданными Фондом свободного программного обеспечения остальными частями операционной системы Unix. Теперь целью была скорее компания Microsoft, а не AT&T.

На заре индустрии персональных компьютеров (ПК) IBM и растущее число «клонов» – продавцов ПК, таких как Dell и Gateway, предоставляли аппаратное обеспечение, Microsoft предоставляла операционную систему, а множество независимых компаний, разработчиков программного обеспечения, предоставляли «убойные приложения» – текстовые редакторы, электронные таблицы, базы данных и графические программы, что привело к появлению новой платформы. Microsoft ДОС (дисковая операционная система) была ключевой частью экосистемы, но далеко не главной. Все изменилось с приходом Microsoft Windows. Ее обширные интерфейсы прикладного программирования (API) значительно упростили разработку приложений, но заблокировали доступ разработчиков к платформе Microsoft. Конкурирующие операционные системы для ПК, такие как IBM OS/2, не смогли вырваться из мертвой хватки. И вскоре Microsoft использовала свое доминирующее положение среди операционных систем, чтобы лоббировать свои собственные приложения – Microsoft Word, Excel, PowerPoint, Access и, позднее, Internet Explorer, своему веб-браузеру (теперь Microsoft Edge) – при заключении сделок с крупными покупателями.

Независимое производство программного обеспечения для персонального компьютера медленно умирало, в то время как компания Microsoft захватывала эксклюзивные права на одну категорию приложений за другой.

Я обнаружил повторяющуюся закономерность: индустрия персональных компьютеров началась с резкого роста инноваций, которые разрушили монополию IBM на первое поколение компьютеров, но закончились победой еще одной монополии, когда «победитель получает все». Ищите повторяющиеся закономерности и задайте себе вопрос, какой будет следующая итерация.

Теперь все задавались вопросом, изменит ли версия Linux для ПК расстановку сил в игре. Не только стартапы, но и крупные компании, такие как IBM, изо всех сил стремились на вершину иерархии, делали такие огромные ставки, какие только могли.

Но история Linux – это гораздо большее, чем просто конкуренция с Microsoft. Она переписала правила индустрии программного обеспечения так, как никто не ожидал. Она стала платформой, на которой создавались многие из величайших веб-сайтов в мире, – в то время, в частности, Amazon и Google. Но также она изменила концепцию написания программного обеспечения.

В феврале 1997 года в Linux Kongress в немецком городе Вюрцбурге хакер Эрик Раймонд опубликовал статью под названием «Собор и базар», которая всколыхнула сообщество Linux. В ней была изложена теория разработки программного обеспечения, основанная на анализе Linux и личном опыте Эрика в том, что позже стало называться разработкой программного обеспечения с открытым исходным кодом. Эрик писал:


«Кто бы мог подумать всего пять лет назад, что операционная система мирового класса может возникнуть как по волшебству, благодаря нескольким тысячам разработчиков, работающим по совместительству, разбросанным по всей планете, связанным лишь тонкими нитями интернет-сети?

Сообщество Linux, по всей видимости, напоминало большой шумный базар с разными задачами и подходами (что точно иллюстрируется архивными сайтами Linux, которые принимают материалы от кого угодно), из которых последовательная и стабильная система могла бы родиться, по-видимому, только благодаря ряду чудесных совпадений».


Эрик изложил ряд принципов, которые за последние десятилетия стали частью евангелия разработки программного обеспечения. Он утверждал, что программное обеспечение должно выпускаться своевременно и часто, что лучше выпустить его в незаконченном виде, чем ждать, пока оно станет совершенным, что пользователей следует рассматривать как «со-разработчиков» и что «чем больше глаз, тем меньше неполадок».

Сегодня, разрабатывают ли программисты открытое программное обеспечение или закрытое программное обеспечение, они используют инструменты и подходы, которые впервые были применены сообществом открытого программного обеспечения. Но, что более важно, каждый, кто использует современное программное обеспечение из Интернета, испытал эти принципы в действии. Когда вы заходите на сайт, например, Amazon, Facebook или Google, вы в определенном смысле становитесь участником процесса разработки, который был неизвестен в эпоху ПК. Вы не являетесь «со-разработчиком» в понимании Эрика Раймонда – вы не являетесь еще одним хакером, который вносит предложения по изменению элементов и кода. Но вы – «бета-тестировщик», тот, кто тщательно исследует постоянно развивающееся, незаконченное программное обеспечение и предоставляет обратную связь – в масштабах, которые раньше и представить не могли. Разработчики сетевого программного обеспечения постоянно обновляют свои приложения, тестируют новые функции на миллионах пользователей, оценивают их эффективность и обучаются на ходу.

Эрик видел, что что-то меняется в процессе разработки программного обеспечения, но в 1997 году, когда он опубликовал «Собор и базар», еще не было понятно, что принципы, которые он сформулировал, выйдут далеко за рамки свободного программного обеспечения, за рамки разработки программного обеспечения как такового, станут формировать контент таких сайтов, как Википедия, и в конечном итоге подтолкнут к революционным изменениям, сделающим потребителей соавторами таких услуг, как поездки по требованию (Uber и Lyft) и предоставление жилья (Airbnb).

Меня пригласили прочитать лекцию на ту же конференцию в Вюрцбурге. Моя речь под названием «Аппаратное обеспечение, программное обеспечение и информационное обеспечение» содержала совсем другие акценты. Я был в восторге не только от Linux, но и от Amazon. Amazon был построен на основе различных видов свободного программного обеспечения, включая Linux, но мне казалось, что он принципиально отличается по характеру от тех программ, которые мы видели в предыдущие эпохи компьютерных технологий.

Сегодня для всех очевидно, что веб-сайты – это приложения, а Интернет стал платформой, но в 1997 году большинство людей считало веб-браузер приложением. Если бы они знали немного больше об архитектуре Интернета, они могли бы представить веб-сервер и связанные с ним код и данные как приложение. Контент был чем-то, чем управляет браузер, так же как Microsoft Word управляет документом или как Excel позволяет вам создать электронную таблицу. Я, напротив, был убежден, что сам контент является неотъемлемой частью приложения и что динамический характер этого контента ведет к появлению совершенно новой модели архитектурного облика на следующем после программного обеспечения этапе, который я тогда назвал «информационным обеспечением».

В то время как Эрик сосредоточился на успехе операционной системы Linux и рассматривал ее как альтернативу Windows компании Microsoft, я был особенно восхищен успехом языка программирования Perl, позволившим использовать эту новую парадигму в Интернете.

Первоначально Perl был создан Ларри Уоллом в 1987 году и распространялся бесплатно по первым компьютерным сетям. В 1991 году я опубликовал книгу Ларри «Программирование на языке Perl» и летом 1997 года готовился провести конференцию, посвященную Perl. Провести конференцию Perl меня вдохновили случайные замечания двух друзей. В 1997 году Карла Байха, которая закупала книги по компьютерным технологиям для сети книжных магазинов Borders, рассказала мне, что второе издание «Программирования Perl», опубликованное в 1996 году, вошло в 100 лучших книг всех категорий, по версии Borders. Мне показалось странным, что, несмотря на это, в списке ценных бумаг компьютерного рынка Perl не был популярен. Поскольку за спиной Perl не стояло ни одной компании, он был практически невидим для умников, которые следили за этой отраслью.

А затем Эндрю Шульман, автор книги под названием «Unauthorized Windows 95», сказал мне то, что я счел столь же любопытным. В то время компания Microsoft запустила серию телевизионных рекламных роликов о том, как их новая технология под названием Active/X будет «активировать Интернет». Демо-версии программ из этой рекламы, по словам Эндрю, в основном были написаны на Perl. Мне стало ясно, что на самом деле Perl, а не Active/X лежит в основе того, как распространяется веб-контент.

Я был возмущен. Я решил, что мне необходимо во всеуслышание заявить о Perl. И поэтому в начале 1997 года я сделал пиар-ход, объявив о своей первой конференции, чтобы привлечь внимание людей. И об этом же я пришел поговорить на международный конгресс Linux в Вюрцбурге.

Позже в эссе, которое было создано на основе той речи, я написал: «Perl был назван «скотчем Интернета», и, как и скотч, он используется самым неожиданным образом. Веб-сайт часто быстро создается и удаляется через день, и ему нужны легкие инструменты и быстрые, но эффективные решения».

Я рассматривал применение Perl в качестве скотча как важный фактор парадигмы информационного обеспечения, в которой управление компьютерами осуществлялось через информационный интерфейс, а не через программный интерфейс как таковой. Веб-ссылка, как я описал ее тогда, была способом интеграции команд для компьютера в динамические документы, написанные на обычном человеческом языке, в отличие, скажем, от выпадающего программного меню, которое интегрировало маленькие фрагменты человеческого языка в традиционное программное обеспечение.

В следующей части речи рассматривалась историческая аналогия, которая не давала мне покоя в течение следующих нескольких лет. Я был потрясен параллелями между тем, что открытое программное обеспечение и открытые протоколы Интернета делали с Microsoft, и тем, как Microsoft и индустрия независимого программного обеспечения ранее вытеснили IBM.

В 1978 году, когда я впервые стал работать в этой отрасли, она избавлялась от монополии IBM, которая не отличалась от позиции, которую двадцать лет спустя заняла компания Microsoft. Контроль IBM над отраслью базировался на комплексных компьютерных системах, в которых программное и аппаратное обеспечение были тесно связаны. Создание нового типа компьютера означало изобретение как нового аппаратного обеспечения, так и новой операционной системы. Несколько существовавших тогда независимых компаний-разработчиков программного обеспечения должны были выбрать, спутником какого поставщика оборудования они станут, или «переносить» свое программное обеспечение на несколько систем аппаратного обеспечения, подобно тому как сегодня разработчикам телефонов необходимо создавать отдельные версии для iPhone и Android. Только проблема была гораздо серьезней. Помню, как в середине 1980-х годов я разговаривал с одним из клиентов своей компании, занимавшимся консалтингом в сфере документов, автором серверной графической библиотеки под названием DISSPLA (Display Integrated Software System and Plotting Language – Система программного обеспечения интегрированных изображений и графический язык). Он рассказал мне, что должен поддерживать более 200 различных версий своего программного обеспечения.

Персональный компьютер IBM, выпущенный в августе 1981 года, все это изменил. В 1980 году, понимая, что она все упускает на новом рынке микрокомпьютеров, компания IBM запустила научный проект в Бока-Ратон, штате Флорида, для разработки новой машины. Они приняли крайне важное решение: сократив расходы и ускорив развитие, они разработают открытую архитектуру с использованием стандартных компонентов индустрии, включая программное обеспечение с лицензией от третьих сторон.

ПК, как вскоре его стали называть, стал хитом сразу же после того, как осенью 1981 года состоялась его презентация. По прогнозам IBM, в первые пять лет должно было быть продано 250 000 штук. По слухам, они продали 40 000 в первый же день. Через два года обладателями компьютеров стали более миллиона человек.

Однако руководители IBM не смогли учесть все последствия своих решений. В то время программное обеспечение было мелким игроком в компьютерной индустрии, нужной, но второстепенной частью комплексной компьютерной системы, часто поставляемой в комплекте, а не продающейся отдельно. Поэтому, когда пришло время выбрать операционную систему для новой машины, IBM решила приобрести лицензию у Microsoft, предоставив ей право перепродавать программное обеспечение в том сегменте рынка, который IBM не контролировала.

Размеры этого сегмента вот-вот должны были многократно увеличиться. Поскольку компания IBM опубликовала спецификации для машины, ее успех повторили десятки, а затем сотни производителей ПК-клонов. Барьеры входа на рынок были настолько низкими, что Майкл Делл создал свою одноименную компанию, еще будучи студентом Техасского университета, собирая и продавая компьютеры в своей комнате в общежитии. Архитектура персонального компьютера IBM стала стандартом, со временем вытеснившим дизайн не только других персональных компьютеров, но и, в течение следующих двух десятилетий, дизайн мини-ЭВМ и больших ЭВМ.

Поскольку сотни мелких и крупных производителей изготавливали клоны персональных компьютеров, IBM потеряла лидерство на новом рынке. Программное обеспечение стало новым светилом, вокруг которого вращалась индустрия; Microsoft стала самой значимой компанией в компьютерной индустрии.

Благодаря своим смелым решениям компания Intel также получила привилегированную роль. Чтобы обеспечить себе гарантию, что ни один поставщик не станет камнем преткновения, IBM потребовала, чтобы каждый компонент открытой архитектуры оборудования был доступен как минимум от двух поставщиков. Intel согласилась с этим условием, лицензировав свои чипы 8086 и 80286 для конкурирующей компании AMD. Но в 1985 году с выпуском процессора 80386 она приняла смелое решение бросить вызов IBM, сделав ставку на то, что рынок «клонов» стал уже достаточно большим, чтобы отменить требования IBM. Бывший технический директор Intel Пэт Гелсингер рассказал мне такую историю: «Мы провели голосование среди управляющего комитета, состоящего из пяти человек. Трое были против, двое за. Но Энди [Гроув, генеральный директор Intel] был одним из тех двоих, поэтому мы все равно это сделали».

Это еще один урок на будущее. Ничто не происходит само собой.

Это делают люди. Имеют значение отдельные решения.

К 1998 году история во многом повторилась. Microsoft использовала свою позицию в качестве единственного поставщика операционной системы для ПК, чтобы установить монополию на программное обеспечение для настольных компьютеров. Программные приложения становились все более сложными, и Microsoft преднамеренно создавала барьеры входа для конкурентов. Одинокий программист или небольшая компания уже не могли повлиять на рынок программного обеспечения для ПК.

Сегодня наличие открытого программного обеспечения и открытых сетевых протоколов бросает вызов подобному господствующему положению. Барьеры входа на рынок программного обеспечения рушатся. Возможно, история не повторяется буквально, но да, она рифмуется.

Пользователи могут испробовать новый продукт бесплатно, и, более того, они могут создать свою собственную пользовательскую версию, также бесплатно. Исходный код стал доступен для массового независимого экспертного сообщества, и, если кому-то не нравится функция, он может дополнить ее, сократить или переписать. Если он представляет свою версию сообществу, она довольно быстро может получить широкое распространение.

Более того, поскольку разработчики (по крайней мере, изначально) не пытались конкурировать в бизнесе, а были сосредоточены на решении реальных проблем, была возможность экспериментировать. Как часто говорилось, открытое программное обеспечение «позволяет вам удовлетворить собственные нужды». Ввиду распространения такой парадигмы развития, когда новые функции добавляются пользователями, программы с открытым исходным кодом «эволюционируют» в ходе доработки. И, как я писал в своей статье 1998 года «Аппаратное обеспечение, программное обеспечение и информационное обеспечение»: «Эволюция порождает не единственного победителя, а многообразие».

Это многообразие способствовало тому, что семена будущего проросли в свободном программном обеспечении и в Интернете, а не в технологиях, предлагаемых в то время Microsoft.

Почти всегда так происходит. И если вы хотите увидеть будущее, вы должны обратить внимание не на актуальные технологии, а на технологии «на грани», предлагаемые новаторами.

Большинство тех людей, которые четыре десятилетия назад основали индустрию компьютерного программного обеспечения, не были предпринимателями; они были детьми, захваченными абсурдной идеей иметь свой собственный компьютер. Программирование было как наркотик – нет, лучше, чем наркотик, чем быть рок-звездой, и это было, конечно, лучше, чем любая работа, которую они могли себе представить. Так же произошло с Linux, операционной системой с открытым исходным кодом, которую 90 миллионов человек теперь используют операционную систему для ПК и миллиарды – в качестве операционной системы, на которой работают большинство крупных интернет-сайтов, а также как базовый код на каждом Android-телефоне. Знаете, как называется книга Линуса Торвальдса о том, как он изобрел Linux? «Just for Fun».

Всемирная паутина создавалась точно так же. Сначала никто не воспринимал ее всерьез как площадку для зарабатывания денег. Речь шла о веселье от совместной работы, о том, как нажимать на ссылку и подключаться к другому компьютеру на другом краю земли и создавать похожие направления для наших коллег. Мы все были энтузиастами. Некоторые из нас были также предпринимателями.

Безусловно, это такие предприниматели, как Билл Гейтс, Стив Джобс, Майкл Делл в эпоху персонального компьютера; Джефф Безос, Ларри Пейдж, Сергей Брин и Марк Цукерберг в эпоху Интернета, которые видели, что этот мир, движимый страстью к открытиям и совместному использованию, может стать колыбелью новой экономики. Они нашли кредиторов, сделали из игрушки инструмент и создали предприятия, которые превратили движение в индустрию.

Урок усвоен: воспринимайте любопытство как руководство для построения будущего. Это ощущение чуда может означать только то, что эти сумасшедшие энтузиасты видят то, чего не видите вы… пока.

Об огромном разнообразии программного обеспечения, возникшего вокруг свободного программного обеспечения, рассказано в книгах-бестселлерах, которые стали драйверами моего издательского бизнеса. Язык программирования Perl не был единственным. Многие из самых успешных книг 1990-х годов о технологиях, книги, названия которых могли привлечь только программиста – «Programming Perl», «Learning the Vi Editor», «Sed & Awk», «DNS and Bind», «Running Linux», «Programming Python», – все они были о программном обеспечении, которое было написано одиночками и свободно распространялось через Интернет. Сама Сеть стала общественным достоянием.

Я понял, что многие из авторов этих программ были даже не знакомы друг с другом. Сообщество свободного программного обеспечения, которое объединилось вокруг Linux, не сильно было связано с интернет-сообществом. Ввиду моей должности издателя книг о технологиях, я вращался в обоих этих кругах. Поэтому я решил объединить их. Им необходимо было осознать себя как часть единой истории.

В апреле 1998 года я организовал мероприятие, которое я назвал «The Freeware Summit» (англ. «Саммит свободных программ»), призванное объединить создателей множества наиболее важных свободных программ.

Момент был выбран идеально. В январе известная интернет-компания Марка Андриссена, Netscape, созданная для коммерциализации веб-браузера, решила снабдить свой веб-браузер исходным кодом, создав проект по разработке свободного программного обеспечения под названием Mozilla. Под конкурентным давлением со стороны компании Microsoft, которая создала собственный браузер и отдала его бесплатно (но без исходного кода), чтобы «перекрыть Netscape кислород», у Netscape не было выбора, кроме как вернуться к корням, к свободному программному обеспечению из Интернета.

На встрече, которая состоялась в отеле Stanford Court (современный Garden Court) в Пало-Альто, я собрал вместе Линуса Торвальдса, Брайана Белендорфа (одного из основателей проекта веб-сервера Apache), Ларри Уолла, Гвидо ван Россума (создателя языка программирования Python), Джейми Завински (главного разработчика проекта Mozilla), Эрика Рэймонда, Майкла Тименна (основателя и главного исполнительного директора Cygnus Solutions, компании, которая занимается коммерциализацией инструментов свободного программирования), Пола Викси (автора и разработчика BIND [Berkeley Internet Name Daemon], программного обеспечения, стоящего за интернет-системой доменных имен) и Эрика Оллмана (автора Sendmail, программного обеспечения, которое отправляло большую часть электронной почты).

Одной из тем для обсуждения на встрече было собственно название свободного программного обеспечения. У движения свободного программного обеспечения Ричарда Столлмана появилось множество противников. В основном в отношении его, казалось бы, радикального утверждения, что весь исходный код программного обеспечения должен распространяться свободно, потому что было бы аморально поступать иначе. Что хуже, многие думали, что идея свободного программного обеспечения подразумевает, что его разработчики враждебно настроены по отношению к коммерческому использованию. На встрече Линус Торвальдс заметил: «Я не понимал, что английское слово free имеет два значения: «свободный» и «безвозмездный».

Линус не был единственным, чьи представления о том, что означает слово free, были неполными. На отдельном заседании Кирк Мак-Кьюзик, глава проекта Berkeley Unix, который разработал множество ключевых функций и утилит Unix, включенных в Linux, сказал мне: «Ричард Столлман любит говорить, что авторское право – это зло, поэтому нам нужна новая концепция под названием «авторское лево». Здесь, в Беркли, мы используем термин «копировальный центр», таким образом, мы говорим людям, чтобы они шли в копировальный центр [местный фотокопировальный магазин] и делали копию». Проект Berkeley Unix, который в 1983 году познакомил меня с операционной системой, поддерживал давнюю академическую традицию обмена знаниями. Исходный код был отдан в свободное пользование, чтобы люди могли программировать на его основе, в том числе использовать его в коммерческих целях. Единственным требованием была атрибуция.

Боб Шейфлер, директор проекта MIT X Window System, придерживался той же философии. X Window System была запущена в 1984 году, и к моменту, когда я познакомился с ней в 1987 году, она становилась стандартной системой для Unix и Linux, которую перенял практически каждый производитель и адаптировал под себя. Моя компания разработала серию руководств по программированию для X, которые использовали спецификации MIT в качестве базы, переписывали и расширяли их, а затем лицензировали их для компаний, поставляющих новые системы Unix и X. Боб поддержал меня. «Это именно то, что мы хотим от компаний, – сказал он. – Мы закладываем фундамент, и мы хотим, чтобы все строили на нем».

Ларри Уолл, создатель Perl, был еще одним моим наставником по вопросу, как следует воспринимать свободное программное обеспечение. Когда я спросил его, почему он сделал программное обеспечение Perl свободным, он объяснил, что работа других дала ему столь многое, что он чувствовал себя обязанным дать что-то взамен. Ларри также процитировал мне ставшее классикой высказывание Стюарта Бранда: «Информация не хочет быть бесплатной. Она хочет быть ценной».

Как и многие другие авторы свободного программного обеспечения, Ларри обнаружил, что одним из способов сделать его информацию (то есть его программное обеспечение) более ценной было отдать ее бесплатно. Он смог увеличить ее ценность не только для себя (потому что те, кто ее использовал, вносили изменения и улучшения, которыми он мог воспользоваться), но и для всех, кто ее использует, поскольку, когда программное обеспечение получает более широкое распространение, оно априори может быть принято за основу для дальнейшей работы.

Тем не менее мне также было ясно, что производители патентованного программного обеспечения, в том числе такие как компания Microsoft, которую большинство сторонников свободного программного обеспечения считало аморальной, решили, что они могут сделать свою информацию ценной, ограничив доступ к ней. Microsoft создала огромную ценность для себя и своих акционеров, но она также сыграла ключевую роль в повсеместном распространении персональных компьютеров, что было необходимой предпосылкой сегодняшних мировых компьютерных сетей. Это имело важное значение для общества в целом.

Я видел, что у Ларри Уолла и Билла Гейтса было много общего. Как создатели (хотя и с множеством соавторов) организации интеллектуального труда, они приняли стратегические решения о том, как наилучшим образом максимизировать свою ценность. История доказала, что каждая из этих стратегий – рабочая. Для меня стало вопросом номер один, как отдельному предпринимателю или компании максимизировать создание ценности для общества, а не просто для получения дохода за счет прироста стоимости. Было ли предоставление свободного доступа к программному обеспечению лучшей стратегией, чем сохранение его в частной собственности?

На протяжении всей моей карьеры этот вопрос периодически возникал в более широком смысле: Как бизнес может принести обществу бо́льшую пользу, чем себе?

Что в имени тебе моем?

В ходе баталий по поводу названия free software (англ. «свободное программное обеспечение») предлагались различные варианты. Майкл Тименн сообщил, что компания Cygnus начала использовать термин sourceware (от англ. source – «источник»). Но Эрик Рэймонд настаивал на термине open source (англ. «открытый источник»), который всего шесть недель назад придумала Кристин Петерсон из Foresight Institute, исследовательского центра по нанотехнологиям, на заседании, созванном Ларри Августином, генеральным директором одной из компаний Linux под названием VA Linux Systems.

Эрик и еще один разработчик программного обеспечения, являющийся активистом движения свободного программного обеспечения, Брюс Перенс, были так воодушевлены новым термином Кристин, что создали некоммерческую организацию под названием «Open Source Initiative» для объединения различных используемых на свободное программное обеспечение лицензий во что-то наподобие металицензии. Но пока еще этот термин употребляется редко.

Не всем он понравился. «Звучит слишком похоже на «открытые раны» (англ. open sores), – прокомментировал один из участников. Но все мы сошлись во мнении, что существуют серьезные проблемы с названием free software (англ. «свободное ПО») и что повсеместное внедрение нового названия может стать важным шагом вперед. Поэтому мы решили голосовать. Термин open source легко обошел sourceware, и все мы согласились использовать новый термин в будущем. Это был важный момент, потому что в конце дня я собирал пресс-конференцию с журналистами из New York Times, Wall Street Journal, San Jose Mercury News (ежедневная газета Кремниевой долины того времени), Fortune, Forbes и из многих других национальных изданий. Когда в начале 1990-х годов я продвигал коммерциализацию Интернета, я наладил отношения со многими из журналистов, и они пришли, хотя и не знали, какими будут новости.

Участники нашего обсуждения расположились перед собравшимися репортерами, и я рассказал журналистам историю, которую никто из них не слышал раньше. Это было примерно так:

«Когда вы слышите термин free software – «свободное программное обеспечение», – вы думаете, что это движение повстанцев, которое враждебно относится к коммерческому программному обеспечению. Я здесь, чтобы сказать вам, что каждая крупная компания, включая вашу собственную, уже использует свободное программное обеспечение каждый день. Если у вашей компании есть доменное имя в Интернете – скажем, nytimes.com, или wsj.com, или fortune.com, – это имя работает только благодаря BIND, программному обеспечению, написанному этим человеком – Полом Викси. Веб-сервер, который вы используете, вероятнее всего – Apache, созданный командой, одним из основателей которой является сидящей здесь Брайан Белендорф. Этот сайт также активно использует языки программирования, такие как Perl и Python, написанные Ларри Уоллом, сидящим здесь, и Гвидо ван Россумом, сидящим здесь. Если вы отправляете электронное письмо, оно направляется в пункт назначения при помощи программы Sendmail, написанной Эриком Оллманом. И это мы еще не дошли до операционной системы Linux, о которой вы все слышали, которая была создана сидящим здесь Линусом Торвальдсом.

И вот что удивительно: все эти парни занимают доминирующее положение на рынке в важных сегментах сетевого программного обеспечения без помощи какого-либо венчурного капиталиста, который давал бы им деньги, без какой-либо компании за их спиной, а просто в силу создания отличного программного обеспечения и предоставления его каждому, кто хочет использовать его или хочет помочь им в его разработке.

Поскольку термин free software имеет некие негативные дополнительные значения, мы собрались здесь сегодня и решили использовать новое название: open source software – «программное обеспечение с открытым исходным кодом».


В течение следующих нескольких недель я дал несколько десятков интервью, в которых объяснил, что все наиболее важные компоненты интернет-инфраструктуры были «с открытым исходным кодом». Я все еще помню недоверие и удивление многих из первых интервьюеров. Через несколько недель, однако, это стало общепризнанной истиной, новой картой. Никто даже не помнит, что мероприятие изначально называлось Freeware Summit. Впоследствии он упоминался как The Open Source Summit (англ. «Саммит открытого исходного кода»).

Это основной урок о том, как увидеть будущее: собрать вместе людей, которые уже живут в нем. Писателю-фантасту Уильяму Гибсону принадлежит известная фраза: «Будущее уже наступило. Просто оно еще неравномерно распределено». Первые разработчики Linux и Интернета уже жили в будущем, которое находилось в пути в большой мир. Их объединение стало первым шагом к перекраиванию карты.

Смотрите ли вы на дорожную карту?

В этом состоит еще один урок: учитесь определять, когда вы смотрите на карту, вместо того чтобы смотреть на дорогу. Постоянно сверяйтесь с картой и уделяйте особое внимание всему тому, что не обозначено на ней. Так я смог заметить, что в описании свободного программного обеспечения, выдвинутом Ричардом Столлманом и Эриком Рэймондом, было проигнорировало самое успешное свободное программное обеспечение из всех – свободное программное обеспечение, лежащее в основе Интернета.

Ваша карта должна помогать вам видеть, а не заменять собой зрение. Если вы знаете, что приближается поворот, вы должны быть начеку. Если поворот не появляется в ожидаемом месте, возможно, вы сбились с пути.

Мое собственное обучение тому, как следить за дорогой, началось в 1969 году, когда мне было всего пятнадцать лет. Мой брат Шон, которому было семнадцать, познакомился с человеком по имени Джордж Саймон, которому суждено было сыграть решающую роль в моей интеллектуальной жизни. Джордж был лидером отряда скаутов Explorer Scouts, подросткового подразделения бойскаутов – ни больше ни меньше. В отряде, к которому присоединился Шон, основное внимание уделялось невербальному общению.

Позже Джордж стал вести семинары в Институте Эсален, задача которого в 1970-х годах заключалась в изучении развития потенциала человека. В этом же заключается задача штаб-квартиры Google Googleplex или штаб-квартиры Apple Infinite Loop в Кремниевой долине сегодня. Я преподавал в Эсалене вместе с Джорджем, едва окончив школу, и с тех пор его идеи оказывают глубокое влияние на мое мышление.

Джордж был сторонником, казалось бы, сумасшедшей идеи о том, что сам язык является своего рода картой. Язык формирует то, что мы можем видеть, и то, как мы это видим. Джордж изучил работу Альфреда Коржибски, чья книга 1933 года «Science and Sanity» в 1960-х годах снова вошла в моду, в основном благодаря работе ученика Коржибски, С. И. Хаякавы.

Коржибски считал, что сама реальность принципиально непостижима, поскольку она всегда воспринимается опосредованно через нашу нервную систему. Собака воспринимает мир совсем иначе, чем человек, и даже мировосприятие отдельных людей имеет огромные различия. Но также важно то, что наше восприятие формируется при помощи слов, которые мы используем.

Я испытал яркий опыт подтверждения этой теории позже, когда переехал в Себастопол, небольшой городок в Северной Калифорнии, где я держал лошадей. Раньше я смотрел на луг и видел то, что называл «травой». Но со временем я научился различать овес, рожь, ежу сборную и люцерну, а также другие виды кормов, таких как вика.

Теперь, когда я смотрю на луг, я вижу все эти, а также другие виды растений, названий которых я не знаю. Наличие в языке слов для обозначения травы помогает мне видеть глубже. Язык также может пустить нас по ложному пути. Коржибски любил показывать людям, как слова формируют их представление о мире. Однажды произошел забавный случай: своим одноклассникам он раздал печенье из коробки, завернутой в коричневую бумагу. Когда все начали есть угощение, а некоторые потянулись за добавкой, он сорвал обертку, показывая, что это было печенье для собак. Несколько учеников выбежали из класса, чтобы его выплюнуть. Урок Коржибски: «Я только что продемонстрировал, что люди едят не просто пищу, но и слова, и вкус второго часто превалирует над вкусом первого».

Коржибски утверждал, что многие психологические и социальные аберрации можно рассматривать как проблемы с языком. Рассмотрим расизм: он использует термины, отрицающие основы человечности в некоторых людях.

Коржибски призывал всех осознавать процесс абстрагирования, в ходе которого реальность превращается в серию утверждений о реальности – в карты, которые могут помочь нам, но также могут сбить нас с пути.

Это понимание выглядит особенно важным в свете фейковых новостей, которые в 2016 году омрачили президентские выборы в США. Речь идет не столько о самых возмутительных примерах вроде сообщений о детском рабстве, якобы используемом в ходе кампании Клинтон в Вашингтоне, сколько о системном и алгоритмичном подборе новостей таким образом, чтобы они соответствовали предвзятому мнению людей, усиливали его. Сейчас целые слои населения руководствуются разительно отличающимися картами. Как мы можем решить самые актуальные мировые проблемы, когда мы даже не пытаемся создать карты, указывающие реальный путь вперед, а вместо этого ориентируемся на достижение политических или деловых целей?

После нескольких лет работы с Джорджем я почти инстинктивно чувствовал, когда оказывался связан оковами слов, которыми мы описываем реальность. И тогда я переключал внимание на то, что я испытываю на самом деле, и даже, более того, стремился выйти за рамки переживаний по отношению к самому этому факту. Когда вы сталкиваетесь с неизвестным, восприимчивость и открытость неизвестному подталкивают к созданию новых карт вместо того, чтобы просто пытаться наложить старые карты на новую местность.

Именно эта привычка изучать сам мир, а не просто перетасовывать карты, является основой оригинальных работ в науке и, как я пытаюсь донести в этой книге, в бизнесе и в технологии.

Как говорится в его автобиографии, «Вы, конечно, шутите, мистер Фейнман!»[2], легендарный физик Ричард Фейнман был потрясен тем, как много учеников в классе, который он посетил во время своего отпуска в Бразилии, не смогли применить то, чему их учили. Сразу после лекции о поляризации света, включающей опыт с использованием полосок поляризационной пленки, он задал вопрос, ответ на который можно было получить, посмотрев сквозь пленку на свет. Несмотря на то что ученики могли процитировать соответствующую формулу, совместить ее символы с практикой они не смогли. Они выучили символы (карты), но просто не могли связать их с реальными условиями настолько, чтобы использовать их в реальной жизни.

«Я не знаю, что с ними такое: они учатся не за счет понимания; они учатся каким-то другим способом – зубрят наизусть или как-то так, – писал Фейнман. – Их знания настолько слабые!»

Осознание того, что вы увязли в словах, глядя на карту, вместо того чтобы глядеть на дорогу, – это нечто, чему удивительно сложно обучиться, это только опыт и экспериментальная практика. Вы не можете просто прочитать об этом. Вы должны применить это в реальности. Как мы увидим в следующей главе, это как раз то, что я сделал в ходе непрекращающейся дискуссии о значении понятия открытого программного обеспечения.

Глава 2. На пути к глобальному мозгу

Моя сосредоточенность скорее на Интернете, чем на Linux, в конце концов увела меня от других сторонников открытого исходного кода в совершенно иных направлениях. Они хотели спорить, какая лицензия для открытого исходного кода лучше. Я считал, что лицензии не имеют такого большого значения, которое все им придавали.

Я был очарован масштабной инфраструктурой следующего поколения и бизнес-процессами, которые создавала компания Google. Остальные тоже интересовались этими вещами, но они думали, что немногим компаниям понадобится такая структура, как у Google, или такие методы. Они ошибались.

Это мой следующий урок. Если будущее уже наступило, просто оно еще неравномерно распределено, найдите признаки этого будущего, изучите их и спросите себя, как все изменится, если они станут новой нормой. Что произойдет, если эта тенденция сохранится?

В течение последующих нескольких лет я доработал свою аргументацию, в конечном итоге написав речь под названием «Смена парадигмы открытого исходного кода», которую произнес сотни раз для бизнес- и технической аудитории. Я всегда начинал речь с вопроса: «Сколько людей из вас использует Linux?» Иногда лишь немногие поднимали руки, иногда многие. Но когда я задавал свой следующий вопрос: «Сколько людей из вас используют Google?», практически все в комнате поднимали руки. «Вы только что продемонстрировали мне, – указывал я, – что вы все еще представляете себе программное обеспечение, которое вы используете как нечто, установленное на вашем локальном компьютере. Google построен на операционной системе Linux. Вы все пользуетесь ею».

То, как вы смотрите на мир, ограничивает то, что вы видите.

Компания Microsoft определила парадигму, в которой конкурентные преимущества и контроль пользователей были возможны благодаря патентованному программному обеспечению, установленному на настольный компьютер. Большинство сторонников свободного и открытого кода приняли эту карту мира и рассчитывали, что Linux будет конкурировать с Microsoft Windows как операционная система для настольных компьютеров и ноутбуков. Я, напротив, утверждал, что открытый исходный код становится «Intel Inside» следующего поколения компьютерных приложений. Я думал о том, в чем будет особенность работы следующего поколения программного обеспечения и как это изменит баланс сил в компьютерной индустрии намного сильнее, чем любая конкуренция Linux на рынке настольных компьютеров.

Поскольку разработчики открытого исходного кода раздавали свое программное обеспечение бесплатно, многие усматривали в этом только обесценивание чего-то, что когда-то имело огромное значение. Так, основатель компании Red Hat Боб Янг сказал мне: «Моя цель – уменьшить размер рынка операционной системы». (Впрочем, Red Hat собиралась завладеть большей частью этого уменьшенного рынка.) Сторонники сохранения статус-кво, такие как вице-президент Microsoft Джим Аллчайн, утверждали, что «открытый исходный код уничтожает интеллектуальную собственность», и рисовали мрачную картину: великая индустрия будет разрушена, а на ее место не придет ничего.

Коммерциализация операционных систем, баз данных, веб-серверов и браузеров и сопутствующего программного обеспечения действительно угрожала основному бизнесу Microsoft. Но это же создавало возможность для появления «убийственных приложений» (англ. killer app) эпохи Интернета. Стоит вспомнить эту историю, оценивая последствия появления услуг по требованию, таких как Uber, беспилотных автомобилей и искусственного интеллекта.

Я обнаружил, что Клейтон Кристенсен, автор книг «Дилемма инноватора» (Альпина Паблишер, 2018. – Прим. ред.) и «Решение проблемы инноваций в бизнесе» (Альпина Паблишер, 2018. – Прим. ред.), разработал концепцию, которая объясняла мои наблюдения. В статье 2004 года в журнале «Harvard Business Review» он сформулировал «закон сохранения привлекательности прибыли» следующим образом:


«Когда на одном этапе производственной цепи привлекательность прибыли исчезает, потому что продукт становится модульным и ориентированным на широкий спрос, на следующем этапе обычно появляется возможность получить привлекательность прибыли с помощью запатентованных продуктов».


Я видел, как работает этот закон сохранения привлекательности прибыли при смене парадигмы, которой требовало открытое программное обеспечение. Так же как коммерциализация основного дизайна персонального компьютера IBM открыла новые возможности для привлечения огромной прибыли в программном обеспечении, открытое программное обеспечение, лежащее в основе Интернета, принесло огромную прибыль в новом секторе патентованных приложений.

Google и Amazon бросили серьезный вызов традиционному пониманию свободного и открытого программного обеспечения. Здесь использовались приложения, построенные на Linux, но они были ревностно запатентованы. Более того, даже при использовании и изменении программного обеспечения, распространяемого под наиболее жесткой из лицензий свободного программного обеспечения, GPL (Универсальной общедоступной лицензией GNU), эти сайты не были ограничены каким-либо из ее положений, каждое из которых было изложено в терминах старой парадигмы. Защита GPL инициировалась в случае распространения программного обеспечения, но веб-приложения не распространяют никакого программного обеспечения: они просто демонстрируются на мировой арене Интернета, распространяемые скорее как услуга, чем как запакованное прикладное программное обеспечение.

Но еще более важно то, что, даже если бы эти сайты предоставили свой исходный код, пользователям было бы нелегко создать полную копию рабочего приложения. Я говорил сторонникам свободного программного обеспечения, таким как Ричард Столлман, что, даже если бы они взяли все программное обеспечение, которое Amazon или Google разработали на Linux, у них не получился бы Amazon или Google. Эти сайты не просто состояли из набора программ. Они представляли собой колоссальную совокупность данных, людей и бизнес-процессов, используемых для сбора, управления и создания текущих услуг с использованием этих данных.

Пока я изучал эту линию аргументации, тектонические процессы технологии создавали новые континенты, которые нужно было отразить на карте. В июне 1999 года сайт Napster для обмена файлами в Интернете перевернул индустрию с ног на голову, позволив пользователям бесплатно делиться друг с другом музыкальными файлами по Сети. Самым интересным с технической точки зрения было то, что Napster, а вскоре и другие сети обмена файлами, такие как FreeNet и Gnutella (а чуть позже BitTorrent), не хранили все файлы в одном месте, как сайты с онлайн-музыкой того времени. Они хранили их на жестких дисках миллионов пользователей по всему Интернету. Энди Орам, один из редакторов моего издательства, особо подчеркнул, что влияние архитектуры этих программ было важнее, чем их бизнес-влияние. (Эта же история повторилась пятнадцать лет спустя с биткойном и блокчейном.)

Это была своего рода децентрализация, которая выходила даже за рамки Всемирной паутины. Становилось понятным, что будущее требует еще более радикального переосмысления возможностей Интернета стать платформой для приложений и контента следующего поколения.

И это будущее не ограничивалось обменом файлами. Суть проекта SETI@home, запущенного в середине 1999 года, заключалась в том, чтобы задействовать неиспользуемую вычислительную мощность домашних ПК интернет-пользователей для анализа сигналов радиотелескопа в поисках признаков внеземного разума. Вычисление, а не только файлы и данные, можно распределить на тысячи компьютеров. И разработчики все чаще осознавали, что мощные приложения в Интернете можно рассматривать как компоненты, востребованные другими программами, которые мы теперь называем веб-сервисами. API (от англ. application programming interface – «интерфейс прикладного программирования») для поставщиков операционных систем, таких как Microsoft, уже не был просто способом предоставить разработчикам доступ к своим системным службам, а стал своего рода дверью, которую интернет-сайт может оставить открытой для других, чтобы они могли войти и безопасно получить данные.

Джон Уделл, наблюдатель-провидец технологического прогресса, даже выступил с докладом на эту тему на первой конференции, посвященной Perl, в 1997 году. Он отметил, что, когда веб-сайт использует внутреннюю базу данных для извлечения информации, он кодирует нужную информацию в формате URL (сетевого унифицированного указателя ресурсов) и что этот URL-адрес может генерироваться программой, по существу превращая любой веб-сайт в компонент, нуждающийся в программировании.

Программисты с первых дней использовали эти скрытые зацепки для удаленного управления веб-сайтами. «Автоматическое сканирование» с помощью программы для посещения и копирования миллионов веб-сайтов является важной частью поисковых систем, но люди теперь задумываются о том, как систематизировать процесс обращения к удаленным веб-сайтам для выполнения более конкретных задач.

Все это привело к появлению совершенно новой парадигмы в области вычислений. Интернет заменил персональный компьютер в качестве платформы для нового поколения приложений. Всемирная паутина была самой мощной силой этой платформы, но обмен файлами, распределенные вычисления и системы обмена сообщениями в Интернете, такие как ICQ, продемонстрировали, что впереди нас ждет история покруче.

Поэтому в сентябре 2000 года я снова собрал группу людей, которые, как я думал, должны были находиться в одной комнате, чтобы выяснить, что между ними общего.

В начале следующего года, опираясь на идеи, полученные на этом «пиринговом»[3] саммите, мы организовали Конференцию пиринговых и веб-сервисов О’Райли. К 2002 году мы переименовали ее в Конференцию новых технологий О’Райли и обозначили ее тему как «Создание сетевой операционной системы».

Я до сих пор помню недоумение, с которым некоторые люди реагировали на мой выбор ключевых слов для мероприятия: один касался компании Napster и сетевого обмена файлами, другой – распределенных вычислений, а третий – веб-сервисов. «Как эти вещи связаны между собой?» – спрашивали люди. Мне было ясно, что все эти понятия являются аспектами эволюции Интернета во всеобщую платформу для новых видов приложений.

Помните, что правильные кусочки пазла на столе – это первый шаг к их объединению в связную картину.

На этой первой Конференции пиринговых и веб-сервисов О’Райли в 2001 году Клей Ширки подвел итоги перехода к сетевым вычислениям, рассказав незабываемую апокрифическую историю о Томасе Уотсоне-старшем, который был главой IBM во время появления центральной ЭВМ. Уотсон якобы сказал, что он не видит необходимости в существовании более чем пяти компьютеров во всем мире. Клей отметил: «Теперь мы знаем, что Томас Уотсон ошибался». Мы все рассмеялись, подумав о сотнях миллионов проданных персональных компьютеров. Но тогда Клей застал нас врасплох такой концовкой: «Он преувеличил это количество на четыре».

Клей Ширки был прав: для всех практических целей теперь есть только один компьютер. Google теперь работает более чем на миллионе серверов, используя службы, распределенные по этим серверам, чтобы мгновенно доставлять документы и услуги, доступные почти с сотни миллионов других независимых веб-серверов, пользователям, работающим на миллиардах смартфонов и ПК. Это все – одно неделимое целое. Джон Гейдж, научный руководитель компании Sun Microsystems, произнес пророческую фразу в 1985 году, когда провозгласил лозунг Sun: «Сеть – это компьютер».

Web 2.0

Последняя часть пазла сложилась в 2003 году, и, как и в случае с открытым исходным кодом, это был термин, Web 2.0, запущенный кем-то другим.

Дейл Дагерти, один из моих самых первых сотрудников, сыгравший ключевую роль в преобразовании компании O’Reilly & Associates (позже переименованной в O’Reilly Media) из консалтинговой компании по написанию технических текстов в компанию, издающую книги о технологиях в конце 1980-х годов, которого я теперь считаю соучредителем, продолжал изучение онлайн-изданий. Он создал наш первый проект электронной книги в 1987 году и, пытаясь разработать платформу для публикации электронных книг, которая была бы открыта и доступна всем издателям, обнаружил зарождающуюся Всемирную паутину.

Дейл привлек мое внимание к Сети, летом 1992 года познакомив меня с Тимом Бернерсом-Ли. Мы быстро убедились, что Сеть является действительно важной технологией, достойной, чтобы ее осветить в нашей готовящейся книге об Интернете, который как раз тогда открывался для коммерческого использования. Эд Крол, автор книги, еще мало знал о Сети, поэтому его редактор в O’Reilly Майк Лукидс написал главу, и мы добавили ее в книгу перед самой публикацией в октябре 1992 года.

Книга Эда «The Whole Internet User’s Guide and Catalog» была продана тиражом более миллиона экземпляров и была названа Публичной библиотекой Нью-Йорка одной из самых значимых книг XX века. Это была книга, которая представила Всемирную паутину миру. Когда мы издали ее осенью 1992 года, во всем мире насчитывалось около 200 веб-сайтов. За несколько лет появились миллионы.

Дейл продолжил создание «Global Network Navigator» (GNN), онлайн-журнала компании O’Reilly о людях и тенденциях в Интернете и каталога самых интересных сайтов. Это был первый веб-портал (запущенный за год до Yahoo!) и первый веб-сайт для размещения рекламы. Мы понимали, что Сеть растет очень быстро и мы не можем за ней угнаться как частная компания, но при этом не желали терять контроль над компанией O’Reilly, привлекая венчурный капитал. Поэтому в 1995 году мы продали GNN AOL, совершив первую контент-транзакцию, положившую начало раздуванию «пузыря» доткомов.

Даже после того, как в 2000 году этот «пузырь» лопнул, что привело рынки к обвалу, а инвесторов – в подавленное состоянии, мы по-прежнему были убеждены, что это все еще просто первые дни Интернета. В 2003 году на выездном совещании руководства компании O’Reilly Media мы определили нашу ключевую стратегическую цель как «возрождение энтузиазма в компьютерной индустрии». Дейл был тем, кто понимал, как это сделать. В процессе мозгового штурма с Крейгом Клайном, руководителем компании MediaLive International, организующей конференции и желающей сотрудничать с O’Reilly, Дейл придумал термин Web 2.0, имея в виду второе пришествие Всемирной паутины после провала. Я дал согласие на сотрудничество с MediaLive на следующем мероприятии, которое мы запустили через год под названием «Конференция Web 2.0», с Джоном Баттелом, автором и медиапредпринимателем, в роли принимающей стороны конференции и третьего партнера.

Как и в случае с моей работой над темой открытого исходного кода, мы начали создавать новую карту, пытаясь реализовать такие проекты, как модель рекламы Google с оплатой за клик, Wikipedia, системы обмена файлами, такие как Napster и BitTorrent, веб-сервисы и системы синдицированного контента, такие как ведение одностраничных блогов. И, как и в случае с открытым исходным кодом, вновь введенный термин идеально подошел духу времени и быстро прижился. Компании провели ребрендинг, став «компаниями Web 2.0». Они дистанцировались от старого прозвища «дотком», независимо от того, делали ли они действительно что-то новое или нет. Консультанты вышли из оцепенения, обещая помочь компаниям распространить новую парадигму.

К 2005 году я понял, что мне нужно дать немного больше поддержки этому термину, и написал эссе, в котором было обобщено все, что я узнал после «Смены парадигмы открытого исходного кода». Эссе называлось «Что такое Web 2.0?». И именно оно принесло мне репутацию футуриста, потому что в нем я определил очень много ключевых тенденций, которые объединились в рамках следующего поколения вычислений.

Я не предсказывал будущее. Я нарисовал карту настоящего, которая определила силы, формирующие технологический и бизнес-ландшафт.

Интернет как платформа

Первым принципиальным последствием Web 2.0 стало то, что Интернет заменил Windows как ведущую платформу, на которой строилось следующее поколение приложений. Сегодня это настолько очевидно, что остается только удивляться, как кто-то мог не замечать этого. Тем не менее компания Netscape, главный соперник Microsoft за доминирующее положение в конце 1990-х годов, потерпела неудачу, потому что она приняла правила игры компании Microsoft. Она руководствовалась старой картой. Компания, определяющая Web 2.0, Google, использовала новую карту.

Загрузка...