WTF? Гид по бизнес-моделям будущего О’Рейли Тим

В течение последующих нескольких лет я доработал свою аргументацию, в конечном итоге написав речь под названием «Смена парадигмы открытого исходного кода», которую произнес сотни раз для бизнес- и технической аудитории. Я всегда начинал речь с вопроса: «Сколько людей из вас использует Linux?» Иногда лишь немногие поднимали руки, иногда многие. Но когда я задавал свой следующий вопрос: «Сколько людей из вас используют Google?», практически все в комнате поднимали руки. «Вы только что продемонстрировали мне, – указывал я, – что вы все еще представляете себе программное обеспечение, которое вы используете как нечто, установленное на вашем локальном компьютере. Google построен на операционной системе Linux. Вы все пользуетесь ею».

То, как вы смотрите на мир, ограничивает то, что вы видите.

Компания Microsoft определила парадигму, в которой конкурентные преимущества и контроль пользователей были возможны благодаря патентованному программному обеспечению, установленному на настольный компьютер. Большинство сторонников свободного и открытого кода приняли эту карту мира и рассчитывали, что Linux будет конкурировать с Microsoft Windows как операционная система для настольных компьютеров и ноутбуков. Я, напротив, утверждал, что открытый исходный код становится «Intel Inside» следующего поколения компьютерных приложений. Я думал о том, в чем будет особенность работы следующего поколения программного обеспечения и как это изменит баланс сил в компьютерной индустрии намного сильнее, чем любая конкуренция Linux на рынке настольных компьютеров.

Поскольку разработчики открытого исходного кода раздавали свое программное обеспечение бесплатно, многие усматривали в этом только обесценивание чего-то, что когда-то имело огромное значение. Так, основатель компании Red Hat Боб Янг сказал мне: «Моя цель – уменьшить размер рынка операционной системы». (Впрочем, Red Hat собиралась завладеть большей частью этого уменьшенного рынка.) Сторонники сохранения статус-кво, такие как вице-президент Microsoft Джим Аллчайн, утверждали, что «открытый исходный код уничтожает интеллектуальную собственность», и рисовали мрачную картину: великая индустрия будет разрушена, а на ее место не придет ничего.

Коммерциализация операционных систем, баз данных, веб-серверов и браузеров и сопутствующего программного обеспечения действительно угрожала основному бизнесу Microsoft. Но это же создавало возможность для появления «убийственных приложений» (англ. killer app) эпохи Интернета. Стоит вспомнить эту историю, оценивая последствия появления услуг по требованию, таких как Uber, беспилотных автомобилей и искусственного интеллекта.

Я обнаружил, что Клейтон Кристенсен, автор книг «Дилемма инноватора» (Альпина Паблишер, 2018. – Прим. ред.) и «Решение проблемы инноваций в бизнесе» (Альпина Паблишер, 2018. – Прим. ред.), разработал концепцию, которая объясняла мои наблюдения. В статье 2004 года в журнале «Harvard Business Review» он сформулировал «закон сохранения привлекательности прибыли» следующим образом:

«Когда на одном этапе производственной цепи привлекательность прибыли исчезает, потому что продукт становится модульным и ориентированным на широкий спрос, на следующем этапе обычно появляется возможность получить привлекательность прибыли с помощью запатентованных продуктов».

Я видел, как работает этот закон сохранения привлекательности прибыли при смене парадигмы, которой требовало открытое программное обеспечение. Так же как коммерциализация основного дизайна персонального компьютера IBM открыла новые возможности для привлечения огромной прибыли в программном обеспечении, открытое программное обеспечение, лежащее в основе Интернета, принесло огромную прибыль в новом секторе патентованных приложений.

Google и Amazon бросили серьезный вызов традиционному пониманию свободного и открытого программного обеспечения. Здесь использовались приложения, построенные на Linux, но они были ревностно запатентованы. Более того, даже при использовании и изменении программного обеспечения, распространяемого под наиболее жесткой из лицензий свободного программного обеспечения, GPL (Универсальной общедоступной лицензией GNU), эти сайты не были ограничены каким-либо из ее положений, каждое из которых было изложено в терминах старой парадигмы. Защита GPL инициировалась в случае распространения программного обеспечения, но веб-приложения не распространяют никакого программного обеспечения: они просто демонстрируются на мировой арене Интернета, распространяемые скорее как услуга, чем как запакованное прикладное программное обеспечение.

Но еще более важно то, что, даже если бы эти сайты предоставили свой исходный код, пользователям было бы нелегко создать полную копию рабочего приложения. Я говорил сторонникам свободного программного обеспечения, таким как Ричард Столлман, что, даже если бы они взяли все программное обеспечение, которое Amazon или Google разработали на Linux, у них не получился бы Amazon или Google. Эти сайты не просто состояли из набора программ. Они представляли собой колоссальную совокупность данных, людей и бизнес-процессов, используемых для сбора, управления и создания текущих услуг с использованием этих данных.

Пока я изучал эту линию аргументации, тектонические процессы технологии создавали новые континенты, которые нужно было отразить на карте. В июне 1999 года сайт Napster для обмена файлами в Интернете перевернул индустрию с ног на голову, позволив пользователям бесплатно делиться друг с другом музыкальными файлами по Сети. Самым интересным с технической точки зрения было то, что Napster, а вскоре и другие сети обмена файлами, такие как FreeNet и Gnutella (а чуть позже BitTorrent), не хранили все файлы в одном месте, как сайты с онлайн-музыкой того времени. Они хранили их на жестких дисках миллионов пользователей по всему Интернету. Энди Орам, один из редакторов моего издательства, особо подчеркнул, что влияние архитектуры этих программ было важнее, чем их бизнес-влияние. (Эта же история повторилась пятнадцать лет спустя с биткойном и блокчейном.)

Это была своего рода децентрализация, которая выходила даже за рамки Всемирной паутины. Становилось понятным, что будущее требует еще более радикального переосмысления возможностей Интернета стать платформой для приложений и контента следующего поколения.

И это будущее не ограничивалось обменом файлами. Суть проекта SETI@home, запущенного в середине 1999 года, заключалась в том, чтобы задействовать неиспользуемую вычислительную мощность домашних ПК интернет-пользователей для анализа сигналов радиотелескопа в поисках признаков внеземного разума. Вычисление, а не только файлы и данные, можно распределить на тысячи компьютеров. И разработчики все чаще осознавали, что мощные приложения в Интернете можно рассматривать как компоненты, востребованные другими программами, которые мы теперь называем веб-сервисами. API (от англ. application programming interface – «интерфейс прикладного программирования») для поставщиков операционных систем, таких как Microsoft, уже не был просто способом предоставить разработчикам доступ к своим системным службам, а стал своего рода дверью, которую интернет-сайт может оставить открытой для других, чтобы они могли войти и безопасно получить данные.

Джон Уделл, наблюдатель-провидец технологического прогресса, даже выступил с докладом на эту тему на первой конференции, посвященной Perl, в 1997 году. Он отметил, что, когда веб-сайт использует внутреннюю базу данных для извлечения информации, он кодирует нужную информацию в формате URL (сетевого унифицированного указателя ресурсов) и что этот URL-адрес может генерироваться программой, по существу превращая любой веб-сайт в компонент, нуждающийся в программировании.

Программисты с первых дней использовали эти скрытые зацепки для удаленного управления веб-сайтами. «Автоматическое сканирование» с помощью программы для посещения и копирования миллионов веб-сайтов является важной частью поисковых систем, но люди теперь задумываются о том, как систематизировать процесс обращения к удаленным веб-сайтам для выполнения более конкретных задач.

Все это привело к появлению совершенно новой парадигмы в области вычислений. Интернет заменил персональный компьютер в качестве платформы для нового поколения приложений. Всемирная паутина была самой мощной силой этой платформы, но обмен файлами, распределенные вычисления и системы обмена сообщениями в Интернете, такие как ICQ, продемонстрировали, что впереди нас ждет история покруче.

Поэтому в сентябре 2000 года я снова собрал группу людей, которые, как я думал, должны были находиться в одной комнате, чтобы выяснить, что между ними общего.

В начале следующего года, опираясь на идеи, полученные на этом «пиринговом»[3] саммите, мы организовали Конференцию пиринговых и веб-сервисов О’Райли. К 2002 году мы переименовали ее в Конференцию новых технологий О’Райли и обозначили ее тему как «Создание сетевой операционной системы».

Я до сих пор помню недоумение, с которым некоторые люди реагировали на мой выбор ключевых слов для мероприятия: один касался компании Napster и сетевого обмена файлами, другой – распределенных вычислений, а третий – веб-сервисов. «Как эти вещи связаны между собой?» – спрашивали люди. Мне было ясно, что все эти понятия являются аспектами эволюции Интернета во всеобщую платформу для новых видов приложений.

Помните, что правильные кусочки пазла на столе – это первый шаг к их объединению в связную картину.

На этой первой Конференции пиринговых и веб-сервисов О’Райли в 2001 году Клей Ширки подвел итоги перехода к сетевым вычислениям, рассказав незабываемую апокрифическую историю о Томасе Уотсоне-старшем, который был главой IBM во время появления центральной ЭВМ. Уотсон якобы сказал, что он не видит необходимости в существовании более чем пяти компьютеров во всем мире. Клей отметил: «Теперь мы знаем, что Томас Уотсон ошибался». Мы все рассмеялись, подумав о сотнях миллионов проданных персональных компьютеров. Но тогда Клей застал нас врасплох такой концовкой: «Он преувеличил это количество на четыре».

Клей Ширки был прав: для всех практических целей теперь есть только один компьютер. Google теперь работает более чем на миллионе серверов, используя службы, распределенные по этим серверам, чтобы мгновенно доставлять документы и услуги, доступные почти с сотни миллионов других независимых веб-серверов, пользователям, работающим на миллиардах смартфонов и ПК. Это все – одно неделимое целое. Джон Гейдж, научный руководитель компании Sun Microsystems, произнес пророческую фразу в 1985 году, когда провозгласил лозунг Sun: «Сеть – это компьютер».

Web 2.0

Последняя часть пазла сложилась в 2003 году, и, как и в случае с открытым исходным кодом, это был термин, Web 2.0, запущенный кем-то другим.

Дейл Дагерти, один из моих самых первых сотрудников, сыгравший ключевую роль в преобразовании компании O’Reilly & Associates (позже переименованной в O’Reilly Media) из консалтинговой компании по написанию технических текстов в компанию, издающую книги о технологиях в конце 1980-х годов, которого я теперь считаю соучредителем, продолжал изучение онлайн-изданий. Он создал наш первый проект электронной книги в 1987 году и, пытаясь разработать платформу для публикации электронных книг, которая была бы открыта и доступна всем издателям, обнаружил зарождающуюся Всемирную паутину.

Дейл привлек мое внимание к Сети, летом 1992 года познакомив меня с Тимом Бернерсом-Ли. Мы быстро убедились, что Сеть является действительно важной технологией, достойной, чтобы ее осветить в нашей готовящейся книге об Интернете, который как раз тогда открывался для коммерческого использования. Эд Крол, автор книги, еще мало знал о Сети, поэтому его редактор в O’Reilly Майк Лукидс написал главу, и мы добавили ее в книгу перед самой публикацией в октябре 1992 года.

Книга Эда «The Whole Internet User’s Guide and Catalog» была продана тиражом более миллиона экземпляров и была названа Публичной библиотекой Нью-Йорка одной из самых значимых книг XX века. Это была книга, которая представила Всемирную паутину миру. Когда мы издали ее осенью 1992 года, во всем мире насчитывалось около 200 веб-сайтов. За несколько лет появились миллионы.

Дейл продолжил создание «Global Network Navigator» (GNN), онлайн-журнала компании O’Reilly о людях и тенденциях в Интернете и каталога самых интересных сайтов. Это был первый веб-портал (запущенный за год до Yahoo!) и первый веб-сайт для размещения рекламы. Мы понимали, что Сеть растет очень быстро и мы не можем за ней угнаться как частная компания, но при этом не желали терять контроль над компанией O’Reilly, привлекая венчурный капитал. Поэтому в 1995 году мы продали GNN AOL, совершив первую контент-транзакцию, положившую начало раздуванию «пузыря» доткомов.

Даже после того, как в 2000 году этот «пузырь» лопнул, что привело рынки к обвалу, а инвесторов – в подавленное состоянии, мы по-прежнему были убеждены, что это все еще просто первые дни Интернета. В 2003 году на выездном совещании руководства компании O’Reilly Media мы определили нашу ключевую стратегическую цель как «возрождение энтузиазма в компьютерной индустрии». Дейл был тем, кто понимал, как это сделать. В процессе мозгового штурма с Крейгом Клайном, руководителем компании MediaLive International, организующей конференции и желающей сотрудничать с O’Reilly, Дейл придумал термин Web 2.0, имея в виду второе пришествие Всемирной паутины после провала. Я дал согласие на сотрудничество с MediaLive на следующем мероприятии, которое мы запустили через год под названием «Конференция Web 2.0», с Джоном Баттелом, автором и медиапредпринимателем, в роли принимающей стороны конференции и третьего партнера.

Как и в случае с моей работой над темой открытого исходного кода, мы начали создавать новую карту, пытаясь реализовать такие проекты, как модель рекламы Google с оплатой за клик, Wikipedia, системы обмена файлами, такие как Napster и BitTorrent, веб-сервисы и системы синдицированного контента, такие как ведение одностраничных блогов. И, как и в случае с открытым исходным кодом, вновь введенный термин идеально подошел духу времени и быстро прижился. Компании провели ребрендинг, став «компаниями Web 2.0». Они дистанцировались от старого прозвища «дотком», независимо от того, делали ли они действительно что-то новое или нет. Консультанты вышли из оцепенения, обещая помочь компаниям распространить новую парадигму.

К 2005 году я понял, что мне нужно дать немного больше поддержки этому термину, и написал эссе, в котором было обобщено все, что я узнал после «Смены парадигмы открытого исходного кода». Эссе называлось «Что такое Web 2.0?». И именно оно принесло мне репутацию футуриста, потому что в нем я определил очень много ключевых тенденций, которые объединились в рамках следующего поколения вычислений.

Я не предсказывал будущее. Я нарисовал карту настоящего, которая определила силы, формирующие технологический и бизнес-ландшафт.

Интернет как платформа

Первым принципиальным последствием Web 2.0 стало то, что Интернет заменил Windows как ведущую платформу, на которой строилось следующее поколение приложений. Сегодня это настолько очевидно, что остается только удивляться, как кто-то мог не замечать этого. Тем не менее компания Netscape, главный соперник Microsoft за доминирующее положение в конце 1990-х годов, потерпела неудачу, потому что она приняла правила игры компании Microsoft. Она руководствовалась старой картой. Компания, определяющая Web 2.0, Google, использовала новую карту.

Страницы: «« 12

Читать бесплатно другие книги:

Всякое прошлое забывается, превращаясь в сказки, которыми пугают малых детей. Но пробьет час, и древ...
Он – неконтролируемый зверь. Циничный и жестокий, не знающий сострадания и сочувствия. Он – брат мое...
Количество сайтов и приложений только увеличивается с каждым годом, и в последнее время растет спрос...
Меня зовут Андрей Тихомиров. Десять лет назад мою жизнь разрушила маленькая лживая девчонка. Она еще...
Книга детского психолога и кандидата наук Мэдлин Левин предлагает пересмотреть существующие взгляды ...
Книга известного культуролога и публициста Александра Станкевичюса является весьма любопытным исслед...