Николас Карр - Великий переход: что готовит революция облачных технологий
Появление персонального компьютера привело к демократизации вычислений. Исчезла необходимость в корпоративных центрах обработки данных и ИТ-отделах, ПК превратился в универсальный бизнесинструмент. ПК также внес изменения в организацию вычислений. Персональные компьютеры, установленные на рабочих столах офисных сотрудников, вскоре были объединены в сеть, и это позволило им обмениваться файлами и совместно использовать принтеры. Прежние комнаты с мейнфреймами не исчезли. Они были преобразованы в новый вид центра обработки данных. В этих центрах находились системы хранения, которые содержали наиболее важные данные, а также мощные серверные компьютеры с программами для управления финансами и операциями компании. Отдельные сотрудники могли на своих ПК работать с такими программами, как Microsoft Word и Excel, а подключаться к программам и файлам на центральных серверах. Поскольку ПК выступал в качестве «клиента» общих серверов, такая система получила название «клиентсервер». Эта модель стала определяющей в эпоху ПК и по сей день остается доминирующей.
Модель «клиент-сервер» оказалась противоположностью мейнфреймовых систем. Она сделала вычислительный процесс личным, но при этом крайне неэффективным. Корпоративные компьютерные системы и сети – цифровая система передачи мощности современной компании – усложнялись по мере расширения сферы их применения. Одной из основных причин этого усложнения было отсутствие стандартов в области вычислительного оборудования и программного обеспечения. Производители, как правило, продвигали собственные продукты, а они недостаточно хорошо сочетались с продуктами конкурентов. В результате корпоративные программы, как правило, создавались для работы в конкретной операционной системе, для конкретного микрочипа, конкретной базы данных и конкретного оборудования. В отличие от многоцелевых мейнфреймов, большинство серверных компьютеров предназначались для работы с одним приложением или одной базой данных. Всякий раз, когда компания покупала или создавала новое приложение, ей приходилось приобретать и устанавливать новый набор специализированных компьютеров. Каждый из этих компьютеров необходимо было настроить на обслуживание с пиковой нагрузкой, даже если эта пиковая нагрузка никогда не возникала.
Распространение узкоспециализированных систем привело к чрезвычайно низким уровням использования вычислительных мощностей. Недавнее исследование шести корпоративных центров обработки данных показало, что в большей части серверов, количество которых достигало тысячи, задействовано менее четверти их вычислительной мощности. Согласно другим исследованиям, так же нерационально используются системы хранения данных: в среднем на 25–50 %. До наступления эры персональных компьютеров специалисты по обработке данных старались сохранять вычислительные ресурсы не только по экономическим, но и по этическим соображениям. «Тратить цикл центрального процессора или байт памяти было недопустимо, – вспоминает научный писатель Брайан Хейс. – Решать несложную задачу с помощью мощного компьютера считалось таким же безвкусным и неспортивным, как ловля форели с помощью динамита». Модель «клиент-сервер» шла вразрез с принципом экономии ресурсов. Вместо бережливости определяющей характеристикой бизнес-вычислений стало расточительство.
За последнюю четверть века сложность и неэффективность модели «клиент-сервер» только возросли. Компании задействовали все больше приложений, поэтому им приходилось расширять свои центры обработки данных, устанавливать новые машины, перепрограммировать старые и нанимать все больше специалистов для управления ими. Если учесть еще и то, что компаниям приходилось покупать резервное оборудование на случай, если сервер или система хранения данных выйдут из строя, вы поймете, что бо́льшая часть триллионных инвестиций, сделанных компаниями в информационные технологии, пропала даром.
Кроме этого, существуют и другие издержки. По мере расширения центров обработки данных, все более плотно укомплектованных компьютерами, резко растет потребление электроэнергии. Согласно исследованию, проведенному в декабре 2005 года Национальной лабораторией имени Лоуренса в Беркли[16], современный корпоративный центр обработки данных «может потреблять в 100 раз больше энергии на квадратный фут, чем обычное офисное здание». Исследователи обнаружили, что компания тратит свыше одного миллиона долларов в месяц на электричество, необходимое для работы одного большого центра обработки данных. И счета за электричество продолжают быстро расти с увеличением количества серверов и мощности компьютерных чипов. Луис Андре Баррозу, компьютерный инженер компании Google, делает вывод, что, если эффективность компьютеров существенно не возрастет, «в течение ближайших нескольких лет затраты на электроэнергию могут легко превысить затраты на аппаратное обеспечение, возможно, с большим отрывом».
Непроизводительные расходы, присущие модели «клиент-сервер», обременительны для отдельных компаний. Однако в отраслях картина намного хуже. Бо́льшая часть программ и аппаратных средств, с которыми сегодня работают компании, имеется у их конкурентов. Компьютеры, системы хранения данных, сетевое оборудование и наиболее популярные приложения стали товарами массового потребления с точки зрения компаний, которые их покупают. Они не отличают одну компанию от другой. То же самое касается сотрудников ИТ-отделов. Большинство из них занимаются рутинным обслуживанием, выполняя такие же задачи, что и их коллеги в других компаниях. Существование десятков тысяч независимых центров обработки данных, использующих аналогичные аппаратные средства, программное обеспечение и виды работ, негативно влияет на экономику. Это привело к наращиванию чрезмерных ИТ-активов почти в каждом секторе промышленности и уменьшению выгоды от компьютерной автоматизации.
Ведущие ИТ-поставщики стали самыми быстрорастущими и прибыльными компаниями в мире. Компания Билла Гейтса – идеальный тому пример. Почти каждая компания сегодня покупает копии операционной системы Microsoft Windows и офисного пакета приложений Microsoft Office для всех своих сотрудников, устанавливая программное обеспечение на каждом отдельном ПК и регулярно производя обновления. Большинство компаний также используют ОС Windows, по крайней мере на некоторых из своих серверов, и устанавливают другие дорогостоящие программы Microsoft в своих центрах обработки данных (например, Exchange для управления электронной почтой). За три десятилетия с момента своего основания годовые объемы продаж компании Microsoft выросли почти до 50 миллиардов долларов, годовая прибыль – до 12 миллиардов, а сумма наличных денежных средств – до 30 миллиардов долларов. И компания Microsoft не одинока. Многие другие производители программного обеспечения, вроде Oracle и SAP, поставщики серверов, например IBM и Hewlett-Packard, производители ПК типа Dell, а также сотни консалтинговых компаний извлекают выгоду из сложности современной отрасли бизнес-вычислений. Все они с готовностью играли роль поставщиков оружия в гонке вооружений, происходившей в сфере информационных технологий.
Почему сфера вычислений развивалась таким, казалось бы, неправильным образом? Почему персонализация компьютеров сопровождалась усложнением и напрасными затратами? Причина довольно проста. Она сводится к двум законам. Первый и самый известный был сформулирован в 1965 году блестящим инженером Intel Гордоном Муром. Закон Мура гласит, что мощность микропроцессоров удваивается каждый год или два. Второй закон был озвучен в 1990-х годах Энди Гроувом, коллегой Мура. По закону Гроува, пропускная способность телекоммуникационных систем удваивается каждые сто лет. Закон Гроува скорее выражает его неприятие умирающей телефонной индустрии, чем констатирует технический факт, тем не менее он обнаруживает простую истину: на протяжении всей истории развития вычислительной техники вычислительная мощность растет намного быстрее, чем пропускная способность коммуникационных сетей. Это несоответствие означает, что компания может воспользоваться преимуществами передовых компьютеров только в том случае, если установит их в собственных офисах и объединит их в собственную локальную сеть. Как это было с электричеством в эпоху систем постоянного тока, нет никакого практического способа эффективной передачи вычислительной мощности на большие расстояния.
Как показывают наблюдения Гроува, дефицит пропускной способности коммуникационных систем уже давно считается препятствием для эффективной обработки данных. Было ясно, что теоретически вычислительная мощность, как и электроэнергия, может поставляться через сеть крупными компаниями коммунального обслуживания и что такие централизованные сервисы станут работать гораздо более эффективно и гибко, чем множество частных центров обработки данных. Еще в 1961 году, когда ученые только начинали искать способы, позволяющие компьютерам общаться друг с другом, Джон Маккарти, эксперт в молодой области сетевых технологий, предсказал, что «процесс обработки данных однажды может превратиться в коммунальную услугу наподобие системы телефонной связи». Каждый прорыв в области сетевых технологий вызывал появление предпринимателей, которые надеялись превратить коммунальные вычисления в крупный бизнес. В эпоху мейнфреймов компании, осуществлявшие обработку данных в режиме разделения времени, устанавливали центральные компьютеры и сдавали их в аренду другим компаниям, позволяя напрямую подключаться к ним через телефонную линию. В 1970-х годах такие компании, как Automated Data Processing, начали предлагать некоторые рутинные вычислительные работы, в частности по расчету заработной платы, в качестве платной услуги. А в 1990-х годах при значительной поддержке венчурного капитала появилось множество «провайдеров прикладных услуг», которые собирались предоставлять компаниям доступ к программному обеспечению через интернет.