Владимир Овчинский - Кибервойны ХХI века. О чем умолчал Эдвард Сноуден
А теперь давайте на минуту задумаемся, что, если в приведенных выше словах С. Рамбама заменить слово «компьютер» на слова «плотина», «атомный реактор», «биолаборатория» и т. п. Всем будут понятны последствия такой замены. И желающих посмотреть, как это будет выглядеть на практике, окажется очень мало.
То, что по состоянию на сегодняшний день не произошло ни одного крупного кибертеррористического акта в отношении не просто критически важных, а смертельно опасных объектов военной, промышленной, энергетической и иных инфраструктур, абсолютно не гарантирует того, что этого не произойдет буквально завтра. Пока можно сказать, человечеству в целом, и отдельным странам просто хронически везет. Но, как известно, жизнь похожа на зебру, и белые полосы имеют тенденцию сменяться черными.
При этом к кибертеррористическим акциям, которые могут повлечь за собой не просто многочисленные, а гигантские человеческие жертвы, нельзя подходить с теми же мерками, что и к обычным, даже крупным преступлениям. Понятно, что когда взлетят ракеты с атомными боеголовками, уже поздно будет разбираться, кто конкретно в этом виновен и вести расследование в поисках причин. В отношении подобного рода смертельного оружия давно действует принцип презумпции виновности. А он предполагает не последующие расследования, а превентивные меры по тотальному предупреждению подобных рисков.
Информационные технологии вплотную подошли, а возможно уже и перешли тот рубеж, когда кибероружие по своим разрушительным последствиям становится сопоставимым с атомным, химическим и биологическим. Кстати, что касается последнего, то они имеют тенденцию сращиваться.
Отсюда, с неизбежностью, следует что, спецслужбы и правоохранительные органы всех технологически развитых государств гласно или негласно перейдут к превентивному контролю за всеми лицами, обладающими уникальными хакерскими компетенциями, соответствующими профессиональными навыками и знаниями, а также имеющими знакомства, указывающими на возможность возникновения неоправданных рисков, связанных с кибероружием.
Глава 3. БОЛЬШИЕ ДАННЫЕ
3.1. Большие данные как стратегический ресурс
В последние годы Большие Данные являются общепризнанным трендом экономического и технологического развития. Им посвящены тысячи публикаций. Они относятся к числу наиболее популярных тем, как в специализированных изданиях, так и в различного рода СМИ, рассчитанных на самую широкую аудиторию. В результате возникло впечатление, что Большие Данные — это нечто само собой разумеющееся, ясное, понятное. Широко распространена иллюзия о повсеместном применении Больших Данных в России.
Между тем, дело обстоит совсем не так. Беспристрастный анализ фактических данных показывает, что наша страна существенно отстает в сфере Больших Данных. Значительная часть компаний только используют термин «Большие Данные» в маркетинговых целях, а по сути, применяют старую, хорошо известную бизнесаналитику, которая заметно отличается от Больших Данных. В стране практически нет спроса на специалистов по Большим Данным. Достаточно посмотреть наиболее популярные порталы работ, чтобы убедиться, что спрос на специалистов по Большим Данным у нас на порядки меньше, чем в США, Европе, Японии, Китае. В то время как во всем мире издаются сотни профессиональных и общедоступных книг по отдельным аспектам Больших Данных, в России только в этом году вышла первая книга по Большим Данным — работа В. Майер-Шенбергера и К. Кукьера «Большие данные. Революция, которая изменит то, как мы живем, работаем и мыслим». Да и эта книга носит не профессиональный характер, а написана в жанре нон-фикшн.
Происходящее вызывает особую тревогу в условиях, когда ведущие наднациональные мировые структуры и транснациональные корпорации, правительства ведущих стран мира, бизнес самых различных масштабов, системы управления производственной и социальной инфраструктурой и, конечно же, военноразведывательный комплекс всех основных стран мира уже используют Большие Данные как важнейший стратегический ресурс.
Достаточно парадоксально, что до сих пор при широком использовании технологий Больших Данных нет общеупотребительного их определения. Наиболее часто используется популярное определение Майкла Франклина из Университета в Беркли: «Большие Данные — это любые данные, работа с которыми требует значительных затрат и из которых трудно извлечь информацию». Данное определение кочует из книги в книгу, из работы в работу. Между тем, оно является лучшим подтверждением тезиса о том, что наука о Больших Данные и практические технологии Больших Данных живут в параллельных реальностях. Соответственно, наука о Больших Данных не столько выступает надежным базисом для инженерии данных, сколько намерено или ненамеренно скрывает революционную суть технологий Больших Данных.
В самом деле, определение через большие затраты и трудность обработки может указывать не только на специфические характеристики данных, но и на неэффективность применяемых технологий. По сути, это определение ничего не говорит о том, чем Большие Данные отличаются от просто данных. Казалось бы, штука эта безобидная и носит исключительно академический характер. Однако, на практике это не так. Когда лица, принимающие решения, возможно и не обладающие глубокими профессиональными познаниями, но в подавляющем числе наделенные недюжинным здравым смыслом, встречаются с подобными определениями, у них возникает подозрение, что они имеют дело с очередной маркетинговой уловкой. Суть этой уловки в том, чтобы просто извлечь из организации деньги, заставив ее заплатить за старые решения под новым названием. Несомненно, что непонятность Больших Данных для лиц, принимающих решения, в том числе и у нас, принципиальное отличие технологий Больших Данных от того, что было раньше, стали одними из важных причин, почему Россия и целый ряд других стран, располагающих всеми необходимыми предпосылками для использования этих технологий, на сегодняшний день отстают в гонке цифровых вооружений.
Чтобы разобраться с тем, что такое Большие Данные и в чем принципиальная новизна их технологий, надо для начала отследить время возникновения термина. Сам по себе термин «Большие Данные» появился пять лет назад после публикации специального выпуска ведущего американского научного журнала Nature, целиком посвященного этой теме. Затем тема, как по команде, была растиражирована сначала специализированными IT-изданиями, а затем подхвачена элитными СМИ, типа Foreign Affairs, Wall Street Journal и т. п.
Что же произошло пять лет назад? Есть ли какие-то документальные доказательства, что мы имеем дело с чем-то принципиально новым, а не с хорошо продуманной маркетинговой кампанией по принуждению правительств и корпораций к покупке нового, дорогостоящего софта? Ведь таких примеров в истории IT-индустрии было немало. В данном случае твердые документальные доказательства перехода некоего Рубикона имеют место быть.
Во-первых, он связан с достижением интернетом уровня контентной зрелости и переходом в фазу ярко выраженного экспоненциального развития. Эта фаза получила название «информационный взрыв». Примерно, с 2008 года объем информации, вновь генерируемой в сети, стал удваиваться в течение примерно полуторадвух лет. На сегодняшний день можно привести следующие ключевые характеристики информационного взрыва.
По данным компании Cisco, объем сгенерированных данных в 2012 году составил 2,8 зеттабайт и увеличится до 40 зеттабайт к 2020 г. Примерно треть передаваемых данных составляют автоматически сгенерированные данные, т. е. управляющие сигналы и информация, характеризующие работу машин, оборудования, устройств, присоединенных к интернету, или к интернету вещей. Причем с каждым годом доля интернета вещей или как его сегодня еще называют «интернета всего» растет в общем объеме мировых информационных потоков. На 40 % ежегодно увеличивается объем корпоративной информации, передаваемой и хранящейся в сети интернет.
Число пользователей интернета в мире к концу 2013 года составило 2,7 млрд. человек, или 39 % населения земли, а к 2016 году эта доля составит 65–75 % населения по данным Центра новостей ООН. Как ожидается, количество корпоративных пользователей интернета во всем мире увеличится с 1,6 миллиарда в 2011 году до 2,3 миллиарда в 2016 году.
Во-вторых, примерно в этот период времени появились и стали доступны для корпоративных пользователей принципиально новые IT-решения, позволяющие в режиме реального времени обрабатывать практически безразмерные массивы данных самого различного формата. Причем эти решения сразу же стали реализовываться не только как программные платформы, устанавливаемые на серверы, но и как облачные вычисления, где от организации не требовалось наличия дорогостоящей инфраструктуры компьютерного железа.