KnigaRead.com/

Сергей Переслегин - Еще один бог из машины

На нашем сайте KnigaRead.com Вы можете абсолютно бесплатно читать книгу онлайн "Сергей Переслегин - Еще один бог из машины". Жанр: Техническая литература издательство неизвестно, год -.
Назад 1 2 3 Вперед
Перейти на страницу:

6.

В недавней катастрофе самолета А-320 много жертв. Корпорация продает и даже навязывает мировому воздушному пространству свои самолеты, считая их надежными и — считая свою прибыль. Ничего личного. Это бизнес. Все катастрофы, как пить дать, происходят по вине пилотов, ведь человеческий фактор нельзя "вырубить топором". Все бывает в небе, и виноватых нет.

Такие выводы комиссий очень выгодны Корпорации. В авиакатастрофах, как правило, ошибающиеся гибнут вместе с пассажирами. Самолет полностью автоматизирован, у него нет ручного управления, и пилот не может положиться на себя в трудную минуту. Автоматика, как бы ни была она совершенна, не в состоянии принять компромиссного решения: сначала ручку от себя, а потом резко на себя на угол лямбда, и пусть Господь решит… Это может человек. Откуда он знает про лямбду, если никогда ее не видел, — темный вопрос. Но! Неоднократно пилоты спасали машины и людей, аварийно вручную садясь и на брюхо, и мимо аэродрома, и из полупике в последний момент задрав нос, или даже коснувшись земли со скоростью 400 км в час… Называется это "чувством машины", верой во Всевышнего, дружественностью Вселенной, торжеством Разума — нужное подчеркнуть. На евроаэробусах такой возможности нет. Автоматика не понимает вашего интуитивного, неизвестно откуда взявшегося желания пойти на второй круг перед самой посадкой. Глупости это! Программа, уже готовая посадку начать, конфликтует с тем, что ей посылают сигнал лететь дальше. Техника умная, человек — дурак. Что это он тут придумал? Как уже отмечалось выше, программа не человек и ей все равно, что в салоне живые люди…

Это проблема, причем проблема глобальная. Возникшая на базе старого как мир противоречия: все должно быть автоматизировано или все должно быть субъективно, случайно и рассчитано на индивидуальную ответственность человека. Третьего не дано. В первом случае мы получаем катастрофы по вине "правильной автоматики в неправильной ситуации", во втором случае получаем "перегрев" пилота от ежеминутного принятия решения, и он точно хоть раз, да ошибется. Количество аварий по этим "альтернативным" причинам будет, кстати, примерно равным. Значит, для самолетов необходимо использовать обе системы: автоматическую и ручную на случай непредвиденных обстоятельств. Это простой вывод, который понятен даже школьнику, но не создателям евроаэробусов, лоббистам корпорации Airbus Industry и бюрократам из МАГАТЭ, всерьез требующим, чтобы при чрезвычайной ситуации на энергоблоке персоналу было аппаратно запрещено прикасаться к приборам.

Бренд пересиливает разум. Катастрофы будут множиться. Программы — смеяться над нашим бессилием. Они не боятся нашей смерти.

В атомном реакторе PWR нашли каверну — коррозия стали "сточила" корпус до 9 мм и грозит прорвать реактор. Почему? Не та марка стали… Не проверили на взаимодействие с бором. А не проверили, потому что весь этот бор уже после конца проектирования решили использовать во имя вящей безопасности. Плохо? Да. Конструкционная ошибка? Да. Признавать ее неохота, потому что реактор-то хороший — раз, американский — два и готовый к реализации на мировом рынке в новом энергетическом веке — три.

Какой могут сделать вывод принимающие решения? Запретить этот тип реактора, и все. Очень страшный вывод: реакторов не будет, поставок не будет, кризис энергетики будет. Средний вывод: что-то сделать с существующими кавернами, заменить марку стали в проектируемых реакторах, если договора уже заключены, поменять парадигматику, то есть переходить постепенно на реакторы другого типа. Хороший вывод: починить существующий реактор, отрефлектировать роль субъективного человеческого фактора в сложных технических системах, строить их далее с учетом перехода на ручное управление. Для атомной станции это значит, что возможен спонтанный контроль всех объектов на станции. Для авиапрома — директивное введение аварийного ручного управление как фактора безопасности. Это — не трудно. Как норильским водителям не трудно проверить перед рейсом климат-контроль в своем автобусе, потому что в минус 50 градусов по Цельсию пассажиры, да и сам водитель, не выдержит и десяти минут.

Современные технические системы — большие и сложные — вполне могут шутить с человеком плохие шутки: ты сам отдал себя в руки нам, посмотри теперь, что мы можем. Игры с искусственным интеллектом — это искусные игры, а не подчинение своей жизни каверзам программного обеспечения. Автоматику мы создаем сами, это наше детище, ее нужно уважать, ее глупо бояться, но она должна знать свое место в управлении.

7.

В словах героя американского фильма "Назад в будущее": "Да шут с ним, с континуумом" есть изрядная доля будущей онтологии. На компьютер надейся, но оставь синтез себе! Хватит на электронные устройства и анализа. Все ближе каждому человеку целостное восприятие мира, которое позволяет, как ни странно, разделять и властвовать над информационным пространством: брать из него нужное и реализовывать с его помощью свои "хочуги". Скоро люди разучатся мерить все на деньги и репутационный капитал авиакорпораций будет иметь большее значение, чем прибыль. Потому что за баксы нельзя себе выкупить угробленную жизнь. А в атомных отраслях появятся высокооплачиваемые зануды, которые к общему неудовольствию мировых руководств будут рыскать в поисках каверн или прочих неучтенных диффузий и ручным, субъективным своим управлением предотвратят не одну катастрофу. И эти люди должны быть неангажированными, как когда-то были ими американские рейнджеры, французские журналисты или русские фантасты. Это будет время межгосударственных образований, совершенно новых и странных по своим задачам, эдаких "хранителей" индустриальной фазы развития во имя того, чтобы в ее недрах сформировалось новое человечество и для него родился и вырос новый Бог из Машины.

03.08.07 15:48

Назад 1 2 3 Вперед
Перейти на страницу:
Прокомментировать
Подтвердите что вы не робот:*