KnigaRead.com/
KnigaRead.com » Справочная литература » Энциклопедии » БСЭ БСЭ - Большая Советская Энциклопедия (ИН)

БСЭ БСЭ - Большая Советская Энциклопедия (ИН)

На нашем сайте KnigaRead.com Вы можете абсолютно бесплатно читать книгу онлайн "БСЭ БСЭ - Большая Советская Энциклопедия (ИН)". Жанр: Энциклопедии издательство неизвестно, год неизвестен.
Перейти на страницу:

  Дальнейшее развитие И. п. направлено на его механизацию и автоматизацию. Для этого используются перфокарты ручного обращения (с краевой перфорацией, щелевые и просветные), счётно-перфорационные машины, электронные цифровые вычислительные машины, а также специальные технические средства — микрофотографические, с магнитной и видеомагнитной записью информации и т. д.

  Лит.: Михайлов А. И., Черный А. И., Гиляревский Р. С., Основы информатики, 2 изд., М., 1968, с. 244—620; Bourne Ch. P., Methods of information handling, N. Y., 1963; Vickery B. C., On retrieval system theory, 2 ed., L., 1965.

  А. И. Чёрный.

«Информационный указатель Государственных стандартов СССР»

«Информацио'нный указа'тель Госуда'рственных станда'ртов СССР» (ИУС), ежемесячное официальное издание Государственного комитета стандартов Совета Министров СССР. Издаётся в Москве с 1940. Рассчитано на широкий круг инженерно-технических работников. Включает перечень государственных стандартов (располагается по разделам и группам классификатора ГОСТов), утвержденных Госстандартом СССР за прошедший месяц (в том числе на аттестованную продукцию), номера отмененных и измененных стандартов и инструкций. К каждому номеру ИУС выпускается приложение (тексты изменений и поправок, внесённых в государственные стандарты). На основе материалов государственной регистрации стандартов ИУС составляет Всесоюзный информационный фонд стандартов и технических условий. Тираж (1971) 47 тыс. экземпляров.

Информационный язык (в информационно-логической системе)

Информацио'нный язы'к для информационно-логической системы, формальная семантическая система, состоящая из некоторого алфавита (списка элементарных символов) и правил образования, преобразования и интерпретации. Правила образования устанавливают, какие комбинации элементарных символов допускаются, правила преобразования — какие допускаются преобразования выражений (на И. я.) с целью получения логического вывода, а правила интерпретации — как надлежит понимать выражения, составленные по правилам образования. Так как И. я. используется в информационно-логических системах для записи фактов и сведений, он должен быть недвусмысленным, удобным для дедуктивного логического вывода и отождествления разным образом записанных одинаковых фактов и сведений, пригодным для использования в информационной машине. Такое построение И. я. позволяет вводить в машину не все известные факты и сведения (это было бы невозможно), а лишь основные, из которых в ней можно получить остальные по правилам преобразования.

  Чем более формализован реальный язык той или иной отрасли науки (наиболее формализованные языки используются в математике и химии), тем легче создать для неё И. я. Необходимо отличать И. я. от информационно-поискового языка , предназначенного для решения другой, значительно более простой задачи — для поиска текстов (документов), основное смысловое содержание которых отвечает на некоторый информационный запрос , и поэтому имеющего иную структуру.

  А. И. Чёрный.

Информационный язык (в обработке информации)

Информацио'нный язы'к, специальный искусственный язык, используемый в системах обработки информации (см. Языки информационные ).

Информация (в кибернетике)

Информа'ция в кибернетике. Естественнонаучное понимание И. основано на двух определениях этого понятия, предназначенных для различных целей (для информации теории , иначе называемой статистической теорией связи, и теории статистических оценок ). К ним можно присоединить и третье (находящееся в стадии изучения), связанное с понятием сложности алгоритмов.

  Центральное положение понятия И. в кибернетике объясняется тем, что кибернетика (ограничивая и уточняя интуитивное представление об И.) изучает машины и живые организмы с точки зрения их способности воспринимать определённую И., сохранять её в «памяти», передавать по «каналам связи» и перерабатывать её в «сигналы», направляющие их деятельность в соответствующую сторону.

 В некоторых случаях возможность сравнения различных групп данных по содержащейся в них И. столь же естественна, как возможность сравнения плоских фигур по их «площади»; независимо от способа измерения площадей можно сказать, что фигура A имеет не большую площадь, чем B , если A может быть целиком помещена в В (сравни примеры 1—3 ниже). Более глубокий факт — возможность выразить площадь числом и на этой основе сравнить между собой фигуры произвольной формы — является результатом развитой математической теории. Подобно этому, фундаментальным результатом теории И. является утверждение о том, что в определённых весьма широких условиях можно пренебречь качественными особенностями И. и выразить её количество числом. Только этим числом определяются возможности передачи И. по каналам связи и её хранения в запоминающих устройствах.

  Пример 1. В классической механике знание положения и скорости частицы, движущейся в силовом поле, в данный момент времени даёт И. о её положении в любой будущий момент времени, притом полную в том смысле, что это положение может быть предсказано точно. Знание энергии частицы даёт И., но, очевидно, неполную.

  Пример 2. Равенство

a = b                                                                (1)

даёт И. относительно вещественных переменных a и b. Равенство

a 2 = b 2                                                                                                                            (2)

даёт меньшую И. [так как из (1) следует (2), но эти равенства не равносильны]. Наконец, равенство

a 3 = b 3                                                               (3)

равносильное (1), даёт ту же И., то есть (1) и (3) — это различные формы задания одной и той же И.

  Пример 3. Результаты произведённых с ошибками независимых измерений какой-либо физической величины дают И. о её точном значении. Увеличение числа наблюдений увеличивает эту И.

  Пример 3 а. Среднее арифметическое результатов наблюдений также содержит некоторую И. относительно рассматриваемой величины. Как показывает математическая статистика, в случае нормального распределения вероятностей ошибок с известной дисперсией среднее арифметическое содержит всю И.

  Пример 4. Пусть результатом некоторого измерения является случайная величина X . При передаче по некоторому каналу связи X искажается, в результате чего на приёмном конце получают величину Y = X + q, где q не зависит от X (в смысле теории вероятностей). «Выход» Y даёт И. о «входе» X ; причём естественно ожидать, что эта И. тем меньше, чем больше дисперсия случайной ошибки q.

  В каждом из приведённых примеров данные сравнивались по большей или меньшей полноте содержащейся в них И. В примерах 1—3 смысл такого сравнения ясен и сводится к анализу равносильности или неравносильности некоторых соотношений. В примерах 3 а и 4 этот смысл требует уточнения. Это уточнение даётся, соответственно, математической статистикой и теорией И. (для которых эти примеры являются типичными).

  В основе теории информации лежит предложенный в 1948 американским учёным К. Шенноном способ измерения количества И., содержащейся в одном случайном объекте (событии, величине, функции и т. п.) относительно другого случайного объекта. Этот способ приводит к выражению количества И. числом. Положение можно лучше объяснить в простейшей обстановке, когда рассматриваемые случайные объекты являются случайными величинами, принимающими лишь конечное число значений. Пусть X — случайная величина, принимающая значения x 1 , x 2 ,..., xn с вероятностями p 1 , p 2 ,..., pn , а Y — случайная величина, принимающая значения y 1 , y 2 ,..., ym с вероятностями q 1 , q 2 ,..., qm . Тогда И. I (X ,Y ) относительно Y , содержащаяся в X , определяется формулой

где pij — вероятность совмещения событий X = xi и Y = yj и логарифмы берутся по основанию 2. И. I (X , Y ) обладает рядом свойств, которые естественно требовать от меры количества И. Так, всегда I (X , Y ) ³ 0 и равенство I (X , Y ) = 0 возможно тогда и только тогда, когда pij = pi qj при всех i и j, т. е. когда случайные величины X и Y независимы. Далее, всегда I (X , Y ) £ I (Y , Y ) и равенство возможно только в случае, когда Y есть функция от X (например, Y = X 2 и т. д.). Кроме того, имеет место равенство I (X , Y ) = I (Y , X ).

Перейти на страницу:
Прокомментировать
Подтвердите что вы не робот:*