Kniga-Online.club
» » » » БСЭ БСЭ - Большая Советская Энциклопедия (ИН)

БСЭ БСЭ - Большая Советская Энциклопедия (ИН)

Читать бесплатно БСЭ БСЭ - Большая Советская Энциклопедия (ИН). Жанр: Энциклопедии издательство неизвестно, год 2004. Так же читаем полные версии (весь текст) онлайн без регистрации и SMS на сайте kniga-online.club или прочесть краткое содержание, предисловие (аннотацию), описание и ознакомиться с отзывами (комментариями) о произведении.
Перейти на страницу:

  Дальнейшее развитие И. п. направлено на его механизацию и автоматизацию. Для этого используются перфокарты ручного обращения (с краевой перфорацией, щелевые и просветные), счётно-перфорационные машины, электронные цифровые вычислительные машины, а также специальные технические средства — микрофотографические, с магнитной и видеомагнитной записью информации и т. д.

  Лит.: Михайлов А. И., Черный А. И., Гиляревский Р. С., Основы информатики, 2 изд., М., 1968, с. 244—620; Bourne Ch. P., Methods of information handling, N. Y., 1963; Vickery B. C., On retrieval system theory, 2 ed., L., 1965.

  А. И. Чёрный.

«Информационный указатель Государственных стандартов СССР»

«Информацио'нный указа'тель Госуда'рственных станда'ртов СССР» (ИУС), ежемесячное официальное издание Государственного комитета стандартов Совета Министров СССР. Издаётся в Москве с 1940. Рассчитано на широкий круг инженерно-технических работников. Включает перечень государственных стандартов (располагается по разделам и группам классификатора ГОСТов), утвержденных Госстандартом СССР за прошедший месяц (в том числе на аттестованную продукцию), номера отмененных и измененных стандартов и инструкций. К каждому номеру ИУС выпускается приложение (тексты изменений и поправок, внесённых в государственные стандарты). На основе материалов государственной регистрации стандартов ИУС составляет Всесоюзный информационный фонд стандартов и технических условий. Тираж (1971) 47 тыс. экземпляров.

Информационный язык (в информационно-логической системе)

Информацио'нный язы'к для информационно-логической системы, формальная семантическая система, состоящая из некоторого алфавита (списка элементарных символов) и правил образования, преобразования и интерпретации. Правила образования устанавливают, какие комбинации элементарных символов допускаются, правила преобразования — какие допускаются преобразования выражений (на И. я.) с целью получения логического вывода, а правила интерпретации — как надлежит понимать выражения, составленные по правилам образования. Так как И. я. используется в информационно-логических системах для записи фактов и сведений, он должен быть недвусмысленным, удобным для дедуктивного логического вывода и отождествления разным образом записанных одинаковых фактов и сведений, пригодным для использования в информационной машине. Такое построение И. я. позволяет вводить в машину не все известные факты и сведения (это было бы невозможно), а лишь основные, из которых в ней можно получить остальные по правилам преобразования.

  Чем более формализован реальный язык той или иной отрасли науки (наиболее формализованные языки используются в математике и химии), тем легче создать для неё И. я. Необходимо отличать И. я. от информационно-поискового языка , предназначенного для решения другой, значительно более простой задачи — для поиска текстов (документов), основное смысловое содержание которых отвечает на некоторый информационный запрос , и поэтому имеющего иную структуру.

  А. И. Чёрный.

Информационный язык (в обработке информации)

Информацио'нный язы'к, специальный искусственный язык, используемый в системах обработки информации (см. Языки информационные ).

Информация (в кибернетике)

Информа'ция в кибернетике. Естественнонаучное понимание И. основано на двух определениях этого понятия, предназначенных для различных целей (для информации теории , иначе называемой статистической теорией связи, и теории статистических оценок ). К ним можно присоединить и третье (находящееся в стадии изучения), связанное с понятием сложности алгоритмов.

  Центральное положение понятия И. в кибернетике объясняется тем, что кибернетика (ограничивая и уточняя интуитивное представление об И.) изучает машины и живые организмы с точки зрения их способности воспринимать определённую И., сохранять её в «памяти», передавать по «каналам связи» и перерабатывать её в «сигналы», направляющие их деятельность в соответствующую сторону.

 В некоторых случаях возможность сравнения различных групп данных по содержащейся в них И. столь же естественна, как возможность сравнения плоских фигур по их «площади»; независимо от способа измерения площадей можно сказать, что фигура A имеет не большую площадь, чем B , если A может быть целиком помещена в В (сравни примеры 1—3 ниже). Более глубокий факт — возможность выразить площадь числом и на этой основе сравнить между собой фигуры произвольной формы — является результатом развитой математической теории. Подобно этому, фундаментальным результатом теории И. является утверждение о том, что в определённых весьма широких условиях можно пренебречь качественными особенностями И. и выразить её количество числом. Только этим числом определяются возможности передачи И. по каналам связи и её хранения в запоминающих устройствах.

  Пример 1. В классической механике знание положения и скорости частицы, движущейся в силовом поле, в данный момент времени даёт И. о её положении в любой будущий момент времени, притом полную в том смысле, что это положение может быть предсказано точно. Знание энергии частицы даёт И., но, очевидно, неполную.

  Пример 2. Равенство

a = b                                                                (1)

даёт И. относительно вещественных переменных a и b. Равенство

a 2 = b 2                                                                                                                            (2)

даёт меньшую И. [так как из (1) следует (2), но эти равенства не равносильны]. Наконец, равенство

a 3 = b 3                                                               (3)

равносильное (1), даёт ту же И., то есть (1) и (3) — это различные формы задания одной и той же И.

  Пример 3. Результаты произведённых с ошибками независимых измерений какой-либо физической величины дают И. о её точном значении. Увеличение числа наблюдений увеличивает эту И.

  Пример 3 а. Среднее арифметическое результатов наблюдений также содержит некоторую И. относительно рассматриваемой величины. Как показывает математическая статистика, в случае нормального распределения вероятностей ошибок с известной дисперсией среднее арифметическое содержит всю И.

  Пример 4. Пусть результатом некоторого измерения является случайная величина X . При передаче по некоторому каналу связи X искажается, в результате чего на приёмном конце получают величину Y = X + q, где q не зависит от X (в смысле теории вероятностей). «Выход» Y даёт И. о «входе» X ; причём естественно ожидать, что эта И. тем меньше, чем больше дисперсия случайной ошибки q.

  В каждом из приведённых примеров данные сравнивались по большей или меньшей полноте содержащейся в них И. В примерах 1—3 смысл такого сравнения ясен и сводится к анализу равносильности или неравносильности некоторых соотношений. В примерах 3 а и 4 этот смысл требует уточнения. Это уточнение даётся, соответственно, математической статистикой и теорией И. (для которых эти примеры являются типичными).

  В основе теории информации лежит предложенный в 1948 американским учёным К. Шенноном способ измерения количества И., содержащейся в одном случайном объекте (событии, величине, функции и т. п.) относительно другого случайного объекта. Этот способ приводит к выражению количества И. числом. Положение можно лучше объяснить в простейшей обстановке, когда рассматриваемые случайные объекты являются случайными величинами, принимающими лишь конечное число значений. Пусть X — случайная величина, принимающая значения x 1 , x 2 ,..., xn с вероятностями p 1 , p 2 ,..., pn , а Y — случайная величина, принимающая значения y 1 , y 2 ,..., ym с вероятностями q 1 , q 2 ,..., qm . Тогда И. I (X ,Y ) относительно Y , содержащаяся в X , определяется формулой

где pij — вероятность совмещения событий X = xi и Y = yj и логарифмы берутся по основанию 2. И. I (X , Y ) обладает рядом свойств, которые естественно требовать от меры количества И. Так, всегда I (X , Y ) ³ 0 и равенство I (X , Y ) = 0 возможно тогда и только тогда, когда pij = pi qj при всех i и j, т. е. когда случайные величины X и Y независимы. Далее, всегда I (X , Y ) £ I (Y , Y ) и равенство возможно только в случае, когда Y есть функция от X (например, Y = X 2 и т. д.). Кроме того, имеет место равенство I (X , Y ) = I (Y , X ).

Перейти на страницу:

БСЭ БСЭ читать все книги автора по порядку

БСЭ БСЭ - все книги автора в одном месте читать по порядку полные версии на сайте онлайн библиотеки kniga-online.club.


Большая Советская Энциклопедия (ИН) отзывы

Отзывы читателей о книге Большая Советская Энциклопедия (ИН), автор: БСЭ БСЭ. Читайте комментарии и мнения людей о произведении.


Уважаемые читатели и просто посетители нашей библиотеки! Просим Вас придерживаться определенных правил при комментировании литературных произведений.

  • 1. Просьба отказаться от дискриминационных высказываний. Мы защищаем право наших читателей свободно выражать свою точку зрения. Вместе с тем мы не терпим агрессии. На сайте запрещено оставлять комментарий, который содержит унизительные высказывания или призывы к насилию по отношению к отдельным лицам или группам людей на основании их расы, этнического происхождения, вероисповедания, недееспособности, пола, возраста, статуса ветерана, касты или сексуальной ориентации.
  • 2. Просьба отказаться от оскорблений, угроз и запугиваний.
  • 3. Просьба отказаться от нецензурной лексики.
  • 4. Просьба вести себя максимально корректно как по отношению к авторам, так и по отношению к другим читателям и их комментариям.

Надеемся на Ваше понимание и благоразумие. С уважением, администратор kniga-online.


Прокомментировать
Подтвердите что вы не робот:*
Подтвердите что вы не робот:*