Популярные статьи | |
Сейчас на сайте | Гостей: 10
На сайте нет зарегистрированных пользователей
Пользователей: 9,955
новичок: Logyattella
|
|
2.2.1 Сообщения и информация |
К концу 20-го века понятием информация стали пользоваться люди всех возрастов и специальностей. В жизнедеятельности людей принято выделять три основных вида информации:
- личную;
- специальную;
- массовую.
Личная информация касается тех или иных событий в личной жизни человека или группы людей. К специальной информации относят научно-техническую, деловую, экономическую, учетно-статистическую и др. Она служит для осуществления процессов управления различных уровней. Массовая информация распространяется через средства массовой информации: газеты, журналы, радио, телевидение и др.
Перечисленные виды информации образуют так называемую социальную информацию, связанную с идеологией, культурой, наукой, образованием, управлением, удовлетворением личных нужд населения.
Таким образом, информация – это совокупность некоторых сведений о состоянии какой-либо материальной системы (предмете, процессе, событии), предназначенных для передачи, распределения, преобразования, хранения или непосредственного использования.
Как было сказано выше, информация передается в виде сообщений. Сообщения могут быть непрерывными (аналоговыми) и дискретными. Непрерывным называется сообщение, которое описывается непрерывной функцией времени. Примером такого сообщения являются передача речи по телефону, программа вещания. Передаче подлежит изменение во времени звукового давления на мембрану микрофона. Дискретное сообщение представляет собой последовательность отдельных элементов, физическая природа которых может быть любой. Так при передаче телеграммы сообщением является текст, а элементами сообщения – буквы.
Принимая сообщение о каком-либо событии, мы меняем свои знания о нем. Однако определить, сколько информации содержится в сообщении, в общем случае довольно затруднительно, так как одно и то же сообщение может давать одному потребителю много информации, а другому – мало. Для подсчета единиц информации принята система оценки, которая не связана с конкретным содержанием сообщения, а отражает лишь степень “неожиданности” (неопределенности).
Количество информации принято оценивать по его вероятности [9]. Так, весьма вероятное сообщение содержит мало нового и поэтому несет мало информации, маловероятное же сообщение является неожиданным и поэтому содержит много информации. Количество информации в отдельно взятом сообщении определяется величиной, обратной вероятности сообщения, вычисленной в логарифмических единицах:
где p(a) – вероятность сообщения a;
k – основание логарифма.
При p(a)=1 количество информации равно нулю, т.е. сообщение об известном событии информации не несет. Количество информации, содержащейся в нескольких независимых сообщениях, равно сумме количества информации в каждом из них. Это соответствует представлениям об увеличении информации при получении дополнительных сообщений.
Основание логарифма чаще всего принимается равным 2, и тогда количество информации, содержащейся в сообщении, выражается в двоичных единицах:
Совокупность всех возможных сообщений и вероятностей их появления образует ансамбль сообщений. Если ансамбль состоит всего из двух сообщений a1 и a2 вида «да» и «нет» или 0 и 1, которые являются независимыми и равновероятными, т.е. p(a1)=p(a2)=0.5, то каждое сообщение несет двоичную единицу информации, которую принято называть битом:
Если оценивать информационные свойства сообщения в целом, то вводится среднее количество информации, приходящееся на одно сообщение – энтропия источника сообщений. Энтропия источника определяется как математическое ожидание количества информации:
Это выражение справедливо для источника с независимыми сообщениями. Однако источники обычно имеют зависимые сообщения. Примером может служить обычный текст, где появление той или иной буквы зависит от предыдущих буквенных сочетаний. Так после сочетания букв «ит» вероятность следования гласных «о»,»е» больше, чем согласных.
Любой источник зависимых сообщений обладает избыточностью. Это означает, что если источник создает последовательность сообщений с заранее известной статистической связью, то часть сообщений является ненужной (избыточной) и их можно не передавать, а восстанавливать при приеме по известной статистической связи. Так поступают, например, при передаче телеграмм, исключая из текста союзы, предлоги и знаки препинания, потому что они легко восстанавливаются при чтении телеграммы на основе известных правил построения фраз и слов. Наличие избыточности с одной стороны позволяет исправлять часть искаженных сообщений, а с другой стороны приводит к тому, что за данный промежуток времени по каналу передается меньшее количество информации, чем это возможно.
Для оценки среднего количества информации, создаваемой источником в единицу времени, используется показатель производительности источника сообщений. Наибольшей производительностью обладает источник с максимальной энтропией.
|
|
Комментарии |
Добавить комментарий |
Пожалуйста залогиньтесь для добавления комментария.
|
Рейтинги |
Рейтинг доступен только для пользователей.
Пожалуйста, залогиньтесь или зарегистрируйтесь для голосования.
Нет данных для оценки.
|
|
Гость |
Вы не зарегистрированны? Нажмите здесь для регистрации.
Забыли пароль? Запросите новый здесь.
|
Мини-чат | Вам необходимо залогиниться.
Нет присланных сообщений.
|
|