Все о моделировании в Компас-3D LT
   Главная Статьи Файлы Форум Ссылки Категории новостей
March 19 2024 07:41:28   
Навигация
Главная
Статьи
Файлы
FAQ
Форум
Ссылки
Категории новостей
Обратная связь
Фото галерея
Поиск
Разное
Карта Сайта
Популярные статьи
Что необходимо ... 65535
4.12.1 Професси... 32513
Учимся удалять!... 31817
Примеры, синони... 23212
Просмотр готовы... 22406
Декартовы коорд... 21943
FAST (методика ... 21268
содержание - се... 20495
Просмотр готовы... 19007
Работа с инстру... 14515
Сейчас на сайте
Гостей: 2
На сайте нет зарегистрированных пользователей

Пользователей: 9,955
новичок: Logyattella
Друзья сайта
Ramblers Top100
Рейтинг@Mail.ru

Реклама
Выполняем курсовые и лабораторные по разным языкам программирования
Подробнее - курсовые и лабораторные на заказ по Delphi
Turbo Pascal, Assembler, C, C++, C#, Visual Basic, Java, GPSS, Prolog
2.6.1. Кодирование информации
Кодирование - представление сообщения последовательностью элементарных символов.
Рассмотрим кодирование дискретных сообщений. Символы в со-общениях могут относиться к алфавиту, включающему n букв (буква - символ сообщения). Однако число элементов кода k существенно ог-раничено сверху энергетическими соображениями, т.е. часто n>k. Так, если отношение сигнал/помеха для надежного различения уровня сиг-нала должно быть не менее q, то наименьшая амплитуда для представ-ления одного из k символов должна быть qg, где q- амплитуда помехи, а наибольшая амплитуда соответственно qgk. Мощность передат¬чика пропорциональна квадрату амплитуды сигнала (тока или напряжения), т.е. должна превышать величину, пропорциональную (qgk)2. В связи с этим распространено двоичное кодирование с k=2. При двоичном ко-дировании сообщений с п типами букв, каждая из п букв кодируется определенной комбинацией 1 и 0 (например, код ASCII).
Кодирование аналоговых сообщений после их предварительной дискретизации должно выполняться в соответствии с теоремой Ко-тельникова. Для передачи аналогового сигнала производится его дис-кретизация с частотой отсчетов 2FB (где FВ - максимальная частота в спектре сигнала) и выполняется импульсно-кодовая модуляция после-довательности отсчетов.
Количество информации в сообщении (элементе сообщения) оп-ределяется по формуле:
I = -log2P ,
где Р - вероятность появления сообщения (элемента сообщения). Из этой формулы следует, что единица измерения количества информа-ции есть количество информации, содержащееся в одном бите двоич-ного кода при условии равной вероятности появления в нем 1 и 0. В то же время один разряд десятичного кода содержит I= -lоg2P = 3,32 еди-ницы информации (при том же условии равноверятности появления де¬сятичных символов, т.е. при Р = 0,1).
Напомним, что энтропия источника информации с независимыми сообщениями есть среднее арифметическое количества информации сообщений:


где Pk - вероятность появления k-го сообщения. Другими словами, эн-тропия есть мера неопределенности ожидаемой информации.
Пример. Пусть имеем два источника информации, один передает двоичный код с равновероятным появлением в нем 1 и 0, другой имеет вероятность 1, равную 2-10, и вероятность 0, равную 1-2-10. Очевидно, что неопределенность в получении в очередном такте символа 1 или 0 от первого источника выше, чем от второго. Это подтверждается коли-че¬ственной оценкой энтропии: у первого источника Н = 1, у второго
Н ≈ -2-101оg22-10, т.е. значительно меньше.
Коэффициент избыточности сообщения А определяется по фор-муле:
r = (Imax-I)/Imax ,

где I - количество информации в сообщении А; Imax – максимально возможное количество информации в сообщении той же длины, что и А.
Пример избыточности дают сообщения на естественных языках. Так, у русского языка r находится в пределах 0,3...0,5.
Наличие избыточности позволяет ставить вопрос о сжатии ин-формации без ее потери в передаваемых сообщениях.
Для кодирования информации широко используются двоичные коды:
• EBCDIC (Extended Binary Coded Decimal Interchange Code) -символы кодируются восемью битами; популярен благодаря его ис-пользованию в IBM;
• ASCII (American Standards Committee fop Information Inter-change) семибитовый двоичный код.
Оба этих кода включают битовые комбинации для печатаемых символов и некоторых распространенных командных слов типа - NUL, CR, ACK, NАК и др.
Для кодировки русского текста нужно вводить дополнительные битовые комбинации. Семибитовая кодировка здесь уже недостаточна. В восьмибитовой кодировке нужно под русские символы отводить двоичные комбинации, не занятые в общепринятом коде, чтобы сохра-нять неизменной кодировку латинских букв и других символов. Так возникли кодировка КОИ-8, затем при появлении персональных ЭВМ - альтернативная кодировка и при переходе к Windows - ко¬дировка 1251. Множество используемых кодировок существенно усложняет проблему согласования почтовых программ в глобальных сетях.
Комментарии
Нет комментариев.
Добавить комментарий
Пожалуйста залогиньтесь для добавления комментария.
Рейтинги
Рейтинг доступен только для пользователей.

Пожалуйста, залогиньтесь или зарегистрируйтесь для голосования.

Нет данных для оценки.
Гость
Имя

Пароль



Вы не зарегистрированны?
Нажмите здесь для регистрации.

Забыли пароль?
Запросите новый здесь.
Случайные статьи
1.6 ВЫВОДЫ
2.4.7.1 Идея цикли...
Нечеткий вывод
Что сделал Аристо...
Синтез
Принцип работы
3.2.2. Сетевое обо...
Великолепный Linux
Встроенная карта
9.7. Экспертные оц...
Антенна
Самые продаваемые ...
4.2. Различия межд...
5. Продукции типа...
Параллельный
RoutePlanner и Str...
Патч-антенна
Глава 27. Garmin G...
Использование согл...
О книге
2.6.2.1 Образовани...
Текст
Идея четвертая: Оп...
Супертип
Выводы 2
Настройка (парамет...
Введение
Необычные дуги
ДОПОЛНИТЕЛЬНЫЕ СОГ...
Поддержка сетевых ...
Новая «общественна...
2.4.6 Код Хемминга...
7.2.1 Обработка си...
2.2.2. Понимание п...
Одометр
По законам джунглей
Технология совмест...
Протоколы
ГЛАВА 13. РАСПРЕД...
Требования к распр...
Мини-чат
Вам необходимо залогиниться.

Нет присланных сообщений.
Copyright © 2009