Все о моделировании в Компас-3D LT
   Главная Статьи Файлы Форум Ссылки Категории новостей
Август 24 2019 10:36:41   
Навигация
Главная
Статьи
Файлы
FAQ
Форум
Ссылки
Категории новостей
Обратная связь
Фото галерея
Поиск
Разное
Карта Сайта
Популярные статьи
Что необходимо ... 65535
Учимся удалять!... 23664
4.12.1 Професси... 22372
Примеры, синони... 21286
FAST (методика ... 19243
Просмотр готовы... 18959
Декартовы коорд... 17359
Просмотр готовы... 15802
Работа с инстру... 11938
Что такое САПР 11344
Сейчас на сайте
Гостей: 1
На сайте нет зарегистрированных пользователей

Пользователей: 9,955
новичок: Logyattella
Друзья сайта
Ramblers Top100
Рейтинг@Mail.ru

Реклама
Выполняем курсовые и лабораторные по разным языкам программирования
Подробнее - курсовые и лабораторные на заказ по Delphi
Turbo Pascal, Assembler, C, C++, C#, Visual Basic, Java, GPSS, Prolog
2.6.1. Кодирование информации
Кодирование - представление сообщения последовательностью элементарных символов.
Рассмотрим кодирование дискретных сообщений. Символы в со-общениях могут относиться к алфавиту, включающему n букв (буква - символ сообщения). Однако число элементов кода k существенно ог-раничено сверху энергетическими соображениями, т.е. часто n>k. Так, если отношение сигнал/помеха для надежного различения уровня сиг-нала должно быть не менее q, то наименьшая амплитуда для представ-ления одного из k символов должна быть qg, где q- амплитуда помехи, а наибольшая амплитуда соответственно qgk. Мощность передат¬чика пропорциональна квадрату амплитуды сигнала (тока или напряжения), т.е. должна превышать величину, пропорциональную (qgk)2. В связи с этим распространено двоичное кодирование с k=2. При двоичном ко-дировании сообщений с п типами букв, каждая из п букв кодируется определенной комбинацией 1 и 0 (например, код ASCII).
Кодирование аналоговых сообщений после их предварительной дискретизации должно выполняться в соответствии с теоремой Ко-тельникова. Для передачи аналогового сигнала производится его дис-кретизация с частотой отсчетов 2FB (где FВ - максимальная частота в спектре сигнала) и выполняется импульсно-кодовая модуляция после-довательности отсчетов.
Количество информации в сообщении (элементе сообщения) оп-ределяется по формуле:
I = -log2P ,
где Р - вероятность появления сообщения (элемента сообщения). Из этой формулы следует, что единица измерения количества информа-ции есть количество информации, содержащееся в одном бите двоич-ного кода при условии равной вероятности появления в нем 1 и 0. В то же время один разряд десятичного кода содержит I= -lоg2P = 3,32 еди-ницы информации (при том же условии равноверятности появления де¬сятичных символов, т.е. при Р = 0,1).
Напомним, что энтропия источника информации с независимыми сообщениями есть среднее арифметическое количества информации сообщений:


где Pk - вероятность появления k-го сообщения. Другими словами, эн-тропия есть мера неопределенности ожидаемой информации.
Пример. Пусть имеем два источника информации, один передает двоичный код с равновероятным появлением в нем 1 и 0, другой имеет вероятность 1, равную 2-10, и вероятность 0, равную 1-2-10. Очевидно, что неопределенность в получении в очередном такте символа 1 или 0 от первого источника выше, чем от второго. Это подтверждается коли-че¬ственной оценкой энтропии: у первого источника Н = 1, у второго
Н ≈ -2-101оg22-10, т.е. значительно меньше.
Коэффициент избыточности сообщения А определяется по фор-муле:
r = (Imax-I)/Imax ,

где I - количество информации в сообщении А; Imax – максимально возможное количество информации в сообщении той же длины, что и А.
Пример избыточности дают сообщения на естественных языках. Так, у русского языка r находится в пределах 0,3...0,5.
Наличие избыточности позволяет ставить вопрос о сжатии ин-формации без ее потери в передаваемых сообщениях.
Для кодирования информации широко используются двоичные коды:
• EBCDIC (Extended Binary Coded Decimal Interchange Code) -символы кодируются восемью битами; популярен благодаря его ис-пользованию в IBM;
• ASCII (American Standards Committee fop Information Inter-change) семибитовый двоичный код.
Оба этих кода включают битовые комбинации для печатаемых символов и некоторых распространенных командных слов типа - NUL, CR, ACK, NАК и др.
Для кодировки русского текста нужно вводить дополнительные битовые комбинации. Семибитовая кодировка здесь уже недостаточна. В восьмибитовой кодировке нужно под русские символы отводить двоичные комбинации, не занятые в общепринятом коде, чтобы сохра-нять неизменной кодировку латинских букв и других символов. Так возникли кодировка КОИ-8, затем при появлении персональных ЭВМ - альтернативная кодировка и при переходе к Windows - ко¬дировка 1251. Множество используемых кодировок существенно усложняет проблему согласования почтовых программ в глобальных сетях.
Комментарии
Нет комментариев.
Добавить комментарий
Пожалуйста залогиньтесь для добавления комментария.
Рейтинги
Рейтинг доступен только для пользователей.

Пожалуйста, залогиньтесь или зарегистрируйтесь для голосования.

Нет данных для оценки.
Гость
Имя

Пароль



Вы не зарегистрированны?
Нажмите здесь для регистрации.

Забыли пароль?
Запросите новый здесь.
Случайные статьи
Глава шестая. РАС...
Параллельный
Сильные и направле...
Бумажные или компь...
4.10 УПРАЖНЕНИЯ
Что такое альманах?
Глава 21. BT-308 B...
2.2.2.3 Переходы и...
2.3.3.1 Переносчик...
Соединение КПК и G...
Глава 7. Pocket N...
Рабочая частота эх...
5.1 OPEN
Краткое резюме
Реинжиниринг проце...
Группа 3 — програм...
Глава 15. GPS-сист...
7.4.2. Организа...
8.1. Управление тр...
11.2.3 Семафоры
Узнавание по форме
10.4.2 Анализ потоков
3. Продукции типа...
9.2.3 Отказы при ...
3.3 Адаптеры и пр...
Глава 8. Точность ...
3.2 Методы доступ...
Управление выводом
Подходы к определе...
9.5 УПРАЖНЕНИЯ
13.1 ПЕРИФЕРИЙНЫЕ ...
6.1 СОСТОЯНИЯ ПРОЦ...
ГЛАВА 2. ВВЕДЕНИЕ ...
5.3 Принципы маршр...
Глава 9. Как «это»...
Единицы измерения
7.2.2. Необходимые...
2.4. Продуктивност...
3.1 Основные типы ...
Комбинированная ст...
Мини-чат
Вам необходимо залогиниться.

Нет присланных сообщений.
Copyright © 2009