Все о моделировании в Компас-3D LT
   Главная Статьи Файлы Форум Ссылки Категории новостей
Декабрь 12 2018 17:56:51   
Навигация
Главная
Статьи
Файлы
FAQ
Форум
Ссылки
Категории новостей
Обратная связь
Фото галерея
Поиск
Разное
Карта Сайта
Популярные статьи
Что необходимо ... 65535
4.12.1 Професси... 21904
Примеры, синони... 21053
Учимся удалять!... 20686
FAST (методика ... 18709
Просмотр готовы... 18572
Декартовы коорд... 16836
Просмотр готовы... 15346
Работа с инстру... 11619
Что такое САПР 11019
Сейчас на сайте
Гостей: 1
На сайте нет зарегистрированных пользователей

Пользователей: 9,955
новичок: Logyattella
Друзья сайта
Ramblers Top100
Рейтинг@Mail.ru

Реклама
Выполняем курсовые и лабораторные по разным языкам программирования
Подробнее - курсовые и лабораторные на заказ по Delphi
Turbo Pascal, Assembler, C, C++, C#, Visual Basic, Java, GPSS, Prolog
2.6.1. Кодирование информации
Кодирование - представление сообщения последовательностью элементарных символов.
Рассмотрим кодирование дискретных сообщений. Символы в со-общениях могут относиться к алфавиту, включающему n букв (буква - символ сообщения). Однако число элементов кода k существенно ог-раничено сверху энергетическими соображениями, т.е. часто n>k. Так, если отношение сигнал/помеха для надежного различения уровня сиг-нала должно быть не менее q, то наименьшая амплитуда для представ-ления одного из k символов должна быть qg, где q- амплитуда помехи, а наибольшая амплитуда соответственно qgk. Мощность передат¬чика пропорциональна квадрату амплитуды сигнала (тока или напряжения), т.е. должна превышать величину, пропорциональную (qgk)2. В связи с этим распространено двоичное кодирование с k=2. При двоичном ко-дировании сообщений с п типами букв, каждая из п букв кодируется определенной комбинацией 1 и 0 (например, код ASCII).
Кодирование аналоговых сообщений после их предварительной дискретизации должно выполняться в соответствии с теоремой Ко-тельникова. Для передачи аналогового сигнала производится его дис-кретизация с частотой отсчетов 2FB (где FВ - максимальная частота в спектре сигнала) и выполняется импульсно-кодовая модуляция после-довательности отсчетов.
Количество информации в сообщении (элементе сообщения) оп-ределяется по формуле:
I = -log2P ,
где Р - вероятность появления сообщения (элемента сообщения). Из этой формулы следует, что единица измерения количества информа-ции есть количество информации, содержащееся в одном бите двоич-ного кода при условии равной вероятности появления в нем 1 и 0. В то же время один разряд десятичного кода содержит I= -lоg2P = 3,32 еди-ницы информации (при том же условии равноверятности появления де¬сятичных символов, т.е. при Р = 0,1).
Напомним, что энтропия источника информации с независимыми сообщениями есть среднее арифметическое количества информации сообщений:


где Pk - вероятность появления k-го сообщения. Другими словами, эн-тропия есть мера неопределенности ожидаемой информации.
Пример. Пусть имеем два источника информации, один передает двоичный код с равновероятным появлением в нем 1 и 0, другой имеет вероятность 1, равную 2-10, и вероятность 0, равную 1-2-10. Очевидно, что неопределенность в получении в очередном такте символа 1 или 0 от первого источника выше, чем от второго. Это подтверждается коли-че¬ственной оценкой энтропии: у первого источника Н = 1, у второго
Н ≈ -2-101оg22-10, т.е. значительно меньше.
Коэффициент избыточности сообщения А определяется по фор-муле:
r = (Imax-I)/Imax ,

где I - количество информации в сообщении А; Imax – максимально возможное количество информации в сообщении той же длины, что и А.
Пример избыточности дают сообщения на естественных языках. Так, у русского языка r находится в пределах 0,3...0,5.
Наличие избыточности позволяет ставить вопрос о сжатии ин-формации без ее потери в передаваемых сообщениях.
Для кодирования информации широко используются двоичные коды:
• EBCDIC (Extended Binary Coded Decimal Interchange Code) -символы кодируются восемью битами; популярен благодаря его ис-пользованию в IBM;
• ASCII (American Standards Committee fop Information Inter-change) семибитовый двоичный код.
Оба этих кода включают битовые комбинации для печатаемых символов и некоторых распространенных командных слов типа - NUL, CR, ACK, NАК и др.
Для кодировки русского текста нужно вводить дополнительные битовые комбинации. Семибитовая кодировка здесь уже недостаточна. В восьмибитовой кодировке нужно под русские символы отводить двоичные комбинации, не занятые в общепринятом коде, чтобы сохра-нять неизменной кодировку латинских букв и других символов. Так возникли кодировка КОИ-8, затем при появлении персональных ЭВМ - альтернативная кодировка и при переходе к Windows - ко¬дировка 1251. Множество используемых кодировок существенно усложняет проблему согласования почтовых программ в глобальных сетях.
Комментарии
Нет комментариев.
Добавить комментарий
Пожалуйста залогиньтесь для добавления комментария.
Рейтинги
Рейтинг доступен только для пользователей.

Пожалуйста, залогиньтесь или зарегистрируйтесь для голосования.

Нет данных для оценки.
Гость
Имя

Пароль



Вы не зарегистрированны?
Нажмите здесь для регистрации.

Забыли пароль?
Запросите новый здесь.
Случайные статьи
Пример домена
8. Продукции типа...
Общение
4.12.3.1 Поколения...
До 200 долларов
5.2 Адресация в IP...
4. Разработка инфо...
Интернет-исследова...
5. Правила выделен...
Недопустимые комби...
Введение
Глава 7. Основные ...
Представление
9.2.3.1 Обработка...
Выводы 2
2.3.3.3 Импульсная...
Код Хемминга
Глава 5. Как уста...
Обязательства по в...
Предисловие
2.4.8 Итеративные ...
7.1. Интерпретация...
8.1.2 Параметры ди...
Глава пятая
10.3.7 Вход в систему
Глава 2. PocketGPS...
Подтип сущности
О чем мы узнали ?
Глава 9. Humminbir...
ДОПОЛНИТЕЛЬНЫЕ СОГ...
6.6.2 Алгоритмы пр...
Глава 8. HUMMINBIR...
2.2.2 Электрически...
4.12.3.3 Цифровые ...
Определение связи
Бумажные или компь...
5.1. Что находится...
Страница «Позицион...
Глава 13. Pretec C...
8.3 ТАЙМЕР
Мини-чат
Вам необходимо залогиниться.

Нет присланных сообщений.
Copyright © 2009