Все о моделировании в Компас-3D LT
   Главная Статьи Файлы Форум Ссылки Категории новостей
Октябрь 18 2018 12:57:44   
Навигация
Главная
Статьи
Файлы
FAQ
Форум
Ссылки
Категории новостей
Обратная связь
Фото галерея
Поиск
Разное
Карта Сайта
Популярные статьи
Что необходимо ... 65535
4.12.1 Професси... 21830
Примеры, синони... 21015
Учимся удалять!... 19796
FAST (методика ... 18625
Просмотр готовы... 18458
Декартовы коорд... 16729
Просмотр готовы... 15271
Работа с инстру... 11557
Что такое САПР 10966
Сейчас на сайте
Гостей: 1
На сайте нет зарегистрированных пользователей

Пользователей: 9,955
новичок: Logyattella
Друзья сайта
Ramblers Top100
Рейтинг@Mail.ru

Реклама
Выполняем курсовые и лабораторные по разным языкам программирования
Подробнее - курсовые и лабораторные на заказ по Delphi
Turbo Pascal, Assembler, C, C++, C#, Visual Basic, Java, GPSS, Prolog
2.6.1. Кодирование информации
Кодирование - представление сообщения последовательностью элементарных символов.
Рассмотрим кодирование дискретных сообщений. Символы в со-общениях могут относиться к алфавиту, включающему n букв (буква - символ сообщения). Однако число элементов кода k существенно ог-раничено сверху энергетическими соображениями, т.е. часто n>k. Так, если отношение сигнал/помеха для надежного различения уровня сиг-нала должно быть не менее q, то наименьшая амплитуда для представ-ления одного из k символов должна быть qg, где q- амплитуда помехи, а наибольшая амплитуда соответственно qgk. Мощность передат¬чика пропорциональна квадрату амплитуды сигнала (тока или напряжения), т.е. должна превышать величину, пропорциональную (qgk)2. В связи с этим распространено двоичное кодирование с k=2. При двоичном ко-дировании сообщений с п типами букв, каждая из п букв кодируется определенной комбинацией 1 и 0 (например, код ASCII).
Кодирование аналоговых сообщений после их предварительной дискретизации должно выполняться в соответствии с теоремой Ко-тельникова. Для передачи аналогового сигнала производится его дис-кретизация с частотой отсчетов 2FB (где FВ - максимальная частота в спектре сигнала) и выполняется импульсно-кодовая модуляция после-довательности отсчетов.
Количество информации в сообщении (элементе сообщения) оп-ределяется по формуле:
I = -log2P ,
где Р - вероятность появления сообщения (элемента сообщения). Из этой формулы следует, что единица измерения количества информа-ции есть количество информации, содержащееся в одном бите двоич-ного кода при условии равной вероятности появления в нем 1 и 0. В то же время один разряд десятичного кода содержит I= -lоg2P = 3,32 еди-ницы информации (при том же условии равноверятности появления де¬сятичных символов, т.е. при Р = 0,1).
Напомним, что энтропия источника информации с независимыми сообщениями есть среднее арифметическое количества информации сообщений:


где Pk - вероятность появления k-го сообщения. Другими словами, эн-тропия есть мера неопределенности ожидаемой информации.
Пример. Пусть имеем два источника информации, один передает двоичный код с равновероятным появлением в нем 1 и 0, другой имеет вероятность 1, равную 2-10, и вероятность 0, равную 1-2-10. Очевидно, что неопределенность в получении в очередном такте символа 1 или 0 от первого источника выше, чем от второго. Это подтверждается коли-че¬ственной оценкой энтропии: у первого источника Н = 1, у второго
Н ≈ -2-101оg22-10, т.е. значительно меньше.
Коэффициент избыточности сообщения А определяется по фор-муле:
r = (Imax-I)/Imax ,

где I - количество информации в сообщении А; Imax – максимально возможное количество информации в сообщении той же длины, что и А.
Пример избыточности дают сообщения на естественных языках. Так, у русского языка r находится в пределах 0,3...0,5.
Наличие избыточности позволяет ставить вопрос о сжатии ин-формации без ее потери в передаваемых сообщениях.
Для кодирования информации широко используются двоичные коды:
• EBCDIC (Extended Binary Coded Decimal Interchange Code) -символы кодируются восемью битами; популярен благодаря его ис-пользованию в IBM;
• ASCII (American Standards Committee fop Information Inter-change) семибитовый двоичный код.
Оба этих кода включают битовые комбинации для печатаемых символов и некоторых распространенных командных слов типа - NUL, CR, ACK, NАК и др.
Для кодировки русского текста нужно вводить дополнительные битовые комбинации. Семибитовая кодировка здесь уже недостаточна. В восьмибитовой кодировке нужно под русские символы отводить двоичные комбинации, не занятые в общепринятом коде, чтобы сохра-нять неизменной кодировку латинских букв и других символов. Так возникли кодировка КОИ-8, затем при появлении персональных ЭВМ - альтернативная кодировка и при переходе к Windows - ко¬дировка 1251. Множество используемых кодировок существенно усложняет проблему согласования почтовых программ в глобальных сетях.
Комментарии
Нет комментариев.
Добавить комментарий
Пожалуйста залогиньтесь для добавления комментария.
Рейтинги
Рейтинг доступен только для пользователей.

Пожалуйста, залогиньтесь или зарегистрируйтесь для голосования.

Нет данных для оценки.
Гость
Имя

Пароль



Вы не зарегистрированны?
Нажмите здесь для регистрации.

Забыли пароль?
Запросите новый здесь.
Случайные статьи
Общая схема вывода
Существуют ли друг...
5.14.2 Демонтирова...
6.3 КОНТЕКСТ ПРОЦЕССА
Аннотация
11.2.1 Сообщения
2.4.5 Построение д...
Документированная ...
Идея пятая: Ионосф...
Автомобильные аппа...
Определение связи
6.2 ФОРМАТ ПАМЯТИ ...
Настройки телефона...
Глава четвертая
Глава 5. Как уста...
Вывод на семантич...
Небо ограничивает
Представление
Методы управления ...
Анализ программног...
Изменение размеров...
Как правильно уста...
Глава 10. Особенно...
12.6 УПРАЖНЕНИЯ
2.4.3 Блоковые коды
Выводы
8.2. Планирование...
Текст
4.1 Структура и ха...
Мат в 16 ходов, ил...
8.3.2 Внутренние с...
Кратчайшее описание
Дополнительные сог...
Кольцевая топология
Datum
Синтез
ДОПОЛНИТЕЛЬНЫЕ СОГ...
Решение проблемы с...
Рынок телематическ...
Строка текущего со...
Мини-чат
Вам необходимо залогиниться.

Нет присланных сообщений.
Copyright © 2009