Все о моделировании в Компас-3D LT
   Главная Статьи Файлы Форум Ссылки Категории новостей
October 06 2024 14:25:53   
Навигация
Главная
Статьи
Файлы
FAQ
Форум
Ссылки
Категории новостей
Обратная связь
Фото галерея
Поиск
Разное
Карта Сайта
Популярные статьи
Что необходимо ... 65535
4.12.1 Професси... 33935
Учимся удалять!... 32221
Примеры, синони... 23539
Просмотр готовы... 22826
Декартовы коорд... 22493
FAST (методика ... 21573
содержание - се... 20857
Просмотр готовы... 19570
Работа с инстру... 15019
Сейчас на сайте
Гостей: 1
На сайте нет зарегистрированных пользователей

Пользователей: 9,955
новичок: Logyattella
Друзья сайта
Ramblers Top100
Рейтинг@Mail.ru

Реклама
Выполняем курсовые и лабораторные по разным языкам программирования
Подробнее - курсовые и лабораторные на заказ по Delphi
Turbo Pascal, Assembler, C, C++, C#, Visual Basic, Java, GPSS, Prolog
2.6.1. Кодирование информации
Кодирование - представление сообщения последовательностью элементарных символов.
Рассмотрим кодирование дискретных сообщений. Символы в со-общениях могут относиться к алфавиту, включающему n букв (буква - символ сообщения). Однако число элементов кода k существенно ог-раничено сверху энергетическими соображениями, т.е. часто n>k. Так, если отношение сигнал/помеха для надежного различения уровня сиг-нала должно быть не менее q, то наименьшая амплитуда для представ-ления одного из k символов должна быть qg, где q- амплитуда помехи, а наибольшая амплитуда соответственно qgk. Мощность передат¬чика пропорциональна квадрату амплитуды сигнала (тока или напряжения), т.е. должна превышать величину, пропорциональную (qgk)2. В связи с этим распространено двоичное кодирование с k=2. При двоичном ко-дировании сообщений с п типами букв, каждая из п букв кодируется определенной комбинацией 1 и 0 (например, код ASCII).
Кодирование аналоговых сообщений после их предварительной дискретизации должно выполняться в соответствии с теоремой Ко-тельникова. Для передачи аналогового сигнала производится его дис-кретизация с частотой отсчетов 2FB (где FВ - максимальная частота в спектре сигнала) и выполняется импульсно-кодовая модуляция после-довательности отсчетов.
Количество информации в сообщении (элементе сообщения) оп-ределяется по формуле:
I = -log2P ,
где Р - вероятность появления сообщения (элемента сообщения). Из этой формулы следует, что единица измерения количества информа-ции есть количество информации, содержащееся в одном бите двоич-ного кода при условии равной вероятности появления в нем 1 и 0. В то же время один разряд десятичного кода содержит I= -lоg2P = 3,32 еди-ницы информации (при том же условии равноверятности появления де¬сятичных символов, т.е. при Р = 0,1).
Напомним, что энтропия источника информации с независимыми сообщениями есть среднее арифметическое количества информации сообщений:


где Pk - вероятность появления k-го сообщения. Другими словами, эн-тропия есть мера неопределенности ожидаемой информации.
Пример. Пусть имеем два источника информации, один передает двоичный код с равновероятным появлением в нем 1 и 0, другой имеет вероятность 1, равную 2-10, и вероятность 0, равную 1-2-10. Очевидно, что неопределенность в получении в очередном такте символа 1 или 0 от первого источника выше, чем от второго. Это подтверждается коли-че¬ственной оценкой энтропии: у первого источника Н = 1, у второго
Н ≈ -2-101оg22-10, т.е. значительно меньше.
Коэффициент избыточности сообщения А определяется по фор-муле:
r = (Imax-I)/Imax ,

где I - количество информации в сообщении А; Imax – максимально возможное количество информации в сообщении той же длины, что и А.
Пример избыточности дают сообщения на естественных языках. Так, у русского языка r находится в пределах 0,3...0,5.
Наличие избыточности позволяет ставить вопрос о сжатии ин-формации без ее потери в передаваемых сообщениях.
Для кодирования информации широко используются двоичные коды:
• EBCDIC (Extended Binary Coded Decimal Interchange Code) -символы кодируются восемью битами; популярен благодаря его ис-пользованию в IBM;
• ASCII (American Standards Committee fop Information Inter-change) семибитовый двоичный код.
Оба этих кода включают битовые комбинации для печатаемых символов и некоторых распространенных командных слов типа - NUL, CR, ACK, NАК и др.
Для кодировки русского текста нужно вводить дополнительные битовые комбинации. Семибитовая кодировка здесь уже недостаточна. В восьмибитовой кодировке нужно под русские символы отводить двоичные комбинации, не занятые в общепринятом коде, чтобы сохра-нять неизменной кодировку латинских букв и других символов. Так возникли кодировка КОИ-8, затем при появлении персональных ЭВМ - альтернативная кодировка и при переходе к Windows - ко¬дировка 1251. Множество используемых кодировок существенно усложняет проблему согласования почтовых программ в глобальных сетях.
Комментарии
Нет комментариев.
Добавить комментарий
Пожалуйста залогиньтесь для добавления комментария.
Рейтинги
Рейтинг доступен только для пользователей.

Пожалуйста, залогиньтесь или зарегистрируйтесь для голосования.

Нет данных для оценки.
Гость
Имя

Пароль



Вы не зарегистрированны?
Нажмите здесь для регистрации.

Забыли пароль?
Запросите новый здесь.
Случайные статьи
1. Продукции типа...
Глава 13. INTERPHA...
«Ты прав, но это ...
4.12.2 Системы пер...
Забытые науки
Технические характ...
Качество приема
3.4. Организация р...
6.5.6 Освобождение...
Метод доступа в се...
Независимость данных
Вместо введения
Пример, связанный ...
5.4 Информационно...
Синтез
Радиосеть IEEE 802...
2.1.2. Уровень 2 ...
Идея первая: Место...
3. SADT-технология...
7.3.8. Сбор и анал...
Навигация
Носимые аппараты
4.9 ВЫВОДЫ
Вариант 3.
Подсхемы
БИБЛИОГРАФИЯ
Замечания
Специальные билеты
2. Методологии стр...
Аннотация
10.1.2.6 Другие фу...
Представление домена
Идея вторая: Измер...
Принцип 4. Создава...
Глава 9. Humminbir...
Рабочая частота эх...
5.7 СОЗДАНИЕ ФАЙЛА
Рассуждения по ан...
Компьютерные файлы
Глава 3. GARMIN ST...
Мини-чат
Вам необходимо залогиниться.

Нет присланных сообщений.
Copyright © 2009