1. Определить количество информации (по Хартли), содержащееся в системе, информационная емкость которой характеризуется десятичным
числом Q (750). Закодировать это число по двоичной системе счисления.
I= log2Q= log2750 ≈ 9,550 бит ≈ 10 бит.
0011000100110000
2. Определить среднее количество информации, содержащееся в сообщении, используемом три независимых символа S1, S2, S3. Известны вероятности появления символов p(S1)=p1, p(S2)=p2, p(S3)=p3. Оценить избыточность сообщения.
H(S)=icp = ∑ Si log Si = - (0,3log0,3+0,15log0,15+0,55log0,55) =
№ | 13 |
p1 | 0,3 |
p2 | 0,15 |
p3 | 0,55 |
3. В условии предыдущей задачи учесть зависимость между символами, которая задана матрицей условных вероятностей P(Si / Sj).
0,6 0,2 0,2
0,3 0 0,7
0 0,4 0,6
4. Провести кодирование по одной и блоками по две и по три букве, используя метод Шеннона – Фэно. Сравнить эффективности кодов. Данные взять из задач №11 –20.
5. Алфавит передаваемых сообщений состоит из независимых букв Si. Вероятности появления каждой буквы в сообщении заданы. Определить и сравнить эффективность кодирования сообщений методом Хаффмена при побуквенном кодировании и при кодировании блоками по две буквы.
№ | p(Si) |
43 | (0,8;0,1;0,07;0,03) |
6. Декодировать полученное сообщение c, если известно, что использовался (4, 7) – код Хэмминга. Провести кодирование кодом с проверкой четности.
№ | c |
53 | 1101101 |
7. Определить пропускную способность канала связи, по которому передаются сигналы Si. Помехи в канале определяются матрицей условных вероятностей P(Si / Sj). За секунду может быть передано N=10 сигналов.
0,7 0,3 0
0 0,7 0,3
0,3 0 0,7