+0  
 
0
181
0
avatar

1. Определить количество информации (по Хартли), содержащееся в системе, информационная емкость которой характеризуется десятичным
числом Q (750). Закодировать это число по двоичной системе счисления.

I= log2Q= log2750 ≈ 9,550 бит ≈ 10 бит.

0011000100110000

2. Определить среднее количество информации, содержащееся в сообщении, используемом три независимых символа S1, S2, S3. Известны вероятности появления символов p(S1)=p1, p(S2)=p2, p(S3)=p3. Оценить избыточность сообщения.

H(S)=icp = ∑ Si log Si = - (0,3log0,3+0,15log0,15+0,55log0,55) =

13

p1

0,3

p2

0,15

p3

0,55

 

3. В условии предыдущей задачи учесть зависимость между символами, которая задана матрицей условных вероятностей P(Si / Sj).

0,6   0,2   0,2               

0,3    0     0,7

0      0,4   0,6

 

4. Провести кодирование по одной и блоками по две и по три букве, используя метод Шеннона – Фэно. Сравнить эффективности кодов. Данные взять из задач №11 –20.

 

5. Алфавит передаваемых сообщений состоит из независимых букв Si. Вероятности появления каждой буквы в сообщении заданы. Определить и сравнить эффективность кодирования сообщений методом Хаффмена при побуквенном кодировании и при кодировании блоками по две буквы.

p(Si)

43

(0,8;0,1;0,07;0,03)

 

6. Декодировать полученное сообщение c, если известно, что использовался (4, 7) – код Хэмминга. Провести кодирование кодом с проверкой четности.

 

c

53

1101101

 

7. Определить пропускную способность канала связи, по которому передаются сигналы Si. Помехи в канале определяются матрицей условных вероятностей P(Si / Sj). За секунду может быть передано N=10 сигналов.

0,7  0,3  0

0     0,7  0,3

0,3  0     0,7

 
 Mar 13, 2023
edited by Guest  Mar 13, 2023

0 Online Users