LEKTsIYa_8
.pdfЛЕКЦИЯ №8.
4.8. Функция скорость-искажение.
Под искажением понимается некоторая мера разности между отсчетами xk
источника и квантованными отсчетами ~ , k 1,2,... - дискретное время. За
xk
меру возьмем
|
|
|
|
|
|
2 |
~ |
2 |
|
(4.19) |
||
|
|
|
|
|
k |
(xk xk ) |
|
|
||||
|
|
|
|
~ |
~ |
|
|
|
|
|
|
|
Пусть |
|
~ |
. Тогда искажение между данными векторами |
|||||||||
x (x1,...., xn ), x |
(x1 |
,......, xn ) |
||||||||||
– среднее искажение по n отсчетам: |
|
|
|
|||||||||
|
|
|
|
|
|
|
|
1 |
n |
|
|
|
|
|
|
|
|
n2,ср |
|
k2 |
|
|
(4.20) |
||
|
|
|
|
|
|
|
|
|||||
|
|
|
|
|
|
|
|
n k 1 |
|
|
|
|
(4.20) |
является |
случайной |
величиной |
с математическим ожиданием |
||||||||
D M{ 2 |
} M{ 2 |
} 2 , т.к. процесс на выходе источника стационарный. |
||||||||||
|
n,ср |
k |
|
|
|
|
|
|
|
|
|
|
Рассмотрим непрерывный источник без памяти, который имеет ФПB отсчета |
||||||||||||
|
|
|
|
|
|
|
|
|
|
|
~ |
|
w(x) и меру искажения на отсчет (4.19), где |
~ |
|||||||||||
x x, x |
x . |
Минимальная скорость в битах на отсчет, требуемая для представления выхода источника без памяти с искажением D , называется функцией скорость-искажение и определяется как
|
|
R(D) |
min |
|
|
~ |
|
|
|
|
|
|
|
|
I (x, x ) |
, |
|
(4.21) |
|||
|
|
|
~ |
2 |
D |
|
||||
|
|
|
w( x / x ): |
|
|
|
|
|
||
где |
~ |
|
|
|
|
|
|
|
~ |
, которая определяется |
I (x, x ) - средняя взаимная информация между x и |
x |
|||||||||
по формуле |
|
|
|
|
|
|
|
|
|
|
|
~ |
|
~ |
|
|
~ |
~ |
|
|
|
|
|
|
|
w(x, x ) |
|
|
||||
|
I (x, x ) w(x, x ) log 2 |
( |
|
|
)dxdx |
|
(4.22) |
|||
|
~ |
|
|
|||||||
|
|
|
|
|
|
w(x)w(x ) |
|
|
||
|
|
|
|
|
|
|
|
|
|
Так же (4.21) еще называют эпсилон - энтропией источника. При увеличении искажения D R(D) уменьшается.
Для гауссовского Н.И. без памяти Шеннон в 1959 году доказал теорему:
Минимальная скорость кодирования, необходимая для представления выхода дискретного во времени и непрерывного по амплитуде гауссовского источника без памяти равна
|
|
1 |
|
|
|
|
2 |
), 0 D x2 , |
|
|
Rg |
|
|
log |
2 |
( |
|
x |
(4.23) |
||
2 |
D |
|||||||||
(D) |
|
|
|
|
||||||
|
0, D 2 |
|
|
|||||||
|
|
|
|
|
|
x |
|
|
|
Rg (D) бит/отсчет
0 |
D |
||
|
|
||
x2 |
|||
|
|||
Теорема Шеннона кодирования источника с заданной мерой |
|||
искажения. |
|
|
Существует схема кодирования, которая отображает выход источника в
кодовые слова так, |
что для любого данного |
искажения |
D минимальная |
скорость R(D) |
(бит/отсчет) источника |
является |
достаточной для |
восстановления исходного сигнала со средним искажением, которое является произвольно близким к D .
Функция R(D) для любого Н.И. – нижняя граница скорости источника, которая является возможной для данного уровня искажения.
Верхняя граница для R(D) . Функция скорость – искажение Н.И. без памяти с нулевым средним и конечной дисперсией x2 при использовании средней квадратичной меры искажений (4.20) ограничена сверху:
R(D) Rg (D) |
(4.24) |
Доказательство этой теоремы дано Бергером в 1971 году. Таким образом, гауссовский источник требует максимальной скорости кодирования среди всех других источников при заданном уровне среднеквадратической ошибки.
Нижняя граница для R(D) :
R* (D) H d (x) |
1 |
log |
2 (2 eD) |
(4.25) |
|
2 |
|||||
|
|
|
|
Таким образом функция скорость – искажения лежит в пределах
R* (D) R(D) Rg (D) .
Наиболее используемые ФПВ, которые являются моделями для источника сигнала сведены в таблицу [].
ФПВ |
|
|
|
|
|
|
|
|
w(x) |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
H d (x) |
R (D) R* (D) |
|||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
g |
Гауссовский |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
x2 |
|
|
|
|
|
|
1 |
|
|
|
|
2 |
0 |
|||||||||||
|
|
|
|
|
|
|
1 |
|
|
|
|
|
|
e |
|
2 x2 |
|
|
|
|
|
|
log 2 |
(2 e x ) |
|
||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
2 |
|
|
|||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||
|
|
|
|
|
|
2 x |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||
Равномерный |
|
|
|
1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
log |
2 (12 x2 ) |
0.255 |
|||||
|
|
|
|
|
|
|
, |
|
x |
|
|
|
|
|
|
|
|
|
|
3 x |
|
|
|
||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||||||||
|
2 |
|
3 x |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
2 |
|
|
|
|
|
||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||||
Лапласа |
|
|
|
1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 log 2 (2e2 x2 ) |
0.104 |
||||||||||||||
|
|
|
|
|
|
|
|
|
|
x |
|
|
|
||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
2 |
|
x |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
e |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
2 |
|
|
|
|
|
|
|||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||
|
|
|
|
|
|
2 x |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||||||
Гамма |
|
|
|
4 |
3 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 log 2 ( 4 e0.423 x2 ) |
0.709 |
||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
2 x |
|||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
e |
|
|
|
|
|
|
3 |
|
x |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
2 |
|
|
|
|
|
|
|
3 |
|
|
|||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||
|
|
|
|
8 x |
|
|
x |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
При кодировании источника квантователь может быть оптимизирован так, чтобы искажение было минимальным.
5. НЕПРЕРЫВНЫЙ КАНАЛ СВЯЗИ (НКС).
5.1. Информационные характеристики НКС.
x , w(x) |
|
y , w( y) |
|
НКС |
|||
|
|
||
x { ; } |
w( y / x) |
y { ; } |
|
|
|
|
Наиболее важный случай - канал с аддитивным белым гауссовским шумом (АБГШ), для которого
y x , |
(5.1) |
где - стационарный гауссовский процесс с нулевым математическим ожиданием и дисперсией 2 .
Среднее значение взаимной информации определяется по формуле
|
w(x, y) )dxdy |
|
I (x, y) w(x, y) log 2 ( |
(5.2) |
|
w(x)w( y) |
|
Скорость передачи взаимной информации RКС определяется по (3.2).
Пропускная способность НКС (см.ф-лу (3.3)) :
C max RKC (бит/отсчет с)
{w( )}
Пропускная способность гауссовского канала связи (ГКС).
Пусть ширина полосы рабочих частот канала Fв : 0 f Fв . Пропускная способность ищется следующим образом:
|
|
|
|
|
|
|
|
|
C |
1 |
|
(Hd ( y) H ( y / x))max , |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
TH |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
где |
TH |
|
- длительность реализации случайных процессов x(t), y(t) . |
|
Вместо |
||||||||||||||||||||||||||||||||||||||||||||||
одного |
|
отсчета |
|
рассмотрим |
|
|
выборку |
|
|
|
|
|
|
|
|
|
|
|
|
|
(x1 |
,...., xn ) , |
объем |
||||||||||||||||||||||||||||
|
|
|
|
|
yn |
( y1 ,...., yn ), xn |
|||||||||||||||||||||||||||||||||||||||||||||
выборки n 2F T |
, т.к. |
n |
TH |
, t |
|
|
|
|
1 |
n 2F T |
. Тогда |
|
|
|
|
|
|
|
|
|
|||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||||||||||||||||||||||
|
|
|
|
|
в |
H |
|
|
|
|
|
t |
|
|
|
|
|
2Fв |
|
|
|
|
|
|
|
в |
|
H |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||
|
|
|
n |
|
|
|
n |
1 |
|
|
|
|
|
|
|
n |
|
|
|
|
|
|
|
|
|
|
|
|
2F T |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
H d ( yn ) H d ( yk ) |
|
log 2 |
(2 e y2 ) |
|
|
log 2 (2 e y2 ) |
|
|
в |
H |
log 2 |
(2 e y2 ) FвTH log 2 (2 e y2 ) H d max ( yn ) |
|||||||||||||||||||||||||||||||||||||||
2 |
2 |
|
|
|
2 |
|
|||||||||||||||||||||||||||||||||||||||||||||
|
|
k 1 |
|
|
|
k 1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
Причем, 2 |
|
|
2 |
2 . В результате имеем H |
|
|
|
|
) |
|
F T |
log |
|
(2 e( |
2 |
2 )) . |
|||||||||||||||||||||||||||||||||||
|
max |
( y |
n |
|
2 |
||||||||||||||||||||||||||||||||||||||||||||||
|
|
|
y |
|
|
x |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
в H |
|
|
|
|
x |
|
|
|||||
Далее с учетом формулы (5.1) запишем: |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
n |
|
|
|
|
|
|
|
|
|
|
n |
1 |
|
|
|
|
|
|
|
|
2 |
|
|
|
|
n |
|
|
|
|
2 |
|
|
|
|
2 |
||||
H ( yn |
/ xn ) H d |
( yn xn ) |
H d ( n ) H d |
( k ) |
|
log 2 |
(2 e |
) |
|
|
|
|
log |
2 (2 e ) |
FвTH log |
2 (2 e ) |
|||||||||||||||||||||||||||||||||||
2 |
|
2 |
|||||||||||||||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
k 1 |
|
|
|
|
|
|
|
|
|
k 1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||
Тогда пропускная способность гауссовского канала связи равна |
|
|
|
|
|||||||||||||||||||||||||||||||||||||||||||||||
|
|
|
F T |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
2 |
2 |
|
|
|
|
|
|
|
||||
|
C |
|
в H |
|
(log |
|
(2 e( 2 |
2 )) log |
|
|
|
(2 e |
2 )) |
F log |
|
( |
|
|
x |
|
|
) F log |
|
(1 q) , |
|||||||||||||||||||||||||||
|
|
T |
|
|
|
|
|
|
|
|
|
2 |
|
|
|||||||||||||||||||||||||||||||||||||
|
|
|
|
|
2 |
|
|
x |
|
|
|
|
|
|
|
2 |
|
|
|
|
|
|
|
|
|
|
в |
|
|
|
2 |
|
|
|
|
|
|
|
в |
|
2 |
|
|
|
|||||||
|
|
|
H |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
где q |
2 |
|
2 |
|
- отношение сигнал/шум, |
|
N 0 - односторонняя СПМ белого |
||||||||||||||||||||||||||||||||||||||||||||
|
x |
|
x |
|
|
||||||||||||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|||||||||||||||||||||||||||||||||||||||||||||||
|
|
2 |
|
F N |
0 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
в |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
гауссовского шума. |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||
|
|
|
|
|
|
|
|
|
|
|
C F log |
|
|
|
(1 |
|
|
2 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
(5.3) |
||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
x |
) |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
2 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
в |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Fв N0
C , бит/с
2
x log 2 e - предельная
N0
пропускная способность.
Fв , Гц
Таким образом, пропускная способность ГКС растет с увеличением ширины
полосы канала и стремится к предельному значению |
2 |
|
e . |
x log |
2 |
||
|
N0 |
|
|
|
|
|
6. ПОМЕХОУСТОЙЧИВОЕ КОДИРОВАНИЕ.
Для увеличения помехоустойчивости приема (уменьшения вероятности ошибки) применяют канальное (помехоустойчивое) кодирование. Оно позволяет обнаружить и исправить ошибки в приемнике, тем самым уменьшая вероятность ошибки приема символа.
6.1. Линейные блоковые коды.
Блоковый код состоит из набора векторов фиксированной длины, которые называются кодовыми словами. Длина кодового слова – число элементов в векторах, обозначим ее буквой n . Элементы кодового слова выбираются из алфавита с q элементами. Если q 2 , тогда код называют двоичным. Если q 2 , то код недвоичный. Если же q 2b , где b - целое положительное число, то каждый элемент имеет эквивалентное двоичное представление, состоящее из b битов. Т.е. недвоичный код длины N можно представить двоичным кодом
длиной n bN . |
|
|
|
Кодовое слово длины n содержит k n |
информационных символов. Код |
||
обозначается как (n, k) - код, а отношение |
|
||
R |
k |
|
(6.1) |
|
|||
c |
n |
|
|
|
|
называется скоростью кода. Величина 1 Rc - избыточность.
Блок из k информационных бит отображается в кодовое слово длины n , выбираемое из набора M 2k кодовых слов. Каждое кодовое слово состоит из k информационных бит и n k проверочных.
Вес кода wi (i 1,2,.., M ) – число ненулевых элементов слова, является одной из важных характеристик кода. Для двоичных кодов вес это количество единиц в кодовом слове. Каждое кодовое слово имеет свой вес. Набор всех весов кода {wi } образует распределение весов кода. Если все M кодовых слов имеют одинаковый вес, тогда код называется кодом с постоянным весом.
Функции кодирования и декодирования включают арифметические операции сложения и умножения, выполненные над кодовыми словами. Эти операции соответствуют соотношениям и правилам для алгебраического поля с q
элементами. Если q 2 , то имеем символы {0;1} . В общем поле F состоит из q элементов {0;1;.....q 1}. Операции сложения и умножения удовлетворяют следующим аксиомам.
Сложение.
1.Поле F замкнуто относительно сложения: если a, b F , то a b F .
2.Ассоциативность: если a, b, c F , то a (b c) (a b) c .
3.Коммутативность: a, b F a b b a .
4.Поле F содержит нулевой элемент 0 такой, что a 0 a .
5.Каждый элемент поля F имеет свой отрицательный элемент, т.е., если
b F b F его отрицательный элемент. Вычитание |
a b определено как |
a ( b) . |
|
Умножение. |
|
1.Поле F замкнуто относительно умножения: если a, b F , то ab F .
2.Ассоциативность: если a, b, c F , то a(bc) (ab)c .
3.Коммутативность: a, b F ab ba .
4.Поле F содержит единичный элемент 1такой, что a 1 a .
5.Каждый элемент поля F , исключая нулевой элемент, имеет обратный. Если
b F , b 0 b 1 его обратный элемент и |
b b 1 1. Деление |
a |
определено как |
|
b |
||||
|
|
|
||
ab 1 . |
|
|
|
Из курса «Математики» хорошо известны поля вещественных и комплексных чисел. Эти поля имеют бесконечное число элементов. Поля, из которых строятся коды, имеют ограниченное число элементов.
Ограниченное поле с q элементами называют полем Галуа и обозначают
GF(q) . Операции сложения и умножения осуществляются по модулю q
( mod q ).
Пример 1. GF(2)
|
0 |
1 |
0 |
0 |
1 |
1 |
1 |
0 |
|
0 |
1 |
0 |
0 |
0 |
1 |
0 |
1 |
Пример 2. GF(5) .
|
0 |
1 |
2 |
3 |
4 |
0 |
0 |
1 |
2 |
3 |
4 |
1 |
1 |
2 |
3 |
4 |
0 |
2 |
2 |
3 |
4 |
0 |
1 |
3 |
3 |
4 |
0 |
1 |
2 |
4 |
4 |
0 |
1 |
2 |
3 |
|
|
|
|
|
|
|
0 |
1 |
2 |
3 |
4 |
0 |
0 |
0 |
0 |
0 |
0 |
1 |
0 |
1 |
2 |
3 |
4 |
2 |
0 |
2 |
4 |
1 |
3 |
3 |
0 |
3 |
1 |
4 |
2 |
4 |
0 |
4 |
3 |
2 |
1 |
Если q pm , где p, m - целые положительные числа, то поле GF( p) можно расширить до GF ( pm ) . Операции сложения и умножения проводятся по модулю p, (mod p) .