Каналы с памятью.: Канал, в котором каждый символ выходной последовательности зависит

2.3. ДИСКРЕТНЫЙ КАНАЛ. СТАТИСТИКА ОШИБОК В ДВОИЧНОМ ДИСКРЕТНОМ КАНАЛЕ

Каналы с памятью.:  Канал, в котором каждый символ выходной последовательности зависит

Макеты страниц

Случайный процесс возникновения ошибок в дискретном канале будет полностью описан, если заданы: входной (А) и выходной (А) алфавиты символов, а также совокупность переходных вероятностей вида , где — произвольная последовательность символов входного алфавита и — символ на входе канала в момент времени — соответствующая а последовательность символов из выходного алфавита, а — символ на выходе канала в момент; — условная вероятность приема последовательности а при условии, что передана последовательность а.

Рис. 2.13 Диаграмма переходов в двоичном канале

Рис. 2.14. Эквивалентная схема дискретного симметричного канала

Число задаваемых переходных вероятностей с увеличением длины входных и выходных последовательностей растет. Так, если используется двоичный код и выходной алфавит равен входному, то при последовательности длины общее число задаваемых переходных вероятностей будет равно . Очевидно, что уже при задание переходных вероятностей в виде таблицы хотя и возможно, но вряд ли целесообразно.

Рассмотрим некоторые математические модели ошибок в дискретном канале, позволяющие достаточно просто рассчитать переходные вероятности для любых последовательностей конечной длины

Дискретный канал без памяти

Если в любой момент вероятность появления символа на выходе дискретного канала зависит только от символа на входе канала для всех пар символов на входе и выходе, то такой канал называется каналом без памяти.

Примером дискретного канала без памяти может служить двоичный симметричный канал (ДСК), граф которого изображен на рис. 2.13.

Каждый символ последовательности а на входе с некоторой фиксированной вероятностью q воспроизводится на выходе канала правильно и с вероятностью — неправильно.

Для ДСК легко вычисляется вероятность получения любой последовательности символов на выходе при заданной последовательности на входе. Например, для последовательности длины 3 имеем

Симметричный канал можно представить как канал, к которому подключен источник ошибок (рис. 2.14). Этот источник выдает случайную последовательность ошибок .

Каждая позиция , складывается с соответствующей позицией а, в двоичном канале по модулю Там, где в последовательности ошибок стоит 1, передаваемый символ изменится на обратный, т. е.

в принятой последовательности будет ошибка. Например, если , то

Переходные вероятности для стационарного симметричного канала принимают

т. е. канал полностью описывается статистикой последовательности ошибок где Последовательность ошибок длины иногда называют вектором ошибок длины . Этот вектор имеет единицы только на позициях, соответствующих неправильно принятым символам. Число единиц в векторе ошибок называют его весом.

На практике при приеме последовательности длины нас часто интересуют вероятности отсутствия и наличия в ней одной, двух и т. д. ошибок. Для ДСК эти вероятности легко вычисляются.

Обозначим вероятность того, что среди принятых символов имеется t ошибок в любом сочетании, а через — вероятность одного заданного сочетания ошибок веса I.

Тогда найдется как сумма для всех возможных последовательностей ошибок веса t. Следовательно,

где

Каналы с памятью

Канал, в котором каждый символ выходной последовательности зависит как от соответствующего символа на входе, так и от прошлых входных и выходных символов, называется каналом с памятью. Большинство реальных каналов является каналами с памятью.

Одной из причин появления памяти является межсимвольная интерференция, возникающая из-за ограничения полосы пропускания канала связи.

В этом случае каждый символ на выходе канала частично зависит от нескольких следующих друг за другом символов на входе (зависимость эта определяется импульсной характеристикой канала).

Другой причиной могут быть перерывы в канале, длительность которых значительно превышает длительность единичного элемента. В период действия перерыва вероятность неправильного приема резко возрастает и появляется последовательность ошибок, называемая пакетом.

В общем случае для канала с памятью можно ввести понятие «состояние канала».

Тогда каждый символ последовательности на выходе канала будет статистически зависеть как от соответствующего символа на входе, так и от состояния канала в данный момент.

Под состоянием канала в заданный момент можно понимать, например, вид последовательности входных и выходных символов вплоть до заданного момента. Так, отражается, в частности, влияние межсимвольной интерференции.

Различают каналы с памятью по входу и каналы с памятью по выходу. Если выходной символ статистически зависит от входных символов , то такой канал называется каналом с памятью по входу. Такой канал характеризуется переходными вероятностями вида .

Теоретически память канала бесконечна. Практически число символов, влияющих на вероятности правильного и ошибочного приема символа, ограничено.

Память канала может быть определена как число символов N, начиная с которого справедливо равенство условных вероятностей

Последовательность входных символов можно представить как состояние канала момент. Тогда канал будет характеризоваться совокупностью переходных вероятностей вида

Если выходной символ а, статистически зависит от нескольких предыдущих выходных символов, то такой канал называется каналом с памятью по выходу. Переходные вероятности для такого канала записываются в виде

где выходные символы можно представить как состояние канала момент.

Задание канала с памятью с использованием переходных вероятностей вида (2.8) или (2.9) было бы чрезвычайно громоздким. Так, если для канала с межсимвольной интерференцией память по входу ограничивается пятью символами, то число состояний канала будет равно 32.

В общем случае, если память только по входу или только по выходу ограничивается в двоичном канале N символами, то число состояний равно Как видно, число состояний растет по экспоненциальному закону в зависимости от длины памяти N.

Следует заметить, что некоторые реальные каналы имеют память в десятки, сотни и даже тысячи символов!

Состояния каналов можно различать по вероятности ошибки в каждом из состояний. Изменения вероятности ошибки можно в свою очередь связать с физическими причинами — появлением перерывов, импульсных помех, замираний и т. д. Такой канал можно задать совокупностью переходных вероятностей вида где L — конечное множество состояний канала.

Если предположить, что имеется статистическая независимость между символом а, и состоянием с, при условии, что заданы а, и предыдущее состояние то можно записать:

Рис. 2.15 Эквивалентная схема дискретного симметричного канала при описании его моделью на основе цепей Маркова

Рис. 2.16 Диаграммы переходов при описании дискретного симметричного канала моделью Гильберта: а — из одного состояния в другое; б — возможные исходы передачи в состоянии 2

В этом случае необходимо задать переходные вероятности для состояний канала и вероятности переходов для символов для каждого состояния канала. Таким образом, канал имеет конечное множество состояний, переходные вероятности для которых не зависят от времени.

Ошибки в каждом состоянии возникают независимо с постоянной вероятностью. Последовательность состояний является простой цепью Маркова. (Простой цепью Маркова называется случайная последовательность состояний, когда вероятность того или иного состояния в момент полностью определяется состоянием момент).

Эквивалентная схема такого канала представлена на рис. 2.15.

Для описания простой цепи Маркова необходимо задать переходные вероятности того, что система в момент перейдет в состояние с, при условии, что в момент она находилась в состоянии и вероятности ошибок в каждом из возможных состояний .

В рассмотренной модели канала с памятью состояния канала статистически не зависят от входных и выходных символов. Достоинством такой модели является то, что достаточно большую память канала можно описать относительно малым числом состояний. Увеличивая число состояний, можно более точно описать реальный канал.

Однако сложность использования модели в расчетах будет существенно возрастать с увеличением числа состояний.

Простейшей моделью, основанной на применении математического аппарата марковских цепей является модель источника ошибок, предложенная Гильбертом. Согласно этой модели канал может находиться в двух состояниях — хорошем (состояние 1) и плохом (состояние 2).

Первое состояние характеризуется отсутствием ошибок. Во втором состоянии ошибки появляются с вероятностью

Если при передаче элемента а, канал находится в состоянии 1, то при передаче следующего элемента канал будет находиться в том же состоянии с вероятностью и в состоянии 2 — с вероятностью .

Если же при передаче элемента а, канал находился в состоянии 2, то при передаче элемента он может находиться в том же состоянии с вероятностью и в состоянии 1 — с вероятностью Матрицу переходов из состояния в состояние обозначим Р:

Если достаточно велики, но не равны между собой, то наблюдается тенденция к сохранению возникшего состояния 1 или 2, что имитирует канал с пакетами ошибок.

На графе (рис. 2.16, а) состояния канала изображены в виде кружков. Направленные стрелки обозначают переходы из одного состояния в другое, число на каждой стрелке указывает вероятность перехода. Для канала, взятого в качестве примера, в состоянии 2 возникают ошибки с вероятностью 0,4 (рис. 2.16,б).

Канал, представленный графом на рис. 2.16, а, имеет тенденцию пребывать в том состоянии, в котором он находится. Большую часть времени канал находится в хорошем состоянии (состояние 1), когда .

С вероятностью 10-5 канал переходит в плохое состояние, когда около 0,4 элементов на выходе канала будут ошибочными. Состояние 1 длится в среднем в течение приема 105 элементов, а состояние 2— десяти элементов.

Вероятность того, что канал в момент передачи данного элемента будет находиться в том или ином состоянии, зависит от состояния, в котором канал находился при передаче предыдущего элемента.

Например, вероятность того, что канал будет находиться в момент приема данного элемента в хорошем состоянии, равна если он в момент приема предыдущего элемента находился в хорошем состоянии, и если он находился в плохом состоянии.

Вероятность появления того или иного состояния определяется из системы уравнений:

где — соответственно вероятности того, что канал находится в состоянии 1 или 2. Отсюда Средняя вероятность ошибки в канале, описываемом моделью Гильберта, определяется выражением

Среднее число элементов на интервале времени, соответствующем плохому состоянию канала (средняя длина пакета ошибок), определяется по формуле

где — вероятность того, что возникшее плохое состояние канала будет распространяться на i переданных элементов. Аналогично можно определить и среднюю длину интервала между ошибками:

где — вероятность того, что хорошее состояние канала будет длиться в течение времени передачи i элементов.

Для выбора кодов необходимо знать вероятность появления t ошибок в кодовой комбинации длиной элементов, которая может быть найдена по формуле

где — вероятность того, что число элементов в кодовой комбинации, переданных за время плохого состояния канала, равно — вероятность появления ошибок в кодовой комбинации при условии, что число элементов кодовой комбинации, переданных за время плохого состояния канала, равно .

Полагая, что в кодовой комбинации длиной элементов возможно появление только одного пакета ошибок, получим

Рассмотренная модель описывается тремя параметрами: которые могут быть найдены экспериментально.

Еще более простая модель источника ошибок, для описания которой достаточно двух параметров и , где а — коэффициент группирования ошибок, предложена в [1.4]. Исследуя статистику ошибок в каналах связи, авторы обратили внимание на то, что график функции в логарифмическом масштабе по обеим осям представляется в виде прямой линии.

Исходя из этого можно записать

Для канала без памяти при все ошибки сосредоточены в виде одного пакета.

Вероятность появления в комбинации ошибок кратности и более может быть приближенно определена по формуле

Описанные выше модели дискретного канала используются для вычисления характеристик систем ПДС. Поэтому при выборе той или иной модели следует прежде всего исходить из требуемой точности расчетов. Разумеется, если имеется несколько моделей, обеспечивающих приемлемую точность, следует выбирать ту из них, которая позволит уменьшить время, требуемое для вычислений, т. е. наиболее простую.

Источник: http://scask.ru/q_book_pds.php?id=13

4.2 Дискретный канал

Каналы с памятью.:  Канал, в котором каждый символ выходной последовательности зависит

Поддискретным каналом (ДК) понимаетсясовокупность электронных устройств илинии связи (непрерывного канала), приподаче на вход которого дискретногосигнала дискретного времени на выходетакже наблюдается дискретный сигналдискретного времени.

Рис.4.9Структурадискретного канала

Всистемах передачи дискретных сообщенийвыделяют дискретный канал непрерывноговремени (рис.4.9), или канал постоянноготока (КПТ) [5].

Рассмотримдиаграммы сигналов на выходе КПТ и навыходе ДК. При этом не будем учитывать,для простоты, задержку сигнала в каналесвязи. На вход ДК поступает последовательность“единиц” и “нулей” в виде импульсовпостоянного тока (рис.4.10).

На выходе КПТв результате действия помех и искажений(линейных и нелинейных) наблюдаютсяискаженные импульсы. В результате навыходе ДК сигнал принимается с ошибкой,которая проявляется в виде преобразования“1” на временном интервале “в-г” в “0”(рис.

4.10).

Искаженияна выходе КПТ принято делить на краевые(t1-t8)и дробления (на интервале “в-г”).

Рис. 4.10Диаграммысигналов в характерных точках дискретногоканала (рис.4.9)

Краевыеискажения, в свою очередь, делятся напреобладания, случайные и характеристические.

Преобладаниявыражаются в том, что элементы одногознака удлиняются (например, “1” наинтервалах “д,е,ж”), а другого,соответственно, укорачиваются.

Случайныекраевые искажения обусловлены случайнымдействием помех в канале. При этомвеличина tiимеет случайные величину и знак.

Характеристическиеискажения определяются характеромпередаваемой последо-вательности“единиц” и “нулей”. Они возникают втом случае, если за время следованияединичной посылки 0переходной процесс не успеваетустановиться.

Так как передаваемаяпоследовательность имеет случайныйхарактер, то и характеристическиеискажения будут случайными по времени.При передаче чередующихся элементов(10101010 и т.д.) характеристические искаженияотсутствуют.

Придроблении один элемент (длительности 0) превращаетсяв несколько более коротких (дробится).Дробления характеризуются частотой ихпоявления и плот-ностью распределениядлительности дробления.

Дляуменьшения влияния искажений в КПТ напринимаемый сигнал в УПС осуществляютсяоперации:

  • принятия решения о том, какой символ был передан в интервале времени 0;
  • восстановление границ временных интервалов.

Этиоперации выполняются в регистрирующемустройстве УПС.

Регистрирующееустройство, обеспечивающее минимальнуювероятность неправильного приемасимвола Рош, называется оптимальным.

Случайныйпроцесс возникновения ошибок в дискретномканале будет полностью описан, еслизаданы: входной (А) и выходной (Â)алфавиты символов, а также совокупностьпереходных вероятностей вида Р(â/а),где а=(а1,а2,а3,….аi,…

)– произ-вольная последовательностьсимволов входного алфавита, аiА- символ на входе каналов в i-й моментвремени;â=(â1â2â3,…,âi,…

) соответствующая а последователь-ностьсимволов выходного алфавита,âiÂсимвол на выходе канала вi-й момент времени; р(â/а)- условная вероятность приемапоследовательностиâпри условии, что передана последовательностьа.

Число задаваемых переходных вероятностейс увеличением входных и выходныхпоследовательностей растет.

Так, еслииспользуется на входе двоичный код(состоящий из двух символов: “1” и “0”)и выходной алфавит равен входному, топри последовательности длины nобщее число задаваемых переходныхвероятностей будет равно 22n.

Очевидно, что уже при n=20 задание переходныхвероятностей в виде таблицы хотя ивозможно, но вряд ли целесообразно.

Прианализе потока ошибок в дискретномканале используются упрощенные (по сравнению с реальными каналами) моделидискретных каналов, для которых достаточнопросто рассчитать переходные вероятностир(â/а) для любыхпоследовательностей конечной длины.

Впростейшей модели дискретного канала—дискретном каналебез памяти в любой момент вероятностьпоявления символа на выходе дискретногоканала зависит только от символа навходе канала для всех пар символов навходе и выходе. Примером дискретногоканала без памяти может служить двоичныйсимметричный канал (ДСК), граф которогоизображен на рис.4.11.

Каждыйсимвол последовательности а на входес некоторой фиксированной вероятностьюg воспроизводится на выходе ДСК правильноg=р (0/0)=р(1/1), и с вероятностьюРош=Р(1/0)=Р(0/1)=1-gнеправильно.

Для ДСКлегко вычисляется вероятность получениялюбой последовательности символов навыходе. Например, для последовательностидлины 3 имеем

Рис.4.11Графпереходов в ДСК

Р(000/001)=gg(1-g)= g2Рош.

Напрактике при приеме последовательностидлины “n” часто интересны вероятностиотсутствия и наличия в ней одной, двухи так далее ошибок.

Для вычисления такихвероятностей обозначим Рn(t)вероятность того, что среди “n” принятыхсимволов имеется t ошибок в любомсочетании, а через Рn*(t) — вероятностьодного заданного сочетания ошибоккратности t.

Тогда Рn(t) определитсякак сумма Рn*(t) для всех возможныхпоследовательностей ошибок кратностиt. Следовательно:

Pn*(t)=Ptош(1-Рош)n-t, (4.5)

Pn(t)= СtnРn*(t)=СtnPtош(1-Pош) n-t. (4.6)

Длямножества дискретных каналов с ошибками,в которых алфавиты на входе и выходенеодинаковы, интерес представляет такназываемый стирающий канал, в которомчисло кодовых символов на выходе наединицу больше числа кодовых символовна входе.

Появление дополнительногосимвола на выходе означает, что переданныйсимвол искажен помехами и не может бытьопознан. Таким образом, часть принятойкодовой последовательности оказываетсястертой. Граф переходов такого каналаприведен на рис.4.12.

Рис.4.12Графпереходов в симметричном канале состиранием

Вэтом канале сигнал передается правильнос вероятностью

1-Рош-Р =Р(1/1)=Р(0/0;

передаетсянеправильно (с ошибкой) с вероятностью

Рош=Р(1/0)=Р(0/1)

и“стирается” с вероятностью

Р=Р(С/1)=Р(С/0).

В каналахс памятью каждый символ выходнойпоследовательности зависит как отсоответствующего символа на входе, таки от прошлых входных и выходных сигналов.Большинство реальных каналов являютсяканалами с памятью.

Однаиз причин появления памяти — межсимвольнаяинтерференция, возникающая из-заограничения полосы пропускания каналасвязи.

В этом случае каждый символ навыходе канала частично зависит отнескольких следующих друг за другомсимволов на входе (зависимость этаопределяется импульсной характеристикойканала).

Другой причиной могут бытьперерывы в канале, длительность которыхзначительно превышает длительностьединичного элемента. В период действияперерыва вероятность неправильногоприема резко возрастает и появляетсяпоследовательность ошибок, называемаяпакетом ошибок.

Различаютканалы с памятью по входу и каналы спамятью по выходу. Если выходной символстатистически зависит от входныхсимволов

ak(ti),ak(ti-2),…, ak(ti-n)…,

то такой канал называется каналом спамятью по входу. Он задается матрицейпереходных вероятностей вида:

Р[âj(ti)/ak(ti),ak(ti-1),…, ak(ti-n), …]

, (4.7)

строкикоторых удовлетворяют условию полноты

М

[âj(ti)/ak(ti),ak(ti-1),ak(ti-2),….,ak(ti-n),…]=1,k=1,..,К;i=1,2,…,N,... (4.8)

j=1

Теоретическипамять канала бесконечна. Практическичисло символов, влияющих на вероятностиправильного и ошибочного приема символа,ограничено.

Памятьканала может быть определена как числосимволов n, начиная скоторого справедливо равенство условныхвероятностей

P[âj(ti)/ak(ti),ak(ti-1),…,ak(ti-n),…]=P[âj(ti)/ak(ti),ak(ti-1),…,ak(ti-n+)] (4.9)

длявсех 1.

Последовательностьвходных символов ak(ti-1),ak(ti-2),..,ak(ti-n)можно представить как состояние каналаСi-1в (i-1)момент времени. Тогда канал будетхарактеризоваться матрицей переходныхвероятностейP[âj(ti)/ak(ti),Сi-1]вида

, (4.10)

Есливыходной символ âj(ti)статистически зависит от несколькихпредыдущих выходных символов, то такойканал называется каналом с памятью по выходу. С учетом представления выходных сигналовâj(ti-1),

âj(ti-2),…,âj(ti-n)состоянием канала по выходуEi-1в (i-1) момент времени,канал будет характеризоваться матрицейпереходных вероятностей

. (4.11)

Заданиеканала с памятью с использованиемпереходных вероятностей вида (4.10) и(4.11) чрезвычайно громоздко, хотя сдостаточной точностью моделируетреальные каналы передачи дискретнойинформации. Так, если для канала смежсимвольной интерференцией, памятьпо выходу ограничивается пятью символами,то число состояний канала будет равно 25= 32.

В общемслучае, если память только по выходуили только по входу ограничивается вдвоичном канале Nсимволами,то число состояний равно 2 в степениN.Некоторые реальные каналы имеют памятьв десятки, сотни и даже тысячи символов.

Состоянияканалов можно различать по вероятностиошибки в каждом из состояний. Изменениявероятности ошибки можно в свою очередьсвязать с физическими причинами -появлением перерывов, импульсных помех,замираний и т.д. Такой канал можно задатьсовокупностью переходных вероятностейвида P[âj(ti),Ci/ak(ti),Ci-1],CiL,гдеL- конечное множествосостояний канала.

Еслипредположить, что имеется статистическаянезависимость между символом âj(ti)и состояниемCiпри условии, что заданаak(ti)и предыдущее состояниеCi-1,то можно записать

P[âj(ti),Ci/ak(ti),Ci-1]=P[âj(ti)/ak(ti),Ci-1]P[Ci/Ci-1]. (4.13)

В этомслучае необходимо задать переходныевероятности для состояний каналаP(Ci/Ci-1)и вероятности переходовP[âj(ti)/ak(ti),Ci-1]символов для каждого состояния каналов.

Таким образом, канал имеет конечноемножество состояний, переходныевероятности для которых не зависят отвремени. Ошибки в каждом состояниивозникают независимо с постояннойвероятностью.

В этом случае последовательностьсостояний является простой цепьюМаркова.

Определение.Простой цепью Маркова называетсяслучайная последовательность состояний,когда вероятность того или иногосостояния в i-ймомент полностью определяется состояниемСi-1в (i-1)-й моментвремени.

Дляописания простой цепи Маркова необходимозадать переходные вероятности Р(Сi/Сi-1)того, что система вi-ймомент времени перейдет в состояниеCiпри условии, что в (i-1)-ймомент она находилась в состоянии Сi-1, и вероятностиошибок в каждом из возможных состоянийРiош.

Врассмотренной модели канала с памятьюсостояние канала статиcтическине зависит от входных и выходных символов.Достоинством такой модели является то,что достаточно большую память каналаможно описать относительно малым числомсостояний. Увеличивая число состояний,можно более точно описать реальныйканал.

Однако сложность использованиямодели в расчетах будет существенновозрастать с увеличением числа состояний.

Простейшеймоделью, основанной на примененииматематического аппарата марковскихцепей, является модель источника ошибок,предложенная Гильбертом. Согласно этоймодели канал может находиться в двухсостояниях (рис.4.15) — хорошем (состояние1) и плохом (состояние 2). Первое состояниехарактеризуется отсутствием ошибок.Во втором — ошибки появляются с вероятностьюР2ош.

Еслипри передаче элемента аiканал находится в состоянии 1, то припередаче следующего элемента аi+1канал будет находиться в том же состояниис вероятностью Р11 и в состоянии 2- свероятностью Р12=1-Р11. Если же при передачеэлемента аi канал находился в состоянии 2, то припередаче элемента аi+1 он может находиться в том же состояниис вероятностью Р22 и в состоянии 1 — свероятностью

Р21 = 1- Р22 .

Матрицупереходов из состояния в состояниеобозначим С:

.

ЕслиР11 и Р22 достаточно велики, но не равнымежду собой, то наблюдается тенденцияк сохранению возникшего состояния 1 или2, что имитирует канал с паке-тами ошибок.

Рис. 4.13Диаграммыпереходов при описании дискретногоканала

На граферис.4.13 состояния канала изображены ввиде кружков. Направленные стрелкиобозначают переходы из одного состоянияв другое, число на каждой стрелкеуказывает вероятность перехода.

Дляизображенного на рис. 4.13 канала всостоянии 1 ошибки не возникают. Всостоянии 2 ошибки возникают с вероятностью0,4 (рис. 4.14).

Рис.4.14Графвозможных переходов в состоянии 2(рис.4.13)

Канал,представленный графом на рис. 4.14, имееттенденцию пребывать в том состоянии, вкотором он находится. Большую частьвремени канал находится в хорошемсостоянии (состояние 1), когда Рош= 0.

С вероятностью 10-5каналпереходит в плохое состояние, когдаоколо 0,4 элементов на выходе каналабудут ошибочными. Состояние 1 длится всреднем в течение приема 105элементов, а состояние 2 -десяти элементов.

Вероятность того, что канал в моментпередачи данного элемента будетнаходиться в том или другом состоянии,зависит от состояния, в котором каналнаходился при передаче предыдущегоэлемента.

Например, вероятность того,что канал будет находиться в моментприема данного элемента в хорошемсостоянии, равна (1-10-5), если доэтого он находился в плохом состоянии.Вероятность появления того или иногосостояния определяется из системыуравнений:

р1+р2= 1,

р1= р2р21+р1р11,

Р2= р2р22+р1р12,

гдер1,р2-соответственновероятности того, что канал находитсяв состоянии 1 и 2.

Средняявероятность ошибки в канале, описываемоммоделью Гильберта, определяетсявыражением

Среднеечисло элементов на интервале времени,соответствующем плохому состояниюканала (средняя длина пакета ошибок),определяется по формуле:

L2=ip2(i)=1/p21+2\p22p21+3p322p21+…..=1/p21,

гдер2(i)=рi-122р21вероятностьтого, что возникшее плохое состояниеканала будет распространяться наiпереданных элементов.

Аналогичноопределяется средняя длина интерваламежду ошибками:

L1= ip1(i)=1/p12,

гдер1(i)= рi-111р12- вероятность того, что хорошеесостояние канала будет длиться в течениевремени передачиiэлементов.

Вероятностьпоявления tошибок вкодовой комбинации длинойnэлементов определяется по формуле

рn(t)= p(2)(i,n)pn(t/i),

где р(2)(i,n)- вероятность того, что число элементовв кодовой комбинации, переданных завремя плохого состояния канала, равноi:

рn(t/i)=Ctn[р(2)ош]t[1-р(2)ош]i-t- вероятность появленияtошибок в кодовой комбинации при условии,что число элементов кодовой комбинации, переданных за время плохого состояния канала,

равноi.

Предполагая,в первом приближении, что в кодовойкомбинации длиной nэлементов возможно появление толькоодного пакета ошибок, получим:

р(2)(1,n)=р2 р21рn-311[2р11+р21(n-1)];

p(2)(i,n)=p2p21pi-122pn-i-211[2p11+(n-i-1)p11],2=i=n-2;

p(2)(n-1,n)=2p2p21pn-222;

p(2)(n,n)=p2p22n-1.

Рассмотреннаямодель описывается тремя параметрами:р(2)ош , р12, р21,которые могут быть найдены экспериментально.

Источник: https://studfile.net/preview/2138273/page:28/

Причины памяти реальных дискретных каналов

Каналы с памятью.:  Канал, в котором каждый символ выходной последовательности зависит

Память дискретного канала возникает по ряду причин. Например, из-за ограничения полосы частот дискретного сигнала в НКС возникают переходные процессы. Длительность переходного процесса зависит от ширины полосы пропускания НКС и степени неравномерности его амплитудно-частотной характеристики АЧХ и нелинейности фазо-частотной характеристики ФЧХ.

представляет собой фильтр нижних частот и передача ведется немодулированными сигналами.

Если длительность переходного процесса превышает время единичного элемента сигнала  , на выходе канала происходит наложение переходных процессов, вызванных разными фронтами сигнала на входе. Это явление называется межсимвольной интерференцией или межсимвольной помехой. В этом случае каждый символ на выходе дискретного канала зависит от нескольких последовательных символов на входе.

Другая причина возникновения памяти – занижение уровня сигнала в канале. Если длительность занижения уровня значительно превышает длительность  , то на этом отрезке уменьшается мощность сигнала, и возрастает вероятность ошибки. Следовательно, ошибки будут группироваться под влиянием занижения уровня, то есть не будут статистически независимыми.

В общем случае для канала с памятью вводят понятие состояние канала.

Под состоянием канала понимают последовательность предшествующих входных или выходных символов до некоторого момента времени или вероятность ошибки в символе.

Тогда каждый символ последовательности на выходе ДК будет зависеть от соответствующего символа на входе и от состояния канала в данный момент.

Модель канала с памятью

Пусть состояния канала различаются по вероятности ошибки в символе. Такой канал задается совокупностью переходных вероятностей вида

где С – конечное множество состояний канала. Это условная вероятность приема символа bi и перехода дискретного канала в состояние ci в i-й момент времени, если передавался символ ai , а в предыдущий момент времени (i-1) канал находился в состоянии сi-1 .

Если предположить, что состояние канала в i-й момент времени сi статистически не зависит от входных и выходных символов, то при заданном символе входного алфавита в i-й момент времени ai и известном состоянии канала в предыдущий (i-1)-й момент сi-1 можно записать

Здесь P(ci/ci-1) – переходные вероятности состояний канала.

В каждом состоянии ci ошибки возникают независимо друг от друга с постоянной вероятностью.

Последовательность состояний ДК с памятью является простой цепью Маркова. Простая цепь Маркова – это случайная последовательность состояний (или символов и т.д.

), в которой вероятность перехода в состояние ci полностью определяется состоянием ci-1 . Для описания простой цепи Маркова надо задать переходные вероятности вида P(ci/ci-1) . Переходные вероятности записываются в виде квадратной матрицы.

Порядок матрицы переходных вероятностей равен числу состояний дискретного канала.

Модель двоичного симметричного канала с памятью, имеющего К состояний, задается матрицей переходных вероятностей

и вероятностями ошибки в каждом состоянии канала

Элементы матрицы переходных вероятностей удовлетворяют условию

Пример.

Канал может находиться в трех состояниях. Последовательность состояний является простой цепью Маркова. Какое число переходных вероятностей необходимо знать для задания модели канала? — 9.

Средняя вероятность ошибочного приема двоичного символа в канале с К состояниями определяется по формуле

Рi – финальные, то есть безусловные вероятности состояний канала в произвольный момент времени i. Финальные вероятности определяются из системы уравнений:

Тогда средняя вероятность ошибки в двоичном символе для такого канала равна Pe=P1  1+P2  2+…+Pk  k.

Средняя вероятность безошибочного приема двоичного символа равна

Q=1-Pe.

Модели дискретных каналов

Несоответствие принятого элемента сигнала данных передан­ному называется ошибкой.

С. целью аналитического моделирования систем ПДС проведены многочисленные исследования закономерности потоков ошибок и предложен ряд математических моделей дискретных каналов [5].

При этом к моделям источника ошибок предъявляются следующие требования: удобство аналитического моделирования систем ПДС, обеспечивающее достаточное соответствие модели систем и реаль­ным объектам; простота оценки параметров модели в результате измерений.

Модель дискретных каналов может строиться двумя способами, Если при первом способе применяются существующие математическиe модели случайных процессов и экспериментально оценива­ется достаточно большое число их параметров, то при втором используются аппроксимационные способы представления потока ошибок. В случае, когда ошибки в каналах появляются независи­мо с вероятностью рош, вероятность появления в n-элементной комбинации t ошибок P(t,n) определяется биномиальным распределением!

р (t,n)=

При этом вероятность приема неискаженной комбинации (t=0),

Р(0,n)= ,

а вероятность появления хотя бы одной ошибки (рис. 1.6)

.

Вероятность появления т и более ошибок

Для большинства каналов данная модель приводит к недопу­стимым погрешностям. В соответствии с моделью Гильберта, учитывающей группирование ошибок, канал может находиться в од­ном из двух состояний — «хорошем», когда ошибки невозможны, и «плохом», когда возникают независимые ошибки с вероятностью . Канал задается матрицей переходных вероятностей

(1.21)

и вероятностью . Вероятность ошибки в канале

pош = p10/(p01+p10).(1.22)

Вероятность возникновения пакета ошибок с данного элемента

pп == p01p10/(p01+p10).

Другой распространенной моделью является модель В. Беннета и Ф. Фройлиха, которая задается тремя параметрами:

вероятностью появления пакета рп, равной отношению чиcла пакетов к общему числу переданных бит; пакеты неза­висимы; ;
распределением вероятностей пакетов рп(l) различной длины l;

вероятностью ошибки в па­кете рош.п.

Простейшей моделью, учи­тывающей группирование оши­бок в пакеты, является модель Бергера — Мандельброта.

Обобщением модели Беннета-Фройлиха является модель Попова — Турина, кото­рая предполагает существова­ние в канале независимо воз­никающих цепочек пакетов ошибок. Распределение длин цепочек полагается геометрическим. Внутри цепочек незави­симо появляются пакеты ошибок, длины которых распределены по полигеометрическому закону. Внутри пакетов задается условная вероятность появления ошибок.

Задача 1.20. Определить вероятность Р( 1, n) ошибочного приема для каналов с независимыми ошибками кодовой последовательности длиной n=9 для рош=1•10-3 и 1•10-5.

Решение. Вероятность Р( 1, n) = 1—(1—Рош)n npош = 9•10-3 и 9•10-5

Задача 1.21. Определить для тех же условий вероятности приема неиска­женной комбинации P(Q, п), а также вероятности появления т=2, …, 5 и более.

Рассмотрим двухпараметрическую модель дискретного канала Л. П. Пуртова [49, 71]. Вероятность появления искажений кодо­вой комбинации длиной п (см. рис. 1.6)

при пр

Источник: https://poisk-ru.ru/s29110t2.html

М вернер основы кодирования

Каналы с памятью.:  Канал, в котором каждый символ выходной последовательности зависит

В главе 4 были рассмотрены два связанных источника информации. Были введены такие ключевые понятия как совместные, взаимные и условные информации пар событий (символов) для связанных источников.

На их основе мы пришли к фундаментальным понятиям информации совместной, взаимной и условной энтропии. (См. табл. 4.3).

Там же было отмечено, что совместная и условная энтропии имеют аналоги в теории вероятностей и определяются как матема­тические ожидания совместных и условных информации всех пар событий двух источников.

Рис. 7.1. Модель передачи.

Мы продолжим эти рассуждения, уделив основное внимание вза­имной энтропии. Для описания каналов передачи информации ис­пользуем концепцию двух связанных источников.

Оказывается, что с помощью понятий, введенных в главе 4, удается полностью описать процесс передачи информации по каналам без памяти. В результа­те, мы оценим возможность передачи информации по каналу, т.

е. пропускную способность канала.

В Шенноновской модели канала связи информация одного ис­точника (передатчика) передается по каналу приемнику и выдается потребителю. Для потребителя имеет значение только выход прием­ника, т.е. приемник сам является источником информации, поэтому,

модель связанных источников полностью применима к цепочке Пе­редатчик — Канал — Приемник (рис. 7.1). Если происходит передача информации, то символы одного источника должны оказывать влия­ние на символы другого источника. В качестве примера рассмотрим двоичные симметричные каналы без памяти.

7.2. Двоичный симметричный канал

Двоичный симметричный канал (ДСК) является простейшим при­мером взаимодействия двух дискретных источников без памяти. Он является дискретной двоичной моделью передачи информации по каналу с аддитивным белым гауссовским шумом (АБГШ).

Замечание. При проверке эффективности алгоритмов помехоустой­чивого кодирования, для расчетов и моделирования каналов связи методом Монте-Карло успешно применяются дискретные модели каналов.

Двоичный симметричный канал описывается с помощью диаграм­мы переходов (рис. 7.2). На диаграмме представлены возможные пе­реходы двоичных символов (0,1) источника Xв двоичные символы источника Y. Каждому переходу приписана переходная вероятность.

Рис. 7.2. Диаграмма передачи данных по двоичному сим­метричному каналу.

https://www.youtube.com/watch?v=PEsaWPkofnU

Из рис. 7.2 видно, что ошибочным переходам соответствует ве­роятность ε, поэтому, обычно говорят, что при передаче двоичной информации по ДСК, ошибка происходит с вероятностью ε. Эквива­лентом диаграммы переходов является матрица канала. Она содер­жит переходные вероятности и является стохастической матрицей, у которой сумма всех элементов каждой строки равна единице.

Матрица канала с входным алфавитом, состоящим из М симво­лов xiи выходным алфавитом, состоящим из N символов yi, содержит все переходные вероятности и имеет вид

В случае ДСК имеем

Из симметрии переходов следует, что равномерное распределение символов на входе канала влечет за собой равномерное распреде­ление выходных символов.

Выпишем условные и взаимные информации всех возможных пар событий, предполагая равномерное распределение входных симво­лов. Для ДСК имеем

Отсюда следует

Рассмотрим три особых случая

1. ε = 0 (передача без ошибок)

Других взаимных информации не существует, так как пары взаимных символов и никогда не могут появится. Информация передается от источника Xк источнику Yбез потерь.

2. ε = 1/2. Для всех пар символов (xi,yi) имеем

Источники Xи Yнезависимы. Передачи информации не про­исходит.

3. ε = 1. В этом случае или какие-то вероятности перепутаны, или мы где-то полностью заблуждаемся. Обнаружив этот факт и проинвертировав принятые символы yi, мы придем к первому случаю.

В заключении рассмотрим поведение условной и взаимной информации в ДСК как функций вероятности ошибки ε.

Рис. 7.3. Условная I(y1/x1) и взаимная информация I(yi; xi)

Условную информациюможно рассматривать как неопределенность, вносимую каналом, а взаимную информацию — как информацию, передаваемую по каналу. При передаче одного двоичного символа ε = 0, информация передается без потерь, поэто­му , а бит.

С ростом вероятности ошибки ε, неопределенность, вносимая каналом, возрастает, а передаваемая информация, наоборот, убывает. При ε = 0,5, передача информации отсутствует, поэтому, а .

Сумма же условной и взаимной информации не зависит от εи всегда равна одному биту.

7.3. Передача информации

После рассмотрения отдельных пар событий в предыдущем разделе, вернемся опять к модели передачи информации. На рис. 7.4 показана исходная ситуация.

Описание канала с помощью переходных вероятностей сводится, в конечном счете, к совместным вероятностям пар событий. С этой точки зрения, оба источника в модели передачи информации равно­значны. поэтому подразделять источники на передатчик и приемник, имея в виду направление передачи информации, здесь и в дальней­шем не всегда имеет смысл.

Рис. 7.4. Два дискретных источника без памяти, связанные каналом.

В главе 4 (см. таб. 4.3) совместная энтропия двух источников определена как математическое ожидание информации всех возмож­ных пар событий

Точно так же определяется условная энтропия

С Из этого следует

и

причем, знак равенства имеет место только для независимых источ­ников.

В случае двух источников, связанных каналом, совместная неопре­деленность снижается, так как событие одного источника позволяет заранее предполагать событие другого источника.

С точки зрения теории информации, снижение неопределенности означает обмен ин­формацией между источниками.

Рассуждая аналогично, приходим к выводу, что среднее значение информации, передаваемой по каналу, определяется как математическое ожидание взаимных информации всех пар событий.

Среднее значение информации, которым обмениваются два дис­кретных источника без памяти Xи У, равно

Замечание. Обратите внимание на знак «минус» в левой части равенства и знак «плюс» перед правой частью.

Из определения передаваемой информации следует

и, поэтому,

В этом месте опять возникает вопрос о сущности аксиоматического определения энтропии. В качестве «пробного камня» докажем спра­ведливость следующего утверждения.

Теорема 7.3.1. Передаваемая информация I(X;Y) всегда неотри­цательна, причем, она равна нулю только для независимых источ­ников Xи Y

Доказательство.

При доказательстве будем исходить из определения I(X; Y) и ис­пользуем три приема. Во-первых, воспользуемся оценкой функции натурального логарифма (2.19).

Во-вторых, без ограничения общно­сти будем рассматривать только такие пары символов, вероятность которых отлична от нуля. В третьих, в аргументе логарифмической функции из (2.

19) поменяем мостами числитель и знаменатель, что эквивалентно умножению логарифмической функции на минус 1, по­этому, нам достаточно доказать справедливость неравенства

Так как, в силу сделанного нами ограничения, суммы берутся только по парам (х,у), для которых , аргумент логарифмической функции всегда имеет отличное от нуля конечное положительное значение, поэтому, используем оценку (2.19)

Если бы (7.12) не выполнялось, передача информации не снижала бы энтропии (т.е. определенность источника не повышалась бы).

То, что переданная информация всегда неотрицательна ивсе­гда справедливы равенства (7.11) и (7.7), лишний раз подтверждает справедливость следующих утверждений:

Любое ограничение не может повышать неопределенность источ­ника

Совместная энтропия достигает своего максимума, когда источ­ники независимы

Найденные зависимости можно наглядно пояснить при помощи диаграммы потоков информации (рис.7.5). Диаграмма помогает уяс­нить смысл условных энтропии H(X/Y) и H(Y/X).

Рис. 7.5. Диаграмма информационных потоков.

H(X/Y) — определяет среднюю меру неопределенности посланно­го символа источника Xв том случае, когда символы приемника ис­точника Yизвестны, т. е. оставшуюся неопределенность приемника.

Величину H(X/Y) часто называют также «утечкой» информации, так как энтропию Н(Х) можно интерпретировать как собственную информацию источника X, Н(Х) = I(Х;Х).

В бесшумном канале H(X/Y) = 0 информация передается от источника Xк источнику Yи обратно без потерь (без «утечки»).

Если канал полностью зашумлен, то H(X/Y) = Н(Х) иникакой передачи информации не происходит («утекает» вся информация).

H(Y/X) — определяет среднюю неопределенность принятого сим­вола при известных посланных символах, поэтому ее называют «по­сторонней» шумовой информацией.

Передачу информации по зашумленному каналу можно рассмат­ривать как серию случайных экспериментов, которые способствуют снижению неопределенности. С точки зрения теории информации, канал является источником шумов.

Пример: Передача информации по двоичному симметричному каналу (ДСК).

Поясним физический смысл величины I(х; у) на примере ДСК (рис. 7.2). Для двоичного симметичного канала имеем

Как видим, I(X;Y) зависит только от двух параметров — веро­ятности ошибки в канале и вероятности появления символа х1на выходе канала р(x1). При этом выполняются следующие выражения

Рис. 7.6. Передача информации по двоичному симметрич­ному каналу с вероятностью ошибки εдля раз­личных значений вероятности символа на входе канала р.

Результаты вычислений для I(X; Y) при различных р и εпред­ставлены на рис. 7.6 в виде семейства кривых I(X;Y) = f(p) при ε= {0.05,0.1,0.2,0.

4,0.5}. В канале без шума ε = 0 передача ин­формации происходит без искажений и информация I(X\Y), в этом случае, равна энтропии Н(х) на входе канала.

С увеличением уровня шума, вероятность ошибки εповышается, а количество переданной информации снижается, причем, относительно малый уровень шу­ма ε -= 0,05 приводит к заметному снижению f(X;Y).

В полностью зашумленном канате ε = 0, 5 передача информации невозможна.

Интересно отметить, что при фиксированных значениях ε, ин­формация I(X;Y) существенно зависит от вероятности р на входе канала.

При р = 1/2 через канал передается максимальное количе­ство информации. В разделе 7.

5, в котором будет введено новое по­нятие — пропускная способность канала, это свойство I(X;Y) будет рассмотрено подробно.

Пример: Связанные источники.

Мы хотим дополнительно пояснить смысл энтропии на числовом примере. Для этого мы предлагаем такую конструкцию связанных источников, в которой все интересующие нас величины могут быть достаточно просто подсчитаны.

В таблице 7.1 задан дискретный источник без памяти Zссим­волами из алфавита {0,1,2,3} и соответствующими вероятностями символов. Каждый символ r, кодируется двоичным кодом с первым битом хiи вторым битом yi. Мы будем интерпретировать эти биты как символы двух связанных источников Xи Y.

Таблица 7.1. Источник Zи его двоичное кодирование.

Выполните следующие задания:

1. Опишите источники Xи Y;

2. Установите связь между источниками XкYв форме моде­ли канала, в которой источник Xявляется входом канала, а источник Yего выходом;

3. Приведите для задания 2 диаграмму информационных потоков и найдите для этой диаграммы числовые значения энтропии;

4. Найдите энтропию источника Z;

5. Выполните задания 2 и 3, считая источник У входом канала.

Решение.

1. Начнем с описания источников Xи Y. Оба источника явля­ются дискретными источниками без памяти. Используя таблицу 7.1, найдем распределение вероятностей символов 0 и 1 для каждого из них

Согласно (2.34), энтропии источников равны

2. Модель канала представляет собой двоичный канал с симво­лами xiи х2на входе и символами у1и у2на выходе. Канал может быть задан матрицей переходных вероятностей (7.1), содержащей ве­роятности . Из (7.19), (7.20) и таблицы 7.1 следует, что

В результате получим матрицу переходных вероятностей канала

Замечание. Как и следовало ожидать, матрица является стохастической, так как сумма вероятностей в каждой ее строке, равна единице.

Рис. 7.7. Двоичный канал.

Диаграмма, канала с вероятностями переходов приведена на рис. 7.7. Можно заметить ее сходство с диаграммой (рис. 7.2). Однако, в нашем примере, уже нельзя говорить об ошибках в канале.

3. Для построения диаграммы информационных потоков необ­ходимо знание величин H(Y/X), H(X/Y) и I(X;Y). По известным переходным вероятностям можно вычислить H(Y/X)

Подставляя числовые значения, находим

Величины I(X;Y) и H(X/Y) можно найти из (7.11).

Диаграмма информационных потоков представлена на рис. 7.8.

Рис. 7-8. Диаграмма информационных потоков связанных источников.

4. Энтропия источника Z равна

Полученным результатам можно дать следующую интерпретацию. Энтропия источника Zравна совместной энтропии двоичных источ­ников Xи Y. Энтропия источника Н(Х) равна 0,8113, остальные 0,9387 бит вносит условная энтропия H(Y/X) согласно (7.7).

5. По аналогии с заданием 2, находим

и получаем матрицу канала

Диаграмма канала и диаграмма информационных потоков показаны на рис. 7.9 и рис. 7.10.

Рис. 7.9. Двоичный канал.

Рис, 7.10. Диаграмма информационных потоков.

7.4. Выводы

Все определения и величины, рассмотренные в предыдущих разде­лах, обобщены в таблицах 7.2 и 7.3. Следует обратить особое внима­ние на переходы от теории вероятностей к теории информации.

При этих переходах выходные символы дискретных источников без памяти рассматриваются как исходы случайных экспериментов. В соответствии с вероятностями этих исходов, каждому символу при­писывается некоторая информационная мера, равная логарифму вероятности его появления. Заметим, что вероятности символов можно рассматривать как стохастические переменные.

При переходе от вероятностей символов к их информационному содержанию, вводится новая величина, не имеющая аналога в теории вероятностей — взаимная информация, которая возникает при анали­зе пар совместных событий (х,у). Взаимная информация определя­ется как логарифм отношения апостериорной вероятности символа у р(у/х) к его априорной вероятности р(у) и служит информационной мерой связности двух событий.

Для описания источников используются средние значения ин­формации символов, генерируемых источником. Таким образом, вво­дится понятие энтропии как математического ожидания количества информации отдельных событий (символов) или пар событий. При этом, особую роль играет взаимная информация.

Ее математическое ожидание I(X', Y) является мерой передаваемой информации и ха­рактеризует связь между двумя источниками Xи Y, т.е. описывает среднее количество информации, которой обмениваются между со­бой источники по каналу связи.

Основополагающее значение вели­чины I(X;Y) будет подробно раскрыто в следующих разделах.

Таблица 7.2. Дискретные источники без памяти Xи Y с сим­волами и

Таблица 7.3. Описание «в среднем» дискретных источни­ков без памяти с символами и

Источник: https://textarchive.ru/c-1280729-p6.html

Дискретные каналы с памятью

Каналы с памятью.:  Канал, в котором каждый символ выходной последовательности зависит

Канал, в которомкаждый символ на выходе статистическизависит, как от соответствующего символана входе, так и от предыдущих входных ивыходных символов, называется каналомс памятью.Большинство реальных каналов являетсяканалами с памятью.

Причины памятиреальных дискретных каналов.

Память дискретногоканала возникает по ряду причин. Например,из-за ограничения полосы частотдискретного сигнала в НКС возникаютпереходные процессы. Длительностьпереходного процесса зависит от шириныполосы пропускания НКС и степенинеравномерности его амплитудно-частотнойхарактеристики АЧХ и нелинейностифазо-частотной характеристики ФЧХ.

представляет собойфильтр нижних частот и передача ведетсянемодулированными сигналами.

Если длительностьпереходного процесса превышает времяединичного элемента сигнала , на выходе канала происходит наложениепереходных процессов, вызванных разнымифронтами сигнала на входе. Это явлениеназывается межсимвольной интерференциейили межсимвольной помехой. В этом случаекаждый символ на выходе дискретногоканала зависит от несколькихпоследовательных символов на входе.

Другая причинавозникновения памяти – занижение уровнясигнала в канале. Если длительностьзанижения уровня значительно превышаетдлительность , то на этом отрезке уменьшается мощностьсигнала, и возрастает вероятностьошибки. Следовательно, ошибки будутгруппироваться под влиянием заниженияуровня, то есть не будут статистическинезависимыми.

В общем случае дляканала с памятью вводят понятие состояниеканала. Подсостоянием канала понимают последовательностьпредшествующих входных или выходныхсимволов до некоторого момента времениили вероятность ошибки в символе.Тогда каждый символ последовательностина выходе ДК будет зависеть отсоответствующего символа на входе и отсостояния канала в данный момент.

Модель канала спамятью

Пусть состоянияканала различаются по вероятностиошибки в символе. Такой канал задаетсясовокупностью переходных вероятностейвида

где С – конечноемножество состояний канала. Это условнаявероятность приема символа biи перехода дискретного канала в состояниеciв i-ймомент времени, если передавался символai, а в предыдущий момент времени (i-1)канал находился в состоянии сi-1.

Если предположить,что состояние канала в i-ймомент времени сiстатистически не зависит от входных ивыходных символов, то при заданномсимволе входного алфавита в i-й моментвремени aiи известном состоянии канала в предыдущий(i-1)-й момент сi-1можно записать

Здесь P(ci/ci-1)– переходные вероятности состоянийканала.

В каждом состоянииciошибки возникают независимо друг отдруга с постоянной вероятностью.

Последовательностьсостояний ДК с памятью является простойцепью Маркова.Простая цепь Маркова– это случайная последовательностьсостояний (или символов и т.д.

), в которойвероятность перехода в состояние ciполностью определяется состоянием ci-1. Для описания простой цепи Маркова надозадать переходные вероятности видаP(ci/ci-1). Переходные вероятности записываютсяв виде квадратной матрицы.

Порядокматрицы переходных вероятностей равенчислу состояний дискретного канала.

Модель двоичногосимметричного канала с памятью, имеющегоК состояний, задается матрицей переходныхвероятностей

и вероятностямиошибки в каждом состоянии канала

Элементы матрицыпереходных вероятностей удовлетворяютусловию

Пример.

Канал можетнаходиться в трех состояниях.Последовательность состояний являетсяпростой цепью Маркова. Какое числопереходных вероятностей необходимознать для задания модели канала? — 9.

Средняя вероятностьошибочного приема двоичного символав канале с К состояниями определяетсяпо формуле

Рi– финальные, то есть безусловныевероятностисостояний канала в произвольный моментвремени i.Финальные вероятности определяются изсистемы уравнений:

Тогда средняявероятность ошибки в двоичном символедля такого канала равна Pe=P11+P22+…+Pkk.

Средняя вероятностьбезошибочного приема двоичного символаравна

Q=1-Pe.

Пример.

Двоичный канал сдвумя состояниями задан матрицейпереходных вероятностей

и вероятностямиошибок в каждом состоянии =10-3и =10-1.Найти среднюю вероятность ошибки Pe.

Решение

Найдем финальныевероятности состояний канала Р1и Р2.Для этого запишем систему уравнений:

Модель каналаможно представить графически в виденаправленного (ориентированного) графа.Состояния канала изображаются в видевершин графа (кружков). Направленныедуги обозначают переходы из одногосостояния в другое. Каждой дугеприписывается число – вероятностьперехода из одного состояния в другое.

0,99

0,9

0,01

0,1

1

2

Пример.

Двоичный канал сдвумя состояниями задан матрицейпереходных вероятностей и вероятностямиошибок в двоичном символе в каждомсостоянии =10-5и =10-1.Состояние 1, когда вероятность ошибки=10-5,можно назвать «хорошим», а состояние2 с =10-1– «плохим».

На сколько порядковвероятность ошибки в i-мсимволе, при условии, что (i-1)-йсимвол принят в плохом состоянииP(ei=1/ci-1=2),будет больше, чем вероятность ошибкипри условии, что (i-1)-йсимвол принят в хорошем состоянии каналаP(ei=1/ci-1=1)?

P(ei=1/ci-1=2)=p22*2+p21*1=0,99*0,1+0,01*0,00001=0,099=0,1

P(ei=1/ci-1=1)=p11*1+p12*2=0,999*0,00001+0,001*0,1=0,11*10-3

Искомые вероятностиотличаются на трипорядка.

Лекция6.

КОДИРОВАНИЕ СЦЕЛЬЮ ПОВЫШЕНИЯ ВЕРНОСТИ ПЕРЕДАЧИ

Перейдем крассмотрению кодов, которые используютсяв системах передачи дискретных сообщенийдля борьбы с помехами. Такие кодыназываются помехоустойчивымиили корректирующими.

Пусть для передачисообщений используется равномерныйдвоичный код с длиной кодового словаn.Тогда общее число кодовых слов равноN0=2n.

Предположим, что для передачи сообщенийиспользуются все возможные кодовыеслова N=N0.Здесь N– число кодовых слов, используемых дляпередачи сообщений.

Такой код называетсяпростымили примитивным.

Если при приемепроизошла ошибка в одном или несколькихсимволах, приемник заменит переданноекодовое слово другим. Но в пункте приеманет оснований сомневаться в правильностирешения, так как передатчик имеет правоиспользовать любое слово кода. Такимобразом, прииспользовании простого кода невозможнообнаружить ошибку по принимаемым кодовымсловам.

Увеличим длинукодовых слов n. Тогда общее число кодовыхслов N0будет больше числа слов, используемыхдля передачи сообщений N.

N0>N

Выбранные дляпередачи кодовые слова (их число равноN)называются разрешенными.Остальные кодовые слова, которые неиспользуются и в точке приема появлятьсяне должны, называются запрещенными.

В этом случаеошибки могут привести к появлению вприемнике либо разрешенного кодовогослова (ошибка не обнаружена), либозапрещенного кодового слова (обнаружено наличие ошибок).

Рассмотримнесколько примеров.

Источник: https://studfile.net/preview/7513556/page:6/

12 Лекция ДК каналы без памяти

Каналы с памятью.:  Канал, в котором каждый символ выходной последовательности зависит

12 ДК каналы без памяти, с памятью. Краевые искажения и дробления. Методы регистрации сигналов

Дискретный канал всегда содержит внутри непрерывный канал. Преобразование непрерывного канала в дискретный производит модем.

Поэтому в принципе можно получить математическую модель дискретного канала из модели непрерывного канала при заданном модеме.

Образно говоря, модем, осуществляющий переход от непрерывного канала в поток ошибок. Наиболее важные и достаточно простые модели дискретных каналов следующие.

Постоянный симметричный канал без памяти определяется как дискретный канал, в котором каждый переданный кодовый символ может быть принят ошибочно с фиксированной вероятностью р и правильно с вероятностью 1-р, причём в случае ошибки вместо переданного символа может быть с равной вероятностью принят любой другой символ. Термин “без памяти” означает, что вероятность ошибочного приёма символа не зависит от предистории, т.е. от того, какие символы передавались до него и как они были приняты. Вероятности переходов в двоичном симметричном канале схематически можно представить в виде графа (рис.12.1).

Рисунок 12.1- Переходные вероятности в двоичном симметричном канале

Постоянный симметричный канал без памяти со стиранием отличается от предыдущего канала тем, что алфавит на выходе канала содержит дополнительный (m+1)-й символ, который часто обозначают знаком “?”. Этот символ появляется тогда, когда демодулятор не может надёжно опознать переданный символ.

Вероятность такого отказа от решения или стирания символа pc в данной модели постоянна и не зависит от передаваемого символа. За счёт введения стирания удаётся значительно снизить вероятность ошибки, иногда её даже считают равной нулю. На рис.12.2 показаны вероятности переходов в такой модели.

Рисунок 12.2.-Переходные вероятности в двоичном симметричном канале со стиранием

Несимметричный канал без памяти характеризуется тем, что ошибки в нём возникают независимо друг от друга, однако вероятности ошибок зависят от того, какой символ передаётся. Так, в двоичном несимметричном канале вероятность приёма символа 1 при передаче символа 0 не равна вероятности приёма 0 при передаче 1.

Простейшей моделью двоичного канала с памятью является марковская модель, определяемая матрицей переходных вероятностей:

 (12.1)

где р1—условная вероятность принять (i+1)-й символ ошибочно, если предыдущий принят правильно; (1-р1)-условная вероятность принять (i+1)-й символ правильно, если предыдущий символ принят правильно; р2- условная вероятность принять (i+1)-й символ ошибочно, если предыдущий принят ошибочно; (1-р2)-условная вероятность принять (i+1)-й символ правильно, если предыдущий символ принят ошибочно.

Откуда

(12.2)

Другой подход к построению математических моделей каналов связан с методом переменных состояния. Важной особенностью этого метода является возможность непосредственного моделирования систем, описываемых уравнениями состояния с помощью аналогового или цифрового вычислительного устройства.

Уравнения состояния обычно составляют в виде системы дифференциальных уравнений первого порядка, которую приводят к форме векторного (матричного) дифференциального уравнения первого порядка.

Этот метод даёт универсальный подход для моделирования каналов передачи информации систем связи для самых различных сообщений, способов кодирования и модуляции, линий связи с детерминированными и случайными параметрами и аддитивными шумами.

Краевые искажения и дробления

Под действием различных дестабилизирующих факторов: не идеальность характеристик НКС; действие помех, элементы сигнала могут искажаться по длительности, т. е. появляются краевые искажения и дробления.

https://www.youtube.com/watch?v=v6tj53D3azU

Индивидуальные КИ – смещения ЗМ относительно идеального значащего момента

Относительные КИ – это индивидуальные, отнесенное к длительности единичного элемента.

Преобладания – элементы одного знака удлиняются, а другого укорачиваются.

Дробления – это искажения, при которых один элемент преобразуется в несколько более коротких (дробится).

Методы регистрации сигналов

Процесс определения и запоминания значащей позиции сигнала данных – называется регистрацией.

Метод стробирования – значащая позиция принимаемого элемента определяются на основании анализа знака импульса в середине единичного интервала. Если индивидуальное КИ не превышает 0,5τ, то элемент регистрируются правильно.

Исправляющая способность – это величина, на которую допускаются смещения ЗМ, не вызывающее неправильный прием элемента.

Интегральный метод регистрации — решение о виде принятого элемента выносится на основании анализа напряжения на всем единичном интервале.

В идеальном случае (если единичный. элемент не искажен), то Uвых = 1; решением о «1» принимается при Uвых >= 0,5; решением о «0» принимается при Uвых < 0,5.

Контрольные вопросы:

1. Чем определяется симметричный канал без памяти;

2. Отличие симметричного канала без памяти со стиранием от без стирания;

3. Чем характеризуется несимметричный канал без памяти;

4. Матрица переходов для Марковской модели;

5. Что такое краевые искажения и чем они характеризуются;

6. Что такое преобладания и дробления;

7. Каково назначение методов регистрации;

8. Что такое исправляющая способность приемника;

9. В чем состоит основная идея регистрации методом стробирования;

10. Нарисуйте структурную схему устройства, реализующего регистрацию методом стробирования и поясните принцип её работы;

11. В чем состоит основная идея интегрального метода регистрации;

12. Нарисуйте структурную схему устройства, реализующего регистрацию интегральным методом и поясните принцип работы;

13. Сравните методы регистрации.

Источник: http://lib.kstu.kz:8300/tb/books/2016/TSS/Mehtiev%20i%20dr%2012/%D0%A2%D0%B5%D0%BE%D1%80%D0%B8%D1%8F/lek12.htm

Непрерывный канал. Способы задания и описания непрерывных каналов

Каналы с памятью.:  Канал, в котором каждый символ выходной последовательности зависит

Каналы, при поступлении на вход которых непрерывного сигнала на его выходе сигнал тоже будет непрерывным, называют непрерывными. Они всегда входят в состав дискретного канала.

Непрерывными каналами являются, например, стандартные телефонные каналы связи (каналы тональной частоты — ТЧ) с полосой пропускания 0,3…3,4 кГц, стандартные широкополосные каналы с полосой пропускания 60…108 кГц, физические цепи и др.

Модель канала может быть представлена в виде линейного четырехполюсника (рисунок 3.4)

Рисунок 3.4 — Модель линейного непрерывного канала

15. Дискретный канал.Расширенный дискретный канал (РДК). Синхронные и асинхронные дискретные каналы.

Дискретный канал (ДК) включает непрерывный канал связи и устройство преобразования сигналов (НКС +УПС) приема и передачи. Алфавит ДК состоит из двух сообщений «1» и «0».

Основными характеристиками ДК являются:

· скорость передачи информации R (бит/с);

· скорость модуляции В (Бод);

· верность передачи информации характеризуется коэффициентом ошибок по единичным элементам:

где hош- число ошибочных передаваемых элементов;

hпер- число передаваемых элементов.

Экспериментально измеряемая величина k является оценкой для вероятности ошибки. Дискретный канал без памяти (канал с независимыми ошибками) — это канал, для которого в любой момент времени вероятность появления символа на выходе зависит только от символа на входе.

Канал с памятью (канал с группирующимися ошибками) — это канал, в котором каждый символ выходной последовательности зависит как от соответствующего символа на входе, так и от прошлых входных и выходных символов. Большинство реальных каналов являются каналами с памятью.

Расширенный дискретный канал (РДК) включает в себя дискретный канал, кодер и декодер. Алфавит канала состоит из 2n сообщений, где n — число элементов в кодовой комбинаций.

Расширенный дискретный канал характеризуется:

· коэффициентом ошибок по кодовым комбинациям;

· эффективной скоростью передачи информации.

Эффективная скорость учитывает, что не все элементы несут информацию и не все комбинации поступающие на вход выдаются получателю.

Методы повышения верности:

1) Меры эксплуатационного и профилактического характера:

· повышения стабильности работы генераторного оборудования;

· резервирование электропитания;

· выявление и замена отказавшего оборудования;

· повышение квалификации обслуживающего персонала.

2) Мероприятия по увеличению помехоустойчивости передачи единичных элементов:

· увеличение отношения сигнал — помеха (увеличение амплитуды длительности);

· применение более помехоустойчивых методов модуляции;

· совершенствование методов обработки;

· выбор оптимальных сигналов, однако это не всегда возможно.

· В синхронных дискретных каналах ввод каждого единичного элемента производится в строго определенные моменты времени и они предназначены для передачи только изохронных сигналов.

· По асинхронному каналу можно передавать любые сигналы — изохронные, анизохронные.

16. Метод Стаффинга (метод цифрового выравнивания).

Цифровым выравниванием называется метод доведения изменя­ющейся скорости объединяемого цифрового сигнала до некоторой опорной скорости, которой в данном случае является скорость системы высшего порядка в пересчете на один цифровой сигнал низшего порядка.

Выравнивание осуществляется путем введения в цифровой сигнал дополнительных выводов (выравнивающих симво­лов), либо удаления информационных символов, значения которых передаются в приемное устройство с помощью дополнительного служебного канала.

Для того чтобы в приемном устройстве можно было восстановить исходный цифровой сигнал в первоначальном виде, информация о любой операции, проведенной в передатчике, посылается в приемник, в котором осуществляется обратная опе­рация.

Различают три вида цифрового выравнивания: положительное, отрицательное и двустороннее.

При положительном выравнивании предполагается, что сумма максимальных скоростей входных сигналов, подлежащих объединению, меньше скорости составного сигнала. Входные сигналы проходят через устройства синхронизации, которые определяют, насколько надо увеличить их скорость, чтобы они были синхронны с сигналом системы высшего порядка.

Входной сигнал дополняется определенным числом символов. Информация о дополнительных символах передается на приемной станции» где эти символы будут опущены как излишние.

В цикле системы высшего порядка есть оп­ределенное место, в котором может находиться выравнивающий импульс, поэтому на приемную сторону линии достаточно лишь послать информацию о том что имело место цифровое выравнивание

При отрицательном цифровом выравнивании предполагается» что частота записи в устройстве памяти передающего оборудования f1 больше частоты считывания f2 .

В связи с этим память будет наполняться до ее переполнения, однако прежде чем это произойдет пороговая схема контроля задержит запись на время, равное длительности одного символа. Информация о том, что произошло удаление символа, а также его значение передается по служебному каналу на. приемную сторону.

Приемное устройство выделяет эту информацию задерживает считывание из приемного устройства памяти на время, равное длительности одного символа (который был удален в передатчике).

Просмотров 842 Эта страница нарушает авторские права

Источник: https://allrefrs.ru/1-19545.html

Причины памяти реальных дискретных каналов :: Статьи :: Профтемы студенту и преподавателю

Каналы с памятью.:  Канал, в котором каждый символ выходной последовательности зависит

Канал, в котором каждый символ на выходе статистически зависит, как от соответствующего символа на входе, так и от предыдущих входных и выходных символов, называется каналом с памятью. Большинство реальных каналов является каналами с памятью.
Память дискретного канала возникает по ряду причин.

Например, из-за ограничения полосы частот дискретного сигнала в НКС возникают переходные процессы. Длительность переходного процесса зависит от ширины полосы пропускания НКС и степени неравномерности его амплитудно-частотной характеристики АЧХ и нелинейности фазо-частотной характеристики ФЧХ.

представляет собой фильтр нижних частот и передача ведется немодулированными сигналами.

Если длительность переходного процесса превышает время единичного элемента сигнала  , на выходе канала происходит наложение переходных процессов, вызванных разными фронтами сигнала на входе.

Это явление называется межсимвольной интерференцией или межсимвольной помехой. В этом случае каждый символ на выходе дискретного канала зависит от нескольких последовательных символов на входе.

Другая причина возникновения памяти — занижение уровня сигнала в канале. Если длительность занижения уровня значительно превышает длительность  , то на этом отрезке уменьшается мощность сигнала, и возрастает вероятность ошибки. Следовательно, ошибки будут группироваться под влиянием занижения уровня, то есть не будут статистически независимыми.
В общем случае для канала с памятью вводят понятие состояние канала. Под состоянием канала понимают последовательность предшествующих входных или выходных символов до некоторого момента времени или вероятность ошибки в символе. Тогда каждый символ последовательности на выходе ДК будет зависеть от соответствующего символа на входе и от состояния канала в данный момент.

Характеристика общегосударственной системы телеграфной связи (ОГСТС). Принципы построения иорганизации телеграфных сетей

Рисунок1.2 Схема построения телеграфной сети

 Телеграфные сети строятся по радиально-узловому принципу с использованием узлов коммутации трех классов — У-1, У-2 и У-3 и оконечных пунктов (рис.1.2). Узлы коммутации 1-го класса У-1 (территориальные узлы коммутации) входят в состав территориальных автоматизированных узлов коммутации и управления ВСС РФ и предназначаются в основном для обработки транзитной нагрузки.

У-1 соединяются между собой по принципу «каждый с каждым». Узлы коммутации 2-го класса У-2 (зоновые узлы коммутации) размещаются в местах сосредоточения большого числа потребителей (в областных, краевых и республиканских центрах) и предназначаются для обработки местной, исходящей и входящей нагрузок.

Эти узлы при технико-экономической целесообразности могут использоваться также для обработки транзитной нагрузки. У-2 должны соединяться с двумя ближайшими У-1 (обязательные связи) и при технико-экономической целесообразности — с другими У-1 и У-2. Узлы коммутации 3-го класса У-3 (местные узлы коммутации) размещаются в районных центрах (районные узлы связи — РУС) и городских узлах связи.

Каждый У-3 должен соединяться с близлежащим У-2. При технико-экономической целесообразности У-3 могут быть связаны с У-1. В У-1, У-2 и У-3 устанавливается оборудование автоматической коммутации, аппаратура образования дискретных каналов, а также кроссовое оборудование, используемое для переключения каналов коммутируемых сетей и для организации каналов некоммутируемой сети.

Оконечные пункты подключаются к У-3, У-2 и, в отдельных случаях, к У-1 с помощью простых или составных дискретных каналов. При этом каждый оконечный пункт должен подключаться к одному узлу (У-3, У-2 или У-1). По территориальному принципу телеграфные сети разделяются на магистральную, внутризоновые и местные сети.

Магистральная сеть располагается на территории всей страны и обеспечивает соединение между собой всех внутризоновых сетей. Магистральная сеть включает в себя У-1, У-2 и дискретные каналы, соединяющие их между собой. Каждая внутризоновая сеть располагается на территории одной зоны, которая, как правило, совпадает с административными границами области, края, республики.

Каждая внутризоновая сеть обеспечивает соединение между собой местных сетей данной зоны и включает в себя У-2, У-3 и дискретные каналы, соединяющие У-3 с У-2. Каждая местная сеть располагается на территории города или на территории сельского района и называется соответственно городской или сельской.

Каждая местная сеть включает в себя оконечные пункты и дискретные каналы (физические цепи), соединяющие оконечные пункты с ближайшим узлом коммутации. Внутризоновая и местные сети образуют зоновую сеть (зону) с центром в У-2.

Зоновые сети, организационно закрепленные за У-1, образуют территорию У-1.

Нумерация

На телеграфных сетях применяется закрытая система нумерации с шестизначным номером, не зависящая от маршрута установления соединения. Нумерация имеет вид АBCXXX, где ABC — код зоны нумерации телеграфной связи, ХХХ — номер оконечного пункта (ГОС (городское отделение связи) или РУС (районный узел связи)).

АВС присваиваются номера от 101-599 (для Белгорода 156, Оренбурга 144). Для срочных вызовов первая цифра номера станции увеличивается на 5. Например, для Белгорода в седьмое отделение связи набирается : 656-007.
ГОС присваиваются номера 001- 499. РУС присваиваются номера 500-599.

Центральным предприятиям связи, не имеющим номеров, присваивается номер 000.

 Сеть абонентского телеграфирования

Абонентский телеграф является наиболее оперативным видом документальной связи благодаря тому, что оконечные телеграфные установки располагаются непосредственно у абонентов.

Сеть АТ строится с использованием метода КК на базе станций и подстанций КК и, соединяющих их дискретных каналов, обеспечивающих передачу информации со скоростью 50 бит/с, используя код МТК-2.

Для построения сети АТ используются транзитные (оконечно-транзитные) станции КК, оконечные (оконечно-транзитные) СКК, и могут применяться подстанции коммутации каналов (ПСКК), должны соединяться друг с другом по принципу «каждый с каждым».

Источник: http://taketop.ru/articles/elektrotexnika/seti-svjazi/diskret-soob/prichinu-pamjati

Scicenter1
Добавить комментарий