1 тпс её составные части. История развития
Download 1.1 Mb.
|
spory tps moi 2 (1)
- Bu sahifa navigatsiya:
- 6) Количественное определение информации. Энтропия и производительность дискретного источника сообщения
- Энтропия источника независимых сообщений
- 7) Помехи и искажения
Vс = Vк, Tс = Tк, Fс = Fк, Dс = Dк, тогда Vк = Tк Fк Dс и формула для динамического диапазона уровней сигнала принимает вид: -предельная мощность сигнала
6) Количественное определение информации. Энтропия и производительность дискретного источника сообщения Количество информации , содержащееся в символе аi, выбираемом из ансамбля ( ), где k - объем алфавита, с вероятностью , причем , определяется по формуле: I(ai)=-log2P(ai). Основание логарифма может быть произвольным, оно определяет лишь систему единиц измерения количества информации. Информация измеряется в двоичных единицах (битах). Одна двоичная единица информации – это количество информации, содержащейся в одном из двух выбираемых с равной вероятностью символов. Энтропия источника независимых сообщений - среднее количество информации H(A), приходящейся на один символ выдаваемых дискретным источником независимых сообщений с объемом алфавита К, можно найти как математическое ожидание случайной дискретной величины I(ai), определяющей количество информации, содержащейся в одном случайно выбранном символе аi: .Если в единицу времени источник выдает в среднем Vu символов (скорость источника Vu) , то среднее количество информации, создаваемой источником в единицу времени Н(А)= Vu Н(А) = где Тср - средняя длительность одного символа. Характеристику Н(А) называют производительностью дискретного источника. Источник называют стационарным, если описывающие его вероятностные характеристики не меняются во времени. Свойства энтропии: Энтропия является непрерывной или дискретной, неотрицательной функцией P(ai) Энтропия = 0 тогда и только тогда, когда вероятность одного из состояний источника равна1 Энтропия максимальна, когда все состояния источника равновероятны, т.е. P(a1)= P(a2)= P(ai)=1/к Энтропия сложного сигнала полученного объединением двух независимых сигналов равна сумме этих энтропий. Причинами избыточности являются: неравные вероятности появления знаков (символов) на выходе источника наличие вероятностных связей между символами. В теории вероятности доказывается, что при заданном числе возможных состояний, энтропия максимальна при равном распределении вероятностей р1=р2=…=рк=1/к. Для двоичного источника без памяти, когда к=2, энтропия максимальна при р(а1)=р(а2)=0.5 и равна log22=1 бит. Зависимость энергии этого источника от р(а1)=1-р(а2) показана на рис. 1. При р2=0 р1=1 ,а при р2=1 р1=0. Энергия Н при этих значениях равна 0. 7) Помехи и искажения Под помехой понимается воздействие накладываемое на сигнал, т.е. помеха это нежелательное изменение сигнала. Шум - случайная помеха. Помехи разнообразны как по своему происхождению так и по физическим свойствам. В радио каналах наиболее распространены атмосферные помехи от грозовых разрядов. Индустриальные помехи возникают из-за резкого изменения тока в цепях электроустройств. В проводных каналах основным видом помех являются импульсные шумы и прерывание связи. Когда помеха влияет на сигнал в виде x = s + n, такая помеха наз. аддитивной. Если же помеха Download 1.1 Mb. Do'stlaringiz bilan baham: |
Ma'lumotlar bazasi mualliflik huquqi bilan himoyalangan ©fayllar.org 2024
ma'muriyatiga murojaat qiling
ma'muriyatiga murojaat qiling