1 тпс её составные части. История развития


Download 1.1 Mb.
bet3/12
Sana14.10.2023
Hajmi1.1 Mb.
#1702242
1   2   3   4   5   6   7   8   9   ...   12
Bog'liq
spory tps moi 2 (1)

Vс = Vк, Tс = Tк, Fс = Fк, Dс = Dк, тогда Vк = Tк Fк Dс и формула для динамического диапазона уровней сигнала принимает вид: -предельная мощность сигнала

6) Количественное определение информации. Энтропия и производительность дискретного источника сообщения
Количество информации , содержащееся в символе аi, выбираемом из ансамбля ( ), где k - объем алфавита, с вероятностью , причем , определяется по формуле:
I(ai)=-log2P(ai).
Основание логарифма может быть произвольным, оно определяет лишь систему единиц измерения количества информации. Информация измеряется в двоичных единицах (битах). Одна двоичная единица информации – это количество информации, содержащейся в одном из двух выбираемых с равной вероятностью символов.
Энтропия источника независимых сообщений - среднее количество информации H(A), приходящейся на один символ выдаваемых дискретным источником независимых сообщений с объемом алфавита К, можно найти как математическое ожидание случайной дискретной величины I(ai), определяющей количество информации, содержащейся в одном случайно выбранном символе аi:
.Если в единицу времени источник выдает в среднем Vu символов (скорость источника Vu) , то среднее количество информации, создаваемой источником в единицу времени Н(А)= Vu Н(А) = где Тср - средняя длительность одного символа. Характеристику Н(А) называют производительностью дискретного источника. Источник называют стационарным, если описывающие его вероятностные характеристики не меняются во времени.
Свойства энтропии:

  1. Энтропия является непрерывной или дискретной, неотрицательной функцией P(ai)

  2. Энтропия = 0 тогда и только тогда, когда вероятность одного из состояний источника равна1

  3. Энтропия максимальна, когда все состояния источника равновероятны, т.е. P(a1)= P(a2)= P(ai)=1/к

  4. Энтропия сложного сигнала полученного объединением двух независимых сигналов равна сумме этих энтропий.

Причинами избыточности являются:

  1. неравные вероятности появления знаков (символов) на выходе источника

  2. наличие вероятностных связей между символами.

В теории вероятности доказывается, что при заданном числе возможных состояний, энтропия максимальна при равном распределении вероятностей р12=…=рк=1/к.
Для двоичного источника без памяти, когда к=2, энтропия максимальна при р(а1)=р(а2)=0.5 и равна log22=1 бит.
Зависимость энергии этого источника от р(а1)=1-р(а2) показана на рис. 1.
При р2=0 р1=1 ,а при р2=1 р1=0.
Энергия Н при этих значениях равна 0.




7) Помехи и искажения
Под помехой понимается воздействие накладываемое на сигнал, т.е. помеха это нежелательное изменение сигнала. Шум - случайная помеха. Помехи разнообразны как по своему происхождению так и по физическим свойствам. В радио каналах наиболее распространены атмосферные помехи от грозовых разрядов. Индустриальные помехи возникают из-за резкого изменения тока в цепях электроустройств. В проводных каналах основным видом помех являются импульсные шумы и прерывание связи. Когда помеха влияет на сигнал в виде x = s + n, такая помеха наз. аддитивной. Если же помеха

Download 1.1 Mb.

Do'stlaringiz bilan baham:
1   2   3   4   5   6   7   8   9   ...   12




Ma'lumotlar bazasi mualliflik huquqi bilan himoyalangan ©fayllar.org 2024
ma'muriyatiga murojaat qiling