Ta‟lim vazirligi muhammad al-xorazmiy nomidagi


Download 1.79 Mb.
bet4/116
Sana16.06.2023
Hajmi1.79 Mb.
#1514322
1   2   3   4   5   6   7   8   9   ...   116
Bog'liq
AXBOROT VA KODLASH NAZARIYALARI-converted

Misol 1. Xabar manbai ikkita x1, x2 belgilardan iborat axborotni uzatishi kerak, ya‘ni axborotdagi belgilar soni N=2 ga teng. Ikkala belgi ham bir – biriga bog‗liq emas va paydo bo‗lish ehtimolliklari bir xil. U holda axborot hajmini hisoblang?
Yechish: Agar x1 va x2 belgilar bir – biriga bog‗liq bo‗lmasa, ehtimolliklari bir – biriga teng bo‗lsa, unda P(x1)=P(x2)=1/N=0,5 ga teng bo‗ladi.
U holda axborot hajmi quyidagicha bo‗ladi:

Imax  log2 0,5  1 .

Agar axborotdagi belgilarni paydo bo‗lish ehtimolliklari bir – biriga teng bo‗lmasa axborot hajmi kamayadi, ya‘ni u quyidagicha aniqlanadi:





n



I P(xi ) log 2 P(xi )
i1

Agar axborotdagi belgilarning ehtimolliklari teng bo‗lmaslikdan tashqari, yana bir – biriga bog‗liq bo‗lsa, unda xabardagi axborot hajmi yanayam kamayib ketadi va quyidagiga teng bo‗ladi:








I  
i1
P( xi
xj i
) log2
P( xi )
xj


bu yerda
ehtimolligi.
P( xi )
x j

  • i belgining j - belgidan keyin paydo bo‗lish

Misol_2'>Misol 2. Axborotdagi umumiy belgilar soni N=32 ga teng va barcha belgilarning paydo bo‗lish ehtimolliklari bir – biriga teng. U holda axborot hajmini hisoblang.
Yechish: Agarda barcha belgilarning paydo bo‗lish ehtimolliklari bir

  • biriga teng bo‗lsa

P 1 1
N 32
bo‗ladi. U holda axborot hajmi:



1
I  log2 ( P )
 log2 N
 log2
32  5



Misol 3. Axborot faqat 0 va 1 belgilardan iborat bo‗lsin, ya‘ni N=2 ga teng. U holda 1 ning paydo bo‗lish ehtimoli P(1)=0,25 ga teng. Xabardagi hamma belgilar ehtimolligi teng emas. U holda axborot hajmini hisoblang.
Yechish: Axborotdagi belgilarning paydo bo‗lish ehtimolligi har xil bo‗lganligi uchun axborot hajmi quyidagiga teng:



I P(1) log 2 (1) P(0) log 2 1 1
1 ) 3
3  0,8

P(1)
P(0)
( 4 log 2 4
( 4) log 2 ( 4)

Shunday qilib, xabardagi belgilarning ehtimolliklari teng bo‗lmaganda axborot miqdori kamayadi.
Axborotdagi belgilarning paydo bo‗lish ehtimolligi bilan axborot hajmi o‗rtasidagi bog‗liqlik Klod Shennon teoremasida o‗z ifodasini topgan, ya‘ni axborotdagi har bir belgiga mos keluvchi axborotni o‗rtacha hajmi (soniga) entropiya deb yuritiladi va quyidagicha aniqlanadi.






H ( A)   p(xi ) log 2
i1


p(xi )



Entropiya – bu xabarlar manbaining holatidagi noaniqligining o‗lchovi ham hisoblanadi. Agar manba tomonidan 1 ga teng ehtimoli bilan faqat bitta belgi uzatilayotgan bo‗lsa, u holda entropiya nolga tengdir. Agar xabar manbaidan uzatilayotgan belgilar bir xil ehtimollik bilan paydo bo‗lsa, entropiya maksimal bo‗ladi.
Xabar manbai entropiyasini aniqlaymiz. Agar N=2 va P(x1)= P(x2)=0,5 bo‗lsa, u holda:



2



H ( A)   P(ai ) log 2 P(ai )  0,5 log 2 0,5  0,5 log 2 0,5  1
i1



Download 1.79 Mb.

Do'stlaringiz bilan baham:
1   2   3   4   5   6   7   8   9   ...   116




Ma'lumotlar bazasi mualliflik huquqi bilan himoyalangan ©fayllar.org 2024
ma'muriyatiga murojaat qiling