Ta‟lim vazirligi muhammad al-xorazmiy nomidagi
Download 1.79 Mb.
|
AXBOROT VA KODLASH NAZARIYALARI-converted
Misol 1. Xabar manbai ikkita x1, x2 belgilardan iborat axborotni uzatishi kerak, ya‘ni axborotdagi belgilar soni N=2 ga teng. Ikkala belgi ham bir – biriga bog‗liq emas va paydo bo‗lish ehtimolliklari bir xil. U holda axborot hajmini hisoblang?
Yechish: Agar x1 va x2 belgilar bir – biriga bog‗liq bo‗lmasa, ehtimolliklari bir – biriga teng bo‗lsa, unda P(x1)=P(x2)=1/N=0,5 ga teng bo‗ladi. U holda axborot hajmi quyidagicha bo‗ladi: Imax log2 0,5 1 . Agar axborotdagi belgilarni paydo bo‗lish ehtimolliklari bir – biriga teng bo‗lmasa axborot hajmi kamayadi, ya‘ni u quyidagicha aniqlanadi: n I P(xi ) log 2 P(xi ) i1 Agar axborotdagi belgilarning ehtimolliklari teng bo‗lmaslikdan tashqari, yana bir – biriga bog‗liq bo‗lsa, unda xabardagi axborot hajmi yanayam kamayib ketadi va quyidagiga teng bo‗ladi: I i1 P( xi xj i ) log2 P( xi ) xj Misol_2'>Misol 2. Axborotdagi umumiy belgilar soni N=32 ga teng va barcha belgilarning paydo bo‗lish ehtimolliklari bir – biriga teng. U holda axborot hajmini hisoblang. Yechish: Agarda barcha belgilarning paydo bo‗lish ehtimolliklari bir biriga teng bo‗lsa P 1 1 N 32 bo‗ladi. U holda axborot hajmi: 1 I log2 ( P ) log2 N log2 32 5 Misol 3. Axborot faqat 0 va 1 belgilardan iborat bo‗lsin, ya‘ni N=2 ga teng. U holda 1 ning paydo bo‗lish ehtimoli P(1)=0,25 ga teng. Xabardagi hamma belgilar ehtimolligi teng emas. U holda axborot hajmini hisoblang. Yechish: Axborotdagi belgilarning paydo bo‗lish ehtimolligi har xil bo‗lganligi uchun axborot hajmi quyidagiga teng: I P(1) log 2 (1) P(0) log 2 1 1 1 ) 3 3 0,8 P(1) P(0) ( 4 log 2 4 ( 4) log 2 ( 4) Shunday qilib, xabardagi belgilarning ehtimolliklari teng bo‗lmaganda axborot miqdori kamayadi. Axborotdagi belgilarning paydo bo‗lish ehtimolligi bilan axborot hajmi o‗rtasidagi bog‗liqlik Klod Shennon teoremasida o‗z ifodasini topgan, ya‘ni axborotdagi har bir belgiga mos keluvchi axborotni o‗rtacha hajmi (soniga) entropiya deb yuritiladi va quyidagicha aniqlanadi. H ( A) p(xi ) log 2 i1 p(xi ) Entropiya – bu xabarlar manbaining holatidagi noaniqligining o‗lchovi ham hisoblanadi. Agar manba tomonidan 1 ga teng ehtimoli bilan faqat bitta belgi uzatilayotgan bo‗lsa, u holda entropiya nolga tengdir. Agar xabar manbaidan uzatilayotgan belgilar bir xil ehtimollik bilan paydo bo‗lsa, entropiya maksimal bo‗ladi. Xabar manbai entropiyasini aniqlaymiz. Agar N=2 va P(x1)= P(x2)=0,5 bo‗lsa, u holda: 2 H ( A) P(ai ) log 2 P(ai ) 0,5 log 2 0,5 0,5 log 2 0,5 1 i1 Download 1.79 Mb. Do'stlaringiz bilan baham: |
Ma'lumotlar bazasi mualliflik huquqi bilan himoyalangan ©fayllar.org 2024
ma'muriyatiga murojaat qiling
ma'muriyatiga murojaat qiling