№1 Амалиёт машғулоти


Download 62.5 Kb.
bet2/3
Sana11.10.2023
Hajmi62.5 Kb.
#1698195
1   2   3
Bog'liq
лабор 1

Мисол 1. Хабар манбаи 2 та х1, х2 белгилардан иборат ахборотни узатиши керак, яъни ахборотдаги белгилар сони N = 2 га тенг. Иккала элемент ҳам бир – бирига боғлиқ эмас ва пайдо бўлиш эҳтимолликлари бир хил. У ҳолда ахборот ҳажмини ҳисобланг.
Ечиш : Агар х1 ва х2 белгилар бир – бирига боғлиқ бўлмаса эҳтимоликлари бир – бирига тенг бўлса, унда Р (х1)=Р(х2)=1/N=0,5 .У ҳолда axборот ҳажмини:
Imax = loq 2 0,5 = 1 бит
Агар ахборотдаги белгилларни пайдо бўлиш эҳтимолликлари бир – бирига тенг бўлмаса ахборот ҳажмини камаяди, яъни у қуйидагича аниқланади. n
I = - Σ p (xi) loq 2 P (xi) бит/ элемент (1.2)
i=1
Агарда ахборотдаги белгиларнинг эҳтимолликлари тенг
бўлмасликдан ташқари, яна бир – бирига боғлиқ бўлса, унда хабардаги ахборот ҳажми янаям камайиб кетади ва қуйидагига тенг:
n
I = - Σ Р (xi/xj) loq 2 [P (xi/ xj)],бит/ элемент (1.3)
i=1
бу ерда Р (xi/xj) – i – белгининг j - белгидан кейин пайдо бўлиш эҳтимоллиги.
Мисол 2. Ахборотдаги умумий белгиллар сони N = 32 га тенг ва барча белгилларнинг пайдо бўлиш эҳтимолликлари бир – бирига тенг. У ҳолда ахборот хажмини хисобланг.
Ечиш: Агарда барча белгилларнинг пайдо бўлиш эҳтимолликлари
бир – бирига тенг бўлса р = 1/N = 1/32 бўлади. У холда ахборот ҳажмини:
I = loq2 (1/p) = loq 2 N = loq 2 32 = 5 бит.
Мисол 3. Ахборот фақат 0 ва 1 блгиллардан иборат бўлсин яъни N = 2 га тенг. У холда 1 нинг пайдо бўлиш эхтимоли р (1) = 0,25 га тенг.Хабардаги ҳамма элементлар эҳтимоллиги тенг эмас. У ҳолда ахборот хажмини ҳисобланг.
Ечиш: Ахборотдаги белгилларнинг пайдо бўлиш эхтимоллиги хар хил бўлганлиги учун ахборот ҳажми қуйидагига тенг:
I = p (1) loq2 1/p (1) + p(0) loq2 1/p(0) = 1/4loq2 4 +3/4 loq24/3 = 0,8 бит.
Шундай қилиб, хабардаги элементларнинг эҳтимолликлари тенг бўлмаганда ахборот миқдори камаяди.
Ахборотдаги белгилларнинг пойдо бўлиши эхтимоллиги билан ахборот хажми ўртасидаги боғлиқ Клод Шеннон теоремасида ўз ифодасини топган, яъни ахборотдаги ҳар бир белгига мос келувчи ахборотни ўртача ҳажми (сонига) энтропия деб юритилади ва қуйидагича аниқланади.
n
Н(А) = - Σ Р (xi) loq 2 P (xi) бит/ элемент (1.4)
i=1
Энтропия – бу хабарлар манбаининг ҳолатидаги ноаниқлигининг ўлчови ҳам ҳисобланади. Агар манба томонидан 1 га тенг эҳтимоли билан фақат битта белги узатилаётган бўлса, у ҳолда энтропия нолга тенгдир. Агар хабар манбаидан узатилаётган белгилар бир хил эҳтимолли билан пайдо бўлса, энтропия максимал бўлади.
Хабар манбаи энтропиясини аниқлаймиз. Агар N = 2 ва p(x1) = p(x2)=0,5 бўлса, у ҳолда:
n
Н(А) = - Σ Р (xi) loq 2 P (xi) =-0,5 loq2 0,5 – 0,5 loq2 0,5=1 бит
i=1

Download 62.5 Kb.

Do'stlaringiz bilan baham:
1   2   3




Ma'lumotlar bazasi mualliflik huquqi bilan himoyalangan ©fayllar.org 2024
ma'muriyatiga murojaat qiling