Мустақил иш мавзу: Берилган матннинг ахборот ўлчовини топувчи дастур яратиш Гурух


Download 109.65 Kb.
Sana03.06.2020
Hajmi109.65 Kb.
#114242
Bog'liq
2-mustaqi ish


ЎЗБЕКИСТОН РЕСПУБЛИКАСИ АҲБОРОТ ТЕХНОЛОГИЯЛАРИ ВА КОМУНИКЦИЛАРИНИ РИВОЖЛАНТИРИШ ВАЗИРЛИГИ

МУХАММАД АЛ ХОРАЗМИЙ НОМИДАГИ ТОШКЕНТ АХБОРОТ ТЕХНОЛОГИЯЛАРИ УНИВЕРСИТЕТИ


Аҳборот хавфсизлиги факултети

Ахборот назарияси ва кодлаш фанидан


МУСТАҚИЛ ИШ
Мавзу: Берилган матннинг ахборот ўлчовини топувчи дастур яратиш

Гурух: 702-19 магистранти

Бажарди: Келдиев Ҳ.Ё

Текширди: Ганиев C.K



Тошкент -2019

Мавзу: Берилган матннинг ахборот ўлчовини топувчи дастур яратиш



Информациянинг статистик назарияси К.Шеннон томонидан батафсил

ўрганилган.

Информациянинг статистик ўлчови. Информациянинг статистик назарияси К.Шеннон томонидан батафсил ўрганилган.

Юз бериш эхтимоллиги бирга яқин бўлган тез-тез учрайдиган ходиса хусусида хабар пайдо бўлса, бундай хабарнинг қабул қилувчи учун информативлиги кам бўлади. Ходисаларга қандайдир тажрибанинг натижаси сифатида қараш мумкинки, бундай тажрибанинг барча натижалари ансамблни, яъни ҳодисаларнинг тўлиқ гуруҳини ташкил этади. К.Шеннон тажриба жараёнида пайдо бўлувчи ходисанинг ноаниқлиги тушунчасини киритди ва уни энтропия деб атади.

Ансамбл энтропияси унинг ноаниқлигининг ва демак информативлигининг миқдорий ўлчови бўлиб, тажрибанинг ҳар бир мумкин бўлган натижалари эҳтимоллиги тўпламининг ўртача функцияси сифатида ифодаланади.

Фараз қилайлик, q турли хилли N тажриба натижалари мавжуд бўлсин. i-натижа ni марта қайтарилади ва миқдори Ii сифатида баҳоланувчи информацияга эга. У вақтда битта тажриба натижасида хосил бўлувчи ўртача информация қуйидагича аниқланади:



Агар ҳар бир натижадаги информация миқдорининг унинг эхтимоллиги pi билан боғлиқлигини ҳамда иккилик бирликларда (битларда)



каби ифодаланишини ҳисобга олсак, қуйидагини ёзиш мумкин.



ёки




нисбатлар – натижаларнинг қайтарилиш частоталари, демак, уларни эхтимолликлари билан алмаштириш мумкин

Унда битларда ифодаланган ўртача информация қуйидагига тенг бўлади:



ёки


Ҳосил бўлган катталик энтропия деб аталади ва Н харфи билан белгиланади.

Энтропия қуйидаги хусусиятларга эга:


  1. Энтропия ҳақиқий ва манфий бўлмаган катталик. Чунки, ҳар қандай i(1 ≤ i ≤ N) учун pi 0 дан 1 гача оралиқда ўзгаради, яъни log2 pi манфий ва, демак, - pi log2 pi мусбат.

  2. pi лардан бири бирга тенг, қолганлари нолга тенг бўлганида энтропия нолга тенг. Бу вазият манбанинг ҳолати тўла аниқланганига мос келади.

  3. Барча эҳтимолликлар бир-бирига тенг бўлганида энтропия энг катта қийматга эга бўлади, яъни Hмакс= - log21/q=log2q

  4. Бир неча статистик боғланмаган информация манбаларининг бирлашма энтропияси дастлабки манбалар энтропияларининг йиғиндисига тенг.

Умумий холда, ахборот миқдорини тажриба натижасида энтропиянинг камайиши деб хисоблаш мумкин. Агар ноаниқлик бутунлай бартараф этилса, информация миқдори энтропияга тенг бўлади, яъни

I = Н.


Агар ноаниқлик қисман бартараф этилса, информация миқдори бошланғич ва охирги энтропияларнинг фарқига тенг, яъни I=Н12.

Таъкидлаш лозимки, агар барча ходисалар тенг эхтимолликка эга ва статистик боғланмаган бўлса, Хартли ва Шеннон бўйича информация миқдори бир хил бўлади.



1-расм. Дастур интерфейси



2-расм. Дастур натижаси



Ilova

#include

#include

#include

#include

using namespace std;

int main()

{

map freq;



string inputString;

getline(cin, inputString);

for (char symbol : inputString)

{

if (freq.find(symbol) == freq.end())



freq[symbol] = 1;

else


freq[symbol] += 1;

}

size_t stringLen = inputString.length();



double entropy = 0;

double prob;

for (const auto& symCount : freq)

{

cout << prob << symCount.first << endl;



entropy -= prob * log2(prob);

}


double h = entropy / stringLen;

cout << "Entropy: " << entropy << endl



<< "Entropy on a symbol: " << h << endl

<< "Length of code: " << ceilf(log2(freq.size())) << endl

<< "Redundancy: " << 1 - h / log2 (freq.size()) << endl;

}
Download 109.65 Kb.

Do'stlaringiz bilan baham:




Ma'lumotlar bazasi mualliflik huquqi bilan himoyalangan ©fayllar.org 2024
ma'muriyatiga murojaat qiling