Москва 2008 предисловие
Download 442 Kb.
|
portal.guldu.uz-Informacionnaya biologiya 1
1.2.2. Информация и энтропия
Понятие «энтропия» (от греческого слова, означающего «поворот», «превращение») было введено в физику в 1865 г. Р.Клаузиусом как количественная мера неопределенности. Согласно второму началу термодинамики, в замкнутой системе, т.е. в изолированной в тепловом и механическом отношении, энтропия либо остается неизменной (если в системе протекают обратимые неравновесные процессы), либо возрастает (при неравновесных процессах) и при состоянии равновесия достигает максимума. Статистическая физика рассматривает энтропию (обозначаемую символом S) в качестве меры вероятности пребывания системы в данном состоянии. Л.Больцман отмечал (1894 г.), что энтропия связана с «потерей информации», поскольку энтропия сопровождается уменьшением числа взаимоисключающих возможных состояний, которые остаются допустимыми в физической системе после того, как относящаяся к ней макроскопическая информация уже зарегистрирована. По аналогии со статистической механикой К. Шеннон ввел в теорию информации понятие энтропии в качестве свойства источника сообщений порождать в единицу времени то или иное число сигналов на выходе. Энтропия сообщения — это частотная характеристика сообщения, выражаемая формулой (1). «Как энтропия есть мера дезорганизации, так и передаваемая рядом сигналов информация является мерой организации. Действительно, передаваемую сигналом информацию возможно толковать, по существу, как отрицание ее энтропии и как отрицательный логарифм ее вероятности. То есть чем более вероятно сообщение, тем меньше оно содержит информации» [11]. Мера неопределенности — число двоичных знаков, необходимое для фиксирования (записи) произвольного сообщения от конкретного источника, либо среднее значение длины кодовой цепочки, соответствующее самому экономному способу кодирования. Л. Бриллюэн [7] развил так называемый негэнтропийный принцип информации, согласно которому информация — это энтропия с обратным знаком (негэнтропия). Бриллюэн предложил выражать информацию (/) и энтропию (S) в одних и тех же единицах — информационных (биты) либо физических (эрг/град). В отличие от энтропии, рассматриваемой в качестве меры неупорядоченности системы, негэнтропия — мера ее упорядоченности. Применяя вероятностный подход, можно рассуждать следующим образом [29]. Допустим, физическая система имеет несколько возможных состояний. Увеличение информации о физической системе эквивалентно фиксированию этой системы в одном определенном состоянии, что приведет к уменьшению энтропии системы, т.е. I + + S= const. Чем больше известно о системе, тем меньше ее энтропия. При утрате информации о системе возрастает энтропия этой системы. Увеличивать информацию о системе можно, лишь увеличивая количество энтропии в среде вне системы, причем всегда ASe > /. В соответствии со вторым началом термодинамики энтропия замкнутой системы не может убывать со временем. Получается, что в замкнутой системе (например, в тексте) увеличение энтропии может означать только «забывание» информации, так что сохраняется соотношение I + S = const. При этом возникновение новой информации возможно только в открытой системе, где параметры порядка становятся динамическими переменными. Download 442 Kb. Do'stlaringiz bilan baham: |
Ma'lumotlar bazasi mualliflik huquqi bilan himoyalangan ©fayllar.org 2024
ma'muriyatiga murojaat qiling
ma'muriyatiga murojaat qiling