Энтропия и информация
Страница 2

В теории информации в формуле для энтропии обычно используют двоичные логарифмы, тогда (энтропия и информация) измеряется в битах. Это удобно тем, что выбор между двумя равновероятными уровнями Xi (как в двоичном) сигнале характеризуется неопределенностью 1 бит. В популярной литературе иногда пользуются десятичными логарифмами и единицей энтропии является дит. В физике удобнее пользоваться натуральными логарифмами и единицей энтропии является нат (поскольку в дальнейшем наш подход существенно физический, мы также используем натуральные логарифмы). Выбор основания – лишь вопрос масштаба, в любом случае энтропия безразмерна. Возможная величина энтропии заключена в пределах:

0<= H(X)<= logN.

Страницы: 1 2 


Это интересно:

Полученные результаты и их обсуждение
Экспрессия белков клеточного цикла и Cdk 5 имеет различный уровень в исследованных отделах мозга и зависит от функционального состояния сусликов. Гибернация достоверно снижает в гиппокампе уровень экспрессии Cdc 2, Cdk 2 и Cdk 4, а экспр ...

Отравления некоторыми грибами
Отравление фаллоидином Возникает при употреблении некоторых аманитовых грибов, таких как бледная поганка, вонючий мухомор или весенняя поганка. В мякоти этих грибов обнаружнены следующие высокотоксичные вещества: фаллин фаллоидин неск ...

Статистическая обработка результатов исследования
Достоверность отличий между средними определяли с использованием t-критерия Стьюдента. Корреляционный анализ проводили с помощью программы Статистика (версия 6.0). ...