Энтропия и информацияСтраница 2
В теории информации в формуле для энтропии обычно используют двоичные логарифмы, тогда (энтропия и информация) измеряется в битах. Это удобно тем, что выбор между двумя равновероятными уровнями Xi (как в двоичном) сигнале характеризуется неопределенностью 1 бит. В популярной литературе иногда пользуются десятичными логарифмами и единицей энтропии является дит. В физике удобнее пользоваться натуральными логарифмами и единицей энтропии является нат (поскольку в дальнейшем наш подход существенно физический, мы также используем натуральные логарифмы). Выбор основания – лишь вопрос масштаба, в любом случае энтропия безразмерна. Возможная величина энтропии заключена в пределах:
0<= H(X)<= logN.
Это интересно:
Остеология.
Теоретическая анатомия костной системы. Возрастные изменения. Адаптация костей к физическим нагрузкам.
Понятие о скелете и его функциях. Кость как составная часть скелета. Строение кости. Костная ткань. Особенности строения клеточных эле ...
Влияние экологических условий на жизнеспособность мицелия
микроскопических грибов
При определении жизнеспособности грибного мицелия разной длины в различных экологических условиях среды, установлено, что увеличение концентрации органического вещества (сахарозы) в интервале 0–20 г/л было благоприятно для фрагментов Muco ...
Эволюция научной картины мира
Человек издавна стремился создать для себя некоторое целостное представление об окружающем мире, «поднявшись» над теми фрагментарными знаниями, впечатлениями, которые он получает через свои ощущения в процессе повседневной жизни.
Термин ...

