Энтропия и информация
Страница 2

В теории информации в формуле для энтропии обычно используют двоичные логарифмы, тогда (энтропия и информация) измеряется в битах. Это удобно тем, что выбор между двумя равновероятными уровнями Xi (как в двоичном) сигнале характеризуется неопределенностью 1 бит. В популярной литературе иногда пользуются десятичными логарифмами и единицей энтропии является дит. В физике удобнее пользоваться натуральными логарифмами и единицей энтропии является нат (поскольку в дальнейшем наш подход существенно физический, мы также используем натуральные логарифмы). Выбор основания – лишь вопрос масштаба, в любом случае энтропия безразмерна. Возможная величина энтропии заключена в пределах:

0<= H(X)<= logN.

Страницы: 1 2 


Это интересно:

Теоретическая анатомия периферической нервной системы.
Общая характеристика черепных нервов и их функциональное значение. Черты сходства и различия черепных и спинномозговых нервов. Чувствительные двигательные и смешанные по функции нервы. Принцип выхода черепных нервов из мозга и из черепа. ...

Фундаментальные типы взаимодействий в физике. Почему они так называются? Какие законы сохранения фундаментальны для всего естествознания и почему?
В настоящее время известны четыре фундаментальных типа взаимодействий: гравитационное, слабое, электромагнитное и сильное. Слабое взаимодействие отвечает, например, за бета-распады ядер, электромагнитное - связывает электрон и протон в а ...

АТР-азы F1F0-типа из митохондрий, хлоропластов и бактерии
Большинство бактерий, а также митохондрии и хлоропласты содержат родственные АТРазы F1F0 - типа, которые используют трансмембранный протонный электрохимический градиент для синтеза АТР из ADP и неорганического фосфата. В физиологических у ...