Энтропия и информация
Страница 2

В теории информации в формуле для энтропии обычно используют двоичные логарифмы, тогда (энтропия и информация) измеряется в битах. Это удобно тем, что выбор между двумя равновероятными уровнями Xi (как в двоичном) сигнале характеризуется неопределенностью 1 бит. В популярной литературе иногда пользуются десятичными логарифмами и единицей энтропии является дит. В физике удобнее пользоваться натуральными логарифмами и единицей энтропии является нат (поскольку в дальнейшем наш подход существенно физический, мы также используем натуральные логарифмы). Выбор основания – лишь вопрос масштаба, в любом случае энтропия безразмерна. Возможная величина энтропии заключена в пределах:

0<= H(X)<= logN.

Страницы: 1 2 


Это интересно:

Иммуноглобулины - особое семейство белков
У большинства высших млекопитающих обнаружено пять классов иммуноглобулинов — IgG, IgA, IgM, IgD и IgE, которые различаются по размерам молекул, заряду, аминокислотному составу и содержанию углеводов. Помимо различий между классами, суще ...

Сравнительное сравнение кожно-мускульного мешка круглых и кольчатых червей
Кожно–мускульный мешок у круглых червей заключает хорошо представленную первичную полость тела, заполненную полостной жидкостью. В полости тела расположены внутренние органы. У кольчатых червей под кожным эпителием нах-ся хорошо развиты ...

Росянка круглолистная
На каждом листочке находится до двух сотен волосков. На кончике каждого волоска блестит капелька жидкости. Она похожа на капельку росы. Отсюда и название растения - росянка круглолистная. Это самое настоящее растение-хищник. Блестящие лип ...