Энтропия и информацияСтраница 2
В теории информации в формуле для энтропии обычно используют двоичные логарифмы, тогда (энтропия и информация) измеряется в битах. Это удобно тем, что выбор между двумя равновероятными уровнями Xi (как в двоичном) сигнале характеризуется неопределенностью 1 бит. В популярной литературе иногда пользуются десятичными логарифмами и единицей энтропии является дит. В физике удобнее пользоваться натуральными логарифмами и единицей энтропии является нат (поскольку в дальнейшем наш подход существенно физический, мы также используем натуральные логарифмы). Выбор основания – лишь вопрос масштаба, в любом случае энтропия безразмерна. Возможная величина энтропии заключена в пределах:
0<= H(X)<= logN.
Это интересно:
Иммуноглобулины - особое семейство белков
У большинства высших млекопитающих обнаружено пять классов иммуноглобулинов — IgG, IgA, IgM, IgD и IgE, которые различаются по размерам молекул, заряду, аминокислотному составу и содержанию углеводов.
Помимо различий между классами, суще ...
Сравнительное сравнение кожно-мускульного мешка круглых и кольчатых червей
Кожно–мускульный мешок у круглых
червей заключает хорошо представленную первичную полость тела, заполненную полостной жидкостью. В полости тела расположены внутренние органы. У кольчатых
червей под кожным эпителием нах-ся хорошо развиты ...
Росянка круглолистная
На каждом листочке находится до двух сотен волосков. На кончике каждого волоска блестит капелька жидкости. Она похожа на капельку росы. Отсюда и название растения - росянка круглолистная. Это самое настоящее растение-хищник. Блестящие лип ...

