Энтропия и информацияСтраница 2
В теории информации в формуле для энтропии обычно используют двоичные логарифмы, тогда (энтропия и информация) измеряется в битах. Это удобно тем, что выбор между двумя равновероятными уровнями Xi (как в двоичном) сигнале характеризуется неопределенностью 1 бит. В популярной литературе иногда пользуются десятичными логарифмами и единицей энтропии является дит. В физике удобнее пользоваться натуральными логарифмами и единицей энтропии является нат (поскольку в дальнейшем наш подход существенно физический, мы также используем натуральные логарифмы). Выбор основания – лишь вопрос масштаба, в любом случае энтропия безразмерна. Возможная величина энтропии заключена в пределах:
0<= H(X)<= logN.
Это интересно:
Эволюция полигенных систем
Гены, каждый из которых сам по себе дает незначительный кумулятивный эффект, а в сумме контролируют непрерывную изменчивость, называют полигенами. Особенно много занимался исследованиями в этой области английский ученый К. Мазер. Между г ...
Влияние различных факторов среды на исследуемый объект. Влияние
температуры на жизненные функции данного объекта
Температура воды является одним из важнейших факторов, оказывающих воздействие на отправление жизненных функций рыбы, определяющих ее рост и развитие. Этот фактор действует на рыбу как непосредственно – изменяя интенсивность ферментативны ...
Человек из Кро-Маньона
Самые ранние свидетельства существования гомо сапиенс современного типа имеют возраст 30—40 тысяч лет. Ученые впервые «познакомились» с этим нашим отдаленным родственником в 1868 году, когда рабочие случайно обнаружили в пещере Кро-Маньон ...

