Энтропия и информацияСтраница 2
В теории информации в формуле для энтропии обычно используют двоичные логарифмы, тогда (энтропия и информация) измеряется в битах. Это удобно тем, что выбор между двумя равновероятными уровнями Xi (как в двоичном) сигнале характеризуется неопределенностью 1 бит. В популярной литературе иногда пользуются десятичными логарифмами и единицей энтропии является дит. В физике удобнее пользоваться натуральными логарифмами и единицей энтропии является нат (поскольку в дальнейшем наш подход существенно физический, мы также используем натуральные логарифмы). Выбор основания – лишь вопрос масштаба, в любом случае энтропия безразмерна. Возможная величина энтропии заключена в пределах:
0<= H(X)<= logN.
Это интересно:
Период раннего детства
Период раннего детства длится от 1 года до 4 лет. В конце второго года жизни заканчивается прорезывание зубов. После 2 лет абсолютные и относительные величины годичных приростов размеров тела быстро уменьшаются. ...
Влияние сельскохозяйственной деятельности человека на окружающую среду
В процессе развития общества меняются характер и масштабы воздействия человека на природу. С возникновением оседлого сельского хозяйства в начале неолита (3—8-е тысячелетия до н. э.) воздействие человека на биосферу по сравнению с кочевым ...
Кровеносная и
лимфатическая системы
У многих беспозвоночных животных сосудистой системы как таковой нет. В частности, у губок, кишечнополостных и плоских червей транспорт питательных веществ и кислорода в разные части тела осуществляется путем диффузии их тканевых жидкостей ...

