Энтропия и информация
Страница 2

В теории информации в формуле для энтропии обычно используют двоичные логарифмы, тогда (энтропия и информация) измеряется в битах. Это удобно тем, что выбор между двумя равновероятными уровнями Xi (как в двоичном) сигнале характеризуется неопределенностью 1 бит. В популярной литературе иногда пользуются десятичными логарифмами и единицей энтропии является дит. В физике удобнее пользоваться натуральными логарифмами и единицей энтропии является нат (поскольку в дальнейшем наш подход существенно физический, мы также используем натуральные логарифмы). Выбор основания – лишь вопрос масштаба, в любом случае энтропия безразмерна. Возможная величина энтропии заключена в пределах:

0<= H(X)<= logN.

Страницы: 1 2 


Это интересно:

Амперометрические биосенсоры
Амперометрическое детектирование находит широкое применение при анализе биологических сред. В оптимальных условиях метод позволяет определять концентрации до 10~8-10~9 М, при этом величина сигнала варьируется в пределах трех-четырех поряд ...

Вывод
На этом я заканчиваю свой рассказ о млекопитающих. Я заметила определенные сходства и отличия между некоторыми видами, семействами, родами животных. Но все они относятся к общему классу Млекопитающих. Я очень надеюсь на то, что каждый из ...

Внешний вид и нравы
Морда у гепарда красива и очень своеобразна. От глаз к уголкам рта тянуться две черные полоски, придавая гепарду грустный и даже несчастный вид. Шерсть у гепарда короткая, песчаного оттенка, и вся шкура - кроме светлого брюха - усыпана ме ...