Энтропия и информация
Страница 2

В теории информации в формуле для энтропии обычно используют двоичные логарифмы, тогда (энтропия и информация) измеряется в битах. Это удобно тем, что выбор между двумя равновероятными уровнями Xi (как в двоичном) сигнале характеризуется неопределенностью 1 бит. В популярной литературе иногда пользуются десятичными логарифмами и единицей энтропии является дит. В физике удобнее пользоваться натуральными логарифмами и единицей энтропии является нат (поскольку в дальнейшем наш подход существенно физический, мы также используем натуральные логарифмы). Выбор основания – лишь вопрос масштаба, в любом случае энтропия безразмерна. Возможная величина энтропии заключена в пределах:

0<= H(X)<= logN.

Страницы: 1 2 


Это интересно:

Экскурсия «влияние человеческой деятельности на естественные лесные сообщества»
В ближайшем, который посещается людьми, я провела экскурсию. Целью этой экскурсии являлась оценка влияния некоторых видов деятельности человека на лесные сообщества. По окончании экскурсии была заполнена таблица 3. Таблица 3. Влияние ра ...

Формирование человеческого языка
Человеческий язык, как это имело место и в отношении материальной культуры, прошел долгий путь развития, и звуки, сопровождающие первые трудовые действия, еще не могли быть подлинными словами, обозначающими отдельные объекты, их качества ...

Определение концентрации триглицеридов (ТГ) в сыворотке и плазме крови энзиматическим колориметрическим методом
Тглицериды липаза глицерин + жирная кислота Глицерин + АТФ глицерокиназа глицерил-3-фосфат +2 H2O Глицерил-3-фосфат + O2 ГФО диоксиацетон фосфат +2 H2O H2O2 + 4-ААР + 4-хлорфенол пероксидаза хинонимин + 4H2O Набор реагентов : TRIGLYCE ...