Энтропия и информацияСтраница 2
В теории информации в формуле для энтропии обычно используют двоичные логарифмы, тогда (энтропия и информация) измеряется в битах. Это удобно тем, что выбор между двумя равновероятными уровнями Xi (как в двоичном) сигнале характеризуется неопределенностью 1 бит. В популярной литературе иногда пользуются десятичными логарифмами и единицей энтропии является дит. В физике удобнее пользоваться натуральными логарифмами и единицей энтропии является нат (поскольку в дальнейшем наш подход существенно физический, мы также используем натуральные логарифмы). Выбор основания – лишь вопрос масштаба, в любом случае энтропия безразмерна. Возможная величина энтропии заключена в пределах:
0<= H(X)<= logN.
Это интересно:
Список сокращений
АО - антиоксиданты
АКМ – активные кислородные метаболиты
АС - атеросклероз
БОТ – бутилокситолуол
ВЖР – высокожировой рацион
ГМК - гладкомышечные клетки
ДК – диеновые коньюгаты
ИА - индекс атерогенности
ЛНП – липопротеиды низкой пл ...
Механизм дыхания кефалевых рыб
г) Кровеносная система
у рыб представлена двухкамерным сердцем, через которое течет венозная кровь, одним кругом кровообращение. Обмен веществ протекает очень медленно, температура тела не бывает постоянной, а зависит от температуры во ...
Влияние освещенности, уровня и течения воды на исследуемый объект
Основным источником света в воде является солнечная радиация. Солнечный свет поглощается поверхностным слоем воды, и только 0,45% его достигает глубины 100 м. Освещение водной среды отличается от воздушной. Волны света разной длины достиг ...

