Энтропия и информацияСтраница 2
В теории информации в формуле для энтропии обычно используют двоичные логарифмы, тогда (энтропия и информация) измеряется в битах. Это удобно тем, что выбор между двумя равновероятными уровнями Xi (как в двоичном) сигнале характеризуется неопределенностью 1 бит. В популярной литературе иногда пользуются десятичными логарифмами и единицей энтропии является дит. В физике удобнее пользоваться натуральными логарифмами и единицей энтропии является нат (поскольку в дальнейшем наш подход существенно физический, мы также используем натуральные логарифмы). Выбор основания – лишь вопрос масштаба, в любом случае энтропия безразмерна. Возможная величина энтропии заключена в пределах:
0<= H(X)<= logN.
Это интересно:
Полученные результаты и их обсуждение
Экспрессия белков клеточного цикла и Cdk 5 имеет различный уровень в исследованных отделах мозга и зависит от функционального состояния сусликов.
Гибернация достоверно снижает в гиппокампе уровень экспрессии Cdc 2, Cdk 2 и Cdk 4, а экспр ...
Отравления некоторыми грибами
Отравление фаллоидином
Возникает при употреблении некоторых аманитовых грибов, таких как бледная поганка, вонючий мухомор или весенняя поганка. В мякоти этих грибов обнаружнены следующие высокотоксичные вещества:
фаллин
фаллоидин
неск ...
Статистическая обработка результатов исследования
Достоверность отличий между средними определяли с использованием t-критерия Стьюдента. Корреляционный анализ проводили с помощью программы Статистика (версия 6.0). ...

