Поясните понятия энтропии и термодинамической вероятности. В чем состоит принцип Больцмана? Что общего между понятиями "энтропия" и "информация"? поясните понятие информация, ук

Материалы » Концепция современного естествознания » Поясните понятия энтропии и термодинамической вероятности. В чем состоит принцип Больцмана? Что общего между понятиями "энтропия" и "информация"? поясните понятие информация, ук

Энтропия - степень хаоса или беспорядка в системе. Второе начало термодинамики определяет важную тенденцию в эволюции физического мира - с течением времени в замкнутой изолированной системе энтропия должна возрастать. В результате энергии распределяются по рангам так, что высший занимают те, которые способны превратиться в большее число видов энергии. Тогда низший ранг останется теплоте, превращения которой ограничены принципом Карно. Из энергий, встречающихся в физике и химии, высший ранг имеют механическая и электрическая энергии, промежуточный - химическая энергия (из-за тепловых явлений, сопровождающих химические реакции). Психологически удобно, поскольку наш ум привык негативно воспринимать потерю чего-либо, пользоваться величиной, равной энтропии, но с обратным знаком, которую предложил ввести Шредингер. Один из творцов теории информации французский физик Бриллюэн (1889-1969) назвал ее негэнтропией: N = - S. Негэнтропия представляет качество энергии, а принцип Карно выражает закон оценивания энергии, ее деградации. Система, способная производить механическую работу (сжатая пружина, заряженная батарея, поднятый над Землей груз), может рассматриваться как источник негэнтропии, и, совершая работу, она теряет ее запас.

Во второй половине нашего столетия проблема информации стала одной из самых актуальных научных проблем, обсуждаемой в разных аспектах и на разных уровнях. Так, специалист в области передачи информации уделил бы основное внимание, например, количественным характеристикам, кодированию, влиянию шумов, помех, специалист по информатике интересуется поиском и хранением информации, информационным обеспечением науки и т.п.

Развитие науки о системах управления и кибернетики выдвинуло задачу исследования природы и сущности информационных процессов, без которых немыслима работа ЭВМ и систем управления. Исследования генетиков привели к выводу, что в основе биологической наследственности также лежит информация, благодаря которой живое воспроизводит себя в потомстве. В нейрофизиологии представление об информации позволило сформулировать закон о пропорциональности ощущения логарифму возбуждения, поскольку нервные волокна, передающие сигнал от акцепторов к мозгу, действуют по принципу идеального канала связи. Специалист по семантике смотрит на информацию как на систему знаков.

В обыденном сознании, по мнению академика В.М. Глушкова, понятие информации охватывает как те сведения, которыми располагают и обмениваются люди, так и те, что существуют независимо от них. Объем этой информации растет, так что можно говорить об информационном буме.

Прогресс кибернетики связан и с совершенствованием средств оценки измерений информации. Винер, один из создателей этой науки, не дал определения информации, но отметил, что "это не материя, и не энергия", это просто "информация". В 1927 г. Р.В. Хартли предложил исходить из того, что количество информации, заключенной в любом сообщении, связано с количеством возможностей, исключающихся этим сообщением.

Клод Шеннон и Уоррен Уивер в своем фундаментальном труде "Математическая теория связи" (1949 г) развили идею Хартли и представили формулу вычисления количества информации, в которой последняя возрастала с уменьшением вероятности отдельного сообщения. Так информация была ими определена как мера свободы чьего-либо выбора, как логарифм доступных выборов.

В 40-х годах Шеннон, исследуя пропускную способность каналов связи, вывел простую формулу, по которой можно рассчитать количество информации, отвлекаясь от ее качественных характеристик. Количество информации стали понимать как меру упорядоченности структур в противовес мере хаоса - энтропии.

Эта формула была функционально эквивалентна формуле, написанной Планком для термодинамической энтропии. Ряд ученых предполагали огромные возможности, открывающиеся из-за этого совпадения. Другие были осторожными в своих оценках. Эшби, например, заметил: "Движение в этих областях напоминает движение в джунглях, полных ловушек".


Это интересно:

Экологические особенности агроценозов
Агроценозы - вторичные изменённые человеком искусственные элементарные единицы биосферы (пашня, сад, огород, пастбище). Неустойчивая искусственно созданная агроэкосистема. Особенности: искусственный отбор и культура более продуктивных ра ...

Латеральное коленчатое тело
Волокна зрительного нерва начинаются от каждого глаза и заканчиваются на клетках правого и левого латерального коленчатого тела (ЛКТ) (рис. 1), имеющего четко различимую слоистую структуру («коленчатый» — geniculate — означает «изогнутый ...

Биосенсор АМР
Тканевые материалы не только удлиняют срок службы биосенсора, но и обеспечивают большую концентрацию заданного биокатализатора. Примером может служить рассматриваемый в этом разделе биосенсор AMP с газоаммиачным датчиком. Ограниченная пло ...