Поясните понятия энтропии и термодинамической вероятности. В чем состоит принцип Больцмана? Что общего между понятиями "энтропия" и "информация"? поясните понятие информация, ук

Материалы » Концепция современного естествознания » Поясните понятия энтропии и термодинамической вероятности. В чем состоит принцип Больцмана? Что общего между понятиями "энтропия" и "информация"? поясните понятие информация, ук

Энтропия - степень хаоса или беспорядка в системе. Второе начало термодинамики определяет важную тенденцию в эволюции физического мира - с течением времени в замкнутой изолированной системе энтропия должна возрастать. В результате энергии распределяются по рангам так, что высший занимают те, которые способны превратиться в большее число видов энергии. Тогда низший ранг останется теплоте, превращения которой ограничены принципом Карно. Из энергий, встречающихся в физике и химии, высший ранг имеют механическая и электрическая энергии, промежуточный - химическая энергия (из-за тепловых явлений, сопровождающих химические реакции). Психологически удобно, поскольку наш ум привык негативно воспринимать потерю чего-либо, пользоваться величиной, равной энтропии, но с обратным знаком, которую предложил ввести Шредингер. Один из творцов теории информации французский физик Бриллюэн (1889-1969) назвал ее негэнтропией: N = - S. Негэнтропия представляет качество энергии, а принцип Карно выражает закон оценивания энергии, ее деградации. Система, способная производить механическую работу (сжатая пружина, заряженная батарея, поднятый над Землей груз), может рассматриваться как источник негэнтропии, и, совершая работу, она теряет ее запас.

Во второй половине нашего столетия проблема информации стала одной из самых актуальных научных проблем, обсуждаемой в разных аспектах и на разных уровнях. Так, специалист в области передачи информации уделил бы основное внимание, например, количественным характеристикам, кодированию, влиянию шумов, помех, специалист по информатике интересуется поиском и хранением информации, информационным обеспечением науки и т.п.

Развитие науки о системах управления и кибернетики выдвинуло задачу исследования природы и сущности информационных процессов, без которых немыслима работа ЭВМ и систем управления. Исследования генетиков привели к выводу, что в основе биологической наследственности также лежит информация, благодаря которой живое воспроизводит себя в потомстве. В нейрофизиологии представление об информации позволило сформулировать закон о пропорциональности ощущения логарифму возбуждения, поскольку нервные волокна, передающие сигнал от акцепторов к мозгу, действуют по принципу идеального канала связи. Специалист по семантике смотрит на информацию как на систему знаков.

В обыденном сознании, по мнению академика В.М. Глушкова, понятие информации охватывает как те сведения, которыми располагают и обмениваются люди, так и те, что существуют независимо от них. Объем этой информации растет, так что можно говорить об информационном буме.

Прогресс кибернетики связан и с совершенствованием средств оценки измерений информации. Винер, один из создателей этой науки, не дал определения информации, но отметил, что "это не материя, и не энергия", это просто "информация". В 1927 г. Р.В. Хартли предложил исходить из того, что количество информации, заключенной в любом сообщении, связано с количеством возможностей, исключающихся этим сообщением.

Клод Шеннон и Уоррен Уивер в своем фундаментальном труде "Математическая теория связи" (1949 г) развили идею Хартли и представили формулу вычисления количества информации, в которой последняя возрастала с уменьшением вероятности отдельного сообщения. Так информация была ими определена как мера свободы чьего-либо выбора, как логарифм доступных выборов.

В 40-х годах Шеннон, исследуя пропускную способность каналов связи, вывел простую формулу, по которой можно рассчитать количество информации, отвлекаясь от ее качественных характеристик. Количество информации стали понимать как меру упорядоченности структур в противовес мере хаоса - энтропии.

Эта формула была функционально эквивалентна формуле, написанной Планком для термодинамической энтропии. Ряд ученых предполагали огромные возможности, открывающиеся из-за этого совпадения. Другие были осторожными в своих оценках. Эшби, например, заметил: "Движение в этих областях напоминает движение в джунглях, полных ловушек".


Это интересно:

Переносимость вибрации и звука
Существует довольно распространенное мнение, что вибрация является фактором, не столь радикально действующим на биологическую судьбу объекта по сравнению, например, с термическими и радиационными, действие которых, безусловно, приводит к ...

Аналитические методы. Радиоактивное лечение, радиоиммуноанализ и радиоиммунопреципитация. Введение радиоактивной метки в вирусные белки в зараженных РСВ клетках
1. Оптимальные условия для мечения вирусных белков достигаются при добавлении к зараженным клеткам через 18 ч после заражения актиномицина D в концентрации 2,5 мкг/мл. Белки РСВ удается эффективно пометить смесью - Meтионина и - цистеина ...

Растения на виргинилъном и последующих этапах онтогенеза
Наблюдения за вегетативными побегами. Растение в состоянии покоя, почки не имеют признаков роста (Пб°). Рост вегетативных материнских почек:* набухание почек (Пб1), распускание почек (Пб2). Рост и формирование побегов продолжения: начало ...