Скачать:PDFTXT
Открытое произведение

работу, потому что часть отдает охладителю. Таким образом, часть теплоты Q1 преобразуется в работу, кроме того имеется теплота Q — Q1, которая передается охладителю.

Таким образом, если после преобразования работы в теплоту (первый закон термодинамики) я преобразую эту теплоту в работу, мне не удается вернуться к исходному количеству этой работы. Наблюдается уменьшение или, как обычно говорят, «расход» энергии, которую уже не удастся восстановить. Энергия «расходуется». Таким образом, некоторые природные процессы не являются полностью обратимыми: «эти процессы однонаправленны, и с каждым из них мир делает шаг, след которого никоим образом нельзя стереть»3. Если мы хотим найти общую меру этой необратимости, надо предположить, что природа, так сказать, отдает предпочтение одним состояниям перед другими (то есть тем, к которым устремляются необратимые процессы) и кроме того, нам придется отыскать физическую величину, которая количественно измеряет предпочтение, отдаваемое природой определенному состоянию. Такая величина имела бы свойство расти во всех необратимых процессах. Это и есть энтропия.

Таким образом, второе начало термодинамики, утверждая «расход» энергии, стало законом энтропии, причем настолько, что обычно идею энтропии связывают с идеей этого «расхода» и тем выводом, согласно которому, наблюдая за развитием любого естественного процесса в направлении увеличивающегося расхода и поступательного уменьшения энергии, можно якобы говорить о «тепловой смерти» вселенной. Однако надо раз и навсегда отметить, что если понятие энтропии и используется в термодинамике для того, чтобы определить расход энергии (и, следовательно, здесь неизбежно начинают звучать пессимистические нотки, коль скоро нам позволено облекать в чувства научные размышления), в действительности представляет собой статистическую величину и потому является математически нейтральным инструментом. Иными словами, энтропия представляет собой измерение состояния наибольшей равновероятности, к которому стремятся естественные процессы. В этом смысле и принято говорить, что природа имеет предпочтения: она предпочитает более единообразное состояние менее единообразному, и теплота переходит от более нагретого тела к менее нагретому потому, что состояние равномерного распределения температуры более вероятно, чем состояние неравномерного распределения. Иными словами, взаимонаправленная скорость молекул в большей степени тяготеет к состоянию единообразия, а не к состоянию различия, в котором, при их различной скорости, совершаются различные тепловые реакции. Исследования, проведенные Больцманом в области кинетики газов, показали, что природа прежде всего тяготеет к элементарной неупорядоченности, мерой которой является энтропия4.

Тем не менее необходимо еще раз подчеркнуть, что понятие энтропии является чисто статистическим, так же, как, в конечном счете, чисто статистическим является тот же принцип необратимости: как уже показал Больцман, в замкнутой системе обратимость не невозможна, а только невероятна. Столкновение молекул газа происходит согласно статистическим законам, которые сводят различие скоростей к среднему равенству. Когда более быстрая молекула сталкивается с более медленной, может случиться так, что последняя передаст часть своей скорости первой молекуле, но статистически более вероятно, что произойдет обратное, то есть быстрая молекула замедлит свой бег и сообразует свою скорость со скоростью более медленной молекулы, порождая состояние большего единообразия и, следовательно, способствуя росту элементарной неупорядоченности. «Таким образом, закон увеличения энтропии обусловлен законом больших чисел, известным любому виду статистики, однако он не относится к строгим физическим законам, которые, как, например, законы механики, не допускают исключений»5. То, каким образом от теории «расхода» энергии можно перейти к использованию понятия энтропии в теории информации, нам довольно ясно показывают рассуждения Ганса Рейхенбаха. Общая тенденция к возрастанию энтропии, свойственная физическим процессам, не препятствует тому, чтобы (как мы это ощущаем каждый день) происходили такие физические процессы, в которых совершается определенная организация, то есть упорядочение событий в соответствии с определенной невероятностью (все органические процессы таковы) и, следовательно, в соответствии с уменьшением энтропии. По отношению к общей графической кривой роста энтропии эти моменты ее уменьшения Рейхенбах называет branch systems (боковыми системами) (как отклонения, ответвления от этой кривой), в которых взаимодействие некоторых событий приводит к упорядочению соответствующих элементов. Приведем пример. Ветры, дующие на пляже, порождают в тысячах песчинок общую тенденцию к беспорядку и, следовательно, к единообразию их расположения, но вот неожиданно по пляжу проходит человек, и взаимодействие его ног с поверхностью песка представляет собой взаимодействие событий, приводящих к появлению определенной конфигурации (статистически совершенно невероятной) следа от его ноги. Эта конфигурация, являющаяся формой, фактом определенной организации, очевидно, будет стремиться к исчезновению под воздействием ветров, иными словами, если она и представляла собой ответвление от общей кривой энтропии (там, где сама энтропия уменьшалась, уступая место невероятному порядку), сама боковая система, тем не менее, будет стремиться к тому, чтобы снова слиться с общей кривой увеличивающейся энтропии. В то же время в этой системе, как раз благодаря уменьшению элементарной неупорядоченности и осуществлению порядка, сложились причинно — следственные отношения: причина представляла собой совокупность фактов взаимодействия с песчинками пляжа (читай «человеческая нога»), а следствие — возникшую затем их организацию («след»).

Существование причинно — следственных отношений в системах, организованных при уменьшении энтропии, приводит к возникновению «воспоминания»; с физической точки зрения воспоминание представляет собой запись, «упорядочение, структура которого остается неизменной, так сказать, замороженной»6. Это помогает нам установить цепь причин, чтобы воссоздать событие, однако поскольку второе начало термодинамики ведет к признанию и утверждению существования воспоминаний о прошлом, постольку воспоминание представляет собой не что иное, как накопление информации, из этого рождается тесная связь между энтропией и информацией1.

Поэтому нас не удивит, если в теоретических работах по информации мы обнаружим широко используемый термин «энтропия»: это, напротив, поможет нам понять, что измерение количества информации означает измерение того порядка или беспорядка, в соответствии с которым организовано то или иное сообщение.

Понятие информации в теории Винера

Для Норберта Винера, который широко использует теорию информации в своих кибернетических исследованиях, то есть использует для того, чтобы оценить возможность контроля над коммуникацией среди людей и машин, информативное содержание того или иного сообщения зависит от степени его организации; информация является мерой упорядоченности и, следовательно, мера беспорядка, то есть энтропия, будет противоположностью информации. Иначе говоря, информация, заключенная в каком — либо сообщении, зависит от его способности организоваться в соответствии с конкретным порядком, благодаря невероятной систематизации избегая той равновероятности, того единообразия, той элементарной неупорядоченности, к которой преимущественно стремились бы естественные события. Приведем пример. Если я подбрасываю в воздух большое количество кубиков, на гранях которых написаны буквы алфавита, они в любом случае выпадут так, что их последовательность будет лишена всякого смысла, например, AAASQMFLLNSUHOI и т. д. Эта последовательность ничего мне не говорит: она сказала бы мне что — нибудь, если бы была организована по правилам орфографии какого — нибудь языка, несла на себе печать определенных орфографических и грамматических критериев, если бы, одним словом, основывалась на предугадываемой и организованной системе сочетаний, то есть на коде. Язык — это человеческое порождение, типичная branch system, при его создании многочисленные факты взаимодействовали между собой для того, чтобы возникло состояние упорядоченности, точных отношений. Поскольку он является организованной системой (избегающей равной вероятности, характерной для неупорядоченности), язык представляет собой невероятное событие по отношению к общей кривой энтропии. Однако эта организованность, естественным образом невероятная, теперь, внутри системы, утверждает свою цепь вероятностей, совокупность вероятностей, которые как раз и управляют организацией языка, благодаря чему, например, я могу почти наверняка предсказать, что если в середине незнакомого мне итальянского слова встречаются две согласные буквы, то следующая будет гласной. В музыке примером, аналогичным языку, branch system, коду, будет тональная система, которая совершенно невероятна по отношению к природным акустическим явлениям (располагающимся как пустые звуки), однако внутри организованной системы, каковой она является, устанавливаются критерии вероятности, появляется возможность, пользуясь этими критериями, с некоторой уверенностью, по крайней мере, в общих чертах, предсказать мелодическую кривую последовательности, но, предвидя, например, в определенный момент появление основного тона.

Изучая передачу сообщений, теория информации понимает их именно как организованные системы, управляемые установленными законами вероятности, системы, в которых в виде помехи, исходящей извне, или ослабления самого сообщения (все эти элементы понимаются как «шум») может заявить о себе некая неупорядоченность, то есть оскудение сообщения, увеличение энтропии. Если значение представляет собой организацию сообщения по определенным правилам вероятности (именно по правилам, а не по статистической равновероятности, которая позитивно измеряется энтропией), тогда неупорядоченность — это опасность, грозящая уничтожить само сообщение, а энтропия — ее измерение. Таким образом, энтропия будет негативным измерением смысла сообщения8.

Для того, чтобы защитить сообщение от такого оскудения, чтобы, несмотря на проникновение шума, мешающего его принятию, смысл содержания (его порядок) в основном оставался без изменения, мне придется как бы окутать это сообщение условными повторениями, окружить его избытком четко определенных вероятностей, чтобы, каким бы упомянутый шум ни был, доля информации все равно сохранилась бы. Этот излишек вероятностей и является избыточностью. Предположим, нам надо сообщить: «Я тебя слышу» («Ti odo»). Допустим, что кто — то кричит эти слова с одной горной вершины на другую, что, передавая эту фразу, неопытная телеграфистка неправильно расставляет на своем передатчике необходимые точки и тире или что, наконец, она написана на листке бумаги, оказавшемся в классической бутылке, где бумагу подмочила вода. В контексте передачи информации все эти помехи и ситуации являются шумом. Чтобы быть уверенным, что сообщение будет принято в надлежащем виде, что, например, ошибка телеграфистки не изменит фразу на «Я тебя ненавижу» («Ti odio»), a порывы ветра не превратят ее в нечто непонятное, я могу сказать так: «Я тебя слышу, то есть улавливаю твои слова». Говоря в общих чертах, можно сказать, что, как бы плохо ни обстояли дела, для того, кто принимает сообщение, все — таки сохраняется возможность, основываясь на скудных и неполных его компонентах, воссоздать его лучшим образом.

Если же говорить точнее, то в языковой системе смысловая избыточность определяется всей совокупностью синтаксических, орфографических и грамматических правил, которые как бы устанавливают необходимые лингвистические вехи. В этом смысле можно сказать, что, будучи системой заранее определенных вероятностей, с которыми и устанавливается связь, язык представляет собой коммуникативный код. Использование местоимений, частиц, флексий в определенных языках способствует тому, что в структурном плане сообщение усложняется и в большей степени соотносится со вполне определенными (а не какими — либо другими) вероятностями. Впав в крайность, можно даже сказать, что гласные в словах являются элементами избыточности будто бы для того, чтобы сделать более вероятным и понятным расположение согласных (которые определяют то или иное слово). Глядя на совокупность согласных «лшд», я могу догадаться, что речь идет о «лошади», даже если и не вижу гласных «о» и «а». Однако эти последние появляются между согласными для того, чтобы я увидел совершенно полное и понятное слово, появляются почти как некий

Скачать:PDFTXT

Открытое произведение Умберто читать, Открытое произведение Умберто читать бесплатно, Открытое произведение Умберто читать онлайн