Сайт продается, подробности: whatsapp telegram
Скачать:TXTPDF
Отсутствующая структура. Введение в семиологию

величину. И тот, кто, имея дело с таким источником, при

получении сообщения осуществляет выбор одной из n миллиардов возможностей, получает

огромное множество битов информации. Ясно, однако, что полученная информация представляет

собой известное обеднение того несметного количества возможностей выбора, которым

характеризовался источник до того, как выбор осуществился и сформировалось сообщение.

В теории информации, стало быть, берется в расчет равновероятность на уровне источника, и эту

статистическую величину назывют заимствованным из термодинамики термином энтропия 11 . И

действительно, энтропия некоторой системы — это состояние равновероятности, к которому

стремятся ее элементы. Иначе говоря, энтропия

11 См Норберт Винер. Кибернетика С. E. Shannon, W. Weaver, The Mathematical Theory of information, Urbana, 1949, Colin Cherry, On Human Communication, cit, A. G. Smith, ed , Communication and Culture (часть I), N Y.

1966; а также работы, указанные к прим. 2 и 4.

42

связывается с неупорядоченностью, если под порядком понимать совокупность вероятностей, организующихся в систему таким образом, что ее поведение делается предсказуемым. В

кинетической теории газа описывается такая ситуация: предполагается, впрочем, чисто гипоте-

тически, что между двумя заполненными газом и сообщающимися емкостями наличествует некое

устройство, называемое демоном Максвелла, которое пропускает более быстрые молекулы газа и

задерживает более медленные. Таким образом в систему вводится некоторая упорядоченность, позволяющая сделать прогнозы относительно распределения температур. Однако в

действительности демона Максвелла не существует, и молекулы газа, беспорядочно сталкиваясь, выравнивают скорости, создавая некую усредненную ситуацию, тяготеющую к статистической

равновероятности. Так система оказывается высокоэнтропийной, а движение отдельной молекулы

газа непредсказуемым.

Высокая энтропийность системы, которую представляют собой буквы на клавиатуре пишущей

машинки, обеспечивает возможность получения очень большого количества информации. Пример

описан Гильбо: машинописная страница вмещает 25 строк по 60 знаков в каждой, на клавиатуре

42 клавиши, и каждая из них позволяет напечатать две буквы, таким образом, с добавлением

пробела, который тоже знак, общее количество возможных символов составит 85. Если, умножив

25 на 60, мы получаем 1500 позиций, то спрашивается, какое количество возможных комбинаций

существует в этом случае для каждого из 85 знаков клавиатуры?

Общее число сообщений с длиной L, полученных с помощью клавиатуры, включающей С знаков, можно определить, возводя L в степень С. В нашем случае это составит 85 возможных сообщений.

Такова ситуация равновероятности, существующая на уровне источника, и число возможных

сообщений измеряется 2895-ти значным числом.

Но сколько же операций выбора надо совершить, чтобы идентифицировать одно-единственное

сообщение? Очень и очень много, и их реализация потребовала бы значительных затрат времени и

энергии, тем больших, что, как нам известно, объем каждого из возможных сообщений равен 1500

знакам, каждый из которых определяется путем последовательных выборов между 85 символами

клавиатуры… Потенциальная возможность источника, связанная со свободой выбора, чрезвычайно

высока, но передача этой информации оказывается весьма затруднительной .

12 G Т. Guilbaud, La Cybernetique P U F , 1954

43

III.4.

Здесь-то и возникает нужда в коде с его упорядочивающим действием. Но что дает нам введение

кода? Ограничиваются комбинационные возможности задействованных элементов и число самих

элементов. В ситуацию равновероятности источника вводится система вероятностей: одни

комбинации становятся более, другие менее вероятными. Информационные возможности

источника сокращаются, возможность передачи сообщений резко возрастает.

Шеннон 13 определяет информацию сообщения, включающего N операций выбора из h символов, как I = NLg2 h (эта формула напоминает формулу энтропии).

Итак, сообщение, полученное на базе большого количества символов, число комбинаций которых

достигает астрономической величины, оказывается высокоинформативным, но вместе с тем и

непередаваемым, ибо для этого необходимо слишком большое число операций выбора. Но эти

операции требуют затрат, идет ли речь об электрических сигналах, механическом движении или

мышлении: всякий канал обладает ограниченной пропускной способностью, позволяя осуще-

ствить лишь определенное число операций выбора. Следовательно, чтобы сделать возможной

передачу информации и построить сообщение, необходимо уменьшить значения N и h. И еще

легче передать сообщение, полученное на основе системы элементов, число комбинаций которых

заранее ограничено. Число выборов уменьшается, но зато возможности передачи сообщений

возрастают.

Упорядочивающая функция кода как раз и позволяет осуществить коммуникацию, ибо код

представляет собой систему вероятностей, которая накладывается на равновероятность

исходной системы, обеспечивая тем самым возможность коммуникации. В любом случае ин-

формация нуждается в упорядочении не из-за ее объема, но потому, что иначе ее передача

неосуществима.

С введением кода число альтернатив такого высокоэнтропийного источника, как клавиатура

пишущей машинки, заметно сокращается. И когда я, человек знакомый с кодом итальянского

языка, за нее сажусь, энтропия источника уменьшается, иными словами, речь идет уже не о 85

сообщениях на одной машинописной странице, обеспечиваемых возможностями клавиатуры, но о

значительно меньшем их числе в соответствии с вероятностью, отвечающей определенному

набору ожиданий, и, стало быть, более предсказуемом. И даже если

13 Впервые закон сформулирован R.V L. Harthley, Transmission of Information, in «Bell System Tech. I», 1928.

См. также, помимо Cherry, cit, Anatol Rapaport, What is Information?, in «ETC», 10, 1953.

44

число возможных сообщений на страничке машинописного текста неизменно велико, все равно

введенная кодом система вероятностей делает невозможным присутствие в моем сообщении таких

последовательностей знаков, как «wxwxxsdewvxvxc», невозможных в итальянском языке за

исключением особых случаев металингвистических описаний, таких как только что приведенное.

Она, эта система, не разрешает ставить q после ass, зато позволяет предсказать с известной долей

уверенности, что вслед за ass появится одна из пяти гласных: asse, assimilare и т.д. Наличие кода, предусматривающего возможность разнообразных комбинаций, существенно ограничивает число

возможных выборов.

Итак, в заключение дадим определение кода как системы, устанавливающей 1) репертуар

противопоставленных друг другу символов; 2) правила их сочетания; 3) окказионально

взаимооднозначное соответствие каждого символа какому-то одному означаемому. При этом

возможно выполнение лишь одного или двух из указанных условий 14 .

IV. Код

IV.1.

Все сказанное позволяет вернуться к нашей первоначальной модели. В упоминавшемся

водохранилище могут происходить самые разнообразные процессы. Уровень воды в нем может

устанавливаться какой угодно. И если бы нужно было описать все возможные уровни, понадобился бы обширный репертуар символов, хотя фактически нас не интересует, поднялась ли

вода на один или на два миллиметра или настолько же опустилась. Во избежание этого

приходится произвольно членить континуум, устанавливая дискретные единицы, пригодные для

целей коммуникации и получающие статус смыслоразличителей. Допустим, нас интересует, поднялся ли уровень воды с отметки 2 до отметки 1; при этом совершенно неважно, на сколько

именно сантиметров или миллиметров уровень воды превышает отметку 2. Помимо уровней 2 и 1

все прочие для нас несущественны, мы их не принимаем во внимание. Таким образом

формируется код, т.е. из многочисленных возможных комбинаций четырех символов А, В, С и D

выделяются некоторые в качестве наиболее вероятных.

14 Так , в нашем примере с механизмом исключается п 3. Получаемым сигналам не соответствует никакое

означаемое. (В крайнем случае можно говорить о соответствии лишь для того, кто установил код.) 45

Например:

А

АВ= -3

BCD

ВС= -2

ACD

D

CD=-1

ABD

элементы,

лишенные значения

и обладающие

АВС=0

AB-CD

непредусмотренные

только

комбинации

В

дифференциаль- АС=1

A-C-B-D

ными признаками BD=2

и т.д.

С

AD=3

Итак, принимающее устройство должно быть отрегулировано таким образом, чтобы адекватно

реагировать только на предусмотренные комбинации, пренебрегая всеми прочими как шумом.

Ничто, впрочем, не препятствует тому, чтобы, как было сказано, не принятые в расчет

комбинации были использованы в случае, если возникнет необходимость более точного расчета

уровней, естественно, что при этом изменится и код.

IV.2.

И теперь мы уже можем, говоря об информации как о возможности и свободе выбора, разграничить два значения этого понятия, по форме одинаковых, ведь речь идет об определенной

степени свободы выбора, но по существу различных. В самом деле, у нас есть информация

источника, которая в отсутствие гидро- и метеосводок, позволяющих предсказать повышение или

понижение уровня воды, рассматривается как состояние равновероятности, вода может

достигнуть какого угодно уровня.

Эта информация корректируется кодом, устанавливающим систему вероятностей. В

статистическую неупорядоченность источника вносится упорядочивающее начало кода.

Но кроме того, у нас есть также информация кода. И действительно, на основе имеющегося кода

мы можем составить семь равновероятных сообщений. Код вносит в физическую систему некий

порядок, сокращая ее информационный потенциал, но по отношению к конкретным сообщениям, которые формируются на его основе, сам код в определенной мере оказывается системой равных

вероятностей, упраздняемых при получении того или иного сообщения. Отдельное сообщение в

его конкретной форме, будучи какой-то определенной последовательностью символов, представляет собой некую оконча-

46

тельную — ниже мы увидим до какой степени — упорядоченность, которая накладывается на

относительную неупорядоченность кода.

При этом нужно отметить, что такие понятия, как информация (противопоставленное

«сообщению»), неупорядоченность (противопоставленное «упорядоченности»), равновероятность

противовес системе вероятностей) являются все без исключения понятиями относительными.

В сравнении с кодом, который ограничивает информационное поле источника, последний

обладает известной энтропией, но по сравнению со сформированными на его основе сообщениями

сам код тоже характеризуется определенной энтропией.

Порядок и беспорядок понятия относительные, порядок выглядит порядком на фоне беспорядка и

наоборот; мы молоды в сравнении с нашими отцами и стары в сравнении с сыновьями; кто-то, считающийся в одной системе моральных правил развратником, в другой, менее жесткой, может

сойти за образец нравственной чистоты.

IV.3.

Все сказанное имеет смысл при следующих условиях: 1) имеется источник информации и имеется

отдельное передающее устройство, в котором, согласно заложенному коду, осуществляется

идентификация смыслоразличительных признаков и отсеивание всего того, что не предусмотрено

кодом;

2) приемник информации — машина, однозначным образом реагирующая на поступающие

сообщения,

3) код, на который настроены приемник и передатчик, один и тот же;

4) машина — как передающее, так и принимающее устройства — не в состоянии «усомниться» в

правильности кода.

Все, однако, меняется, если эти исходные условия не соблюдены, например: 1) если адресатом сообщений оказывается человек, даже если источник по-прежнему машина (см.

A.2.I.IV.);

2) если источник информации — человек. В таком случае источник и передатчик совмещаются (я

сам являюсь источником и передатчиком информации, которую намереваюсь сообщить кому-то.

Более того, часто совпадают также источник и код в том смысле, что единственной информацией, которой я располагаю, оказывается система равновероятностей, навязываемая мне используемым

мной кодом (см. A.2.V.);

3) предполагается, что возможны случаи, когда либо отправитель, либо адресат могут усомниться

в правильности кода (см. А.З.).

Как мы увидим ниже, принятие этих условий означает переход от мира сигнала к миру смысла.

47

2.Мир смысла

I. Значение «значения». Денотация и коннотация

I.1.

Предположим, что адресат сообщения, информирующего об уровне воды в водохранилище, не

механизм, а человек. Зная код, он отдает себе отчет в том, что последовательность ABC означает

нулевую отметку, тогда как прочие сигналы указывают на то, что вода находится на любом

другом уровне от наименее до наиболее опасного

Итак, вообразим себе, что человек получает сигнал ABC. В этом случае ему становится ясно, что

вода достигла нулевой отметки (опасность), но этим дело не кончается. Например, человек

может встревожиться. Эта тревога родилась не сама по себе, в какой-то мере она связана с

содержанием сообщения. И в самом деле, последовательность ABC, феномен чисто физического

порядка, сообщает не только то, что предусмотрено кодом (вода достигла нулевой отметки), или

денотативное значение, но несет дополнительное значение — коннотацию, сигнализируя об

опасности. С машиной такого не бывает: соответствующим образом настроенный механизм, получив сообщение ABC, реагирует согласно заложенной программе, ему доступна информация, но значение ему недоступно. Механическое устройство не знает, что стоит за

последовательностью сигналов ABC, оно не понимает ни что такое нулевая отметка, ни что такое

опасность. Машина получает запрограммированное количество бит информации, необходимое для

надежной передачи сообщения по каналу связи, и адекватно реагирует.

Когда мы имеем дело с машиной, мы

Скачать:TXTPDF

Отсутствующая структура. Введение в семиологию Умберто читать, Отсутствующая структура. Введение в семиологию Умберто читать бесплатно, Отсутствующая структура. Введение в семиологию Умберто читать онлайн