Скачать:TXTPDF
Отсутствующая структура. Введение в семиологию

Lo studio dell’uomo, Milano, 1963; Clyde Kluckhohn, Mirror for Man, N. Y., 1944; Tullio

Tentori, Antropologia culturale, Roma, 1960; Ruth Benedict, Modelli di cultura, Milano, 1960; AAVV, La ricerca antropologica, Torino, 1966; Remo Cantoni, Il pensiero dei primitivi, Milano, 2a ed., 1963; Carlo Tullio Altan, Antropologia funzionale, Milano, 1966.

7 Приводимый ниже пример взят из работы Tullio de Mauro, Modelli semiologici — L’arbetrarieta semantica, in

«Lingua e stile», I. 1.

35

Именно такая коммуникативная цепь возникает во множестве устройств, называемых

гомеостатами и предназначенных, например, не допускать превышения определенной

температуры, обеспечивая ее регулировку при получении соответствующим образом закодирован-

ного сообщения. Но такая же цепь возникает и в случае радиосообщения. Источником

информации в таком случае выступает отправитель, который, прикинув, что он, собственно, хочет

сказать, начинает говорить в микрофон (передатчик); микрофон преобразует звуки голоса в другие

физические сигналы, волны Герца, передающиеся по каналу связи в приемник, в свою очередь

преобразующий их в артикулированную речь, которую слышит адресат. Когда я с кем-то

разговариваю, замечает Уоррен Уивер 8, мой мозг служит источником информации, а мозг моего

собеседника — адресатом; мой речевой аппарат является передающим устройством, его ухо —

приемником.

Но как мы вскоре увидим, стоит нам поместить на противоположных концах коммуникативной

цепи людей, ситуация чрезвычайно усложнится, поэтому вернемся к нашей первоначальной

модели коммуникации между двумя механизмами.

II.2.

Чтобы известить адресата о том, что вода достигла нулевой отметки, нужно послать ему

сообщение. Пусть таким сообщением будет загорающаяся в нужный момент лампочка, хотя само

собой разумеется, что у принимающего устройства нет никаких органов чувств и что оно не

«видит» лампочки, — с него достаточно выключателя, замыкающего и размыкающего

электрическую цепь. Но для удобства мы будем говорить о загорающейся или гаснущей лампочке.

Однако состояния лампочки — это уже некий код: зажженная лампочка означает, что вода

достигла нулевой отметки, в то время как не горящая лампочка говорит о том, что этого еще не

случилось. Код, таким образом, устанавливает некоторое соответствие между означающим

(зажженная или погасшая лампочка) и означаемым (вода достигла или не достигла нулевой

отметки). Впрочем, в нашем случае означаемое это не что иное, как готовность устройства

определенным образом ответить на полученный сигнал, при этом означаемое и референт, т.е. то

реальное явление, к которому относится знак (достижение водой нулевой отметки), — вещи

разные, ведь устройство не «знает», достигла или не достигла вода нулевой отметки, прибор

устроен так, что придает определенное значение сигналу «лампочка загорелась» и реагирует

соответствующим образом .

8 Warren Weaver, The Mathematics of Communication, in «Scientific American», 181, 1949

36

Между тем существует также явление, называемое шумом. Шум — это возникающая в канале

связи помеха, способная исказить физические характеристики сигнала. Это могут быть

электрические разряды, внезапное обесточивание и т. п., из-за которых сигнал «лампочка не

горит» может быть истолкован превратно, а именно понят так, что вода ниже нулевой отметки.

Схема такой коммуникации дана на с. 13.

II.3.

Но это значит, что, если мы хотим уменьшить риск ошибки из-за шума, нам следует усложнить

код. Допустим, мы установили две лампочки А и В. Когда лампочка А горит, это значит, что все в

порядке; если А гаснет и зажигается В, значит, вода превысила уро вень нулевой отметки. В этом

случае мы удвоили затраты на коммуникацию, но зато уменьшился и риск ошибки, связанной с

возникновением шума. Обесточивание погасило бы обе лампочки, но принятый нами код не

предусматривает ситуации «обе лампочки не горят», и мы в состоянии отличить сигнал от не-

сигнала.

Но может случиться и так, что из-за какой-то простейшей неисправности вместо лампочки В

загорится лампочка А или наоборот, и тогда в целях избежания этой опасности мы продолжаем

усложнять код, увеличивая его комбинаторные возможности. Добавим еще две лампочки и

получим ряд ABCD, в котором АС будет означать «безопасный уровень», BD — нулевую отметку.

Таким образом мы уменьшим опасность помех, могущих исказить сообщение.

Итак, мы ввели в код элемент избыточности: мы пользуемся двумя парами лампочек для

сообщения того, что можно было бы сообщить с помощью одной лампочки, и, стало быть, дублируем сообщение.

Впрочем, избыточность, предоставляющая возможность дублировать сообщение, не только

обеспечивает большую надежность, усложненный таким образом код позволяет передавать

дополнительные сообщения. Действительно, код, состоящий из элементов ABCD, допускает

различные комбинации, например: A-B-C-D, AB-BC-CD-AC-BD-AD, ABC-BCD-ACD-ABD, а

также другие сочетания «AB -С D» или же «A-C-B-D» и т. д.

Код, следовательно, предполагает наличие репертуара символов, и некоторые из них будут

соотноситься с определенными явлениями, в то время как прочие до поры до времени останутся

незадействованными, не значащими (хотя они и могут заявлять о себе в виде шума), но готовыми

означить любые сообщения, которые нам покажутся достойными передачи.

9 Подробнее об этом в А 2 1 2

37

Схема 1. Коммуникативный процесс между двумя механизмами

38

Всего этого достаточно, чтобы код мог сигнализировать не только об уровне опасности. Можно

выделить ряд уровней, последовательно описывающих переход от полной безопасности к

состоянию тревоги, обозначая уровни ниже нулевой отметки -3, -2, -1 и т. д., и рад уровней выше

нулевой отметки 1, 2, 3, от «очень тревожно» до «максимальная опасность», закрепив за каждым

определенную комбинацию букв путем введения соответствующих программ в передающее и

принимающее устройства.

II.4.

Каким же образом передается сигнал в кодах такого типа? Принцип их действия — выбор из двух

возможностей, обозначим его как оппозицию «да » и «нет «. Лампа или горит, или не горит (есть

ток в цепи, нет тока). Суть дела не меняется, если сигнал передается как-то иначе. Во всех

подобных случаях имеется бинарная оппозиция, максимальная амплитуда колебания от 1 к 0, от

«да» к «нет», от размыкания к замыканию.

Здесь не обсуждается вопрос о том, является ли метод бинарных оппозиций, позаимствованный, как мы увидим позже, из теории информации, наиболее подходящим способом описания передачи

информации и всегда ли и везде передача информации основана на двоичном коде (всякая ли

коммуникация, когда бы и где она ни осуществлялась, базируется на последовательном двоичном

выборе). Однако то обстоятельство, что все науки, от лингвистики до нейрофизиологии, при

описании коммуникативных процессов пользуются бинарным методом, свидетельствует о его

простоте и экономичности в сравнении с другими.

III. Информация

III.1.

Когда мы узнаем, какое из двух событий имеет место, мы получаем информацию. Предполагается, что оба события равновероятны и что мы находимся в полном неведении относительно того, какое

из них произойдет. Вероятность — это отношение числа возможностей ожидаемого исхода к

общему числу возможностей. Если я подбрасываю монетку, ожидая, орел выпадет или решка, вероятность выпадания каждой из сторон составит 1/2.

В случае игральной кости, у которой шесть сторон, вероятность для каждой составит 1/6, если же

я бросаю одновременно две кости, рассчитывая получить две шестерки или две пятерки, вероятность выпадания одинаковых сторон будет равняться произведению простых вероятностей, т. e. 1/36.

39

Отношение ряда событий к ряду соответствующих им возможностей — это отношение между

арифметической и геометрической прогрессиями, и второй ряд является логарифмом первого.

Это означает, что при наличии 64-х возможных исходов, когда, например, мы хотим узнать, на

какую из 64-х клеточек шахматной доски пал выбор, мы получаем количество информации, равное Lg264, т. e. шести. Иными словами, чтобы определить, какое из шестидесяти четырех

равновероятных событий произошло, нам необходимо последовательно произвести шесть

операций выбора из двух.

Как это происходит, показано на рисунке 2, причем для простоты число возможных случаев

сокращено до восьми если имеется восемь непредсказуемых, так как они все равновероятны, возможных исходов, то определение одного из них потребует трех последовательных операций

выбора. Эти операции выбора обозначены буквами. Например, чтобы идентифицировать пятый

случай, нужно три раза произвести выбор в точке А между B1 и В2, в точке B2 между С3 и C4 и в

точке СЗ выбрать между пятым и шестым случаями. И так как речь шла об идентификации одного

случая из восьми возможных, то

Log28 = 3.

40

В теории информации единицей информации, или битом (от «binary digit», т. e. «бинарный

сигнал»), называют информацию, получаемую при выборе из двух равновероятных возможностей.

Следовательно, если идентифицируется один из восьми случаев, мы получаем три бита

информации, если один из шестидесяти четырех — то шесть битов.

При помощи бинарного метода определяется один из любого возможного числа случаев—

достаточно последовательно осуществлять выбор, постепенно сужая круг возможностей.

Электронный мозг, называемый цифровым, или дигитальным, работая с огромной скоростью, осуществляет астрономическое число операций выбора в единицу времени. Напомним, что и

обычный калькулятор функционирует за счет замыкания и размыкания цепи, обозначенных 1 и О

соответственно; на этой основе возможно выполнение самых разнообразных операций, предусмотренных алгеброй Буля.

III.2.

Характерно, что в новейших лингвистиических исследованиях обсуждаются возможности

применения метода бинарных оппозиций при изучении вопроса о возникновении информации в

таких сложных системах, как, например, естественный язык . Знаки (слова) языка состоят из

фонем и их сочетаний, а фонемы—это минимальные единицы звучания, обладающие

дифференциальными признаками, это непродолжительные звучания, которые могут совпадать или

не совпадать с буквами или буквой алфавита и которые сами по себе не обладают значением, но, однако, ни одна из них не может подменять собой другую, а когда такое случается, слово

меняет свое значение. Например, по-итальянски я могу по-разному произносить «e» в словах

«bene» и «cena», но разница в произношении не изменит значения слов. Напротив, если, говоря по-

английски, я произношу «i» в словах

«ship» и «sheep» (транскрибированных в словаре соответственно «?ip»

и «?i:p») по-разному, налицо оппозиция двух фонем, и действительно, первое слово означает «корабль», второе — «овца». Стало быть, и в этом случае можно говорить об

информации, возникающей за счет бинарных оппозиций.

III.3.

Вернемся, однако, к нашей коммуникативной модели. Речь шла о единицах информации, и мы

установили, что когда, например, известно, какое событие из восьми возможных осуществилось, мы получаем три бита информации. Но эта «информация «имеет косвен-

10 См библиографию в Lepschy, cit, и у Якобсона (Якобсон P. Избранные работы М , 1985) 41

ное отношение к собственно содержанию сообщения, к тому, что мы из него узнали. Ведь для

теории информации не представляет интереса, о чем говорится в сообщениях, о числах, человеческих именах, лотерейных билетах или графических знаках. В теории информации зна-

чимо число выборов для однозначного определения события. И важны также альтернативы, которые — на уровне источника — представляются как со-возможные. Информация это не

столько то, что говорится, сколько то, что может быть сказано. Информация — это мера

возможности выбора. Сообщение, содержащее один бит информации (выбор из двух

равновероятных возможностей), отличается от сообщения, содержащего три бита информации

(выбор из восьми равновероятных возможностей), только тем, что во втором случае

просчитывается большее число вариантов. Во втором случае информации больше, потому что

исходная ситуация менее определенна. Приведем простой пример: детективный роман тем более

держит читателя в напряжении и тем неожиданнее развязка, чем шире круг подозреваемых в

убийстве. Информация — это свобода выбора при построении сообщения, и, следовательно, она

представляет собой статистическую характеристику источника сообщения. Иными словами, информация — это число равновероятных возможностей, ее тем больше, чем шире круг, в

котором осуществляется выбор. В самом деле, если в игре задействованы не два, восемь или

шестьдесят четыре варианта, a n миллиардов равновероятных событий, то выражение

I = Lg2l09n

составит неизмеримо большую

Скачать:TXTPDF

Отсутствующая структура. Введение в семиологию Умберто читать, Отсутствующая структура. Введение в семиологию Умберто читать бесплатно, Отсутствующая структура. Введение в семиологию Умберто читать онлайн